DE3910467C2 - Verfahren und Vorrichtung zur Erzeugung von Berichten - Google Patents

Verfahren und Vorrichtung zur Erzeugung von Berichten

Info

Publication number
DE3910467C2
DE3910467C2 DE3910467A DE3910467A DE3910467C2 DE 3910467 C2 DE3910467 C2 DE 3910467C2 DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A DE3910467 A DE 3910467A DE 3910467 C2 DE3910467 C2 DE 3910467C2
Authority
DE
Germany
Prior art keywords
text
signals
speech
report
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3910467A
Other languages
English (en)
Other versions
DE3910467A1 (de
Inventor
Emil F Jachmann
Larry E Bergeron
David B Chamberlain
Jy-Hong J Su
Daniel F Daly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dictaphone Corp
Original Assignee
Dictaphone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dictaphone Corp filed Critical Dictaphone Corp
Publication of DE3910467A1 publication Critical patent/DE3910467A1/de
Application granted granted Critical
Publication of DE3910467C2 publication Critical patent/DE3910467C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5307Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Speicherung und Weiterleitung von Sprachsignalen. Insbesondere betrifft sie ein System zur Speicherung und Weiterleitung ausgewählter Arten von Berichten in Form von Sprachsignalen.
In vielen Berufssparten ist es häufig erforderlich, Berichte zu erstellen. Diese Berichte können einheitlich sein oder aus ausgewählten vorgegebenen Wörtern, Bezeichnungen, Sätzen oder Abschnitten bestehen, die in einem vorgegebenen Format angeordnet sind. Ein typischer derartiger Beruf ist die Röntgenologie. Typischerweise untersucht ein Röntgenologe eine Röntgenaufnahme und erstellt einen schriftlichen Bericht über den Zustand des Patienten zur Ansicht durch den in erster Linie tätigen Arzt des Patienten (d. h. des behandelnden Arztes). Die grosse Mehrheit dieser Berichte hat im wesentlichen standardisierte Ausbildung und unterscheidet sich lediglich in Einzelheiten, wie beispielsweise den Umfang der aufgeführten Anormalitäten oder besonderen Bedingungen der Untersuchung. Ähnliche Erfordernisse für Berichte ergeben sich in Rechts-, Versicherungs- und anderen derartigen Berufen.
Um einen wirksamen Einsatz ihrer Zeit zu erzielen und wirtschaftlich für die Krankenhäuser zu arbeiten, mit denen sie zusammenarbeiten, ist es allgemeine Praxis der Röntgenärzte, ihre Berichte zu diktieren. In grossen modernen Krankenhäusern können diese Berichte auf verbesserten zentralen, digitalen Diktatsystemen diktiert werden, die seitens einer Anzahl berechtigter Anwender einen Zugang über eine Telefon- oder Audiostelle gestatten, einschliesslich den an erster Stelle behandelnden Ärzten des Patienten. Die Verwendung derartiger zentraler Diktiersysteme seitens der Röntgenärzte ermöglicht den an erster Stelle behandelnden Ärzten nahezu unmittelbaren Zugang, durch Sprache, zum Bericht des Röntgenarztes, wodurch die Notwendigkeit ausgeschaltet wird, zu warten, bis der Bericht schriftlich niedergelegt wurde, kann jedoch besonders in einem grossen, betriebsamen Krankenhaus einen Rückstand von aufgezeichneten, aber noch nicht schriftlich niedergelegten Berichten erzeugen, was unerwünschte Verzögerungen beider Erfassung und Ablage des geschriebenen Berichtes einführt. Ferner haben im Falle von Röntgenärzten mit einem schweren Akzent oder einer Sprachbehinderung, die an erster Stelle behandelnden Ärzte, die nicht mit den Röntgenärzten vertraut sind, möglicherweise Schwierigkeiten, den aufgezeichneten Bericht während des akustischen Zugangs zu verstehen, wie er durch die gegenwärtigen zentralen digitalen Diktiersysteme gegeben wird.
Ein weiterer Lösungsversuch zum Problem der Erzeugung von Berichten, wie beispielsweise Röntgenarztberichten, war die Verwendung von Spracherkennungssystemen. Derartige Systeme erkennen typischerweise Schlüsselworte oder Ausdrücke (die anschließend gelegentlich als "Triggerausdrücke" bezeichnet werden) und geben abhängig von diesen Ausdrücken vorgewählte Blöcke von ausgedrucktem Text aus. Dieser gewählte Text wird in einem vorgegebenen Format ausgegeben, um den gedruckten Bericht zu erzeugen. Derartige Systeme haben den Vorteil, einen unmittelbar gedruckten Bericht zu liefern, halten jedoch andere vom unmittelbaren akustischen Zugang zu den Berichten ab; insbesondere von einer entfernt liegenden Stelle über das Telefonnetz, da kein Sprachbericht erzeugt wurde.
Aus DE 33 17 325 A1 ist ein Computer bekannt, welcher durch Stimm-Eingabe gesteuert werden kann. Bei diesem System wird mit Hilfe einer Spracherkennungsvorrichtung aus einem Schlüsselwort ein digitaler Code gewonnen, welcher seinerseits von Speichereinrichtungen und einer Vergleichereinrichtung einem bestimmten Programm zugeordnet wird, welches dann gestartet wird.
Die DE 33 22 257 A1 beschreibt eine stimmaktivierte, computerbetriebene Aufzeichnungsvorrichtung. Hierbei diktiert ein Bediener Messergebnisse, welche dann in eine geschriebene Aufzeichnung umgewandelt werden. Darüber hinaus können auch bestimmte Computerbefehle mündlich eingegeben werden.
Die DE 37 23 329 A1 beschreibt einen durch Sprachbefehle gesteuerten Roboter.
Die DE 31 11 798 A1 beschreibt einen Anrufbeantworter, bei welchem vorgegebene Texte ohne Verwendung der individuellen Sprache eines Benutzers zusammengestellt werden sollen.
Hierbei sind bestimmte Sprachtexte vorgegeben, welche durch Betätigung einer Taste auf einem Tastenfeld ausgewählt werden. Die ausgewählten Texte können um persönliche Daten ergänzt werden.
Aus der DE 35 19 327 A1 ist ein Verfahren für die Sprachausgabe zur Bedienerführung an Endgeräten von Fernsprechvermittlungsanlagen bekannt. Das Prinzip der beschriebenen Anordnung besteht darin, dass einem Benutzer einer Fernsprechanlage Auskünfte über Funktionen der Anlage mittels eines angesagten Textes übermittelt werden. Die Textansage wird dadurch ausgelöst, dass der Bediener zunächst eine Hilfstaste betätigt, und danach ein gewünschtes Merkmal auswählt. Es wird beschrieben, dass die Merkmalsauswahl durch Sprachtriggerung ausgelöst werden kann.
Aufgabe der vorliegenden Erfindung ist die Schaffung einer verbesserten Vorrichtung bzw. eines verbesserten Verfahrens zur automatischen Berichterzeugung. Gelöst wird diese Aufgabe durch die Vorrichtung des Anspruchs 1 und das Verfahren des Anspruchs 10. Vorteilhafte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben.
Gemäß einer Ausführung der Erfindung wird eine Vorrichtung geschaffen, die einen Eingang für Sprachsignale umfasst, ein Erkennungssystem zum Erkennen vorgegebener Sprachsignale (die nachfolgend gelegentlich als "Triggerausdrücke" bezeichnet werden), ein zentrales Diktiersystem zur Speicherung und Wiedergewinnung von Sprachsignalen, eine Synthesevorrichtung (Synthesizer) zum Zusammensetzen von Sprachsignalen aus einer Texteingabe und zur Ausgabe der zusammengesetzten Sprache zum Speicher und einen Textspeicher zur Speicherung vorgegebener Textmitteilungen. Ein Steuersystem ist mit dem Erkennungssystem, der Synthesevorrichtung und dem Textspeicher verbunden. Das Steuersystem spricht auf die erkannten Triggerausdrücke an, um bestimmte Textmitteilungen auszuwählen, die im Textspeicher gespeichert sind, und gibt die ausgewählten Textmitteilungen an die Synthesevorrichtung ab und steuert diese, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen an das Speicher- und Wiedergewinnungssystem auszugeben.
Im Einklang mit dem erfindungsgemäßen Verfahren werden mündliche Berichte erzeugt, indem zuerst gesprochene Triggerausdrücke empfangen werden, anschließend die Triggerausdrücke erkannt und ausgewählten vorgegebenen Textmitteilungen zugeordnet werden, worauf Sprachsignale entsprechend den Textmitteilungen zusammengesetzt werden. Bei der bevorzugten Ausführungsform der Erfindung werden die Textmitteilungen anschließend zur Wiedergewinnung gespeichert. Bei einer bevorzugten Ausführungsform der Erfindung kann ein mit dem Steuersystem verbundener Drucker vorgesehen werden, um gedruckte Kopien der ausgewählten Textmitteilungen zu erzeugen, um einen unmittelbar gedruckten Bericht zur Verfügung zu stellen.
Der Fachmann erkennt, dass die erfindungsgemässen Ausführungsformen in vorteilhafter Weise ein System liefern, das die rasche Erzeugung von Routineberichten und die Fähigkeit einer unmittelbaren Erzeugung einer gedruckten Kopie derartiger Berichte mit unmittelbarem Zugang zu mündlichen Kopien der Berichte kombiniert. Da ferner die zur Auswahl bestimmter Abschnitte der Textmitteilungen verwendeten Triggerausdrücke willkürlich sind, kann das System Akzente und Sprachbehinderungen kompensieren, da die den Textmitteilungen entsprechenden Sprachsignale in einer gleichmässigen zusammengesetzten Sprache aufgezeichnet werden. Da in der Tat die Triggerausdrücke vollständig willkürlich sind, können das erfindungsgemässe Verfahren und die erfindungsgemässe Vorrichtung wirksam als Übersetzer arbeiten, der Textberichte und entsprechende Sprachsignale in einer Sprache, abhängig von in einer anderen Sprache gesprochenen Triggerausdrücken erzeugt.
Weitere Vorteile der Erfindung ergeben sich für den Fachmann bei Betrachtung der anliegenden Zeichnungen und der nachfolgenden detaillierten Beschreibung bevorzugter Ausführungsformen; in den Zeichnungen zeigen:
Fig. 1 ein schematisches Blockschaltbild einer erfindungsgemässen Ausführungsform;
Fig. 2 ein schematisches Schaltbild einer wahlweise verwendeten Schnittstelle zwischen einer Telefonleitung und einem Spracherkennungsmodul, die in den erfindungsgemässen Ausführungen verwendet wird;
Fig. 3a bis 3c Betriebsablaufdarstellungen der in Fig. 1 dargestellten erfindungsgemässen Ausführungsform;
Fig. 4 eine Darstellung eines beispielhaften Berichtes, der erfindungsgemäss erzeugt wurde;
Fig. 5 eine Darstellung eines erfindungsgemäss verwendeten Ausnahme-Wörterbuches; und
Fig. 6 eine Ablaufdarstellung der Erzeugung eines Ausnahme-Wörterbuches.
Es wird auf die Einzelbeschreibung bevorzugter Ausführungsformen Bezug genommen.
Fig. 1 zeigt ein schematisches Blockschaltbild einer erfindungsgemässen Ausführungsform. Eine übliche Eingabevorrichtung (10) ist für die Eingabe von Sprachsignalen vorgesehen. Vorzugsweise umfasst die Eingabevorrichtung (10) ein Mehrfachleitungstelefon, wie beispielsweise das Telefonsystem, das vom Abtretungsempfänger der vorliegenden Erfindung unter dem Warenzeichen "Connexions" vertrieben wird und ein Mehrfach-Leitungszugangsmodul (14) sowie ein wahlweises Diktier-Handmikrofon umfasst. Geeignete Eingabevorrichtungen werden in den gemeinsam abgetretenen US-PSen 4 790 002, angemeldet am 8.8.1986; und US-PS 4 817 132, angemeldet am 25.9.1987, beschrieben.
Die eingegebenen Sprachsignale werden über eine Telefonleitung (15a) an die Schnittstelle (16) angeschlossen, die nachfolgend näher beschrieben wird. Eine zweite Telefonleitung (15b) ist zur Ausgabe der zusammengesetzten Sprachsignale an den Benutzer in einer nachstehend weiter beschriebenen Weise vorgesehen (weitere bekannte Eingabevorrichtungen, wie beispielsweise ein direkt angeschlossenes Diktiermikrofon, können im Rahmen der Erfindung in Betracht gezogen werden). Die Leitung (15a) ist vorzugsweise eine unmittelbar angeschlossene, ausschliesslich zugeordnete Telefonleitung, um ein Signal mit maximaler Bandbreite an die Spracherkennungsvorrichtung (20) zu liefern. Jedoch kann die Eingabe von Sprachsignalen über das geschaltete Telefonnetzwerk im Rahmen der Erfindung in Betracht gezogen werden.
Die Schnittstelle (16) wandelt die Eintakt-Telefonsignale in Differenzsignale um, die sich für die Spracherkennungsvorrichtung (20) eignen. Die Spracherkennungsvorrichtung (20) ist ein übliches, im Handel erhältliches Spracherkennungssystem, wie beispielsweise das von Kurzweil Applied Intelligence Inc., 411 Waverley Oaks Road, Waltham, MA 02154-8465 unter dem Warenzeichen VoiceRoad vertriebene System. Derartige Systeme sind so aufgebaut, dass sie ein ausgewähltes Vokabular gesprochener Worte erkennen und digitale Signale ausgeben, die die identifizierten gesprochenen Worte kennzeichnen und an einen Hauptrechner geben; bei der vorliegenden Ausführungsform der Erfindung an den Hauptrechner pc 30. Die Spracherkennungsvorrichtung (20) erkennt die ausgewählten Vokabulare und ist ein sprecherabhängiges System. Das heisst, jeder Benutzer muss das System trainieren, ein Vokabular in seiner Stimme zu erkennen. Derartige sprecherabhängige Systeme werden für Anwendungen, wie die Erzeugung von Röntgenberichten, die ein beträchtliches Vokabular erfordern, als bevorzugt angesehen und gestatten ferner die Wahl von willkürlichen Triggerausdrücken, so dass ein im Ausland geborener Benutzer Triggerausdrücke in seiner Müttersprache wählen könnte und dennoch Berichte in englisch oder irgendeiner anderen gewählten Sprache erzeugt werden. Jedoch können bei anderen Anwendungen, die vielleicht ein weniger ausgedehntes Vokabular erfordern, sprecherabhängige Spracherkennungssysteme das Erfordernis für Training vermeiden; derartige Systeme werden im Rahmen der Erfindung in Betracht gezogen. Generell gilt, dass verschiedene Spracherkennungssysteme gegenwärtig im Handel verfügbar sind, wie beispielsweise das vorausgehend erwähnte Kurzweil-System, und eine nähere Beschreibung der Spracherkennungstechnologie wird für ein Verständnis der Erfindung nicht als notwendig angesehen.
Sobald die Triggerausdrücke durch die Spracherkennungsvorrichtung (20) erkannt werden, werden digitale Signale, die die erkannten Ausdrücke kennzeichnen, dem Hauptrechner (pc 30)zugeführt. Im Einklang mit der Erfindung enthält der Hauptrechner (pc 30) Berichterzeugungs-Software für die Erzeugung von Berichten für jeweilige Anwendungen. Bei einer möglichen Ausführungsform der Erfindung umfasst der Hauptrechner (pc 30) die VoiceRad-Software für die Erzeugung von röntgenologischen Berichten. Diese Software ordnet ausgewählte erkannte Triggerausdrücke vorgegebenen im Textspeicher (32) gespeicherten Textmitteilungen zu; dieser Speicher kann Teil des Speichers des Hauptrechners (pc 30) sein und erkennt andere gekennzeichnete Triggerausdrücke als Befehle zur Auswahl bestimmter Betriebsarten, wie beispielsweise die Erzeugung einer bestimmten Berichtsart. Der Hauptrechner (pc 30) steuert ferner die Spracherkennungsvorrichtung (20) zur Bestimmung eines begrenzten Vokabulars entsprechend dem jeweils ausgewählten Bericht und dem im Bericht erreichten Punkt. Beispielsweise erkennt das System nach der Anmeldung, dass der Benutzer zuerst den bestimmten Bericht wählen wird und steuert die Spracherkennungsvorrichtung (20), damit sie lediglich die Triggerausdrücke erkennt, die jeder bestimmten Berichtsart zugeordnet sind. Diese Erkennungsweise Liefert eine verbesserte Genauigkeit, wird jedoch nicht als Begrenzung der eigentlichen Erfindung angesehen und andere Erkennungsweisen liegen im Rahmen der Erfindung. Sobald ein Bericht durch eine Niederschrift gesprochener Triggerausdrücke erzeugt wurde, geben Systeme, wie das VoiceRad-System, die ausgewählten Textmitteilungen an den Drucker (34), um eine ausgedruckte Kopie des Berichtes zu liefern. Um eine grössere Flexibilität bei der Erzeugung des Berichtes zu ergeben, wird der Text ferner an Tastatur und Anzeige (36) ausgegeben und ein Systembenutzer kann den angezeigten Text beliebig unter Verwendung bekannter Wortverarbeitungsverfahren abändern. Die Software liefert ferner einen Wort-um-Wort-Betrieb, wobei jedes eingegebene. Sprachsignal einem einzelnen Wort oder Ausdruck zugeordnet wird, so dass der Benutzer im wesentlichen den Text über die Spracherkennungsvorrichtung (20) und den Hauptrechner (pc 30) diktieren kann. Wie vorausgehend aufgeführt wurde, sind Systeme, wie das VoiceRad-System, im Handel erhältlich, und eine nähere Beschreibung ihres Betriebes wird für das Verständnis der Erfindung nicht für erforderlich gehalten. Sobald ein Bericht beendet ist, steuert der Hauptrechner (pc 30) die Synthesevorrichtung (40), um den Text des Berichtes in zusammengesetzte Sprachsignale umzuwandeln und diese Sprachsignale an ein zentrales digitales Diktiersystem zur Speicherung und Wiedergewinnung auszugeben. Derartige Synthesevorrichtungen sind im Handel erhältlich und bestehen vorzugsweise aus einem System, wie es mit dem Warenzeichen "Calltext 5000" von Speech Plus Inc., Mountain View, Kalifornien, vertrieben wird. Derartige Systeme empfangen ein Wort als eine Folge digitaler Signale, die typischerweise in ASCII codiert sind und erzeugen ein ausgewähltes entsprechendes Sprachsignal unter Verwendung digitaler Signalverarbeitungsverfahren, die dem Fachmann bekannt sind. Derartige Systeme können ferner DTMF-Fähigkeiten haben, um über die Telefonleitungen Zugang zu anderen Systemen zu erzielen, wie nachstehend näher beschrieben wird. Die zusammengesetzten Sprachsignale werden zum zentralen digitalen Diktiersystem entweder durch eine übliche Teilnehmerzentrale (60) oder eine ausschliesslich zugeordnete Telefonleitung (62) oder in irgendeiner geeigneten bekannten Weise ausgegeben. Sobald sie in der Sprachspeicher- und Wiedergabevorrichtung (50) gespeichert sind, kann auf die Signale dann unmittelbar durch irgendeinen berechtigten Systembenutzer über das öffentliche Telefonnetz, über die Teilnehmerzentrale (60) oder über eine in geeigneter bekannter Weise angeschlossene private Leitung zugegriffen werden, womit ein unmittelbarer Zugang für Personen, wie beispielsweise die an erster Stelle behandelnden Ärzte, geliefert wird, die eine rasche Kenntnis eines röntgenologischen Berichtes benötigen können. Zentrale Diktiersysteme für die digitale Speicherung und Wiedergewinnung von Sprachsignalen sind bekannt und beispielsweise in der gemeinsam abgetretenen schwebenden US-Patentanmeldung Nr. 013 303, angemeldet am 10.2.1987 mit der Bezeichnung "Digitales Diktiersystem" beschrieben (DIC-536). Ein weiteres geeignetes System wird unter dem Warenzeichen RTAS durch den Abtretungsempfänger der vorliegenden Erfindung vertrieben (RTAS ist das Warenzeichen von Sudbury Systems Inc., Sudbury, MA). Derartige Systeme speichern Sprachsignale in digitaler Form zur späteren Wiedergewinnung, typischerweise über das Telefonnetz durch Schreibkräfte für die Niederschrift oder andere berechtigte Benutzer. Sobald ein berechtigter Benutzer ein Speichersignal erkennt, wird ein System das Signal wiedergewinnen, es in ein analoges Sprachsignal umwandeln und an den Benutzer ausgeben. Eine nähere Beschreibung der Betriebsweise eines derartigen zentralen digitalen Diktiersystems wird für das Verständnis der Erfindung nicht als erforderlich angesehen.
Das System sieht ferner eine dritte Telefonleitung (64) zur Eingabevorrichtung (10) vor, so dass ein Benutzer entweder vorausgehend gespeicherte Berichte abhören oder in üblicher Weise nicht-standardisierte Berichte diktieren kann. Die Telefonleitung (64) kann entweder den Anschluss über die Teilnehmerzentrale (60) herstellen oder über eine wahlweise direkte Verbindung (68) oder sie kann in irgendeiner bekannten Weise angeschlossen sein.
Fig. 2 zeigt eine schematische Darstellung der Schnittstelle (16) näher. Zwei Telefonleitungen (15a, 15b) sind von der Eingabevorrichtung (10) zur Buchse (16-1) der Schnittstelle. (16) geführt. Die Telefonleitung (15a) wird über einen Tonfrequenzübertrager (16-2) an einen Differenztreiber (16-3) angeschlossen, um ein Signalpaar für die Spracherkennungsvorrichtung (20) zu schaffen, mit welcher er über die Buchse (16-4) verbunden ist. Die Telefonleitung (15b) ist über eine Buches (16-1) an den Tonfrequenzverstärker (16-5) und den Ausgang des Verstärkers (16-6) angeschlossen, der ein Signal über die Buchse (16-7) vom Ausgang der Synthesevorrichtung (40) empfängt. Diese Telefonleitung gestattet es einem Benutzer, die zusammengesetzten Sprachsignale abzuhören, die zur Erzeugung eines Ausnahme-Vokabulars erzeugt werden, um die Aussprache von Wörtern zu verbessern, die in den im Speicher (32) gespeicherten Textmitteilungen enthalten sind, wie anschliessend näher erläutert wird.
Die Eingabevorrichtung (10) ist mit getrennten Leitungen ausgestattet, um eine Rückkopplung der zusammengesetzten Sprache zur Spracherkennungsvorrichtung (20) zu verhindern. Jedoch liegt es im Rahmen der Erfindung, die Steuerung der Spracherkennungsvorrichtung (20) abzuändern, so dass sie nicht im Betrieb ist, wenn Sprache zur Eingabevorrichtung (10) ausgegeben wird und eine einzige bidirektionale Leitung zu verwenden.
Die Fig. 3a bis 3c zeigen eine Betriebsablaufdarstellung des Systems nach Fig. 1. Bei (100) wählt ein Benutzer des Systems die Telefonleitung (15a) an der Eingabevorrichtung (10) aus, um Zutritt zur Spracherkennungsvorrichtung (20) und den Hauptrechner (pc 30) zu haben. Per Benutzer meldet sich dann über die Tastatur (36) an, um sich selbst gegenüber dem System zu identifizieren. Die Anmeldung über die Tastatur (36) ist erforderlich, so dass das System das geeignete Vokabular für den Benutzer auswählen kann, für welches das System trainiert worden ist. Sobald sich der Benutzer identifiziert hat, führt das System Sprachprüfungen und Mikrofonprüfungen durch, um den Erkennungsalgorithmus der Spracherkennungsvorrichtung (20) für die vorliegenden Bedingungen einzustellen. Da das System das vorbestimmte Vokabular des Benutzers ausgewählt hat, kann der Benutzer anschliessend die Anmeldung beenden, um Datum und Art des Berichtes mündlich festzulegen, was nachstehend näher erläutert wird.
Bei (106) beginnt der Benutzer, Sprachsignale einzugeben, und bei (110) prüft das System, um festzustellen, ob das Sprachsignal eine "Unterschrift" ist. Unter "Unterschrift" wird hier ein Triggerausdruck verstanden, der dem System angibt, dass der Bericht vollständig ist, ausser vielleicht für eine zusätzliche Kennung, die, wie nachstehend beschrieben, vorgesehen werden kann.
Wird die Unterschrift nicht erkannt, so gewinnt das System bei (112) eine vorbestimmte Textmitteilung zurück, die einem erkannten Triggerausdruck zugeordnet und im Speicher (32) gespeichert ist, und zeigt sie am Tastenfeld + Anzeige (34) an. Bei (114) prüft das System, um festzustellen, ob der Benutzer den angezeigten Text mittels des Tastenfeldes abändert. Falls dies nicht zutrifft, kehrt das System für eine weitere Spracheingabe nach (106) zurück. Im anderen Fall wird bei (118) der Text entsprechend einem Standardwortverarbeitungsverfahren abgeändert und das Systemkehrt dann für eine weitere Spracheingabe nach (106) zurück.
Bei einer anderen Ausführungsform der Erfindung kann das Edieren mündlich sein, unter Verwendung von Diktiersteuerungen, wie beispielsweise "schneller Vorlauf" und "Rückspulen" zur Positionierung und "Einsetzen" zur mündlichen Linderung des angezeigten Textes.
Falls bei (110) das System die "Unterschrift" erfasst, geht das System nach (A) der Fig. 3b und bei (120) kann der Benutzer mündlich die Zahlen einer Patientenkennnummer oder andere Daten eingeben, die dazu verwendet werden können, um den Bericht zur späteren Entnahme zu kennzeichnen. Bei (124) prüft das System, um festzustellen, ob es die letzte Zahl ist, und falls dies nicht zutrifft, bestimmt das System bei (126) und (128), ob der Benutzer den Text über das Tastenfeld in der vorausgehend beschriebenen Weise zu ändern wünscht.
Sobald die letzte Zahl der Patientenkennnummer eingegeben ist, bricht das System bei (132) den Text des vollständigen Berichtes ab und druckt den Bericht am Drucker (136), womit eine sofortige gedruckte Kopie für den Benutzer geliefert wird, und zwar entweder direkt oder über eine Bildübertragungsvorrichtung zu einer entfernten Stelle.
Bei (134) analysiert das System die Datei und entnimmt Daten für eine Anmeldung am Diktiersystem (50). Wie nachstehend näher beschrieben wird, sucht das System beim Analysieren des Textes durch jedes Wort des Textes des vollständigen Berichtes, um zu bestimmen, ob irgendwelche Wörter in einem Ausnahme-Wörterbuch enthalten sind, das einen Teil des Systems bildet. Falls sie sich finden, so werden die Ausnahmen durch die Ersatzworte ersetzt, die den Ausnahmeworten in dem Ausnahme-Wörterbuch zugeordnet sind. Diese Ersatzworte gestatten die Verbesserung der Aussprache der Sprachsignale, die durch die Synthesevorrichtung (40) zusammengesetzt wurden und die Substitution alternativer Ausdrücke in dem mündlichen und gedruckten Bericht.
Bei (134) tastet das System ferner den Bericht ab, um. Daten zu entnehmen, die bezüglich der Anmeldung am Diktiersystem (50) erforderlich sind. Diese Daten umfassen gewöhnlich die Identifizierung des Verfassers und des Patienten, so dass das System (50) den aufgezeichneten Sprachbericht ordnungsgemäss ablegen kann und ferner weitere nützliche Daten enthalten könnte, wie beispielsweise die Kennzeichnung der Art des Berichtes.
Bei (138) überprüft das System anschliessend, um festzustellen, ob der Bericht nunmehr in dem Diktiersystem (50) gespeichert werden soll, oder ob er später gespeichert werden soll. Soll der Bericht später gespeichert werden, so wird bei (140) der Text in eine Warteschlange für spätere Speicherung angeordnet und bei (142) bestimmt das System, ob der Benutzer einen weiteren Bericht einzugeben wünscht. Trifft dies zu, so kehrt das System nach (C) in Fig. 3a zurück und anderenfalls bricht das System bei (144) ab. Diese Fähigkeit gestattet es einem Benutzer, der eine Anzahl Berichte zu erstellen hat, alle Berichte zu erstellen, ohne darauf zu warten, dass jeder einzelne gespeichert wird. Sobald alle Berichte erstellt sind, speichert das System zu einem späteren Zeitpunkt die in der Warteschlange befindlichen Berichte in im wesentlichen gleicher Weise, wie nachstehend näher beschrieben wird.
Soll die Sprache gespeichert werden, so geht das System nach (B) in Fig. 3c und nimmt bei (146) Zutritt zum Diktiersystem (50). Das heisst, das System steuert die Synthesevorrichtung (40), um das Diktiersystem (50) in bekannter Weise anzurufen oder anders Zugang zu ihm zu nehmen, im wesentlichen in ähnlicher Weise wie bei Anruf-Modems, die unter Computersteuerung betrieben werden.
Bei (150) prüft das System bezüglich Belegung, und falls das Speichersystem (50) nicht verfügbar ist, bestimmt es, ob es bei (152) erneut einen Versuch machen soll. Falls das System bestimmt, dass es nicht länger erneut einen Versuch machen soll, so wird der Text des Berichtes zur Warteschlange bei (154) gesandt und das System tritt bei (156) ab.
Ist das System nicht belegt, so wandelt das System bei (160) die aus dem Bericht bei (134) entnommenen Daten (beispielsweise Verfasserkennnummer und Patientenkennnummer) in DTMF-Signale zur Übertragung über die Telefonleitungen zum Diktiersystem (50) um und nimmt dann bei (162) unter Verwendung der DTMF-Töne eine Anmeldung am Speichersystem (50) vor.
Bei (166) stellt das System fest, ob die Anmeldung erfolgreich war, und falls dies nicht zutrifft tritt es bei (168) in ein Fehlerprogramm ein. Ist die Anmeldung bei (172) erfolgreich, so gibt das System das nächste Wort des analysierten Textes an die Sprachsynthesevorrichtung (40) aus und gibt die synthetische Sprache bei (174) an das Diktiersystem (50) aus. Bei (176) überprüft das System, um festzustellen, falls das letzte Wort des Berichtes vorliegt, und falls dies nicht zutrifft, erfolgt eine Schleife zurück über (172), um die Ausgabe des Berichtes fortzusetzen. Sobald das letzte Wort des Berichtes ausgegeben ist, meldet sich das System ab und tritt bei (178) ab.
Somit wird ein synthetisches Sprachsignal, das dem vollständigen Text des Berichtes entspricht, auf dem Sprachspeicher- und Wiedergewinnungssystem (50) zum unmittelbaren Zutritt durch berechtigte interessierte Stellen in bekannter Weise gespeichert.
(Der Fachmann erkennt, dass besondere Triggerausdrücke auch als Befehle in komplexeren Anwendungen verwendet werden können, um beispielsweise eine Leerstelle in einem vorbestimmten Format auszuwählen, ohne bedeutsame Änderung des vorausgehend beschriebenen Betriebes.)
Fig. 4 zeigt eine Darstellung eines Musterberichtes, der erfindungsgemäss erzeugt worden ist. Bei der Anmeldung werden Verfasserkennzeichnung, Zeit und DAtum (200) zusammen mit der Normüberschrift (202) ausgefertigt. Der Benutzer datiert dann den Bericht durch Aussprechen des Triggerausdruckes HEUTE, wodurch veranlasst wird, dass der Text für das laufende Datum in den Bericht eingefügt wird. Als Alternative kann der Benutzer ein anderes Datum in Zahlenform eingeben.
Bei (208) gibt der Benutzer den Triggerausdruck ARTHROGRAMM (Röntgenuntersuchung der Gelenke) ein, der in den Bericht eingefügt wird, um die Berichtsart zu kennzeichnen. Das System ist ferner ist der Lage, anschliessend das geeignete Format für den Bericht und die geeigneten Untergruppen des Vokabulars zu bestimmen, die an jeder Stelle im Bericht verwendet werden sollen.
Bei (210) und (212) gibt der Benutzer die Triggerausdrücke RECHTS und SCHULTER ein, womit veranlasst wird, dass der Text "rechts" und "Schulter," in dem Bericht als weitere Kennzeichnung der Art des Berichtes eingefügt wird.
Anschliessend gibt der Benutzer den Triggerausdruck ROUTINE ein, womit veranlasst wird, dass der Text für den Absatz (216) in den Bericht eingefügt wird. Das System geht anschliessend zur Leerstelle (218) und gibt durch Anzeige des Positionsanzeigers an der Leerstelle im Text an der Anzeige (34) an, dass ein Wert geliefert werden soll. Der Benutzer gibt dann den Triggerausdruck 2 ein und den Befehlstriggerausdruck GO TO NEXT, womit veranlasst wird, dass eine Zahl 2 in die Leerstelle im Berichtstext eingefügt wird und der Positionsanzeiger zur Leerstelle (220) bewegt wird. Der Benutzer gibt dann den Triggerausdruck DURCHLEUCHTUNG ein, womit veranlasst wird, dass der Text bei (220) eingegeben wird, und darauf gibt er den Befehlstriggerausdruck ABTRITT DER EINFÜGUNGEN ein. Der Benutzer gibt dann den Triggerausdruck NORMAL ein, womit veranlasst wird, dass der Text bei (224) in den Bericht eingefügt wird und anschliessend gibt er den Befehlstriggerausdruck UNTERSCHRIFT ein, woran sich die Triggerausdrücke 4, 5, 3 und 0 anschliessen, womit veranlasst wird, dass der Text (225). Patientenkennummer (226) eingegeben wird und den Bericht abschliesst. Der Bericht ist dann bereit für ein Abhören durch den an erster Stelle behandelnden Arzt in gleicher Weise wie ein üblich diktierter Bericht von einer Schreibkraft zur Niederschrift angenommen würde.
Fig. 5 und 6 zeigen die Erstellung eines Ausnahme-Wörterbuches im Einklang mit der Erfindung. Da die Sprachsynthesevorrichtung (40) nicht auf ein festgelegtes Vokabular beschränkt ist, versucht sie, synthetische Sprachsignale durch eine Analyse entsprechend einem vorbestimmten Algorithmus zu erzeugen, der auf der Grundlage der Schreibweise der Texteingabe arbeitet. Es ist natürlich bekannt, dass die Aussprache englischer Wörter häufig geringe oder keine Ähnlichkeit mit ihrer Schreibweise hat. Somit ist es bei Systemen, wie beispielsweise dem "Calltext" bekannt, die Schreibweise im Bericht abzuändern, um eine besser annehmbare Aussprache zu erzielen. Jedoch ist es bei der Erfindung wesentlich, dass der gelieferte gedruckte Text korrekt geschrieben wird. Entsprechend wird im Einklang mit der Erfindung ein Ausnahme-Wörterbuch gemäss Fig. 5 verwendet, das jene Wörter aufführt, deren Aussprache abhängig von der korrekten Schreibweise vom Benutzer nicht als annehmbar erachtet wird, sowie zugeordnete Ersatzworte mit einer abgeänderten Schreibweise, die eine annehmbarere Aussprache ergibt, und die während der vorausgehend bei (134) beschriebenen Analyse substituiert werden.
Fig. 6 zeigt eine Ablaufdarstellung der Erzeugung eines Ausnahme-Wörterbuches im Einklang mit der Erfindung. Bei (300) wird der Text des nächsten Wortes, dessen Aussprache möglicherweise nicht annehmbar ist, über die Tastatur eingegeben und bei (302) wird dieser Text dazu verwendet, ein Sprachsignal zusammenzustellen, das zum Benutzer über die Telefonleitung (15b) abgespielt wird. Bei (306) entscheidet der Benutzer, ob das Sprachsignal entsprechend der korrekten Schreibweise annehmbar ist, und falls dies zutrifft und falls bei (307) weitere Worte vorhanden sind, kehrt das System nach (300) zurück, um den Text des nächsten Wortes einzugeben. Falls keine weiteren Worte vorliegen, tritt das System bei (318) ab.
Ist die Aussprache jedoch nicht annehmbar, so gibt der Benutzer einen modifizierten Text für ein Ersatzwort bei (308) ein und hört bei (310) der synthetischen Sprache für denabgeänderten Text ab. Bei (314) bestimmt der Benutzer, ob diese Aussprache annehmbar ist, und kehrt, falls dies nicht zutrifft, nach (308) zurück, um den Text weiter zu ändern. Ist er annehmbar, so entscheidet das System, ob er das letzte Wort (bei 316) bildet, und falls dies nicht zutrifft, kehrt es nach (300) zurück, während es zutreffendenfalls bei (318) abtritt.

Claims (16)

1. Aufzeichnungsvorrichtung zur Erzeugung eines Berichts, umfassend:
  • a) eine Eingabevorrichtung (10) zur Eingabe von gesprochenen Triggerausdrücken,
  • b) eine Sprach-Erkennungsvorrichtung (20) zur Erkennung der Triggerausdrücke,
  • c) eine Textspeichervorrichtung (32) zur Speicherung vorgegebener Textblöcke,
  • d) eine Steuervorrichtung (30), welche mit der Sprach-Erkennungsvorrichtung (20) verbunden ist, zur Auffindung eines bestimmten, vorgegebenen Textblocks, welcher einem Triggerausdruck zugeordnet ist, und zur Zusammenstellung der Textblöcke zu einem Bericht, wobei die Aufzeichnungsvorrichtung so ausgelegt ist, dass verschiedene Triggerausdrücke einem vorgegebenen Textblock zugeordnet sein können,
  • e) eine Sprachsynthese-Vorrichtung (40), welche mit der Steuervorrichtung (30) verbunden ist, zum Empfang von Textblöcken, welche durch die Steuervorrichtung (30) aufgefunden wurden, und zur Umwandlung der Textblöcke in Signale, welche gesprochener Sprache entsprechen, und
  • f) eine Sprachspeichervorrichtung (50), welche mit der Sprachsynthese-Vorrichtung (40) verbunden ist, zum Empfang von gesprochener Sprache entsprechenden Signalen, welche in der Sprachsynthese-Vorrichtung (40) umgewandelt wurden, und zur Speicherung dieser Signale in einer gesprochener Sprache entsprechenden Form, so dass die gespeicherten Signale abgehört werden können.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Vorrichtung so ausgebildet ist, dass die Triggerausdrücke von einem Benutzer der Vorrichtung ausgewählt werden können.
3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch eine Druckvorrichtung (34), die auf die Steuervorrichtung (30) anspricht, um eine Kopie des ausgegebenen Textblocks zu drucken.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, gekennzeichnet durch eine Bearbeitungsvorrichtung zur Abänderung der Schreibweise von Wörtern in einem Textblock, um die Signale, welche gesprochener Sprache entsprechen, zu modifizieren.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass die Bearbeitungsvorrichtung ferner ein vorgegebenes Ausnahme-Wörterbuch umfasst.
6. Vorrichtung nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Bearbeitungsvorrichtung einen Textverarbeitungs-Editor umfasst.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, gekennzeichnet durch eine Vorrichtung (62) zur Herstellung einer Verbindung zwischen der Sprachssynthesevorrichtung (40) und der Sprachsspeichervorrichtung (50) über ein Telefonnetz.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Vorrichtung (62) zur Herstellung einer Verbindung ferner eine Vorrichtung zur Entnahme ausgewählter Daten aus den Textblöcken aufweist, zur Umwandlung der entnommenen Daten in DTMF-Signale und zur Ausgabe der DTMF-Signale an die Sprachsspeichervorrichtung (50) zwecks Identifizierung der ausgegebenen Signale, welche gesprochener Sprache entsprechen.
9. Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 8, um medizinische Berichte, vorzugsweise röntgenologische Berichte zu erzeugen.
10. Verfahren zur Erzeugung aufgezeichneter Berichte, umfassend die Schritte:
  • a) Empfangen gesprochener Triggerausdrücke,
  • b) Erkennen der empfangenen Triggerausdrücke und Auffinden eines einem erkannten Triggerausdruck zugeordneten Textblocks, wobei die Triggerausdrücke den Textblöcken auf die Art zugeordnet sind, dass mehrere Triggerausdrücke einem Textblock zugeordnet sein können,
  • c) Zusammenstellen der aufgefundenen Textblöcke zu einem Bericht, und
  • d) Umwandeln der aufgefundenen Textblöcke in Sprachsignale und Speichern dieser Sprachsignale.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Triggerausdrücke durch einen Benutzer des Verfahrens ausgewählt werden.
12. Verfahren nach Anspruch 10 oder 11, gekennzeichnet durch den Verfahrensschritt, wonach eine Kopie des ausgewählten Textblocks gedruckt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12, gekennzeichnet durch den Verfahrensschritt, wonach die Schreibweise ausgewählter Wörter in den Textblöcken modifiziert wird, bevor die Textblöcke in Sprachsignale umgewandelt werden.
14. Verfahren nach einem der Ansprüche 10 bis 13, gekennzeichnet durch den Verfahrensschritt, wonach Daten entnommen werden, die die Sprachsignale gegenüber den ausgewählten Textblöcken identifizieren, und Speichern dieser Sprachsignale entsprechend den entnommenen Daten.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass die ausgewählten Textblöcke röntgenologische Informationen umfassen.
16. Verfahren nach einem der Ansprüche 10 bis 15, gekennzeichnet durch den Verfahrensschritt, wonach die vorgegebenen Textblöcke ediert werden, bevor die Sprachsignale gebildet werden.
DE3910467A 1988-03-31 1989-03-31 Verfahren und Vorrichtung zur Erzeugung von Berichten Expired - Fee Related DE3910467C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/175,900 US5051924A (en) 1988-03-31 1988-03-31 Method and apparatus for the generation of reports

Publications (2)

Publication Number Publication Date
DE3910467A1 DE3910467A1 (de) 1989-10-12
DE3910467C2 true DE3910467C2 (de) 2001-09-13

Family

ID=22642131

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3910467A Expired - Fee Related DE3910467C2 (de) 1988-03-31 1989-03-31 Verfahren und Vorrichtung zur Erzeugung von Berichten

Country Status (5)

Country Link
US (1) US5051924A (de)
JP (1) JP2768727B2 (de)
CA (1) CA1334869C (de)
DE (1) DE3910467C2 (de)
GB (1) GB2217953B (de)

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5303148A (en) * 1987-11-27 1994-04-12 Picker International, Inc. Voice actuated volume image controller and display controller
DE4101200A1 (de) * 1991-01-17 1992-07-23 Standard Elektrik Lorenz Ag Kommunikationssystem
US7249026B1 (en) * 1993-03-24 2007-07-24 Engate Llc Attorney terminal having outline preparation capabilities for managing trial proceedings
US5369704A (en) * 1993-03-24 1994-11-29 Engate Incorporated Down-line transcription system for manipulating real-time testimony
US7631343B1 (en) * 1993-03-24 2009-12-08 Endgate LLC Down-line transcription system using automatic tracking and revenue collection
DE4331710A1 (de) * 1993-09-17 1995-03-23 Sel Alcatel Ag Verfahren und Vorrichtung zum Erstellen und Bearbeiten von Textdokumenten
DE4434255A1 (de) * 1994-09-24 1996-03-28 Sel Alcatel Ag Vorrichtung zur Sprachaufzeichnung mit anschließender Texterstellung
JPH10105368A (ja) * 1996-07-12 1998-04-24 Senshu Ginkou:Kk 音声による処理依頼受付装置及び方法
US5772585A (en) * 1996-08-30 1998-06-30 Emc, Inc System and method for managing patient medical records
US6138096A (en) * 1996-11-26 2000-10-24 Add Value Holdings Pte Ltd. Apparatus for speech-based generation, audio translation, and manipulation of text messages over voice lines
US5924068A (en) * 1997-02-04 1999-07-13 Matsushita Electric Industrial Co. Ltd. Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
US6603835B2 (en) 1997-09-08 2003-08-05 Ultratec, Inc. System for text assisted telephony
US6149674A (en) * 1997-11-07 2000-11-21 Hill-Rom, Inc. Patient thermal regulation system
DE19751170A1 (de) * 1997-11-19 1999-06-02 Bosch Gmbh Robert Verfahren zur Auswahl eines Teilnehmers eines Telekommunikationsnetzes
US6219638B1 (en) * 1998-11-03 2001-04-17 International Business Machines Corporation Telephone messaging and editing system
US6631368B1 (en) 1998-11-13 2003-10-07 Nortel Networks Limited Methods and apparatus for operating on non-text messages
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
US6298326B1 (en) 1999-05-13 2001-10-02 Alan Feller Off-site data entry system
US7797730B2 (en) * 1999-06-24 2010-09-14 Engate Llc Downline transcription system using automatic tracking and revenue collection
WO2001003412A1 (de) * 1999-06-29 2001-01-11 Swisscom Mobile Ag Verfahren und vorrichtung für die erfassung und übermittlung von meldungen
US6308158B1 (en) * 1999-06-30 2001-10-23 Dictaphone Corporation Distributed speech recognition system with multi-user input stations
US6255784B1 (en) * 1999-12-02 2001-07-03 Visteon Global Technologies, Inc. Photopic brightness controller for fluorescent backlights
EP1119171A1 (de) * 2000-01-21 2001-07-25 Alcatel Telekommunikationssystem, sowie Vermittlungsstelle, sowie Vorverarbeitungeinheit
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US6920425B1 (en) * 2000-05-16 2005-07-19 Nortel Networks Limited Visual interactive response system and method translated from interactive voice response for telephone utility
US6408277B1 (en) 2000-06-21 2002-06-18 Banter Limited System and method for automatic task prioritization
US9699129B1 (en) 2000-06-21 2017-07-04 International Business Machines Corporation System and method for increasing email productivity
US8290768B1 (en) 2000-06-21 2012-10-16 International Business Machines Corporation System and method for determining a set of attributes based on content of communications
US6751589B1 (en) * 2000-09-18 2004-06-15 Hewlett-Packard Development Company, L.P. Voice-actuated generation of documents containing photographic identification
US7644057B2 (en) 2001-01-03 2010-01-05 International Business Machines Corporation System and method for electronic communication management
US20020169615A1 (en) * 2001-03-23 2002-11-14 Irwin Kruger Computerized voice-controlled system for compiling quality control data
JP2005509312A (ja) 2001-03-30 2005-04-07 ヒル−ロム サービシーズ,インコーポレイティド 病院のベッドとネットワークシステム
US20020169639A1 (en) * 2001-05-09 2002-11-14 Jeffrey Yu Systems for generating radiology reports
US7054939B2 (en) * 2001-06-28 2006-05-30 Bellsouth Intellectual Property Corportion Simultaneous visual and telephonic access to interactive information delivery
EP2302542A3 (de) 2001-08-03 2011-09-21 Hill-Rom Services, Inc. Patienten-Point-of-Care-Computersystem
US8416925B2 (en) 2005-06-29 2013-04-09 Ultratec, Inc. Device independent text captioned telephone service
US7006968B2 (en) * 2001-10-11 2006-02-28 Hewlett-Packard Development Company L.P. Document creation through embedded speech recognition
AU2002352560A1 (en) * 2001-11-14 2003-05-26 Denholm Enterprises, Inc. Patient communication method and system
GB2395330A (en) * 2002-10-18 2004-05-19 Eckoh Technologies Telephone voting system
US7460252B2 (en) * 2003-01-13 2008-12-02 Axiohm Transaction Solutions, Inc. Graphical printing system and method using text triggers
US7389230B1 (en) 2003-04-22 2008-06-17 International Business Machines Corporation System and method for classification of voice signals
US20040215461A1 (en) * 2003-04-24 2004-10-28 Visteon Global Technologies, Inc. Text-to-speech system for generating information announcements
US20050187913A1 (en) 2003-05-06 2005-08-25 Yoram Nelken Web-based customer service interface
US8495002B2 (en) 2003-05-06 2013-07-23 International Business Machines Corporation Software tool for training and testing a knowledge base
US8515024B2 (en) 2010-01-13 2013-08-20 Ultratec, Inc. Captioned telephone service
US7319961B2 (en) * 2004-03-04 2008-01-15 Saudi Arabian Oil Company Voice recognition technology to capture geoscience data
US7302048B2 (en) * 2004-07-23 2007-11-27 Marvell International Technologies Ltd. Printer with speech transcription of a recorded voice message
US8462367B2 (en) * 2005-02-10 2013-06-11 Hewlett-Packard Development Company, L.P. Printer voice portal
US11258900B2 (en) 2005-06-29 2022-02-22 Ultratec, Inc. Device independent text captioned telephone service
WO2007039373A1 (en) * 2005-10-05 2007-04-12 International Business Machines Corporation A method and apparatus for data capture using a voice activated workstation
US8286071B1 (en) 2006-06-29 2012-10-09 Escription, Inc. Insertion of standard text in transcriptions
US7841366B2 (en) * 2006-08-21 2010-11-30 Wpw, Llc Systems and methods for pipeline rehabilitation installation
US20080109489A1 (en) * 2006-11-03 2008-05-08 Adrian Sherwood Method For Generating Reports
US8930210B2 (en) 2007-03-29 2015-01-06 Nuance Communications, Inc. Method and system for generating a medical report and computer program product therefor
US8348839B2 (en) * 2007-04-10 2013-01-08 General Electric Company Systems and methods for active listening/observing and event detection
US9112977B2 (en) * 2007-04-13 2015-08-18 Sony Corporation Voicemail message based on text information
US20090083035A1 (en) * 2007-09-25 2009-03-26 Ritchie Winson Huang Text pre-processing for text-to-speech generation
US8046226B2 (en) * 2008-01-18 2011-10-25 Cyberpulse, L.L.C. System and methods for reporting
US8165881B2 (en) * 2008-08-29 2012-04-24 Honda Motor Co., Ltd. System and method for variable text-to-speech with minimized distraction to operator of an automotive vehicle
US20100057465A1 (en) * 2008-09-03 2010-03-04 David Michael Kirsch Variable text-to-speech for automotive application
US20110029325A1 (en) * 2009-07-28 2011-02-03 General Electric Company, A New York Corporation Methods and apparatus to enhance healthcare information analyses
US20110029326A1 (en) * 2009-07-28 2011-02-03 General Electric Company, A New York Corporation Interactive healthcare media devices and systems
US9904768B2 (en) 2011-02-18 2018-02-27 Nuance Communications, Inc. Methods and apparatus for presenting alternative hypotheses for medical facts
US8768723B2 (en) 2011-02-18 2014-07-01 Nuance Communications, Inc. Methods and apparatus for formatting text for clinical fact extraction
US10460288B2 (en) 2011-02-18 2019-10-29 Nuance Communications, Inc. Methods and apparatus for identifying unspecified diagnoses in clinical documentation
US10032127B2 (en) 2011-02-18 2018-07-24 Nuance Communications, Inc. Methods and apparatus for determining a clinician's intent to order an item
US20120297330A1 (en) * 2011-05-17 2012-11-22 Flexigoal Inc. Method and System for Generating Reports
US9569594B2 (en) 2012-03-08 2017-02-14 Nuance Communications, Inc. Methods and apparatus for generating clinical reports
US9064492B2 (en) 2012-07-09 2015-06-23 Nuance Communications, Inc. Detecting potential significant errors in speech recognition results
US10504622B2 (en) 2013-03-01 2019-12-10 Nuance Communications, Inc. Virtual medical assistant methods and apparatus
US11024406B2 (en) 2013-03-12 2021-06-01 Nuance Communications, Inc. Systems and methods for identifying errors and/or critical results in medical reports
US11183300B2 (en) 2013-06-05 2021-11-23 Nuance Communications, Inc. Methods and apparatus for providing guidance to medical professionals
US10496743B2 (en) 2013-06-26 2019-12-03 Nuance Communications, Inc. Methods and apparatus for extracting facts from a medical text
US10878721B2 (en) 2014-02-28 2020-12-29 Ultratec, Inc. Semiautomated relay method and apparatus
US20180270350A1 (en) 2014-02-28 2018-09-20 Ultratec, Inc. Semiautomated relay method and apparatus
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US10748523B2 (en) 2014-02-28 2020-08-18 Ultratec, Inc. Semiautomated relay method and apparatus
US20180034961A1 (en) 2014-02-28 2018-02-01 Ultratec, Inc. Semiautomated Relay Method and Apparatus
US10331763B2 (en) 2014-06-04 2019-06-25 Nuance Communications, Inc. NLU training with merged engine and user annotations
US10366424B2 (en) 2014-06-04 2019-07-30 Nuance Communications, Inc. Medical coding system with integrated codebook interface
US10373711B2 (en) 2014-06-04 2019-08-06 Nuance Communications, Inc. Medical coding system with CDI clarification request notification
US10319004B2 (en) 2014-06-04 2019-06-11 Nuance Communications, Inc. User and engine code handling in medical coding system
US10754925B2 (en) 2014-06-04 2020-08-25 Nuance Communications, Inc. NLU training with user corrections to engine annotations
US10366687B2 (en) 2015-12-10 2019-07-30 Nuance Communications, Inc. System and methods for adapting neural network acoustic models
US11152084B2 (en) 2016-01-13 2021-10-19 Nuance Communications, Inc. Medical report coding with acronym/abbreviation disambiguation
WO2018057639A1 (en) 2016-09-20 2018-03-29 Nuance Communications, Inc. Method and system for sequencing medical billing codes
US11133091B2 (en) 2017-07-21 2021-09-28 Nuance Communications, Inc. Automated analysis system and method
US10817647B1 (en) * 2017-10-26 2020-10-27 Wells Fargo Bank, N.A. Report automation system
US11024424B2 (en) 2017-10-27 2021-06-01 Nuance Communications, Inc. Computer assisted coding systems and methods
CN112530405A (zh) * 2019-09-18 2021-03-19 北京声智科技有限公司 一种端到端语音合成纠错方法、系统及装置
US11539900B2 (en) 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3111798A1 (de) * 1981-03-20 1982-09-30 Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin Anordnung fuer zu sendende meldetexte in fernmelde-, insbesondere fernsprechanlagen
DE3317325A1 (de) * 1982-05-11 1983-11-17 Casio Computer Co., Ltd., Tokyo Durch stimm-eingabe gesteuerter computer
DE3322257A1 (de) * 1982-06-22 1983-12-22 Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung
DE3519327A1 (de) * 1985-05-30 1986-12-04 Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen
DE3723329A1 (de) * 1986-07-16 1988-01-21 Tokico Ltd Industrie-wiedergaberoboter

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5638659A (en) * 1979-09-04 1981-04-13 Sharp Corp Word processor having sentence confirming function by audio
JPS5953590B2 (ja) * 1979-09-14 1984-12-26 シャープ株式会社 翻訳装置
US4602129A (en) * 1979-11-26 1986-07-22 Vmx, Inc. Electronic audio communications system with versatile message delivery
JPS6055434A (ja) * 1983-09-05 1985-03-30 Sanyo Electric Co Ltd ワ−ドプロセッサ装置
US4692941A (en) * 1984-04-10 1987-09-08 First Byte Real-time text-to-speech conversion system
US4763252A (en) * 1985-03-21 1988-08-09 Rose David K Computer entry system for predetermined text data sequences
US4980845A (en) * 1985-08-23 1990-12-25 Snap-On Tools Corporation Digital engine analyzer
US4831654A (en) * 1985-09-09 1989-05-16 Wang Laboratories, Inc. Apparatus for making and editing dictionary entries in a text to speech conversion system
US4776016A (en) * 1985-11-21 1988-10-04 Position Orientation Systems, Inc. Voice control system
GB8617389D0 (en) * 1986-07-16 1986-08-20 British Telecomm Speech recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3111798A1 (de) * 1981-03-20 1982-09-30 Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin Anordnung fuer zu sendende meldetexte in fernmelde-, insbesondere fernsprechanlagen
DE3317325A1 (de) * 1982-05-11 1983-11-17 Casio Computer Co., Ltd., Tokyo Durch stimm-eingabe gesteuerter computer
DE3322257A1 (de) * 1982-06-22 1983-12-22 Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung
DE3519327A1 (de) * 1985-05-30 1986-12-04 Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen
DE3723329A1 (de) * 1986-07-16 1988-01-21 Tokico Ltd Industrie-wiedergaberoboter

Also Published As

Publication number Publication date
CA1334869C (en) 1995-03-21
US5051924A (en) 1991-09-24
GB2217953A (en) 1989-11-01
JP2768727B2 (ja) 1998-06-25
JPH02204827A (ja) 1990-08-14
DE3910467A1 (de) 1989-10-12
GB8907232D0 (en) 1989-05-10
GB2217953B (en) 1992-07-22

Similar Documents

Publication Publication Date Title
DE3910467C2 (de) Verfahren und Vorrichtung zur Erzeugung von Berichten
DE69923379T2 (de) Nicht-interaktive Registrierung zur Spracherkennung
DE60207742T2 (de) Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes
DE60033106T2 (de) Korrektur der Betriebsartfehler, Steuerung oder Diktieren, in die Spracherkennung
US5884256A (en) Networked stenographic system with real-time speech to text conversion for down-line display and annotation
DE69829389T2 (de) Textnormalisierung unter verwendung einer kontextfreien grammatik
DE60010827T2 (de) Hintergrundsystem für Audiodatenbeseitigung
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
DE69828141T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE10040214B4 (de) Verfahren und System zur automatischen Erkennung einer Aktualisierung eines Sprachmodells in einem Spracherkennungssystem
DE3115318C2 (de) Elektronisches Übersetzungsgerät
US7908145B2 (en) Down-line transcription system using automatic tracking and revenue collection
DE2854837A1 (de) Uebersetzungsvorrichtung
EP1184839A2 (de) Graphem-Phonem-Konvertierung
DE102004026504A1 (de) System und Verfahren zum automatischen Ausfüllen von Anmerkungen in der Ultraschallbildgebung
DE10054583A1 (de) Verfahren und Vorrichtung zur Behandlung von Sprachinformationen
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
DE19532114C2 (de) Sprachdialog-System zur automatisierten Ausgabe von Informationen
DE60312963T2 (de) Methode und gerät zur schnellen, durch mustererkennung gestützen transkription von gesprochenen und geschriebenen äusserungen
EP1125278B1 (de) Datenverarbeitungssystem oder kommunikationsendgerät mit einer einrichtung zur erkennung gesprochener sprache und verfahren zur erkennung bestimmter akustischer objekte
EP0814457B1 (de) Verfahren zur automatischen Erkennung eines gesprochenen Textes
DE60022976T2 (de) Spracherkennungseinrichtung mit transfermitteln
EP1220201A2 (de) Verfahren und System zur automatischen Aktionssteuerung bei Vorträgen
DE3732849A1 (de) System-architektur fuer ein akustisches mensch/maschine-dialogsystem

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee