DE3910467A1 - Verfahren und vorrichtung zur erzeugung von berichten - Google Patents

Verfahren und vorrichtung zur erzeugung von berichten

Info

Publication number
DE3910467A1
DE3910467A1 DE3910467A DE3910467A DE3910467A1 DE 3910467 A1 DE3910467 A1 DE 3910467A1 DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A1 DE3910467 A1 DE 3910467A1
Authority
DE
Germany
Prior art keywords
text messages
speech signals
text
signals
report
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE3910467A
Other languages
English (en)
Other versions
DE3910467C2 (de
Inventor
Emil F Jachmann
Larry E Bergeron
David B Chamberlain
Jy-Hong J Su
Daniel F Daly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dictaphone Corp
Original Assignee
Dictaphone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dictaphone Corp filed Critical Dictaphone Corp
Publication of DE3910467A1 publication Critical patent/DE3910467A1/de
Application granted granted Critical
Publication of DE3910467C2 publication Critical patent/DE3910467C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5307Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Speicherung und Weiterleitung von Sprachsignalen. Insbesondere betrifft sie ein System zur Speicherung und Weiterleitung ausgewählter Arten von Berichten in Form von Sprachsignalen.
In vielen Berufssparten ist es häufig erforderlich, Berichte zu erstellen. Diese Berichte können einheitlich sein oder aus ausgewählten vorgegebenen Wörtern, Bezeichnungen, Sätzen oder Abschnitten bestehen, die in einem vorgegebenen Format angeordnet sind. Ein typischer derartiger Beruf ist die Röntgenologie. Typischerweise untersucht ein Röntgenologe eine Röntgenaufnahme und erstellt einen schriftlichen Bericht über den Zustand des Patienten zur Ansicht durch den in erster Linie tätigen Arzt des Patienten (d.h. des behandelnden Arztes). Die große Mehrheit dieser Berichte hat im wesentlichen standardisierte Ausbildung und unterscheidet sich lediglich in Einzelheiten, wie beispielsweise den Umfang der aufgeführten Anormalitäten oder besonderen Bedingungen der Untersuchung. Ähnliche Erfordernisse für Berichte ergeben sich in Rechts-, Versicherungs- und anderen derartigen Berufen.
Um einen wirksamen Einsatz ihrer Zeit zu erzielen und wirtschaftlich für die Krankenhäuser zu arbeiten, mit denen sie zusammenarbeiten, ist es allgemeine Praxis der Röntgenärzte, ihre Berichte zu diktieren. In großen modernen Krankenhäusern können diese Berichte auf verbesserten zentralen, digitalen Diktatsystemen diktiert werden, die seitens einer Anzahl berechtigter Anwender einen Zugang über eine Telefon- oder Audiostelle gestatten, einschließlich den an erster Stelle behandelnden Ärzten des Patienten. Die Verwendung derartiger zentraler Diktiersysteme seitens der Röntgenärzte ermöglicht den an erster Stelle behandelnden Ärzten nahezu unmittelbaren Zugang, durch Sprache, zum Bericht des Röntgenarztes, wodurch die Notwendigkeit ausgeschaltet wird, zu warten, bis der Bericht schriftlich niedergelegt wurde, kann jedoch besonders in einem großen, betriebsamen Krankenhaus einen Rückstand von aufgezeichneten, aber noch nicht schriftlich niedergelegten Berichten erzeugen, was unerwünschte Verzögerungen bei der Erfassung und Ablage des geschriebenen Berichtes einführt. Ferner haben im Falle von Röntgenärzten mit einem schweren Akzent oder einer Sprachbehinderung, die an erster Stelle behandelnden Ärzte, die nicht mit den Röntgenärzten vertraut sind, möglicherweise Schwierigkeiten, den aufgezeichneten Bericht während des akustischen Zugangs zu verstehen, wie er durch die gegenwärtigen zentralen digitalen Diktiersysteme gegeben wird.
Ein weiterer Lösungsversuch zum Problem der Erzeugung von Berichten, wie beispielsweise Röntgenarztberichten, war die Verwendung von Spracherkennungssystemen. Derartige Systeme erkennen typischerweise Schlüsselworte oder Ausdrücke (die anschließend gelegentlich als "Triggerausdrücke" bezeichnet werden) und geben abhängig von diesen Ausdrücken vorgewählte Blöcke von ausgedrucktemText aus. Dieser gewählte Text wird in einem vorgegebenen Format ausgegeben, um den gedruckten Bericht zu erzeugen. Derartige Systeme haben den Vorteil, einen unmittelbar gedruckten Bericht zu liefern, halten jedoch andere vom unmittelbaren akustischen Zugang zu den Berichten ab; insbesondere von einer entfernt liegenden Stelle über das Telefonnetz, da kein Sprachbericht erzeugt wurde.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System zu schaffen, bei welchem der Inhalt eines Berichtes prompt für berechtigte interessierte Stellen zur Verfügung steht. Ferner liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, das die zur Erzeugung eines Berichtes erforderliche Zeit verringert. Weiterhin liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, das die Form verbaler Berichte standardisiert.
Schließlich liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, das den Brauchbarkeitsbereich einer Spracherkennungstechnologie für die Erzeugung von Berichten vergrößert.
Die vorausgehend aufgeführten Aufgabenstellungen werden erfindungsgemäß gelöst und die Nachteile des Standes der Technik mittels eines Verfahrens und einer Vorrichtung überwunden, die einen Eingang für Sprachsignale umfassen, ein Erkennungssystem zum Erkennen vorgegebener Sprachsignale (die nachfolgend gelegentlich als "Triggerausdrücke" bezeichnet werden), ein zentrales Diktiersystem zur Speicherung und Wiedergewinnung von Sprachsignalen, eine Synthesevorrichtung (Synthesizer) zum Zusammensetzen von Sprachsignalen aus einer Texteingabe und zur Ausgabe der zusammengesetzten Sprache zum Speicher und einen Textspeicher zur Speicherung vorgegebener Textmitteilungen. Ein Steuersystem ist mit dem Erkennungssystem, der Synthesevorrichtung und dem Textspeicher verbunden. Das Steuersystemspricht auf die erkannten Triggerausdrücke an, um bestimmte Textmitteilungen auszuwählen, die im Textspeicher gespeichert sind, und gibt die ausgewählten Textmitteilungen an die Synthesevorrichtung ab und steuert diese, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen an das Speicher- und Wiedergewinnungssystem auszugeben.
Im Einklang mit dem erfindungsgemäßen Verfahren werden mündliche Berichte erzeugt, indem zuerst gesprochene Triggerausdrücke empfangen werden, anschließend die Triggerausdrücke erkannt und ausgewählten vorgegebenen Textmitteilungen zugeordnet werden, worauf Sprachsignale entsprechend denTextmitteilungen zusammengesetzt werden. Bei der bevorzugten Ausführungsform der Erfindung werden die Textmitteilungen anschließend zur Wiedergewinnung gespeichert. Bei einer bevorzugten Ausführungsform der Erfindung kann ein mit dem Steuersystem verbundener Drucker vorgesehen werden, um gedruckte Kopien der ausgewählten Textmitteilungen zu erzeugen, um einen unmittelbar gedruckten Bericht zur Verfügung zu stellen.
Der Fachmann erkennt, daß die erfindungsgemäßen Ausführungsformen in vorteilhafter Weise ein System liefern, das die rasche Erzeugung von Routineberichten und die Fähigkeit einer unmittelbaren Erzeugung einer gedruckten Kopie derartiger Berichte mit unmittelbarem Zugang zu mündlichen Kopien der Berichte kombiniert. Da ferner die zur Auswahl bestimmter Abschnitte der Textmitteilungen verwendeten Triggerausdrücke willkürlich sind, kann das System Akzente und Sprachbehinderungen kompensieren, da die den Textmitteilungen entsprechenden Sprachsignale in einer gleichmäßigen zusammengesetzten Sprache aufgezeichnet werden. Da in der Tat die Triggerausdrücke vollständig willkürlich sind, können das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung wirksam als Übersetzer arbeiten, der Textberichte und entsprechende Sprachsignale in einer Sprache, abhängig von in einer anderen Sprache gesprochenen Triggerausdrücken erzeugt.
Zusammenfassend wird die der Erfindung zugrundeliegende Aufgabenstellung erfindungsgemäß durch eine Vorrichtung zur Erzeugung mündlicher Berichte gelöst, die gekennzeichnet ist durch:
  • (a) eine Eingabevorrichtung zur Eingabe von Sprachsignalen;
  • (b) eine Erkennungsvorrichtung zum Erkennen vorgegebener der Eingabesprachsignale als Triggerausdrücke;
  • (c) eine Synthesevorrichtung zum Zusammensetzen von Sprachsignalen aus der Texteingabe und zur Ausgabe der zusammengesetzten Sprachsignale zur Speicher- und Wiedergewinnungsvorrichtung;
  • (d) eine Textspeichervorrichtung zur Speicherung vorgegebener Textmitteilungen;
  • (e) eine Steuervorrichtung, die an die Erkennungsvorrichtung, die Synthesevorrichtung und die Textspeichervorrichtung angeschlossen ist, um:
    • (e1) auf die Triggerausdrücke anzusprechen, um bestimmte der Textmitteilungen auszuwählen;
    • (e2) die ausgewählten Textmitteilungen an die Synthesevorrichtung auszugeben und die Synthesevorrichtung zu steuern, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen auszugeben.
Die erfindungsgemäße zugrundeliegende Aufgabenstellung wird ferner durch ein Verfahren zur Erzeugung mündlicher Berichte gelöst, das gekennzeichnet ist durch folgende Schritte:
  • (a) Aufnahme gesprochener Triggerausdrücke;
  • (b) Erkennen der Triggerausdrücke und Zuordnen der erkannten Triggerausdrücke an ausgewählte der vorgegebenen Textmitteilungen;
  • (c) Zusammensetzen von Sprachsignalen entsprechend den ausgewählten Textmitteilungen.
Weitere Aufgabenstellungen und Vorteile der Erfindung ergeben sich für den Fachmann bei Betrachtung der anliegenden Zeichnungen und der nachfolgenden detaillierten Beschreibung bevorzugter Ausführungsformen; in den Zeichnungen zeigen:
Fig. 1 ein schematisches Blockschaltbild einer erfindungsgemäßen Ausführungsform;
Fig. 2 ein schematisches Schaltbild einer wahlweise verwendeten Schnittstelle zwischen einer Telefonleitung und einem Spracherkennungsmodul, die in den erfindungsgemäßen Ausführungen verwendet wird;
Fig. 3a bis 3c Betriebsablaufdarstellungen der in Fig. 1 dargestellten erfindungsgemäßen Ausführungsform;
Fig. 4 eine Darstellung eines beispielhaften Berichtes, der erfindungsgemäß erzeugt wurde;
Fig. 5 eine Darstellung eines erfindungsgemäß verwendeten Ausnahme-Wörterbuches; und
Fig. 6 eine Ablaufdarstellung der Erzeugung eines Ausnahme-Wörterbuches.
Es wird auf die Einzelbeschreibung bevorzugter Ausführungsformen Bezug genommen.
Fig. 1 zeigt ein schematisches Blockschaltbild einer erfindungsgemäßen Ausführungsform. Eine übliche Eingabevorrichtung (10) ist für die Eingabe von Sprachsignalen vorgesehen. Vorzugsweise umfaßt die Eingabevorrichtung (10) ein Mehrfachleitungstelefon, wie beispielsweise das Telefonsystem, das vom Abtretungsempfänger der vorliegenden Erfindung unter dem Warenzeichen "Connexions" vertrieben wird und ein Mehrfach-Leitungszugangsmodul (14) sowie ein wahlweises Diktier-Handmikrofon umfaßt. Geeignete Eingabevorrichtungen werden in den gemeinsam abgetretenen US-PSen 47 90 002, angemeldet am 8.8.1986; und US-PS 48 17 132, angemeldet am 25.9.1987, beschrieben.
Die eingegebenen Sprachsignale werden über eine Telefonleitung (15 a) an die Schnittstelle (16) angeschlossen, die nachfolgend näher beschrieben wird. Eine zweite Telefonleitung (15 b) ist zur Ausgabe der zusammengesetzten Sprachsignale an den Benutzer in einer nachstehend weiter beschriebenen Weise vorgesehen (weitere bekannte Eingabevorrichtungen, wie beispielsweise ein direkt angeschlossenes Diktiermikrofon, können im Rahmen der Erfindung in Betracht gezogen werden). Die Leitung (15 a) ist vorzugsweise eine unmittelbar angeschlossene, ausschließlich zugeordnete Telefonleitung, um ein Signal mit maximaler Bandbreite an die Spracherkennungsvorrichtung (20) zu liefern. Jedoch kann die Eingabe von Sprachsignalen über das geschaltete Telefonnetzwerk im Rahmen der Erfindung in Betracht gezogen werden.
Die Schnittstelle (16) wandelt die Eintakt-Telefonsignale in Differenzsignale um, die sich für die Spracherkennungsvorrichtung (20) eignen. Die Spracherkennungsvorrichtung (20) ist ein übliches, im Handel erhältliches Spracherkennungssystem, wie beispielsweise das von Kurzweil Applied Intelligence Inc., 411 Waverley oaks Road, Waltham, MA 02154-8465 unter dem Warenzeichen VoiceRoad vertriebene System. Derartige Systeme sind so aufgebaut, daß sie ein ausgewähltes Vokabular gesprochener Worte erkennen und digitale Signale ausgeben, die die identifizierten gesprochenen Worte kennzeichnen und an einen Hauptrechner geben; bei der vorliegenden Ausführungsform der Erfindung an den Hauptrechner pc 30. Die Spracherkennungsvorrichtung (20) erkennt die ausgewählten Vokabulare und ist ein sprecherabhängiges System. Das heißt, jeder Benutzer muß das System trainieren, ein Vokabular in seiner Stimme zu erkennen. Derartige sprecherabhängige Systeme werden für Anwendungen, wie die Erzeugung von Röntgenberichten, die ein beträchtliches Vokabular erfordern, als bevorzugt angesehen und gestatten ferner die Wahl von willkürlichen Triggerausdrücken, so daß ein im Ausland geborener Benutzer Triggerausdrücke in seiner Muttersprache wählen könnte und dennoch Berichte in englisch oder irgendeiner anderen gewählten Sprache erzeugt werden. Jedoch können bei anderen Anwendungen, die vielleicht ein weniger ausgedehntes Vokabular erfordern, sprecherabhängige Spracherkennungssysteme das Erfordernis für Training vermeiden; derartige Systeme werden im Rahmen der Erfindung in Betracht gezogen. Generell gilt, daß verschiedene Spracherkennungssysteme gegenwärtig im Handel verfügbar sind, wie beispielsweise das vorausgehend erwähnte Kurzweil-System, und eine nähere Beschreibung der Spracherkennungstechnologie wird für ein Verständnis der Erfindung nicht als notwendig angesehen.
Sobald die Triggerausdrücke durch die Spracherkennungsvorrichtung (20) erkannt werden, werden digitale Signale, die die erkannten Ausdrücke kennzeichnen, dem Hauptrechner (pc 30) zugeführt. Im Einklang mit der Erfindung enthält der Hauptrechner (pc 30) Berichterzeugungs-Software für die Erzeugung von Berichten für jeweilige Anwendungen. Bei einer bevorzugten Ausführungsform der Erfindung umfaßt der Hauptrechner (pc 30) die VoiceRad-Software für die Erzeugung von röntgenologischen Berichten. Diese Software ordnet ausgewählte erkannte Triggerausdrücke vorgegebenen im Textspeicher (32) gespeicherten Textmitteilungen zu; dieser Speicher kann Teil des Speichers des Hauptrechners (pc 30) sein und erkennt andere gekennzeichnete Triggerausdrücke als Befehle zur Auswahl bestimmter Betriebsarten, wie beispielsweise die Erzeugung einer bestimmten Berichtsart. Der Hauptrechner (pc 30) steuert ferner die Spracherkennungsvorrichtung (20) zur Bestimmung eines begrenzten Vokabulars entsprechend dem jeweils ausgewählten Bericht und dem im Bericht erreichten Punkt. Beispielsweise erkennt das System nach der Anmeldung, daß der Benutzer zuerst den bestimmten Bericht wählen wird und steuert die Spracherkennungsvorrichtung (20), damit sie lediglich die Triggerausdrücke erkennt, die jeder bestimmten Berichtsart zugeordnet sind. Diese Erkennungsweise liefert eine verbesserte Genauigkeit, wird jedoch nicht als Begrenzung der eigentlichen Erfindung angesehen und andere Erkennungsweisen liegen im Rahmen der Erfindung. Sobald ein Bericht durch eine Niederschrift gesprochener Triggerausdrücke erzeugt wurde, geben Systeme, wie das VoiceRad-System, die ausgewählten Textmitteilungen an den Drucker (34), um eine ausgedruckte Kopie des Berichtes zu liefern. Um eine größere Flexibilität bei der Erzeugung des Berichtes zu ergeben, wird der Text ferner an Tastatur und Anzeige (36) ausgegeben und ein Systembenutzer kann den angezeigten Text beliebig unter Verwendung bekannter Wortverarbeitungsverfahren abändern. Die Software liefert ferner einen Wort-um-Wort-Betrieb, wobei jedes eingegebene Sprachsignal einem einzelnen Wort oder Ausdruck zugeordnet wird, so daß der Benutzer im wesentlichen den Text über die Spracherkennungsvorrichtung (20) und den Hauptrechner (pc 30) diktieren kann. Wie vorausgehend aufgeführt wurde, sind Systeme, wie das VoiceRad-System, im Handel erhältlich und eine nähere Beschreibung ihres Betriebes wird für das Verständnis der Erfindung nicht für erforderlich gehalten. Sobald ein Bericht beendet ist, steuert der Hauptrechner (pc 30) die Synthesevorrichtung (40), um den Text des Berichtes in zusammengesetzte Sprachsignale umzuwandeln und diese Sprachsignale an ein zentrales digitales Diktiersystem zur Speicherung und Wiedergewinnung auszugeben. Derartige Synthesevorrichtungen sind im Handel erhältlich und bestehen vorzugsweise aus einem System, wie es mit dem Warenzeichen "Calltext 5000" von Speech Plus Inc., Mountain View, Kalifornien, vertrieben wird. Derartige Systeme empfangen ein Wort als eine Folge digitaler Signale, die typischerweise in ASCII codiert sind und erzeugen ein ausgewähltes entsprechendes Sprachsignal unter Verwendung digitaler Signalverarbeitungsverfahren, die dem Fachmann bekannt sind. Derartige Systeme können ferner DTMF-Fähigkeiten haben, um über die Telefonleitungen Zugang zu anderen Systemen zu erzielen, wie nachstehend näher beschrieben wird. Die zusammengesetzten Sprachsignale werden zum zentralen digitalen Diktiersystem entweder durch eine übliche Teilnehmerzentrale (60) oder eine ausschließlich zugeordnete Telefonleitung (62) oder in irgendeiner geeigneten bekannten Weise ausgegeben. Sobald sie in der Sprachspeicher- und Wiedergabevorrichtung (50) gespeichert sind, kann auf die Signale dann unmittelbar durch irgendeinen berechtigten Systembenutzer über das öffentliche Telefonnetz, über die Teilnehmerzentrale (60) oder über eine in geeigneter bekannter Weise angeschlossene private Leitung zugegriffen werden, womit ein unmittelbarer Zugang für Personen, wie beispielsweise die an erster Stelle behandelnden Ärzte, geliefert wird, die eine rasche Kenntnis eines röntgenologischen Berichtes benötigen können. Zentrale Diktiersysteme für die digitale Speicherung und Wiedergewinnung von Sprachsignalen sind bekannt und beispielsweise in der gemeinsam abgetretenen schwebenden US-Patentanmeldung Nr. 0 13 303, angemeldet am 10.2.1987 mit der Bezeichnung "Digitales Diktiersystem" beschrieben (DIC-536). Ein weiteres geeignetes System wird unter dem Warenzeichen RTAS durch den Abtretungsempfänger der vorliegenden Erfindung vertrieben (RTAS ist das Warenzeichen von Sudbury Systems Inc., Sudbury, MA). Derartige Systeme speichern Sprachsignale in digitaler Form zur späteren Wiedergewinnung, typischerweise über das Telefonnetz durch Schreibkräfte für die Niederschrift oder andere berechtigte Benutzer. Sobald ein berechtigter Benutzer ein Speichersignal erkennt, wird ein System das Signal wiedergewinnen, es in ein analoges Sprachsignal umwandeln und an den Benutzer ausgeben. Eine nähere Beschreibung der Betriebsweise eines derartigen zentralen digitalen Diktiersystems wird für das Verständnis der Erfindung nicht als erforderlich angesehen.
Das System sieht ferner eine dritte Telefonleitung (64) zur Eingabevorrichtung (10) vor, so daß ein Benutzer entweder vorausgehend gespeicherte Berichte abhören oder in üblicher Weise nicht-standardisierte Berichte diktieren kann. Die Telefonleitung (64) kann entweder den Anschluß über die Teilnehmerzentrale (60) herstellen oder über eine wahlweise direkte Verbindung (68) oder sie kann in irgendeiner bekannten Weise angeschlossen sein.
Fig. 2 zeigt eine schematische Darstellung der Schnittstelle (16) näher. Zwei Telefonleitungen (15 a, 15 b) sind von der Eingabevorrichtung (10) zur Buchse (16-1) der Schnittstelle (16) geführt. Die Telefonleitung (15 a) wird über einen Tonfrequenzübertrager (16-2) an einen Differenztreiber (16-3) angeschlossen, um ein Signalpaar für die Spracherkennungsvorrichtung (20) zu schaffen, mit welcher er über die Buchse (16-4) verbunden ist. Die Telefonleitung (15 b) ist über eine Buches (16-1) an den Tonfrequenzverstärker (16-5) und den Ausgang des Verstärkers (16-6) angeschlossen, der ein Signal über die Buchse (16-7) vom Ausgang der Synthesevorrichtung (40) empfängt. Diese Telefonleitung gestattet es einem Benutzer, die zusammengesetzten Sprachsignale abzuhören, die zur Erzeugung eines Ausnahme-Vokabulars erzeugt werden, um die Aussprache von Wörtern zu verbessern, die in den im Speicher (32) gespeicherten Textmitteilungen enthalten sind, wie anschliessend näher erläutert wird.
Die Eingabevorrichtung (10) ist mit getrennten Leitungen ausgestattet, um eine Rückkopplung der zusammengesetzten Sprache zur Spracherkennungsvorrichtung (20) zu verhindern. Jedoch liegt es im Rahmen der Erfindung, die Steuerung der Spracherkennungsvorrichtung (20) abzuändern, so daß sie nicht im Betrieb ist, wenn Sprache zur Eingabevorrichtung (10) ausgegeben wird und eine einzige bidirektionale Leitung zu verwenden.
Die Fig. 3a bis 3c zeigen eine Betriebsablaufdarstellung des Systems nach Fig. 1. Bei (100) wählt ein Benutzer des Systems die Telefonleitung (15 a) an der Eingabevorrichtung (10) aus, um Zutritt zur Spracherkennungsvorrichtung (20) und den Hauptrechner (pc 30) zu haben. Der Benutzer meldet sich dann über die Tastatur (36) an, um sich selbst gegenüber dem System zu identifizieren. Die Anmeldung über die Tastatur (36) ist erforderlich, so daß das System das geeignete Vokabular für den Benutzer auswählen kann, für welches das System trainiert worden ist. Sobald sich der Benutzer identifiziert hat, führt das System Sprachprüfungen und Mikrofonprüfungen durch, um den Erkennungsalgorithmus der Spracherkennungsvorrichtung (20) für die vorliegenden Bedingungen einzustellen. Da das System das vorbestimmte Vokabular des Benutzers ausgewählt hat, kann der Benutzer anschließend die Anmeldung beenden, um Datum und Art des Berichtes mündlich festzulegen, was nachstehend näher erläutert wird.
Bei (106) beginnt der Benutzer, Sprachsignale einzugeben, und bei (110) prüft das System, um festzustellen, ob das Sprachsignal eine "Unterschrift" ist. Unter "Unterschrift" wird hier ein Triggerausdruck verstanden, der dem System angibt, daß der Bericht vollständig ist, außer vielleicht für eine zusätzliche Kennung, die, wie nachstehend beschrieben, vorgesehen werden kann.
Wird die Unterschrift nicht erkannt, so gewinnt das System bei (112) eine vorbestimmte Textmitteilung zurück, die einem erkannten Triggerausdruck zugeordnet und im Speicher (32) gespeichert ist, und zeigt sie am Tastenfeld +Anzeige (34) an. Bei (114) prüft das System, um festzustellen, ob der Benutzer den angezeigten Text mittels des Tastenfeldes abändert. Falls dies nicht zutrifft, kehrt das System für eine weitere Spracheingabe nach (106) zurück. Im anderen Fall wird bei (118) der Text entsprechend einem Standardwortverarbeitungsverfahren abgeändert und das Systemkehrt dann für eine weitere Spracheingabe nach (106) zurück.
Bei einer anderen Ausführungsform der Erfindung kann das Edieren mündlich sein, unter Verwendung von Diktiersteuerungen, wie beispielsweise "schneller Vorlauf" und "Rückspulen" zur Positionierung und "Einsetzen" zur mündlichen Änderung des angezeigten Textes.
Falls bei (110) das System die "Unterschrift" erfaßt, geht das System nach (A) der Fig. 3b und bei (120) kann der Benutzer mündlich die Zahlen einer Patientenkennummer oder andere Daten eingeben, die dazu verwendet werden können, um den Bericht zur späteren Entnahme zu kennzeichnen. Bei (124) prüft das System, um festzustellen,ob es die letzte Zahl ist, und falls dies nicht zutrifft, bestimmt das System bei (126) und (128), ob der Benutzer den Text über das Tastenfeld in der vorausgehend beschriebenen Weise zu ändern wünscht.
Sobald die letzte Zahl der Patientenkennummer eingegeben ist, bricht das System bei (132) den Text des vollständigen Berichtes ab und druckt den Bericht am Drucker (136), womit eine sofortige gedruckte Kopie für den Benutzer geliefert wird, und zwar entweder direkt oder über eine Bildübertragungsvorrichtung zu einer entfernten Stelle.
Bei (134) analysiert das System die Datei und entnimmt Daten für eine Anmeldung am Diktiersystem (50). Wie nachstehend näher beschrieben wird, sucht das System beim Analysieren des Textes durch jedes Wort des Textes des vollständigen Berichtes, um zu bestimmen, ob irgendwelche Wörter in einem Ausnahme-Wörterbuch enthalten sind, das einen Teil des Systems bildet. Falls sie sich finden, so werden die Ausnahmen durch die Ersatzworte ersetzt, die den Ausnahmeworten in dem Ausnahme-Wörterbuch zugeordnet sind. Diese Ersatzworte gestatten die Verbesserung der Aussprache der Sprachsignale, die durch die Synthesevorrichtung (40) zusammengesetzt wurden und die Substitution alternativer Ausdrücke in dem mündlichen und gedruckten Bericht.
Bei (134) tastet das System ferner den Bericht ab, um Daten zu entnehmen, die bezüglich der Anmeldung am Diktiersystem (50) erforderlich sind. Diese Daten umfassen gewöhnlich die Identifizierung des Verfassers und des Patienten, so daß das System (50) den aufgezeichneten Sprachbericht ordnungsgemäß ablegen kann und ferner weitere nützliche Daten enthalten könnte, wie beispielsweise die Kennzeichnung der Art des Berichtes.
Bei (138) überprüft das System anschließend, um festzustellen, ob der Bericht nunmehr in dem Diktiersystem (50) gespeichert werden soll, oder ob er später gespeichert werden soll. Soll der Bericht später gespeichert werden, so wird bei (140) der Text in eine Warteschlange für spätere Speicherung angeordnet und bei (142) bestimmt das System, ob der Benutzer einen weiteren Bericht einzugeben wünscht. Trifft dies zu, so kehrt das System nach (C) in Fig. 3a zurück und anderenfalls bricht das System bei (144) ab. Diese Fähigkeit gestattet es einem Benutzer, der eine Anzahl Berichte zu erstellen hat, alle Berichte zu erstellen, ohne darauf zu warten, daß jeder einzelne gespeichert wird. Sobald alle Berichte erstellt sind, speichert das System zu einem späteren Zeitpunkt die in der Warteschlange befindlichen Berichte in im wesentlichen gleicher Weise, wie nachstehend näher beschrieben wird.
Soll die Sprache gespeichert werden, so geht das System nach (B) in Fig. 3c und nimmt bei (146) Zutritt zum Diktiersystem (50). Das heißt, das System steuert die Synthesevorrichtung (40), um das Diktiersystem (50) in bekannter Weise anzurufen oder anders Zugang zu ihm zu nehmen, im wesentlichen in ähnlicher Weise wie bei Anruf-Modems, die unter Computersteuerung betrieben werden.
Bei (150) prüft das System bezüglich Belegung, und falls das Speichersystem (50) nicht verfügbar ist, bestimmt es, ob es bei (152) erneut einen Versuch machen soll. Falls das System bestimmt, daß es nicht länger erneut einen Versuch machen soll, so wird der Text des Berichtes zur Warteschlange bei (154) gesandt und das System tritt bei (156) ab.
Ist das System nicht belegt, so wandelt das System bei (160) die aus dem Bericht bei (134) entnommenen Daten (beispielsweise Verfasserkennummer und Patientenkennummer) in DTMF-Signale zur Übertragung über die Telefonleitungen zum Diktiersystem (50) um und nimmt dann bei (162) unter Verwendung der DTMF-Töne eine Anmeldung am Speichersystem (50) vor.
Bei (166) stellt das System fest, ob die Anmeldung erfolgreich war, und falls dies nicht zutrifft tritt es bei (168) in ein Fehlerprogramm ein. Ist die Anmeldung bei (172) erfolgreich, so gibt das System das nächste Wort des analysierten Textes an die Sprachsynthesevorrichtung (40) aus und gibt die synthetische Sprache bei (174) an das Diktiersystem (50) aus. Bei (176) überprüft das System, um festzustellen, falls das letzte Wort des Berichtes vorliegt, und falls dies nicht zutrifft, erfolgt eine Schleife zurück über (172), um die Ausgabe des Berichtes fortzusetzen. Sobald das letzte Wort des Berichtes ausgegeben ist, meldet sich das System ab und tritt bei (178) ab.
Somit wird ein synthetisches Sprachsignal, das dem vollständigen Text des Berichtes entspricht, auf dem Sprachspeicher- und Wiedergewinnungssystem (50) zum unmittelbaren Zutritt durch berechtigte interessierte Stellen in bekannter Weise gespeichert.
(Der Fachmann erkennt, dass besondere Triggerausdrücke auch als Befehle in komplexeren Anwendungen verwendet werden können, um beispielsweise eine Leerstelle in einem vorbestimmten Format auszuwählen, ohne bedeutsame Änderung des vorausgehend beschriebenen Betriebes.)
Fig. 4 zeigt eine Darstellung eines Musterberichtes, der erfindungsgemäß erzeugt worden ist. Bei der Anmeldung werden Verfasserkennzeichnung, Zeit und Datum (200) zusammen mit der Normüberschrift (202) ausgefertigt. Der Benutzer datiert dann den Bericht durch Aussprechen des Triggerausdruckes HEUTE, wodurch veranlaßt wird, daß der Text für das laufende Datum in den Bericht eingefügt wird. Als Alternative kann der Benutzer ein anderes Datum in Zahlenform eingeben.
Bei (208) gibt der Benutzer den Triggerausdruck ARTHROGRAMM (Röntgenuntersuchung der Gelenke) ein, der in den Bericht eingefügt wird, um die Berichtsart zu kennzeichnen. Das System ist ferner ist der Lage, anschließend das geeignete Format für den Bericht und die geeigneten Untergruppen des Vokabulars zu bestimmen, die an jeder Stelle im Bericht verwendet werden sollen.
Bei (210) und (212) gibt der Benutzer die Triggerausdrücke RECHTS und SCHULTER ein, womit veranlaßt wird, daß der Text "rechts" und "Schulter" in dem Bericht als weitere Kennzeichnung der Art des Berichtes eingefügt wird.
Anschließend gibt der Benutzer den Triggerausdruck ROUTINE ein, womit veranlaßt wird, daß der Text für den Absatz (216) in den Bericht eingefügt wird. Das System geht anschließend zur Leerstelle (218) und gibt durch Anzeige des Positionsanzeigers an der Leerstelle im Text an der Anzeige (34) an, daß ein Wert geliefert werden soll. Der Benutzer gibt dann den Triggerausdruck 2 ein und den Befehlstriggerausdruck GO TO NEXT, womit veranlaßt wird, daß eine Zahl 2 in die Leerstelle im Berichtstext eingefügt wird und der Positionsanzeiger zur Leerstelle (220) bewegt wird. Der Benutzer gibt dann den Triggerausdruck DURCHLEUCHTUNG ein, womit veranlaßt wird, daß der Text bei (220) eingegeben wird, und darauf gibt er den Befehlstriggerausdruck ABTRITT DER EINFÜGUNGEN ein. Der Benutzer gibt dann den Triggerausdruck NORMAL ein, womit veranlaßt wird, daß der Text bei (224) in den Bericht eingefügt wird und anschließend gibt er den Befehlstriggerausdruck UNTERSCHRIFT ein, woran sich die Triggerausdrücke 4, 5, 3 und 0 anschließen, womit veranlaßt wird, daß der Text (225) Patientenkennummer (226) eingegeben wird und den Bericht abschließt. Der Bericht ist dann bereit für ein Abhören durch den an erster Stelle behandelnden Arzt in gleicher Weise wie ein üblich diktierter Bericht von einer Schreibkraft zur Niederschrift angenommen würde.
Fig. 5 und 6 zeigen die Erstellung eines Ausnahme-Wörterbuches im Einklang mit der Erfindung. Da die Sprachsynthesevorrichtung (40) nicht auf ein festgelegtes Vokabular beschränkt ist, versucht sie, synthetische Sprachsignale durch eine Analyse entsprechend einem vorbestimmten Algorithmus zu erzeugen, der auf der Grundlage der Schreibweise der Texteingabe arbeitet. Es ist natürlich bekannt, daß die Aussprache englischer Wörter häufig geringe oder keine Ähnlichkeit mit ihrer Schreibweise hat. Somit ist es bei Systemen, wie beispielsweise dem "Calltext" bekannt, die Schreibweise im Bericht abzuändern, um eine besser annehmbare Aussprache zu erzielen. Jedoch ist es bei der Erfindung wesentlich, daß der gelieferte gedruckte Text korrekt geschrieben wird. Entsprechend wird im Einklang mit der Erfindung ein Ausnahme-Wörterbuch gemäß Fig. 5 verwendet, das jene Wörter aufführt, deren Aussprache abhängig von der korrekten Schreibweise vom Benutzer nicht als annehmbar erachtet wird, sowie zugeordnete Ersatzworte mit einer abgeänderten Schreibweise, die eine annehmbarere Aussprache ergibt, und die während der vorausgehend bei (134) beschriebenen Analyse substituiert werden.
Fig. 6 zeigt eine Ablaufdarstellung der Erzeugung eines Ausnahme-Wörterbuches im Einklang mit der Erfindung. Bei (300) wird der Text des nächsten Wortes, dessen Aussprache möglicherweise nicht annehmbar ist, über die Tastatur eingegeben und bei (302) wird dieser Text dazu verwendet, ein Sprachsignal zusammenzustellen, das zum Benutzer über die Telefonleitung (15 b) abgespielt wird. Bei (306) entscheidet der Benutzer, ob das Sprachsignal entsprechend der korrekten Schreibweise annehmbar ist, und falls dies zutrifft und falls bei (307) weitere Worte vorhanden sind, kehrt das System nach (300) zurück, um den Text des nächsten Wortes einzugeben. Falls keine weiteren Worte vorliegen, tritt das System bei (318) ab.
Ist die Aussprache jedoch nicht annehmbar, so gibt der Benutzer einen modifizierten Text für ein Ersatzwort bei (308) ein und hört bei (310) der synthetischen Sprache für den abgeänderten Text ab. Bei (314) bestimmt der Benutzer, ob diese Aussprache annehmbar ist, und kehrt, falls dies nicht zutrifft, nach (308) zurück, um den Text weiter zu ändern. Ist er annehmbar, so entscheidet das System, ob er das letzte Wort (bei 316) bildet, und falls dies nicht zutrifft, kehrt es nach (300) zurück, während es zutreffendenfalls bei (318) abtritt.
Der Fachmann erkennt, daß andere Ausführungsformen der Erfindung unter Berücksichtigung der vorausgehenden Beschreibung und der anliegenden Zeichnungen möglich sind, und die Erfindung wird somit lediglich durch die anliegenden Ansprüche begrenzt.

Claims (27)

1. Vorrichtung zur Erzeugung mündlicher Berichte, gekennzeichnet durch:
  • (a) eine Eingabevorrichtung (10) zur Eingabe von Sprachsignalen;
  • (b) eine Erkennungsvorrichtung (20) zum Erkennen vorgegebener der Eingabesprachsignale als Triggerausdrücke;
  • (c) eine Synthesevorrichtung (40) zum Zusammensetzen von Sprachsignalen aus der Texteingabe und zur Ausgabe der zusammengesetzten Sprachsignale zur Speicher- und Wiedergewinnungsvorrichtung (50);
  • (d) eine Textspeichervorrichtung (32) zur Speicherung vorgegebener Textmitteilungen;
  • (e) eine Steuervorrichtung (30), die an die Erkennungsvorrichtung (20), die Synthesevorrichtung (40) und die Textspeichervorrichtung (32) angeschlossen ist, um:
    • (e1) auf die Triggerausdrücke anzusprechen, um bestimmte der Textmitteilungen auszuwählen;
    • (e2) die ausgewählten Textmitteilungen an die Synthesevorrichtung (40) auszugeben und die Synthesevorrichtung zu steuern, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen auszugeben.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Speicher- und Wiedergewinnungsvorrichtung (50) zur Speicherung der zusammengesetzten Sprachsignale zwecks späterer Wiedergewinnung.
3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Triggerausdrücke von einem Benutzer der Vorrichtung ausgewählt werden.
4. Vorrichtung nach Anspruch 2, gekennzeichnet durch eine Druckvorrichtung (34), die auf die Steuervorrichtung (30) anspricht, um eine Kopie der ausgegebenen Textmitteilung zu drucken.
5. Vorrichtung nach Anspruch 2, gekennzeichnet durch eine Analysevorrichtung zur Abänderung der Schreibweise von Wörtern in der Textmitteilung, um die zusammengesetzten Sprachsignale zu modifizieren.
6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die Analysevorrichtung ferner ein vorgegebenes Ausnahme-Wörterbuch umfaßt.
7. Vorrichtung nach Anspruch 2, gekennzeichnet durch eine Vorrichtung (62) zur Herstellung einer Verbindung zwischen der Synthesevorrichtung (40) und der Speicher- und Wiedergewinnungsvorrichtung (50) über ein Telefonnetz.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, daß die Vorrichtung zur Herstellung einer Verbindung ferner eine Vorrichtung zur Entnahme ausgewählter Daten aus den ausgewählten Textmitteilungen aufweist, zur Umwandlung der entnommenen Daten in DTMF-Signale und zur Ausgabe der DTMF-Signale an die Speicher- und Wiedergewinnungsvorrichtung (50) zwecks Identifizierung der ausgegebenen zusammengesetzten Sprachsignale.
9. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die ausgewählten Textmitteilungen röntgenologische Berichte umfassen.
10. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Triggerausdrücke durch einen Benutzer der Vorrichtung ausgewählt werden.
11. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Druckvorrichtung (34), die auf die Steuervorrichtung (30) anspricht, um eine Kopie der ausgegebenen Textmitteilung zu drucken.
12. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Analysevorrichtung zur Abänderung der Schreibweise von Wörtern in den Textmitteilungen, um die zusammengesetzten Sprachsignale zu modifizieren.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, daß die Analysevorrichtung ferner ein vorgegebenes Ausnahme-Wörterbuch umfaßt.
14. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die ausgewählten Textmitteilungen röntgenologische Berichte umfassen.
15. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Vorrichtung zum Edieren der ausgewählten Textmitteilungen, bevor die entsprechenden zusammengesetzten Sprachsignale ausgegeben werden.
16. Verfahren zur Erzeugung mündlicher Berichte, gekennzeichnet durch folgende Schritte:
  • (a) Aufnahme gesprochener Triggerausdrücke;
  • 2(b) Erkennen der Triggerausdrücke und Zuordnen der erkannten Triggerausdrücke an ausgewählte der vorgegebenen Textmitteilungen;
  • (c) Zusammensetzen von Sprachsignalen entsprechend den ausgewählten Textmitteilungen.
17. Verfahren nach Anspruch 15, gekennzeichnet durch den weiteren Verfahrensschritt, wonach die zusammengesetzten Sprachsignale zur späteren Wiedergewinnung gespeichert werden.
18. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die Triggerausdrücke durch einen Benutzer des Verfahrens ausgewählt werden.
19. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach eine Kopie der ausgewählten Textmitteilungen gedruckt wird.
20. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach die Schreibweise ausgewählter Wörter in den Textmitteilungen modifiziert wird, bevor die Zusammensetzung der Sprachsignale erfolgt.
21. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach Daten entnommen werden, die die zusammengesetzten Sprachsignale gegenüber den ausgewählten Textmitteilungen identifizieren und Speichern dieser zusammengesetzten Sprachsignale entsprechend den entnommenen Daten.
22. Verfahren nach Anspruch 12, dadurch gekennzeichnet, daß die ausgewählten Textmitteilungen röntgenologische Berichte umfassen.
23. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die Triggerausdrücke durch einen Benutzer des Verfahrens ausgewählt werden.
24. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach eine Kopie der ausgewählten Textmitteilungen gedruckt wird.
25. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach die Schreibweise ausgewählter Worte in den Textmitteilungen modifiziert wird, bevor die Sprachsignale zusammengesetzt werden.
26. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die ausgewählten Textmitteilungen röntgenologische Berichte umfassen.
27. Verfahren nach Anspruch 16, gekennzeichnet durch den Verfahrensschritt, wonach die vorgegebenen Textmitteilungen ediert werden, bevor die Sprachsignale zusammengesetzt werden.
DE3910467A 1988-03-31 1989-03-31 Verfahren und Vorrichtung zur Erzeugung von Berichten Expired - Fee Related DE3910467C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/175,900 US5051924A (en) 1988-03-31 1988-03-31 Method and apparatus for the generation of reports

Publications (2)

Publication Number Publication Date
DE3910467A1 true DE3910467A1 (de) 1989-10-12
DE3910467C2 DE3910467C2 (de) 2001-09-13

Family

ID=22642131

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3910467A Expired - Fee Related DE3910467C2 (de) 1988-03-31 1989-03-31 Verfahren und Vorrichtung zur Erzeugung von Berichten

Country Status (5)

Country Link
US (1) US5051924A (de)
JP (1) JP2768727B2 (de)
CA (1) CA1334869C (de)
DE (1) DE3910467C2 (de)
GB (1) GB2217953B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4101200A1 (de) * 1991-01-17 1992-07-23 Standard Elektrik Lorenz Ag Kommunikationssystem
US5920835A (en) * 1993-09-17 1999-07-06 Alcatel N.V. Method and apparatus for processing and transmitting text documents generated from speech

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5303148A (en) * 1987-11-27 1994-04-12 Picker International, Inc. Voice actuated volume image controller and display controller
US7249026B1 (en) * 1993-03-24 2007-07-24 Engate Llc Attorney terminal having outline preparation capabilities for managing trial proceedings
US5369704A (en) * 1993-03-24 1994-11-29 Engate Incorporated Down-line transcription system for manipulating real-time testimony
US7631343B1 (en) * 1993-03-24 2009-12-08 Endgate LLC Down-line transcription system using automatic tracking and revenue collection
DE4434255A1 (de) * 1994-09-24 1996-03-28 Sel Alcatel Ag Vorrichtung zur Sprachaufzeichnung mit anschließender Texterstellung
JPH10105368A (ja) * 1996-07-12 1998-04-24 Senshu Ginkou:Kk 音声による処理依頼受付装置及び方法
US5772585A (en) * 1996-08-30 1998-06-30 Emc, Inc System and method for managing patient medical records
US6138096A (en) * 1996-11-26 2000-10-24 Add Value Holdings Pte Ltd. Apparatus for speech-based generation, audio translation, and manipulation of text messages over voice lines
US5924068A (en) * 1997-02-04 1999-07-13 Matsushita Electric Industrial Co. Ltd. Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
US6603835B2 (en) 1997-09-08 2003-08-05 Ultratec, Inc. System for text assisted telephony
AU1452199A (en) * 1997-11-07 1999-05-31 Hill-Rom, Inc. Medical equipment controller
DE19751170A1 (de) * 1997-11-19 1999-06-02 Bosch Gmbh Robert Verfahren zur Auswahl eines Teilnehmers eines Telekommunikationsnetzes
US6219638B1 (en) * 1998-11-03 2001-04-17 International Business Machines Corporation Telephone messaging and editing system
US6631368B1 (en) 1998-11-13 2003-10-07 Nortel Networks Limited Methods and apparatus for operating on non-text messages
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
US6298326B1 (en) 1999-05-13 2001-10-02 Alan Feller Off-site data entry system
US7797730B2 (en) * 1999-06-24 2010-09-14 Engate Llc Downline transcription system using automatic tracking and revenue collection
WO2001003412A1 (de) * 1999-06-29 2001-01-11 Swisscom Mobile Ag Verfahren und vorrichtung für die erfassung und übermittlung von meldungen
US6308158B1 (en) * 1999-06-30 2001-10-23 Dictaphone Corporation Distributed speech recognition system with multi-user input stations
US6255784B1 (en) * 1999-12-02 2001-07-03 Visteon Global Technologies, Inc. Photopic brightness controller for fluorescent backlights
EP1119171A1 (de) * 2000-01-21 2001-07-25 Alcatel Telekommunikationssystem, sowie Vermittlungsstelle, sowie Vorverarbeitungeinheit
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US6920425B1 (en) * 2000-05-16 2005-07-19 Nortel Networks Limited Visual interactive response system and method translated from interactive voice response for telephone utility
US8290768B1 (en) 2000-06-21 2012-10-16 International Business Machines Corporation System and method for determining a set of attributes based on content of communications
US6408277B1 (en) 2000-06-21 2002-06-18 Banter Limited System and method for automatic task prioritization
US9699129B1 (en) 2000-06-21 2017-07-04 International Business Machines Corporation System and method for increasing email productivity
US6751589B1 (en) * 2000-09-18 2004-06-15 Hewlett-Packard Development Company, L.P. Voice-actuated generation of documents containing photographic identification
US7644057B2 (en) 2001-01-03 2010-01-05 International Business Machines Corporation System and method for electronic communication management
US20020169615A1 (en) * 2001-03-23 2002-11-14 Irwin Kruger Computerized voice-controlled system for compiling quality control data
US7092376B2 (en) 2001-03-30 2006-08-15 Hill-Rom Services, Inc. Hospital bed and network system
US20020169639A1 (en) * 2001-05-09 2002-11-14 Jeffrey Yu Systems for generating radiology reports
US7054939B2 (en) * 2001-06-28 2006-05-30 Bellsouth Intellectual Property Corportion Simultaneous visual and telephonic access to interactive information delivery
US7154397B2 (en) 2001-08-03 2006-12-26 Hill Rom Services, Inc. Patient point-of-care computer system
US8416925B2 (en) 2005-06-29 2013-04-09 Ultratec, Inc. Device independent text captioned telephone service
US7006968B2 (en) * 2001-10-11 2006-02-28 Hewlett-Packard Development Company L.P. Document creation through embedded speech recognition
AU2002352560A1 (en) * 2001-11-14 2003-05-26 Denholm Enterprises, Inc. Patient communication method and system
GB2395330A (en) * 2002-10-18 2004-05-19 Eckoh Technologies Telephone voting system
US7460252B2 (en) * 2003-01-13 2008-12-02 Axiohm Transaction Solutions, Inc. Graphical printing system and method using text triggers
US7389230B1 (en) 2003-04-22 2008-06-17 International Business Machines Corporation System and method for classification of voice signals
US20040215461A1 (en) * 2003-04-24 2004-10-28 Visteon Global Technologies, Inc. Text-to-speech system for generating information announcements
US8495002B2 (en) 2003-05-06 2013-07-23 International Business Machines Corporation Software tool for training and testing a knowledge base
US20050187913A1 (en) 2003-05-06 2005-08-25 Yoram Nelken Web-based customer service interface
US8515024B2 (en) 2010-01-13 2013-08-20 Ultratec, Inc. Captioned telephone service
US7319961B2 (en) * 2004-03-04 2008-01-15 Saudi Arabian Oil Company Voice recognition technology to capture geoscience data
US7302048B2 (en) * 2004-07-23 2007-11-27 Marvell International Technologies Ltd. Printer with speech transcription of a recorded voice message
US8462367B2 (en) * 2005-02-10 2013-06-11 Hewlett-Packard Development Company, L.P. Printer voice portal
US11258900B2 (en) 2005-06-29 2022-02-22 Ultratec, Inc. Device independent text captioned telephone service
WO2007039373A1 (en) * 2005-10-05 2007-04-12 International Business Machines Corporation A method and apparatus for data capture using a voice activated workstation
US8286071B1 (en) 2006-06-29 2012-10-09 Escription, Inc. Insertion of standard text in transcriptions
WO2008024800A2 (en) * 2006-08-21 2008-02-28 Western Slope Utilities, Inc. Systems and methods for swab transport in pipeline rehabilitation
US20080109489A1 (en) * 2006-11-03 2008-05-08 Adrian Sherwood Method For Generating Reports
US8930210B2 (en) 2007-03-29 2015-01-06 Nuance Communications, Inc. Method and system for generating a medical report and computer program product therefor
US8348839B2 (en) 2007-04-10 2013-01-08 General Electric Company Systems and methods for active listening/observing and event detection
US9112977B2 (en) 2007-04-13 2015-08-18 Sony Corporation Voicemail message based on text information
US20090083035A1 (en) * 2007-09-25 2009-03-26 Ritchie Winson Huang Text pre-processing for text-to-speech generation
US8046226B2 (en) * 2008-01-18 2011-10-25 Cyberpulse, L.L.C. System and methods for reporting
US8165881B2 (en) * 2008-08-29 2012-04-24 Honda Motor Co., Ltd. System and method for variable text-to-speech with minimized distraction to operator of an automotive vehicle
US20100057465A1 (en) * 2008-09-03 2010-03-04 David Michael Kirsch Variable text-to-speech for automotive application
US20110029325A1 (en) * 2009-07-28 2011-02-03 General Electric Company, A New York Corporation Methods and apparatus to enhance healthcare information analyses
US20110029326A1 (en) * 2009-07-28 2011-02-03 General Electric Company, A New York Corporation Interactive healthcare media devices and systems
US10460288B2 (en) 2011-02-18 2019-10-29 Nuance Communications, Inc. Methods and apparatus for identifying unspecified diagnoses in clinical documentation
US8768723B2 (en) 2011-02-18 2014-07-01 Nuance Communications, Inc. Methods and apparatus for formatting text for clinical fact extraction
US9904768B2 (en) 2011-02-18 2018-02-27 Nuance Communications, Inc. Methods and apparatus for presenting alternative hypotheses for medical facts
US10032127B2 (en) 2011-02-18 2018-07-24 Nuance Communications, Inc. Methods and apparatus for determining a clinician's intent to order an item
US20120297330A1 (en) * 2011-05-17 2012-11-22 Flexigoal Inc. Method and System for Generating Reports
US9569594B2 (en) 2012-03-08 2017-02-14 Nuance Communications, Inc. Methods and apparatus for generating clinical reports
US9064492B2 (en) 2012-07-09 2015-06-23 Nuance Communications, Inc. Detecting potential significant errors in speech recognition results
US10504622B2 (en) 2013-03-01 2019-12-10 Nuance Communications, Inc. Virtual medical assistant methods and apparatus
US11024406B2 (en) 2013-03-12 2021-06-01 Nuance Communications, Inc. Systems and methods for identifying errors and/or critical results in medical reports
US11183300B2 (en) 2013-06-05 2021-11-23 Nuance Communications, Inc. Methods and apparatus for providing guidance to medical professionals
US10496743B2 (en) 2013-06-26 2019-12-03 Nuance Communications, Inc. Methods and apparatus for extracting facts from a medical text
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US20180034961A1 (en) 2014-02-28 2018-02-01 Ultratec, Inc. Semiautomated Relay Method and Apparatus
US10878721B2 (en) 2014-02-28 2020-12-29 Ultratec, Inc. Semiautomated relay method and apparatus
US20180270350A1 (en) 2014-02-28 2018-09-20 Ultratec, Inc. Semiautomated relay method and apparatus
US10748523B2 (en) 2014-02-28 2020-08-18 Ultratec, Inc. Semiautomated relay method and apparatus
US10331763B2 (en) 2014-06-04 2019-06-25 Nuance Communications, Inc. NLU training with merged engine and user annotations
US10319004B2 (en) 2014-06-04 2019-06-11 Nuance Communications, Inc. User and engine code handling in medical coding system
US10366424B2 (en) 2014-06-04 2019-07-30 Nuance Communications, Inc. Medical coding system with integrated codebook interface
US10373711B2 (en) 2014-06-04 2019-08-06 Nuance Communications, Inc. Medical coding system with CDI clarification request notification
US10754925B2 (en) 2014-06-04 2020-08-25 Nuance Communications, Inc. NLU training with user corrections to engine annotations
US10366687B2 (en) 2015-12-10 2019-07-30 Nuance Communications, Inc. System and methods for adapting neural network acoustic models
US11152084B2 (en) 2016-01-13 2021-10-19 Nuance Communications, Inc. Medical report coding with acronym/abbreviation disambiguation
US10949602B2 (en) 2016-09-20 2021-03-16 Nuance Communications, Inc. Sequencing medical codes methods and apparatus
US11133091B2 (en) 2017-07-21 2021-09-28 Nuance Communications, Inc. Automated analysis system and method
US10817647B1 (en) * 2017-10-26 2020-10-27 Wells Fargo Bank, N.A. Report automation system
US11024424B2 (en) 2017-10-27 2021-06-01 Nuance Communications, Inc. Computer assisted coding systems and methods
CN112530405B (zh) * 2019-09-18 2024-07-23 北京声智科技有限公司 一种端到端语音合成纠错方法、系统及装置
US11539900B2 (en) 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3317325A1 (de) * 1982-05-11 1983-11-17 Casio Computer Co., Ltd., Tokyo Durch stimm-eingabe gesteuerter computer
DE3322257A1 (de) * 1982-06-22 1983-12-22 Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung
DE3723329A1 (de) * 1986-07-16 1988-01-21 Tokico Ltd Industrie-wiedergaberoboter

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5638659A (en) * 1979-09-04 1981-04-13 Sharp Corp Word processor having sentence confirming function by audio
JPS5953590B2 (ja) * 1979-09-14 1984-12-26 シャープ株式会社 翻訳装置
US4602129A (en) * 1979-11-26 1986-07-22 Vmx, Inc. Electronic audio communications system with versatile message delivery
DE3111798C2 (de) * 1981-03-20 1983-03-24 Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin Anordnung für zu sendende Meldetexte in Fernmelde-, insbesondere Fernsprechanlagen
JPS6055434A (ja) * 1983-09-05 1985-03-30 Sanyo Electric Co Ltd ワ−ドプロセッサ装置
US4692941A (en) * 1984-04-10 1987-09-08 First Byte Real-time text-to-speech conversion system
US4763252A (en) * 1985-03-21 1988-08-09 Rose David K Computer entry system for predetermined text data sequences
DE3519327A1 (de) * 1985-05-30 1986-12-04 Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen
US4980845A (en) * 1985-08-23 1990-12-25 Snap-On Tools Corporation Digital engine analyzer
US4831654A (en) * 1985-09-09 1989-05-16 Wang Laboratories, Inc. Apparatus for making and editing dictionary entries in a text to speech conversion system
US4776016A (en) * 1985-11-21 1988-10-04 Position Orientation Systems, Inc. Voice control system
GB8617389D0 (en) * 1986-07-16 1986-08-20 British Telecomm Speech recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3317325A1 (de) * 1982-05-11 1983-11-17 Casio Computer Co., Ltd., Tokyo Durch stimm-eingabe gesteuerter computer
DE3322257A1 (de) * 1982-06-22 1983-12-22 Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung
DE3723329A1 (de) * 1986-07-16 1988-01-21 Tokico Ltd Industrie-wiedergaberoboter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4101200A1 (de) * 1991-01-17 1992-07-23 Standard Elektrik Lorenz Ag Kommunikationssystem
US5920835A (en) * 1993-09-17 1999-07-06 Alcatel N.V. Method and apparatus for processing and transmitting text documents generated from speech

Also Published As

Publication number Publication date
US5051924A (en) 1991-09-24
JP2768727B2 (ja) 1998-06-25
CA1334869C (en) 1995-03-21
GB2217953A (en) 1989-11-01
JPH02204827A (ja) 1990-08-14
GB2217953B (en) 1992-07-22
DE3910467C2 (de) 2001-09-13
GB8907232D0 (en) 1989-05-10

Similar Documents

Publication Publication Date Title
DE3910467C2 (de) Verfahren und Vorrichtung zur Erzeugung von Berichten
DE69712216T2 (de) Verfahren und gerät zum übersetzen von einer sparche in eine andere
DE60010827T2 (de) Hintergrundsystem für Audiodatenbeseitigung
DE69829389T2 (de) Textnormalisierung unter verwendung einer kontextfreien grammatik
DE60033106T2 (de) Korrektur der Betriebsartfehler, Steuerung oder Diktieren, in die Spracherkennung
US5740245A (en) Down-line transcription system for manipulating real-time testimony
DE60012655T2 (de) Audiowiedergabe von einem geschriebenen Dokument aus mehreren Quellen
DE10040214B4 (de) Verfahren und System zur automatischen Erkennung einer Aktualisierung eines Sprachmodells in einem Spracherkennungssystem
DE60207742T2 (de) Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes
DE69327774T2 (de) Prozessor zur Umwandlung von Daten in Sprache und Ablaufsteuerung hierzu
DE69828141T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE69923379T2 (de) Nicht-interaktive Registrierung zur Spracherkennung
DE69317510T2 (de) Text-/Sprache-Umwandlungssteuerung
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
DE69326431T2 (de) Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist
DE60020773T2 (de) Graphische Benutzeroberfläche und Verfahren zur Änderung von Aussprachen in Sprachsynthese und -Erkennungssystemen
DE69737987T2 (de) Verfahren und System zum Puffern erkannter Wörter während der Spracherkennung
DE69129163T2 (de) Verfahren und Vorrichtung zur Texteingabe
DE69607601T2 (de) System und verfahren zur spracherkennung mit automatischer erzeugung einer syntax
DE60032846T2 (de) Verfahren und System zur Anbietung von Alternativen für von stochastischen Eingabequellen abgeleitete Texte
US7908145B2 (en) Down-line transcription system using automatic tracking and revenue collection
EP1184839A2 (de) Graphem-Phonem-Konvertierung
WO2004072846A2 (en) Automatic processing of templates with speech recognition
DE3587347T2 (de) Textverarbeitung mit verbaler Anweisung.
DE3855426T2 (de) Korrekturunterstützungsgerät mit Dokumentenausgabe

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee