DE3910467A1 - Verfahren und vorrichtung zur erzeugung von berichten - Google Patents
Verfahren und vorrichtung zur erzeugung von berichtenInfo
- Publication number
- DE3910467A1 DE3910467A1 DE3910467A DE3910467A DE3910467A1 DE 3910467 A1 DE3910467 A1 DE 3910467A1 DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A1 DE3910467 A1 DE 3910467A1
- Authority
- DE
- Germany
- Prior art keywords
- text messages
- speech signals
- text
- signals
- report
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000014509 gene expression Effects 0.000 claims description 40
- 238000003860 storage Methods 0.000 claims description 23
- 239000002131 composite material Substances 0.000 claims description 20
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000011084 recovery Methods 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000219492 Quercus Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 206010000210 abortion Diseases 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/5307—Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/533—Voice mail systems
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung
zur Speicherung und Weiterleitung von Sprachsignalen.
Insbesondere betrifft sie ein System zur Speicherung und
Weiterleitung ausgewählter Arten von Berichten in Form
von Sprachsignalen.
In vielen Berufssparten ist es häufig erforderlich, Berichte
zu erstellen. Diese Berichte können einheitlich sein oder
aus ausgewählten vorgegebenen Wörtern, Bezeichnungen,
Sätzen oder Abschnitten bestehen, die in einem vorgegebenen
Format angeordnet sind. Ein typischer derartiger Beruf
ist die Röntgenologie. Typischerweise untersucht ein
Röntgenologe eine Röntgenaufnahme und erstellt einen
schriftlichen Bericht über den Zustand des Patienten zur
Ansicht durch den in erster Linie tätigen Arzt des Patienten
(d.h. des behandelnden Arztes). Die große Mehrheit dieser
Berichte hat im wesentlichen standardisierte Ausbildung und
unterscheidet sich lediglich in Einzelheiten, wie
beispielsweise den Umfang der aufgeführten Anormalitäten
oder besonderen Bedingungen der Untersuchung. Ähnliche
Erfordernisse für Berichte ergeben sich in
Rechts-, Versicherungs- und anderen derartigen Berufen.
Um einen wirksamen Einsatz ihrer Zeit zu erzielen und
wirtschaftlich für die Krankenhäuser zu arbeiten, mit denen
sie zusammenarbeiten, ist es allgemeine Praxis der
Röntgenärzte, ihre Berichte zu diktieren. In großen
modernen Krankenhäusern können diese Berichte auf verbesserten
zentralen, digitalen Diktatsystemen diktiert werden, die
seitens einer Anzahl berechtigter Anwender einen Zugang
über eine Telefon- oder Audiostelle gestatten, einschließlich
den an erster Stelle behandelnden Ärzten des Patienten. Die
Verwendung derartiger zentraler Diktiersysteme seitens
der Röntgenärzte ermöglicht den an erster Stelle behandelnden
Ärzten nahezu unmittelbaren Zugang, durch Sprache, zum
Bericht des Röntgenarztes, wodurch die Notwendigkeit
ausgeschaltet wird, zu warten, bis der Bericht schriftlich
niedergelegt wurde, kann jedoch besonders in einem großen,
betriebsamen Krankenhaus einen Rückstand von
aufgezeichneten, aber noch nicht schriftlich niedergelegten
Berichten erzeugen, was unerwünschte Verzögerungen bei der
Erfassung und Ablage des geschriebenen Berichtes einführt.
Ferner haben im Falle von Röntgenärzten mit einem schweren
Akzent oder einer Sprachbehinderung, die an erster Stelle
behandelnden Ärzte, die nicht mit den Röntgenärzten vertraut
sind, möglicherweise Schwierigkeiten, den aufgezeichneten
Bericht während des akustischen Zugangs zu verstehen, wie
er durch die gegenwärtigen zentralen digitalen Diktiersysteme
gegeben wird.
Ein weiterer Lösungsversuch zum Problem der Erzeugung von
Berichten, wie beispielsweise Röntgenarztberichten, war
die Verwendung von Spracherkennungssystemen. Derartige
Systeme erkennen typischerweise Schlüsselworte oder Ausdrücke
(die anschließend gelegentlich als "Triggerausdrücke"
bezeichnet werden) und geben abhängig von diesen Ausdrücken
vorgewählte Blöcke von ausgedrucktemText aus. Dieser
gewählte Text wird in einem vorgegebenen Format ausgegeben,
um den gedruckten Bericht zu erzeugen. Derartige Systeme
haben den Vorteil, einen unmittelbar gedruckten Bericht
zu liefern, halten jedoch andere vom unmittelbaren akustischen
Zugang zu den Berichten ab; insbesondere von einer entfernt
liegenden Stelle über das Telefonnetz, da kein Sprachbericht
erzeugt wurde.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System
zu schaffen, bei welchem der Inhalt eines Berichtes prompt
für berechtigte interessierte Stellen zur Verfügung steht.
Ferner liegt der Erfindung die Aufgabe zugrunde, ein System
zu schaffen, das die zur Erzeugung eines Berichtes erforderliche
Zeit verringert. Weiterhin liegt der Erfindung die Aufgabe
zugrunde, ein System zu schaffen, das die Form verbaler
Berichte standardisiert.
Schließlich liegt der Erfindung die Aufgabe zugrunde, ein
System zu schaffen, das den Brauchbarkeitsbereich einer
Spracherkennungstechnologie für die Erzeugung von Berichten
vergrößert.
Die vorausgehend aufgeführten Aufgabenstellungen werden
erfindungsgemäß gelöst und die Nachteile des Standes
der Technik mittels eines Verfahrens und einer Vorrichtung
überwunden, die einen Eingang für Sprachsignale umfassen,
ein Erkennungssystem zum Erkennen vorgegebener Sprachsignale
(die nachfolgend gelegentlich als "Triggerausdrücke" bezeichnet
werden), ein zentrales Diktiersystem zur Speicherung und
Wiedergewinnung von Sprachsignalen, eine Synthesevorrichtung
(Synthesizer) zum Zusammensetzen von Sprachsignalen aus
einer Texteingabe und zur Ausgabe der zusammengesetzten
Sprache zum Speicher und einen Textspeicher zur Speicherung
vorgegebener Textmitteilungen. Ein Steuersystem ist mit
dem Erkennungssystem, der Synthesevorrichtung und dem
Textspeicher verbunden. Das Steuersystemspricht auf die
erkannten Triggerausdrücke an, um bestimmte Textmitteilungen
auszuwählen, die im Textspeicher gespeichert sind, und
gibt die ausgewählten Textmitteilungen an die
Synthesevorrichtung ab und steuert diese, um zusammengesetzte
Sprachsignale entsprechend den ausgewählten Textmitteilungen
an das Speicher- und Wiedergewinnungssystem auszugeben.
Im Einklang mit dem erfindungsgemäßen Verfahren werden
mündliche Berichte erzeugt, indem zuerst gesprochene
Triggerausdrücke empfangen werden, anschließend die
Triggerausdrücke erkannt und ausgewählten vorgegebenen
Textmitteilungen zugeordnet werden, worauf Sprachsignale
entsprechend denTextmitteilungen zusammengesetzt werden.
Bei der bevorzugten Ausführungsform der Erfindung werden
die Textmitteilungen anschließend zur Wiedergewinnung
gespeichert. Bei einer bevorzugten Ausführungsform der
Erfindung kann ein mit dem Steuersystem verbundener Drucker
vorgesehen werden, um gedruckte Kopien der ausgewählten
Textmitteilungen zu erzeugen, um einen unmittelbar gedruckten
Bericht zur Verfügung zu stellen.
Der Fachmann erkennt, daß die erfindungsgemäßen
Ausführungsformen in vorteilhafter Weise ein System liefern,
das die rasche Erzeugung von Routineberichten und die
Fähigkeit einer unmittelbaren Erzeugung einer gedruckten
Kopie derartiger Berichte mit unmittelbarem Zugang zu
mündlichen Kopien der Berichte kombiniert. Da ferner die
zur Auswahl bestimmter Abschnitte der Textmitteilungen
verwendeten Triggerausdrücke willkürlich sind, kann das
System Akzente und Sprachbehinderungen kompensieren, da
die den Textmitteilungen entsprechenden Sprachsignale in
einer gleichmäßigen zusammengesetzten Sprache aufgezeichnet
werden. Da in der Tat die Triggerausdrücke vollständig
willkürlich sind, können das erfindungsgemäße Verfahren
und die erfindungsgemäße Vorrichtung wirksam als
Übersetzer arbeiten, der Textberichte und entsprechende
Sprachsignale in einer Sprache, abhängig von in einer
anderen Sprache gesprochenen Triggerausdrücken erzeugt.
Zusammenfassend wird die der Erfindung zugrundeliegende
Aufgabenstellung erfindungsgemäß durch eine Vorrichtung
zur Erzeugung mündlicher Berichte gelöst, die gekennzeichnet
ist durch:
- (a) eine Eingabevorrichtung zur Eingabe von Sprachsignalen;
- (b) eine Erkennungsvorrichtung zum Erkennen vorgegebener der Eingabesprachsignale als Triggerausdrücke;
- (c) eine Synthesevorrichtung zum Zusammensetzen von Sprachsignalen aus der Texteingabe und zur Ausgabe der zusammengesetzten Sprachsignale zur Speicher- und Wiedergewinnungsvorrichtung;
- (d) eine Textspeichervorrichtung zur Speicherung vorgegebener Textmitteilungen;
- (e) eine Steuervorrichtung, die an die
Erkennungsvorrichtung, die Synthesevorrichtung und die
Textspeichervorrichtung angeschlossen ist, um:
- (e1) auf die Triggerausdrücke anzusprechen, um bestimmte der Textmitteilungen auszuwählen;
- (e2) die ausgewählten Textmitteilungen an die Synthesevorrichtung auszugeben und die Synthesevorrichtung zu steuern, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen auszugeben.
Die erfindungsgemäße zugrundeliegende Aufgabenstellung
wird ferner durch ein Verfahren zur Erzeugung mündlicher
Berichte gelöst, das gekennzeichnet ist durch folgende
Schritte:
- (a) Aufnahme gesprochener Triggerausdrücke;
- (b) Erkennen der Triggerausdrücke und Zuordnen der erkannten Triggerausdrücke an ausgewählte der vorgegebenen Textmitteilungen;
- (c) Zusammensetzen von Sprachsignalen entsprechend den ausgewählten Textmitteilungen.
Weitere Aufgabenstellungen und Vorteile der Erfindung
ergeben sich für den Fachmann bei Betrachtung der anliegenden
Zeichnungen und der nachfolgenden detaillierten Beschreibung
bevorzugter Ausführungsformen; in den Zeichnungen zeigen:
Fig. 1 ein schematisches Blockschaltbild
einer erfindungsgemäßen
Ausführungsform;
Fig. 2 ein schematisches Schaltbild
einer wahlweise verwendeten
Schnittstelle zwischen einer
Telefonleitung und einem
Spracherkennungsmodul, die in
den erfindungsgemäßen
Ausführungen verwendet wird;
Fig. 3a bis 3c Betriebsablaufdarstellungen der
in Fig. 1 dargestellten
erfindungsgemäßen Ausführungsform;
Fig. 4 eine Darstellung eines
beispielhaften Berichtes, der
erfindungsgemäß erzeugt wurde;
Fig. 5 eine Darstellung eines
erfindungsgemäß verwendeten
Ausnahme-Wörterbuches; und
Fig. 6 eine Ablaufdarstellung der
Erzeugung eines Ausnahme-Wörterbuches.
Es wird auf die Einzelbeschreibung bevorzugter Ausführungsformen
Bezug genommen.
Fig. 1 zeigt ein schematisches Blockschaltbild einer
erfindungsgemäßen Ausführungsform. Eine übliche
Eingabevorrichtung (10) ist für die Eingabe von
Sprachsignalen vorgesehen. Vorzugsweise umfaßt die
Eingabevorrichtung (10) ein Mehrfachleitungstelefon, wie
beispielsweise das Telefonsystem, das vom
Abtretungsempfänger der vorliegenden Erfindung unter
dem Warenzeichen "Connexions" vertrieben wird und ein
Mehrfach-Leitungszugangsmodul (14) sowie ein wahlweises
Diktier-Handmikrofon umfaßt. Geeignete Eingabevorrichtungen
werden in den gemeinsam abgetretenen US-PSen 47 90 002,
angemeldet am 8.8.1986; und US-PS 48 17 132, angemeldet am
25.9.1987, beschrieben.
Die eingegebenen Sprachsignale werden über eine
Telefonleitung (15 a) an die Schnittstelle (16)
angeschlossen, die nachfolgend näher beschrieben wird.
Eine zweite Telefonleitung (15 b) ist zur Ausgabe der
zusammengesetzten Sprachsignale an den Benutzer in einer
nachstehend weiter beschriebenen Weise vorgesehen (weitere
bekannte Eingabevorrichtungen, wie beispielsweise ein
direkt angeschlossenes Diktiermikrofon, können im Rahmen
der Erfindung in Betracht gezogen werden). Die Leitung (15 a)
ist vorzugsweise eine unmittelbar angeschlossene,
ausschließlich zugeordnete Telefonleitung, um ein Signal
mit maximaler Bandbreite an die Spracherkennungsvorrichtung
(20) zu liefern. Jedoch kann die Eingabe von Sprachsignalen
über das geschaltete Telefonnetzwerk im Rahmen der
Erfindung in Betracht gezogen werden.
Die Schnittstelle (16) wandelt die Eintakt-Telefonsignale
in Differenzsignale um, die sich für die
Spracherkennungsvorrichtung (20) eignen. Die
Spracherkennungsvorrichtung (20) ist ein übliches, im
Handel erhältliches Spracherkennungssystem, wie
beispielsweise das von Kurzweil Applied Intelligence Inc.,
411 Waverley oaks Road, Waltham, MA 02154-8465 unter dem
Warenzeichen VoiceRoad vertriebene System. Derartige
Systeme sind so aufgebaut, daß sie ein ausgewähltes
Vokabular gesprochener Worte erkennen und digitale Signale
ausgeben, die die identifizierten gesprochenen Worte
kennzeichnen und an einen Hauptrechner geben; bei der
vorliegenden Ausführungsform der Erfindung an den
Hauptrechner pc 30. Die Spracherkennungsvorrichtung (20)
erkennt die ausgewählten Vokabulare und ist ein
sprecherabhängiges System. Das heißt, jeder Benutzer muß
das System trainieren, ein Vokabular in seiner Stimme
zu erkennen. Derartige sprecherabhängige Systeme werden
für Anwendungen, wie die Erzeugung von Röntgenberichten,
die ein beträchtliches Vokabular erfordern, als bevorzugt
angesehen und gestatten ferner die Wahl von willkürlichen
Triggerausdrücken, so daß ein im Ausland geborener
Benutzer Triggerausdrücke in seiner Muttersprache wählen
könnte und dennoch Berichte in englisch oder irgendeiner
anderen gewählten Sprache erzeugt werden. Jedoch können
bei anderen Anwendungen, die vielleicht ein weniger
ausgedehntes Vokabular erfordern, sprecherabhängige
Spracherkennungssysteme das Erfordernis für Training
vermeiden; derartige Systeme werden im Rahmen der Erfindung
in Betracht gezogen. Generell gilt, daß verschiedene
Spracherkennungssysteme gegenwärtig im Handel verfügbar
sind, wie beispielsweise das vorausgehend erwähnte
Kurzweil-System, und eine nähere Beschreibung der
Spracherkennungstechnologie wird für ein Verständnis der
Erfindung nicht als notwendig angesehen.
Sobald die Triggerausdrücke durch die
Spracherkennungsvorrichtung (20) erkannt werden, werden
digitale Signale, die die erkannten Ausdrücke kennzeichnen,
dem Hauptrechner (pc 30) zugeführt. Im Einklang mit der
Erfindung enthält der Hauptrechner (pc 30)
Berichterzeugungs-Software für die Erzeugung von Berichten
für jeweilige Anwendungen. Bei einer bevorzugten
Ausführungsform der Erfindung umfaßt der Hauptrechner
(pc 30) die VoiceRad-Software für die Erzeugung von
röntgenologischen Berichten. Diese Software ordnet
ausgewählte erkannte Triggerausdrücke vorgegebenen im
Textspeicher (32) gespeicherten Textmitteilungen zu; dieser
Speicher kann Teil des Speichers des Hauptrechners (pc 30)
sein und erkennt andere gekennzeichnete Triggerausdrücke
als Befehle zur Auswahl bestimmter Betriebsarten, wie
beispielsweise die Erzeugung einer bestimmten Berichtsart.
Der Hauptrechner (pc 30) steuert ferner die
Spracherkennungsvorrichtung (20) zur Bestimmung eines
begrenzten Vokabulars entsprechend dem jeweils ausgewählten
Bericht und dem im Bericht erreichten Punkt.
Beispielsweise erkennt das System nach der Anmeldung, daß
der Benutzer zuerst den bestimmten Bericht wählen wird und
steuert die Spracherkennungsvorrichtung (20), damit sie
lediglich die Triggerausdrücke erkennt, die jeder bestimmten
Berichtsart zugeordnet sind. Diese Erkennungsweise liefert
eine verbesserte Genauigkeit, wird jedoch nicht als
Begrenzung der eigentlichen Erfindung angesehen und
andere Erkennungsweisen liegen im Rahmen der Erfindung.
Sobald ein Bericht durch eine Niederschrift gesprochener
Triggerausdrücke erzeugt wurde, geben Systeme, wie das
VoiceRad-System, die ausgewählten Textmitteilungen an den
Drucker (34), um eine ausgedruckte Kopie des Berichtes
zu liefern. Um eine größere Flexibilität bei der Erzeugung
des Berichtes zu ergeben, wird der Text ferner an
Tastatur und Anzeige (36) ausgegeben und ein Systembenutzer
kann den angezeigten Text beliebig unter Verwendung
bekannter Wortverarbeitungsverfahren abändern. Die Software
liefert ferner einen Wort-um-Wort-Betrieb, wobei jedes
eingegebene Sprachsignal einem einzelnen Wort oder Ausdruck
zugeordnet wird, so daß der Benutzer im wesentlichen den
Text über die Spracherkennungsvorrichtung (20) und den
Hauptrechner (pc 30) diktieren kann. Wie vorausgehend
aufgeführt wurde, sind Systeme, wie das VoiceRad-System,
im Handel erhältlich und eine nähere Beschreibung ihres
Betriebes wird für das Verständnis der Erfindung nicht für
erforderlich gehalten. Sobald ein Bericht beendet ist,
steuert der Hauptrechner (pc 30) die Synthesevorrichtung
(40), um den Text des Berichtes in zusammengesetzte
Sprachsignale umzuwandeln und diese Sprachsignale an ein
zentrales digitales Diktiersystem zur Speicherung und
Wiedergewinnung auszugeben. Derartige Synthesevorrichtungen
sind im Handel erhältlich und bestehen vorzugsweise aus
einem System, wie es mit dem Warenzeichen "Calltext 5000"
von Speech Plus Inc., Mountain View, Kalifornien, vertrieben
wird. Derartige Systeme empfangen ein Wort als eine Folge
digitaler Signale, die typischerweise in ASCII codiert
sind und erzeugen ein ausgewähltes entsprechendes
Sprachsignal unter Verwendung digitaler
Signalverarbeitungsverfahren, die dem Fachmann bekannt sind.
Derartige Systeme können ferner DTMF-Fähigkeiten haben, um
über die Telefonleitungen Zugang zu anderen Systemen zu
erzielen, wie nachstehend näher beschrieben wird. Die
zusammengesetzten Sprachsignale werden zum zentralen
digitalen Diktiersystem entweder durch eine übliche
Teilnehmerzentrale (60) oder eine ausschließlich
zugeordnete Telefonleitung (62) oder in irgendeiner geeigneten
bekannten Weise ausgegeben. Sobald sie in der Sprachspeicher- und
Wiedergabevorrichtung (50) gespeichert sind, kann auf die
Signale dann unmittelbar durch irgendeinen berechtigten
Systembenutzer über das öffentliche Telefonnetz, über die
Teilnehmerzentrale (60) oder über eine in geeigneter
bekannter Weise angeschlossene private Leitung zugegriffen
werden, womit ein unmittelbarer Zugang für Personen, wie
beispielsweise die an erster Stelle behandelnden Ärzte,
geliefert wird, die eine rasche Kenntnis eines
röntgenologischen Berichtes benötigen können. Zentrale
Diktiersysteme für die digitale Speicherung und Wiedergewinnung
von Sprachsignalen sind bekannt und beispielsweise in der
gemeinsam abgetretenen schwebenden US-Patentanmeldung Nr.
0 13 303, angemeldet am 10.2.1987 mit der Bezeichnung
"Digitales Diktiersystem" beschrieben (DIC-536). Ein
weiteres geeignetes System wird unter dem Warenzeichen RTAS
durch den Abtretungsempfänger der vorliegenden Erfindung
vertrieben (RTAS ist das Warenzeichen von Sudbury Systems
Inc., Sudbury, MA). Derartige Systeme speichern
Sprachsignale in digitaler Form zur späteren Wiedergewinnung,
typischerweise über das Telefonnetz durch Schreibkräfte
für die Niederschrift oder andere berechtigte Benutzer.
Sobald ein berechtigter Benutzer ein Speichersignal erkennt,
wird ein System das Signal wiedergewinnen, es in ein
analoges Sprachsignal umwandeln und an den Benutzer ausgeben.
Eine nähere Beschreibung der Betriebsweise eines derartigen
zentralen digitalen Diktiersystems wird für das Verständnis
der Erfindung nicht als erforderlich angesehen.
Das System sieht ferner eine dritte Telefonleitung (64)
zur Eingabevorrichtung (10) vor, so daß ein Benutzer
entweder vorausgehend gespeicherte Berichte abhören oder
in üblicher Weise nicht-standardisierte Berichte diktieren
kann. Die Telefonleitung (64) kann entweder den Anschluß
über die Teilnehmerzentrale (60) herstellen oder über eine
wahlweise direkte Verbindung (68) oder sie kann in
irgendeiner bekannten Weise angeschlossen sein.
Fig. 2 zeigt eine schematische Darstellung der Schnittstelle
(16) näher. Zwei Telefonleitungen (15 a, 15 b) sind von der
Eingabevorrichtung (10) zur Buchse (16-1) der Schnittstelle
(16) geführt. Die Telefonleitung (15 a) wird über einen
Tonfrequenzübertrager (16-2) an einen Differenztreiber
(16-3) angeschlossen, um ein Signalpaar für die
Spracherkennungsvorrichtung (20) zu schaffen, mit welcher
er über die Buchse (16-4) verbunden ist. Die
Telefonleitung (15 b) ist über eine Buches (16-1) an den
Tonfrequenzverstärker (16-5) und den Ausgang des Verstärkers
(16-6) angeschlossen, der ein Signal über die Buchse (16-7)
vom Ausgang der Synthesevorrichtung (40) empfängt. Diese
Telefonleitung gestattet es einem Benutzer, die
zusammengesetzten Sprachsignale abzuhören, die zur Erzeugung
eines Ausnahme-Vokabulars erzeugt werden, um die Aussprache
von Wörtern zu verbessern, die in den im Speicher (32)
gespeicherten Textmitteilungen enthalten sind, wie
anschliessend näher erläutert wird.
Die Eingabevorrichtung (10) ist mit getrennten Leitungen
ausgestattet, um eine Rückkopplung der zusammengesetzten
Sprache zur Spracherkennungsvorrichtung (20) zu verhindern.
Jedoch liegt es im Rahmen der Erfindung, die Steuerung der
Spracherkennungsvorrichtung (20) abzuändern, so daß sie
nicht im Betrieb ist, wenn Sprache zur Eingabevorrichtung
(10) ausgegeben wird und eine einzige bidirektionale
Leitung zu verwenden.
Die Fig. 3a bis 3c zeigen eine Betriebsablaufdarstellung des
Systems nach Fig. 1. Bei (100) wählt ein Benutzer des
Systems die Telefonleitung (15 a) an der Eingabevorrichtung
(10) aus, um Zutritt zur Spracherkennungsvorrichtung (20)
und den Hauptrechner (pc 30) zu haben. Der Benutzer meldet
sich dann über die Tastatur (36) an, um sich selbst gegenüber
dem System zu identifizieren. Die Anmeldung über die
Tastatur (36) ist erforderlich, so daß das System das
geeignete Vokabular für den Benutzer auswählen kann, für
welches das System trainiert worden ist. Sobald sich der
Benutzer identifiziert hat, führt das System Sprachprüfungen
und Mikrofonprüfungen durch, um den Erkennungsalgorithmus
der Spracherkennungsvorrichtung (20) für die vorliegenden
Bedingungen einzustellen. Da das System das vorbestimmte
Vokabular des Benutzers ausgewählt hat, kann der Benutzer
anschließend die Anmeldung beenden, um Datum und Art des
Berichtes mündlich festzulegen, was nachstehend näher
erläutert wird.
Bei (106) beginnt der Benutzer, Sprachsignale einzugeben,
und bei (110) prüft das System, um festzustellen, ob das
Sprachsignal eine "Unterschrift" ist. Unter "Unterschrift"
wird hier ein Triggerausdruck verstanden, der dem System
angibt, daß der Bericht vollständig ist, außer vielleicht
für eine zusätzliche Kennung, die, wie nachstehend
beschrieben, vorgesehen werden kann.
Wird die Unterschrift nicht erkannt, so gewinnt das System
bei (112) eine vorbestimmte Textmitteilung zurück, die
einem erkannten Triggerausdruck zugeordnet und im Speicher
(32) gespeichert ist, und zeigt sie am Tastenfeld
+Anzeige (34) an. Bei (114) prüft das System, um
festzustellen, ob der Benutzer den angezeigten Text
mittels des Tastenfeldes abändert. Falls dies nicht
zutrifft, kehrt das System für eine weitere Spracheingabe
nach (106) zurück. Im anderen Fall wird bei (118) der
Text entsprechend einem Standardwortverarbeitungsverfahren
abgeändert und das Systemkehrt dann für eine weitere
Spracheingabe nach (106) zurück.
Bei einer anderen Ausführungsform der Erfindung kann das
Edieren mündlich sein, unter Verwendung von
Diktiersteuerungen, wie beispielsweise "schneller Vorlauf"
und "Rückspulen" zur Positionierung und "Einsetzen" zur
mündlichen Änderung des angezeigten Textes.
Falls bei (110) das System die "Unterschrift" erfaßt,
geht das System nach (A) der Fig. 3b und bei (120) kann
der Benutzer mündlich die Zahlen einer Patientenkennummer
oder andere Daten eingeben, die dazu verwendet werden
können, um den Bericht zur späteren Entnahme zu kennzeichnen.
Bei (124) prüft das System, um festzustellen,ob es die
letzte Zahl ist, und falls dies nicht zutrifft, bestimmt
das System bei (126) und (128), ob der Benutzer den Text
über das Tastenfeld in der vorausgehend beschriebenen Weise
zu ändern wünscht.
Sobald die letzte Zahl der Patientenkennummer eingegeben
ist, bricht das System bei (132) den Text des vollständigen
Berichtes ab und druckt den Bericht am Drucker (136), womit
eine sofortige gedruckte Kopie für den Benutzer geliefert
wird, und zwar entweder direkt oder über eine
Bildübertragungsvorrichtung zu einer entfernten Stelle.
Bei (134) analysiert das System die Datei und entnimmt Daten
für eine Anmeldung am Diktiersystem (50). Wie nachstehend
näher beschrieben wird, sucht das System beim Analysieren
des Textes durch jedes Wort des Textes des vollständigen
Berichtes, um zu bestimmen, ob irgendwelche Wörter in
einem Ausnahme-Wörterbuch enthalten sind, das einen Teil
des Systems bildet. Falls sie sich finden, so werden die
Ausnahmen durch die Ersatzworte ersetzt, die den
Ausnahmeworten in dem Ausnahme-Wörterbuch zugeordnet sind.
Diese Ersatzworte gestatten die Verbesserung der Aussprache
der Sprachsignale, die durch die Synthesevorrichtung (40)
zusammengesetzt wurden und die Substitution alternativer
Ausdrücke in dem mündlichen und gedruckten Bericht.
Bei (134) tastet das System ferner den Bericht ab, um
Daten zu entnehmen, die bezüglich der Anmeldung am
Diktiersystem (50) erforderlich sind. Diese Daten umfassen
gewöhnlich die Identifizierung des Verfassers und des
Patienten, so daß das System (50) den aufgezeichneten
Sprachbericht ordnungsgemäß ablegen kann und ferner
weitere nützliche Daten enthalten könnte, wie beispielsweise
die Kennzeichnung der Art des Berichtes.
Bei (138) überprüft das System anschließend, um festzustellen,
ob der Bericht nunmehr in dem Diktiersystem (50)
gespeichert werden soll, oder ob er später gespeichert
werden soll. Soll der Bericht später gespeichert werden,
so wird bei (140) der Text in eine Warteschlange für
spätere Speicherung angeordnet und bei (142) bestimmt das
System, ob der Benutzer einen weiteren Bericht einzugeben
wünscht. Trifft dies zu, so kehrt das System nach (C) in
Fig. 3a zurück und anderenfalls bricht das System bei
(144) ab. Diese Fähigkeit gestattet es einem Benutzer,
der eine Anzahl Berichte zu erstellen hat, alle Berichte
zu erstellen, ohne darauf zu warten, daß jeder einzelne
gespeichert wird. Sobald alle Berichte erstellt sind,
speichert das System zu einem späteren Zeitpunkt die in
der Warteschlange befindlichen Berichte in im wesentlichen
gleicher Weise, wie nachstehend näher beschrieben wird.
Soll die Sprache gespeichert werden, so geht das System
nach (B) in Fig. 3c und nimmt bei (146) Zutritt zum
Diktiersystem (50). Das heißt, das System steuert die
Synthesevorrichtung (40), um das Diktiersystem (50) in
bekannter Weise anzurufen oder anders Zugang zu ihm zu
nehmen, im wesentlichen in ähnlicher Weise wie bei
Anruf-Modems, die unter Computersteuerung betrieben werden.
Bei (150) prüft das System bezüglich Belegung, und falls
das Speichersystem (50) nicht verfügbar ist, bestimmt
es, ob es bei (152) erneut einen Versuch machen soll. Falls
das System bestimmt, daß es nicht länger erneut einen
Versuch machen soll, so wird der Text des Berichtes zur
Warteschlange bei (154) gesandt und das System tritt bei
(156) ab.
Ist das System nicht belegt, so wandelt das System bei
(160) die aus dem Bericht bei (134) entnommenen Daten
(beispielsweise Verfasserkennummer und Patientenkennummer)
in DTMF-Signale zur Übertragung über die Telefonleitungen
zum Diktiersystem (50) um und nimmt dann bei (162) unter
Verwendung der DTMF-Töne eine Anmeldung am Speichersystem
(50) vor.
Bei (166) stellt das System fest, ob die Anmeldung erfolgreich
war, und falls dies nicht zutrifft tritt es bei (168)
in ein Fehlerprogramm ein. Ist die Anmeldung bei (172)
erfolgreich, so gibt das System das nächste Wort des
analysierten Textes an die Sprachsynthesevorrichtung (40)
aus und gibt die synthetische Sprache bei (174) an das
Diktiersystem (50) aus. Bei (176) überprüft das System, um
festzustellen, falls das letzte Wort des Berichtes vorliegt,
und falls dies nicht zutrifft, erfolgt eine Schleife
zurück über (172), um die Ausgabe des Berichtes
fortzusetzen. Sobald das letzte Wort des Berichtes ausgegeben
ist, meldet sich das System ab und tritt bei (178) ab.
Somit wird ein synthetisches Sprachsignal, das dem
vollständigen Text des Berichtes entspricht, auf dem
Sprachspeicher- und Wiedergewinnungssystem (50) zum
unmittelbaren Zutritt durch berechtigte interessierte
Stellen in bekannter Weise gespeichert.
(Der Fachmann erkennt, dass besondere Triggerausdrücke
auch als Befehle in komplexeren Anwendungen verwendet
werden können, um beispielsweise eine Leerstelle in einem
vorbestimmten Format auszuwählen, ohne bedeutsame Änderung
des vorausgehend beschriebenen Betriebes.)
Fig. 4 zeigt eine Darstellung eines Musterberichtes, der
erfindungsgemäß erzeugt worden ist. Bei der Anmeldung
werden Verfasserkennzeichnung, Zeit und Datum (200)
zusammen mit der Normüberschrift (202) ausgefertigt. Der
Benutzer datiert dann den Bericht durch Aussprechen des
Triggerausdruckes HEUTE, wodurch veranlaßt wird, daß
der Text für das laufende Datum in den Bericht eingefügt
wird. Als Alternative kann der Benutzer ein anderes
Datum in Zahlenform eingeben.
Bei (208) gibt der Benutzer den Triggerausdruck ARTHROGRAMM
(Röntgenuntersuchung der Gelenke) ein, der in den
Bericht eingefügt wird, um die Berichtsart zu kennzeichnen.
Das System ist ferner ist der Lage, anschließend das
geeignete Format für den Bericht und die geeigneten
Untergruppen des Vokabulars zu bestimmen, die an jeder
Stelle im Bericht verwendet werden sollen.
Bei (210) und (212) gibt der Benutzer die Triggerausdrücke
RECHTS und SCHULTER ein, womit veranlaßt wird, daß der
Text "rechts" und "Schulter" in dem Bericht als weitere
Kennzeichnung der Art des Berichtes eingefügt wird.
Anschließend gibt der Benutzer den Triggerausdruck ROUTINE
ein, womit veranlaßt wird, daß der Text für den Absatz
(216) in den Bericht eingefügt wird. Das System geht
anschließend zur Leerstelle (218) und gibt durch Anzeige
des Positionsanzeigers an der Leerstelle im Text an der
Anzeige (34) an, daß ein Wert geliefert werden soll. Der
Benutzer gibt dann den Triggerausdruck 2 ein und den
Befehlstriggerausdruck GO TO NEXT, womit veranlaßt wird,
daß eine Zahl 2 in die Leerstelle im Berichtstext eingefügt
wird und der Positionsanzeiger zur Leerstelle (220) bewegt
wird. Der Benutzer gibt dann den Triggerausdruck DURCHLEUCHTUNG
ein, womit veranlaßt wird, daß der Text bei (220)
eingegeben wird, und darauf gibt er den Befehlstriggerausdruck
ABTRITT DER EINFÜGUNGEN ein. Der Benutzer gibt dann den
Triggerausdruck NORMAL ein, womit veranlaßt wird, daß
der Text bei (224) in den Bericht eingefügt wird und
anschließend gibt er den Befehlstriggerausdruck UNTERSCHRIFT
ein, woran sich die Triggerausdrücke 4, 5, 3 und 0
anschließen, womit veranlaßt wird, daß der Text (225)
Patientenkennummer (226) eingegeben wird und den Bericht
abschließt. Der Bericht ist dann bereit für ein Abhören
durch den an erster Stelle behandelnden Arzt in gleicher
Weise wie ein üblich diktierter Bericht von einer
Schreibkraft zur Niederschrift angenommen würde.
Fig. 5 und 6 zeigen die Erstellung eines Ausnahme-Wörterbuches
im Einklang mit der Erfindung. Da die
Sprachsynthesevorrichtung (40) nicht auf ein festgelegtes
Vokabular beschränkt ist, versucht sie, synthetische
Sprachsignale durch eine Analyse entsprechend einem
vorbestimmten Algorithmus zu erzeugen, der auf der Grundlage
der Schreibweise der Texteingabe arbeitet. Es ist natürlich
bekannt, daß die Aussprache englischer Wörter häufig
geringe oder keine Ähnlichkeit mit ihrer Schreibweise
hat. Somit ist es bei Systemen, wie beispielsweise dem
"Calltext" bekannt, die Schreibweise im Bericht abzuändern,
um eine besser annehmbare Aussprache zu erzielen. Jedoch
ist es bei der Erfindung wesentlich, daß der gelieferte
gedruckte Text korrekt geschrieben wird. Entsprechend wird
im Einklang mit der Erfindung ein Ausnahme-Wörterbuch
gemäß Fig. 5 verwendet, das jene Wörter aufführt, deren
Aussprache abhängig von der korrekten Schreibweise vom
Benutzer nicht als annehmbar erachtet wird, sowie zugeordnete
Ersatzworte mit einer abgeänderten Schreibweise, die eine
annehmbarere Aussprache ergibt, und die während der
vorausgehend bei (134) beschriebenen Analyse substituiert
werden.
Fig. 6 zeigt eine Ablaufdarstellung der Erzeugung eines
Ausnahme-Wörterbuches im Einklang mit der Erfindung. Bei
(300) wird der Text des nächsten Wortes, dessen Aussprache
möglicherweise nicht annehmbar ist, über die Tastatur
eingegeben und bei (302) wird dieser Text dazu verwendet,
ein Sprachsignal zusammenzustellen, das zum Benutzer über
die Telefonleitung (15 b) abgespielt wird. Bei (306)
entscheidet der Benutzer, ob das Sprachsignal entsprechend
der korrekten Schreibweise annehmbar ist, und falls dies
zutrifft und falls bei (307) weitere Worte vorhanden sind,
kehrt das System nach (300) zurück, um den Text des nächsten
Wortes einzugeben. Falls keine weiteren Worte vorliegen,
tritt das System bei (318) ab.
Ist die Aussprache jedoch nicht annehmbar, so gibt der
Benutzer einen modifizierten Text für ein Ersatzwort
bei (308) ein und hört bei (310) der synthetischen Sprache
für den abgeänderten Text ab. Bei (314) bestimmt der
Benutzer, ob diese Aussprache annehmbar ist, und kehrt,
falls dies nicht zutrifft, nach (308) zurück, um den Text
weiter zu ändern. Ist er annehmbar, so entscheidet das System, ob
er das letzte Wort (bei 316) bildet, und falls dies nicht
zutrifft, kehrt es nach (300) zurück, während es
zutreffendenfalls bei (318) abtritt.
Der Fachmann erkennt, daß andere Ausführungsformen der
Erfindung unter Berücksichtigung der vorausgehenden
Beschreibung und der anliegenden Zeichnungen möglich sind,
und die Erfindung wird somit lediglich durch die
anliegenden Ansprüche begrenzt.
Claims (27)
1. Vorrichtung zur Erzeugung mündlicher Berichte,
gekennzeichnet durch:
- (a) eine Eingabevorrichtung (10) zur Eingabe von Sprachsignalen;
- (b) eine Erkennungsvorrichtung (20) zum Erkennen vorgegebener der Eingabesprachsignale als Triggerausdrücke;
- (c) eine Synthesevorrichtung (40) zum Zusammensetzen von Sprachsignalen aus der Texteingabe und zur Ausgabe der zusammengesetzten Sprachsignale zur Speicher- und Wiedergewinnungsvorrichtung (50);
- (d) eine Textspeichervorrichtung (32) zur Speicherung vorgegebener Textmitteilungen;
- (e) eine Steuervorrichtung (30), die an die
Erkennungsvorrichtung (20), die Synthesevorrichtung (40)
und die Textspeichervorrichtung (32) angeschlossen ist,
um:
- (e1) auf die Triggerausdrücke anzusprechen, um bestimmte der Textmitteilungen auszuwählen;
- (e2) die ausgewählten Textmitteilungen an die Synthesevorrichtung (40) auszugeben und die Synthesevorrichtung zu steuern, um zusammengesetzte Sprachsignale entsprechend den ausgewählten Textmitteilungen auszugeben.
2. Vorrichtung nach Anspruch 1, gekennzeichnet
durch eine Speicher- und Wiedergewinnungsvorrichtung
(50) zur Speicherung der zusammengesetzten Sprachsignale
zwecks späterer Wiedergewinnung.
3. Vorrichtung nach Anspruch 2, dadurch
gekennzeichnet, daß die Triggerausdrücke
von einem Benutzer der Vorrichtung ausgewählt werden.
4. Vorrichtung nach Anspruch 2, gekennzeichnet
durch eine Druckvorrichtung (34), die auf die
Steuervorrichtung (30) anspricht, um eine Kopie der
ausgegebenen Textmitteilung zu drucken.
5. Vorrichtung nach Anspruch 2, gekennzeichnet
durch eine Analysevorrichtung zur Abänderung der
Schreibweise von Wörtern in der Textmitteilung, um
die zusammengesetzten Sprachsignale zu modifizieren.
6. Vorrichtung nach Anspruch 5, dadurch
gekennzeichnet, daß die Analysevorrichtung
ferner ein vorgegebenes Ausnahme-Wörterbuch umfaßt.
7. Vorrichtung nach Anspruch 2, gekennzeichnet
durch eine Vorrichtung (62) zur Herstellung einer
Verbindung zwischen der Synthesevorrichtung (40) und
der Speicher- und Wiedergewinnungsvorrichtung (50)
über ein Telefonnetz.
8. Vorrichtung nach Anspruch 7, dadurch
gekennzeichnet, daß die Vorrichtung
zur Herstellung einer Verbindung ferner eine Vorrichtung
zur Entnahme ausgewählter Daten aus den ausgewählten
Textmitteilungen aufweist, zur Umwandlung der
entnommenen Daten in DTMF-Signale und zur Ausgabe der
DTMF-Signale an die Speicher- und Wiedergewinnungsvorrichtung
(50) zwecks Identifizierung der ausgegebenen
zusammengesetzten Sprachsignale.
9. Vorrichtung nach Anspruch 2, dadurch
gekennzeichnet, daß die ausgewählten
Textmitteilungen röntgenologische Berichte umfassen.
10. Vorrichtung nach Anspruch 1, dadurch
gekennzeichnet, daß die Triggerausdrücke
durch einen Benutzer der Vorrichtung ausgewählt werden.
11. Vorrichtung nach Anspruch 1, gekennzeichnet
durch eine Druckvorrichtung (34), die auf die
Steuervorrichtung (30) anspricht, um eine Kopie der
ausgegebenen Textmitteilung zu drucken.
12. Vorrichtung nach Anspruch 1, gekennzeichnet
durch eine Analysevorrichtung zur Abänderung der
Schreibweise von Wörtern in den Textmitteilungen, um
die zusammengesetzten Sprachsignale zu modifizieren.
13. Vorrichtung nach Anspruch 12, dadurch
gekennzeichnet, daß die
Analysevorrichtung ferner ein vorgegebenes
Ausnahme-Wörterbuch umfaßt.
14. Vorrichtung nach Anspruch 1, dadurch
gekennzeichnet, daß die ausgewählten
Textmitteilungen röntgenologische Berichte umfassen.
15. Vorrichtung nach Anspruch 1, gekennzeichnet
durch eine Vorrichtung zum Edieren der ausgewählten
Textmitteilungen, bevor die entsprechenden
zusammengesetzten Sprachsignale ausgegeben werden.
16. Verfahren zur Erzeugung mündlicher Berichte,
gekennzeichnet durch folgende Schritte:
- (a) Aufnahme gesprochener Triggerausdrücke;
- 2(b) Erkennen der Triggerausdrücke und Zuordnen der erkannten Triggerausdrücke an ausgewählte der vorgegebenen Textmitteilungen;
- (c) Zusammensetzen von Sprachsignalen entsprechend den ausgewählten Textmitteilungen.
17. Verfahren nach Anspruch 15, gekennzeichnet
durch den weiteren Verfahrensschritt, wonach die
zusammengesetzten Sprachsignale zur späteren
Wiedergewinnung gespeichert werden.
18. Verfahren nach Anspruch 16, dadurch
gekennzeichnet, daß die Triggerausdrücke
durch einen Benutzer des Verfahrens ausgewählt werden.
19. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach eine Kopie der
ausgewählten Textmitteilungen gedruckt wird.
20. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach die Schreibweise
ausgewählter Wörter in den Textmitteilungen modifiziert
wird, bevor die Zusammensetzung der Sprachsignale
erfolgt.
21. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach Daten entnommen
werden, die die zusammengesetzten Sprachsignale
gegenüber den ausgewählten Textmitteilungen identifizieren
und Speichern dieser zusammengesetzten Sprachsignale
entsprechend den entnommenen Daten.
22. Verfahren nach Anspruch 12, dadurch
gekennzeichnet, daß die ausgewählten
Textmitteilungen röntgenologische Berichte umfassen.
23. Verfahren nach Anspruch 16, dadurch
gekennzeichnet, daß die Triggerausdrücke
durch einen Benutzer des Verfahrens ausgewählt werden.
24. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach eine Kopie der
ausgewählten Textmitteilungen gedruckt wird.
25. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach die Schreibweise
ausgewählter Worte in den Textmitteilungen modifiziert
wird, bevor die Sprachsignale zusammengesetzt werden.
26. Verfahren nach Anspruch 16, dadurch
gekennzeichnet, daß die ausgewählten
Textmitteilungen röntgenologische Berichte umfassen.
27. Verfahren nach Anspruch 16, gekennzeichnet
durch den Verfahrensschritt, wonach die vorgegebenen
Textmitteilungen ediert werden, bevor die Sprachsignale
zusammengesetzt werden.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/175,900 US5051924A (en) | 1988-03-31 | 1988-03-31 | Method and apparatus for the generation of reports |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3910467A1 true DE3910467A1 (de) | 1989-10-12 |
DE3910467C2 DE3910467C2 (de) | 2001-09-13 |
Family
ID=22642131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3910467A Expired - Fee Related DE3910467C2 (de) | 1988-03-31 | 1989-03-31 | Verfahren und Vorrichtung zur Erzeugung von Berichten |
Country Status (5)
Country | Link |
---|---|
US (1) | US5051924A (de) |
JP (1) | JP2768727B2 (de) |
CA (1) | CA1334869C (de) |
DE (1) | DE3910467C2 (de) |
GB (1) | GB2217953B (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4101200A1 (de) * | 1991-01-17 | 1992-07-23 | Standard Elektrik Lorenz Ag | Kommunikationssystem |
US5920835A (en) * | 1993-09-17 | 1999-07-06 | Alcatel N.V. | Method and apparatus for processing and transmitting text documents generated from speech |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5303148A (en) * | 1987-11-27 | 1994-04-12 | Picker International, Inc. | Voice actuated volume image controller and display controller |
US7249026B1 (en) * | 1993-03-24 | 2007-07-24 | Engate Llc | Attorney terminal having outline preparation capabilities for managing trial proceedings |
US5369704A (en) * | 1993-03-24 | 1994-11-29 | Engate Incorporated | Down-line transcription system for manipulating real-time testimony |
US7631343B1 (en) * | 1993-03-24 | 2009-12-08 | Endgate LLC | Down-line transcription system using automatic tracking and revenue collection |
DE4434255A1 (de) * | 1994-09-24 | 1996-03-28 | Sel Alcatel Ag | Vorrichtung zur Sprachaufzeichnung mit anschließender Texterstellung |
JPH10105368A (ja) * | 1996-07-12 | 1998-04-24 | Senshu Ginkou:Kk | 音声による処理依頼受付装置及び方法 |
US5772585A (en) * | 1996-08-30 | 1998-06-30 | Emc, Inc | System and method for managing patient medical records |
US6138096A (en) * | 1996-11-26 | 2000-10-24 | Add Value Holdings Pte Ltd. | Apparatus for speech-based generation, audio translation, and manipulation of text messages over voice lines |
US5924068A (en) * | 1997-02-04 | 1999-07-13 | Matsushita Electric Industrial Co. Ltd. | Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion |
US6603835B2 (en) | 1997-09-08 | 2003-08-05 | Ultratec, Inc. | System for text assisted telephony |
AU1452199A (en) * | 1997-11-07 | 1999-05-31 | Hill-Rom, Inc. | Medical equipment controller |
DE19751170A1 (de) * | 1997-11-19 | 1999-06-02 | Bosch Gmbh Robert | Verfahren zur Auswahl eines Teilnehmers eines Telekommunikationsnetzes |
US6219638B1 (en) * | 1998-11-03 | 2001-04-17 | International Business Machines Corporation | Telephone messaging and editing system |
US6631368B1 (en) | 1998-11-13 | 2003-10-07 | Nortel Networks Limited | Methods and apparatus for operating on non-text messages |
US6332120B1 (en) * | 1999-04-20 | 2001-12-18 | Solana Technology Development Corporation | Broadcast speech recognition system for keyword monitoring |
US6298326B1 (en) | 1999-05-13 | 2001-10-02 | Alan Feller | Off-site data entry system |
US7797730B2 (en) * | 1999-06-24 | 2010-09-14 | Engate Llc | Downline transcription system using automatic tracking and revenue collection |
WO2001003412A1 (de) * | 1999-06-29 | 2001-01-11 | Swisscom Mobile Ag | Verfahren und vorrichtung für die erfassung und übermittlung von meldungen |
US6308158B1 (en) * | 1999-06-30 | 2001-10-23 | Dictaphone Corporation | Distributed speech recognition system with multi-user input stations |
US6255784B1 (en) * | 1999-12-02 | 2001-07-03 | Visteon Global Technologies, Inc. | Photopic brightness controller for fluorescent backlights |
EP1119171A1 (de) * | 2000-01-21 | 2001-07-25 | Alcatel | Telekommunikationssystem, sowie Vermittlungsstelle, sowie Vorverarbeitungeinheit |
US6757362B1 (en) * | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US6920425B1 (en) * | 2000-05-16 | 2005-07-19 | Nortel Networks Limited | Visual interactive response system and method translated from interactive voice response for telephone utility |
US8290768B1 (en) | 2000-06-21 | 2012-10-16 | International Business Machines Corporation | System and method for determining a set of attributes based on content of communications |
US6408277B1 (en) | 2000-06-21 | 2002-06-18 | Banter Limited | System and method for automatic task prioritization |
US9699129B1 (en) | 2000-06-21 | 2017-07-04 | International Business Machines Corporation | System and method for increasing email productivity |
US6751589B1 (en) * | 2000-09-18 | 2004-06-15 | Hewlett-Packard Development Company, L.P. | Voice-actuated generation of documents containing photographic identification |
US7644057B2 (en) | 2001-01-03 | 2010-01-05 | International Business Machines Corporation | System and method for electronic communication management |
US20020169615A1 (en) * | 2001-03-23 | 2002-11-14 | Irwin Kruger | Computerized voice-controlled system for compiling quality control data |
US7092376B2 (en) | 2001-03-30 | 2006-08-15 | Hill-Rom Services, Inc. | Hospital bed and network system |
US20020169639A1 (en) * | 2001-05-09 | 2002-11-14 | Jeffrey Yu | Systems for generating radiology reports |
US7054939B2 (en) * | 2001-06-28 | 2006-05-30 | Bellsouth Intellectual Property Corportion | Simultaneous visual and telephonic access to interactive information delivery |
US7154397B2 (en) | 2001-08-03 | 2006-12-26 | Hill Rom Services, Inc. | Patient point-of-care computer system |
US8416925B2 (en) | 2005-06-29 | 2013-04-09 | Ultratec, Inc. | Device independent text captioned telephone service |
US7006968B2 (en) * | 2001-10-11 | 2006-02-28 | Hewlett-Packard Development Company L.P. | Document creation through embedded speech recognition |
AU2002352560A1 (en) * | 2001-11-14 | 2003-05-26 | Denholm Enterprises, Inc. | Patient communication method and system |
GB2395330A (en) * | 2002-10-18 | 2004-05-19 | Eckoh Technologies | Telephone voting system |
US7460252B2 (en) * | 2003-01-13 | 2008-12-02 | Axiohm Transaction Solutions, Inc. | Graphical printing system and method using text triggers |
US7389230B1 (en) | 2003-04-22 | 2008-06-17 | International Business Machines Corporation | System and method for classification of voice signals |
US20040215461A1 (en) * | 2003-04-24 | 2004-10-28 | Visteon Global Technologies, Inc. | Text-to-speech system for generating information announcements |
US8495002B2 (en) | 2003-05-06 | 2013-07-23 | International Business Machines Corporation | Software tool for training and testing a knowledge base |
US20050187913A1 (en) | 2003-05-06 | 2005-08-25 | Yoram Nelken | Web-based customer service interface |
US8515024B2 (en) | 2010-01-13 | 2013-08-20 | Ultratec, Inc. | Captioned telephone service |
US7319961B2 (en) * | 2004-03-04 | 2008-01-15 | Saudi Arabian Oil Company | Voice recognition technology to capture geoscience data |
US7302048B2 (en) * | 2004-07-23 | 2007-11-27 | Marvell International Technologies Ltd. | Printer with speech transcription of a recorded voice message |
US8462367B2 (en) * | 2005-02-10 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | Printer voice portal |
US11258900B2 (en) | 2005-06-29 | 2022-02-22 | Ultratec, Inc. | Device independent text captioned telephone service |
WO2007039373A1 (en) * | 2005-10-05 | 2007-04-12 | International Business Machines Corporation | A method and apparatus for data capture using a voice activated workstation |
US8286071B1 (en) | 2006-06-29 | 2012-10-09 | Escription, Inc. | Insertion of standard text in transcriptions |
WO2008024800A2 (en) * | 2006-08-21 | 2008-02-28 | Western Slope Utilities, Inc. | Systems and methods for swab transport in pipeline rehabilitation |
US20080109489A1 (en) * | 2006-11-03 | 2008-05-08 | Adrian Sherwood | Method For Generating Reports |
US8930210B2 (en) | 2007-03-29 | 2015-01-06 | Nuance Communications, Inc. | Method and system for generating a medical report and computer program product therefor |
US8348839B2 (en) | 2007-04-10 | 2013-01-08 | General Electric Company | Systems and methods for active listening/observing and event detection |
US9112977B2 (en) | 2007-04-13 | 2015-08-18 | Sony Corporation | Voicemail message based on text information |
US20090083035A1 (en) * | 2007-09-25 | 2009-03-26 | Ritchie Winson Huang | Text pre-processing for text-to-speech generation |
US8046226B2 (en) * | 2008-01-18 | 2011-10-25 | Cyberpulse, L.L.C. | System and methods for reporting |
US8165881B2 (en) * | 2008-08-29 | 2012-04-24 | Honda Motor Co., Ltd. | System and method for variable text-to-speech with minimized distraction to operator of an automotive vehicle |
US20100057465A1 (en) * | 2008-09-03 | 2010-03-04 | David Michael Kirsch | Variable text-to-speech for automotive application |
US20110029325A1 (en) * | 2009-07-28 | 2011-02-03 | General Electric Company, A New York Corporation | Methods and apparatus to enhance healthcare information analyses |
US20110029326A1 (en) * | 2009-07-28 | 2011-02-03 | General Electric Company, A New York Corporation | Interactive healthcare media devices and systems |
US10460288B2 (en) | 2011-02-18 | 2019-10-29 | Nuance Communications, Inc. | Methods and apparatus for identifying unspecified diagnoses in clinical documentation |
US8768723B2 (en) | 2011-02-18 | 2014-07-01 | Nuance Communications, Inc. | Methods and apparatus for formatting text for clinical fact extraction |
US9904768B2 (en) | 2011-02-18 | 2018-02-27 | Nuance Communications, Inc. | Methods and apparatus for presenting alternative hypotheses for medical facts |
US10032127B2 (en) | 2011-02-18 | 2018-07-24 | Nuance Communications, Inc. | Methods and apparatus for determining a clinician's intent to order an item |
US20120297330A1 (en) * | 2011-05-17 | 2012-11-22 | Flexigoal Inc. | Method and System for Generating Reports |
US9569594B2 (en) | 2012-03-08 | 2017-02-14 | Nuance Communications, Inc. | Methods and apparatus for generating clinical reports |
US9064492B2 (en) | 2012-07-09 | 2015-06-23 | Nuance Communications, Inc. | Detecting potential significant errors in speech recognition results |
US10504622B2 (en) | 2013-03-01 | 2019-12-10 | Nuance Communications, Inc. | Virtual medical assistant methods and apparatus |
US11024406B2 (en) | 2013-03-12 | 2021-06-01 | Nuance Communications, Inc. | Systems and methods for identifying errors and/or critical results in medical reports |
US11183300B2 (en) | 2013-06-05 | 2021-11-23 | Nuance Communications, Inc. | Methods and apparatus for providing guidance to medical professionals |
US10496743B2 (en) | 2013-06-26 | 2019-12-03 | Nuance Communications, Inc. | Methods and apparatus for extracting facts from a medical text |
US10389876B2 (en) | 2014-02-28 | 2019-08-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US20180034961A1 (en) | 2014-02-28 | 2018-02-01 | Ultratec, Inc. | Semiautomated Relay Method and Apparatus |
US10878721B2 (en) | 2014-02-28 | 2020-12-29 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US20180270350A1 (en) | 2014-02-28 | 2018-09-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US10748523B2 (en) | 2014-02-28 | 2020-08-18 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US10331763B2 (en) | 2014-06-04 | 2019-06-25 | Nuance Communications, Inc. | NLU training with merged engine and user annotations |
US10319004B2 (en) | 2014-06-04 | 2019-06-11 | Nuance Communications, Inc. | User and engine code handling in medical coding system |
US10366424B2 (en) | 2014-06-04 | 2019-07-30 | Nuance Communications, Inc. | Medical coding system with integrated codebook interface |
US10373711B2 (en) | 2014-06-04 | 2019-08-06 | Nuance Communications, Inc. | Medical coding system with CDI clarification request notification |
US10754925B2 (en) | 2014-06-04 | 2020-08-25 | Nuance Communications, Inc. | NLU training with user corrections to engine annotations |
US10366687B2 (en) | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
US11152084B2 (en) | 2016-01-13 | 2021-10-19 | Nuance Communications, Inc. | Medical report coding with acronym/abbreviation disambiguation |
US10949602B2 (en) | 2016-09-20 | 2021-03-16 | Nuance Communications, Inc. | Sequencing medical codes methods and apparatus |
US11133091B2 (en) | 2017-07-21 | 2021-09-28 | Nuance Communications, Inc. | Automated analysis system and method |
US10817647B1 (en) * | 2017-10-26 | 2020-10-27 | Wells Fargo Bank, N.A. | Report automation system |
US11024424B2 (en) | 2017-10-27 | 2021-06-01 | Nuance Communications, Inc. | Computer assisted coding systems and methods |
CN112530405B (zh) * | 2019-09-18 | 2024-07-23 | 北京声智科技有限公司 | 一种端到端语音合成纠错方法、系统及装置 |
US11539900B2 (en) | 2020-02-21 | 2022-12-27 | Ultratec, Inc. | Caption modification and augmentation systems and methods for use by hearing assisted user |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3317325A1 (de) * | 1982-05-11 | 1983-11-17 | Casio Computer Co., Ltd., Tokyo | Durch stimm-eingabe gesteuerter computer |
DE3322257A1 (de) * | 1982-06-22 | 1983-12-22 | Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. | Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung |
DE3723329A1 (de) * | 1986-07-16 | 1988-01-21 | Tokico Ltd | Industrie-wiedergaberoboter |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5638659A (en) * | 1979-09-04 | 1981-04-13 | Sharp Corp | Word processor having sentence confirming function by audio |
JPS5953590B2 (ja) * | 1979-09-14 | 1984-12-26 | シャープ株式会社 | 翻訳装置 |
US4602129A (en) * | 1979-11-26 | 1986-07-22 | Vmx, Inc. | Electronic audio communications system with versatile message delivery |
DE3111798C2 (de) * | 1981-03-20 | 1983-03-24 | Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin | Anordnung für zu sendende Meldetexte in Fernmelde-, insbesondere Fernsprechanlagen |
JPS6055434A (ja) * | 1983-09-05 | 1985-03-30 | Sanyo Electric Co Ltd | ワ−ドプロセッサ装置 |
US4692941A (en) * | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
US4763252A (en) * | 1985-03-21 | 1988-08-09 | Rose David K | Computer entry system for predetermined text data sequences |
DE3519327A1 (de) * | 1985-05-30 | 1986-12-04 | Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt | Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen |
US4980845A (en) * | 1985-08-23 | 1990-12-25 | Snap-On Tools Corporation | Digital engine analyzer |
US4831654A (en) * | 1985-09-09 | 1989-05-16 | Wang Laboratories, Inc. | Apparatus for making and editing dictionary entries in a text to speech conversion system |
US4776016A (en) * | 1985-11-21 | 1988-10-04 | Position Orientation Systems, Inc. | Voice control system |
GB8617389D0 (en) * | 1986-07-16 | 1986-08-20 | British Telecomm | Speech recognition |
-
1988
- 1988-03-31 US US07/175,900 patent/US5051924A/en not_active Expired - Lifetime
-
1989
- 1989-03-30 CA CA000595275A patent/CA1334869C/en not_active Expired - Fee Related
- 1989-03-30 GB GB8907232A patent/GB2217953B/en not_active Expired - Fee Related
- 1989-03-31 JP JP1081365A patent/JP2768727B2/ja not_active Expired - Fee Related
- 1989-03-31 DE DE3910467A patent/DE3910467C2/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3317325A1 (de) * | 1982-05-11 | 1983-11-17 | Casio Computer Co., Ltd., Tokyo | Durch stimm-eingabe gesteuerter computer |
DE3322257A1 (de) * | 1982-06-22 | 1983-12-22 | Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. | Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung |
DE3723329A1 (de) * | 1986-07-16 | 1988-01-21 | Tokico Ltd | Industrie-wiedergaberoboter |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4101200A1 (de) * | 1991-01-17 | 1992-07-23 | Standard Elektrik Lorenz Ag | Kommunikationssystem |
US5920835A (en) * | 1993-09-17 | 1999-07-06 | Alcatel N.V. | Method and apparatus for processing and transmitting text documents generated from speech |
Also Published As
Publication number | Publication date |
---|---|
US5051924A (en) | 1991-09-24 |
JP2768727B2 (ja) | 1998-06-25 |
CA1334869C (en) | 1995-03-21 |
GB2217953A (en) | 1989-11-01 |
JPH02204827A (ja) | 1990-08-14 |
GB2217953B (en) | 1992-07-22 |
DE3910467C2 (de) | 2001-09-13 |
GB8907232D0 (en) | 1989-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3910467C2 (de) | Verfahren und Vorrichtung zur Erzeugung von Berichten | |
DE69712216T2 (de) | Verfahren und gerät zum übersetzen von einer sparche in eine andere | |
DE60010827T2 (de) | Hintergrundsystem für Audiodatenbeseitigung | |
DE69829389T2 (de) | Textnormalisierung unter verwendung einer kontextfreien grammatik | |
DE60033106T2 (de) | Korrektur der Betriebsartfehler, Steuerung oder Diktieren, in die Spracherkennung | |
US5740245A (en) | Down-line transcription system for manipulating real-time testimony | |
DE60012655T2 (de) | Audiowiedergabe von einem geschriebenen Dokument aus mehreren Quellen | |
DE10040214B4 (de) | Verfahren und System zur automatischen Erkennung einer Aktualisierung eines Sprachmodells in einem Spracherkennungssystem | |
DE60207742T2 (de) | Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes | |
DE69327774T2 (de) | Prozessor zur Umwandlung von Daten in Sprache und Ablaufsteuerung hierzu | |
DE69828141T2 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
DE69923379T2 (de) | Nicht-interaktive Registrierung zur Spracherkennung | |
DE69317510T2 (de) | Text-/Sprache-Umwandlungssteuerung | |
DE60215272T2 (de) | Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen | |
DE69326431T2 (de) | Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist | |
DE60020773T2 (de) | Graphische Benutzeroberfläche und Verfahren zur Änderung von Aussprachen in Sprachsynthese und -Erkennungssystemen | |
DE69737987T2 (de) | Verfahren und System zum Puffern erkannter Wörter während der Spracherkennung | |
DE69129163T2 (de) | Verfahren und Vorrichtung zur Texteingabe | |
DE69607601T2 (de) | System und verfahren zur spracherkennung mit automatischer erzeugung einer syntax | |
DE60032846T2 (de) | Verfahren und System zur Anbietung von Alternativen für von stochastischen Eingabequellen abgeleitete Texte | |
US7908145B2 (en) | Down-line transcription system using automatic tracking and revenue collection | |
EP1184839A2 (de) | Graphem-Phonem-Konvertierung | |
WO2004072846A2 (en) | Automatic processing of templates with speech recognition | |
DE3587347T2 (de) | Textverarbeitung mit verbaler Anweisung. | |
DE3855426T2 (de) | Korrekturunterstützungsgerät mit Dokumentenausgabe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |