DE3910467C2 - Verfahren und Vorrichtung zur Erzeugung von Berichten - Google Patents
Verfahren und Vorrichtung zur Erzeugung von BerichtenInfo
- Publication number
- DE3910467C2 DE3910467C2 DE3910467A DE3910467A DE3910467C2 DE 3910467 C2 DE3910467 C2 DE 3910467C2 DE 3910467 A DE3910467 A DE 3910467A DE 3910467 A DE3910467 A DE 3910467A DE 3910467 C2 DE3910467 C2 DE 3910467C2
- Authority
- DE
- Germany
- Prior art keywords
- text
- signals
- speech
- report
- trigger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 18
- 230000014509 gene expression Effects 0.000 claims description 37
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 5
- 239000002131 composite material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000219492 Quercus Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 206010000210 abortion Diseases 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/5307—Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/533—Voice mail systems
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung
zur Speicherung und Weiterleitung von Sprachsignalen.
Insbesondere betrifft sie ein System zur Speicherung und
Weiterleitung ausgewählter Arten von Berichten in Form
von Sprachsignalen.
In vielen Berufssparten ist es häufig erforderlich, Berichte
zu erstellen. Diese Berichte können einheitlich sein oder
aus ausgewählten vorgegebenen Wörtern, Bezeichnungen,
Sätzen oder Abschnitten bestehen, die in einem vorgegebenen
Format angeordnet sind. Ein typischer derartiger Beruf
ist die Röntgenologie. Typischerweise untersucht ein
Röntgenologe eine Röntgenaufnahme und erstellt einen
schriftlichen Bericht über den Zustand des Patienten zur
Ansicht durch den in erster Linie tätigen Arzt des Patienten
(d. h. des behandelnden Arztes). Die grosse Mehrheit dieser
Berichte hat im wesentlichen standardisierte Ausbildung und
unterscheidet sich lediglich in Einzelheiten, wie
beispielsweise den Umfang der aufgeführten Anormalitäten
oder besonderen Bedingungen der Untersuchung. Ähnliche
Erfordernisse für Berichte ergeben sich in
Rechts-, Versicherungs- und anderen derartigen Berufen.
Um einen wirksamen Einsatz ihrer Zeit zu erzielen und
wirtschaftlich für die Krankenhäuser zu arbeiten, mit denen
sie zusammenarbeiten, ist es allgemeine Praxis der
Röntgenärzte, ihre Berichte zu diktieren. In grossen
modernen Krankenhäusern können diese Berichte auf verbesserten
zentralen, digitalen Diktatsystemen diktiert werden, die
seitens einer Anzahl berechtigter Anwender einen Zugang
über eine Telefon- oder Audiostelle gestatten, einschliesslich
den an erster Stelle behandelnden Ärzten des Patienten. Die
Verwendung derartiger zentraler Diktiersysteme seitens
der Röntgenärzte ermöglicht den an erster Stelle behandelnden
Ärzten nahezu unmittelbaren Zugang, durch Sprache, zum
Bericht des Röntgenarztes, wodurch die Notwendigkeit
ausgeschaltet wird, zu warten, bis der Bericht schriftlich
niedergelegt wurde, kann jedoch besonders in einem grossen,
betriebsamen Krankenhaus einen Rückstand von
aufgezeichneten, aber noch nicht schriftlich niedergelegten
Berichten erzeugen, was unerwünschte Verzögerungen beider
Erfassung und Ablage des geschriebenen Berichtes einführt.
Ferner haben im Falle von Röntgenärzten mit einem schweren
Akzent oder einer Sprachbehinderung, die an erster Stelle
behandelnden Ärzte, die nicht mit den Röntgenärzten vertraut
sind, möglicherweise Schwierigkeiten, den aufgezeichneten
Bericht während des akustischen Zugangs zu verstehen, wie
er durch die gegenwärtigen zentralen digitalen Diktiersysteme
gegeben wird.
Ein weiterer Lösungsversuch zum Problem der Erzeugung von
Berichten, wie beispielsweise Röntgenarztberichten, war die
Verwendung von Spracherkennungssystemen. Derartige Systeme
erkennen typischerweise Schlüsselworte oder Ausdrücke (die
anschließend gelegentlich als "Triggerausdrücke" bezeichnet
werden) und geben abhängig von diesen Ausdrücken vorgewählte
Blöcke von ausgedrucktem Text aus. Dieser gewählte Text wird
in einem vorgegebenen Format ausgegeben, um den gedruckten
Bericht zu erzeugen. Derartige Systeme haben den Vorteil,
einen unmittelbar gedruckten Bericht zu liefern, halten
jedoch andere vom unmittelbaren akustischen Zugang zu den
Berichten ab; insbesondere von einer entfernt liegenden
Stelle über das Telefonnetz, da kein Sprachbericht erzeugt
wurde.
Aus DE 33 17 325 A1 ist ein Computer bekannt, welcher durch
Stimm-Eingabe gesteuert werden kann. Bei diesem System wird
mit Hilfe einer Spracherkennungsvorrichtung aus einem
Schlüsselwort ein digitaler Code gewonnen, welcher
seinerseits von Speichereinrichtungen und einer
Vergleichereinrichtung einem bestimmten Programm zugeordnet
wird, welches dann gestartet wird.
Die DE 33 22 257 A1 beschreibt eine stimmaktivierte,
computerbetriebene Aufzeichnungsvorrichtung. Hierbei diktiert
ein Bediener Messergebnisse, welche dann in eine geschriebene
Aufzeichnung umgewandelt werden. Darüber hinaus können auch
bestimmte Computerbefehle mündlich eingegeben werden.
Die DE 37 23 329 A1 beschreibt einen durch Sprachbefehle
gesteuerten Roboter.
Die DE 31 11 798 A1 beschreibt einen Anrufbeantworter, bei
welchem vorgegebene Texte ohne Verwendung der individuellen
Sprache eines Benutzers zusammengestellt werden sollen.
Hierbei sind bestimmte Sprachtexte vorgegeben, welche durch
Betätigung einer Taste auf einem Tastenfeld ausgewählt
werden. Die ausgewählten Texte können um persönliche Daten
ergänzt werden.
Aus der DE 35 19 327 A1 ist ein Verfahren für die
Sprachausgabe zur Bedienerführung an Endgeräten von
Fernsprechvermittlungsanlagen bekannt. Das Prinzip der
beschriebenen Anordnung besteht darin, dass einem Benutzer
einer Fernsprechanlage Auskünfte über Funktionen der Anlage
mittels eines angesagten Textes übermittelt werden. Die
Textansage wird dadurch ausgelöst, dass der Bediener zunächst
eine Hilfstaste betätigt, und danach ein gewünschtes Merkmal
auswählt. Es wird beschrieben, dass die Merkmalsauswahl durch
Sprachtriggerung ausgelöst werden kann.
Aufgabe der vorliegenden Erfindung ist die Schaffung einer
verbesserten Vorrichtung bzw. eines verbesserten Verfahrens
zur automatischen Berichterzeugung. Gelöst wird diese Aufgabe
durch die Vorrichtung des Anspruchs 1 und das Verfahren des
Anspruchs 10. Vorteilhafte Ausgestaltungen der Erfindung
werden in den abhängigen Ansprüchen beschrieben.
Gemäß einer Ausführung der Erfindung wird eine Vorrichtung
geschaffen, die einen Eingang für Sprachsignale umfasst, ein
Erkennungssystem zum Erkennen vorgegebener Sprachsignale (die
nachfolgend gelegentlich als "Triggerausdrücke" bezeichnet
werden), ein zentrales Diktiersystem zur Speicherung und
Wiedergewinnung von Sprachsignalen, eine Synthesevorrichtung
(Synthesizer) zum Zusammensetzen von Sprachsignalen aus einer
Texteingabe und zur Ausgabe der zusammengesetzten Sprache zum
Speicher und einen Textspeicher zur Speicherung vorgegebener
Textmitteilungen. Ein Steuersystem ist mit dem
Erkennungssystem, der Synthesevorrichtung und dem
Textspeicher verbunden. Das Steuersystem spricht auf die
erkannten Triggerausdrücke an, um bestimmte Textmitteilungen
auszuwählen, die im Textspeicher gespeichert sind, und gibt
die ausgewählten Textmitteilungen an die Synthesevorrichtung
ab und steuert diese, um zusammengesetzte Sprachsignale
entsprechend den ausgewählten Textmitteilungen an das
Speicher- und Wiedergewinnungssystem auszugeben.
Im Einklang mit dem erfindungsgemäßen Verfahren werden
mündliche Berichte erzeugt, indem zuerst gesprochene
Triggerausdrücke empfangen werden, anschließend die
Triggerausdrücke erkannt und ausgewählten vorgegebenen
Textmitteilungen zugeordnet werden, worauf Sprachsignale
entsprechend den Textmitteilungen zusammengesetzt werden. Bei
der bevorzugten Ausführungsform der Erfindung werden die
Textmitteilungen anschließend zur Wiedergewinnung
gespeichert. Bei einer bevorzugten Ausführungsform der
Erfindung kann ein mit dem Steuersystem verbundener Drucker
vorgesehen werden, um gedruckte Kopien der ausgewählten
Textmitteilungen zu erzeugen, um einen unmittelbar gedruckten
Bericht zur Verfügung zu stellen.
Der Fachmann erkennt, dass die erfindungsgemässen
Ausführungsformen in vorteilhafter Weise ein System liefern,
das die rasche Erzeugung von Routineberichten und die
Fähigkeit einer unmittelbaren Erzeugung einer gedruckten
Kopie derartiger Berichte mit unmittelbarem Zugang zu
mündlichen Kopien der Berichte kombiniert. Da ferner die
zur Auswahl bestimmter Abschnitte der Textmitteilungen
verwendeten Triggerausdrücke willkürlich sind, kann das
System Akzente und Sprachbehinderungen kompensieren, da
die den Textmitteilungen entsprechenden Sprachsignale in
einer gleichmässigen zusammengesetzten Sprache aufgezeichnet
werden. Da in der Tat die Triggerausdrücke vollständig
willkürlich sind, können das erfindungsgemässe Verfahren
und die erfindungsgemässe Vorrichtung wirksam als
Übersetzer arbeiten, der Textberichte und entsprechende
Sprachsignale in einer Sprache, abhängig von in einer
anderen Sprache gesprochenen Triggerausdrücken erzeugt.
Weitere Vorteile der Erfindung
ergeben sich für den Fachmann bei Betrachtung der anliegenden
Zeichnungen und der nachfolgenden detaillierten Beschreibung
bevorzugter Ausführungsformen; in den Zeichnungen zeigen:
Fig. 1 ein schematisches Blockschaltbild
einer erfindungsgemässen
Ausführungsform;
Fig. 2 ein schematisches Schaltbild
einer wahlweise verwendeten
Schnittstelle zwischen einer
Telefonleitung und einem
Spracherkennungsmodul, die in
den erfindungsgemässen
Ausführungen verwendet wird;
Fig. 3a bis 3c Betriebsablaufdarstellungen der
in Fig. 1 dargestellten
erfindungsgemässen Ausführungsform;
Fig. 4 eine Darstellung eines
beispielhaften Berichtes, der
erfindungsgemäss erzeugt wurde;
Fig. 5 eine Darstellung eines
erfindungsgemäss verwendeten
Ausnahme-Wörterbuches; und
Fig. 6 eine Ablaufdarstellung der
Erzeugung eines Ausnahme-Wörterbuches.
Es wird auf die Einzelbeschreibung bevorzugter Ausführungsformen
Bezug genommen.
Fig. 1 zeigt ein schematisches Blockschaltbild einer
erfindungsgemässen Ausführungsform. Eine übliche
Eingabevorrichtung (10) ist für die Eingabe von
Sprachsignalen vorgesehen. Vorzugsweise umfasst die
Eingabevorrichtung (10) ein Mehrfachleitungstelefon, wie
beispielsweise das Telefonsystem, das vom
Abtretungsempfänger der vorliegenden Erfindung unter
dem Warenzeichen "Connexions" vertrieben wird und ein
Mehrfach-Leitungszugangsmodul (14) sowie ein wahlweises
Diktier-Handmikrofon umfasst. Geeignete Eingabevorrichtungen
werden in den gemeinsam abgetretenen US-PSen 4 790 002,
angemeldet am 8.8.1986; und US-PS 4 817 132, angemeldet am
25.9.1987, beschrieben.
Die eingegebenen Sprachsignale werden über eine
Telefonleitung (15a) an die Schnittstelle (16)
angeschlossen, die nachfolgend näher beschrieben wird.
Eine zweite Telefonleitung (15b) ist zur Ausgabe der
zusammengesetzten Sprachsignale an den Benutzer in einer
nachstehend weiter beschriebenen Weise vorgesehen (weitere
bekannte Eingabevorrichtungen, wie beispielsweise ein
direkt angeschlossenes Diktiermikrofon, können im Rahmen
der Erfindung in Betracht gezogen werden). Die Leitung (15a)
ist vorzugsweise eine unmittelbar angeschlossene,
ausschliesslich zugeordnete Telefonleitung, um ein Signal
mit maximaler Bandbreite an die Spracherkennungsvorrichtung
(20) zu liefern. Jedoch kann die Eingabe von Sprachsignalen
über das geschaltete Telefonnetzwerk im Rahmen der
Erfindung in Betracht gezogen werden.
Die Schnittstelle (16) wandelt die Eintakt-Telefonsignale
in Differenzsignale um, die sich für die
Spracherkennungsvorrichtung (20) eignen. Die
Spracherkennungsvorrichtung (20) ist ein übliches, im
Handel erhältliches Spracherkennungssystem, wie
beispielsweise das von Kurzweil Applied Intelligence Inc.,
411 Waverley Oaks Road, Waltham, MA 02154-8465 unter dem
Warenzeichen VoiceRoad vertriebene System. Derartige
Systeme sind so aufgebaut, dass sie ein ausgewähltes
Vokabular gesprochener Worte erkennen und digitale Signale
ausgeben, die die identifizierten gesprochenen Worte
kennzeichnen und an einen Hauptrechner geben; bei der
vorliegenden Ausführungsform der Erfindung an den
Hauptrechner pc 30. Die Spracherkennungsvorrichtung (20)
erkennt die ausgewählten Vokabulare und ist ein
sprecherabhängiges System. Das heisst, jeder Benutzer muss
das System trainieren, ein Vokabular in seiner Stimme
zu erkennen. Derartige sprecherabhängige Systeme werden
für Anwendungen, wie die Erzeugung von Röntgenberichten,
die ein beträchtliches Vokabular erfordern, als bevorzugt
angesehen und gestatten ferner die Wahl von willkürlichen
Triggerausdrücken, so dass ein im Ausland geborener
Benutzer Triggerausdrücke in seiner Müttersprache wählen
könnte und dennoch Berichte in englisch oder irgendeiner
anderen gewählten Sprache erzeugt werden. Jedoch können
bei anderen Anwendungen, die vielleicht ein weniger
ausgedehntes Vokabular erfordern, sprecherabhängige
Spracherkennungssysteme das Erfordernis für Training
vermeiden; derartige Systeme werden im Rahmen der Erfindung
in Betracht gezogen. Generell gilt, dass verschiedene
Spracherkennungssysteme gegenwärtig im Handel verfügbar
sind, wie beispielsweise das vorausgehend erwähnte
Kurzweil-System, und eine nähere Beschreibung der
Spracherkennungstechnologie wird für ein Verständnis der
Erfindung nicht als notwendig angesehen.
Sobald die Triggerausdrücke durch die
Spracherkennungsvorrichtung (20) erkannt werden, werden
digitale Signale, die die erkannten Ausdrücke kennzeichnen,
dem Hauptrechner (pc 30)zugeführt. Im Einklang mit der
Erfindung enthält der Hauptrechner (pc 30)
Berichterzeugungs-Software für die Erzeugung von Berichten
für jeweilige Anwendungen. Bei einer möglichen
Ausführungsform der Erfindung umfasst der Hauptrechner
(pc 30) die VoiceRad-Software für die Erzeugung von
röntgenologischen Berichten. Diese Software ordnet
ausgewählte erkannte Triggerausdrücke vorgegebenen im
Textspeicher (32) gespeicherten Textmitteilungen zu; dieser
Speicher kann Teil des Speichers des Hauptrechners (pc 30)
sein und erkennt andere gekennzeichnete Triggerausdrücke
als Befehle zur Auswahl bestimmter Betriebsarten, wie
beispielsweise die Erzeugung einer bestimmten Berichtsart.
Der Hauptrechner (pc 30) steuert ferner die
Spracherkennungsvorrichtung (20) zur Bestimmung eines
begrenzten Vokabulars entsprechend dem jeweils ausgewählten
Bericht und dem im Bericht erreichten Punkt.
Beispielsweise erkennt das System nach der Anmeldung, dass
der Benutzer zuerst den bestimmten Bericht wählen wird und
steuert die Spracherkennungsvorrichtung (20), damit sie
lediglich die Triggerausdrücke erkennt, die jeder bestimmten
Berichtsart zugeordnet sind. Diese Erkennungsweise Liefert
eine verbesserte Genauigkeit, wird jedoch nicht als
Begrenzung der eigentlichen Erfindung angesehen und
andere Erkennungsweisen liegen im Rahmen der Erfindung.
Sobald ein Bericht durch eine Niederschrift gesprochener
Triggerausdrücke erzeugt wurde, geben Systeme, wie das
VoiceRad-System, die ausgewählten Textmitteilungen an den
Drucker (34), um eine ausgedruckte Kopie des Berichtes
zu liefern. Um eine grössere Flexibilität bei der Erzeugung
des Berichtes zu ergeben, wird der Text ferner an
Tastatur und Anzeige (36) ausgegeben und ein Systembenutzer
kann den angezeigten Text beliebig unter Verwendung
bekannter Wortverarbeitungsverfahren abändern. Die Software
liefert ferner einen Wort-um-Wort-Betrieb, wobei jedes
eingegebene. Sprachsignal einem einzelnen Wort oder Ausdruck
zugeordnet wird, so dass der Benutzer im wesentlichen den
Text über die Spracherkennungsvorrichtung (20) und den
Hauptrechner (pc 30) diktieren kann. Wie vorausgehend
aufgeführt wurde, sind Systeme, wie das VoiceRad-System,
im Handel erhältlich, und eine nähere Beschreibung ihres
Betriebes wird für das Verständnis der Erfindung nicht für
erforderlich gehalten. Sobald ein Bericht beendet ist,
steuert der Hauptrechner (pc 30) die Synthesevorrichtung
(40), um den Text des Berichtes in zusammengesetzte
Sprachsignale umzuwandeln und diese Sprachsignale an ein
zentrales digitales Diktiersystem zur Speicherung und
Wiedergewinnung auszugeben. Derartige Synthesevorrichtungen
sind im Handel erhältlich und bestehen vorzugsweise aus
einem System, wie es mit dem Warenzeichen "Calltext 5000"
von Speech Plus Inc., Mountain View, Kalifornien, vertrieben
wird. Derartige Systeme empfangen ein Wort als eine Folge
digitaler Signale, die typischerweise in ASCII codiert
sind und erzeugen ein ausgewähltes entsprechendes
Sprachsignal unter Verwendung digitaler
Signalverarbeitungsverfahren, die dem Fachmann bekannt sind.
Derartige Systeme können ferner DTMF-Fähigkeiten haben, um
über die Telefonleitungen Zugang zu anderen Systemen zu
erzielen, wie nachstehend näher beschrieben wird. Die
zusammengesetzten Sprachsignale werden zum zentralen
digitalen Diktiersystem entweder durch eine übliche
Teilnehmerzentrale (60) oder eine ausschliesslich
zugeordnete Telefonleitung (62) oder in irgendeiner geeigneten
bekannten Weise ausgegeben. Sobald sie in der Sprachspeicher- und
Wiedergabevorrichtung (50) gespeichert sind, kann auf die
Signale dann unmittelbar durch irgendeinen berechtigten
Systembenutzer über das öffentliche Telefonnetz, über die
Teilnehmerzentrale (60) oder über eine in geeigneter
bekannter Weise angeschlossene private Leitung zugegriffen
werden, womit ein unmittelbarer Zugang für Personen, wie
beispielsweise die an erster Stelle behandelnden Ärzte,
geliefert wird, die eine rasche Kenntnis eines
röntgenologischen Berichtes benötigen können. Zentrale
Diktiersysteme für die digitale Speicherung und Wiedergewinnung
von Sprachsignalen sind bekannt und beispielsweise in der
gemeinsam abgetretenen schwebenden US-Patentanmeldung Nr.
013 303, angemeldet am 10.2.1987 mit der Bezeichnung
"Digitales Diktiersystem" beschrieben (DIC-536). Ein
weiteres geeignetes System wird unter dem Warenzeichen RTAS
durch den Abtretungsempfänger der vorliegenden Erfindung
vertrieben (RTAS ist das Warenzeichen von Sudbury Systems
Inc., Sudbury, MA). Derartige Systeme speichern
Sprachsignale in digitaler Form zur späteren Wiedergewinnung,
typischerweise über das Telefonnetz durch Schreibkräfte
für die Niederschrift oder andere berechtigte Benutzer.
Sobald ein berechtigter Benutzer ein Speichersignal erkennt,
wird ein System das Signal wiedergewinnen, es in ein
analoges Sprachsignal umwandeln und an den Benutzer ausgeben.
Eine nähere Beschreibung der Betriebsweise eines derartigen
zentralen digitalen Diktiersystems wird für das Verständnis
der Erfindung nicht als erforderlich angesehen.
Das System sieht ferner eine dritte Telefonleitung (64)
zur Eingabevorrichtung (10) vor, so dass ein Benutzer
entweder vorausgehend gespeicherte Berichte abhören oder
in üblicher Weise nicht-standardisierte Berichte diktieren
kann. Die Telefonleitung (64) kann entweder den Anschluss
über die Teilnehmerzentrale (60) herstellen oder über eine
wahlweise direkte Verbindung (68) oder sie kann in
irgendeiner bekannten Weise angeschlossen sein.
Fig. 2 zeigt eine schematische Darstellung der Schnittstelle
(16) näher. Zwei Telefonleitungen (15a, 15b) sind von der
Eingabevorrichtung (10) zur Buchse (16-1) der Schnittstelle.
(16) geführt. Die Telefonleitung (15a) wird über einen
Tonfrequenzübertrager (16-2) an einen Differenztreiber
(16-3) angeschlossen, um ein Signalpaar für die
Spracherkennungsvorrichtung (20) zu schaffen, mit welcher
er über die Buchse (16-4) verbunden ist. Die
Telefonleitung (15b) ist über eine Buches (16-1) an den
Tonfrequenzverstärker (16-5) und den Ausgang des Verstärkers
(16-6) angeschlossen, der ein Signal über die Buchse (16-7)
vom Ausgang der Synthesevorrichtung (40) empfängt. Diese
Telefonleitung gestattet es einem Benutzer, die
zusammengesetzten Sprachsignale abzuhören, die zur Erzeugung
eines Ausnahme-Vokabulars erzeugt werden, um die Aussprache
von Wörtern zu verbessern, die in den im Speicher (32)
gespeicherten Textmitteilungen enthalten sind, wie
anschliessend näher erläutert wird.
Die Eingabevorrichtung (10) ist mit getrennten Leitungen
ausgestattet, um eine Rückkopplung der zusammengesetzten
Sprache zur Spracherkennungsvorrichtung (20) zu verhindern.
Jedoch liegt es im Rahmen der Erfindung, die Steuerung der
Spracherkennungsvorrichtung (20) abzuändern, so dass sie
nicht im Betrieb ist, wenn Sprache zur Eingabevorrichtung
(10) ausgegeben wird und eine einzige bidirektionale
Leitung zu verwenden.
Die Fig. 3a bis 3c zeigen eine Betriebsablaufdarstellung des
Systems nach Fig. 1. Bei (100) wählt ein Benutzer des
Systems die Telefonleitung (15a) an der Eingabevorrichtung
(10) aus, um Zutritt zur Spracherkennungsvorrichtung (20)
und den Hauptrechner (pc 30) zu haben. Per Benutzer meldet
sich dann über die Tastatur (36) an, um sich selbst gegenüber
dem System zu identifizieren. Die Anmeldung über die
Tastatur (36) ist erforderlich, so dass das System das
geeignete Vokabular für den Benutzer auswählen kann, für
welches das System trainiert worden ist. Sobald sich der
Benutzer identifiziert hat, führt das System Sprachprüfungen
und Mikrofonprüfungen durch, um den Erkennungsalgorithmus
der Spracherkennungsvorrichtung (20) für die vorliegenden
Bedingungen einzustellen. Da das System das vorbestimmte
Vokabular des Benutzers ausgewählt hat, kann der Benutzer
anschliessend die Anmeldung beenden, um Datum und Art des
Berichtes mündlich festzulegen, was nachstehend näher
erläutert wird.
Bei (106) beginnt der Benutzer, Sprachsignale einzugeben,
und bei (110) prüft das System, um festzustellen, ob das
Sprachsignal eine "Unterschrift" ist. Unter "Unterschrift"
wird hier ein Triggerausdruck verstanden, der dem System
angibt, dass der Bericht vollständig ist, ausser vielleicht
für eine zusätzliche Kennung, die, wie nachstehend
beschrieben, vorgesehen werden kann.
Wird die Unterschrift nicht erkannt, so gewinnt das System
bei (112) eine vorbestimmte Textmitteilung zurück, die
einem erkannten Triggerausdruck zugeordnet und im Speicher
(32) gespeichert ist, und zeigt sie am Tastenfeld
+ Anzeige (34) an. Bei (114) prüft das System, um
festzustellen, ob der Benutzer den angezeigten Text
mittels des Tastenfeldes abändert. Falls dies nicht
zutrifft, kehrt das System für eine weitere Spracheingabe
nach (106) zurück. Im anderen Fall wird bei (118) der
Text entsprechend einem Standardwortverarbeitungsverfahren
abgeändert und das Systemkehrt dann für eine weitere
Spracheingabe nach (106) zurück.
Bei einer anderen Ausführungsform der Erfindung kann das
Edieren mündlich sein, unter Verwendung von
Diktiersteuerungen, wie beispielsweise "schneller Vorlauf"
und "Rückspulen" zur Positionierung und "Einsetzen" zur
mündlichen Linderung des angezeigten Textes.
Falls bei (110) das System die "Unterschrift" erfasst,
geht das System nach (A) der Fig. 3b und bei (120) kann
der Benutzer mündlich die Zahlen einer Patientenkennnummer
oder andere Daten eingeben, die dazu verwendet werden
können, um den Bericht zur späteren Entnahme zu kennzeichnen.
Bei (124) prüft das System, um festzustellen, ob es die
letzte Zahl ist, und falls dies nicht zutrifft, bestimmt
das System bei (126) und (128), ob der Benutzer den Text
über das Tastenfeld in der vorausgehend beschriebenen Weise
zu ändern wünscht.
Sobald die letzte Zahl der Patientenkennnummer eingegeben
ist, bricht das System bei (132) den Text des vollständigen
Berichtes ab und druckt den Bericht am Drucker (136), womit
eine sofortige gedruckte Kopie für den Benutzer geliefert
wird, und zwar entweder direkt oder über eine
Bildübertragungsvorrichtung zu einer entfernten Stelle.
Bei (134) analysiert das System die Datei und entnimmt Daten
für eine Anmeldung am Diktiersystem (50). Wie nachstehend
näher beschrieben wird, sucht das System beim Analysieren
des Textes durch jedes Wort des Textes des vollständigen
Berichtes, um zu bestimmen, ob irgendwelche Wörter in
einem Ausnahme-Wörterbuch enthalten sind, das einen Teil
des Systems bildet. Falls sie sich finden, so werden die
Ausnahmen durch die Ersatzworte ersetzt, die den
Ausnahmeworten in dem Ausnahme-Wörterbuch zugeordnet sind.
Diese Ersatzworte gestatten die Verbesserung der Aussprache
der Sprachsignale, die durch die Synthesevorrichtung (40)
zusammengesetzt wurden und die Substitution alternativer
Ausdrücke in dem mündlichen und gedruckten Bericht.
Bei (134) tastet das System ferner den Bericht ab, um.
Daten zu entnehmen, die bezüglich der Anmeldung am
Diktiersystem (50) erforderlich sind. Diese Daten umfassen
gewöhnlich die Identifizierung des Verfassers und des
Patienten, so dass das System (50) den aufgezeichneten
Sprachbericht ordnungsgemäss ablegen kann und ferner
weitere nützliche Daten enthalten könnte, wie beispielsweise
die Kennzeichnung der Art des Berichtes.
Bei (138) überprüft das System anschliessend, um festzustellen,
ob der Bericht nunmehr in dem Diktiersystem (50)
gespeichert werden soll, oder ob er später gespeichert
werden soll. Soll der Bericht später gespeichert werden,
so wird bei (140) der Text in eine Warteschlange für
spätere Speicherung angeordnet und bei (142) bestimmt das
System, ob der Benutzer einen weiteren Bericht einzugeben
wünscht. Trifft dies zu, so kehrt das System nach (C) in
Fig. 3a zurück und anderenfalls bricht das System bei
(144) ab. Diese Fähigkeit gestattet es einem Benutzer,
der eine Anzahl Berichte zu erstellen hat, alle Berichte
zu erstellen, ohne darauf zu warten, dass jeder einzelne
gespeichert wird. Sobald alle Berichte erstellt sind,
speichert das System zu einem späteren Zeitpunkt die in
der Warteschlange befindlichen Berichte in im wesentlichen
gleicher Weise, wie nachstehend näher beschrieben wird.
Soll die Sprache gespeichert werden, so geht das System
nach (B) in Fig. 3c und nimmt bei (146) Zutritt zum
Diktiersystem (50). Das heisst, das System steuert die
Synthesevorrichtung (40), um das Diktiersystem (50) in
bekannter Weise anzurufen oder anders Zugang zu ihm zu
nehmen, im wesentlichen in ähnlicher Weise wie bei
Anruf-Modems, die unter Computersteuerung betrieben werden.
Bei (150) prüft das System bezüglich Belegung, und falls
das Speichersystem (50) nicht verfügbar ist, bestimmt
es, ob es bei (152) erneut einen Versuch machen soll. Falls
das System bestimmt, dass es nicht länger erneut einen
Versuch machen soll, so wird der Text des Berichtes zur
Warteschlange bei (154) gesandt und das System tritt bei
(156) ab.
Ist das System nicht belegt, so wandelt das System bei
(160) die aus dem Bericht bei (134) entnommenen Daten
(beispielsweise Verfasserkennnummer und Patientenkennnummer)
in DTMF-Signale zur Übertragung über die Telefonleitungen
zum Diktiersystem (50) um und nimmt dann bei (162) unter
Verwendung der DTMF-Töne eine Anmeldung am Speichersystem
(50) vor.
Bei (166) stellt das System fest, ob die Anmeldung erfolgreich
war, und falls dies nicht zutrifft tritt es bei (168)
in ein Fehlerprogramm ein. Ist die Anmeldung bei (172)
erfolgreich, so gibt das System das nächste Wort des
analysierten Textes an die Sprachsynthesevorrichtung (40)
aus und gibt die synthetische Sprache bei (174) an das
Diktiersystem (50) aus. Bei (176) überprüft das System, um
festzustellen, falls das letzte Wort des Berichtes vorliegt,
und falls dies nicht zutrifft, erfolgt eine Schleife
zurück über (172), um die Ausgabe des Berichtes
fortzusetzen. Sobald das letzte Wort des Berichtes ausgegeben
ist, meldet sich das System ab und tritt bei (178) ab.
Somit wird ein synthetisches Sprachsignal, das dem
vollständigen Text des Berichtes entspricht, auf dem
Sprachspeicher- und Wiedergewinnungssystem (50) zum
unmittelbaren Zutritt durch berechtigte interessierte
Stellen in bekannter Weise gespeichert.
(Der Fachmann erkennt, dass besondere Triggerausdrücke
auch als Befehle in komplexeren Anwendungen verwendet
werden können, um beispielsweise eine Leerstelle in einem
vorbestimmten Format auszuwählen, ohne bedeutsame Änderung
des vorausgehend beschriebenen Betriebes.)
Fig. 4 zeigt eine Darstellung eines Musterberichtes, der
erfindungsgemäss erzeugt worden ist. Bei der Anmeldung
werden Verfasserkennzeichnung, Zeit und DAtum (200)
zusammen mit der Normüberschrift (202) ausgefertigt. Der
Benutzer datiert dann den Bericht durch Aussprechen des
Triggerausdruckes HEUTE, wodurch veranlasst wird, dass
der Text für das laufende Datum in den Bericht eingefügt
wird. Als Alternative kann der Benutzer ein anderes
Datum in Zahlenform eingeben.
Bei (208) gibt der Benutzer den Triggerausdruck ARTHROGRAMM
(Röntgenuntersuchung der Gelenke) ein, der in den
Bericht eingefügt wird, um die Berichtsart zu kennzeichnen.
Das System ist ferner ist der Lage, anschliessend das
geeignete Format für den Bericht und die geeigneten
Untergruppen des Vokabulars zu bestimmen, die an jeder
Stelle im Bericht verwendet werden sollen.
Bei (210) und (212) gibt der Benutzer die Triggerausdrücke
RECHTS und SCHULTER ein, womit veranlasst wird, dass der
Text "rechts" und "Schulter," in dem Bericht als weitere
Kennzeichnung der Art des Berichtes eingefügt wird.
Anschliessend gibt der Benutzer den Triggerausdruck ROUTINE
ein, womit veranlasst wird, dass der Text für den Absatz
(216) in den Bericht eingefügt wird. Das System geht
anschliessend zur Leerstelle (218) und gibt durch Anzeige
des Positionsanzeigers an der Leerstelle im Text an der
Anzeige (34) an, dass ein Wert geliefert werden soll. Der
Benutzer gibt dann den Triggerausdruck 2 ein und den
Befehlstriggerausdruck GO TO NEXT, womit veranlasst wird,
dass eine Zahl 2 in die Leerstelle im Berichtstext eingefügt
wird und der Positionsanzeiger zur Leerstelle (220) bewegt
wird. Der Benutzer gibt dann den Triggerausdruck DURCHLEUCHTUNG
ein, womit veranlasst wird, dass der Text bei (220)
eingegeben wird, und darauf gibt er den Befehlstriggerausdruck
ABTRITT DER EINFÜGUNGEN ein. Der Benutzer gibt dann den
Triggerausdruck NORMAL ein, womit veranlasst wird, dass
der Text bei (224) in den Bericht eingefügt wird und
anschliessend gibt er den Befehlstriggerausdruck UNTERSCHRIFT
ein, woran sich die Triggerausdrücke 4, 5, 3 und 0
anschliessen, womit veranlasst wird, dass der Text (225).
Patientenkennummer (226) eingegeben wird und den Bericht
abschliesst. Der Bericht ist dann bereit für ein Abhören
durch den an erster Stelle behandelnden Arzt in gleicher
Weise wie ein üblich diktierter Bericht von einer
Schreibkraft zur Niederschrift angenommen würde.
Fig. 5 und 6 zeigen die Erstellung eines Ausnahme-Wörterbuches
im Einklang mit der Erfindung. Da die
Sprachsynthesevorrichtung (40) nicht auf ein festgelegtes
Vokabular beschränkt ist, versucht sie, synthetische
Sprachsignale durch eine Analyse entsprechend einem
vorbestimmten Algorithmus zu erzeugen, der auf der Grundlage
der Schreibweise der Texteingabe arbeitet. Es ist natürlich
bekannt, dass die Aussprache englischer Wörter häufig
geringe oder keine Ähnlichkeit mit ihrer Schreibweise
hat. Somit ist es bei Systemen, wie beispielsweise dem
"Calltext" bekannt, die Schreibweise im Bericht abzuändern,
um eine besser annehmbare Aussprache zu erzielen. Jedoch
ist es bei der Erfindung wesentlich, dass der gelieferte
gedruckte Text korrekt geschrieben wird. Entsprechend wird
im Einklang mit der Erfindung ein Ausnahme-Wörterbuch
gemäss Fig. 5 verwendet, das jene Wörter aufführt, deren
Aussprache abhängig von der korrekten Schreibweise vom
Benutzer nicht als annehmbar erachtet wird, sowie zugeordnete
Ersatzworte mit einer abgeänderten Schreibweise, die eine
annehmbarere Aussprache ergibt, und die während der
vorausgehend bei (134) beschriebenen Analyse substituiert
werden.
Fig. 6 zeigt eine Ablaufdarstellung der Erzeugung eines
Ausnahme-Wörterbuches im Einklang mit der Erfindung. Bei
(300) wird der Text des nächsten Wortes, dessen Aussprache
möglicherweise nicht annehmbar ist, über die Tastatur
eingegeben und bei (302) wird dieser Text dazu verwendet,
ein Sprachsignal zusammenzustellen, das zum Benutzer über
die Telefonleitung (15b) abgespielt wird. Bei (306)
entscheidet der Benutzer, ob das Sprachsignal entsprechend
der korrekten Schreibweise annehmbar ist, und falls dies
zutrifft und falls bei (307) weitere Worte vorhanden sind,
kehrt das System nach (300) zurück, um den Text des nächsten
Wortes einzugeben. Falls keine weiteren Worte vorliegen,
tritt das System bei (318) ab.
Ist die Aussprache jedoch nicht annehmbar, so gibt der
Benutzer einen modifizierten Text für ein Ersatzwort
bei (308) ein und hört bei (310) der synthetischen Sprache
für denabgeänderten Text ab. Bei (314) bestimmt der
Benutzer, ob diese Aussprache annehmbar ist, und kehrt,
falls dies nicht zutrifft, nach (308) zurück, um den Text
weiter zu ändern. Ist er annehmbar, so entscheidet das System, ob
er das letzte Wort (bei 316) bildet, und falls dies nicht
zutrifft, kehrt es nach (300) zurück, während es
zutreffendenfalls bei (318) abtritt.
Claims (16)
1. Aufzeichnungsvorrichtung zur Erzeugung eines Berichts,
umfassend:
- a) eine Eingabevorrichtung (10) zur Eingabe von gesprochenen Triggerausdrücken,
- b) eine Sprach-Erkennungsvorrichtung (20) zur Erkennung der Triggerausdrücke,
- c) eine Textspeichervorrichtung (32) zur Speicherung vorgegebener Textblöcke,
- d) eine Steuervorrichtung (30), welche mit der Sprach-Erkennungsvorrichtung (20) verbunden ist, zur Auffindung eines bestimmten, vorgegebenen Textblocks, welcher einem Triggerausdruck zugeordnet ist, und zur Zusammenstellung der Textblöcke zu einem Bericht, wobei die Aufzeichnungsvorrichtung so ausgelegt ist, dass verschiedene Triggerausdrücke einem vorgegebenen Textblock zugeordnet sein können,
- e) eine Sprachsynthese-Vorrichtung (40), welche mit der Steuervorrichtung (30) verbunden ist, zum Empfang von Textblöcken, welche durch die Steuervorrichtung (30) aufgefunden wurden, und zur Umwandlung der Textblöcke in Signale, welche gesprochener Sprache entsprechen, und
- f) eine Sprachspeichervorrichtung (50), welche mit der Sprachsynthese-Vorrichtung (40) verbunden ist, zum Empfang von gesprochener Sprache entsprechenden Signalen, welche in der Sprachsynthese-Vorrichtung (40) umgewandelt wurden, und zur Speicherung dieser Signale in einer gesprochener Sprache entsprechenden Form, so dass die gespeicherten Signale abgehört werden können.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
dass die Vorrichtung so ausgebildet ist, dass die
Triggerausdrücke von einem Benutzer der Vorrichtung
ausgewählt werden können.
3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch
eine Druckvorrichtung (34), die auf die
Steuervorrichtung (30) anspricht, um eine Kopie des
ausgegebenen Textblocks zu drucken.
4. Vorrichtung nach einem der Ansprüche 1 bis 3,
gekennzeichnet durch eine Bearbeitungsvorrichtung zur
Abänderung der Schreibweise von Wörtern in einem
Textblock, um die Signale, welche gesprochener Sprache
entsprechen, zu modifizieren.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet,
dass die Bearbeitungsvorrichtung ferner ein vorgegebenes
Ausnahme-Wörterbuch umfasst.
6. Vorrichtung nach Anspruch 4 oder 5, dadurch
gekennzeichnet, dass die Bearbeitungsvorrichtung einen
Textverarbeitungs-Editor umfasst.
7. Vorrichtung nach einem der Ansprüche 1 bis 6,
gekennzeichnet durch eine Vorrichtung (62) zur
Herstellung einer Verbindung zwischen der
Sprachssynthesevorrichtung (40) und der
Sprachsspeichervorrichtung (50) über ein Telefonnetz.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet,
dass die Vorrichtung (62) zur Herstellung einer
Verbindung ferner eine Vorrichtung zur Entnahme
ausgewählter Daten aus den Textblöcken aufweist, zur
Umwandlung der entnommenen Daten in DTMF-Signale und zur
Ausgabe der DTMF-Signale an die
Sprachsspeichervorrichtung (50) zwecks Identifizierung
der ausgegebenen Signale, welche gesprochener Sprache
entsprechen.
9. Verwendung einer Vorrichtung nach einem der Ansprüche 1
bis 8, um medizinische Berichte, vorzugsweise
röntgenologische Berichte zu erzeugen.
10. Verfahren zur Erzeugung aufgezeichneter Berichte,
umfassend die Schritte:
- a) Empfangen gesprochener Triggerausdrücke,
- b) Erkennen der empfangenen Triggerausdrücke und Auffinden eines einem erkannten Triggerausdruck zugeordneten Textblocks, wobei die Triggerausdrücke den Textblöcken auf die Art zugeordnet sind, dass mehrere Triggerausdrücke einem Textblock zugeordnet sein können,
- c) Zusammenstellen der aufgefundenen Textblöcke zu einem Bericht, und
- d) Umwandeln der aufgefundenen Textblöcke in Sprachsignale und Speichern dieser Sprachsignale.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass
die Triggerausdrücke durch einen Benutzer des Verfahrens
ausgewählt werden.
12. Verfahren nach Anspruch 10 oder 11, gekennzeichnet durch
den Verfahrensschritt, wonach eine Kopie des
ausgewählten Textblocks gedruckt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12,
gekennzeichnet durch den Verfahrensschritt, wonach die
Schreibweise ausgewählter Wörter in den Textblöcken
modifiziert wird, bevor die Textblöcke in Sprachsignale
umgewandelt werden.
14. Verfahren nach einem der Ansprüche 10 bis 13,
gekennzeichnet durch den Verfahrensschritt, wonach Daten
entnommen werden, die die Sprachsignale gegenüber den
ausgewählten Textblöcken identifizieren, und Speichern
dieser Sprachsignale entsprechend den entnommenen Daten.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch
gekennzeichnet, dass die ausgewählten Textblöcke
röntgenologische Informationen umfassen.
16. Verfahren nach einem der Ansprüche 10 bis 15,
gekennzeichnet durch den Verfahrensschritt, wonach die
vorgegebenen Textblöcke ediert werden, bevor die
Sprachsignale gebildet werden.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/175,900 US5051924A (en) | 1988-03-31 | 1988-03-31 | Method and apparatus for the generation of reports |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3910467A1 DE3910467A1 (de) | 1989-10-12 |
DE3910467C2 true DE3910467C2 (de) | 2001-09-13 |
Family
ID=22642131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3910467A Expired - Fee Related DE3910467C2 (de) | 1988-03-31 | 1989-03-31 | Verfahren und Vorrichtung zur Erzeugung von Berichten |
Country Status (5)
Country | Link |
---|---|
US (1) | US5051924A (de) |
JP (1) | JP2768727B2 (de) |
CA (1) | CA1334869C (de) |
DE (1) | DE3910467C2 (de) |
GB (1) | GB2217953B (de) |
Families Citing this family (91)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5303148A (en) * | 1987-11-27 | 1994-04-12 | Picker International, Inc. | Voice actuated volume image controller and display controller |
DE4101200A1 (de) * | 1991-01-17 | 1992-07-23 | Standard Elektrik Lorenz Ag | Kommunikationssystem |
US7249026B1 (en) * | 1993-03-24 | 2007-07-24 | Engate Llc | Attorney terminal having outline preparation capabilities for managing trial proceedings |
US5369704A (en) * | 1993-03-24 | 1994-11-29 | Engate Incorporated | Down-line transcription system for manipulating real-time testimony |
US7631343B1 (en) * | 1993-03-24 | 2009-12-08 | Endgate LLC | Down-line transcription system using automatic tracking and revenue collection |
DE4331710A1 (de) * | 1993-09-17 | 1995-03-23 | Sel Alcatel Ag | Verfahren und Vorrichtung zum Erstellen und Bearbeiten von Textdokumenten |
DE4434255A1 (de) * | 1994-09-24 | 1996-03-28 | Sel Alcatel Ag | Vorrichtung zur Sprachaufzeichnung mit anschließender Texterstellung |
JPH10105368A (ja) * | 1996-07-12 | 1998-04-24 | Senshu Ginkou:Kk | 音声による処理依頼受付装置及び方法 |
US5772585A (en) * | 1996-08-30 | 1998-06-30 | Emc, Inc | System and method for managing patient medical records |
US6138096A (en) * | 1996-11-26 | 2000-10-24 | Add Value Holdings Pte Ltd. | Apparatus for speech-based generation, audio translation, and manipulation of text messages over voice lines |
US5924068A (en) * | 1997-02-04 | 1999-07-13 | Matsushita Electric Industrial Co. Ltd. | Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion |
US6603835B2 (en) | 1997-09-08 | 2003-08-05 | Ultratec, Inc. | System for text assisted telephony |
US6149674A (en) * | 1997-11-07 | 2000-11-21 | Hill-Rom, Inc. | Patient thermal regulation system |
DE19751170A1 (de) * | 1997-11-19 | 1999-06-02 | Bosch Gmbh Robert | Verfahren zur Auswahl eines Teilnehmers eines Telekommunikationsnetzes |
US6219638B1 (en) * | 1998-11-03 | 2001-04-17 | International Business Machines Corporation | Telephone messaging and editing system |
US6631368B1 (en) | 1998-11-13 | 2003-10-07 | Nortel Networks Limited | Methods and apparatus for operating on non-text messages |
US6332120B1 (en) * | 1999-04-20 | 2001-12-18 | Solana Technology Development Corporation | Broadcast speech recognition system for keyword monitoring |
US6298326B1 (en) | 1999-05-13 | 2001-10-02 | Alan Feller | Off-site data entry system |
US7797730B2 (en) * | 1999-06-24 | 2010-09-14 | Engate Llc | Downline transcription system using automatic tracking and revenue collection |
WO2001003412A1 (de) * | 1999-06-29 | 2001-01-11 | Swisscom Mobile Ag | Verfahren und vorrichtung für die erfassung und übermittlung von meldungen |
US6308158B1 (en) * | 1999-06-30 | 2001-10-23 | Dictaphone Corporation | Distributed speech recognition system with multi-user input stations |
US6255784B1 (en) * | 1999-12-02 | 2001-07-03 | Visteon Global Technologies, Inc. | Photopic brightness controller for fluorescent backlights |
EP1119171A1 (de) * | 2000-01-21 | 2001-07-25 | Alcatel | Telekommunikationssystem, sowie Vermittlungsstelle, sowie Vorverarbeitungeinheit |
US6757362B1 (en) * | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US6920425B1 (en) * | 2000-05-16 | 2005-07-19 | Nortel Networks Limited | Visual interactive response system and method translated from interactive voice response for telephone utility |
US6408277B1 (en) | 2000-06-21 | 2002-06-18 | Banter Limited | System and method for automatic task prioritization |
US9699129B1 (en) | 2000-06-21 | 2017-07-04 | International Business Machines Corporation | System and method for increasing email productivity |
US8290768B1 (en) | 2000-06-21 | 2012-10-16 | International Business Machines Corporation | System and method for determining a set of attributes based on content of communications |
US6751589B1 (en) * | 2000-09-18 | 2004-06-15 | Hewlett-Packard Development Company, L.P. | Voice-actuated generation of documents containing photographic identification |
US7644057B2 (en) | 2001-01-03 | 2010-01-05 | International Business Machines Corporation | System and method for electronic communication management |
US20020169615A1 (en) * | 2001-03-23 | 2002-11-14 | Irwin Kruger | Computerized voice-controlled system for compiling quality control data |
JP2005509312A (ja) | 2001-03-30 | 2005-04-07 | ヒル−ロム サービシーズ,インコーポレイティド | 病院のベッドとネットワークシステム |
US20020169639A1 (en) * | 2001-05-09 | 2002-11-14 | Jeffrey Yu | Systems for generating radiology reports |
US7054939B2 (en) * | 2001-06-28 | 2006-05-30 | Bellsouth Intellectual Property Corportion | Simultaneous visual and telephonic access to interactive information delivery |
EP2302542A3 (de) | 2001-08-03 | 2011-09-21 | Hill-Rom Services, Inc. | Patienten-Point-of-Care-Computersystem |
US8416925B2 (en) | 2005-06-29 | 2013-04-09 | Ultratec, Inc. | Device independent text captioned telephone service |
US7006968B2 (en) * | 2001-10-11 | 2006-02-28 | Hewlett-Packard Development Company L.P. | Document creation through embedded speech recognition |
AU2002352560A1 (en) * | 2001-11-14 | 2003-05-26 | Denholm Enterprises, Inc. | Patient communication method and system |
GB2395330A (en) * | 2002-10-18 | 2004-05-19 | Eckoh Technologies | Telephone voting system |
US7460252B2 (en) * | 2003-01-13 | 2008-12-02 | Axiohm Transaction Solutions, Inc. | Graphical printing system and method using text triggers |
US7389230B1 (en) | 2003-04-22 | 2008-06-17 | International Business Machines Corporation | System and method for classification of voice signals |
US20040215461A1 (en) * | 2003-04-24 | 2004-10-28 | Visteon Global Technologies, Inc. | Text-to-speech system for generating information announcements |
US20050187913A1 (en) | 2003-05-06 | 2005-08-25 | Yoram Nelken | Web-based customer service interface |
US8495002B2 (en) | 2003-05-06 | 2013-07-23 | International Business Machines Corporation | Software tool for training and testing a knowledge base |
US8515024B2 (en) | 2010-01-13 | 2013-08-20 | Ultratec, Inc. | Captioned telephone service |
US7319961B2 (en) * | 2004-03-04 | 2008-01-15 | Saudi Arabian Oil Company | Voice recognition technology to capture geoscience data |
US7302048B2 (en) * | 2004-07-23 | 2007-11-27 | Marvell International Technologies Ltd. | Printer with speech transcription of a recorded voice message |
US8462367B2 (en) * | 2005-02-10 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | Printer voice portal |
US11258900B2 (en) | 2005-06-29 | 2022-02-22 | Ultratec, Inc. | Device independent text captioned telephone service |
WO2007039373A1 (en) * | 2005-10-05 | 2007-04-12 | International Business Machines Corporation | A method and apparatus for data capture using a voice activated workstation |
US8286071B1 (en) | 2006-06-29 | 2012-10-09 | Escription, Inc. | Insertion of standard text in transcriptions |
US7841366B2 (en) * | 2006-08-21 | 2010-11-30 | Wpw, Llc | Systems and methods for pipeline rehabilitation installation |
US20080109489A1 (en) * | 2006-11-03 | 2008-05-08 | Adrian Sherwood | Method For Generating Reports |
US8930210B2 (en) | 2007-03-29 | 2015-01-06 | Nuance Communications, Inc. | Method and system for generating a medical report and computer program product therefor |
US8348839B2 (en) * | 2007-04-10 | 2013-01-08 | General Electric Company | Systems and methods for active listening/observing and event detection |
US9112977B2 (en) * | 2007-04-13 | 2015-08-18 | Sony Corporation | Voicemail message based on text information |
US20090083035A1 (en) * | 2007-09-25 | 2009-03-26 | Ritchie Winson Huang | Text pre-processing for text-to-speech generation |
US8046226B2 (en) * | 2008-01-18 | 2011-10-25 | Cyberpulse, L.L.C. | System and methods for reporting |
US8165881B2 (en) * | 2008-08-29 | 2012-04-24 | Honda Motor Co., Ltd. | System and method for variable text-to-speech with minimized distraction to operator of an automotive vehicle |
US20100057465A1 (en) * | 2008-09-03 | 2010-03-04 | David Michael Kirsch | Variable text-to-speech for automotive application |
US20110029325A1 (en) * | 2009-07-28 | 2011-02-03 | General Electric Company, A New York Corporation | Methods and apparatus to enhance healthcare information analyses |
US20110029326A1 (en) * | 2009-07-28 | 2011-02-03 | General Electric Company, A New York Corporation | Interactive healthcare media devices and systems |
US9904768B2 (en) | 2011-02-18 | 2018-02-27 | Nuance Communications, Inc. | Methods and apparatus for presenting alternative hypotheses for medical facts |
US8768723B2 (en) | 2011-02-18 | 2014-07-01 | Nuance Communications, Inc. | Methods and apparatus for formatting text for clinical fact extraction |
US10460288B2 (en) | 2011-02-18 | 2019-10-29 | Nuance Communications, Inc. | Methods and apparatus for identifying unspecified diagnoses in clinical documentation |
US10032127B2 (en) | 2011-02-18 | 2018-07-24 | Nuance Communications, Inc. | Methods and apparatus for determining a clinician's intent to order an item |
US20120297330A1 (en) * | 2011-05-17 | 2012-11-22 | Flexigoal Inc. | Method and System for Generating Reports |
US9569594B2 (en) | 2012-03-08 | 2017-02-14 | Nuance Communications, Inc. | Methods and apparatus for generating clinical reports |
US9064492B2 (en) | 2012-07-09 | 2015-06-23 | Nuance Communications, Inc. | Detecting potential significant errors in speech recognition results |
US10504622B2 (en) | 2013-03-01 | 2019-12-10 | Nuance Communications, Inc. | Virtual medical assistant methods and apparatus |
US11024406B2 (en) | 2013-03-12 | 2021-06-01 | Nuance Communications, Inc. | Systems and methods for identifying errors and/or critical results in medical reports |
US11183300B2 (en) | 2013-06-05 | 2021-11-23 | Nuance Communications, Inc. | Methods and apparatus for providing guidance to medical professionals |
US10496743B2 (en) | 2013-06-26 | 2019-12-03 | Nuance Communications, Inc. | Methods and apparatus for extracting facts from a medical text |
US10878721B2 (en) | 2014-02-28 | 2020-12-29 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US20180270350A1 (en) | 2014-02-28 | 2018-09-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US10389876B2 (en) | 2014-02-28 | 2019-08-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US10748523B2 (en) | 2014-02-28 | 2020-08-18 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US20180034961A1 (en) | 2014-02-28 | 2018-02-01 | Ultratec, Inc. | Semiautomated Relay Method and Apparatus |
US10331763B2 (en) | 2014-06-04 | 2019-06-25 | Nuance Communications, Inc. | NLU training with merged engine and user annotations |
US10366424B2 (en) | 2014-06-04 | 2019-07-30 | Nuance Communications, Inc. | Medical coding system with integrated codebook interface |
US10373711B2 (en) | 2014-06-04 | 2019-08-06 | Nuance Communications, Inc. | Medical coding system with CDI clarification request notification |
US10319004B2 (en) | 2014-06-04 | 2019-06-11 | Nuance Communications, Inc. | User and engine code handling in medical coding system |
US10754925B2 (en) | 2014-06-04 | 2020-08-25 | Nuance Communications, Inc. | NLU training with user corrections to engine annotations |
US10366687B2 (en) | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
US11152084B2 (en) | 2016-01-13 | 2021-10-19 | Nuance Communications, Inc. | Medical report coding with acronym/abbreviation disambiguation |
WO2018057639A1 (en) | 2016-09-20 | 2018-03-29 | Nuance Communications, Inc. | Method and system for sequencing medical billing codes |
US11133091B2 (en) | 2017-07-21 | 2021-09-28 | Nuance Communications, Inc. | Automated analysis system and method |
US10817647B1 (en) * | 2017-10-26 | 2020-10-27 | Wells Fargo Bank, N.A. | Report automation system |
US11024424B2 (en) | 2017-10-27 | 2021-06-01 | Nuance Communications, Inc. | Computer assisted coding systems and methods |
CN112530405A (zh) * | 2019-09-18 | 2021-03-19 | 北京声智科技有限公司 | 一种端到端语音合成纠错方法、系统及装置 |
US11539900B2 (en) | 2020-02-21 | 2022-12-27 | Ultratec, Inc. | Caption modification and augmentation systems and methods for use by hearing assisted user |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3111798A1 (de) * | 1981-03-20 | 1982-09-30 | Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin | Anordnung fuer zu sendende meldetexte in fernmelde-, insbesondere fernsprechanlagen |
DE3317325A1 (de) * | 1982-05-11 | 1983-11-17 | Casio Computer Co., Ltd., Tokyo | Durch stimm-eingabe gesteuerter computer |
DE3322257A1 (de) * | 1982-06-22 | 1983-12-22 | Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. | Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung |
DE3519327A1 (de) * | 1985-05-30 | 1986-12-04 | Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt | Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen |
DE3723329A1 (de) * | 1986-07-16 | 1988-01-21 | Tokico Ltd | Industrie-wiedergaberoboter |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5638659A (en) * | 1979-09-04 | 1981-04-13 | Sharp Corp | Word processor having sentence confirming function by audio |
JPS5953590B2 (ja) * | 1979-09-14 | 1984-12-26 | シャープ株式会社 | 翻訳装置 |
US4602129A (en) * | 1979-11-26 | 1986-07-22 | Vmx, Inc. | Electronic audio communications system with versatile message delivery |
JPS6055434A (ja) * | 1983-09-05 | 1985-03-30 | Sanyo Electric Co Ltd | ワ−ドプロセッサ装置 |
US4692941A (en) * | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
US4763252A (en) * | 1985-03-21 | 1988-08-09 | Rose David K | Computer entry system for predetermined text data sequences |
US4980845A (en) * | 1985-08-23 | 1990-12-25 | Snap-On Tools Corporation | Digital engine analyzer |
US4831654A (en) * | 1985-09-09 | 1989-05-16 | Wang Laboratories, Inc. | Apparatus for making and editing dictionary entries in a text to speech conversion system |
US4776016A (en) * | 1985-11-21 | 1988-10-04 | Position Orientation Systems, Inc. | Voice control system |
GB8617389D0 (en) * | 1986-07-16 | 1986-08-20 | British Telecomm | Speech recognition |
-
1988
- 1988-03-31 US US07/175,900 patent/US5051924A/en not_active Expired - Lifetime
-
1989
- 1989-03-30 CA CA000595275A patent/CA1334869C/en not_active Expired - Fee Related
- 1989-03-30 GB GB8907232A patent/GB2217953B/en not_active Expired - Fee Related
- 1989-03-31 DE DE3910467A patent/DE3910467C2/de not_active Expired - Fee Related
- 1989-03-31 JP JP1081365A patent/JP2768727B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3111798A1 (de) * | 1981-03-20 | 1982-09-30 | Deutsche Telephonwerke Und Kabelindustrie Ag, 1000 Berlin | Anordnung fuer zu sendende meldetexte in fernmelde-, insbesondere fernsprechanlagen |
DE3317325A1 (de) * | 1982-05-11 | 1983-11-17 | Casio Computer Co., Ltd., Tokyo | Durch stimm-eingabe gesteuerter computer |
DE3322257A1 (de) * | 1982-06-22 | 1983-12-22 | Blood Center of Southeastern Wisconsin, 53223 Milwaukee, Wis. | Stimmaktivierte computerbetriebene aufzeichnungsvorrichtung |
DE3519327A1 (de) * | 1985-05-30 | 1986-12-04 | Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt | Verfahren fuer die sprachausgabe zur bedienerfuehrung an endgeraeten von fernmelde-, insbesondere fernsprechvermittlungsanlagen |
DE3723329A1 (de) * | 1986-07-16 | 1988-01-21 | Tokico Ltd | Industrie-wiedergaberoboter |
Also Published As
Publication number | Publication date |
---|---|
CA1334869C (en) | 1995-03-21 |
US5051924A (en) | 1991-09-24 |
GB2217953A (en) | 1989-11-01 |
JP2768727B2 (ja) | 1998-06-25 |
JPH02204827A (ja) | 1990-08-14 |
DE3910467A1 (de) | 1989-10-12 |
GB8907232D0 (en) | 1989-05-10 |
GB2217953B (en) | 1992-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3910467C2 (de) | Verfahren und Vorrichtung zur Erzeugung von Berichten | |
DE69923379T2 (de) | Nicht-interaktive Registrierung zur Spracherkennung | |
DE60207742T2 (de) | Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes | |
DE60033106T2 (de) | Korrektur der Betriebsartfehler, Steuerung oder Diktieren, in die Spracherkennung | |
US5884256A (en) | Networked stenographic system with real-time speech to text conversion for down-line display and annotation | |
DE69829389T2 (de) | Textnormalisierung unter verwendung einer kontextfreien grammatik | |
DE60010827T2 (de) | Hintergrundsystem für Audiodatenbeseitigung | |
DE60215272T2 (de) | Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen | |
DE69828141T2 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
DE10040214B4 (de) | Verfahren und System zur automatischen Erkennung einer Aktualisierung eines Sprachmodells in einem Spracherkennungssystem | |
DE3115318C2 (de) | Elektronisches Übersetzungsgerät | |
US7908145B2 (en) | Down-line transcription system using automatic tracking and revenue collection | |
DE2854837A1 (de) | Uebersetzungsvorrichtung | |
EP1184839A2 (de) | Graphem-Phonem-Konvertierung | |
DE102004026504A1 (de) | System und Verfahren zum automatischen Ausfüllen von Anmerkungen in der Ultraschallbildgebung | |
DE10054583A1 (de) | Verfahren und Vorrichtung zur Behandlung von Sprachinformationen | |
DE60020504T2 (de) | Anpassung eines spracherkenners an korrigierte texte | |
EP1282897B1 (de) | Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems | |
DE19532114C2 (de) | Sprachdialog-System zur automatisierten Ausgabe von Informationen | |
DE60312963T2 (de) | Methode und gerät zur schnellen, durch mustererkennung gestützen transkription von gesprochenen und geschriebenen äusserungen | |
EP1125278B1 (de) | Datenverarbeitungssystem oder kommunikationsendgerät mit einer einrichtung zur erkennung gesprochener sprache und verfahren zur erkennung bestimmter akustischer objekte | |
EP0814457B1 (de) | Verfahren zur automatischen Erkennung eines gesprochenen Textes | |
DE60022976T2 (de) | Spracherkennungseinrichtung mit transfermitteln | |
EP1220201A2 (de) | Verfahren und System zur automatischen Aktionssteuerung bei Vorträgen | |
DE3732849A1 (de) | System-architektur fuer ein akustisches mensch/maschine-dialogsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |