DE19752907A1 - Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem Computer - Google Patents
Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem ComputerInfo
- Publication number
- DE19752907A1 DE19752907A1 DE19752907A DE19752907A DE19752907A1 DE 19752907 A1 DE19752907 A1 DE 19752907A1 DE 19752907 A DE19752907 A DE 19752907A DE 19752907 A DE19752907 A DE 19752907A DE 19752907 A1 DE19752907 A1 DE 19752907A1
- Authority
- DE
- Germany
- Prior art keywords
- computer
- user
- individual user
- net
- analyzed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Description
Die Erfindung bezieht sich auf ein Verfahren zur Führung ei
nes Dialogs zwischen einem einzelnen oder mehreren Nutzern
und einem Computer als virtuellem Gesprächspartner, wobei der
Computer eine Inhaltsanalyse der Nutzeraussagen ausführt und
dem Nutzer aufgrund dieser Inhaltsanalyse durch Auswahl
und/oder Kombination aus einer Vielzahl von in Frage kommen
den Antwortmöglichkeiten eine passende Antwort gibt.
Das Verfahren nach der Erfindung geht von einem bekannten
Verfahren aus, bei dem mit Hilfe von Software ein Dialog zwi
schen einem einzelnen Nutzer und dem Computer ermöglicht ist,
wobei durch eine Berücksichtigung von Schlüsselwörtern im We
ge über eine Inhaltsanalyse zumindest angenähert erschlossen
wird, was dieser einzelne Benutzer mündlich gesagt oder über
eine Tastatur eingegeben hat.
Im nächsten Schritt wird vom Computer dann eine der aufgrund
dieser Inhaltsanalyse in Frage kommenden Antwortmöglichkeiten
ausgewählt und dem Nutzer eine passende Antwort gegeben. Da
bei zeigte sich der überraschende Effekt, daß trotz außerge
wöhnlich allgemein gehaltener Äußerungen des durch den Compu
ter dargestellten Gesprächspartners die einzelnen Nutzer sehr
rasch das Gefühl hatten, sich verstanden zu fühlen, und sich
ihnen im Verlauf eines solchen Gesprächs der Eindruck vermit
telte, daß das mit dem Computer geführte Gespräch zunehmend
intimer wurde.
Nach Erfahrungsberichten führte dieser Sachverhalt häufig da
zu, daß sogar andere im Raum anwesende Personen gebeten wur
den, diesen zu verlassen, weil der jeweilige Nutzer mit dem
Computer allein sein wollte. Aus diesem Verhalten läßt sich
ableiten, daß der Mensch sehr rasch geneigt ist, auch einem
Computer eine Persönlichkeit mit eigenen Absichten und Eigen
schaften zuzuschreiben.
Der Erfindung liegt die Aufgabe zugrunde, dieses bekannte
Verfahren so fortzubilden, daß der Dialog zwischen dem ein
zelnen Nutzer mit dem Computer über die bloße Auswertung der
Sprach- oder Textsignale hinaus eine zusätzliche Verarbeitung
per Computer erfährt, die eine optimale Steuerung des Ge
sprächs erlaubt.
Gemäß der Erfindung, die sich auf ein Verfahren der eingangs
genannten Art bezieht, wird diese Aufgabe dadurch gelöst, daß
im Computer darüber hinaus online mit Meß- und/oder Ver
gleichseinrichtungen signalmäßig erfaßbare körperliche Reak
tionen des einzelnen Nutzers analysiert und bei der Erstel
lung der passenden Antwort von seiten des Computers berück
sichtigt werden. Ein Grundgedanke der Erfindung besteht somit
darin, diese Registrierungen körperlicher Reaktionen während
des Dialogs für die Steuerung des Antwortverhaltens des Com
puters gezielt einzusetzen.
Eine besonders vorteilhafte Anwendung des Verfahrens nach der
Erfindung besteht bei der personenzentrierten Gesprächspsy
chotherapie.
Eine der mit Meß- und/oder Vergleichseinrichtungen signalmä
ßig erfaßbaren körperlichen Reaktionen des einzelnen Nutzers
läßt sich durch eine im Computer durchgeführte Online-Analyse
der in elektrische Signalform umgewandelten Stimme des ein
zelnen Nutzers erfassen. Die Stimme ist ein Indiz für die mo
mentane emotionale Beteiligung des einzelnen Nutzers. Eine
Stimmanalyse ist allerdings nur dann möglich, wenn die Reak
tion des Nutzers nicht über eine Tastatur, sondern über eine
mündliche Spracheingabe erfolgt.
In vorteilhafter Weise kann im Computer auch das z. B. in
elektrische Signalform umgewandelte Blickverhalten des ein
zelnen Nutzers als Reaktionsform analysiert und bei der Ant
wortbildung des Computers berücksichtigt werden. Die Einbe
ziehung des Blickverhaltens ist deswegen besonders interes
sant, weil eine Person den Blick spontan in eine Richtung än
dert, wenn sie sich an konkrete Erlebnisse erinnert oder sich
bestimmte Dinge "ausdenkt". Dieses Blickverhalten ist bei den
Menschen ganz spontan und erlaubt deshalb eine verhältnismä
ßig zuverlässige Rückmeldung über das, was in seinem Kopf
vorgeht. Ähnlich verhält es sich mit der Kopfhaltung des ein
zelnen Nutzers, die sich z. B. in einer in eine elektrische
Signal form umgewandelten Form ebenso als Reaktionsform analy
sieren läßt und zur Steuerung der Antwort des Computers in
vorteilhafter Weise beiträgt. Solche Veränderungen der Kopf
haltung, des Blickverhaltens oder ähnlicher Reaktionsformen
lassen sich ohne große Schwierigkeiten mit den heute vorhan
denen technischen Möglichkeiten, beispielsweise mittels Vi
deobildaufnahme und Bildvergleichseinrichtungen, aber auch
durch Lage- und Bewegungssensoren, Tremormeter, etc., erfas
sen und auswerten.
Eine weitere Möglichkeit der Erfassung von Reaktionen eines
Nutzers während eines Dialogs mit dem Computer besteht in
vorteilhafter Weise darin, daß in elektrische Signalform um
gewandelte Hautwiderstandsveränderungen des einzelnen Nutzers
während der zwischen dem Nutzer und dem Computer stattfinden
den Interaktion, d. h. beim Sprechen oder während des Antwor
tens des Computers, als Reaktionsform analysiert werden.
Hierzu ist eine sehr differenzierte Programmierung erforder
lich. Zusätzlich sollten in diesem Fall die Muskelspannung
und/oder ein Elektrokardiogramm (Pulsfrequenz, EKG) und/oder
ein Elektroencephalogramm (EEG) des einzelnen Nutzers gemes
sen und durch den Computer bewertet werden.
Bei zusätzlichem Einsatz eines Elektroencephalogramms (EEG)
wird in zweckmäßiger Weise ein sogenanntes "Brainmapping"
durchgeführt, bei dem von der Schädeloberfläche des einzelnen
Nutzers abgeleitet wird, welche seiner Hirnregionen aktiviert
wird. In Verbindung mit einem neuronalen Netz ist es gemäß
einer vorteilhaften Weiterbildung des Verfahrens nach der Er
findung möglich, mit jedem einzelnen vorgesehenen Nutzer eine
Kalibrierung dafür zu erstellen, wann bei ihm welche Gehirn
regionen aktiviert werden, d. h. es wird ein Zusammenhang zwi
schen Gefühlszuständen und aktivierten Gehirnregionen herge
stellt.
Wenn das bei der Dialogführung verwendete Datenverarbeitungs
system eine vorhergehende Kalibrierung auf den einzelnen Nut
zer erfahren hat, wird dieses durch die Verbindung von Rück
meldung, Analyse und Anwendung auf das Antwortverhalten des
Computers zu einem zwar virtuellen Dialogpartner, der jedoch
in mancher Hinsicht den meisten natürlichen Gesprächspartnern
überlegen ist. So kann der in Form eines Computers vorhandene
virtuelle Gesprächspartner z. B. in der Weise durch eine Soft
ware gesteuert werden, daß er aufgrund eines einfühlsamen Re
aktionsverhaltens durchaus positive Effekte für den Menschen
beispielsweise im Rahmen einer personenzentrierten gesprächs
psychotherapeutischen Behandlung haben kann.
Zur Erreichung eines realistischen Gesprächsablaufs werden in
vorteilhafter Weise dem den virtuellen Gesprächspartner bil
denden Computer gespeicherte Bildaufnahmen eines tatsächli
chen Gesprächspartners zugeführt, die auf dem vom einzelnen
Nutzer betrachteten Monitor des Computers während der Dia
logführung dargestellt werden.
Beim auswählbaren virtuellen Gesprächspartner können bei
spielsweise Bildaufnahmen von älteren, gleichaltrigen oder
jüngeren Freunden/Freundinnen, von väterlichen oder mütterli
chen Gesprächspartnern/innen oder von männlichen/weiblichen
Psychotherapeuten/innen verwendet werden, die von professio
nellen Schauspielern dargestellt werden können. Diese Bild
aufnahmen von tatsächlichen Gesprächspartnern können vorher
auf CD-ROM gespeichert werden. Die gespeicherten Bildaufnah
men lassen sich auch über ein Datenkommunikationsnetz, bei
spielsweise über das Internet, online in den Computer ein
spielen.
Claims (14)
1. Verfahren zur Führung eines Dialogs zwischen einem einzel
nen oder mehreren Nutzern und einem Computer als virtueller
Gesprächspartner, wobei der Computer eine Inhaltsanalyse der
Nutzeraussagen ausführt und dem Nutzer aufgrund dieser In
haltsanalyse durch Auswahl und/oder Kombination aus einer
Vielzahl von in Frage kommenden Antwortmöglichkeiten eine
passende Antwort gibt, dadurch gekennzeichnet, daß
im Computer darüber hinaus online mit Meß- und/oder Ver
gleichseinrichtungen signalmäßig erfaßbare körperliche Reak
tionen des einzelnen Nutzers analysiert und bei der Erstel
lung der passenden Antwort von seiten des Computers berück
sichtigt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeich
net, daß die online mittels einer Meßeinrichtung signalmä
ßig erfaßte körperliche Reaktion des einzelnen Nutzers in ei
ner Vergleichseinrichtung mit entsprechenden, früher bereits
signalmäßig erfaßten Daten des jeweiligen Nutzers verglichen
wird, so daß sich dadurch bei der Erstellung der passenden
Antwort von seiten des Computers der momentane Stimmungszu
stand des Nutzers mit berücksichtigen läßt.
3. Verfahren nach Anspruch 1 oder 2, dadurch ge
kennzeichnet, daß die in elektrische Signalform umgewan
delte Stimme als Reaktionsform des einzelnen Nutzers analy
siert wird.
4. Verfahren nach Anspruch 1 oder 2, dadurch ge
kennzeichnet, daß das z. B. in eine elektrische Signal
form umgewandelte Blickverhalten des einzelnen Nutzers als
Reaktionsform analysiert wird.
5. Verfahren nach Anspruch 1 oder 2, dadurch ge
kennzeichnet, daß die z. B. in elektrische Signalform um
gewandelte Kopfhaltung des einzelnen Nutzers als Reaktions
form analysiert wird.
6. Verfahren nach Anspruch 1 oder 2, dadurch ge
kennzeichnet, daß in elektrische Signalform umgewandelte
Hautwiderstandsveränderungen des einzelnen Nutzers während
der zwischen dem Nutzer und dem Computer stattfindenden In
teraktion als Reaktionsform analysiert werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeich
net, daß zusätzlich die Muskelspannung und/oder ein Elek
trokardiogramm (EKG) und/oder ein Elektroencephalogramm (EEG)
des einzelnen Nutzers gemessen und durch den Computer bewer
tet werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeich
net, daß bei zusätzlichem Einsatz eines Elektroencephalo
gramms (EEG) ein sogenanntes "Brainmapping" durchgeführt
wird, bei dem von der Schädeloberfläche des einzelnen Nutzers
abgeleitet wird, welche seiner Hirnregionen aktiviert wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeich
net, daß vorher in Verbindung mit einem neuronalen Netz mit
jedem einzelnen vorgesehenen Nutzer eine Kalibrierung dafür
erstellt wird, wann bei ihm welche Gehirnregionen aktiviert
werden, d. h. es wird ein Zusammenhang zwischen Gefühlszustän
den und aktivierten Gehirnregionen hergestellt, oder es wer
den andere Körpersignale entsprechend ausgewertet und für die
Auswahl der Antworten des Computers genutzt.
10. Verfahren nach einem der vorhergehenden Ansprüche, ge
kennzeichnet durch eine vorhergehende Kalibrierung des
Computerantwortverhaltens auf den einzelnen Nutzer.
11. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet, daß zur Erreichung eines rea
listischen Gesprächsablaufs dem den virtuellen Gesprächspart
ner bildenden Computer gespeicherte Bildaufnahmen eines tat
sächlichen Gesprächspartners zugeführt werden, die auf dem
vom einzelnen Nutzer betrachteten Monitor des Computers wäh
rend der Dialogführung dargestellt werden.
12. Verfahren nach Anspruch 11, dadurch gekennzeich
net, daß die Bild- und Tonaufnahmen von tatsächlichen Ge
sprächspartnern vorher auf CD-ROM oder einem anderen Daten
träger gespeichert werden.
13. Verfahren nach Anspruch 11, dadurch gekennzeich
net, daß die gespeicherten Bildaufnahmen über ein Datenkom
munikationsnetz, beispielsweise das Internet, online in den
Computer eingespielt werden.
14. Verfahren nach einem der vorhergehenden Ansprüche, ge
kennzeichnet durch eine Anwendung bei der personenzen
trierten Gesprächspsychotherapie.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19752907A DE19752907C2 (de) | 1997-11-28 | 1997-11-28 | Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem Computer |
PCT/EP1998/007686 WO1999028809A2 (de) | 1997-11-28 | 1998-11-27 | Verfahren zur führung eines dialogs zwischen einem einzelnen oder mehreren nutzern und einem computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19752907A DE19752907C2 (de) | 1997-11-28 | 1997-11-28 | Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem Computer |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19752907A1 true DE19752907A1 (de) | 1999-06-10 |
DE19752907C2 DE19752907C2 (de) | 2002-10-31 |
Family
ID=7850173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19752907A Expired - Lifetime DE19752907C2 (de) | 1997-11-28 | 1997-11-28 | Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem Computer |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE19752907C2 (de) |
WO (1) | WO1999028809A2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19938897A1 (de) * | 1999-08-17 | 2001-03-01 | Easytek Software Gmbh | Interaktives Bedienterminal |
DE10036468A1 (de) * | 2000-07-25 | 2002-02-14 | Thomson Brandt Gmbh | Verfahren zur Erläuterung der Bedienung eines Gerätes |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9355092B2 (en) | 2006-02-01 | 2016-05-31 | i-COMMAND LTD | Human-like response emulator |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4212907A1 (de) * | 1992-04-05 | 1993-10-07 | Drescher Ruediger | Spracherkennungsverfahren für Datenverarbeitungssysteme u.s.w. |
DE4304296A1 (de) * | 1992-04-14 | 1993-12-16 | Juergen Hoefer | Anordnung zur Wiedergabe von gesprochenen medizinischen Hinweisen in Abhängigkeit von gemessenen Körperwerten |
EP0694833A1 (de) * | 1994-07-28 | 1996-01-31 | AT&T Corp. | Intelligentes Computer-Mensch-Schnittstellensystem |
DE4430164A1 (de) * | 1994-08-25 | 1996-02-29 | Uthe Friedrich Wilhelm | Verwendung eines interaktiven Informationssystems |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE9107576U1 (de) * | 1991-06-20 | 1992-01-09 | Baeumer, Ernst-Helmut, 5438 Westerburg, De | |
GB9117015D0 (en) * | 1991-08-07 | 1991-09-18 | Software Solutions Ltd | Operation of computer systems |
PT956552E (pt) * | 1995-12-04 | 2002-10-31 | Jared C Bernstein | Metodo e dispositivo para informacao combinada de sinais de voz para interaccao adaptavel ao ensino e avaliacao |
GB2310377A (en) * | 1996-02-24 | 1997-08-27 | Philips Electronics Nv | Processing device for monitoring psychological condition |
-
1997
- 1997-11-28 DE DE19752907A patent/DE19752907C2/de not_active Expired - Lifetime
-
1998
- 1998-11-27 WO PCT/EP1998/007686 patent/WO1999028809A2/de active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4212907A1 (de) * | 1992-04-05 | 1993-10-07 | Drescher Ruediger | Spracherkennungsverfahren für Datenverarbeitungssysteme u.s.w. |
DE4304296A1 (de) * | 1992-04-14 | 1993-12-16 | Juergen Hoefer | Anordnung zur Wiedergabe von gesprochenen medizinischen Hinweisen in Abhängigkeit von gemessenen Körperwerten |
EP0694833A1 (de) * | 1994-07-28 | 1996-01-31 | AT&T Corp. | Intelligentes Computer-Mensch-Schnittstellensystem |
DE4430164A1 (de) * | 1994-08-25 | 1996-02-29 | Uthe Friedrich Wilhelm | Verwendung eines interaktiven Informationssystems |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19938897A1 (de) * | 1999-08-17 | 2001-03-01 | Easytek Software Gmbh | Interaktives Bedienterminal |
DE19938897B4 (de) * | 1999-08-17 | 2006-09-14 | Easytek Software Gmbh | Interaktives Bedienterminal sowie Verfahren zum Betreiben eines solchen |
DE10036468A1 (de) * | 2000-07-25 | 2002-02-14 | Thomson Brandt Gmbh | Verfahren zur Erläuterung der Bedienung eines Gerätes |
Also Published As
Publication number | Publication date |
---|---|
DE19752907C2 (de) | 2002-10-31 |
WO1999028809A3 (de) | 1999-07-22 |
WO1999028809A2 (de) | 1999-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gomez-Pilar et al. | Neurofeedback training with a motor imagery-based BCI: neurocognitive improvements and EEG changes in the elderly | |
Yamada | Frontal midline theta rhythm and eyeblinking activity during a VDT task and a video game: useful tools for psychophysiology in ergonomics | |
Feldner et al. | Emotional avoidance: An experimental test of individual differences and response suppression using biological challenge | |
DE19549297C2 (de) | Verfahren und Vorrichtung zur Beeinflussung der menschlichen Psyche | |
Oberman et al. | Face to face: Blocking facial mimicry can selectively impair recognition of emotional expressions | |
DE19781691B4 (de) | Computerisiertes Augenpatienten-Untersuchungs- und medizinisches Praxismanagement-System | |
Busse et al. | Methodological reflections on a three-step-design combining observation, stimulated recall and interview | |
WO2020229572A1 (de) | System und verfahren zur erkennung und messung affektiver zustände | |
Walsh et al. | Physiological correlates of fluent and stuttered speech production in preschool children who stutter | |
DE10210799B4 (de) | Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders | |
DE102006016716A1 (de) | Feedbacktraining im Fahrzeug | |
Turi et al. | Autism is associated with reduced ability to interpret grasping actions of others | |
DE19752907A1 (de) | Verfahren zur Führung eines Dialogs zwischen einem einzelnen oder mehreren Nutzern und einem Computer | |
Cooper | Varieties of visual representation: How are we to analyze the concept of mental image? | |
Andersen et al. | Audiovisual integration of speech in a patient with Broca's Aphasia | |
WO2022024353A1 (ja) | 反応解析システム | |
EP1304073A2 (de) | Biofeedback-Verfahren und Vorrichtung, sowie Verfahren zur Erzeugung und Darstellung von Daten | |
Lyons et al. | Reliability and validity of a videotape method to describe expressive behavior in persons with Parkinson’s disease | |
Vercruyssen et al. | Gender differences in posture effects on cognition | |
Uttal | Masking of alphabetic character recognition by ultrahigh-density dynamic visual noise | |
Bayat et al. | Speech related anxiety in adults who stutter | |
Minoura et al. | Virtual hand with ambiguous movement between the self and other origin: Sense of ownership and'other-produced'agency | |
DE102022208736B3 (de) | Verfahren zum Durchführen einer Lachtherapie in einem Kraftfahrzeug | |
Porter | Third-party imagined interactions: Expanding mental imagery to the experience of others' communication | |
Lyons et al. | Supporting empathy in online learning with artificial expressions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |