DE60317130T2 - Vorrichtung und Verfahren zur Bereitstellung von Informationen mittels einer Sprachdialogschnittstelle - Google Patents
Vorrichtung und Verfahren zur Bereitstellung von Informationen mittels einer Sprachdialogschnittstelle Download PDFInfo
- Publication number
- DE60317130T2 DE60317130T2 DE60317130T DE60317130T DE60317130T2 DE 60317130 T2 DE60317130 T2 DE 60317130T2 DE 60317130 T DE60317130 T DE 60317130T DE 60317130 T DE60317130 T DE 60317130T DE 60317130 T2 DE60317130 T2 DE 60317130T2
- Authority
- DE
- Germany
- Prior art keywords
- information
- intentions
- user
- sentences
- files
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000004044 response Effects 0.000 claims description 9
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 2
- 206010012335 Dependence Diseases 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Document Processing Apparatus (AREA)
Description
- Die vorliegende Erfindung betrifft einen Konversationsagenten als Schnittstelle zwischen Mensch und Maschine. Insbesondere betrifft die vorliegende Erfindung ein System zur Bereitstellung von Information in Sprachsignalen, die vielseitige Dialoge unter Verwendung eines wissensbasierten Datenbanksystems ermöglichen, die gewünschte Information in Echtzeit aus dem Internet extrahieren können und Benutzerdialogaufzeichnungen und -neigungen und eine Anzahl von Dialogfällen speichern. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Bereitstellen von Information in Sprachsignalen.
- Bei herkömmlichen Verfahren zum Bereitstellen von Information in Sprachsignalen wurden Dialoge durch Steuerung der Zustandsübergangssteuerung zwischen einem Benutzerzustand und einem Systemzustand basierend auf der Erfassung eines Schlüsselworts oder durch einen Dialogmanager verwaltet, der Skripte verwendet, um Systemverhalten zu bestimmen, und eine Wissensdatenbank zum Verwalten der Dialoge wurde auf Offlinebasis aufgebaut. Da Information nicht in Echtzeit fortgeschrieben wird, ist das Bereitstellen von Information begrenzt. Da ferner nur Kurzzeitdialoge verwendet werden und sehr beschränkte und fast ähnliche Dialoge wiederholt werden, werden Interessen im System zum Bereitstellen von Information in Sprachsignalen nicht unterstützt, und deshalb ist die Anwendung des Systems begrenzt.
- In "Example-based query generation for spontaneous speech" von H. Murao et al., 2001 IEEE Workshops an automatic speech recognition and understanding, 2001, Seiten 268 bis 271 wird Fragenerzeugung diskutiert. Eine gesprochene Anforderung erzeugt eine Datenbanksuche, die ein ähnliches Beispiel aus einer ersten Datenbank abruft. Die Anfrage wird entsprechend der eingegebenen Äußerung korrigiert, die dann für eine weitere Suche in einer zweiten Datenbank verwendet wird, um die Information für eine Antwort zu finden. Ein ähnliches Beispiel in der ersten Datenbank wird dann verwendet, um eine gesprochene Antwort zu konstruieren.
- Die vorliegende Erfindung stellt ein System und ein Verfahren zur Bereitstellung von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge zur Verfügung, die Sprachsignale eines Benutzers analysiert und Information in Sprachsignalen als Antwort auf die Sprachsignale des Benutzers bereitstellt.
- Ferner stellt die vorliegende Erfindung ein computerlesbares Aufzeichnungsmedium zur Verfügung, auf dem ein Programm zum Implementieren des oben beschriebenen Verfahrens eingebettet ist.
- Gemäß einem Aspekt der vorliegenden Erfindung wird ein System zur Bereitstellung von Information gemäß Anspruch 1 zur Verfügung gestellt.
- Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zur Bereitstellung von Information gemäß Anspruch 7 zur Verfügung gestellt.
- Die obigen Aspekte und Vorteile der vorliegenden Erfindung werden besser ersichtlich durch eine ausführliche Beschreibung bevorzugter Ausführungsformen mit Bezug zu den begleitenden Zeichnungen, in denen:
-
1 ein Blockdiagramm eines Systems zur Bereitstellung von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ist, -
2 ein Flussbild eines Verfahrens zur Bereitstellung von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ist, -
3 ein detaillierteres Blockdiagramm des in1 gezeigten Intentionsgenerators ist, und -
4 ein Flussbild zur Erläuterung von Vorgängen des in3 gezeigten Intentionsgenerators ist. - Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird nun mit Bezug zu den
1 und2 beschrieben.1 ist ein Blockdiagramm eines Systems zur Bereitstellung von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung, und2 ist ein Flussbild eines Verfahrens zum Bereitstellen von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung. - Wenn ein Benutzer Sprachsignale übermittelt, empfängt eine Spracherkennungseinrichtung
110 die Sprachsignale, erkennt Sprache und wandelt die Sprachsignale in Sätze um (Schritt210 ). Ein Satzanalysator120 empfängt die von der Spracherkennungseinrichtung110 transformierten Sätze oder Sätze, die durch eine Eingabeeinrichtung wie eine Tastatur eingegeben sind, und analysiert die Sätze in ihren Bedeutungsstrukturen (Schritt220 ). Der Satzanalysator120 beinhaltet einen morphologischen Analysator121 zum Trennen der eingegebenen Sätze in ihre Morpheme und Identifizieren der abgetrennten Morpheme, einen Syntaxanalysator123 zum Analysieren von Strukturelementen eines Satzes basierend auf der Beziehung zwischen den Morphemen, und einen Semantikanalysator125 zum Bestimmen der Bedeutung der Strukturelemente eines Satzes und Transformieren derselben in Bedeutungsstrukturen. - Ein Dialogmanager
130 beinhaltet einen Intentionsanalysator131 und einen Intentionsgenerator133 . Der Intentionsanalysator131 empfängt die Bedeutungsstrukturen und analysiert die Art des Sprachakts oder der -intention beim Fragen, Anweisen, Vorschlagen, Anfordern usw., die in den Sprachsignalen des Benutzers enthalten ist (Schritt230 ). Der Intentionsgenerator133 erzeugt einen Systemsprachakt oder -intention, wie Antworten, Verneinen oder Annehmen als Antwort auf den analysierten Sprachakt oder die Intention des Benutzers (Schritt240 ). Ein Informationsextraktor140 empfängt Anfrageinformation und versieht den Intentionsgenerator133 mit Information bezüglich der Anfrageinformation durch Suche nach Online-Information aus dem Internet oder einem anderen Netzwerk und Offline-Information aus einer Wissensdatenbank145 . Eine Benutzermodellierungseinheit150 empfängt Information zu den Benutzerdialogen vom Intentionsanalysator131 , analysiert die Neigungen des Benutzers und stellt das Analyseergebnis dem Intentionsgenerator133 zur Verfügung. Die Wissensdatenbank145 speichert Aufzeichnungen von Dialogen zwischen dem Benutzer und dem System und die Neigungen des Benutzers. - Ein Satzgenerator
160 empfängt Information zu Sprachakten oder -intentionen des Systems und transformiert die Information zu Sprachakten oder -intentionen des Systems in Sätze (Schritt250 ). Der Satzgenerator160 beinhaltet einen Satzstrukturgenerator161 zum Erzeugen von Satzstrukturen aus den Bedeutungsstrukturen bezüglich der Sprachakte oder -intentionen des Systems und einen morphologischen Generator163 zum Empfangen der Satzstrukturen und Erzeugen von Morphemen zum Transformieren der Satzstrukturen in Sätze. Eine Sprachsyntheseeinrichtung171 empfängt die Sätze, synthetisiert die Sätze in Sprache und gibt die synthetisierte Sprache aus (Schritt260 ). Eine Zeichenanimationseinheit173 empfängt die Sätze und gibt bewegte Bilder aus, so dass der Benutzer angesprochen wird, mit einem Zeichen in den bewegten Bildern zu kommunizieren, während der Benutzer Information erhält. - Der Intentionsgenerator
133 wird nun ausführlicher mit Bezug zu den3 und4 beschrieben.3 ist ein detaillierteres Blockdiagramm des in1 gezeigten Intentionsgenerators133 und4 ist ein Flussbild zur Erläuterung von Funktionen des in3 gezeigten Intentionsgenerators133 . - Der Intentionsgenerator
133 beinhaltet eine Dialogfallsucheinheit133-1 , eine Intentionsartbestimmungseinheit133-3 und eine Intentionsinhaltbestimmungseinheit133-5 . Die Dialogfallsucheinheit133-1 empfängt Information zu Sprachakten und -intentionen des Benutzers und sucht nach zahlreichen Dialogfällen aus einer Dialogfalldatenbank (Schritt410 ). Die Intentionsartbestimmungseinheit133-3 errechnet Ähnlichkeiten zwischen Information zu Sprachakten und -intentionen des Benutzers und den Dialogfällen unter Verwendung von Information zu Neigungen des Benutzers (Schritt420 ) und wählt den ähnlichsten Dialog aus und bestimmt einen Sprachakt oder eine -intention des Systems für eine Systemantwort (Schritt430 ). Die Intentionsinhaltbestimmungseinheit133-5 erzeugt Anfrageinformation zum Ergänzen des Inhaltsteils der gewählten Intentionsart (Schritt440 ) und ergänzt die Information zu Sprachakten und -intentionen des Systems unter Verwendung der Suchergebnisse vom Informationsextraktor170 (Schritt450 ). Der Dialogfall weist ein Format auf, in dem die Benutzerintentionen und die Systemintentionen einander entsprechen und die Dialogfalldatenbank speichert eine Anzahl an Dialogfällen. - Die vorliegende Erfindung kann auf einem Aufzeichnungsmedium mit einem Kode implementiert sein, der von einem Computer lesbar ist. Das Aufzeichnungsmedium, das von einem Computer gelesen werden kann, kann jegliche Art von Aufzeichnungsvorrichtungen beinhalten, in denen Daten, die für einen Computer lesbar sind, gespeichert werden. Beispiele des Aufzeichnungsmediums beinhalten ROM, RAM, CD-ROM, Magnetband, Festplatte, Floppy-Disks, Flash-Speicher, optische Datenspeichereinrichtungen und sogar Trägerwellen, zum Beispiel Übertragung über das Internet. Darüber hinaus kann das Aufzeichnungsmedium über Computersysteme verteilt sein, die durch ein Netzwerk miteinander verbunden sind, und die vorliegende Erfindung kann als Kode in dem verteilten System gespeichert und implementiert sein.
- Wie oben beschrieben, kann gemäß der vorliegenden Erfindung von einem Benutzer angeforderte Information in Echtzeit erfasst werden und durch eine Sprachschnittstelle mit vielseitigen und vertrauten Dialogen bereitgestellt werden, die auf den Neigungen des Benutzers basieren. Das heißt, da die Aufzeichnungen von Dialogen mit einem Benutzer gespeichert sind und eine angemessene Antwort auf eine Anfrage bereitgestellt wird, ist es möglich, das Interesse des Benutzers zu erhalten, ohne ähnliche Dialoge zu wiederholen. Da ferner eine Wissensdatenbank in Echtzeit aufgebaut werden kann, kann Information fortgeschrieben und in Echtzeit bereitgestellt werden.
- Während die vorliegende Erfindung insbesondere mit Bezug zu bevorzugten Ausführungsformen gezeigt und beschrieben wurde, versteht es sich für die Fachleute, dass verschiedene Änderungen in Form und Details hierzu vorgenommen werden können, ohne den Rahmen der vorliegenden Erfindung zu verlassen, wie er in den beigefügten Ansprüchen definiert ist.
Claims (12)
- System zur Bereitstellung von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge umfassend: eine Spracherkennungseinrichtung (
110 ), die so ausgebildet ist, dass sie Sprachsignale in Sätze umwandelt, einen Satzanalysator (120 ), der so ausgebildet ist, dass er die Sätze in ihren Bedeutungsstrukturen analysiert, einen Dialogmanager (130 ), der so ausgebildet ist, dass er Information zu Sprachakten oder -intentionen des Benutzers aus den Bedeutungsstrukturen extrahiert und Information zu Sprachakten oder -intentionen des Systems für eine Antwort auf die extrahierte Information zu den Sprachakten oder -intentionen des Benutzers erzeugt, einen Informationsextraktor (140 ) zum Extrahieren von Information unter Verwendung einer Frageninformation als Schlüsselwörter und einer Benutzermodellierungseinheit (150 ) zum Analysieren der Neigungen des Benutzers aus den Benutzerdialogen, einen Satzgenerator (160 ), der so ausgebildet ist, dass er Sätze basierend auf der Information zu Sprachakten oder -intentionen des Systems für die Antwort auf die Sprachsignale erzeugt, und eine Sprachsyntheseeinrichtung (171 ), die so ausgebildet ist, dass sie die erzeugten Sätze in Sprache synthetisiert, gekennzeichnet durch: eine Wissensdatenbank (145 ), die so ausgebildet ist, dass sie Aufzeichnungen von Dialogen zwischen dem Benutzer und dem System in Form von Information von der Benutzermodellierungseinheit (150 ) speichert, die bei einer Verarbeitung durch den Dialogmanager ermittelt ist, wobei die Information Information zu den Sprachakten oder -intentionen des Benutzers, die aus den Bedeutungsstrukturen extrahiert ist, und Information zu den Sprachakten oder -intentionen des Systems ist. - System nach Anspruch 1, wobei der Satzanalysator (
120 ) einen morphologischen Analysator (121 ) zum Trennen der Sätze in ihre Morpheme und Identifizieren der abgetrennten Morpheme und einen Syntaxanalysator (123 ) zum Analysieren von Satzstrukturelementen basierend auf der Beziehung zwischen den Morphemen aufweist. - System nach Anspruch 1 oder 2, wobei der Satzanalysator (
120 ) ferner einen Semantikanalysator (125 ) zum Umwandeln der von den Sprachsignalen umgewandelten Sätze in Bedeutungsstrukturen aufweist. - System nach Anspruch 1, 2 oder 3, wobei der Dialogmanager (
130 ) einen Intentionsanalysator (131 ) zum Bestimmen von Sprachakten oder -intentionen des Benutzers aus den Bedeutungsstrukturen und einen Intentionsgenerator (133 ) zum Erzeugen von Sprachakten oder -intentionen des Systems für eine Antwort auf die Sprachakte oder -intentionen des Benutzers aufweist. - System nach einem der vorhergehenden Ansprüche, ferner umfassend einen Fragengenerator zur Erzeugen von Frageninformation basierend auf Information zu den Sprachakten oder -intentionen des Benutzers.
- System nach einem der vorhergehenden Ansprüche, wobei der Satzgenerator einen Satzstrukturgenerator zum Empfangen der Information zu den Sprachakten oder -intentionen des Systems und Erzeugen von Satzstrukturen und einen Morphemgenerator zum Empfangen der Satzstrukturen und Erzeugen von Morphemen aufweist.
- Verfahren zum Bereitstellen von Information unter Verwendung einer Schnittstelle für gesprochene Dialoge umfassend die Schritte: (a) Umwandeln (
210 ) von Sprachsignalen in Sätze, (b) Analysieren (220 ) der Sätze in ihren Bedeutungsstrukturen, (c) Extrahieren (230 ) von Information zu Sprachakten oder -intentionen des Benutzers aus den Bedeutungsstrukturen und Erzeugen (240 ) von Information zu Sprachakten oder -intentionen des Systems für eine Antwort auf die extrahierte Information zu den Sprachakten oder -intentionen des Benutzers, (d) Erzeugen (250 ) von Sätzen basierend auf der Information zu den Sprachakten oder -intentionen des Systems für die Antwort auf die Sprachsignale, und (e) Synthetisieren (260 ) der erzeugten Sätze in Sprache, dadurch gekennzeichnet, dass der Schritt (c) umfasst: Speichern von Aufzeichnungen von Dialogen zwischen dem Benutzer und der Schnittstelle in Form von Information zu den Sprachakten oder -intentionen des Benutzers, die aus Bedeutungsstrukturen in eine Wissensdatenbank (145 ) extrahiert sind, und dass Schritt (c) zum Extrahieren von Information die Information zu den Sprachakten oder -intentionen und Neigungen des Benutzers verwendet, die in der Wissensdatenbank (145 ) gespeichert ist. - Verfahren nach Anspruch 7, wobei Schritt (b) umfasst: (b1) Trennen der Sätze in ihre Morpheme und Identifizieren der abgetrennten Morpheme und (b2) Analysieren von Strukturelementen eines Satzes basierend auf der Beziehung zwischen den Morphemen.
- Verfahren nach Anspruch 7 oder 8, wobei Schritt (c) umfasst: (c1) Bestimmen von den Sprachakten oder -intentionen eines Benutzers aus den Bedeutungsstrukturen, (c2) Durchsuchen einer Dialogfalldatenbank basierend auf Information zu Sprachakten oder -intentionen des Benutzers, (c3) Errechnen von Ähnlichkeiten der erfassten Dialogfälle unter Verwendung von Information zu den Sprachakten oder -intentionen des Benutzers und Information zu den Neigungen des Benutzers, (c4) Auswählen des ähnlichsten Dialogfalls unter Verwendung von Information zu den Ähnlichkeiten und Bestimmen der Sprachakte oder -intentionen des Systems für eine Systemantwort, (c5) Erzeugen von Frageninformation für eine Antwort, und (c6) Empfangen von Suchergebnissen, die durch die Frageninformation ermittelt sind, und Fertigstellen der Sprachakte oder -intentionen des Systems.
- Verfahren nach einem der Ansprüche 7 bis 9, wobei Schritt (b) ein Umwandeln der aus den Sprachsignalen umgewandelten Sätze in Bedeutungsstrukturen beinhaltet.
- Verfahren nach einem der Ansprüche 7 bis 10, wobei Schritt (d) ein (d1) Erzeugen von Satzstrukturen basierend auf der Information zu den Sprachakten oder -intentionen des Systems und ein (d2) Erzeugen von Morphemen für eine Antwort beinhaltet.
- Computerlesbares Aufzeichnungsmedium, das ein Programm für einen Computer zum Implementieren des in einem der Ansprüche 7 bis 11 beanspruchten Verfahrens speichert.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0017413A KR100446627B1 (ko) | 2002-03-29 | 2002-03-29 | 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법 |
KR2002017413 | 2002-03-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60317130D1 DE60317130D1 (de) | 2007-12-13 |
DE60317130T2 true DE60317130T2 (de) | 2008-07-31 |
Family
ID=27800696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60317130T Expired - Lifetime DE60317130T2 (de) | 2002-03-29 | 2003-03-28 | Vorrichtung und Verfahren zur Bereitstellung von Informationen mittels einer Sprachdialogschnittstelle |
Country Status (5)
Country | Link |
---|---|
US (1) | US7225128B2 (de) |
EP (1) | EP1349145B1 (de) |
JP (1) | JP2004005530A (de) |
KR (1) | KR100446627B1 (de) |
DE (1) | DE60317130T2 (de) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7496500B2 (en) * | 2004-03-01 | 2009-02-24 | Microsoft Corporation | Systems and methods that determine intent of data and respond to the data based on the intent |
JP3962763B2 (ja) * | 2004-04-12 | 2007-08-22 | 松下電器産業株式会社 | 対話支援装置 |
KR100690151B1 (ko) * | 2004-10-01 | 2007-03-08 | (주)다음소프트 | 대화형 에이전트를 이용한 서비스 방법 및 시스템 |
KR100669241B1 (ko) * | 2004-12-15 | 2007-01-15 | 한국전자통신연구원 | 화행 정보를 이용한 대화체 음성합성 시스템 및 방법 |
US20060141426A1 (en) * | 2004-12-23 | 2006-06-29 | Inventec Corporation | Virtual scene interactive language learning system and method |
US8751240B2 (en) * | 2005-05-13 | 2014-06-10 | At&T Intellectual Property Ii, L.P. | Apparatus and method for forming search engine queries based on spoken utterances |
KR100810500B1 (ko) * | 2005-12-08 | 2008-03-07 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템에서의 사용자 편의성증대 방법 |
KR100764174B1 (ko) * | 2006-03-03 | 2007-10-08 | 삼성전자주식회사 | 음성 대화 서비스 장치 및 방법 |
JP2007328283A (ja) * | 2006-06-09 | 2007-12-20 | Kenwood Corp | 対話装置、プログラム、及び対話方法 |
KR100807307B1 (ko) * | 2006-07-10 | 2008-02-28 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템 및 그 응답 방법 |
KR100806287B1 (ko) * | 2006-08-01 | 2008-02-22 | 한국전자통신연구원 | 문말 억양 예측 방법 및 이를 기반으로 하는 음성합성 방법및 시스템 |
KR100908445B1 (ko) * | 2006-09-04 | 2009-07-21 | 한국전자통신연구원 | 응답 문장 생성 장치 및 방법 |
KR100814641B1 (ko) * | 2006-10-23 | 2008-03-18 | 성균관대학교산학협력단 | 사용자 주도형 음성 서비스 시스템 및 그 서비스 방법 |
WO2008070860A2 (en) * | 2006-12-07 | 2008-06-12 | Linker Sheldon O | Method and system for machine understanding, knowledge, and conversation |
KR101322486B1 (ko) * | 2007-06-28 | 2013-10-25 | 주식회사 케이티 | 범용 대화서비스 장치 및 그 방법 |
US8874443B2 (en) * | 2008-08-27 | 2014-10-28 | Robert Bosch Gmbh | System and method for generating natural language phrases from user utterances in dialog systems |
KR101253104B1 (ko) * | 2009-09-01 | 2013-04-10 | 한국전자통신연구원 | 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 |
KR20110072847A (ko) * | 2009-12-23 | 2011-06-29 | 삼성전자주식회사 | 열려진 사용자 의도 처리를 위한 대화관리 시스템 및 방법 |
KR101212795B1 (ko) | 2009-12-28 | 2012-12-14 | 주식회사 케이티 | 다중 목적 영역의 통계적 대화 정책 추론 방법 |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
CN103458126A (zh) * | 2013-09-10 | 2013-12-18 | 深圳市明日空间信息技术有限公司 | 通话设备信息智能搜索的方法及装置 |
US10333995B2 (en) | 2014-01-23 | 2019-06-25 | International Business Machines Corporation | Providing of recommendations determined from a collaboration session system and method |
SG11201702029PA (en) * | 2014-09-14 | 2017-04-27 | Speaktoit Inc | Platform for creating customizable dialog system engines |
JP6328260B2 (ja) * | 2015-01-28 | 2018-05-23 | 三菱電機株式会社 | 意図推定装置及び意図推定方法 |
KR102437689B1 (ko) | 2015-09-16 | 2022-08-30 | 삼성전자주식회사 | 음성 인식 서버 및 그 제어 방법 |
KR101777392B1 (ko) | 2016-07-04 | 2017-09-11 | 주식회사 케이티 | 중앙 서버 및 이에 의한 사용자 음성 처리 방법 |
US10726836B2 (en) | 2016-08-12 | 2020-07-28 | Kt Corporation | Providing audio and video feedback with character based on voice command |
CN106486121B (zh) * | 2016-10-28 | 2020-01-14 | 北京光年无限科技有限公司 | 应用于智能机器人的语音优化方法及装置 |
KR101889279B1 (ko) | 2017-01-16 | 2018-08-21 | 주식회사 케이티 | 음성 명령에 기반하여 서비스를 제공하는 시스템 및 방법 |
KR101889280B1 (ko) * | 2017-01-16 | 2018-08-21 | 주식회사 케이티 | 음성 명령에 기반하여 서비스를 제공하는 서버 및 단말 |
US10395658B2 (en) * | 2017-05-22 | 2019-08-27 | International Business Machines Corporation | Pre-processing partial inputs for accelerating automatic dialog response |
KR20190061706A (ko) * | 2017-11-28 | 2019-06-05 | 현대자동차주식회사 | 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법 |
CN108231061A (zh) * | 2017-12-29 | 2018-06-29 | 江苏名通信息科技有限公司 | 一种基于文本解析和语音合成的网络人机交互方法 |
CN109033265B (zh) * | 2018-07-09 | 2020-10-16 | 苏州浪潮智能软件有限公司 | 一种人机交互方法及装置 |
KR20220086342A (ko) * | 2020-12-16 | 2022-06-23 | 삼성전자주식회사 | 음성 입력의 응답 제공 방법 및 이를 지원하는 전자 장치 |
CN113643696B (zh) * | 2021-08-10 | 2024-06-21 | 阿波罗智联(北京)科技有限公司 | 语音处理方法、装置、设备、存储介质及程序 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0769709B2 (ja) * | 1993-01-08 | 1995-07-31 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 対話音声認識装置 |
CA2119397C (en) * | 1993-03-19 | 2007-10-02 | Kim E.A. Silverman | Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation |
JP3397372B2 (ja) * | 1993-06-16 | 2003-04-14 | キヤノン株式会社 | 音声認識方法及び装置 |
US5615296A (en) * | 1993-11-12 | 1997-03-25 | International Business Machines Corporation | Continuous speech recognition and voice response system and method to enable conversational dialogues with microprocessors |
US5577164A (en) * | 1994-01-28 | 1996-11-19 | Canon Kabushiki Kaisha | Incorrect voice command recognition prevention and recovery processing method and apparatus |
JPH07219590A (ja) * | 1994-01-31 | 1995-08-18 | Canon Inc | 音声情報検索装置及び方法 |
JPH07239694A (ja) * | 1994-03-02 | 1995-09-12 | Oki Electric Ind Co Ltd | 音声対話装置 |
JP3377290B2 (ja) * | 1994-04-27 | 2003-02-17 | シャープ株式会社 | イディオム処理機能を持つ機械翻訳装置 |
JP3350293B2 (ja) * | 1994-08-09 | 2002-11-25 | 株式会社東芝 | 対話処理装置及び対話処理方法 |
US5682539A (en) * | 1994-09-29 | 1997-10-28 | Conrad; Donovan | Anticipated meaning natural language interface |
JPH11237971A (ja) * | 1998-02-23 | 1999-08-31 | Nippon Telegr & Teleph Corp <Ntt> | 音声応答装置 |
WO2000022549A1 (en) * | 1998-10-09 | 2000-04-20 | Koninklijke Philips Electronics N.V. | Automatic inquiry method and system |
KR100277690B1 (ko) * | 1998-12-01 | 2001-01-15 | 정선종 | 화행 정보를 이용한 음성 인식 방법 |
US6282507B1 (en) * | 1999-01-29 | 2001-08-28 | Sony Corporation | Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection |
US6442524B1 (en) * | 1999-01-29 | 2002-08-27 | Sony Corporation | Analyzing inflectional morphology in a spoken language translation system |
US20020032564A1 (en) * | 2000-04-19 | 2002-03-14 | Farzad Ehsani | Phrase-based dialogue modeling with particular application to creating a recognition grammar for a voice-controlled user interface |
US6601026B2 (en) * | 1999-09-17 | 2003-07-29 | Discern Communications, Inc. | Information retrieval by natural language querying |
JP2001188784A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
JP2001188783A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001290493A (ja) * | 2000-04-06 | 2001-10-19 | Asahi Kasei Corp | 自動対話方法 |
TW472232B (en) * | 2000-08-11 | 2002-01-11 | Ind Tech Res Inst | Probability-base fault-tolerance natural language understanding method |
-
2002
- 2002-03-29 KR KR10-2002-0017413A patent/KR100446627B1/ko active IP Right Grant
-
2003
- 2003-03-28 DE DE60317130T patent/DE60317130T2/de not_active Expired - Lifetime
- 2003-03-28 EP EP03251975A patent/EP1349145B1/de not_active Expired - Lifetime
- 2003-03-31 US US10/401,695 patent/US7225128B2/en active Active
- 2003-03-31 JP JP2003093220A patent/JP2004005530A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP1349145B1 (de) | 2007-10-31 |
US7225128B2 (en) | 2007-05-29 |
KR20030078388A (ko) | 2003-10-08 |
JP2004005530A (ja) | 2004-01-08 |
KR100446627B1 (ko) | 2004-09-04 |
EP1349145A3 (de) | 2005-03-09 |
DE60317130D1 (de) | 2007-12-13 |
US20030220799A1 (en) | 2003-11-27 |
EP1349145A2 (de) | 2003-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60317130T2 (de) | Vorrichtung und Verfahren zur Bereitstellung von Informationen mittels einer Sprachdialogschnittstelle | |
DE69822296T2 (de) | Mustererkennungsregistrierung in einem verteilten system | |
DE102020205786B4 (de) | Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze | |
DE60030920T2 (de) | Verfahren zur Ermittlung von Persönlichkeitsmerkmalen unter Verwendung eines sprachbasierten Dialogs | |
DE69923191T2 (de) | Interaktive anwenderschnittstelle mit spracherkennung und natursprachenverarbeitungssystem | |
DE60125397T2 (de) | Sprachunabhängige stimmbasierte benutzeroberfläche | |
DE69827988T2 (de) | Sprachmodelle für die Spracherkennung | |
DE60016722T2 (de) | Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars | |
DE69834553T2 (de) | Erweiterbares spracherkennungssystem mit einer audio-rückkopplung | |
DE202017106363U1 (de) | Neuronale Antwort-auf-Frage-Netze | |
DE112017004374T5 (de) | System und Verfahren zur Spracherkennung | |
DE202017105835U1 (de) | Neuronale Maschinenübersetzungssysteme | |
DE60318505T2 (de) | Sprachbefehlinterpreter mit Funktion zur Verfolgung des Dialogfokuses und Verfahren zur Interpretation von Sprachbefehlen | |
DE102018113034A1 (de) | Stimmenerkennungssystem und stimmenerkennungsverfahren zum analysieren eines befehls, welcher mehrere absichten hat | |
DE202017106303U1 (de) | Bestimmen phonetischer Beziehungen | |
DE602005000308T2 (de) | Vorrichtung für sprachgesteuerte Anwendungen | |
DE112014007123T5 (de) | Dialogsteuersystem und Dialogsteuerverfahren | |
DE60207217T2 (de) | Verfahren zum ermöglichen der sprachinteraktion mit einer internet-seite | |
DE102007004684A1 (de) | Verfahren und Datenverarbeitungssystem zum gesteuerten Abfragen strukturiert gespeicherter Informationen | |
DE60305645T2 (de) | System und Verfahren zur Text-zu-Sprache Umsetzung mit einer Funktion zur Bereitstellung zusätzlicher Information | |
WO1998010413A1 (de) | Sprachverarbeitungssystem und verfahren zur sprachverarbeitung | |
DE60128372T2 (de) | Verfahren und system zur verbesserung der genauigkeit in einem spracherkennungssystem | |
WO2000005709A1 (de) | Verfahren und vorrichtung zur erkennung vorgegebener schlüsselwörter in gesprochener sprache | |
DE69837428T2 (de) | Speichermedium mit elektronischer Schaltung und mit diesem Speichermedium augestatteter Sprachsynthesizer | |
DE112019006199T5 (de) | Datenverarbeitungsvorrichtung, Datenverarbeitungssystem und Datenverarbeitungsverfahren und Programm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |