JP2018054791A - 音声対話システムおよび発話意図理解方法 - Google Patents
音声対話システムおよび発話意図理解方法 Download PDFInfo
- Publication number
- JP2018054791A JP2018054791A JP2016189406A JP2016189406A JP2018054791A JP 2018054791 A JP2018054791 A JP 2018054791A JP 2016189406 A JP2016189406 A JP 2016189406A JP 2016189406 A JP2016189406 A JP 2016189406A JP 2018054791 A JP2018054791 A JP 2018054791A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- voice
- user
- sentence
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 title claims description 19
- 230000004044 response Effects 0.000 claims description 31
- 230000002452 interceptive effect Effects 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
Description
ユーザ発話を取得する音声入力手段と、
前記音声入力手段によって取得された音声の発話意図を理解する意図理解手段と、
システム発話文のテキストを作成する対話文作成手段と、
前記システム発話文を音声データとして出力する音声出力手段と、
を備え、
前記対話文作成手段は、システム発話文のテキストを作成する際に、システム発話文中のいずれかの位置にタグを埋め込んで作成し、
前記意図理解手段は、ユーザ発話がされたタイミングが前記タグに対応する位置のシステム発話文が前記音声出力手段から出力される前か後かに応じて、ユーザの発話意図を理解する、
音声対話システムである。
グが当該タグに対応する位置の文章(単語)の発話の前か後かによって、ユーザ発話が現在出力中のシステム発話に応答するものであるかそうでないかを判定可能となる。
で説明される実施形態は音声対話ロボットを音声対話端末として用いたシステムであるが、音声対話端末はロボットである必要はなく任意の情報処理装置や音声対話インタフェースなどを用いることができる。
図1は、本実施形態に係る音声対話システム(音声対話ロボット)の構成を示す図である。本実施形態に係る音声対話ロボット100は、マイク(音声入力部)101、スピーカー(音声出力部)107、およびマイクロプロセッサなどの演算装置、メモリ、通信装置などを含むコンピュータである。マイクロプロセッサがプログラムを実行することにより、音声対話ロボット100は、音声認識部102、意図理解部103、対話管理部104、対話文作成部105、音声合成部106として機能する。図示はしていないが、音声対話ロボット100は、画像取得装置(カメラ)や可動関節部や移動手段などを備えていてもよい。
対話文は、対話管理部104に送られ記憶される。
図3は、本実施形態においてシステム発話とユーザ発話が重なったときのユーザ発話の意図を判断する処理を模式的に説明する図である。ここでは、システムが「○○君の趣味は何?」という発話301を行った後にユーザが応答を返さなかったので、続けて「ねぇねぇ、じゃあ、出身地はどこ?」という発話302を行う例を取り扱う。ユーザは、発話302の開始タイミングから少し遅れたタイミングで、「ドライブだよ」という発話303を行う。発話302と発話303が重複しており、ユーザ発話303が発話301に応答するものなのか、発話302に応答するものなのかを判断する必要がある。
ないが、以下では説明を簡略するために、タグの直前までの出力が完了するタイミングのことをタグの出力タイミングと称するなど、あたかもタグが音声として出力されるように記載することがある。
本実施形態によれば、ユーザ発話とシステム発話が重なった場合に、このユーザ発話が現在のシステム発話に対する応答であるのか否かを、簡易な処理によって判断することができる。したがって、システムとユーザのあいだの対話をより適切に実現することが可能となる。
上記の実施形態では、ユーザ発話が現在のシステム発話に応答するものか否かを判断するために、ユーザ発話のタイミングとタグの出力タイミングとの比較結果のみを考慮しているが、その他の要素を考慮して最終的な判断を下しても構わない。例えば、1つ前および現在のシステム発話の内容と、ユーザのバージイン発話の内容の関連性を考慮に入れて判断することが考えられる。図3の例のように、システムが「趣味は何?」という質問と「出身地はどこ?」という質問を続けてしているときに、ユーザが「ドライブだよ」と発話した場合には、ユーザ発話のタイミングに関わらずに、内容の関連性から前のシステム発話(「趣味は何?」)に対する応答であると判断できる。このようにユーザ発話のタイミングと発話内容の関連性の両方を考慮して、最終的な判断をすることも好ましい。
中に複数のタグが挿入されてもよく、その場合、ユーザ発話の開始がタグによって規定される3つ以上の区間のうちのどの部分に該当するかによってユーザの発話意図を決定することもできる。
上記の実施形態および変形例の構成は、本発明の技術的思想を逸脱しない範囲内で、適宜組み合わせて利用することができる。また、本発明は、その技術的思想を逸脱しない範囲で適宜変更を加えて実現しても構わない。
101:マイク
102:音声認識部
103:意図理解部
104:対話管理部
105:対話文作成部
106:音声合成部
107:スピーカー
Claims (7)
- ユーザ発話を取得する音声入力手段と、
前記音声入力手段によって取得された音声の発話意図を理解する意図理解手段と、
システム発話文のテキストを作成する対話文作成手段と、
前記システム発話文を音声データとして出力する音声出力手段と、
を備え、
前記対話文作成手段は、システム発話文のテキストを作成する際に、システム発話文中のいずれかの位置にタグを挿入して作成し、
前記意図理解手段は、ユーザ発話がされたタイミングが前記タグに対応する位置のシステム発話文が前記音声出力手段から出力される前か後かに応じて、ユーザの発話意図を理解する、
音声対話システム。 - 前記意図理解手段は、
ユーザ発話がされたタイミングが前記タグに対応する位置のシステム発話文が前記音声出力手段から出力される後であれば、ユーザ発話は前記システム発話文に応答するものであると理解し、
ユーザ発話が入力されたタイミングが前記タグに対応する位置のシステム発話文が前記音声出力手段から出力される前であれば、ユーザ発話は前記システム発話文に応答するものではないと理解する、
請求項1に記載の音声対話システム。 - 前記対話文作成手段は、前記システム発話文をつなぎ言葉部分と内容部分を組み合わせたものとして生成し、前記タグを前記つなぎ言葉部分と前記内容部分のあいだに挿入する、
請求項1または2に記載の音声対話システム。 - 前記意図理解手段は、
前記システム発話文が前記音声出力手段から出力されてから、前記タグよりも前のテキストが全て前記音声出力手段から出力されるまでの時間である第1時間を算出し、
前記システム発話文が前記音声出力手段から出力されてから、前記ユーザ発話の入力が開始されるまでの時間である第2時間を取得し、
前記第1時間と前記第2時間の比較により、前記ユーザ発話がされたタイミングが前記タグに対応する位置のシステム発話文が前記音声出力手段から出力される前であるか後であるかを判断する、
請求項1から3のいずれか1項に記載の音声対話システム。 - 前記音声出力手段は、前記システム発話文のテキストにおける前記タグは音声として出力しない、
請求項1から4のいずれか1項に記載の音声対話システム。 - ユーザ発話を取得する音声入力ステップと、
前記音声入力ステップにおいて取得された音声の発話意図を理解する意図理解ステップと、
システム発話文のテキストを作成する対話文作成ステップと、
前記システム発話文を音声データとして出力する音声出力ステップと、
を含み、
前記対話文作成ステップでは、システム発話文のテキストを作成する際に、システム発話文中のいずれかの位置にタグを挿入して作成し、
前記意図理解ステップでは、ユーザ発話がされたタイミングが前記タグに対応する位置のシステム発話文が出力される前か後かに応じて、ユーザの発話意図を理解する、
発話意図理解方法。 - 請求項6に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189406A JP6515897B2 (ja) | 2016-09-28 | 2016-09-28 | 音声対話システムおよび発話意図理解方法 |
US15/704,691 US10319379B2 (en) | 2016-09-28 | 2017-09-14 | Methods and systems for voice dialogue with tags in a position of text for determining an intention of a user utterance |
CN201710894125.7A CN107871503B (zh) | 2016-09-28 | 2017-09-28 | 语音对话系统以及发声意图理解方法 |
US16/390,261 US11087757B2 (en) | 2016-09-28 | 2019-04-22 | Determining a system utterance with connective and content portions from a user utterance |
US17/366,270 US11900932B2 (en) | 2016-09-28 | 2021-07-02 | Determining a system utterance with connective and content portions from a user utterance |
US18/539,604 US20240112678A1 (en) | 2016-09-28 | 2023-12-14 | Voice dialogue system and method of understanding utterance intention |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189406A JP6515897B2 (ja) | 2016-09-28 | 2016-09-28 | 音声対話システムおよび発話意図理解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018054791A true JP2018054791A (ja) | 2018-04-05 |
JP6515897B2 JP6515897B2 (ja) | 2019-05-22 |
Family
ID=61685640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016189406A Active JP6515897B2 (ja) | 2016-09-28 | 2016-09-28 | 音声対話システムおよび発話意図理解方法 |
Country Status (3)
Country | Link |
---|---|
US (4) | US10319379B2 (ja) |
JP (1) | JP6515897B2 (ja) |
CN (1) | CN107871503B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019155716A1 (ja) * | 2018-02-08 | 2019-08-15 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2019219452A (ja) * | 2018-06-18 | 2019-12-26 | 株式会社デンソーアイティーラボラトリ | 対話システム、対話方法、およびプログラム |
JP7512254B2 (ja) | 2019-03-26 | 2024-07-08 | 株式会社Nttドコモ | 音声対話システム、モデル生成装置、バージイン発話判定モデル及び音声対話プログラム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6428954B2 (ja) * | 2016-02-18 | 2018-11-28 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6515897B2 (ja) | 2016-09-28 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話システムおよび発話意図理解方法 |
JP2018054790A (ja) * | 2016-09-28 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話システムおよび音声対話方法 |
JP6775545B2 (ja) * | 2018-05-09 | 2020-10-28 | 日本電信電話株式会社 | 対話データ生成装置、対話データ生成方法、およびプログラム |
JP6969491B2 (ja) * | 2018-05-11 | 2021-11-24 | トヨタ自動車株式会社 | 音声対話システム、音声対話方法及びプログラム |
CN109285545A (zh) * | 2018-10-31 | 2019-01-29 | 北京小米移动软件有限公司 | 信息处理方法及装置 |
JP2020086943A (ja) * | 2018-11-26 | 2020-06-04 | シャープ株式会社 | 情報処理装置、情報処理方法、および、プログラム |
CN111475206B (zh) * | 2019-01-04 | 2023-04-11 | 优奈柯恩(北京)科技有限公司 | 用于唤醒可穿戴设备的方法及装置 |
CN115146653B (zh) * | 2022-07-21 | 2023-05-02 | 平安科技(深圳)有限公司 | 对话剧本构建方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151562A (ja) * | 2002-10-31 | 2004-05-27 | Seiko Epson Corp | 音声対話制御方法および音声対話制御装置 |
JP2016501391A (ja) * | 2012-12-20 | 2016-01-18 | アマゾン テクノロジーズ インコーポレーテッド | 発話対象の識別 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6598018B1 (en) * | 1999-12-15 | 2003-07-22 | Matsushita Electric Industrial Co., Ltd. | Method for natural dialog interface to car devices |
US7158935B1 (en) * | 2000-11-15 | 2007-01-02 | At&T Corp. | Method and system for predicting problematic situations in a automated dialog |
US20020087312A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented conversation buffering method and system |
GB0113583D0 (en) * | 2001-06-04 | 2001-07-25 | Hewlett Packard Co | Speech system barge-in control |
US7069213B2 (en) * | 2001-11-09 | 2006-06-27 | Netbytel, Inc. | Influencing a voice recognition matching operation with user barge-in time |
US8374879B2 (en) * | 2002-02-04 | 2013-02-12 | Microsoft Corporation | Systems and methods for managing interactions from multiple speech-enabled applications |
JP2003241797A (ja) * | 2002-02-22 | 2003-08-29 | Fujitsu Ltd | 音声対話システム |
US7246062B2 (en) * | 2002-04-08 | 2007-07-17 | Sbc Technology Resources, Inc. | Method and system for voice recognition menu navigation with error prevention and recovery |
US7197460B1 (en) * | 2002-04-23 | 2007-03-27 | At&T Corp. | System for handling frequently asked questions in a natural language dialog service |
US20050015256A1 (en) * | 2003-05-29 | 2005-01-20 | Kargman James B. | Method and apparatus for ordering food items, and in particular, pizza |
US8826137B2 (en) * | 2003-08-14 | 2014-09-02 | Freedom Scientific, Inc. | Screen reader having concurrent communication of non-textual information |
US7853451B1 (en) * | 2003-12-18 | 2010-12-14 | At&T Intellectual Property Ii, L.P. | System and method of exploiting human-human data for spoken language understanding systems |
US7624016B2 (en) * | 2004-07-23 | 2009-11-24 | Microsoft Corporation | Method and apparatus for robustly locating user barge-ins in voice-activated command systems |
US7742911B2 (en) * | 2004-10-12 | 2010-06-22 | At&T Intellectual Property Ii, L.P. | Apparatus and method for spoken language understanding by using semantic role labeling |
WO2006069381A2 (en) * | 2004-12-22 | 2006-06-29 | Enterprise Integration Group | Turn-taking confidence |
JP4680691B2 (ja) * | 2005-06-15 | 2011-05-11 | 富士通株式会社 | 対話システム |
US7321856B1 (en) * | 2005-08-03 | 2008-01-22 | Microsoft Corporation | Handling of speech recognition in a declarative markup language |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US8600753B1 (en) * | 2005-12-30 | 2013-12-03 | At&T Intellectual Property Ii, L.P. | Method and apparatus for combining text to speech and recorded prompts |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
EP2259252B1 (en) * | 2009-06-02 | 2012-08-01 | Nuance Communications, Inc. | Speech recognition method for selecting a combination of list elements via a speech input |
US8311838B2 (en) * | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
WO2012150658A1 (ja) * | 2011-05-02 | 2012-11-08 | 旭化成株式会社 | 音声認識装置および音声認識方法 |
JP6066471B2 (ja) | 2012-10-12 | 2017-01-25 | 本田技研工業株式会社 | 対話システム及び対話システム向け発話の判別方法 |
US20140278404A1 (en) * | 2013-03-15 | 2014-09-18 | Parlant Technology, Inc. | Audio merge tags |
JP6391925B2 (ja) * | 2013-09-20 | 2018-09-19 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
US8862467B1 (en) * | 2013-12-11 | 2014-10-14 | Google Inc. | Contextual speech recognition |
JP6539940B2 (ja) * | 2013-12-19 | 2019-07-10 | 株式会社デンソー | 音声認識装置及び音声認識プログラム |
JP2015184563A (ja) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム |
KR101770187B1 (ko) * | 2014-03-27 | 2017-09-06 | 한국전자통신연구원 | 음성 대화를 통한 네비게이션 제어 장치 및 방법 |
US10289433B2 (en) * | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9390706B2 (en) * | 2014-06-19 | 2016-07-12 | Mattersight Corporation | Personality-based intelligent personal assistant system and methods |
US9792901B1 (en) * | 2014-12-11 | 2017-10-17 | Amazon Technologies, Inc. | Multiple-source speech dialog input |
US10311862B2 (en) * | 2015-12-23 | 2019-06-04 | Rovi Guides, Inc. | Systems and methods for conversations with devices about media using interruptions and changes of subjects |
JP2018054790A (ja) * | 2016-09-28 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話システムおよび音声対話方法 |
JP6515897B2 (ja) * | 2016-09-28 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話システムおよび発話意図理解方法 |
-
2016
- 2016-09-28 JP JP2016189406A patent/JP6515897B2/ja active Active
-
2017
- 2017-09-14 US US15/704,691 patent/US10319379B2/en active Active
- 2017-09-28 CN CN201710894125.7A patent/CN107871503B/zh active Active
-
2019
- 2019-04-22 US US16/390,261 patent/US11087757B2/en active Active
-
2021
- 2021-07-02 US US17/366,270 patent/US11900932B2/en active Active
-
2023
- 2023-12-14 US US18/539,604 patent/US20240112678A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151562A (ja) * | 2002-10-31 | 2004-05-27 | Seiko Epson Corp | 音声対話制御方法および音声対話制御装置 |
JP2016501391A (ja) * | 2012-12-20 | 2016-01-18 | アマゾン テクノロジーズ インコーポレーテッド | 発話対象の識別 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019155716A1 (ja) * | 2018-02-08 | 2019-08-15 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2019219452A (ja) * | 2018-06-18 | 2019-12-26 | 株式会社デンソーアイティーラボラトリ | 対話システム、対話方法、およびプログラム |
JP7512254B2 (ja) | 2019-03-26 | 2024-07-08 | 株式会社Nttドコモ | 音声対話システム、モデル生成装置、バージイン発話判定モデル及び音声対話プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11087757B2 (en) | 2021-08-10 |
US11900932B2 (en) | 2024-02-13 |
US20240112678A1 (en) | 2024-04-04 |
CN107871503A (zh) | 2018-04-03 |
US20210335362A1 (en) | 2021-10-28 |
US20190244620A1 (en) | 2019-08-08 |
CN107871503B (zh) | 2023-02-17 |
US20180090144A1 (en) | 2018-03-29 |
US10319379B2 (en) | 2019-06-11 |
JP6515897B2 (ja) | 2019-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515897B2 (ja) | 音声対話システムおよび発話意図理解方法 | |
US9384736B2 (en) | Method to provide incremental UI response based on multiple asynchronous evidence about user input | |
US9159314B2 (en) | Distributed speech unit inventory for TTS systems | |
JP2018054790A (ja) | 音声対話システムおよび音声対話方法 | |
US20170103757A1 (en) | Speech interaction apparatus and method | |
JP6024675B2 (ja) | 音声認識端末装置、音声認識システム、音声認識方法 | |
CN109754793B (zh) | 用于推荐车辆的功能的装置和方法 | |
EP2963644A1 (en) | Audio command intent determination system and method | |
JP5195414B2 (ja) | 応答生成装置及びプログラム | |
JP2010152119A (ja) | 応答生成装置及びプログラム | |
JP2014191030A (ja) | 音声認識端末およびコンピュータ端末を用いる音声認識方法 | |
JP6614080B2 (ja) | 音声対話システムおよび音声対話方法 | |
JP2018049132A (ja) | 音声対話システムおよび音声対話方法 | |
JP2018097029A (ja) | 音声認識装置および音声認識方法 | |
JP6468258B2 (ja) | 音声対話装置および音声対話方法 | |
JP5818753B2 (ja) | 音声対話システム及び音声対話方法 | |
JP2007187799A (ja) | 音声対話装置および音声対話方法 | |
KR20180066513A (ko) | 자동 통역 방법 및 장치, 및 기계 번역 방법 | |
JP4798039B2 (ja) | 音声対話装置および方法 | |
JP2008157987A (ja) | 対話制御装置、対話制御方法及び対話制御プログラム | |
JP6176137B2 (ja) | 音声対話装置、音声対話システム及びプログラム | |
JP2011175304A (ja) | 音声対話装置および方法 | |
KR102034220B1 (ko) | 인공지능 컴퓨팅 플랫폼 및 그 개인화 설정 방법 | |
JP6538399B2 (ja) | 音声処理装置、音声処理方法およびプログラム | |
JP2014021425A (ja) | 音声認識システム及び集積回路装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6515897 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |