JPWO2007013521A1 - ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム - Google Patents
ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2007013521A1 JPWO2007013521A1 JP2007526878A JP2007526878A JPWO2007013521A1 JP WO2007013521 A1 JPWO2007013521 A1 JP WO2007013521A1 JP 2007526878 A JP2007526878 A JP 2007526878A JP 2007526878 A JP2007526878 A JP 2007526878A JP WO2007013521 A1 JPWO2007013521 A1 JP WO2007013521A1
- Authority
- JP
- Japan
- Prior art keywords
- subtask
- domain
- knowledge
- task
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Abstract
Description
11 音声認識部
13 ドメイン選択部
17 行動選択部
19 行動実行部
23 タスク計画部
25 サブタスク知識
31a〜31n 音声理解部
37a〜37n 行動抽出部
41a〜41n タスク抽出部
43a〜43n タスク知識
次に図面を参照して、この発明の実施の形態を説明する。図1は、本発明の一実施形態による音声インタラクティブ装置10の機能ブロック図である。
次に、図2を参照して音声インタラクティブ装置10の発話理解処理について説明する。図2は、発話理解処理のフローチャートである。
「<日にち>の<場所>の<情報種別>を教えて」
というものある。この例示した文パターンでは、<日にち>、<場所>、<情報種別>という3つのカテゴリを含んでいる。各カテゴリは対応したキーワードリストを持つ。
「<日にち>の<場所>の<情報種別>を教えて」
という文パターンに適合させると、
<日にち>=明日、 <場所>=“空白”、<情報種別>=天気
という結果となる。このとき、3つのカテゴリのうち2つのカテゴリが音声認識結果と適合しているので、適合度は「2」または「2/3」と表される。
「<日にち=明日>の<場所=“空白”>の
<情報種別=天気>を教えて」
のように表される。また、「適合済み文パターン」に各単語の信頼度を加えても良い。例えば、「明日」という単語の音声認識の信頼度を0.9、「天気」という単語の音声認識の信頼度を0.7とすると、適合済み文パターンは、
「<日にち=明日(0.9)>の<場所=“空白”(0.0)>の
<情報種別=天気(0.7)>を教えて」
のように表される。
次に、図3および図4を参照して音声インタラクティブ装置10の行動選択処理について説明する。図3は、行動選択処理のフローチャートである。
a)行動知識39aの中の行動選択規則を参照して、状態格納部35aの音声理解結果に対応した行動またはサブタスク終了フラグを選択する(ステップS305)。
<タスク=呼ぶ、人=<X>>
というタスクは、
(i) <サブタスク=人の位置を知る、人=X>
(ii) <サブタスク=人に近づく、人=X>
(iii)<サブタスク=呼ばれていることを伝える、人=X>
というサブタスクの系列に分解される。
(3−1) 行動が入力された場合は、その行動を行動実行部19に出力する(S329)。行動実行部19は、行動選択部17より行動が入力されるとそれを実行し、実行開始時間を行動履歴格納部21に格納する。実行を終了すると、当該行動と実行終了時間を行動履歴格納部21に格納する。
4.1 概略
次に、4つのドメインa〜dを持つロボットとユーザ(アンリさん)との対話を通じたインタラクションの実施例を示す。
ロボット 「ジダンさんはどこにいますか?」
アンリさん 「ドレッシングルーム」
ロボット 「ジダンさんはどこにいますか?」
アンリさん 「ドレッシングルーム」
ロボット 「わかりました」
(ジダンさんのところに移動を始める)
ロボット 「アンリさんが呼んでいます」
初期状態では、全ての格納部の中身は空である。
行動選択部17は、100ミリ秒間隔で行動履歴格納部21を参照する。
(ii) <サブタスク=人に近づく、人=ジダンさん> ・・・・・・・・・・ドメインc
(iii) <サブタスク=呼ばれていることを伝える、人=ジダンさん> ・・ドメインd
行動選択部17は、サブタスク(i)のドメインである「人の位置を知る情報取得ドメインb」を当該ドメイン格納部15に格納し、当該ドメインの行動抽出部37bにサブタスク(i)を出力する。
行動選択部17は、再度(100ミリ秒後)、行動履歴格納部21と当該ドメイン格納部15を参照してユーザ発話終了フラグを検出し、行動選択処理を行う。
「 <人=ジダンさん>は<どこ=“空白”>」
という音声理解結果が格納されており、サブタスクが
(i)<サブタスク=人の位置を知る、人=ジダンさん>
なので、
<行動=位置を尋ねる、人=<人>>
という規則を 選択し、
<行動=位置を尋ねる、人=ジダンさん>
という行動を得る。
「ジダンさんはどこにいますか?」
という文に変換し、行動選択部17に出力する。
<行動=繰り返し要求発話生成、相手=ユーザ>
という行動を得る。
「ジダンさんはどこにいますか?」
という文に変換して行動選択部17に出力する。
「ドレッシングルーム」
と発話すると、今度は高い評価値で認識される。
「 <人=ジダンさん>は<どこ=ドレッシングルーム>」
という適合済み文パターンが、高い適合度で音声理解結果として格納される。
「 <人=ジダンさん>は<どこ=ドレッシングルーム>」
という良好な音声理解結果と、
(i)<サブタスク=人の位置を知る、人=ジダンさん>
というサブタスクを行動選択規則と参照し、文パターンの全カテゴリに単語が適合しかつ適合度が高いことから、サブタスク終了フラグを行動選択部17に出力する。
(ii)<サブタスク=人に近づく、人=ジダンさん> 「移動するドメインc」
というサブタスクを行動選択部17に出力する。
行動選択部17は再度(100ミリ秒後)、行動履歴格納部21と当該ドメイン格納部15を参照してまだ立っている発話終了フラグを検出し、行動選択処理を行う。
「 <人=ジダンさん>は<どこ=ドレッシングルーム>」
という音声理解結果と、
(ii)<サブタスク=人に近づく、人=ジダンさん>
というサブタスクを行動選択規則と参照し、
<行動=了解発話生成後移動、位置=<どこ>>
という規則を選択して、
<行動=了解発話生成後移動、位置=ドレッシングルーム>
という行動を得、行動選択部17に出力する。
「分かりました」
と発話してからロボットをドレッシングルームに移動させ、到着したら移動という当該行動と実行終了時間を行動履歴格納部21に格納する。
数分の後、行動選択部17は行動終了を検出し、行動選択処理を行う。
(ii)<サブタスク=人に近づく、人=ジダンさん>
と行動履歴格納部21の行動履歴を行動選択規則と参照してサブタスク終了フラグを選択し、行動選択部17に出力する。
(iii)<サブタスク=呼ばれていることを伝える、人=ジダンさん>
「呼ばれているという情報の提供ドメインd」
というサブタスク(iii)を行動選択部17に出力する。
(iii)<サブタスク=呼ばれていることを伝える、人=ジダンさん>
を行動選択規則と照らし合わせ、
<行動=人へ情報を伝える発話生成、人=ジダンさん>
という行動を得る。
「アンリさんが呼んでいます」
という発話文に変換して行動選択部17に出力する。
行動選択部17は、行動履歴格納部21を参照して行動終了を知り、行動選択処理を行う。
(iii)<サブタスク=呼ばれていることを伝える、人=ジダンさん>
と、行動履歴を行動選択規則と照らし合わせ、サブタスク終了フラグを選択し、行動選択部17に出力する。
Claims (15)
- ユーザと機械とのインタラクションを実施する装置であって、
前記装置は、前記インタラクションにおける複数の段階に対応する複数のドメインを有し、該複数のドメインのそれぞれは、前記ユーザの音声の内容を理解して音声理解結果を出力する音声理解手段を備えており、
マイクロフォンで検出された信号から前記ユーザの音声を認識する手段と、
前記音声理解手段のそれぞれに前記ユーザの音声を送り、前記音声理解手段のそれぞれから前記音声理解結果を受け取り、最良の音声理解結果をとる音声理解手段が含まれるドメインを当該ドメインとして選択する手段と、
前記複数のドメインのそれぞれに含まれるタスク知識のうち前記当該ドメインのタスク知識を参照して、前記音声理解結果に関連付けられたタスクを抽出する手段と、
タスクの種類に関連付けられる複数のサブタスクを含むサブタスク知識を参照して、前記抽出されたタスクに関連付けられたサブタスク系列を求める手段と、
前記サブタスク系列の先頭のサブタスクを当該サブタスクとし、当該サブタスクの属するドメインを当該ドメインとして更新する手段と、
前記複数のドメインのそれぞれに含まれる行動知識のうち当該ドメインの行動知識を参照して、前記音声理解結果および前記サブタスクに関連付けられた行動またはサブタスク終了フラグを抽出する手段と、
前記抽出された行動を前記機械に実行させる手段と、
を備える装置。 - 前記サブタスク知識は、前記タスクに関連付けられる1つ以上のサブタスクに関する知識と、前記サブタスクに関連付けられるドメインに関する知識と、を含む、請求項1に記載の装置。
- 前記音声理解手段のそれぞれは、対応するドメインに関連性の高い複数の文パターンを含む音声知識を参照して、前記音声と前記複数の文パターンのそれぞれとの適合度を算出し、適合度が最も高い文パターンを選択し、前記選択された文パターンおよび該文パターンの適合度を音声理解結果として出力する、請求項1に記載の装置。
- 前記選択する手段は、前記適合度に前記複数のドメインごとに設定された重みを乗じて信頼度を算出し、最大の信頼度をとるドメインを当該ドメインとして選択する、請求項3に記載の装置。
- 前記更新する手段は、前記行動またはサブタスク終了フラグを抽出する手段がサブタスク終了フラグを抽出すると、前記サブタスク系列における当該サブタスクの次のサブタスクを新たな当該サブタスクとして更新し、新たな当該サブタスクの属するドメインを当該ドメインとして更新する、請求項1に記載の装置。
- ユーザと機械とのインタラクションを実施するための方法であって、
マイクロフォンで検出された信号からユーザの音声を認識するステップと、
前記インタラクションにおける複数の段階に対応する複数のドメインのそれぞれに前記ユーザの音声を送るステップと、
前記複数のドメインのそれぞれにおいて、前記音声の内容を理解して音声理解結果を出力するステップと、
前記複数のドメインのそれぞれから前記音声理解結果を受け取るステップと、
前記複数の音声理解結果のうち最良の音声理解結果をとるドメインを、当該ドメインとして選択するステップと、
前記複数のドメインのそれぞれに含まれるタスク知識のうち前記当該ドメインのタスク知識を参照して、前記音声理解結果に関連付けられたタスクを抽出するステップと、
タスクの種類に関連付けられた複数のサブタスクを含むサブタスク知識を参照して、前記抽出されたタスクに関連付けられたサブタスク系列を求めるステップと、
前記サブタスク系列の先頭のサブタスクを当該サブタスクとし、当該サブタスクの属するドメインを当該ドメインとして更新するステップと、
前記複数のドメインのそれぞれに含まれる行動知識のうち当該ドメインの行動知識を参照して、前記音声理解結果および前記サブタスクに関連付けられた行動またはサブタスク終了フラグを抽出するステップと、
前記抽出された行動を前記機械に実行させるステップと、
を含む方法。 - 前記サブタスク知識は、前記タスクに関連付けられる1つ以上のサブタスクに関する知識と、前記サブタスクに関連付けられるドメインに関する知識と、を含む、請求項6に記載の方法。
- 前記出力するステップは、
対応するドメインに関連性の高い複数の文パターンを含む音声知識を参照して、前記音声と前記複数の文パターンのそれぞれとの適合度を算出するステップと、
前記適合度が最も高い文パターンを選択し、選択された文パターンおよび該文パターンの適合度を音声理解結果として出力するステップと、
を含む、請求項6に記載の方法。 - 前記選択するステップは、前記適合度に前記複数のドメインごとに設定された重みを乗じて信頼度を算出し、最大の信頼度をとるドメインを当該ドメインとして選択するステップを含む、請求項8に記載の方法。
- 前記更新するステップは、前記行動またはサブタスク終了フラグを抽出するステップにおいてサブタスク終了フラグが抽出されると、前記サブタスク系列における当該サブタスクの次のサブタスクを新たな当該サブタスクとして更新し、新たな当該サブタスクの属するドメインを当該ドメインとして更新するステップを含む、請求項6に記載の方法。
- ユーザと機械とのインタラクションを実施するためのプログラムであって、
マイクロフォンで検出された信号からユーザの音声を認識する機能と、
ユーザとのインタラクションにおける複数の段階に対応する複数のドメインのそれぞれに前記ユーザの音声を送る機能と、
前記複数のドメインのそれぞれにおいて、前記音声の内容を理解して音声理解結果を出力する機能と、
前記複数のドメインのそれぞれから、前記音声理解結果を受け取る機能と、
前記複数の音声理解結果のうち最良の音声理解結果をとるドメインを、当該ドメインとして選択する機能と、
前記複数のドメインのそれぞれに含まれるタスク知識のうち前記当該ドメインのタスク知識を参照して、前記音声理解結果に関連付けられたタスクを抽出する機能と、
タスクの種類に関連付けられる複数のサブタスクを含むサブタスク知識を参照して、前記抽出されたタスクに関連付けられたサブタスク系列を求める機能と、
前記サブタスク系列の先頭のサブタスクを当該サブタスクとし、当該サブタスクの属するドメインを当該ドメインとして更新する機能と、
前記複数のドメインのそれぞれに含まれる行動知識のうち当該ドメインの行動知識を参照して、前記音声理解結果および前記サブタスクに関連付けられた行動またはサブタスク終了フラグを抽出する機能と、
前記抽出された行動を前記機械に実行させる機能と、
をコンピュータに実現させる、コンピュータ読取り可能な記録媒体に記録されたプログラム。 - 前記サブタスク知識は、前記タスクに関連付けられる1つ以上のサブタスクに関する知識と、前記サブタスクに関連付けられるドメインに関する知識と、を含む、請求項11に記載のプログラム。
- 前記出力する機能は、
対応するドメインに関連性の高い複数の文パターンを含む音声知識を参照して、前記音声と前記複数の文パターンのそれぞれとの適合度を算出する機能と、
前記適合度が最も高い文パターンを選択し、選択された文パターンおよび該文パターンの適合度を音声理解結果として出力する機能と、
を含む、請求項11に記載のプログラム。 - 前記選択する機能は、前記適合度に前記複数のドメインごとに設定された重みを乗じて信頼度を算出し、最大の信頼度をとるドメインを当該ドメインとして選択する機能を含む、請求項13に記載のプログラム。
- 前記更新する機能は、前記行動またはサブタスク終了フラグを抽出する機能においてサブタスク終了フラグが抽出されると、前記サブタスク系列における当該サブタスクの次のサブタスクを新たな当該サブタスクとして更新し、新たな当該サブタスクの属するドメインを当該ドメインとして更新する機能を含む、請求項11に記載のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US70305005P | 2005-07-26 | 2005-07-26 | |
US60/703,050 | 2005-07-26 | ||
PCT/JP2006/314786 WO2007013521A1 (ja) | 2005-07-26 | 2006-07-26 | ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007013521A1 true JPWO2007013521A1 (ja) | 2009-02-12 |
JP4901736B2 JP4901736B2 (ja) | 2012-03-21 |
Family
ID=37683412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007526878A Expired - Fee Related JP4901736B2 (ja) | 2005-07-26 | 2006-07-26 | ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8352273B2 (ja) |
JP (1) | JP4901736B2 (ja) |
WO (1) | WO2007013521A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658926A (zh) * | 2018-11-28 | 2019-04-19 | 维沃移动通信有限公司 | 一种语音指令的更新方法及移动终端 |
JP2019079034A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社日立製作所 | 自己学習自然言語理解を伴うダイアログ・システム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
JP5715526B2 (ja) * | 2010-08-12 | 2015-05-07 | 本田技研工業株式会社 | 対話処理装置、対話処理方法、及び対話処理プログラム |
US10026394B1 (en) | 2012-08-31 | 2018-07-17 | Amazon Technologies, Inc. | Managing dialogs on a speech recognition platform |
JP5974903B2 (ja) * | 2013-01-08 | 2016-08-23 | 株式会社ナカヨ | 予定に係る音声メモ蓄積方法 |
US9761228B2 (en) * | 2013-02-25 | 2017-09-12 | Mitsubishi Electric Corporation | Voice recognition system and voice recognition device |
JP2014191549A (ja) * | 2013-03-27 | 2014-10-06 | Intelligent Wave Inc | 口語解析サーバ、口語解析装置、口語解析プログラム及び口語解析方法 |
US20160163314A1 (en) * | 2013-11-25 | 2016-06-09 | Mitsubishi Electric Corporation | Dialog management system and dialog management method |
EP3324305A4 (en) * | 2015-07-13 | 2018-12-05 | Teijin Limited | Information processing apparatus, information processing method, and computer program |
JP6726388B2 (ja) * | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | ロボット制御システム |
JP6146703B2 (ja) * | 2016-07-04 | 2017-06-14 | 株式会社ナカヨ | 予定に係る音声メモ蓄積方法 |
JP2018167339A (ja) * | 2017-03-29 | 2018-11-01 | 富士通株式会社 | 発話制御プログラム、情報処理装置及び発話制御方法 |
US20180315131A1 (en) * | 2017-04-28 | 2018-11-01 | Hrb Innovations, Inc. | User-aware interview engine |
JP7143665B2 (ja) * | 2018-07-27 | 2022-09-29 | 富士通株式会社 | 音声認識装置、音声認識プログラムおよび音声認識方法 |
WO2021029627A1 (en) | 2019-08-13 | 2021-02-18 | Samsung Electronics Co., Ltd. | Server that supports speech recognition of device, and operation method of the server |
WO2021029643A1 (en) * | 2019-08-13 | 2021-02-18 | Samsung Electronics Co., Ltd. | System and method for modifying speech recognition result |
US11532310B2 (en) | 2019-08-13 | 2022-12-20 | Samsung Electronics Co., Ltd. | System and method for recognizing user's speech |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117921A (ja) | 1999-10-15 | 2001-04-27 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
JP2001343993A (ja) | 2000-05-30 | 2001-12-14 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2001356797A (ja) | 2000-06-14 | 2001-12-26 | Nippon Telegr & Teleph Corp <Ntt> | 対話制御方法及びシステム及び対話制御プログラムを格納した記憶媒体 |
CA2437614C (en) | 2001-02-28 | 2011-06-14 | Voice-Insight | Natural language query system for accessing an information system |
JP4174233B2 (ja) | 2002-04-24 | 2008-10-29 | 株式会社日立製作所 | 音声対話システム及び音声対話方法 |
US7398209B2 (en) * | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
JP4191021B2 (ja) | 2003-12-01 | 2008-12-03 | 株式会社国際電気通信基礎技術研究所 | ドメイン検証器のトレーニング装置、入力データのドメイン検証装置、及びコンピュータプログラム |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
-
2006
- 2006-07-26 WO PCT/JP2006/314786 patent/WO2007013521A1/ja active Application Filing
- 2006-07-26 JP JP2007526878A patent/JP4901736B2/ja not_active Expired - Fee Related
- 2006-07-26 US US11/989,409 patent/US8352273B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019079034A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社日立製作所 | 自己学習自然言語理解を伴うダイアログ・システム |
CN109658926A (zh) * | 2018-11-28 | 2019-04-19 | 维沃移动通信有限公司 | 一种语音指令的更新方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2007013521A1 (ja) | 2007-02-01 |
US8352273B2 (en) | 2013-01-08 |
US20100131277A1 (en) | 2010-05-27 |
JP4901736B2 (ja) | 2012-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4901736B2 (ja) | ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム | |
JP6465077B2 (ja) | 音声対話装置および音声対話方法 | |
JP5386692B2 (ja) | 対話型学習装置 | |
KR100826875B1 (ko) | 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치 | |
KR101622111B1 (ko) | 대화 시스템 및 그의 대화 방법 | |
US8566097B2 (en) | Lexical acquisition apparatus, multi dialogue behavior system, and lexical acquisition program | |
JP5494468B2 (ja) | 状態検出装置、状態検出方法および状態検出のためのプログラム | |
JP6654611B2 (ja) | 成長型対話装置 | |
JP2004090109A (ja) | ロボット装置およびロボット装置の対話方法 | |
CN110570879A (zh) | 基于情绪识别的智能会话方法、装置及计算机设备 | |
JP2011054088A (ja) | 情報処理装置、情報処理方法、プログラム及び対話システム | |
CN110473533B (zh) | 语音对话系统、语音对话方法以及程序 | |
KR20150145024A (ko) | 화자적응 음성인식 시스템의 단말 및 서버와 그 운용 방법 | |
JP2019020684A (ja) | 感情インタラクションモデル学習装置、感情認識装置、感情インタラクションモデル学習方法、感情認識方法、およびプログラム | |
KR101065188B1 (ko) | 진화 학습에 의한 화자 적응 장치 및 방법과 이를 이용한 음성인식 시스템 | |
KR20200074690A (ko) | 전자 장치 및 이의 제어 방법 | |
JP2011215742A (ja) | 対話システム、対話フローの更新方法およびプログラム | |
CN109065026B (zh) | 一种录音控制方法及装置 | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
JP6468258B2 (ja) | 音声対話装置および音声対話方法 | |
JP2018155980A (ja) | 対話装置および対話方法 | |
Loh et al. | Speech recognition interactive system for vehicle | |
JP2004251998A (ja) | 対話理解装置 | |
JP2009116075A (ja) | 音声認識装置 | |
JP5610283B2 (ja) | 外部機器制御装置、その外部機器制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111227 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4901736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150113 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |