JPH08339288A - 情報処理装置及びその制御方法 - Google Patents
情報処理装置及びその制御方法Info
- Publication number
- JPH08339288A JPH08339288A JP7147291A JP14729195A JPH08339288A JP H08339288 A JPH08339288 A JP H08339288A JP 7147291 A JP7147291 A JP 7147291A JP 14729195 A JP14729195 A JP 14729195A JP H08339288 A JPH08339288 A JP H08339288A
- Authority
- JP
- Japan
- Prior art keywords
- task
- execution
- sentence
- voice
- tasks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】
【目的】応答文の形態およびその合成音声をタスク毎に
変化させることを可能とし、音声対話処理において利用
者にタスクが変わったことを認識させる。 【構成】実行可能な複数のタスクを有する情報処理装置
(音声対話装置)において、複数のタスクのそれぞれに
対応して異なるエージェントが割り当てられ、エージェ
ント属性保持部108に格納される。一方、音声認識部
102で認識された入力文は入力文解析部103で解析
される。タスク判定部104はこの解析結果に基づいて
使用すべきタスクを決定し、上記入力文に基づく、実行
タスクに適応するコマンドを生成する。文生成部109
は、このコマンドを実行タスクで実行して得られた実行
結果に基づく応答文を生成する。この応答文は、当該実
行タスクに対応するエージェントの属性情報に従って形
成されるとともに、音声合成部110はこの応答文を上
記属性情報に従って音声合成する。
変化させることを可能とし、音声対話処理において利用
者にタスクが変わったことを認識させる。 【構成】実行可能な複数のタスクを有する情報処理装置
(音声対話装置)において、複数のタスクのそれぞれに
対応して異なるエージェントが割り当てられ、エージェ
ント属性保持部108に格納される。一方、音声認識部
102で認識された入力文は入力文解析部103で解析
される。タスク判定部104はこの解析結果に基づいて
使用すべきタスクを決定し、上記入力文に基づく、実行
タスクに適応するコマンドを生成する。文生成部109
は、このコマンドを実行タスクで実行して得られた実行
結果に基づく応答文を生成する。この応答文は、当該実
行タスクに対応するエージェントの属性情報に従って形
成されるとともに、音声合成部110はこの応答文を上
記属性情報に従って音声合成する。
Description
【0001】
【産業上の利用分野】本発明は複数のタスクを切り替え
ることで複数種類の処理の実行が可能な情報処理装置及
びその制御方法に関し、特に、音声対話装置への適用に
好適な情報処理装置及びその制御方法に関するものであ
る。
ることで複数種類の処理の実行が可能な情報処理装置及
びその制御方法に関し、特に、音声対話装置への適用に
好適な情報処理装置及びその制御方法に関するものであ
る。
【0002】
【従来の技術】近年の自然言語処理技術の向上、音声認
識/合成技術の向上により、複数のタスクを扱える音声
対話装置が実現されるようになってきた。この種の音声
対話装置においては、音声によって入力された情報に基
づいて処理すべきタスクを選択、起動し、起動されたタ
スクにより入力された情報に対応する処理が実行され
る。そして、この処理結果に基づいて、合成音声が生成
され、出力される。
識/合成技術の向上により、複数のタスクを扱える音声
対話装置が実現されるようになってきた。この種の音声
対話装置においては、音声によって入力された情報に基
づいて処理すべきタスクを選択、起動し、起動されたタ
スクにより入力された情報に対応する処理が実行され
る。そして、この処理結果に基づいて、合成音声が生成
され、出力される。
【0003】
【発明が解決しようとする課題】しかしながら、上記従
来の装置では、出力である応答文の形態および合成音声
が画一的であるため、利用者は、異なるタスクが起動さ
れたか否かをその音声出力から把握することはできなか
った。従って、利用者が音声対話装置の各タスクの能力
を把握できず、複数のタスクにまたがった処理を要求し
てしまう可能性がある。即ち、利用者は、音声対話装置
の能力を把握できず、タスクの複合を必要とする処理な
ど、当該音声対話装置の能力以上の処理を要求をしてし
まうという問題があった。
来の装置では、出力である応答文の形態および合成音声
が画一的であるため、利用者は、異なるタスクが起動さ
れたか否かをその音声出力から把握することはできなか
った。従って、利用者が音声対話装置の各タスクの能力
を把握できず、複数のタスクにまたがった処理を要求し
てしまう可能性がある。即ち、利用者は、音声対話装置
の能力を把握できず、タスクの複合を必要とする処理な
ど、当該音声対話装置の能力以上の処理を要求をしてし
まうという問題があった。
【0004】本発明は、上記従来技術の問題に鑑みてな
されたものであり、タスク毎に出力される応答文の形態
を変化させることを可能とし、利用者にタスクが変わっ
たことを認識させることが可能な情報処理装置及びその
制御方法を提供することを目的とする。
されたものであり、タスク毎に出力される応答文の形態
を変化させることを可能とし、利用者にタスクが変わっ
たことを認識させることが可能な情報処理装置及びその
制御方法を提供することを目的とする。
【0005】また、本発明の他の目的は、応答文の形態
およびその合成音声をタスク毎に変化させることを可能
とし、音声対話処理において利用者にタスクが変わった
ことを認識させる情報処理装置及びその制御方法を提供
することにある。
およびその合成音声をタスク毎に変化させることを可能
とし、音声対話処理において利用者にタスクが変わった
ことを認識させる情報処理装置及びその制御方法を提供
することにある。
【0006】また、利用者にタスクの切り替わりを認識
させることで、各タスクの能力を把握させ、これによ
り、利用者が音声対話装置の能力以上の要求を行うこと
を抑制する。
させることで、各タスクの能力を把握させ、これによ
り、利用者が音声対話装置の能力以上の要求を行うこと
を抑制する。
【0007】
【課題を解決するための手段】上記の目的を達成するた
めの本発明の情報処理装置は以下の構成を備えている。
即ち、実行可能な複数のタスクを有する情報処理装置で
あって、前記複数のタスクのそれぞれに対応して異なる
生成情報を格納する格納手段と、入力文を解析して前記
複数のタスクの中から使用すべき実行タスクを決定する
決定手段と、前記入力文に基づいて前記決定手段で決定
された実行タスクに適応するコマンドを生成し、該コマ
ンドを該実行タスクで実行して実行結果を得る実行手段
と、前記格納手段に格納されている前記実行タスクに対
応する生成情報と前記実行手段で得られた実行結果とに
基づいて応答文を生成する生成手段と、前記生成手段で
生成された応答文を出力する出力手段とを備える。
めの本発明の情報処理装置は以下の構成を備えている。
即ち、実行可能な複数のタスクを有する情報処理装置で
あって、前記複数のタスクのそれぞれに対応して異なる
生成情報を格納する格納手段と、入力文を解析して前記
複数のタスクの中から使用すべき実行タスクを決定する
決定手段と、前記入力文に基づいて前記決定手段で決定
された実行タスクに適応するコマンドを生成し、該コマ
ンドを該実行タスクで実行して実行結果を得る実行手段
と、前記格納手段に格納されている前記実行タスクに対
応する生成情報と前記実行手段で得られた実行結果とに
基づいて応答文を生成する生成手段と、前記生成手段で
生成された応答文を出力する出力手段とを備える。
【0008】また、好ましくは、前記生成情報は、前記
生成手段で生成される応答文の文体を規定する。例え
ば、「です・ます調」、「である調」、「ございます
調」というように文体を変更することで、利用者は容易
にタスクの切り換えを認識できようになる。この場合、
応答文を音声出力しても表示出力しても利用者はタスク
の切り換えを認識できる。
生成手段で生成される応答文の文体を規定する。例え
ば、「です・ます調」、「である調」、「ございます
調」というように文体を変更することで、利用者は容易
にタスクの切り換えを認識できようになる。この場合、
応答文を音声出力しても表示出力しても利用者はタスク
の切り換えを認識できる。
【0009】また、好ましくは、前記生成情報は、前記
生成手段で生成される応答文の表示色を規定する。表示
色の変化でタスクの切り換えを表すので、利用者は極め
て容易にタスクの切り換えを判断できる。
生成手段で生成される応答文の表示色を規定する。表示
色の変化でタスクの切り換えを表すので、利用者は極め
て容易にタスクの切り換えを判断できる。
【0010】また、好ましくは、前記出力手段は、前記
応答文に基づいて音声合成を行い、音声出力を行う。
応答文に基づいて音声合成を行い、音声出力を行う。
【0011】また、上記の目的を達成する本発明の他の
構成による情報処理装置は、実行可能な複数のタスクを
有する情報処理装置であって、前記複数のタスクのそれ
ぞれに対応して異なる生成情報を格納する格納手段と、
入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定手段と、前記入力文に基づい
て前記決定手段で決定された実行タスクに適応するコマ
ンドを生成し、該コマンドを該実行タスクで実行して実
行結果を得る実行手段と、前記格納手段に格納されてい
る前記実行タスクに対応する生成情報と前記実行手段で
得られた実行結果とに基づいて応答文を生成する生成手
段と、前記格納手段に格納されている前記実行タスクに
対応する生成情報と前記生成手段で生成された応答文と
に基づいて音声合成する合成手段とを備える。
構成による情報処理装置は、実行可能な複数のタスクを
有する情報処理装置であって、前記複数のタスクのそれ
ぞれに対応して異なる生成情報を格納する格納手段と、
入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定手段と、前記入力文に基づい
て前記決定手段で決定された実行タスクに適応するコマ
ンドを生成し、該コマンドを該実行タスクで実行して実
行結果を得る実行手段と、前記格納手段に格納されてい
る前記実行タスクに対応する生成情報と前記実行手段で
得られた実行結果とに基づいて応答文を生成する生成手
段と、前記格納手段に格納されている前記実行タスクに
対応する生成情報と前記生成手段で生成された応答文と
に基づいて音声合成する合成手段とを備える。
【0012】また、好ましくは、入力された音声信号に
基づいて入力文を生成する入力文生成手段を更に備え
る。音声によって入力文を入力でき、これに対する応答
文を音声合成する音声対話装置を構成できるからであ
る。
基づいて入力文を生成する入力文生成手段を更に備え
る。音声によって入力文を入力でき、これに対する応答
文を音声合成する音声対話装置を構成できるからであ
る。
【0013】また、好ましくは、前記応答文を表示する
表示手段を更に備える。応答文を視覚的に認識でき、タ
スクの切り換えをより容易に把握できる。
表示手段を更に備える。応答文を視覚的に認識でき、タ
スクの切り換えをより容易に把握できる。
【0014】また、好ましくは、前記生成情報は、前記
生成手段で生成される応答文の前記表示手段による表示
色を規定する。応答文の表示色で切り換えを認識でき、
より直観的にタスクの切り換えを判断できるからであ
る。
生成手段で生成される応答文の前記表示手段による表示
色を規定する。応答文の表示色で切り換えを認識でき、
より直観的にタスクの切り換えを判断できるからであ
る。
【0015】また、好ましくは、前記生成情報は、前記
合成手段における音声合成処理の各パラメータを含む。
合成手段における音声合成処理の各パラメータを含む。
【0016】
【作用】上記の構成によれば、実行可能な複数のタスク
を有する情報処理装置において、複数のタスクのそれぞ
れに対応して異なる生成情報が格納される。入力文を解
析することにより、複数のタスクの中から使用すべきタ
スクが実行タスクとして決定される。そして、入力文に
基づく、実行タスクに適応するコマンドが生成される。
このコマンドを実行タスクで実行することにより、当該
コマンドに対する実行結果(入力文に対応する応答に相
当する)を得る。そして、予め格納されている生成情報
の中から、実行タスクに対応する生成情報を得て、この
生成情報と上記実行結果とに基づいて応答文を生成し、
出力する。
を有する情報処理装置において、複数のタスクのそれぞ
れに対応して異なる生成情報が格納される。入力文を解
析することにより、複数のタスクの中から使用すべきタ
スクが実行タスクとして決定される。そして、入力文に
基づく、実行タスクに適応するコマンドが生成される。
このコマンドを実行タスクで実行することにより、当該
コマンドに対する実行結果(入力文に対応する応答に相
当する)を得る。そして、予め格納されている生成情報
の中から、実行タスクに対応する生成情報を得て、この
生成情報と上記実行結果とに基づいて応答文を生成し、
出力する。
【0017】また、上記の他の構成によれば、実行可能
な複数のタスクを有する情報処理装置において、複数の
タスクのそれぞれに対応して異なる生成情報が格納され
る。入力文を解析することにより、複数のタスクの中か
ら使用すべきタスクが実行タスクとして決定される。そ
して、上記入力文に基づく、実行タスクに適応するコマ
ンドが生成される。このコマンドを実行タスクで実行す
ることによりして実行結果を得る。次に、予め格納され
ている生成情報の中から実行タスクに対応する生成情報
を得て、この生成情報と実行結果とに基づいて応答文を
生成する生成し、更に生成情報と応答文に基づいて音声
合成を行う。
な複数のタスクを有する情報処理装置において、複数の
タスクのそれぞれに対応して異なる生成情報が格納され
る。入力文を解析することにより、複数のタスクの中か
ら使用すべきタスクが実行タスクとして決定される。そ
して、上記入力文に基づく、実行タスクに適応するコマ
ンドが生成される。このコマンドを実行タスクで実行す
ることによりして実行結果を得る。次に、予め格納され
ている生成情報の中から実行タスクに対応する生成情報
を得て、この生成情報と実行結果とに基づいて応答文を
生成する生成し、更に生成情報と応答文に基づいて音声
合成を行う。
【0018】
【実施例】以下、添付の図面を参照して本発明の実施例
を詳細に説明する。
を詳細に説明する。
【0019】図1は実施例の音声対話装置のブロック構
成を示すブロック図である。同図において、101は音
声入出力部であり、マイクより入力された音声をA/D
変換して当該装置内部に取り込む一方、生成された応答
をD/A変換して、音声としてスピーカより出力する。
102は音声認識部であり、音声入出力部101より入
力された音声に対して音声認識を行い、入力文を生成す
る。103は文解析部であり、音声認識部102におい
て認識された入力文に対し、形態素解析、構文解析、意
味解析を行う。
成を示すブロック図である。同図において、101は音
声入出力部であり、マイクより入力された音声をA/D
変換して当該装置内部に取り込む一方、生成された応答
をD/A変換して、音声としてスピーカより出力する。
102は音声認識部であり、音声入出力部101より入
力された音声に対して音声認識を行い、入力文を生成す
る。103は文解析部であり、音声認識部102におい
て認識された入力文に対し、形態素解析、構文解析、意
味解析を行う。
【0020】104はタスク判定部であり、文解析部1
03における入力文の解析結果に基づいて実行するタス
クを判別し、実行するタスクに適応したコマンドを生成
する。タスク判別部104は、タスクを判別するための
タスク判別辞書301を保持している。本実施例では、
説明をわかりやすくするため2つのタスクを扱うものと
し、タスクAを内線案内のデータベース検索(例えば、
SQLを用いて検索の行えるリレーショナルデータベー
ス)、タスクBを観光案内の全文検索(例えばプレーン
テキスト(べた文字列)から条件とした文字列を含む文
書を検索するもの)とする。もちろん上記のデータベー
スの形態は一例であることは、いうまでもない。
03における入力文の解析結果に基づいて実行するタス
クを判別し、実行するタスクに適応したコマンドを生成
する。タスク判別部104は、タスクを判別するための
タスク判別辞書301を保持している。本実施例では、
説明をわかりやすくするため2つのタスクを扱うものと
し、タスクAを内線案内のデータベース検索(例えば、
SQLを用いて検索の行えるリレーショナルデータベー
ス)、タスクBを観光案内の全文検索(例えばプレーン
テキスト(べた文字列)から条件とした文字列を含む文
書を検索するもの)とする。もちろん上記のデータベー
スの形態は一例であることは、いうまでもない。
【0021】図3はタスク判別辞書301のデータ構成
例を示す図である。タスク判別部104では、文解析部
103で解析された解析結果中にタスク判別辞書301
に登録されている語が現れた場合に、そのタスクを扱う
ものとして、タスクを切り替える。例えば、「総務部の
鈴木部長の内線を知りたい。」という入力文についてタ
スク判定辞書301を参照すると、「総務部」、「部
長」、「内線」という語が存在するタスクAが選択され
る。
例を示す図である。タスク判別部104では、文解析部
103で解析された解析結果中にタスク判別辞書301
に登録されている語が現れた場合に、そのタスクを扱う
ものとして、タスクを切り替える。例えば、「総務部の
鈴木部長の内線を知りたい。」という入力文についてタ
スク判定辞書301を参照すると、「総務部」、「部
長」、「内線」という語が存在するタスクAが選択され
る。
【0022】この結果、タスク判定部104は、タスク
Aが解釈可能な、select(内線)from(内線テーブル)
where(名称=鈴木、所属=総務部、役職=部長)とい
うコマンドを生成し、これをタスクAに渡すことにな
る。
Aが解釈可能な、select(内線)from(内線テーブル)
where(名称=鈴木、所属=総務部、役職=部長)とい
うコマンドを生成し、これをタスクAに渡すことにな
る。
【0023】同様に、「箱根町にある美術館を教え
て。」という入力文に対しては、タスク判定辞書301
の参照によりタスクBが選択される。そして、タスク判
定部104はタスクBが解釈可能な、((C分類 美術
館)(C所在地 箱根町)(R 名称?))というコマ
ンドを生成し、これをタスクBに送ることになる。
て。」という入力文に対しては、タスク判定辞書301
の参照によりタスクBが選択される。そして、タスク判
定部104はタスクBが解釈可能な、((C分類 美術
館)(C所在地 箱根町)(R 名称?))というコマ
ンドを生成し、これをタスクBに送ることになる。
【0024】105はエージェント決定部であり、タス
ク判別部104で判別されたタスクに応じてエージェン
トを決定し、エージェントの切り替えを行う。106,
107は、それぞれ異なるタスクを実行するタスクA実
行部、タスクB実行部である。本例では、タスクA(内
線案内)に対しては「内線エージェント」が、タスクB
(観光案内)に対しては「観光エージェント」が夫々選
択されるとする。
ク判別部104で判別されたタスクに応じてエージェン
トを決定し、エージェントの切り替えを行う。106,
107は、それぞれ異なるタスクを実行するタスクA実
行部、タスクB実行部である。本例では、タスクA(内
線案内)に対しては「内線エージェント」が、タスクB
(観光案内)に対しては「観光エージェント」が夫々選
択されるとする。
【0025】108はエージェント属性保持部であり、
性別、語調などの文生成情報、及び声の高さ、発声速度
などの合成音声情報をエージェントごとに属性として保
持するエージェント属性保持部である。図4はエージェ
ント属性保持部108におけるデータ格納状態を表す図
である。図4に示されているように、エージェント属性
保持部108には、エージェント決定部で決定される
「内線エージェント」と「観光エージェント」の夫々
に、文生成情報及び合成音声情報が格納されている。
性別、語調などの文生成情報、及び声の高さ、発声速度
などの合成音声情報をエージェントごとに属性として保
持するエージェント属性保持部である。図4はエージェ
ント属性保持部108におけるデータ格納状態を表す図
である。図4に示されているように、エージェント属性
保持部108には、エージェント決定部で決定される
「内線エージェント」と「観光エージェント」の夫々
に、文生成情報及び合成音声情報が格納されている。
【0026】109は文生成部であり、エージェント決
定部105で決定されたエージェントの文生成情報をエ
ージェント属性保持部108より獲得し、これを参照し
てタスクA実行部106或はタスクB実行部107の実
行結果に基づく応答文を生成する。図5は応答文の生成
例を表す図である。図5では、上述のコマンドを用いた
対話例が示されいる。即ち、コマンドに含まれている検
索条件「鈴木」、「部長」、「内線」と、タスクAの実
行結果として得られた内線番号(ここでは「123
4」)を用いるとともに、内線エージェントの文生成情
報(女性、ございます調)に基づいて応答文が生成され
る。もちろん、観光エージェントのように結果のみで応
答するようにしても良い。この場合、応答文は、「12
34でございます」となる。なお、タスクBの実行結果
を出力する観光エージェントによる応答文も、上記内線
エージェントと同様である。
定部105で決定されたエージェントの文生成情報をエ
ージェント属性保持部108より獲得し、これを参照し
てタスクA実行部106或はタスクB実行部107の実
行結果に基づく応答文を生成する。図5は応答文の生成
例を表す図である。図5では、上述のコマンドを用いた
対話例が示されいる。即ち、コマンドに含まれている検
索条件「鈴木」、「部長」、「内線」と、タスクAの実
行結果として得られた内線番号(ここでは「123
4」)を用いるとともに、内線エージェントの文生成情
報(女性、ございます調)に基づいて応答文が生成され
る。もちろん、観光エージェントのように結果のみで応
答するようにしても良い。この場合、応答文は、「12
34でございます」となる。なお、タスクBの実行結果
を出力する観光エージェントによる応答文も、上記内線
エージェントと同様である。
【0027】110は音声合成部であり、エージェント
決定部105で決定されたエージェントの合成音声情報
をエージェント属性保持部108より獲得し、これを参
照して、文生成部109で生成された応答文の合成音声
を生成する。音声合成部110で生成された合成音声は
音声入出力部101のスピーカより音声として出力され
る。111は表示部であり、音声認識結果、対話の流
れ、タスクの実行結果、応答文などを出力する。上記に
おいて、女性、男性のエージェント属性は、文生成部1
09では、応答文において女性の話し言葉、男性の話し
言葉のいずれを用いるかを設定するのに参照され、音声
合成部110では女性、男性の声を生成するための音素
データの設定に用いられる。
決定部105で決定されたエージェントの合成音声情報
をエージェント属性保持部108より獲得し、これを参
照して、文生成部109で生成された応答文の合成音声
を生成する。音声合成部110で生成された合成音声は
音声入出力部101のスピーカより音声として出力され
る。111は表示部であり、音声認識結果、対話の流
れ、タスクの実行結果、応答文などを出力する。上記に
おいて、女性、男性のエージェント属性は、文生成部1
09では、応答文において女性の話し言葉、男性の話し
言葉のいずれを用いるかを設定するのに参照され、音声
合成部110では女性、男性の声を生成するための音素
データの設定に用いられる。
【0028】次に図2のフローチャートを参照して、本
装置の動作を説明する。図2は実施例の音声対話装置の
制御手順を表すフローチャートである。
装置の動作を説明する。図2は実施例の音声対話装置の
制御手順を表すフローチャートである。
【0029】まず、ステップS201では、音声入出力
部101よりの音声入力を待ち、音声入力が行われる
と、この入力情報を音声認識部102に送る。ステップ
S202では、音声認識部102により音声認識を行い
入力文を得る。また、この認識結果(入力文)を表示部
111に表示してステップS203に移る。ステップS
203では、文解析部103が、認識結果である入力部
に対して形態素解析、構文解析、意味解析を行い、ステ
ップS204に移る。ステップS204では、タスク判
別部104において、文解析部103で解析された解析
結果から実行するタスクを判別し、実行するタスクに対
応したコマンドを生成する。
部101よりの音声入力を待ち、音声入力が行われる
と、この入力情報を音声認識部102に送る。ステップ
S202では、音声認識部102により音声認識を行い
入力文を得る。また、この認識結果(入力文)を表示部
111に表示してステップS203に移る。ステップS
203では、文解析部103が、認識結果である入力部
に対して形態素解析、構文解析、意味解析を行い、ステ
ップS204に移る。ステップS204では、タスク判
別部104において、文解析部103で解析された解析
結果から実行するタスクを判別し、実行するタスクに対
応したコマンドを生成する。
【0030】ステップS205では、エージェント決定
部105において、タスク判別部104で判別されたタ
スクに応じてエージェントを決定し、切り替える。ステ
ップS206では、タスク判別部104で判別されたタ
スク実行部(タスクA実行部106あるいはタスクB実
行部107のいずれか)において、ステップS204で
生成されたコマンドを実行し、ステップS207に移
る。
部105において、タスク判別部104で判別されたタ
スクに応じてエージェントを決定し、切り替える。ステ
ップS206では、タスク判別部104で判別されたタ
スク実行部(タスクA実行部106あるいはタスクB実
行部107のいずれか)において、ステップS204で
生成されたコマンドを実行し、ステップS207に移
る。
【0031】ステップS207では、文生成部109
が、タスクA実行部106あるいはタスクB実行部10
7で実行された実行結果から応答文を生成する。この応
答文の生成にあたって、文生成部109はエージェント
決定部105で決定されたエージェントの文生成情報を
エージェント属性保持部108より獲得し、この文生成
情報を参照しながら応答文を生成する。生成された応答
文は表示部111に表示すされるとともに、音声合成部
110に送られる。
が、タスクA実行部106あるいはタスクB実行部10
7で実行された実行結果から応答文を生成する。この応
答文の生成にあたって、文生成部109はエージェント
決定部105で決定されたエージェントの文生成情報を
エージェント属性保持部108より獲得し、この文生成
情報を参照しながら応答文を生成する。生成された応答
文は表示部111に表示すされるとともに、音声合成部
110に送られる。
【0032】ステップS208では、音声合成部110
が、文生成部109で生成された応答文の合成音声を生
成する。この合成音声の生成にあたって、音声合成部1
10はエージェント決定部105で決定されたエージェ
ントの合成音声情報を属性保持部108より獲得し、こ
の合成音声情報を参照する。生成された合成音声は音声
入出力部101でD/A変換されてスピーカより出力さ
れる。その後、処理はステップS201へ戻る。
が、文生成部109で生成された応答文の合成音声を生
成する。この合成音声の生成にあたって、音声合成部1
10はエージェント決定部105で決定されたエージェ
ントの合成音声情報を属性保持部108より獲得し、こ
の合成音声情報を参照する。生成された合成音声は音声
入出力部101でD/A変換されてスピーカより出力さ
れる。その後、処理はステップS201へ戻る。
【0033】以上述べたように、上記実施例の音声対話
装置によれば、性別、語調、声の高さ、発声速度などの
属性を与えたエージェント(担当者)をタスクごとに設
定し、タスクの切り替わりによってエージェントを切り
替えることが可能となる。すなわち、性別や語調(文生
成情報)に基づいて応答文を切り替え、声の高さや発声
速度(合成音声情報)に基づいて合成音声の音声を切り
替えることで、ユーザにタスクが変わったことを意識さ
せることができる。
装置によれば、性別、語調、声の高さ、発声速度などの
属性を与えたエージェント(担当者)をタスクごとに設
定し、タスクの切り替わりによってエージェントを切り
替えることが可能となる。すなわち、性別や語調(文生
成情報)に基づいて応答文を切り替え、声の高さや発声
速度(合成音声情報)に基づいて合成音声の音声を切り
替えることで、ユーザにタスクが変わったことを意識さ
せることができる。
【0034】従ってユーザは1つのタスクによる処理範
囲を把握することが可能となり、これから与えようとす
る要求が複数のタスクを必要とするような当該音声対話
装置の能力を超えたものであるか否かを判断することが
可能となる。
囲を把握することが可能となり、これから与えようとす
る要求が複数のタスクを必要とするような当該音声対話
装置の能力を超えたものであるか否かを判断することが
可能となる。
【0035】なお、上記実施例では、説明を簡潔にする
ために、扱うタスクを2つとして説明しているが、もち
ろん、3つ以上のタスクを扱うものにも適応できるもの
である。
ために、扱うタスクを2つとして説明しているが、もち
ろん、3つ以上のタスクを扱うものにも適応できるもの
である。
【0036】また、上記実施例では、エージェントごと
に切り替える応答文の属性として、性別、語調を用いた
がこれに限らない。応答文の属性として、例えば表示部
に表示する応答文の色や字体を用いることで、エージェ
ントの交代を表すようにしても構わない。
に切り替える応答文の属性として、性別、語調を用いた
がこれに限らない。応答文の属性として、例えば表示部
に表示する応答文の色や字体を用いることで、エージェ
ントの交代を表すようにしても構わない。
【0037】また、上記実施例では、エージェントごと
に切り替える合成音声の属性として、声の高さ、発声速
度を用いたこれに限らない。他の例えば、学習音素デー
タや自然降下成分、ポーズ長などを用いることで、エー
ジェントの交代を表すようにしても構わない。
に切り替える合成音声の属性として、声の高さ、発声速
度を用いたこれに限らない。他の例えば、学習音素デー
タや自然降下成分、ポーズ長などを用いることで、エー
ジェントの交代を表すようにしても構わない。
【0038】また、上記実施例では、単一の文生成部に
対して属性を与えることによって異なる応答文を生成し
ているが、生成方式が単なる複数の文生成部を用意し、
エージェントごとに文生成部を切り替えることにより、
異なる応答文を生成するようにしても構わない。
対して属性を与えることによって異なる応答文を生成し
ているが、生成方式が単なる複数の文生成部を用意し、
エージェントごとに文生成部を切り替えることにより、
異なる応答文を生成するようにしても構わない。
【0039】また、上記実施例では、単一の音声合成部
に対して属性を与えることによって異なる合成音声を生
成しているが、生成方式が異なる複数の音声合成部を用
意し、エージェントごとに合成音声部を切り替えること
により、異なる合成音声を生成するようにしても構わな
い。
に対して属性を与えることによって異なる合成音声を生
成しているが、生成方式が異なる複数の音声合成部を用
意し、エージェントごとに合成音声部を切り替えること
により、異なる合成音声を生成するようにしても構わな
い。
【0040】また、上記実施例では、タスクの切り換え
に伴って応答文の形態と合成音声の形態の両方を変化さ
せているが、何れか一方の形態を変化させるようにして
も良い。
に伴って応答文の形態と合成音声の形態の両方を変化さ
せているが、何れか一方の形態を変化させるようにして
も良い。
【0041】以上説明したように、本実施例によれば、
扱うタスクを複数持ち、入力された音声を認識、文解析
し、その解析結果からタスクを判定し、タスクごとに属
性を切り替えるエージェントを設定することで、応答文
および合成音声の切り替えを実現できる。
扱うタスクを複数持ち、入力された音声を認識、文解析
し、その解析結果からタスクを判定し、タスクごとに属
性を切り替えるエージェントを設定することで、応答文
および合成音声の切り替えを実現できる。
【0042】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
【0043】
【発明の効果】以上説明したように本発明によれば、タ
スク毎に出力される応答文の形態を変化させることが可
能となり、利用者にタスクが変わったことを認識させる
ことが可能となる。
スク毎に出力される応答文の形態を変化させることが可
能となり、利用者にタスクが変わったことを認識させる
ことが可能となる。
【0044】また、本発明によれば、応答文の形態およ
びその合成音声をタスク毎に変化させることが可能とな
り、音声対話処理において利用者にタスクが変わったこ
とを認識させることが可能となる。
びその合成音声をタスク毎に変化させることが可能とな
り、音声対話処理において利用者にタスクが変わったこ
とを認識させることが可能となる。
【0045】以上のように、利用者にタスクの切り替わ
りを認識させることで、各タスクの能力を把握させ、こ
れにより、利用者が音声対話装置の能力以上の要求を行
うことを抑制できる。
りを認識させることで、各タスクの能力を把握させ、こ
れにより、利用者が音声対話装置の能力以上の要求を行
うことを抑制できる。
【0046】
【図1】実施例の音声対話装置のブロック構成を示す図
である。
である。
【図2】実施例の音声対話装置の制御手順を表すフロー
チャートである。
チャートである。
【図3】タスク判別辞書301のデータ構成例を示す図
である。
である。
【図4】エージェント属性保持部108におけるデータ
格納状態を表す図である。
格納状態を表す図である。
【図5】応答文の生成例を表す図である。
101 音声入出力部 102 音声認識部 103 文解析部 104 タスク判別部 105 エージェント決定部 106 タスクA実行部 107 タスクB実行部 108 エージェント属性保持部 109 文生成部 110 音声合成部 111 表示部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 5/02 9289−5L G06F 15/403 310Z
Claims (12)
- 【請求項1】 実行可能な複数のタスクを有する情報処
理装置であって、 前記複数のタスクのそれぞれに対応して異なる生成情報
を格納する格納手段と、 入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定手段と、 前記入力文に基づいて前記決定手段で決定された実行タ
スクに適応するコマンドを生成し、該コマンドを該実行
タスクで実行して実行結果を得る実行手段と、 前記格納手段に格納されている前記実行タスクに対応す
る生成情報と前記実行手段で得られた実行結果とに基づ
いて応答文を生成する生成手段と、 前記生成手段で生成された応答文を出力する出力手段と
を備えることを特徴とする情報処理装置。 - 【請求項2】 前記生成情報は、前記生成手段で生成さ
れる応答文の文体を規定することを特徴とする請求項1
に記載の情報処理装置。 - 【請求項3】 前記生成情報は、前記生成手段で生成さ
れる応答文の表示色を規定することを特徴とする請求項
1に記載の情報処理装置。 - 【請求項4】 前記出力手段は、前記応答文に基づいて
音声合成を行い、音声出力を行うことを特徴とする請求
項1に記載の情報処理装置。 - 【請求項5】 実行可能な複数のタスクを有する情報処
理装置であって、 前記複数のタスクのそれぞれに対応して異なる生成情報
を格納する格納手段と、 入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定手段と、 前記入力文に基づいて前記決定手段で決定された実行タ
スクに適応するコマンドを生成し、該コマンドを該実行
タスクで実行して実行結果を得る実行手段と、 前記格納手段に格納されている前記実行タスクに対応す
る生成情報と前記実行手段で得られた実行結果とに基づ
いて応答文を生成する生成手段と、 前記格納手段に格納されている前記実行タスクに対応す
る生成情報と前記生成手段で生成された応答文とに基づ
いて音声合成する合成手段とを備えることを特徴とする
情報処理装置。 - 【請求項6】 入力された音声信号に基づいて入力文を
生成する入力文生成手段を更に備えることを特徴とする
請求項5に記載の情報処理装置。 - 【請求項7】 前記生成情報は、前記生成手段で生成さ
れる応答文の文体を規定する情報を含むことを特徴とす
る請求項5に記載の情報処理装置。 - 【請求項8】 前記応答文を表示する表示手段を更に備
えることを特徴とする請求項5に記載の情報処理装置。 - 【請求項9】 前記生成情報は、前記生成手段で生成さ
れる応答文の前記表示手段による表示色を規定すること
を特徴とする請求項8に記載の情報処理装置。 - 【請求項10】 前記生成情報は、前記合成手段におけ
る音声合成処理の各パラメータを含むことを特徴とする
請求項5に記載の情報処理装置。式。 - 【請求項11】 実行可能な複数のタスクを有する情報
処理装置の制御方法であって、 前記複数のタスクのそれぞれに対応して異なる生成情報
を格納する格納工程と、 入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定工程と、 前記入力文に基づいて前記決定工程で決定された実行タ
スクに適応するコマンドを生成し、該コマンドを該実行
タスクで実行して実行結果を得る実行工程と、 前記格納工程で格納された前記実行タスクに対応する生
成情報と前記実行工程で得られた実行結果とに基づいて
応答文を生成する生成工程と、 前記生成工程で生成された応答文を出力する出力工程と
を備えることを特徴とする制御方法。 - 【請求項12】 実行可能な複数のタスクを有する情報
処理装置の制御方法であって、 前記複数のタスクのそれぞれに対応して異なる生成情報
を格納する格納工程と、 入力文を解析して前記複数のタスクの中から使用すべき
実行タスクを決定する決定工程と、 前記入力文に基づいて前記決定工程で決定された実行タ
スクに適応するコマンドを生成し、該コマンドを該実行
タスクで実行して実行結果を得る実行工程と、 前記格納工程にて格納された前記実行タスクに対応する
生成情報と前記実行工程で得られた実行結果とに基づい
て応答文を生成する生成工程と、 前記格納工程にて格納された前記実行タスクに対応する
生成情報と前記生成工程で生成された応答文とに基づい
て音声合成する合成工程とを備えることを特徴とする制
御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7147291A JPH08339288A (ja) | 1995-06-14 | 1995-06-14 | 情報処理装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7147291A JPH08339288A (ja) | 1995-06-14 | 1995-06-14 | 情報処理装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08339288A true JPH08339288A (ja) | 1996-12-24 |
Family
ID=15426892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7147291A Withdrawn JPH08339288A (ja) | 1995-06-14 | 1995-06-14 | 情報処理装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08339288A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003223187A (ja) * | 2001-11-20 | 2003-08-08 | Koninkl Philips Electronics Nv | 音声対話システムを動作させる方法 |
US6883703B2 (en) | 2001-02-28 | 2005-04-26 | Ricoh Company, Ltd. | Message system, message creating method and message creating program |
WO2005062294A1 (ja) | 2003-12-05 | 2005-07-07 | Kabushikikaisha Kenwood | 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法 |
WO2005064592A1 (ja) | 2003-12-26 | 2005-07-14 | Kabushikikaisha Kenwood | 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム |
JP2007079397A (ja) * | 2005-09-16 | 2007-03-29 | Nippon Telegr & Teleph Corp <Ntt> | 対話方法、対話装置、対話プログラムおよび記録媒体 |
US7822614B2 (en) | 2003-12-05 | 2010-10-26 | Kabushikikaisha Kenwood | Device control, speech recognition device, agent device, control method |
JP2012013910A (ja) * | 2010-06-30 | 2012-01-19 | Denso Corp | 音声認識端末 |
WO2017130486A1 (ja) * | 2016-01-28 | 2017-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2017139004A (ja) * | 2011-09-30 | 2017-08-10 | アップル インコーポレイテッド | バーチャルアシスタントのコマンド処理を容易にするためのコンテクスト情報の使用 |
JP2017142805A (ja) * | 2012-05-15 | 2017-08-17 | アップル インコーポレイテッド | サードパーティサービスをデジタルアシスタントと統合するシステム及び方法 |
JP2020182216A (ja) * | 2019-04-24 | 2020-11-05 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 通信方法、端末、通信会社サーバー及びスマートデバイス |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
WO2022195783A1 (ja) | 2021-03-17 | 2022-09-22 | パイオニア株式会社 | 音出力制御装置、音出力制御方法および音出力制御プログラム |
US11831799B2 (en) | 2019-08-09 | 2023-11-28 | Apple Inc. | Propagating context information in a privacy preserving manner |
-
1995
- 1995-06-14 JP JP7147291A patent/JPH08339288A/ja not_active Withdrawn
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6883703B2 (en) | 2001-02-28 | 2005-04-26 | Ricoh Company, Ltd. | Message system, message creating method and message creating program |
US7097096B2 (en) | 2001-02-28 | 2006-08-29 | Ricoh Company, Ltd. | Message system, message creating method and message creating program |
US7549573B2 (en) | 2001-02-28 | 2009-06-23 | Ricoh Company, Ltd. | Message system, message creating method and message creating program |
JP2003223187A (ja) * | 2001-11-20 | 2003-08-08 | Koninkl Philips Electronics Nv | 音声対話システムを動作させる方法 |
US8543405B2 (en) | 2001-11-20 | 2013-09-24 | Koninklijke Philips N.V. | Method of operating a speech dialogue system |
WO2005062294A1 (ja) | 2003-12-05 | 2005-07-07 | Kabushikikaisha Kenwood | 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法 |
US7822614B2 (en) | 2003-12-05 | 2010-10-26 | Kabushikikaisha Kenwood | Device control, speech recognition device, agent device, control method |
WO2005064592A1 (ja) | 2003-12-26 | 2005-07-14 | Kabushikikaisha Kenwood | 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム |
JPWO2005064592A1 (ja) * | 2003-12-26 | 2007-12-20 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム |
US8103510B2 (en) | 2003-12-26 | 2012-01-24 | Kabushikikaisha Kenwood | Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program |
JP2007079397A (ja) * | 2005-09-16 | 2007-03-29 | Nippon Telegr & Teleph Corp <Ntt> | 対話方法、対話装置、対話プログラムおよび記録媒体 |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US8706492B2 (en) | 2010-06-30 | 2014-04-22 | Denso Corporation | Voice recognition terminal |
JP2012013910A (ja) * | 2010-06-30 | 2012-01-19 | Denso Corp | 音声認識端末 |
JP2017139004A (ja) * | 2011-09-30 | 2017-08-10 | アップル インコーポレイテッド | バーチャルアシスタントのコマンド処理を容易にするためのコンテクスト情報の使用 |
JP2017142805A (ja) * | 2012-05-15 | 2017-08-17 | アップル インコーポレイテッド | サードパーティサービスをデジタルアシスタントと統合するシステム及び方法 |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11269678B2 (en) | 2012-05-15 | 2022-03-08 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11321116B2 (en) | 2012-05-15 | 2022-05-03 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
WO2017130486A1 (ja) * | 2016-01-28 | 2017-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JPWO2017130486A1 (ja) * | 2016-01-28 | 2018-11-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2020182216A (ja) * | 2019-04-24 | 2020-11-05 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 通信方法、端末、通信会社サーバー及びスマートデバイス |
US11323562B2 (en) | 2019-04-24 | 2022-05-03 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Communication method for processing crank call |
US11831799B2 (en) | 2019-08-09 | 2023-11-28 | Apple Inc. | Propagating context information in a privacy preserving manner |
WO2022195783A1 (ja) | 2021-03-17 | 2022-09-22 | パイオニア株式会社 | 音出力制御装置、音出力制御方法および音出力制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1693827B1 (en) | Extensible speech recognition system that provides a user with audio feedback | |
JP3454897B2 (ja) | 音声対話システム | |
EP1349145B1 (en) | System and method for providing information using spoken dialogue interface | |
CN106486121B (zh) | 应用于智能机器人的语音优化方法及装置 | |
US20020178005A1 (en) | System and method for adaptive language understanding by computers | |
JP3278222B2 (ja) | 情報処理方法及び装置 | |
JPH08339288A (ja) | 情報処理装置及びその制御方法 | |
CN106710585B (zh) | 语音交互过程中的多音字播报方法及系统 | |
JP2011504624A (ja) | 自動同時通訳システム | |
KR20060070605A (ko) | 영역별 언어모델과 대화모델을 이용한 지능형 로봇 음성인식 서비스 장치 및 방법 | |
JPH11110186A (ja) | ブラウザシステム、音声プロキシサーバ、リンク項目の読み上げ方法及びリンク項目の読み上げプログラムを格納した記憶媒体 | |
JP2001268669A (ja) | 移動電話端末を利用した機器制御装置、方法、及び記録媒体 | |
JP3378595B2 (ja) | 音声対話システムおよびその対話進行制御方法 | |
JPH08505957A (ja) | 音声認識システム | |
JP2019056791A (ja) | 音声認識装置、音声認識方法およびプログラム | |
JP2001272991A (ja) | 音声対話方法及び音声対話装置 | |
JP2007193166A (ja) | 対話装置、対話方法及びプログラム | |
JP2002041084A (ja) | 対話処理システム | |
CN112424771A (zh) | 信息处理设备、信息处理方法以及程序 | |
JPH07168691A (ja) | 表示図形領域選択方式 | |
JPH08272388A (ja) | 音声合成装置及びその方法 | |
JP2003099089A (ja) | 音声認識・合成装置および方法 | |
JP2002268667A (ja) | プレゼンテーションシステムおよびその制御方法 | |
JP2001092482A (ja) | 音声合成システム、および音声合成方法 | |
JP2000330588A (ja) | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020903 |