JP7180127B2 - 情報提示システム、情報提示方法及びプログラム - Google Patents
情報提示システム、情報提示方法及びプログラム Download PDFInfo
- Publication number
- JP7180127B2 JP7180127B2 JP2018106181A JP2018106181A JP7180127B2 JP 7180127 B2 JP7180127 B2 JP 7180127B2 JP 2018106181 A JP2018106181 A JP 2018106181A JP 2018106181 A JP2018106181 A JP 2018106181A JP 7180127 B2 JP7180127 B2 JP 7180127B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- listening
- dialogue
- voice
- listening preference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
また、上述したアプリケーションの各々が、パーソナルコンピュータ及びスマートデバイスや、Google Home(登録商標)、Amazon Echo(登録商標)、Clova Wave(登録商標)などのスマートスピーカに搭載され、それぞれにおいて音声合成されて、音声を用いた情報提示を主体としたものも広く利用されている。
例えば、情報提示における提示内容に対して、システム上で定義したキャラクタとともに情報文を提示することを目的として、情報文の言語表現を書き換えて提示する提示方法がある(例えば、特許文献1参照)。
このため、システムとの対話において、システムが音声により提供する情報が聞き取れない、あるいは、音声における単語を理解できない等により、対話において情報の内容が正確に伝達されない場合がある。
しかしながら、ルールベースに設定されたルールの各々に対して、多くのユーザの各々に対応させる必要性から手作業によるメンテナンスの必要が有る。このメンテナンスにおいて、上述した多様性のあるユーザの各々に対応させて、聞き取りにくいあるいは理解が困難な単語についての類義の単語や表現を含む上記ルールを設定し、対話シナリオとして構築することは膨大な作業が必要となる。
また、グルーピング推定部があることで、変更モデルが存在しない、あるいは発話データなどの蓄積が不十分なユーザの各々に対して、グループ内で一般化された変更モデルであるテンプレート変更モデルを用いることで、表示情報の最適化を行うことができる。
また、ユーザの単語の理解力に対応しては、例えば、専門用語を一般的に用いている他の同義語(あるいは類義語、類語)である単語に置き換える変更を行う。
図1は、本発明の一実施形態による、ユーザとシステムとが対話を行う情報提示システムの構成例を示すブロック図である。
図1において、情報提示システム1は、情報提示サーバ10とユーザ端末11との各々を備えている。
情報提示サーバ10とユーザ端末11との各々は、インターネットを含む情報通信網であるネットワーク500を介してデータの送受信を行う。
また、データ入出力部101は、ユーザからの音声データの内容に対する回答などの音声データを含むデータを、ネットワーク500を介してユーザ端末11に対して出力する外部出力インターフェースでもある。
また、データ入出力部101は、情報提示サーバ10を操作する制御信号などのデータを、マイクロフォン、キーボード、各種センサを含む入力手段から直接に、データ(音声データを含む)を取得する機能を有している。
解析部1021は、データ入出力部101から供給される音声データを、文字化、すなわちテキスト変換し、対話履歴記憶部107に対して書き込んで記憶させる。
例えば、図3において、聴取志向フレーズフラグが「1」とされたメッセージ本文は、「聞き取れなかったから、もう一回御願い」であり、情報提示サーバ10がユーザ端末11から出力する音声が聞き取れなかった(周波数、音量、区切りなどの聴取志向におけるパラメータにより)ことを示している。この聴取志向フレーズは、情報提示サーバ10からのユーザのリクエストに対するレスポンスである音声コンテンツに対して、ユーザが音声コンテンツの聞き取り易さの程度を示す単語(後述するポジティブワード及びネガティブワードに対応)、あるいは同義語(類義語、類語)であり、予め識者により所定のフレーズとして登録されている。
したがって、ユーザ及びシステムの各々の間の対話における前後の関係を確認する際、確認したいメッセージ本文のレコードにあるメッセージID2を読み出し、このメッセージID2と同一のメッセージID1を検索することにより、確認したいメッセージ本文の直前のメッセージのメッセージ本文を検索することができ、対話の連続したメッセージ本文の各々を容易に確認できる。
例えば、生成部1023は、リクエストが電車の時刻である場合、出発駅と到着駅と、所定の時刻との情報により、時刻表検索の外部APIを用いて、電車の時刻を検索し、検索結果を雛形の所定の位置に挿入して、レスポンスの発話データを生成する。
また、本実施形態においては、リクエストと、このリクエストに対応したレスポンスとが予め書き込まれたデータベースを有している構成としても良い。この場合には、対話管理部1022がリクエストに対応するレスポンスを、データベースから抽出するため、生成部1023を備える必要は無い。
生成部1023は、生成した発話データとともに、少なくとも聴取志向フレーズフラグのデータを、聴取志向推定部103に対して出力する。
図4は、本実施形態における聴取志向推定部103の構成例を示すブロック図である。図4において、モデル構築部1031及び聴取志向管理部1032の各々を備えている。
モデル構築部1031は、ユーザの聴取志向を推定して、提示する際に発話データ及び音声の特性を変更する指針(例えば、聴取志向のパラメータである音量、読み上げ速度及び区切りなどの調整量)を決定する処理を行う聴取志向推定モデルを生成する。本実施形態においては、聴取志向のパラメータを単にパラメータと示す場合もある。
また、聴取志向テンプレートモデルは、聴取志向推定モデルと同様に、グループの属性情報及び発話データのテキストデータを入力することにより、聴取志向における変更対象のパラメータと、この変更対象のパラメータの変更量、あるいは置き換える他の単語を推定結果として出力する。
また、聴取志向には、上述した発話の周波数に対応して、発話データにおける単語に擦過音あるいは破裂音が含まれている場合、読み上げる際の周波数を低くしても、音声となった場合に高い周波数を含むことになるため、同義語(あるいは類義語、類語)であり、擦過音及び破裂音を含まない他の単語に置き換えることもパラメータの一つとして含まれる。
また、聴取志向管理部1032は、後述するグルーピング情報などを用いて類似したユーザ群の聴取志向テンプレートモデルを用いて、聴取志向推定モデルが生成されていないユーザに対応した発話データの変更処理の内容を、提示制御部104に対して出力する構成としても良い。
また、聴取志向推定部103は、単語の置き換えのみでなく、破裂音または擦過音を含む文章(文節)を、破裂音及び擦過音を含まない同義(類義)の文章に置き換えるように構成しても良い。
そして、音声合成部105は、音声合成により生成した音声コンテンツを、データ入出力部101を介して、ユーザ端末11に対して出力する。
そして、グルーピング推定部106は、グルーピング記憶部110において、上記ユーザを検索したグループのグループテーブルに追加して書き込んで記憶させる。
メッセージIDは、同一のレコードにおける、アクションが行われたメッセージを指し示す識別情報であり、図3におけるメッセージID1と同一の識別情報である。
図7(a)は、システム主導のアクションとしての単語の置き換えを示している。ユーザ301がユーザ端末11に対して音声により、ユーザが吹き出し(speech balloon)351の「○○は?」というリクエスト(質問)をした際、情報提示サーバ10が吹き出し451の「今週の土曜日…」という発話データをレスポンスとして回答する。このとき、聴取志向管理部1032は、ユーザ301に対応した聴取志向推定モデルを参照しているが、このユーザ301に対して、上記発話データに対して変更の処理を行うことが記載されていないため、対話処理部102が供給する発話データをそのままレスポンス(回答)としている。
すなわち、属性情報において、ユーザ301(例えば、年齢20代)に比較してユーザ302(例えば、年齢70代)の年齢が高く、ユーザ302は周波数が低い音声の方が聞き易いため、聴取志向推定モデルには破裂音や擦過音を含む単語の置き換えの処理が設定されている。
また、このグループIDで識別されるグループ毎には、それぞれのグループを構成するユーザの上述した属性に対応する聴取志向テンプレートモデルがグルーピング記憶部110に対して予め書き込まれて記憶されている。
そして、上述したグルーピングにおける属性の種類は、人間の音声の聞き取り易さに詳しい学者や医者、あるいは介護施設の職員(看護師や介護士など)の聴取志向に詳しい識者の提示する属性の種類を用いても良い。
また、グルーピングにおける属性の種類は、複数のユーザの属性を特徴量としてクラスタリングなどの処理を行い、最も明確にユーザ動詞を分類できる特徴量の属性の種類を抽出する処理により設定しても良い。
本実施形態における情報提示サーバ10の利用を開始した直後のユーザに対し、情報提示サーバ10が上述した聴取志向のパラメータの変更の要否や、変更する際のパラメータの調整量のデータを、音声に対する聴取志向に対するユーザの対応から十分に抽出できていない。
そして、聴取志向推定部103は、ユーザの属性に用いた聴取志向テンプレートモデルを元に、聴取志向における各パラメータの変更の要否及び変更の際の調整量のデータを、ユーザからの音声に対する変更の要求から取得して、ユーザの各々の聴取志向推定モデルとする処理を行う。このとき、聴取志向推定部103は、すでに述べたように、聴取志向テンプレートモデルに対して、機械学習による最適化の処理を行うことで聴取志向推定モデルを生成しても良い。
データ入出力部101は、いずれかのユーザ端末11から音声データが供給されたか否かの判定を行う。そして、データ入出力部101は、いずれかのユーザ端末11から音声データが供給された場合、処理をステップS2へ進める。一方、データ入出力部101は、いずれのユーザ端末11からも音声データが供給されない場合、ステップS101の処理を繰り返す。
そして、ステップS102に進める際、データ入出力部101は、入力した音声データを対話処理部102に対して出力する。また、データ入出力部101は、入力したユーザIDを聴取志向推定部103に対して出力する。
聴取志向推定部103は、データ入出力部101からユーザIDが供給された場合、このユーザIDの示すユーザに対話の履歴があるか否かの判定を行う。すなわち、聴取志向推定部103は、ユーザ属性記憶部108を参照して、このユーザIDに対応して聴取志向推定モデルが記憶されているか否かの判定を行う。すなわち、ユーザに対話の履歴が無ければ、聴取志向テンプレートモデルから聴取志向推定モデルが生成されていない。
このとき、聴取志向推定部103は、ユーザ属性記憶部108にユーザに対応する聴取志向推定モデルが記憶されている場合、処理をステップS103へ進める。一方、聴取志向推定部103は、ユーザ属性記憶部108にユーザに対応する聴取志向推定モデルが記憶されていない場合、処理をステップS104へ進める。
聴取志向推定部103は、ユーザ属性記憶部108からユーザIDに対応する聴取志向推定モデルを読み出す。
聴取志向推定部103は、ユーザ属性記憶部108を参照し、ユーザIDに対応したユーザの属性情報を読み出す。
そして、聴取志向推定部103は、読み出した属性情報に近い属性情報を有するグループをグルーピング記憶部110のグループ属性情報テーブルから検索し、検索して得られたグループの聴取志向テンプレートモデルを読み出す。
また、グルーピング推定部106は、グルーピング記憶部110において、上記ユーザを検索したグループのグループテーブルに追加して書き込んで記憶させる。
対話処理部102は、音声データをテキストデータに変換し、形態素解析を行って、得られた単語あるいは文節から、この音声データが会話フレーズであるか、あるいは聴取志向フレーズであるかの判定を行う。音声データが聴取志向フレーズであるということは、ユーザが発話データ(レスポンス)の音声の最適化(自身の聴取志向に合わせる変更)を要求していることを意味している。
そして、対話処理部102は、ユーザが発話データの音声の最適化を要求していない場合、処理をステップS106へ進める。一方、対話処理部102は、ユーザが発話データの音声の最適化を要求している場合、処理をステップS107へ進める。
このとき、対話処理部102は、対話履歴記憶部107における対話履歴テーブルに対し、入力された音声データのテキストデータ、聴取志向フレーズの場合に聴取志向フレーズのフラグ、メッセージIDの各々の書き込みを行う。
入力された音声データが会話フレーズであるため、対話処理部102は、このリクエストの音声データに対応した発話データの生成を、音声データのテキスト文を形態素解析した単語の各々を用いて行う。
そして、聴取志向推定部103は、聴取志向推定モデルあるいは聴取志向テンプレートモデルにより、システム主導の発話データに対する変更処理の推定、ずなわち、ユーザの聴取志向のパラメータのなかから変更対象のパラメータと、変更量(あるいは単語の置き換え)を推定する。
また、聴取志向推定部103は、聴取志向のパラメータのなかから選択した変更対象のパラメータと、このパラメータの変更量(あるいは置き換える単語)とを、提示制御部104に対して出力する。
入力された音声データが聴取志向フレーズであるため、この時点においては、このフローチャートにおける前回の会話フレーズのループにおいて、リクエストに対するレスポンスとしての会話フレーズはすでに得られている。
このため、聴取志向推定部103は、聴取志向推定モデルあるいは聴取志向テンプレートモデルにより、聴取志向のパラメータのなかから変更対象のパラメータと、このパラメータの変更量を調整して、提示制御部104に対して出力する。
また、このパラメータの各々は、一括して変更量を変更してもよいし、フローチャートのループが繰り返される毎に、変更する順番を決めておいて、変更量の調整を行っても良い。
提示制御部104は、聴取志向推定部103から供給される聴取志向における単語の置き換え処理の要求に対応し、発話データのテキストデータに含まれる擦過音及び破裂音を有する単語の各々を抽出する。そして、提示制御部104は、抽出した単語の各々に対応した置き換える単語を、言語知識記憶部111の置き換えテーブルを参照して、それぞれ抽出する。
そして、提示制御部104は、聞き取りやすい単語への置き換えを終了した発話データを、聴取志向のパラメータとそのパラメータの変更量との各々を、音声合成部105に対して出力する。
そして、音声合成部105は、音声合成により生成した音声コンテンツを、データ入出力部101を介して、ユーザ端末11に対して出力する。
聴取志向推定部103は、対話行動記憶部109の対話行動テーブルにおけるメッセージIDを参照し、このメッセージIDに連続するメッセージIDを対話履歴記憶部107の対話履歴テーブルから抽出する。
そして、聴取志向推定部103は、抽出したメッセージに対応するメッセージ本文の聴取志向フレーズフラグが「0」である場合に、聴取志向のパラメータの変更あるいは単語の置き換えが成功したと判定する。一方、聴取志向推定部103は、抽出したメッセージに対応するメッセージ本文の聴取志向フレーズフラグが「1」である場合に、聴取志向のパラメータの変更あるいは単語の置き換えが、聞き取り易さを向上させるために不十分であると判定する。
また、聴取志向推定部103は、グルーピング記憶部110のグループテーブルを参照し、グループを構成するユーザの各々に共通する変更された聴取志向におけるパラメータと、パラメータの変更量とを抽出し、聴取志向テンプレートモデルを、よりグループに含まれるユーザの聴取志向に適合させる修正処理を行う。
そして、聴取志向推定部103は、例えば、「聞き取り易かったですか?」の質問に対する回答データが「はい」の場合、聴取志向のパラメータの変更が成功したと判定する。一方、「聞き取り易かったですか?」の質問に対する回答データが「いいえ」の場合、聴取志向のパラメータの変更が成功しなかったと判定する。
一方、聴取志向推定部103は、変更が失敗した場合、再度、聴取志向の他のパラメータの変更を行った音声コンテンツを生成して、ユーザに対してレスポンスとして出力する。
これにより、聴取志向推定部103は、成功した場合に成功した聴取志向のパラメータである読み上げ速度の変更処理を、聴取志向推定モデル及び聴取志向テンプレートモデルに反映させる。
上述したように、聴取志向のパラメータである周波数、読み上げ速度及び区切りや単語の置き換えなどの変更を行った後に、それぞれの変更が適切であったか否かの質問をユーザに与え、聴取志向のパラメータの変更の成功/不成功の確認を行い、この確認結果を聴取志向推定モデル及び聴取志向テンプレートモデルに反映させる構成としても良い。
提示制御部104は、対話履歴記憶部107の対話履歴テーブルに対して、発話データのテキストデータを、メッセージ本文に書き込んでメッセージID1を付与して書き込んで記憶させる。このとき、提示制御部104は、話者IDの欄に対して、レスポンスを行うシステムのシステム識別情報を書き込んで記憶させる。
また、提示制御部104は、会話フレーズであるため、聴取志向フレーズフラグを「0」とし、かつ接続されるユーザの音声データのメッセージ本文のメッセージID1をメッセージID2の欄に書き込んで記憶させる。
情報提示システム1Aは、情報提示サーバ10A、ユーザ端末11_1、ユーザ端末11_2、ユーザ端末11_3、ユーザ端末11_4、対話サーバ12_1、対話サーバ12_2、対話サーバ12_3、対話サーバ12_3の各々がネットワーク500を介して接続されている。
ユーザ端末11_1及びユーザ端末11_2の各々は、すでに説明したスマートスピーカなどであり、ユーザが音声によってリクエストの入力を行い、情報提示サーバ10Aからのレスポンスを音声コンテンツとしてユーザに通知する。
情報提示サーバ10Aは、表示画面を備えているユーザ端末11_3及びユーザ端末11_4の各々に対しては、音声コンテンツではなく、視覚(ビジュアル)的に視認できる画像コンテンツ(文字コンテンツ、動画像あるいはスタンプ画像など)に変更して(出力を切替えて)、リクエストに対するレスポンスとして出力するように構成しても良い。
対話サーバ12_2、対話サーバ12_3及び対話サーバ12_3の各々は、情報提示サーバ10における対話処理部102の対話システムの機能に換わる装置である。対話サーバ12_2、対話サーバ12_3及び対話サーバ12_3の各々は、例えば、天気予報確認、交通機関の時刻確認、ユーザの計画の確認それぞれを行う対話システムである。
また、情報提示サーバ10と対話サーバ12との各々が独立した装置として設ける構成ではなく、情報提示サーバ10、対話サーバ12のそれぞれの機能を、1つのサーバによって実現する構成としても良い。
10,10A…情報提示サーバ
11,11_1,11_2,11_3,11_4…ユーザ端末
12_1,12_2,12_3…対話サーバ
101…データ入出力部
102…対話処理部
103…聴取志向推定部
104…提示制御部
105…音声合成部
106…グルーピング推定部
107…対話履歴記憶部
108…ユーザ属性記憶部
109…対話行動記憶部
110…グルーピング記憶部
111…言語知識記憶部
500…ネットワーク
1021…解析部
1022…対話管理部
1023…生成部
1031…モデル構築部
1032…聴取志向管理部
1023…生成部
Claims (10)
- ユーザとの対話において、前記ユーザの各々の音声の聞き取り易さを示す聴取志向を推定し、当該ユーザに対して音声により供給される発話データを、前記ユーザの前記聴取志向に対応して変更する変更モデルを生成及び更新する聴取志向推定部と、
前記ユーザ毎に設定されている前記変更モデルに対応し、対話システムからの音声による回答である前記発話データを、前記ユーザの各々の前記聴取志向に基づいて、前記発話データに含まれる擦過音または破裂音を有する単語を、擦過音及び破裂音の無い単語に置き換える提示制御部と
を備えることを特徴とする情報提示システム。 - 前記聴取志向を推定する際に用いる、前記ユーザの各々との前記対話の履歴である対話履歴を対話履歴記憶部に対して、前記ユーザ毎に書き込んで記憶させる、ユーザからの発話に対してルールに基づき応答を決定する対話処理部
をさらに備える
ことを特徴とする請求項1に記載の情報提示システム。 - 前記聴取志向推定部が、
前記ユーザの前記対話における前記発話データに対する評価から、当該ユーザの前記聴取志向を抽出して、前記ユーザの属性情報及び当該ユーザの前記聴取志向を示す志向情報の各々を、ユーザ属性記憶部に対して、前記ユーザ毎に書き込んで記憶させる
ことを特徴とする請求項1または請求項2に記載の情報提示システム。 - 前記ユーザの各々の前記属性情報に対応して、前記ユーザそれぞれを分類するグルーピングを行い、前記分類毎に含まれる前記ユーザに共通する前記聴取志向により、当該分類それぞれの変更モデルであるテンプレート変更モデルを生成するグルーピング推定部
をさらに備えることを特徴とする請求項3に記載の情報提示システム。 - 前記聴取志向推定部が、
前記変更モデルが用意されていない前記ユーザに対して、当該ユーザに対応する前記分類の前記テンプレート変更モデルを抽出し、前記対話において抽出される前記聴取志向に対応して、当該ユーザに対応する前記変更モデルを生成する
ことを特徴とする請求項4に記載の情報提示システム。 - 前記属性情報が、
少なくとも、前記ユーザの年齢、性別、居住地を含むデモグラフィックデータの各々の組み合わせとして設定される
ことを特徴とする請求項3から請求項5のいずれか一項に記載の情報提示システム。 - 前記変更モデルが、
少なくとも、前記対話処理部を介して決定した前記発話データにおける単語の置き換え、前記発話データを読み上げる際の音声の周波数及び速度、文節の区切りを変更する処理を示す
ことを特徴とする請求項2に記載の情報提示システム。 - 前記提示制御部が、
前記変更モデルによる前記発話データを変更した内容である変更内容を、対話行動記憶部に対して、変更履歴として書き込んで記憶させ、
前記聴取志向推定部が、
前記対話の履歴と前記変更履歴とにより、前記ユーザの前記聴取志向を抽出する
ことを特徴とする請求項1から請求項7のいずれか一項に記載の情報提示システム。 - 聴取志向推定部が、ユーザとの対話において、前記ユーザの各々の音声の聞き取り易さを示す聴取志向を推定し、当該ユーザに対して音声により供給される発話データを、前記ユーザの前記聴取志向に対応して変更する変更モデルを生成及び更新する聴取志向推定過程と、
提示制御部が、前記ユーザ毎に設定されている前記変更モデルに対応し、ユーザからの発話に対してルールに基づき応答を決定する対話処理部を介して、対話システムからの音声による回答である前記発話データのうち、前記ユーザの各々の前記聴取志向に基づいて、当該発話データに含まれる擦過音または破裂音を有する単語を、擦過音及び破裂音の無い単語に置き換える提示制御過程と
を含むことを特徴とする情報提示方法。 - コンピュータを、
ユーザとの対話において、前記ユーザの各々の音声の聞き取り易さを示す聴取志向を推定し、当該ユーザに対して音声により供給される発話データを、前記ユーザの前記聴取志向に対応して変更する変更モデルを生成及び更新する聴取志向推定手段、
前記ユーザ毎に設定されている前記変更モデルに対応し、対話システムからの音声による回答である前記発話データのうち、前記ユーザの各々の前記聴取志向に基づいて、当該発話データに含まれる擦過音または破裂音を有する単語を、擦過音及び破裂音の無い単語に置き換える提示制御手段
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018106181A JP7180127B2 (ja) | 2018-06-01 | 2018-06-01 | 情報提示システム、情報提示方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018106181A JP7180127B2 (ja) | 2018-06-01 | 2018-06-01 | 情報提示システム、情報提示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211909A JP2019211909A (ja) | 2019-12-12 |
JP7180127B2 true JP7180127B2 (ja) | 2022-11-30 |
Family
ID=68846787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018106181A Active JP7180127B2 (ja) | 2018-06-01 | 2018-06-01 | 情報提示システム、情報提示方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7180127B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005076258A1 (ja) | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | ユーザ適応型装置およびその制御方法 |
JP2009036998A (ja) | 2007-08-01 | 2009-02-19 | Infocom Corp | コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体 |
JP2011217018A (ja) | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | 音声応答装置及びプログラム |
JP2013057705A (ja) | 2011-09-07 | 2013-03-28 | Sony Corp | 音声処理装置、音声処理方法および音声出力装置 |
JP2015002386A (ja) | 2013-06-13 | 2015-01-05 | 富士通株式会社 | 通話装置、音声変更方法、及び音声変更プログラム |
JP2018036320A (ja) | 2016-08-29 | 2018-03-08 | 株式会社テクノリンク | 音処理方法、音処理装置、及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6488599A (en) * | 1987-09-30 | 1989-04-03 | Matsushita Electric Ind Co Ltd | Voice synthesizer |
JPH10133852A (ja) * | 1996-10-31 | 1998-05-22 | Toshiba Corp | パーソナルコンピュータおよび音声属性パラメータの管理方法 |
-
2018
- 2018-06-01 JP JP2018106181A patent/JP7180127B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005076258A1 (ja) | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | ユーザ適応型装置およびその制御方法 |
JP2009036998A (ja) | 2007-08-01 | 2009-02-19 | Infocom Corp | コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体 |
JP2011217018A (ja) | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | 音声応答装置及びプログラム |
JP2013057705A (ja) | 2011-09-07 | 2013-03-28 | Sony Corp | 音声処理装置、音声処理方法および音声出力装置 |
JP2015002386A (ja) | 2013-06-13 | 2015-01-05 | 富士通株式会社 | 通話装置、音声変更方法、及び音声変更プログラム |
JP2018036320A (ja) | 2016-08-29 | 2018-03-08 | 株式会社テクノリンク | 音処理方法、音処理装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019211909A (ja) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11871148B1 (en) | Artificial intelligence communication assistance in audio-visual composition | |
US9916825B2 (en) | Method and system for text-to-speech synthesis | |
US9053096B2 (en) | Language translation based on speaker-related information | |
Klaylat et al. | Emotion recognition in Arabic speech | |
US20030167167A1 (en) | Intelligent personal assistants | |
US20130144619A1 (en) | Enhanced voice conferencing | |
Johar | Emotion, affect and personality in speech: The Bias of language and paralanguage | |
KR101322486B1 (ko) | 범용 대화서비스 장치 및 그 방법 | |
CN112182252B (zh) | 基于药品知识图谱的智能用药问答方法及其设备 | |
WO2003073417A2 (en) | Intelligent personal assistants | |
Cave et al. | The use of speech recognition technology by people living with amyotrophic lateral sclerosis: a scoping review | |
da Silva et al. | How do illiterate people interact with an intelligent voice assistant? | |
López-Ludeña et al. | LSESpeak: A spoken language generator for Deaf people | |
JP2002244842A (ja) | 音声通訳システム及び音声通訳プログラム | |
KR102413860B1 (ko) | 사용자 상태에 기반한 응답 음성을 생성하는 음성 에이전트 시스템 및 방법 | |
Neerincx et al. | Attuning speech-enabled interfaces to user and context for inclusive design: technology, methodology and practice | |
JP7180127B2 (ja) | 情報提示システム、情報提示方法及びプログラム | |
Wanner et al. | Towards a multimedia knowledge-based agent with social competence and human interaction capabilities | |
KR20190083438A (ko) | 한국어 대화 장치 | |
JP7369110B2 (ja) | 会話支援装置、会話支援システム、会話支援方法およびプログラム | |
JP7341111B2 (ja) | 会話支援装置、会話支援システム、会話支援方法およびプログラム | |
KR20230092675A (ko) | 인공지능 기반의 언어 패턴 분석을 통한 커뮤니케이션 서비스 제공 장치 및 방법 | |
KR101890704B1 (ko) | 음성 인식과 언어 모델링을 이용한 간편 메시지 출력장치 및 출력방법 | |
CN112017668A (zh) | 一种基于实时情感检测的智能语音对话方法、装置和系统 | |
US11775774B2 (en) | Open input empathy interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7180127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |