JP2005352154A - 感情状態反応動作装置 - Google Patents
感情状態反応動作装置 Download PDFInfo
- Publication number
- JP2005352154A JP2005352154A JP2004172632A JP2004172632A JP2005352154A JP 2005352154 A JP2005352154 A JP 2005352154A JP 2004172632 A JP2004172632 A JP 2004172632A JP 2004172632 A JP2004172632 A JP 2004172632A JP 2005352154 A JP2005352154 A JP 2005352154A
- Authority
- JP
- Japan
- Prior art keywords
- emotional state
- corresponding action
- state
- learning
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【解決手段】 感情状態反応動作装置1に、音声情報を入力する音声入力手段21と、音声情報から該音声情報の音韻スペクトルに係る特徴量を抽出する音韻特徴量抽出手段22と、その音韻特徴量を入力して、予め備えた状態判断テーブル31に基づき音声情報の感情状態を判断する状態判断手段23と、感情状態の結果を入力して、予め備えた対応動作選択テーブル32に基づき対応動作処理を決定する対応動作選択手段25と、対応動作処理を実行する対応動作実行手段26とを備える。
【選択図】 図1
Description
本装置によって音声命令に含まれるニュアンスにも対応した制御を可能にしており、例えばテレビのリモコンに搭載して音量調節の程度を変化させることなどが可能である。
このような技術は、程度を知るためのものではなく、感情状態そのものを得るという点で、上記従来技術では提供されていない技術である。
すなわち、請求項1に記載の発明は、ユーザの発する音声からそのユーザの感情状態を判断して適切な対応動作を実行する感情状態反応動作装置であって、音声情報を入力する音声入力手段と、該音声情報から該音声情報の音韻スペクトルに係る特徴量を抽出する音韻特徴量抽出手段と、該音韻特徴量を入力して、予め備えた状態判断テーブルに基づき音声情報の感情状態を判断する状態判断手段と、該感情状態を入力して、予め備えた対応動作選択テーブルに基づき対応動作処理を決定する対応動作選択手段と、該対応動作処理を実行する対応動作実行手段とを備えたことを特徴とする。
すなわち、請求項15に記載の発明は、ユーザの発する音声からそのユーザの感情状態を判断して適切な対応動作を実行処理する感情状態反応動作方法であって、音声入力手段により、音声情報を入力する音声入力ステップ、音韻特徴量抽出手段により、該音声情報から該音声情報の音韻スペクトルに係る特徴量を抽出する音韻特徴量抽出ステップ、状態判断手段により、該音韻特徴量を入力して、予め備えた状態判断テーブルに基づき音声情報の感情状態を判断する状態判断ステップ、対応動作選択手段により、該感情状態を入力して、予め備えた対応動作選択テーブルに基づき対応動作処理を決定する対応動作選択ステップ、対応動作実行手段により、該対応動作処理を実行する対応動作実行ステップの各ステップを含むことを特徴とする。
そして、請求項15に開示される状態判断ステップにおいて、状態判断テーブルに基づいて上記機械学習モデルによる感情状態の判断を行うことを特徴とするものである。
そして、上記の対応動作選択ステップにおいて、対応動作選択テーブルに基づいて上記機械学習モデルによる対応動作の選択を行うことを特徴とする。
また、請求項14に記載の発明においても、ヘルメットに搭載することにより、工事現場などにおける作業員の感情状態の管理を容易に行うことができる。
本発明では、非特許文献4に開示されるような公知のソフトウェアを実行して音声情報から音声波形・スペクトルを算出処理し、音韻特徴量を抽出するのが簡便である。
具体的には上述した公知のソフトウェア等により、図3に示す音韻スペクトルが得られる。図3において上段は、感情状態が「元気」(通常)であるときの音声波形、下段は該音声の強度(パワー)を示しており、概ね1.3秒程度の発声時間内の時間的変化である。
さらに、図4は感情状態が「眠い」時の音声波形(上段)及び強度(下段)を示している。
すわなち、図3において、最初に閾値を超えた時刻をt1、再び閾値以下になった後に再度閾値を超えた時刻をt2とすると、これらはそれぞれ「オー」の発声開始時刻、「ライ」の発声開始時刻であり、この間の時間t2−t1がテンポとなる。
テンポ測定(52)では、上記のように各音素の開始時刻間の間隔や、各音素における最大強度となった時刻間の間隔、あるいは強度のグラフから各音素間で強度が0に近づき谷となる間の時間を求めることもできる。
周波数測定(53)では、ピッチの最大値および最小値、又は平均値などを測定値として用いることができる。
図7及び図8はホルマント周波数を示すグラフである。両図の比較から「元気」時にはホルマント周波数の分散が大きいのに対し、「眠い」時には平坦な分布となっており、全体に抑揚が少なくなっている。
この場合、各分布値から分散を算出し、比較することにより、感情状態の特性を得ることができる。
すなわち、本発明において感情状態を判断する際には複数の音韻特徴量から、状態判断テーブル(31)との近似度を点数化し、合計点の最も高いものをユーザの感情状態と判断する。
そして、まず強度測定(51)の結果から、感情状態判断テーブル(31)を参照して強度から見たときの確度を決定する。次の表1は感情状態判断テーブル(31)の一例である。
すなわち、強度に関しては各感情状態確度算出処理(54)(55)(56)でそれぞれの感情状態の確度が上記感情状態判断テーブル(31)から決定される。
例えば、図3、図4の音韻スペクトルでは、「元気」時のテンポが0.22秒、「眠い」時のテンポが0.55秒程度であり、感情状態判断テーブル(31)からテンポに関しては、図3の音声情報が入力されると、「怒っている」確度が0.3、「元気」確度が0.8、「眠い」確度が0.1となる。
図5、図6の音韻スペクトルによれば、「元気」時の基本周波数の最大値及び最小値の中間値(平均値)は130Hzであり、この場合に「怒っている」確度は0.6、「元気」な確度は0.7、「眠い」確度は0となる。
同様に感情状態C確度算出処理(56)で「眠い」確度は、強度に関して0、テンポに関して0.1、周波数に関して0であり、確度0.1と算出される。
このように、従来の方法では1つの感情状態の程度でしか表すことができなかったのに対し、本発明では複数の感情状態に対して同時にそれらの確度を決定することができる。
ここで、所定の契機とは、例えば前の音声入力から10分毎にユーザに対して発声を要求したり、或いはユーザが所定の所作を行ったことをCPU(20)に接続する図示しないセンサにより感知したりすることである。
ユーザに対してはスピーカ(41)から発声を促すようなメッセージを流したり、モニタ(40)やランプ(42)により合図をするようにしてもよい。
状態判断部(24)で判断された感情状態から、対応動作選択テーブル(32)を参照し、最適な対応動作を選択する。ここでは説明に便利なように対応動作をA〜Cの3種類とし、それらの実行の要否を順次判定するようにしているが、対応動作の種類は対応動作選択テーブル(32)に含まれている種類数に応じて随時変化する。
ここで、択一的にいずれかの対応動作をとるように判定を一度にしてもよいし、図9のように順次実行してもよい。順次実行する場合には、上位の判定で対応動作を実行した場合には下位の判定を行わない構成でもよい。
ここで例えば閾値が1.0であった場合、対応動作Aを実行すると判定(61)する。
また「眠い」と判定された場合には、ランプ(42)により警告灯を点灯させたり、モニタ(40)に「休息を取ってください」などと警告することができる。さらに、「怒っている」と判定された場合には、モニタ(40)に「感情が高ぶっています。落ち着いてください」など、ユーザ自身に自重を求めるように促すことができる。
そして、選択結果に基づいて、対応動作実行部(26)でハードディスク(30)から該当する風景画像データを読み出し、モニタ(40)に表示する。
本構成によれば、感情状態に応じてモニタにより好ましい風景画像を表示することができる。特に、モニタ(40)を窓型に形成して、擬似的な窓として部屋に設けることもできる。
さらに、複数の感情状態に関してもそれぞれに適切な対応動作を取ることができるので、例えば「眠い」かつ「気が散っている」などの場合に、イスを振動させる動作と共に、ランプを点灯するなど平行して動作を実行することができる。
ここで感情状態の学習には公知の機械学習モデルを用いることができるが、一例としてサポートベクトルマシンを用いる方法を次に説述する。
本件発明者らによる論文(非特許文献5)では、これを自然言語処理に適用し、SVMを用いた単語多義性解消問題に対する解法を示している。
SVMは、空間を超平面で分割することにより2つの分類からなるデータを分類する手法である。このとき、2つの分類が正例と負例とからなるものとすると、学習データにおける正例と負例の間隔(マージン)が大きいものほどオープンデータで誤った分類をする可能性が低いと考えられ、このマージンを最大にする超平面を求め、それを用いて分類を行う。
図中において、白点(110)は正例、黒点(111)は負例を表し、実線は空間を分割する超平面(112)を、波線はマージン領域の境界を表す面(113)を意味している。
SVMによる分類に関する定式化の一例について説明する。尚、ここで示す定式化は公知のものである。まず、xを2次元ベクトル、xiをi番目のサポートベクトル、Kをカーネル関数、yiは、後述するようにサポートベクトルxi(i=1,2・・・l、yi∈{1,−1})に対する期待される出力値である。bはパラメータである。
ここで、αi>0となるサポートベクトルxiについて、数1の和をとっている部分は、この事例のみを用いて計算される。つまり実際の解析には学習データのうち、サポートベクトルと呼ばれる事例のみしか用いられない。
ところで、カーネル関数としては、ポリノミアル(Polynomial)、ガウシャン・ラジアル・ベイシス・ファンクション(Gaussian Radial Basis Function)、エクスポネンシャル・ラジアル・ベイシス・ファンクション(Exponential Radial Basis Function)、マルチレイヤー・パーセプション(Multi−Layer Perception)、フーリエー・シリーズ(Fourier Series)、スプライン(Splines)、ビースプライン(Bsplines)、アディティブ・カーネル(Additive Kernels)、テンソル・プロダクト・カーネル(Tensor Product Kernels)等の関数を用いることもできる。
感情状態学習部(100)においては感情状態学習テーブル(101)を用いてカーネル関数を定義し、状態判断テーブルに該関数を保存する。従って、本実施例では状態判断テーブル(31)は実施形態1で示した対応表ではなく、関数として格納されることになる。
本発明はこのような感情状態の判断に機械学習を用いた点に特徴を有し、機械学習モデルとしては上述したSVMの他、ニューラルネットワーク手法、最大エントロピー手法などを適宜用いることができる。
ニューラルネットワーク手法の場合には、入力に対応する望ましい出力の組を例示してニューラルネットワークの重みを決定する方法であるバックプロパゲーション(逆向き伝搬)を用いるのが好ましく、非特許文献5、6などに開示されている。
その結果は関数の形式で、対応動作選択テーブル(32)に記録される。学習結果は対応動作選択部(25)で機械学習モデルを用いた選択処理に使用される。
全てのユーザについて学習させずとも、例えば「早口の男性」「声の低い女性」など、ある程度特徴を分けて学習させ、使用時に選択するだけでも判断の精度を上げることができる。
したがって、本実施形態2、3は判定の高精度化に大きく寄与する構成である。
第4の実施形態として、室内や舞台における照明の照度を調整する構成を示す。図13は上記対応動作実行部(26)における対応動作の実行処理を説明する図である。
対応動作選択部(25)において例えば明るい、普通、暗いの3種類の照度を対応動作A〜Cとして選択する。感情状態が暗い時には暗く、明るい時には明るく、というように選択してもよい。
各ユニットには、状態判断部(24)による判断結果を無線送信する状態送信部(140)と、それを受信する状態受信部(141)を付設する。無線通信の方法としては、公知の無線LANやBluetooth通信などによって実現するのが簡便である。
送信ユニットにおいては、状態を判断する処理のみを行い、対応動作についてはサーバ側に依存するため、例えばサーバ側においてネットワークと接続し、感情状態をネットワーク上で管理することなども可能である。
本構成では、作業員に状態判断のみを行うユニットを携帯させて、適宜発声要求(23)により音声を入力し、判断結果をサーバに送信する。警告が必要な感情状態の作業員に対してはサーバ側から警告を発するようにする。これにより、対応動作が例えば音声合成などの複雑な処理を要する場合でも、サーバにより一括処理できるため、作業員のユニットは小型化、低コスト化することができる。
この場合、実施形態1ないし3の場合には、ハードディスク(30)に格納される各データはメモリ上に記憶し、ランプ(42)、モニタ(40)などは設ないことで小型化を図る。
このような構成にすることで、ユーザ側がマイクを持って音声入力をする必要がなく、また各ユーザに対して直接警告音を出力することができる。
すなわち、作業現場やオートバイの運転時は危険な環境であって、感情状態が良好でない場合には、特にユーザに対して警告を発する必要性が高い。
従って、本発明の技術をヘルメットに搭載して、ヘルメットを装着することでユーザの音声を入力することができるようにすることは、安全性の向上に有効であり、本発明の効果が活用される好例である。
また、ヘルメットの外周部にランプ(42)を配設して、他者がユーザの感情状態が好ましくない状態であることを認知することが出来るように構成してもよい。
10 マイク
20 CPU
21 音声入力部
22 音韻特徴量抽出部
23 発声要求部
24 状態判断部
25 対応動作選択部
26 対応動作実行部
30 ハードディスク
31 状態判断テーブル
32 対応動作選択テーブル
40 モニタ
41 スピーカ
42 ランプ
Claims (17)
- ユーザの発する音声からそのユーザの感情状態を判断して適切な対応動作を実行する感情状態反応動作装置であって、
音声情報を入力する音声入力手段と、
該音声情報から該音声情報の音韻スペクトルに係る特徴量を抽出する音韻特徴量抽出手段と、
該音韻特徴量を入力して、予め備えた状態判断テーブルに基づき音声情報の感情状態を判断する状態判断手段と、
該感情状態を入力して、予め備えた対応動作選択テーブルに基づき対応動作処理を決定する対応動作選択手段と、
該対応動作処理を実行する対応動作実行手段と
を備えたことを特徴とする感情状態反応動作装置。 - 前記感情状態反応動作装置が、
所定の契機又は前記状態判断手段における判断結果に基づいて、
ユーザに対し発声を促す発声要求手段を備える
請求項1に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、
感情状態学習用テーブルと感情状態学習手段を備え、
該感情状態学習手段は、
該感情状態学習テーブルに基づいて所定の機械学習モデルにより前記音韻特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存し、
前記状態判断手段は、
該状態判断テーブルに基づいて上記機械学習モデルによる感情状態の判断を行う
請求項1又は2に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、
対応動作学習用テーブルと対応動作学習手段を備え、
該対応動作学習手段は、
該対応動作学習テーブルに基づいて所定の機械学習モデルにより前記感情状態と選択する対応動作との関連を取得して対応動作選択テーブルに学習結果を保存し、
前記対応動作選択手段は、
該対応動作選択テーブルに基づいて上記機械学習モデルによる対応動作の選択を行う
請求項1ないし3に記載の感情状態反応動作装置。 - 前記機械学習モデルが、
最大エントロピーモデル、ニューラルネットワークモデル、サポートベクトルマシンモデル
のいずれかである
請求項4又は5に記載の感情状態反応動作装置。 - 前記音韻特徴量抽出手段が、
所定の音声語句における音素列の時間的間隔を特徴量として抽出する
請求項1ないし5に記載の感情状態反応動作装置。 - 前記音韻特徴量抽出手段が、
所定の音声語句における音韻スペクトルの強度を特徴量として抽出する
請求項1ないし6に記載の感情状態反応動作装置。 - 前記音韻特徴量抽出手段が、
所定の音声語句における音韻スペクトルの周波数を特徴量として抽出する
請求項1ないし7に記載の感情状態反応動作装置。 - 前記対応動作処理に、
発光手段からの発光処理、又は音声発生手段からの音声発生処理を含む
請求項1ないし8に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、照明手段を備える構成であって、
前記対応動作処理に、
照明光の調光処理を含む
請求項1ないし8に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、所定の風景画像を少なくとも表示可能な画像表示手段を備える構成であって、
前記対応動作処理に、
画像表示手段において表示する風景画像の切り替え表示処理を含む
請求項1ないし8に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、
前記感情状態を送信する送信機及び、それを受信する受信機を備え、
前記対応動作処理に、
送信機から該感情状態を送信する処理と、
受信機において該感情状態を受信する処理及び、発光手段からの発光処理、又は音声発生手段からの音声発生処理とを含む
請求項1ないし8に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、
ヘッドフォン部およびマイク部を少なくとも備えたヘッドセット形状をなし、ユーザの音声を音声情報としてマイク部で入力すると共に、
前記対応動作実行手段が、
前記状態判断手段により警告すべき状態であると判断した際には、該ユーザに対してヘッドフォン部から警告音声の発生処理を行う
請求項1ないし8に記載の感情状態反応動作装置。 - 前記感情状態反応動作装置が、
ヘルメットに搭載される
請求項1ないし8に記載の感情状態反応動作装置。 - ユーザの発する音声からそのユーザの感情状態を判断して適切な対応動作を実行処理する感情状態反応動作方法であって、
音声入力手段により、音声情報を入力する音声入力ステップ、
音韻特徴量抽出手段により、該音声情報から該音声情報の音韻スペクトルに係る特徴量を抽出する音韻特徴量抽出ステップ、
状態判断手段により、該音韻特徴量を入力して、予め備えた状態判断テーブルに基づき音声情報の感情状態を判断する状態判断ステップ、
対応動作選択手段により、該感情状態を入力して、予め備えた対応動作選択テーブルに基づき対応動作処理を決定する対応動作選択ステップ、
対応動作実行手段により、該対応動作処理を実行する対応動作実行ステップ
の各ステップを含むことを特徴とする感情状態反応動作方法。 - 前記感情状態反応動作方法が、
予め用意した感情状態学習用テーブルを用い、前記音声入力ステップないし対応動作実行ステップに先立って、
感情状態学習手段により、該感情状態学習テーブルに基づいて所定の機械学習モデルにより前記音韻特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存する感情状態学習ステップ
の処理を行うと共に、
前記状態判断ステップにおいて、
該状態判断テーブルに基づいて上記機械学習モデルによる感情状態の判断を行う
請求項15に記載の感情状態反応動作方法。 - 前記感情状態反応動作方法が、
予め用意した対応動作学習用テーブルを用い、前記音声入力ステップないし対応動作実行ステップに先立って、
対応動作学習手段により、該対応動作学習テーブルに基づいて所定の機械学習モデルにより前記感情状態と選択する対応動作との関連を取得して対応動作選択テーブルに学習結果を保存する対応動作学習ステップ
の処理を行うと共に、
前記対応動作選択ステップにおいて、
該対応動作選択テーブルに基づいて上記機械学習モデルによる対応動作の選択を行う
請求項15又は16に記載の感情状態反応動作装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172632A JP2005352154A (ja) | 2004-06-10 | 2004-06-10 | 感情状態反応動作装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172632A JP2005352154A (ja) | 2004-06-10 | 2004-06-10 | 感情状態反応動作装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005352154A true JP2005352154A (ja) | 2005-12-22 |
Family
ID=35586692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004172632A Pending JP2005352154A (ja) | 2004-06-10 | 2004-06-10 | 感情状態反応動作装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005352154A (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006084630A (ja) * | 2004-09-15 | 2006-03-30 | Meiji Univ | 乳幼児の音声解析システム |
JP2007334251A (ja) * | 2006-06-19 | 2007-12-27 | Kenwood Corp | エージェント装置、プログラム、及び音声供給方法 |
JP2008233282A (ja) * | 2007-03-19 | 2008-10-02 | National Institute Of Advanced Industrial & Technology | 不明瞭音声コマンド認識装置および不明瞭音声コマンド認識処理方法 |
JP2009294647A (ja) * | 2008-05-09 | 2009-12-17 | Agi:Kk | 行動分析装置及びコールセンターシステム |
JP2013174750A (ja) * | 2012-02-27 | 2013-09-05 | Hiroshima City Univ | 心的状態識別装置及び識別方法 |
JP2014147650A (ja) * | 2013-02-04 | 2014-08-21 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲーム処理方法及びゲームプログラム |
US9099088B2 (en) | 2010-04-22 | 2015-08-04 | Fujitsu Limited | Utterance state detection device and utterance state detection method |
JP2017138509A (ja) * | 2016-02-04 | 2017-08-10 | カシオ計算機株式会社 | 感情推定器の個人適応方法、感情推定装置及びプログラム |
JP2018146898A (ja) * | 2017-03-08 | 2018-09-20 | パナソニックIpマネジメント株式会社 | 装置、ロボット、方法、及びプログラム |
JP2019128531A (ja) * | 2018-01-26 | 2019-08-01 | 株式会社日立製作所 | 音声分析装置および音声分析方法 |
JP2019167680A (ja) * | 2018-03-22 | 2019-10-03 | 住友重機械工業株式会社 | ショベル |
EP3567586A1 (en) | 2018-05-11 | 2019-11-13 | Toyota Jidosha Kabushiki Kaisha | Voice interaction system, voice interaction method, and program |
EP3618063A1 (en) | 2018-08-31 | 2020-03-04 | Kyoto University | Voice interaction system, voice interaction method, program, learning model generation apparatus, and learning model generation method |
JP2020038603A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社日立製作所 | 設備保守の管理および実行 |
JP2020109608A (ja) * | 2018-12-28 | 2020-07-16 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声ベースのメカニズムに基づくスマート表示装置のディスプレイ停止の方法及びシステム |
JP2020134719A (ja) * | 2019-02-20 | 2020-08-31 | ソフトバンク株式会社 | 翻訳装置、翻訳方法、および翻訳プログラム |
JP2021056335A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社なごみテクノロジー | 評価システム |
KR102517571B1 (ko) * | 2022-08-18 | 2023-04-04 | 주식회사 포티투마루 | 사용자 상태 분석 방법, 사용자 상태 분석 장치, 및 사용자 상태 분석 시스템 |
JP7510231B2 (ja) | 2019-08-22 | 2024-07-03 | インターナショナル・ビジネス・マシーンズ・コーポレーション | メディア・ストリームを適合させるための制御システム、制御システムが実行する方法、記録媒体、及びコンピュータ・プログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6419427A (en) * | 1987-07-15 | 1989-01-23 | Hitachi Ltd | Voice input computer graphics processor |
JPH04327205A (ja) * | 1991-04-25 | 1992-11-16 | Kenichi Kishi | ヘルメット |
JPH0922296A (ja) * | 1995-07-05 | 1997-01-21 | Sanyo Electric Co Ltd | 感性情報入力処理装置及びその処理方法 |
JPH1049188A (ja) * | 1996-08-06 | 1998-02-20 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 感情変換装置 |
JPH10214024A (ja) * | 1997-01-30 | 1998-08-11 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 対話型映画システム |
JP2002282543A (ja) * | 2000-12-28 | 2002-10-02 | Sony Computer Entertainment Inc | オブジェクトの音声処理プログラム、オブジェクトの音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、及びオブジェクトの音声処理方法 |
JP2003345727A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 感情伝達装置 |
-
2004
- 2004-06-10 JP JP2004172632A patent/JP2005352154A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6419427A (en) * | 1987-07-15 | 1989-01-23 | Hitachi Ltd | Voice input computer graphics processor |
JPH04327205A (ja) * | 1991-04-25 | 1992-11-16 | Kenichi Kishi | ヘルメット |
JPH0922296A (ja) * | 1995-07-05 | 1997-01-21 | Sanyo Electric Co Ltd | 感性情報入力処理装置及びその処理方法 |
JPH1049188A (ja) * | 1996-08-06 | 1998-02-20 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 感情変換装置 |
JPH10214024A (ja) * | 1997-01-30 | 1998-08-11 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 対話型映画システム |
JP2002282543A (ja) * | 2000-12-28 | 2002-10-02 | Sony Computer Entertainment Inc | オブジェクトの音声処理プログラム、オブジェクトの音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、及びオブジェクトの音声処理方法 |
JP2003345727A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 感情伝達装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006084630A (ja) * | 2004-09-15 | 2006-03-30 | Meiji Univ | 乳幼児の音声解析システム |
JP2007334251A (ja) * | 2006-06-19 | 2007-12-27 | Kenwood Corp | エージェント装置、プログラム、及び音声供給方法 |
JP2008233282A (ja) * | 2007-03-19 | 2008-10-02 | National Institute Of Advanced Industrial & Technology | 不明瞭音声コマンド認識装置および不明瞭音声コマンド認識処理方法 |
JP2009294647A (ja) * | 2008-05-09 | 2009-12-17 | Agi:Kk | 行動分析装置及びコールセンターシステム |
US9099088B2 (en) | 2010-04-22 | 2015-08-04 | Fujitsu Limited | Utterance state detection device and utterance state detection method |
JP2013174750A (ja) * | 2012-02-27 | 2013-09-05 | Hiroshima City Univ | 心的状態識別装置及び識別方法 |
JP2014147650A (ja) * | 2013-02-04 | 2014-08-21 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲーム処理方法及びゲームプログラム |
JP2017138509A (ja) * | 2016-02-04 | 2017-08-10 | カシオ計算機株式会社 | 感情推定器の個人適応方法、感情推定装置及びプログラム |
JP2018146898A (ja) * | 2017-03-08 | 2018-09-20 | パナソニックIpマネジメント株式会社 | 装置、ロボット、方法、及びプログラム |
JP2019128531A (ja) * | 2018-01-26 | 2019-08-01 | 株式会社日立製作所 | 音声分析装置および音声分析方法 |
JP2019167680A (ja) * | 2018-03-22 | 2019-10-03 | 住友重機械工業株式会社 | ショベル |
JP7206052B2 (ja) | 2018-03-22 | 2023-01-17 | 住友重機械工業株式会社 | ショベル |
CN110473533A (zh) * | 2018-05-11 | 2019-11-19 | 丰田自动车株式会社 | 语音对话系统、语音对话方法以及程序 |
US10971149B2 (en) | 2018-05-11 | 2021-04-06 | Toyota Jidosha Kabushiki Kaisha | Voice interaction system for interaction with a user by voice, voice interaction method, and program |
EP3567586A1 (en) | 2018-05-11 | 2019-11-13 | Toyota Jidosha Kabushiki Kaisha | Voice interaction system, voice interaction method, and program |
CN110473533B (zh) * | 2018-05-11 | 2023-03-10 | 丰田自动车株式会社 | 语音对话系统、语音对话方法以及程序 |
EP3618063A1 (en) | 2018-08-31 | 2020-03-04 | Kyoto University | Voice interaction system, voice interaction method, program, learning model generation apparatus, and learning model generation method |
JP2020038603A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社日立製作所 | 設備保守の管理および実行 |
US11037573B2 (en) | 2018-09-05 | 2021-06-15 | Hitachi, Ltd. | Management and execution of equipment maintenance |
JP2020109608A (ja) * | 2018-12-28 | 2020-07-16 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声ベースのメカニズムに基づくスマート表示装置のディスプレイ停止の方法及びシステム |
JP7190982B2 (ja) | 2018-12-28 | 2022-12-16 | バイドゥ ユーエスエイ エルエルシー | 音声ベースのメカニズムに基づくスマート表示装置のディスプレイ停止の方法及びシステム |
JP2020134719A (ja) * | 2019-02-20 | 2020-08-31 | ソフトバンク株式会社 | 翻訳装置、翻訳方法、および翻訳プログラム |
JP7510231B2 (ja) | 2019-08-22 | 2024-07-03 | インターナショナル・ビジネス・マシーンズ・コーポレーション | メディア・ストリームを適合させるための制御システム、制御システムが実行する方法、記録媒体、及びコンピュータ・プログラム |
JP2021056335A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社なごみテクノロジー | 評価システム |
KR102517571B1 (ko) * | 2022-08-18 | 2023-04-04 | 주식회사 포티투마루 | 사용자 상태 분석 방법, 사용자 상태 분석 장치, 및 사용자 상태 분석 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005352154A (ja) | 感情状態反応動作装置 | |
CN110753957B (zh) | 使用皮肤致动器模拟连续的人类触摸的触觉通信系统 | |
US20180018974A1 (en) | System and method for detecting tantrums | |
Hansen et al. | Speech under stress: Analysis, modeling and recognition | |
US8185395B2 (en) | Information transmission device | |
US11705105B2 (en) | Speech synthesizer for evaluating quality of synthesized speech using artificial intelligence and method of operating the same | |
JP2002268699A (ja) | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 | |
JP2021105736A (ja) | 情報処理装置、方法及びプログラム | |
WO2008069187A1 (ja) | プレゼンテーション支援装置および方法並びにプログラム | |
Yağanoğlu | Real time wearable speech recognition system for deaf persons | |
JP7383943B2 (ja) | 制御システム、制御方法、及びプログラム | |
JP2024504316A (ja) | 合成音声生成 | |
JP2018050847A (ja) | 認知機能評価装置、認知機能評価方法、およびプログラム | |
CN116884386A (zh) | 语音合成方法、语音合成装置、设备和存储介质 | |
CN115148185A (zh) | 语音合成方法及装置、电子设备及存储介质 | |
JP4627154B2 (ja) | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 | |
US20230148275A1 (en) | Speech synthesis device and speech synthesis method | |
JP5726822B2 (ja) | 音声合成装置、方法及びプログラム | |
JP4677548B2 (ja) | パラ言語情報検出装置及びコンピュータプログラム | |
JP4411590B2 (ja) | 音声可視化方法及び該方法を記憶させた記録媒体 | |
JP2020076878A (ja) | カラオケ装置、カラオケ装置の制御方法、およびプログラム | |
Bojanić et al. | Application of dimensional emotion model in automatic emotional speech recognition | |
JP4449380B2 (ja) | 話者正規化方法及びそれを用いた音声認識装置 | |
Yasmin et al. | Discrimination of male and female voice using occurrence pattern of spectral flux | |
Mohino et al. | Detection of emotions and stress through speech analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101102 |