JP7162783B2 - 情報処理装置、推定方法、及び推定プログラム - Google Patents
情報処理装置、推定方法、及び推定プログラム Download PDFInfo
- Publication number
- JP7162783B2 JP7162783B2 JP2022546733A JP2022546733A JP7162783B2 JP 7162783 B2 JP7162783 B2 JP 7162783B2 JP 2022546733 A JP2022546733 A JP 2022546733A JP 2022546733 A JP2022546733 A JP 2022546733A JP 7162783 B2 JP7162783 B2 JP 7162783B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- sound source
- utterance
- user
- information indicating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
Landscapes
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Finance (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Description
図1は、通信システムを示す図である。通信システムは、情報処理装置100、携帯装置200、自動応答システム300、スピーカ400、マイク401、カメラ402、及びディスプレイ403を含む。
通信システムでは、クライアントから通話があった場合、自動応答システム300が応答を行う。通信システムでは、条件が満たされた場合、運用が、オペレータ運用に切り替わる。なお、当該条件については、後で説明する。
自動応答システム300は、1以上の電気装置によって実現される。自動応答システム300は、疑似的なオペレータの役割を果たす。
図2は、情報処理装置が有するハードウェアの例を示す図である。情報処理装置100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、及び入出力インタフェース104を有する。
また、情報処理装置100は、外部装置から情報を取得することができる。例えば、外部装置は、USB(Universal Serial Bus)メモリである。
図3は、情報処理装置が有する機能ブロックを示す図である。情報処理装置100は、取得部110、検出抽出部120、音声認識実行部130、発話内容記憶部140、感情推定部150、感情履歴記憶部160、切替判定部170、重み記憶部171、出力部180、及び終了判定部190を有する。また、情報処理装置100は、取得部110a、検出抽出部120a、音声認識実行部130a、及び感情推定部150aを有してもよい。
特徴量抽出部121は、音声信号A1に基づいて、特徴ベクトルF1を抽出する。なお、特徴ベクトルF1は、特徴量とも言う。なお、例えば、特徴ベクトルF1は、MFCC(Mel Frequency Cepstrum Coefficients)又は基本周波数である。また、MFCC又は基本周波数は、音声ドメインでよく使用される。
音声認識実行部130は、発話区間特徴ベクトルXkに基づいて、音声認識を実行する。音声認識実行部130は、公知技術を用いて、音声認識を実行できる。例えば、音声認識実行部130は、HMM(Hidden Markov Model)、LSTM(Long Short Term Memory)などのモデルを用いて、音声認識を実行する。
発話内容記憶部140は、発話内容履歴テーブルを記憶する。発話内容履歴テーブルを具体的に説明する。
感情推定部150は、発話区間特徴ベクトルXk、発話内容Tk、クライアントの過去の感情を示す情報、及びオペレータの過去の感情を示す情報に基づいて、音声信号A1の音源(例えば、クライアント又はオペレータ)の感情を推定する。また、感情推定部150は、発話区間特徴ベクトルXk、発話内容Tk、クライアントの過去の感情を示す情報、及び自動応答システムの過去の感情を示す情報に基づいて、音声信号A1の音源(例えば、クライアント又は自動応答システム300)の感情を推定する。なお、自動応答システムの過去の感情とは、自動応答システムの音声信号に基づいて、感情推定部150により推定された感情である。感情推定部150は、推定を実行する場合、学習済モデルを用いて、推定を実行してもよい。また、推定される感情は、発話内容Tkに対応する感情と考えてもよい。
また、発話ID“0004”に対応する感情は、感情推定結果Ekと考えてもよい。このように、感情推定部150の実行により得られた感情推定結果Ekが、感情履歴記憶部160に格納される。
感情推定部150は、式(1)が示す事後確率分布Pを算出することで、特定の感情が生じる確率を得ることができる。なお、Wは、モデルパラメータである。K及びkは、k番目を示す。
ここで、重み記憶部171を説明する。重み記憶部171は、重みテーブルを記憶する。重みテーブルを説明する。
属性の項目には、属性を示す情報が登録される。なお、属性の項目が示す“回数”は、クライアントが電話をかけてきた回数である。条件の項目には、条件を示す情報が登録される。重みの項目には、重みを示す情報が登録される。
例えば、属性及び条件の項目が示す情報は、パーソナリティ情報と呼んでもよい。よって、重みテーブル172は、パーソナリティ情報と重みとの対応関係を示している。
図8は、ディスプレイに表示される画面の具体例を示す図である。図8の上図の画面500は、自動応答からオペレータ運用に切り替わり、かつクライアントとの通話が開始する前の状態を示している。
このように、オペレータは、画面500から様々な情報を得ることができる。
終了判定部190は、対話が終了したか否かを判定する。例えば、終了判定部190は、クライアントの通話が終了したときに、対話が終了したと判定する。
図9は、情報処理装置が実行する処理の例を示すフローチャート(その1)である。
(ステップS11)取得部110は、音声信号A1を取得する。なお、音声信号A1は、一時的に揮発性記憶装置102に格納されてもよい。
(ステップS12)特徴量抽出部121は、音声信号A1に基づいて、特徴ベクトルF1を抽出する。
(ステップS14)発話区間検出部123は、前処理後特徴ベクトルFP1に基づいて、発話区間の検出処理を実行する。
(ステップS16)音声認識実行部130は、発話区間特徴ベクトルXkに基づいて、音声認識を実行する。音声認識の結果は、発話内容Tkである。音声認識実行部130は、発話内容Tkを発話内容履歴テーブル141に登録する。
(ステップS21)切替判定部170は、自動応答システム300が実行しているか否かを判定する。自動応答システム300が実行している場合、処理は、ステップS22に進む。オペレータ運用が実行されている場合、処理は、ステップS24に進む。
(ステップS22)切替判定部170は、運用をオペレータ運用に切り替えるか否かを判定する。
オペレータ運用に切り替えると判定した場合、処理は、ステップS23に進む。オペレータ運用に切り替えないと判定した場合、処理は、ステップS25に進む。
(ステップS24)出力部180は、クライアントの感情を示す情報と、クライアントのパーソナリティ情報をディスプレイ403に出力する。
(ステップS25)終了判定部190は、対話が終了したか否かを判定する。対話が終了した場合、処理は、終了する。対話が終了していない場合、処理は、ステップS11に進む。
図11は、感情の推定処理の具体例を示す図である。図11は、クライアントとオペレータとが会話をしている状態を示している。
時刻TM1のクライアントは、怒っている。怒りは、感情推定結果Ek-2とする。クライアントの発言により、オペレータは、動揺する。そして、時刻TM2のオペレータは、哀しくなる。哀しさは、感情推定結果Ek-1とする。クライアントがオペレータの発言を聞くことで、又はオペレータが哀しんでいることをクライアントが察知することで、時刻TM3のクライアントの感情は、微怒になる。情報処理装置100は、時刻TM3のクライアントの感情が微怒であることを推定できる。以下、推定処理を具体的に説明する。
また、情報処理装置100は、発話区間特徴ベクトルXk、発話内容T1~Tk(すなわち、全てのクライアントとオペレータの発話)、及び感情推定結果E1~Ek-1(すなわち、過去に推定された全ての履歴)に基づいて、現在のクライアントの感情を推定してもよい。すなわち、情報処理装置100は、クライアントとオペレータの全ての発話と、過去に推定された全ての履歴とをさらに考慮して推定してもよい。情報処理装置100は、多くの要素に基づいて、推定を実行することで、より精度の高い推定を行うことができる。
Claims (14)
- 第1の音源の音声信号を取得する取得部と、
前記音声信号に基づいて、発話区間を検出し、前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出する検出抽出部と、
前記発話区間特徴量に基づいて、音声認識を実行する音声認識実行部と、
前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報とを記憶する記憶部と、
前記発話区間特徴量、前記音声認識を実行することにより得られた発話内容、前記第1の音源の過去の感情を示す情報、及び前記第2の音源の過去の感情を示す情報に基づいて、前記第1の音源の感情の値である感情値を推定する感情推定部と、
出力部と、
を有し、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記出力部は、前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせる内容である場合、注意を促す情報を出力する、
情報処理装置。 - 第1の音源の音声信号を取得する取得部と、
前記音声信号に基づいて、発話区間を検出し、前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出する検出抽出部と、
前記発話区間特徴量に基づいて、音声認識を実行する音声認識実行部と、
前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報とを記憶する記憶部と、
前記発話区間特徴量、前記音声認識を実行することにより得られた発話内容、前記第1の音源の過去の感情を示す情報、及び前記第2の音源の過去の感情を示す情報に基づいて、前記第1の音源の感情の値である感情値を推定する感情推定部と、
出力部と、
を有し、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記出力部は、前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせない内容である場合、問題がない旨を示す情報を出力する、
情報処理装置。 - 第1の音源の音声信号を取得する取得部と、
前記音声信号に基づいて、発話区間を検出し、前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出する検出抽出部と、
前記発話区間特徴量に基づいて、音声認識を実行する音声認識実行部と、
前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報とを記憶する記憶部と、
前記発話区間特徴量、前記音声認識を実行することにより得られた発話内容、前記第1の音源の過去の感情を示す情報、及び前記第2の音源の過去の感情を示す情報に基づいて、前記第1の音源の感情を推定する感情推定部と、
切替判定部と、
を有し、
前記第1の音源は、ユーザであり、
前記第2の音源は、1以上の電気装置により実現される自動応答システムであり、
前記第1の音源の過去の感情を示す情報は、前記ユーザと前記自動応答システムとの会話が開始してから、推定された前記ユーザの感情の履歴であり、
前記切替判定部は、前記ユーザの感情の履歴に基づいて、予め設定された時間内に、前記ユーザの感情が変化した回数を特定し、前記回数が予め設定された閾値以上であるか否かを判定し、前記回数が前記閾値以上である場合、前記自動応答システムの運用からオペレータ運用に切り替える、
情報処理装置。 - 前記記憶部は、前記第1の音源と前記第2の音源との会話が開始してから、前記第1の音源が発した発話の内容を示す第1の発話履歴と前記第2の音源が発した発話の内容を示す第2の発話履歴とをさらに記憶し、
前記感情推定部は、前記第1の発話履歴、前記第2の発話履歴、前記発話区間特徴量、前記音声認識を実行することにより得られた発話内容、前記第1の音源の過去の感情を示す情報、及び前記第2の音源の過去の感情を示す情報に基づいて、前記第1の音源の感情を推定する、
請求項1から3のいずれか1項に記載の情報処理装置。 - 前記第2の音源の過去の感情は、前記音声信号が取得される前に推定された感情であり、
前記第1の音源の過去の感情は、前記第2の音源の過去の感情が推定される前に推定された感情である、
請求項1から4のいずれか1項に記載の情報処理装置。 - 前記第1の音源の過去の感情を示す情報は、前記第1の音源と前記第2の音源との会話が開始してから、推定された前記第1の音源の感情の履歴であり、
前記第2の音源の過去の感情を示す情報は、前記第1の音源と前記第2の音源との会話が開始してから、推定された前記第2の音源の感情の履歴である、
請求項1から4のいずれか1項に記載の情報処理装置。 - 前記取得部は、前記第1の音源のパーソナリティ情報を取得し、
前記感情推定部は、パーソナリティ情報と重みとの対応関係を示す重み情報を用いて学習することにより生成された学習済モデルと前記第1の音源のパーソナリティ情報とを用いて、前記第1の音源の感情を推定する、
請求項1から6のいずれか1項に記載の情報処理装置。 - 前記取得部は、前記ユーザのパーソナリティ情報を取得し、
前記記憶部は、パーソナリティ情報と重みとの対応関係を示す重み情報を記憶し、
前記切替判定部は、前記ユーザのパーソナリティ情報、前記回数、及び前記重み情報に基づいて、値を算出し、前記値が前記閾値以上である場合、前記自動応答システムの運用から前記オペレータ運用に切り替える、
請求項3に記載の情報処理装置。 - 記憶部を有する情報処理装置が、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情の値である感情値を推定し、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせる内容である場合、注意を促す情報を出力する、
推定方法。 - 記憶部を有する情報処理装置が、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情の値である感情値を推定し、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせない内容である場合、問題がない旨を示す情報を出力する、
推定方法。 - 記憶部を有する情報処理装置が、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情を推定し、
前記第1の音源は、ユーザであり、
前記第2の音源は、1以上の電気装置により実現される自動応答システムであり、
前記第1の音源の過去の感情を示す情報は、前記ユーザと前記自動応答システムとの会話が開始してから、推定された前記ユーザの感情の履歴であり、
前記ユーザの感情の履歴に基づいて、予め設定された時間内に、前記ユーザの感情が変化した回数を特定し、前記回数が予め設定された閾値以上であるか否かを判定し、前記回数が前記閾値以上である場合、前記自動応答システムの運用からオペレータ運用に切り替える、
推定方法。 - 記憶部を有する情報処理装置に、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情の値である感情値を推定する、
処理を実行させる推定プログラムであり、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせる内容である場合、注意を促す情報を出力する、
推定プログラム。 - 記憶部を有する情報処理装置に、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情の値である感情値を推定する、
処理を実行させる推定プログラムであり、
前記第1の音源は、第1のユーザであり、
前記第2の音源は、第2のユーザであり、
前記記憶部は、前記音声信号が取得される前に前記第2のユーザが発した発話の内容であるユーザ発話内容を記憶し、
前記感情値が予め定められた閾値以上であり、かつ前記ユーザ発話内容がネガティブな感情を生じさせない内容である場合、問題がない旨を示す情報を出力する、
推定プログラム。 - 記憶部を有する情報処理装置に、
第1の音源の音声信号を取得し、
前記音声信号に基づいて、発話区間を検出し、
前記発話区間に基づいて、前記発話区間の特徴量である発話区間特徴量を抽出し、
前記発話区間特徴量に基づいて、音声認識を実行し、
前記記憶部に格納されている前記第1の音源の過去の感情を示す情報と第2の音源の過去の感情を示す情報、前記発話区間特徴量、及び前記音声認識を実行することにより得られた発話内容に基づいて、前記第1の音源の感情を推定する、
処理を実行させる推定プログラムであり、
前記第1の音源は、ユーザであり、
前記第2の音源は、1以上の電気装置により実現される自動応答システムであり、
前記第1の音源の過去の感情を示す情報は、前記ユーザと前記自動応答システムとの会話が開始してから、推定された前記ユーザの感情の履歴であり、
前記ユーザの感情の履歴に基づいて、予め設定された時間内に、前記ユーザの感情が変化した回数を特定し、前記回数が予め設定された閾値以上であるか否かを判定し、前記回数が前記閾値以上である場合、前記自動応答システムの運用からオペレータ運用に切り替える、
推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/032977 WO2022049613A1 (ja) | 2020-09-01 | 2020-09-01 | 情報処理装置、推定方法、及び推定プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022049613A1 JPWO2022049613A1 (ja) | 2022-03-10 |
JP7162783B2 true JP7162783B2 (ja) | 2022-10-28 |
JPWO2022049613A5 JPWO2022049613A5 (ja) | 2022-11-01 |
Family
ID=80491814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022546733A Active JP7162783B2 (ja) | 2020-09-01 | 2020-09-01 | 情報処理装置、推定方法、及び推定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7162783B2 (ja) |
WO (1) | WO2022049613A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156523A (ja) | 2017-03-21 | 2018-10-04 | 日本電気株式会社 | 情報処理装置、業務支援方法、およびプログラム |
JP2018169843A (ja) | 2017-03-30 | 2018-11-01 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008053826A (ja) * | 2006-08-22 | 2008-03-06 | Oki Electric Ind Co Ltd | 電話応答システム |
JP6450138B2 (ja) * | 2014-10-07 | 2019-01-09 | 株式会社Nttドコモ | 情報処理装置及び発話内容出力方法 |
JP6732703B2 (ja) * | 2017-07-21 | 2020-07-29 | 日本電信電話株式会社 | 感情インタラクションモデル学習装置、感情認識装置、感情インタラクションモデル学習方法、感情認識方法、およびプログラム |
-
2020
- 2020-09-01 WO PCT/JP2020/032977 patent/WO2022049613A1/ja active Application Filing
- 2020-09-01 JP JP2022546733A patent/JP7162783B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156523A (ja) | 2017-03-21 | 2018-10-04 | 日本電気株式会社 | 情報処理装置、業務支援方法、およびプログラム |
JP2018169843A (ja) | 2017-03-30 | 2018-11-01 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2022049613A1 (ja) | 2022-03-10 |
JPWO2022049613A1 (ja) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111028827B (zh) | 基于情绪识别的交互处理方法、装置、设备和存储介质 | |
US11790896B2 (en) | Detecting non-verbal, audible communication conveying meaning | |
KR101610151B1 (ko) | 개인음향모델을 이용한 음성 인식장치 및 방법 | |
JP3584458B2 (ja) | パターン認識装置およびパターン認識方法 | |
JP5024154B2 (ja) | 関連付け装置、関連付け方法及びコンピュータプログラム | |
CN109360572B (zh) | 通话分离方法、装置、计算机设备及存储介质 | |
JP6780033B2 (ja) | モデル学習装置、推定装置、それらの方法、およびプログラム | |
CN111105782A (zh) | 会话交互处理方法、装置、计算机设备和存储介质 | |
JP2007286377A (ja) | 応対評価装置、その方法、プログラムおよびその記録媒体 | |
US20190066658A1 (en) | Method for learning conversion model and apparatus for learning conversion model | |
JPWO2011064938A1 (ja) | 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム | |
JP2017009825A (ja) | 会話状況分析装置および会話状況分析方法 | |
JP2022000825A (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP2017010309A (ja) | 意思決定支援装置および意思決定支援方法 | |
JP6797338B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2000172295A (ja) | 低複雑性スピ―チ認識器の区分ベ―スの類似性方法 | |
JP5704071B2 (ja) | 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム | |
CN109065026B (zh) | 一种录音控制方法及装置 | |
CN113571096B (zh) | 语音情绪分类模型训练方法、装置、计算机设备及介质 | |
JP2018132624A (ja) | 音声対話装置 | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP7162783B2 (ja) | 情報処理装置、推定方法、及び推定プログラム | |
JP2018132623A (ja) | 音声対話装置 | |
JP5099218B2 (ja) | 問題解決時間推定処理プログラム,処理装置および処理方法 | |
KR20210010133A (ko) | 음성 인식 방법, 음성 인식을 위한 학습 방법 및 그 장치들 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220803 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7162783 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |