JP2017097317A - 識別装置、ロボットおよび識別方法 - Google Patents
識別装置、ロボットおよび識別方法 Download PDFInfo
- Publication number
- JP2017097317A JP2017097317A JP2016024162A JP2016024162A JP2017097317A JP 2017097317 A JP2017097317 A JP 2017097317A JP 2016024162 A JP2016024162 A JP 2016024162A JP 2016024162 A JP2016024162 A JP 2016024162A JP 2017097317 A JP2017097317 A JP 2017097317A
- Authority
- JP
- Japan
- Prior art keywords
- identification
- class
- unit
- learning
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
演算量を削減するための手法としては、入力パターンから特徴ベクトルを抽出しベクトルの内積を求めることにより線形結合する識別装置が提案されている(例えば、特許文献1参照)。
(5)また、本発明の一態様に係る識別装置において、前記識別境界は、原点を通るようにしてもよい。
上述した(7)の構成によれば、学習データを用いて、4つの識別器それぞれの結合係数を設定することができる。この設定された結合係数を用いて、音声認識を行うことで、識別精度を向上できる。
図1は、本実施形態に係るロボット2が備える識別装置1の概略構成を示すブロック図である。なお、本実施形態では、ロボット2が識別装置1を備える例を説明するが、識別装置1が識別した識別結果をロボット2に出力するようにしてもよい。また、車両や携帯端末等が本実施形態の識別装置1を備えていてもよく、識別装置1から識別結果を取得するようにしてもよい。
次に、本実施形態に係る識別装置1の各部について説明する。
制御部10は、学習モードと識別モードを切り替えて識別装置1を制御する。学習モードとは、学習サンプルデータベース11が記憶しているサンプルデータを用いて学習を行って、線形結合係数(以下、単に結合係数という)を設定する動作モードである。識別モードとは、外部装置から取得した音声信号を、学習モードで設定した結合係数を用いて識別する動作モードである。外部装置は、例えば収音装置、録音装置等である。制御部10は、学習モードで識別装置1を制御するとき、学習モードを示す情報を、サンプル選択部12、音声認識部14、結合モデル算出部20、および重みベクトル学習部21に出力する。制御部10は、識別モードで識別装置1を制御するとき、識別モードを示す情報を、音声認識部14、結合モデル算出部20、および出力部22に出力する。なお、制御部10は、学習モードにおいて、1回目の学習時に、初期化された結合係数Wを用い、2回目以降の学習時に、重みベクトル学習部21が更新した結合係数Wを用い、識別性能が所定の範囲内になるまで学習を繰り返すように識別装置1を制御する。制御部10は、結合係数記憶部13が記憶している結合係数を読み出し、識別性能が所定の範囲内になったとき、結合係数が収束したと判別して、学習モードを終了する。また、制御部10は、識別モードのとき、学習モードで設定した結合係数を用いて識別する。
行動識別部16は、音声認識部14が出力したK個の単語列毎に、その単語列に含まれる単語に対して、予め定められているL個(Lは1以上の整数)の行動識別クラスそれぞれの識別を行うL個のサポートベクターマシンを用いて識別する。行動識別部16は、例えばOne−versus−rest法を用いて識別する。なお、one−versus−rest法とは、対象クラスのサンプルを正例に分類し,残りのクラスのサンプルを負例に分類する手法である。行動識別部16は、例えばサポートベクターマシンにおける分離境界面との距離に基づいて、単語列に含まれる単語毎にスコアS2,j(xi)を算出する。行動識別部16は、算出したスコアS2,j(xi)を乗算器192に出力する。行動識別部16は、単語列毎に、識別した結果である行動識別結果と、その単語列に含まれる単語毎のスコアのペアを過不足判定部18と出力部22に出力する。
次に、学習サンプルデータベース11が記憶するデータについて説明する。
図2は、本実施形態に係る学習サンプルデータベース11が記憶するデータの一例を示す図である。図2の符号g1の符号g11に示すように、学習サンプルデータベース11は、初期状態でサンプルデータである音声信号に行動識別クラスを対応付けて記憶している。学習サンプルデータベース11は、例えば、『フォークをキッチンから持ってきて』の音声信号x1に、『持ってくる』のクラス1を対応付けて記憶する。また、学習サンプルデータベース11は、『隣の部屋の電気をつけて』の音声信号x2に、『(電気を)つける』のクラス2を対応付けて記憶する。
次に、重みベクトル学習部21が更新する結合係数Wについて説明する。
図3は、複数の識別器である要素モデルを線形結合した識別装置の概念図である。K個(Kは2以上の整数)の第1要素モデル101〜第K要素モデル103それぞれは、識別器であり、データxを取得する。識別装置は、第1要素モデル101〜第K要素モデル103の識別結果を、線形結合係数111を用いて、結合モデル121を構成し、構成した結合モデル121を用いて識別を行う。なお、図3において、K=4の場合が本実施形態の識別装置1である。この場合、第1要素モデル101が音声認識部14に対応し、第2要素モデル102が行動識別部16に対応し、第3要素モデルがスロット抽出部17に対応し、第4要素モデルが過不足判定部18に対応する。
要素モデルk∈[K]のクラスyj∈[J]に対する出力をgkj(ki)と表し、サンプルデータxiにおける識別装置1を分類器h(xi)と定義すると、分類器h(xi)は、次式(3)によって求めることができる。
図4は、従来技術に係るサポートベクターマシンを用いた識別手法を示す図である。図4に示す例は、ラベル(+1、−1)からなるサンプルデータを用いて、2つのクラスに分類する例である。図4において、横軸をz1、縦軸をz2とする。ここで、ラベル(+1)を有するクラスを第1のクラス、ラベル(−1)を有するクラスを第2のクラスとする。
さらに、zi=[zi,1,…,zi,k]Tとすると、式(11)は、次式(12)になる。
図5において、鎖線g201で囲んだ領域は正側のクラス、線g203は分離境界面、符号g204はサポートベクター、鎖線g206はサポートベクターを通る最大マージンを有する超平面と平行な面、符号g208は分離境界面と超平面とのマージンである。また、ziは第1象限に分布し、分離境界面g203は、原点Oと第2象限と第4象限を通る直線である。
この拡張は、上述した制約条件wTzi≧1を緩和することによって導くことができる。ここで、新たに非負の変数ξi(≧0、i∈[n])を導入し、制約条件wTzi≧1を次式(18)のように変更する。
ただし、鎖線で囲んだg209の領域のように誤分類が発生したときにwTziが0未満であるため、緩和された制約条件が成立するためには、ξiが1より大きな値である必要がある。このため、例えばΣi∈[n]ξiが、ある整数L以下であれば誤分類を抑圧することができる。このため、ソフトマージンでは、最適化問題における目的関数を次式(19)のように定義し直す。
本実施形態では、式(20)において、yi=1、i∈[n]、b=0の制約を行うことで、結合係数W(={w1,…,wk})を求める。これにより、本実施形態の分離境界面は、従来技術とは異なり原点Oを通る。そして、識別装置1は、このように求めた結合係数Wを識別モードのときに用いて、識別を行う。
図7は、データが第1象限のみではなく第2象限と第4象限にも分布している例を示す図である。図7に示す例では、鎖線g301で囲んだ領域のデータzが第1象限に分布し、鎖線g302で囲んだ領域のデータzが第2象限に分布し、鎖線g303で囲んだ領域のデータzが第4象限に分布している。
図7において、分離境界面が原点Oを通る鎖線g312、g313、g314であれば、データは全て分離境界面の正側に分布しているため、適切な識別が行える。しかしながら、分離境界面が実線g311の場合は、分離境界面の負側にもデータが分布しているため、正しく識別できないデータが生じていることを表している。図7における分離境界面は、w1z1+w2z2=0であるため、wの値の変化によって分離境界面の傾きが変化する。このため、図7において結合係数w1、w2の最適化の処理が必要である。
分離境界面は、分離境界面に最も近いデータ(サポートベクター)との距離が最大となる、すなわちマージンが最大となるように設定することで、分離境界面の負側に分布するデータを低減することができる。
上述した式(6)において、次式(21)のj^が、wの値によって変化する。
このため、本実施形態では、結合係数Wが収束するまで、最適化の処理を繰り返す。
図8は、本実施形態に係る結合係数Wの更新方法を示すフローチャートである。
(ステップS1)サンプル選択部12は、学習モードの開始時、結合係数記憶部13が記憶している結合係数w1〜w4を全て1に初期化する。続けて、制御部10は、学習モードで識別装置1を制御するとき、学習モードを示す情報を、サンプル選択部12、音声認識部14、結合モデル算出部20、および重みベクトル学習部21に出力する。
(ステップS4)結合モデル算出部20は、クラスyj毎に結合モデルGj(xi)を識別結果(結合結果値ともいう)として算出する。なお、結合モデル算出部20は、全てのクラスに対して、ステップS4の処理を行う。
(ステップS6)差分算出部212は、要素モデル(音声認識部14、行動識別部16、スロット抽出部17、過不足判定部18)毎に正解クラスyiと最大値となるクラスymaxとの差を特徴量として算出する。
(ステップS8)サンプル選択部12は、学習サンプルデータベース11が記憶しているサンプルデータ全てに対して、ステップS3〜ステップS7の処理が終了した後に、ステップS9の処理に進む。
(ステップS10)結合係数算出部214は、サポートベクターとのマージンが最大になる結合係数Wを算出し、算出した結合係数Wを結合係数記憶部13に記憶させて更新する。
以上で、識別装置1は、結合係数Wの更新を終了する。
次に、音声認識部14、行動識別部16、スロット抽出部17、過不足判定部18、乗算部19、結合モデル算出部20、重みベクトル学習部21が学習モードのとき行う処理の一例について説明する。
説明を簡単にするため、学習に用いる命令が『フォークをキッチンから持ってきて』の1つであり、学習サンプルデータベース11が記憶しているクラスが3つ(=L、クラス1〜クラス3)であるとする。
また、上述した例では、2次元の2つのクラスを、分離境界面を用いて分離する例を説明したが、これに限られない。n(nは2以上)次元のnのクラスをn次元の超平面を用いて分離するようにしてもよい。また、本実施形態では、線形分離する例を説明したが、これに限られない。重みベクトル学習部21は、サポートベクターマシン215にカーネル法を組み合わせて結合係数を設定してもよい。
音声認識部14は、音声信号を取得し、取得した音声信号に対して、学習モードのときと同様に音声認識と形態素解析を行う。そして、行動識別部16は、音声認識部14が形態素解析した結果に対して、学習モードのときと同様に音声認識部14が出力した単語列それぞれから、複数のサポートベクターマシンを用いて、行動識別クラスを識別する。また、スロット抽出部17は、音声認識部14が形態素解析した結果に対して、学習モードのときと同様に音声認識部14が出力した複数の単語列それぞれからスロットを抽出する。また、過不足判定部18は、学習モードのときと同様に、学習サンプルデータベース11が記憶している行動名と必要なスロットの関係に基づいて、行動識別部16が出力した単語列毎の識別結果における、その単語列からスロット抽出部17が抽出したスロットが過剰であるか不足しているかを判定する。そして、乗算部19は、結合係数記憶部13が記憶している学習モードのときに決定した結合係数を、各部が出力したスコアに乗ずる。
結合モデル算出部20は、学習モードのときと同様に全ての組み合わせを算出し、算出結果を出力部22に出力する。出力部22は、結合モデル算出部20が出力した値の中で最大となるときの行動識別部16の出力とスロット抽出部17の出力を抽出し、抽出した結果を識別結果として行動生成部25に出力する。
次に、本実施形態の識別装置1で結合係数を設定した実験結果の一例を説明する。実験では、学習サンプルデータベース11が595個の命令を記憶し、この595個のサンプルデータを用いて結合係数w1〜w4を設定した。また、実験では、識別装置1をコンピュータのハードウェアとソフトウェアを用いて構成した。また、実験に用いたコンピュータのCPUのクロックは、1.6GHzである。
図10に示すように、結合係数に初期値を用いた場合の精度は、77.0%であった。
全探索して設定した結合係数を用いた場合の精度は、87.6%であった。全探索して結合係数を設定するのに要した計算時間は、26401秒(=7時間20分1秒)であった。そして、本実施形態の手法によって設定した結合係数を用いた場合の精度は、全探索と同等の86.7%であった。また、本実施形態の手法によって結合係数を設定するのに要した計算時間は、35秒であり、全探索の計算時間の約1/754であった。なお、24−分割公差検定を用いて、本実施形態の識別結果を評価した結果は、86.2%であった。すなわち、従来の手法では、結合係数の計算時間が104のオーダーであったが、本実施形態によれば計算時間が4のオーダーに短縮することができる。
図11は、本実施形態に係るロボット2Aが備える識別装置1の概略構成を示すブロック図である。第1実施形態のロボット2と同じ機能を有する構成要素については、同じ符号を用いて説明を省略する。
結合モデル算出部20は、制御部10Aが学習モードを示す情報を出力したとき、乗算部19から受け取ったスコアS1,j(xi)〜スコアS4,j(xi)と,式(1)により加算した値Gj(xi)を識別結果として重みベクトル学習部21Aに出力する。結合モデル算出部20は、制御部10Aが識別モードを示す情報を出力したとき、値Gj(xi)を出力部22に出力する。
図13は、本実施形態に係る結合係数Wの更新方法を示すフローチャートである。なお、第1実施形態で説明した図8のフローチャートと同様の処理については、同じ符号を用いて説明を省略する。
(ステップS3)サンプル選択部12Aは、学習サンプルデータベース11が記憶しているサンプルデータの中から1つのサンプルデータxiを選択する。サンプル選択部12Aは、選択後、ステップS101の処理に進める。
(ステップS8)サンプル選択部12Aは、学習サンプルデータベース11が記憶しているサンプルデータ全てに対して、ステップS3、ステップS101、ステップS102の処理が終了した後に、ステップS9の処理に進む。
(ステップS12)制御部10Aは、結合係数を決定し、学習モードを終了する。
以上で、識別装置1Aは、結合係数Wの更新を終了する。
図14は、サポートベクターマシンを用いて、正解クラスと不正解クラスを直接識別する場合に発生する場合もある問題の一例を示す図である。図14において、横軸をg1、縦軸をg2とする。なお、g1、g2それぞれは、要素モデルのクラスに対する出力(スコア)を表す。また、図14において、○nは、n番目の正解クラスの評価結果(g1とg2とのスコアの組み)を表し、×n−{1,2,3}は、n番目の負正解クラスの評価結果(g1とg2とのスコアの組み)を表す。なお、図14に示す例は、各サンプルにおいて正解クラスが1つ、不正解クラスが3つある場合の例である。
図15は、第1実施形態および第2実施形態において正解クラスと不正解クラスとの差分を算出することの効果を示す図である。図15において、横軸をz1、縦軸をz2とする。図15において、・n−jは、図14の正解クラスの評価結果○nと負正解クラスの評価結果×n−{1,2,3}から算出した差分データである。
このため、第1実施形態および第2実施形態では、分離境界面g611を求めるために、分離境界面のバイアスを0に固定、すなわち原点を通るように、+1のラベルを付与した。これにより、第1実施形態および第2実施形態によれば、差分を算出した後、1つのクラスであっても、マージン最大化原理を用いることで、分離境界面を求めることができる。
Claims (9)
- 学習時に、少なくとも2つのクラスのデータから構成される学習データに対して、複数の識別器それぞれで識別した結果を識別結果として出力し、識別時に、少なくとも2つのクラスのデータから構成される学習データに対して、複数の識別器それぞれで識別した結果を、結合係数を用いて線形結合した結合結果値を算出して前記識別結果として出力する算出部と、
前記識別結果から前記識別器毎に正解クラスと前記正解クラス以外の不正解クラスとを抽出する抽出部と、
前記正解クラスと前記不正解クラスとの差を前記識別器毎に算出する差分算出部と、
前記識別器毎に算出された差を用いて特徴量ベクトルを算出する変換部と、
複数の学習データに対して、前記特徴量ベクトルに基づく値を、サポートベクターマシンを用いて学習することで、前記結合係数を更新する結合係数設定部と、
を備え、
前記更新された結合係数を用いて入力データを識別する識別装置。 - 前記抽出部は、前記識別結果の中から全ての前記不正解クラスを抽出し、
差分算出部は、前記正解クラスと、前記全ての不正解クラスとの差を前記識別器毎に、かつ各クラス別に算出する、請求項1に記載の識別装置。 - 前記算出部は、
学習時に、少なくとも2つのクラスのデータから構成される学習データに対して、複数の識別器それぞれで識別した結果を、結合係数を用いて線形結合した結合結果値を前記識別結果として出力し、
前記抽出部は、
前記識別結果の中から正解クラス以外の前記識別結果の最大値を抽出し、
前記差分算出部は、
前記正解クラスにおける学習データの識別結果と、前記不正解クラスにおける前記識別結果が最大値のクラスにおける学習データの識別結果との差を前記識別器毎に算出する、請求項1に記載の識別装置。 - 前記変換部は、算出した前記特徴量ベクトルに正確クラスを示す+1のラベルを付加して、前記特徴量ベクトルに基づく値に変換し、
前記結合係数設定部は、識別境界とサポートベクターとのマージンが最大となる前記結合係数に更新する、
請求項1から請求項3のいずれか1項に記載の識別装置。 - 前記識別境界は、原点を通る、
請求項4に記載の識別装置。 - 前記結合係数の初期値は1であり、
前記結合係数設定部は、
識別境界とサポートベクターとのマージンが収束するまで学習を繰り返して前記結合係数を更新する、
請求項4または請求項5に記載の識別装置。 - 前記学習データおよび前記入力データは、行動の指示を表す単語と名詞が含まれる音声信号であり、
前記複数の識別器それぞれは、音声認識を行う識別器、前記音声認識された結果に含まれる行動を表す単語を識別する識別器、前記音声認識された結果に含まれる名詞を識別する識別器、前記行動を表す単語と前記名詞を過不足無く抽出できたか否かを識別する識別器である、
請求項1から請求項6のいずれか1項に記載の識別装置。 - 前記学習データの音声信号は、ロボットに行動を促す指示の音声信号であり、
請求項1から請求項7のいずれか1項に記載の識別装置を備えるロボット。 - 算出部が、学習時に、少なくとも2つのクラスのデータから構成される学習データに対して、複数の識別器それぞれで識別した結果を識別結果として出力し、識別時に、少なくとも2つのクラスのデータから構成される学習データに対して、複数の識別器それぞれで識別した結果を、結合係数を用いて線形結合した結合結果値を算出して前記識別結果として出力する算出手順と、
抽出部が、前記識別結果から前記識別器毎に正解クラスと前記正解クラス以外の不正解クラスとを抽出する抽出手順と、
差分算出部が、前記正解クラスと前記不正解クラスとの差を前記識別器毎に算出する差分算出手順と、
変換部が、前記識別器毎に算出された差を用いて特徴量ベクトルを算出する差分算出手順と、
変換部が、前記複数の識別器毎に算出された差を用いて特徴量ベクトルを算出し、算出した前記特徴量ベクトルに正解クラスを示す+1のラベルを付加して、前記特徴量ベクトルに基づく値に変換する変換手順と、
結合係数設定部が、複数の学習データに対して、前記特徴量ベクトルに基づく値を、サポートベクターマシンを用いて学習することで、原点を通る識別境界とサポートベクターとのマージンが最大となる前記結合係数に更新する結合係数設定手順と、
を含む識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/352,650 US11049045B2 (en) | 2015-11-18 | 2016-11-16 | Classification apparatus, robot, and classification method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225932 | 2015-11-18 | ||
JP2015225932 | 2015-11-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097317A true JP2017097317A (ja) | 2017-06-01 |
JP6634635B2 JP6634635B2 (ja) | 2020-01-22 |
Family
ID=58803861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016024162A Active JP6634635B2 (ja) | 2015-11-18 | 2016-02-10 | 識別装置、ロボットおよび識別方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6634635B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046450A (ja) * | 2017-09-01 | 2019-03-22 | ヤフー株式会社 | 選択装置、選択方法および選択プログラム |
WO2019159602A1 (ja) * | 2018-02-15 | 2019-08-22 | 日本電信電話株式会社 | データ処理装置、方法、およびプログラムを記憶した媒体 |
JP2019155561A (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
CN111339770A (zh) * | 2020-02-18 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP2023531327A (ja) * | 2020-06-29 | 2023-07-21 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005309920A (ja) * | 2004-04-23 | 2005-11-04 | Alliance Group Inc | 多数決装置及びその学習方法と多クラス識別装置 |
WO2008084842A1 (ja) * | 2007-01-12 | 2008-07-17 | Nec Corporation | カーネル関数生成方法および装置、データ分類装置 |
JP2011053690A (ja) * | 2009-09-03 | 2011-03-17 | Honda Motor Co Ltd | コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット |
-
2016
- 2016-02-10 JP JP2016024162A patent/JP6634635B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005309920A (ja) * | 2004-04-23 | 2005-11-04 | Alliance Group Inc | 多数決装置及びその学習方法と多クラス識別装置 |
WO2008084842A1 (ja) * | 2007-01-12 | 2008-07-17 | Nec Corporation | カーネル関数生成方法および装置、データ分類装置 |
JP2011053690A (ja) * | 2009-09-03 | 2011-03-17 | Honda Motor Co Ltd | コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット |
Non-Patent Citations (1)
Title |
---|
内山俊郎他: "確信度推定を用いた複数分類器の結合", 第84回 知識ベースシステム研究会資料, JPN6019044176, 20 January 2009 (2009-01-20), pages 33 - 38, ISSN: 0004153677 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046450A (ja) * | 2017-09-01 | 2019-03-22 | ヤフー株式会社 | 選択装置、選択方法および選択プログラム |
WO2019159602A1 (ja) * | 2018-02-15 | 2019-08-22 | 日本電信電話株式会社 | データ処理装置、方法、およびプログラムを記憶した媒体 |
JPWO2019159602A1 (ja) * | 2018-02-15 | 2020-09-24 | 日本電信電話株式会社 | データ処理装置、方法、およびプログラムを記憶した媒体 |
US11960499B2 (en) | 2018-02-15 | 2024-04-16 | Nippon Telegraph And Telephone Corporation | Sales data processing apparatus, method, and medium storing program for sales prediction |
JP2019155561A (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
WO2019176478A1 (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
US11478926B2 (en) | 2018-03-15 | 2022-10-25 | Omron Corporation | Operation control device for robot, robot control system, operation control method, control device, processing device and recording medium |
CN111339770A (zh) * | 2020-02-18 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN111339770B (zh) * | 2020-02-18 | 2023-07-21 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP2023531327A (ja) * | 2020-06-29 | 2023-07-21 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7414188B2 (ja) | 2020-06-29 | 2024-01-16 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6634635B2 (ja) | 2020-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992934B (zh) | 面向语音识别系统黑盒攻击模型的防御方法及防御装置 | |
CN110188358B (zh) | 自然语言处理模型的训练方法及装置 | |
US11210470B2 (en) | Automatic text segmentation based on relevant context | |
EP3424044B1 (en) | Modular deep learning model | |
CN108846077B (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
US11049045B2 (en) | Classification apparatus, robot, and classification method | |
JP6634635B2 (ja) | 識別装置、ロボットおよび識別方法 | |
CN108475262A (zh) | 用于文本处理的电子设备和方法 | |
KR102577589B1 (ko) | 음성 인식 방법 및 음성 인식 장치 | |
KR101837262B1 (ko) | 단어 자질 가중치를 적용한 딥 러닝 기반 개체 유형 분류 방법 | |
US20240005093A1 (en) | Device, method and program for natural language processing | |
CN113268609A (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
CN117234341B (zh) | 基于人工智能的虚拟现实人机交互方法及系统 | |
CN110570879A (zh) | 基于情绪识别的智能会话方法、装置及计算机设备 | |
CN113887643A (zh) | 一种基于伪标签自训练和源域再训练的新对话意图识别方法 | |
CN115662435B (zh) | 一种虚拟教师拟真化语音的生成方法及终端 | |
CN115658954B (zh) | 一种基于提示学习的跨模态检索对抗防御方法 | |
CN111161726B (zh) | 一种智能语音交互方法、设备、介质及系统 | |
Li et al. | Speaker verification using simplified and supervised i-vector modeling | |
CN116226357B (zh) | 一种输入中包含错误信息场景下的文档检索方法 | |
CN116982054A (zh) | 使用前瞻树搜索的序列到序列神经网络系统 | |
KR20210042696A (ko) | 모델 학습 방법 및 장치 | |
CN114913590B (zh) | 一种数据的情感识别方法、装置、设备及可读存储介质 | |
JP6770709B2 (ja) | 機械学習用モデル生成装置及びプログラム。 | |
JP2015001695A (ja) | 音声認識装置、音声認識方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6634635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |