JP6220762B2 - 次発話候補スコアリング装置、方法、及びプログラム - Google Patents

次発話候補スコアリング装置、方法、及びプログラム Download PDF

Info

Publication number
JP6220762B2
JP6220762B2 JP2014219533A JP2014219533A JP6220762B2 JP 6220762 B2 JP6220762 B2 JP 6220762B2 JP 2014219533 A JP2014219533 A JP 2014219533A JP 2014219533 A JP2014219533 A JP 2014219533A JP 6220762 B2 JP6220762 B2 JP 6220762B2
Authority
JP
Japan
Prior art keywords
utterance
concept vector
concept
candidate
string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014219533A
Other languages
English (en)
Other versions
JP2016085685A (ja
Inventor
克人 別所
克人 別所
東中 竜一郎
竜一郎 東中
牧野 俊朗
俊朗 牧野
松尾 義博
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014219533A priority Critical patent/JP6220762B2/ja
Publication of JP2016085685A publication Critical patent/JP2016085685A/ja
Application granted granted Critical
Publication of JP6220762B2 publication Critical patent/JP6220762B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ユーザとの間で対話を行う対話システムにおいて、ユーザとの間で、ある発話列がやり取りされた後、システムが生成した次発話候補集合の中で、システム側が発する次発話として相応しい次発話候補を決定するための次発話候補スコアリング装置、方法、及びプログラムに関する。
非タスク指向型対話システムでは、対話の内容は雑談であり、非特許文献1では、ウェブやツイッター(登録商標)などの文章をデータベース化しておき、ユーザ発話に類似するものを選択することでシステム発話を生成する。
これまでやり取りされてきた発話列における焦点(トピック)を求め、当該焦点について言及した文をデータベースから次発話候補として複数取り、この次発話候補のスコアを算出する手法がある。スコア算出後、最高スコアを出した次発話候補をシステムがユーザに返す。あるいは、ある閾値以上のスコアをもつ次発話候補、またはスコアが上位何位かまでの次発話候補から、ランダムに選択した次発話候補を、システムがユーザに返す。
このような手法として、直前のN(≧1)個の発話の列を文脈とし、各次発話候補に対し、文脈発話列の概念ベクトルと、該次発話候補の概念ベクトルとの近さを表すスコアを算出する概念ベースに基づく手法がある。
Bessho, F., Harada, T., and Kuniyoshi, Y."Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus."In Proc. SIGDIAL, pp. 227-231, 2012.
上述した概念ベースに基づく手法では、文脈発話列と次発話候補の内容が近ければ高スコアとなるが、このため、内容は近いが次発話として相応しくない次発話候補が選択され、内容が少々遠いが次発話として相応しい次発話候補が選択されないことがあるという課題がある。例えば、文脈発話列が1質問文で、ある次発話候補が全く同じ質問文であれば、該次発話候補が選択されるが、該次発話候補は次発話として相応しいとは言えない。そして、当該質問文に回答しているような、より相応しい次発話候補が選択されない。
本発明の目的は、この課題を解決するため、次発話候補集合の中から、文脈発話列の次発話として相応しい次発話候補を選択することができる次発話候補スコアリング装置、方法、及びプログラムを提供することにある。
上記課題を解決するため、本発明に係る次発話候補スコアリング装置は、単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、文脈となる発話列Aと、次発話候補Bと、前記発話列Aの次発話として前記次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とし、各発話列評価データDに対し、前記概念ベースを参照し、前記発話列Aの概念ベクトルEを生成し、前記次発話候補Bの概念ベクトルFを生成し、前記概念ベクトルEと前記概念ベクトルFとを結合した概念ベクトルGと前記ラベルCとの組合せからなる変換後発話列評価データHを生成する発話列評価データ変換手段と、前記変換後発話列評価データHの集合から、前記概念ベクトルGと同次元の任意の概念ベクトルが、前記ラベルCの一つの値に分類されるスコアを算出するための分類モデルを生成する学習手段と、を含んで構成されている。
上記の次発話候補スコアリング装置は、文脈となる発話列Iと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Iの概念ベクトルJを生成し、前記次発話候補集合における各次発話候補Kに対し、前記次発話候補Kの概念ベクトルLを生成し、前記概念ベクトルJと前記概念ベクトルLを結合した概念ベクトルMを生成し、前記学習手段で生成された分類モデルを参照することにより、前記概念ベクトルMが前記ラベルCの一つの値に分類されるスコアを算出する評価手段を更に含むようにすることができる。
また、本発明に係る次発話候補スコアリング方法は、単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、発話列評価データ変換手段と、学習手段とを含む次発話候補スコアリング装置における次発話候補スコアリング方法であって、前記発話列評価データ変換手段が、文脈となる発話列Aと、次発話候補Bと、前記発話列Aの次発話として前記次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とし、各発話列評価データDに対し、前記概念ベースを参照し、前記発話列Aの概念ベクトルEを生成し、前記次発話候補Bの概念ベクトルFを生成し、前記概念ベクトルEと前記概念ベクトルFとを結合した概念ベクトルGと前記ラベルCとの組合せからなる変換後発話列評価データHを生成し、前記学習手段が、前記変換後発話列評価データHの集合から、前記概念ベクトルGと同次元の任意の概念ベクトルが、前記ラベルCの一つの値に分類されるスコアを算出するための分類モデルを生成する。
上記の次発話候補スコアリング方法は、評価手段が、文脈となる発話列Iと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Iの概念ベクトルJを生成し、前記次発話候補集合における各次発話候補Kに対し、前記次発話候補Kの概念ベクトルLを生成し、前記概念ベクトルJと前記概念ベクトルLを結合した概念ベクトルMを生成し、前記学習手段で生成された分類モデルを参照することにより、前記概念ベクトルMが前記ラベルCの一つの値に分類されるスコアを算出することを更に含むようにすることができる。
また、本発明のプログラムは、コンピュータを、上記の次発話候補スコアリング装置を構成する各手段として機能させるためのプログラムである。
本発明では、次発話候補が文脈発話列の次発話として相応しいか否かを、分類問題として解く。請求項1は学習フェーズの処理を構成するものであり、請求項2は分類フェーズの処理を構成するものである。
本発明に係る次発話候補スコアリング装置、方法、及びプログラムによれば、文脈となる発話列Aと、次発話候補Bと、発話列Aの次発話として相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とし、各発話列評価データDに対し、発話列Aの概念ベクトルEを生成し、次発話候補Bの概念ベクトルFを生成し、概念ベクトルEと概念ベクトルFとを結合した概念ベクトルGとラベルCとの組合せからなる変換後発話列評価データHを生成し、変換後発話列評価データHの集合から、概念ベクトルGと同次元の任意の概念ベクトルが、ラベルCの一つの値に分類されるスコアを算出するための分類モデルを学習して、次発話として相応しい発話をシステムが返すことにより、システムとユーザとのインタラクションが円滑になるという効果を奏する。
本発明の実施の形態に係る次発話候補スコアリング装置の機能的構成を示すブロック図である。 発話列評価データDの集合の例を示す図である。 概念ベースの例を示す図である。 変換後発話列評価データHの集合の例を示す図である。 本発明の実施の形態に係る次発話候補スコアリング装置の発話列評価データ変換手段及び学習手段における処理ルーチンを示すフローチャート図である。 本発明の実施の形態に係る次発話候補スコアリング装置の機能的構成を示すブロック図である。 本発明の実施の形態に係る次発話候補スコアリング装置の評価手段における処理ルーチンを示すフローチャート図である。 概念ベクトルMとそれに対して算出したスコアとの組の集合を示す図である。
以下、図面とともに本発明の実施の形態を説明する。
<次発話候補スコアリング装置の構成>
次に、本発明の実施の形態に係る次発話候補スコアリング装置の構成について説明する。図1は、本発明の請求項1の次発話候補スコアリング装置の構成例である。図1に示すように、本発明の実施の形態に係る次発話候補スコアリング装置100は、CPUと、RAMと、後述する処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この次発話候補スコアリング装置100は、機能的には図1に示すように入力手段10と、演算手段20とを備えている。
入力手段10は、文脈となる発話列Aと、次発話候補Bと、発話列Aの次発話として次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とする。発話列評価データDの集合は、学習フェーズにおける学習データ群である。図2は、発話列評価データDの集合の例を示す図である。各行が、1発話列評価データDである。
文脈となる発話列Aは、システムとユーザとの間でやり取りされる発話の列である。発話列Aを構成する発話の数は任意であるが、ある一定の数N(例えば2)としてもよい。
発話列Aの次発話として次発話候補Bが相応しい場合、ラベルCは値1をとり、相応しくない場合、ラベルCは値0をとる。発話列Aと次発話候補Bからなるデータは、ラベルCが1であれば正例データであり、ラベルCが0であれば負例データである。
正例データは、人と人との対話ログからN+1個の連続する発話の列をとり、発話列Aを最初のN個の発話の列とし、次発話候補BをN+1番目の発話とすることによっても構成できる。また、負例データは、人と人との対話ログからN+1個の連続する発話の列をとり、発話列Aを最初のN個の発話の列とし、次発話候補BをN+1番目の発話以外の、次発話として相応しくない任意の発話とすることによっても構成できる。
演算手段20は、発話列評価データ変換手段21と、概念ベース22と、学習手段23と、分類モデル24と、を含んで構成されている。
概念ベース22は、単語と該単語の意味を表す概念ベクトルとの対の集合を記憶している。概念ベース22には、名詞、動詞、形容詞等の内容語のみを登録するというようにしてもよい。図3は、概念ベース22の例である。概念ベース22は、例えば、非特許文献2の手法によって生成する(非特許文献2:別所克人, 内山俊郎, 内山匡, 片岡良治, 奥雅博,“単語・意味属性間共起に基づくコーパス概念ベースの生成方式,”情報処理学会論文誌, Dec. 2008, Vol.49, No.12, pp.3997-4006.)。
概念ベース22において単語は、該単語の終止形で登録されており、概念ベース22を検索する際は、単語の終止形で検索する。各単語の概念ベクトルは長さ1に正規化されたd次元ベクトルであり、意味的に近い単語の概念ベクトルは、近くに配置されている。
本発明の処理では、与えられたテキストの概念ベクトルを、該テキストを単語分割して得られた各単語で概念ベース22を検索し、取得した概念ベクトルを加算し、その結果得られた概念ベクトルを長さ1に正規化することによって生成する。ここで、該テキスト中の単語の中の内容語のみを使用して、該テキストの概念ベクトルを生成してもよい。
該テキストが複数の発話からなる発話列である場合、各発話ごとに概念ベクトルを求めると、ある発話で十分な内容語が無い等の場合に、該発話の概念ベクトルの品質が低いものとなる可能性がある。各発話に十分な内容語が無い場合でも、発話列全体では、内容語が十分揃うことがあり、そのような場合、発話列の概念ベクトルは品質が高いものとなる。
もっともあえて、発話列の各発話ごとに概念ベクトルを求め、取得した概念ベクトルの和を長さ1に正規化したものを、発話列の概念ベクトルとするというようにしてもよい。
以下、発話列評価データ変換手段21の処理を述べる。
各発話列評価データDに対し以下の処理を行う。
概念ベース22を参照し、発話列Aの概念ベクトルEを生成し、次発話候補Bの概念ベクトルFを生成する。
d次元概念ベクトルEとd次元概念ベクトルFを結合した2d次元の概念ベクトルGとラベルCとの組合せからなる変換後発話列評価データHを生成する。変換後発話列評価データHは、2d次元の素性ベクトルと分類ラベルCからなる学習データであり、この2d次元素性ベクトルは、ラベルCが1であれば正例データであり、ラベルCが0であれば負例データである。変換後発話列評価データHは、文脈発話列の概念ベクトルと、次発話候補の概念ベクトルとが、その類似度に関わりなく、文脈発話列とその次発話として相応しい組合せか否かを表現している。
各発話列評価データDに対し生成した変換後発話列評価データHの集合を、発話列評価データ変換手段21は出力する。図4は、変換後発話列評価データHの集合の例を示す図である。各行が、1変換後発話列評価データHである。
学習手段23は、変換後発話列評価データHの集合を学習データ群として、サポートベクタマシン(略称:SVM)等のアルゴリズムを用いて、任意の2d次元概念ベクトルが、ラベルCの値1に分類されるスコアを算出するための分類モデル24を生成する。
任意の文脈発話列の概念ベクトルと、任意の次発話候補の概念ベクトルとの組に対し、その類似度に関わりなく、結合した概念ベクトルが、大勢として、正例データ群に近ければ高スコアとなり、負例データ群に近ければ低スコアとなるように、モデルが生成される。
図5は、発話列評価データ変換手段21及び学習手段23の処理フローの一例である。
まず、ステップS1において、各発話列評価データDに対し、概念ベース22を参照し、発話列Aの概念ベクトルEを生成し、次発話候補Bの概念ベクトルFを生成し、d次元概念ベクトルEとd次元概念ベクトルFを結合した2d次元の概念ベクトルGとラベルCとの組合せからなる変換後発話列評価データHを生成する。
そして、ステップS2において、上記ステップS1で生成された変換後発話列評価データHの集合に基づいて、任意の2d次元概念ベクトルが、ラベルCの値1に分類されるスコアを算出するための分類モデル24を生成する。
図6は本発明の請求項2の次発話候補スコアリング装置の構成例である。なお、請求項1の次発話候補スコアリング装置の構成例と同様の構成となる部分については、同一符号を付して説明を省略する。
図6に示すように、本発明の実施の形態に係る次発話候補スコアリング装置200は、CPUと、RAMと、後述する処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この次発話候補スコアリング装置200は、機能的には図6に示すように入力手段10と、演算手段220と、出力手段230とを備えている。
入力手段10は、文脈となる発話列Aと、次発話候補Bと、発話列Aの次発話として次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とする。
また、入力手段10は、入力された文脈となる発話列Iと、次発話候補集合とを受け付ける。
システムとユーザとの間でこれまでやり取りされてきた発話を時系列順に並べて、x1,x2,・・・,xmとする。N(≧1)を定め、当該発話列において、直前のN個の発話の列(x(m-N+1),x(m-N+2),・・・,xm)を、文脈となる発話列Iとして入力する。文脈となる発話列Iとして、直前までの全発話(x1,x2,・・・,xm)を入力してもよい。
別途、これまでの発話列から抽出した焦点(トピック)について言及した文を、データベースから次発話候補として複数取るものとし、次発話候補集合として入力する。
演算手段220は、発話列評価データ変換手段21と、概念ベース22と、学習手段23と、分類モデル24と、評価手段221と、を含んで構成されている。
図7は、評価手段221の処理フローの一例である。図7に沿って、評価手段221の処理内容を説明する。
まず、ステップS3において、概念ベース22を参照し、発話列Iの概念ベクトルJを生成する。
次に、次発話候補集合における各次発話候補Kに対し以下のステップS4〜ステップS6の処理を行う。
ステップS4において、概念ベース22を参照し、次発話候補Kの概念ベクトルLを生成する。
ステップS5において、d次元概念ベクトルJとd次元概念ベクトルLを結合した2d次元の概念ベクトルMを生成する。
ステップS6において、分類モデル24を参照することにより、2d次元概念ベクトルMが、ラベルCの値1に分類されるスコアを算出する。このスコアは、値1に分類される度合いが大きいほど、大きい値となる。
概念ベクトルJと概念ベクトルLとの組に対し、その類似度に関わりなく、結合した概念ベクトルMが、大勢として、正例データ群に近ければ高スコアとなり、負例データ群に近ければ低スコアとなる。すなわち、文脈発話列Iと次発話候補Kの内容の近さに関わりなく、それぞれの内容の対応関係が、正例データにおける文脈発話列Aと次発話候補Bの対応関係に近ければ高スコアとなり、負例データにおける文脈発話列Aと次発話候補Bの対応関係に近ければ低スコアとなる。このため、文脈発話列Iとの内容の近さに関わりなく、文脈発話列Iの次発話として相応しい次発話候補が選択されるようになる。
図8は、評価手段221が出力した、概念ベクトルMとそれに対して算出したスコアとの組の集合を示す図である。
そして、ステップS7において、最高スコアを出した次発話候補を選択し、システムがユーザに返す。あるいは、ある閾値以上のスコアをもつ次発話候補、またはスコアが上位何位かまでの次発話候補から、ランダムに選択した次発話候補を、システムがユーザに返す。
なお、発話列Iまたは次発話候補Kから概念ベクトルが生成されない場合は、概念ベクトルMが生成されないので、次発話候補Kのスコアは算出されない。スコアが算出されない次発話候補は、スコアが算出された次発話候補よりも順位は低いものとし、スコアが算出されない次発話候補同士はランダムに順序付けする。
これまで述べた処理をプログラムとして構築し、当該プログラムを通信回線または記録媒体からインストールし、CPU等の手段で実施することが可能である。
なお、本発明は、上記の実施例に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
請求項1(学習フェーズ)と請求項2(分類フェーズ)の両方において、文脈発話列中の発話数を一定数Nとし、文脈発話列中の発話ごとに概念ベクトルを生成し、それらN個の概念ベクトルと、次発話候補から生成した概念ベクトルとを結合したd(N+1)次元概念ベクトルを、概念ベクトルGや概念ベクトルM相当のものとして処理を行うというような拡張も可能である。これは、請求項1、2において、文脈発話列の概念ベクトルE、Jを、文脈発話列中のN個の発話それぞれの概念ベクトルを結合したものと解釈したことに相当する。
分類手法としてk近傍法を採用した場合は、学習手段23では特に何も行わずに、発話列評価データ変換手段21が出力した変換後発話列評価データHの集合を分類モデル24とする。評価手段221では、この分類モデル24から、概念ベクトルMに近い順にk個の概念ベクトルGを取り、そのような概念ベクトルGのラベルで、個数がより多い方の値を、概念ベクトルMのスコア及びラベルとする。
本発明は、システムとユーザとの円滑なインタラクションを実現する対話処理技術に適用可能である。
10 入力手段
20、220 演算手段
21 発話列評価データ変換手段
22 概念ベース
23 学習手段
24 分類モデル
100、200 次発話候補スコアリング装置
221 評価手段
230 出力手段

Claims (5)

  1. 単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、
    文脈となる発話列Aと、次発話候補Bと、前記発話列Aの次発話として前記次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とし、各発話列評価データDに対し、前記概念ベースを参照し、前記発話列Aの概念ベクトルEを生成し、前記次発話候補Bの概念ベクトルFを生成し、前記概念ベクトルEと前記概念ベクトルFとを結合した概念ベクトルGと前記ラベルCとの組合せからなる変換後発話列評価データHを生成する発話列評価データ変換手段と、
    前記変換後発話列評価データHの集合から、前記概念ベクトルGと同次元の任意の概念ベクトルが、前記ラベルCの一つの値に分類されるスコアを算出するための分類モデルを生成する学習手段と、
    を含むことを特徴とする次発話候補スコアリング装置。
  2. 文脈となる発話列Iと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Iの概念ベクトルJを生成し、
    前記次発話候補集合における各次発話候補Kに対し、前記次発話候補Kの概念ベクトルLを生成し、前記概念ベクトルJと前記概念ベクトルLを結合した概念ベクトルMを生成し、前記学習手段で生成された分類モデルを参照することにより、前記概念ベクトルMが前記ラベルCの一つの値に分類されるスコアを算出する評価手段
    を更に含むことを特徴とする請求項1記載の次発話候補スコアリング装置。
  3. 単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、発話列評価データ変換手段と、学習手段とを含む次発話候補スコアリング装置における次発話候補スコアリング方法であって、
    前記発話列評価データ変換手段が、文脈となる発話列Aと、次発話候補Bと、前記発話列Aの次発話として前記次発話候補Bが相応しいか否かのラベルCとの組合せからなる発話列評価データDの集合を入力とし、各発話列評価データDに対し、前記概念ベースを参照し、前記発話列Aの概念ベクトルEを生成し、前記次発話候補Bの概念ベクトルFを生成し、前記概念ベクトルEと前記概念ベクトルFとを結合した概念ベクトルGと前記ラベルCとの組合せからなる変換後発話列評価データHを生成し、
    前記学習手段が、前記変換後発話列評価データHの集合から、前記概念ベクトルGと同次元の任意の概念ベクトルが、前記ラベルCの一つの値に分類されるスコアを算出するための分類モデルを生成する
    次発話候補スコアリング方法。
  4. 評価手段が、文脈となる発話列Iと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Iの概念ベクトルJを生成し、
    前記次発話候補集合における各次発話候補Kに対し、前記次発話候補Kの概念ベクトルLを生成し、前記概念ベクトルJと前記概念ベクトルLを結合した概念ベクトルMを生成し、前記学習手段で生成された分類モデルを参照することにより、前記概念ベクトルMが前記ラベルCの一つの値に分類されるスコアを算出する
    ことを更に含む請求項3記載の次発話候補スコアリング方法。
  5. コンピュータを、請求項1又は請求項2記載の次発話候補スコアリング装置を構成する各手段として機能させるためのプログラム。
JP2014219533A 2014-10-28 2014-10-28 次発話候補スコアリング装置、方法、及びプログラム Expired - Fee Related JP6220762B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014219533A JP6220762B2 (ja) 2014-10-28 2014-10-28 次発話候補スコアリング装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014219533A JP6220762B2 (ja) 2014-10-28 2014-10-28 次発話候補スコアリング装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016085685A JP2016085685A (ja) 2016-05-19
JP6220762B2 true JP6220762B2 (ja) 2017-10-25

Family

ID=55973103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014219533A Expired - Fee Related JP6220762B2 (ja) 2014-10-28 2014-10-28 次発話候補スコアリング装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6220762B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11711469B2 (en) 2021-05-10 2023-07-25 International Business Machines Corporation Contextualized speech to text conversion

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6224857B1 (ja) * 2017-03-10 2017-11-01 ヤフー株式会社 分類装置、分類方法および分類プログラム
JP6825693B2 (ja) 2017-03-13 2021-02-03 日本電気株式会社 対話装置、対話システム、及びプログラム
JP6804763B2 (ja) * 2017-03-16 2020-12-23 国立研究開発法人情報通信研究機構 対話システム、対話装置及びそのためのコンピュータプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306090A (ja) * 2000-04-25 2001-11-02 Sharp Corp 対話装置および方法、音声制御装置および方法、ならびにコンピュータを対話装置および音声制御装置として機能させるためのプログラムをそれぞれ記録したコンピュータ読取可能な記録媒体
JP4654776B2 (ja) * 2005-06-03 2011-03-23 富士ゼロックス株式会社 質問応答システム、およびデータ検索方法、並びにコンピュータ・プログラム
JP2009277099A (ja) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> 類似文書検索装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
JP5431532B2 (ja) * 2012-06-08 2014-03-05 日本電信電話株式会社 質問応答装置、モデル学習装置、方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11711469B2 (en) 2021-05-10 2023-07-25 International Business Machines Corporation Contextualized speech to text conversion

Also Published As

Publication number Publication date
JP2016085685A (ja) 2016-05-19

Similar Documents

Publication Publication Date Title
Koto et al. Inset lexicon: Evaluation of a word list for Indonesian sentiment analysis in microblogs
Taher et al. N-gram based sentiment mining for bangla text using support vector machine
CN106960001B (zh) 一种检索词的实体链接方法及系统
CN111159990B (zh) 一种基于模式拓展的通用特殊词识别方法及系统
CN110909116B (zh) 一种面向社交媒体的实体集合扩展方法及系统
JP6220762B2 (ja) 次発話候補スコアリング装置、方法、及びプログラム
CN112182159A (zh) 一种基于语义表示的个性化检索式对话方法和系统
CN115577109A (zh) 文本分类方法、装置、电子设备及存储介质
JP5441937B2 (ja) 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム
Xiong et al. Fine-tuning large language models for multigenerator, multidomain, and multilingual machine-generated text detection
JP2016224483A (ja) モデル学習装置、方法、及びプログラム
Pudasaini et al. Nepalibert: Pre-training of masked language model in nepali corpus
JP6232358B2 (ja) 次発話候補ランキング装置、方法、及びプログラム
Byrkjeland et al. Ternary Twitter sentiment classification with distant supervision and sentiment-specific word embeddings
CN114942986A (zh) 文本生成方法、装置、计算机设备及计算机可读存储介质
Sarma et al. Word level language identification in Assamese-Bengali-Hindi-English code-mixed social media text
JP4266222B2 (ja) 単語翻訳装置およびそのプログラム並びにコンピュータ読み取り可能な記録媒体
JP6368633B2 (ja) 用語意味学習装置、用語意味判定装置、方法、及びプログラム
Castillo et al. Using sentence semantic similarity based on WordNet in recognizing textual entailment
JP2025011301A (ja) 解決手段の提案方法、分類モデルの生成方法、及び解決手段の提案システム
Xiong et al. NCL-UoR at SemEval-2024 Task 8: Fine-tuning large language models for multigenerator, multidomain, and multilingual machine-generated text detection
Cerón-Guzmán Classifier ensembles that push the state-of-the-art in sentiment analysis of spanish tweets
Ghanem et al. Elevating the precision of summarization for short text in social media using preprocessing techniques
JP6564709B2 (ja) 文書き換え装置、方法、及びプログラム
JP6574469B2 (ja) 次発話候補ランキング装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R150 Certificate of patent or registration of utility model

Ref document number: 6220762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees