JP6243072B1 - 入出力システム、入出力プログラム、情報処理装置、チャットシステム - Google Patents
入出力システム、入出力プログラム、情報処理装置、チャットシステム Download PDFInfo
- Publication number
- JP6243072B1 JP6243072B1 JP2017075879A JP2017075879A JP6243072B1 JP 6243072 B1 JP6243072 B1 JP 6243072B1 JP 2017075879 A JP2017075879 A JP 2017075879A JP 2017075879 A JP2017075879 A JP 2017075879A JP 6243072 B1 JP6243072 B1 JP 6243072B1
- Authority
- JP
- Japan
- Prior art keywords
- input
- character
- output
- data
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 5
- 239000013604 expression vector Substances 0.000 claims abstract description 145
- 238000004364 calculation method Methods 0.000 claims abstract description 108
- 239000013598 vector Substances 0.000 claims description 49
- 230000013016 learning Effects 0.000 claims description 43
- 230000006870 function Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 238000010276 construction Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012827 research and development Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/20—Handling requests for interconnection or transfer for access to input/output bus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
研究開発が盛んな分野の1つとして、ディープラーニングにより構築された会話モデルに基づき会話を行うシステム(チャットボット等)に関する研究開発がある。特に、人間らしさやエンタテインメント性の強化のために、発話の内容や表現における特徴といった「キャラクタ性」を反映する手法について研究開発がなされている。例えば、非特許文献1には、LSTM(Long Short-Term Memory)を用いて、キャラクタ性の反映が可能な会話モデルを構築する手法が開示されている。
入出力演算部を備え、
前記入出力演算部は、入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備え、
前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトルと、入力データと、が前記入出力演算部に入力され、
前記入出力演算部が、前記入出力モデル及び前記キャラクタ表現空間に基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力する、
入出力システム。
キャラクタ表現ベクトル算出部を更に備え、
キャラクタ性を抽出するための入出力データ対であるキャラクタデータ対が前記キャラクタ表現ベクトル算出部に入力され、
前記キャラクタ表現ベクトル算出部が、前記入出力演算部において固定された前記入出力モデル及びキャラクタ表現空間における、前記キャラクタデータ対についての演算結果に基づき、前記キャラクタデータ対に対応するキャラクタ表現ベクトルを算出する、構成1に記載の入出力システム。
前記入出力演算部に、入力データと、複数のキャラクタ表現ベクトルと、が入力され、
前記入出力演算部が、前記複数のキャラクタ表現ベクトルのそれぞれに表現されたキャラクタ性が合成されたベクトルであるキャラクタ合成ベクトルを生成し、当該キャラクタ合成ベクトルに基づき、合成されたキャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力する、構成1又は2に記載の入出力システム。
ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
構成1から3の何れかに記載の入出力システムを備え、
事前に設定されたキャラクタに基づく、前記キャラクタ表現ベクトルが前記入出力システムに入力され、
当該設定されたキャラクタのキャラクタ性を反映した、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。
ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
構成2に記載の入出力システムを備え、
前記ユーザにより指定された前記キャラクタデータ対が前記入出力システムに入力されることで、
当該キャラクタデータ対に対応するキャラクタ性を反映した前記キャラクタ表現ベクトルが算出され、前記ユーザからの入力データと前記キャラクタ表現ベクトルが前記入出力演算部に入力され、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。
ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
構成3に記載の入出力システムを備え、
前記ユーザにより指定された複数のキャラクタに基づく複数のキャラクタ表現ベクトルが前記入出力システムに入力され、
当該指定された複数のキャラクタを合成したキャラクタ性を反映した、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。
第1の入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備え、入力された前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトル及び入力データに基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力する、入出力演算部と、
第2の入出力データ対が入力され、前記入出力演算部において固定された前記入出力モデル及びキャラクタ表現空間における演算結果に基づき、前記第2の入出力データ対に対応したキャラクタ性を反映したキャラクタ表現ベクトルを算出する、キャラクタ表現ベクトル算出部と、
を備える情報処理装置。
入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備えた、入出力演算部を備える入出力システムにおいて、
入力データと、前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトルと、が前記入出力演算部に入力されるステップと、
前記入出力演算部が、前記入出力モデル及び前記キャラクタ表現空間に基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算するステップと、
当該出力データを出力するステップと、を
実行させる入出力プログラム。
入出力演算部を備えた入出力システムで用いられるキャラクタのデータ構造であって、
入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を備え、
前記キャラクタ表現空間を有する入出力モデルを備える前記入出力演算部が、
前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトルと、入力データと、が前記入出力演算部に入力され、前記入出力モデル及び前記キャラクタ表現空間に基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算する、
処理に用いられる、キャラクタのデータ構造。
図1〜図3は、この発明の実施形態1による入出力システムを示す概略構成図である。図1は入出力演算部110についての入出力関係を示す概念図である。図2はキャラクタ表現ベクトル算出部120についての入出力関係を示す概念図である。図3Aは、入出力モデルの1例を表す概念図である。また、図3Bは、入出力演算部110の入出力動作の1例を表す概念図である。
本実施形態においては、入出力システム100は、コンピュータにより構成されており、キャラクタ性を表現するベクトルであるキャラクタ表現ベクトル(後述)が入力データと共に入力されると、キャラクタ性が反映されたデータが出力されるシステムであり、入出力演算部110及びキャラクタ表現ベクトル算出部120を備える。
入力されるキャラクタ表現ベクトルの数に制限はなく、複数のキャラクタ表現ベクトルの入力があった場合、複数のキャラクタを合成したキャラクタ性が反映されたデータが出力される。
入出力システム100を動作させるためには、まず、入出力演算部110における入出力モデル及びキャラクタ表現空間の構築が必要である。
入出力演算部110における入出力モデル及びキャラクタ表現空間は、入出力モデルの精度を確保するのに十分な量の会話対データを用いて構築される。なお、会話対データに記載された会話には、それぞれの発話者及び、回答者を識別可能なユーザ名やID等の情報が付与されている。入出力モデルの構築には、通常、高性能計算資源(GPUを備えたサーバ)を用いても数日から1週間程度の処理時間を要する会話対データが必要とされている。本実施形態1では、30万会話対データを用意した。
以下、入出力演算部110の構築に使用された会話対データのことを学習データや第1の入出力データ対とも称する。
図3Aを参照して、本実施形態1における入出力演算部110における入出力モデル及びキャラクタ表現空間につき説明する。
本実施形態1の入出力モデルは、時系列データを取り扱うことができるRNN(Recurrent neural network)を用いたEncoder-Decoderモデル(Kyunghyun Cho, et al., Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation, EMNLP2014)の基本構造を採用し、出力側にキャラクタ性を考慮するようにしたものである。キャラクタ性については、非特許文献1に開示される会話モデルの構築手法における返答者側のキャラクタ性の概念を採用しているので、以下では適宜説明を省略し、主に本実施形態1の入出力モデルの学習における特徴的な点について説明する。
入出力モデルは、入力文X=(x1、x2、…xT)を固定長の中間表現ベクトルcに変換するエンコーダと、エンコーダで生成した中間表現ベクトルc及びk次元のキャラクタ表現ベクトルuiから出力文Y=(y1、y2、…yT’)を算出するデコーダを含み、キャラクタ性が表現されたキャラクタ表現空間を有する。なお、キャラクタ表現空間は、キャラクタ性を表す各要素(性別、年齢、方言等)が反映される空間をいう。k次元のキャラクタ表現空間は、入出力モデルの構築(大規模学習の結果)とともに構築される。なお、kの値については事前に定められた値を用いるものとする。
エンコーダは、入力文X=(x1、x2、…xt、…xT)を受け取ると単語xtごとに隠れ状態ベクトルhtを算出する。このとき、隠れ状態ベクトルhtの算出に前回の隠れ状態ベクトルht-1を考慮するので、文末の単語xTに対応して算出される隠れ状態ベクトルhTは、入力文全体の意味が埋め込まれたベクトルとなる。エンコーダは、隠れ状態ベクトルhTを活性化した中間表現ベクトルcを生成する。この中間表現ベクトルcをデコーダに渡すことでデコーダでは入力文Xに対応した出力を行うことができる。エンコーダにおける隠れ状態ベクトルht及び中間表現ベクトルcは、以下の数1のように定義される。
デコーダにおける隠れ状態ベクトルht’は、前回の隠れ状態ベクトルht’-1だけでなく、直前の出力単語yt’-1と中間表現ベクトルcとキャラクタ表現ベクトルuiの影響を受けて算出される。そして、デコーダは、算出された隠れ状態ベクトルht’と、直前の出力単語yt’-1と中間表現ベクトルcとキャラクタ表現ベクトルuiとを用いて出力単語yt’を算出する。なお、出力単語yt’の算出は、隠れ状態ベクトルht’のみを用いたり、隠れ状態ベクトルht’と他の要素の組み合わせを用いた算出も可能である。デコーダにおける隠れ状態ベクトルht’は、 以下の数2のように定義される。
入出力モデルの構築では、算出される出力単語yt’の直前までを教師データ(学習データ)で固定した上で次の出力単語yt’の予測を行い、出力単語yt’の分布ピークが学習データの正解単語 Qt’の分布に合うよう各種パラメータの更新を繰り返して最適解を求める。具体的には、算出される出力単語yt’を、ソフトマックス関数を使って0から1の範囲に収まるよう正規化する(確率に変換する)。次に、学習データの正解単語Qt’の分布と算出された出力単語yt’の分布のクロスエントロピー誤差を算出し、学習データのn番目の出力文を構成する単語全てのクロスエントロピー誤差の合計である損失関数(目的関数)L’を算出する。そして、学習データ全体(N個の会話対)の損失関数Lを算出する。なお、パラメータの更新には勾配法の一つであるAdam(Adaptive Moment Estimation)を用い、損失関数Lが収束する値を求める。損失関数L’及び損失関数Lは、以下の数3のように定義される。
なお、損失関数Lの収束判断は、前回との差分である変化幅が事前に設定される所定値以下に収まる状態が連続して所定回数続いた時点で収束したと判断してもよいし、エポックベースで予め設定した学習回数に到達した時点で収束したと判断してもよい。また、学習データとは別に同じキャラクタに対応する検証用データを用意し、実際に学習データにはない未知のデータを入力して適切な結果が得られるよう損失関数の目標値を決め、目標値に到達した時点で収束したと判断してもよい。
なお、本実施形態1において、キャラクタ表現ベクトルuiには、方言、登録名、年齢、性別等の個人情報が関連付けられており、個人情報は学習データにおける各ユーザの会話から取得されている。また、キャラクタ表現ベクトルuiは、ユーザ単位ではなく、複数の要素(例えば、20代、秋田県、女性)単位で関連付けられてもよい。また、個人情報は会話からだけでなく会話を行うユーザのプロフィール等から取得されてもよい。
図3Bに、入出力モデル及びキャラクタ表現空間が構築された後の、入出力演算部110における入出力動作の例を示す。
ここでは「気分はどう?」という入力文及び、学習データ内における「発話者A」のキャラクタ表現ベクトルが入出力演算部110に入力された場合の例を示す。
学習データ内における「発話者A」が文末に「(^ω^)」という顔文字を多用する発話者であったため、入出力演算部110から、発話者Aのキャラクタ性を反映した出力文である「最高です(^ω^)」が出力されていることがわかる。
なお、デコーダから出力される単語列は、ビーム探索により各出力候補に対してスコア関数を用いた系列評価が行われる。デコーダは、その中の最良の結果を出力するように構成されている。そして、デコーダの出力が文章の終了を意味する特殊な文字列であるEOSとなった場合にデコードを終了し、その際の単語列を入力文に対応した出力文として出力する。
キーボード等の入力装置(不図示)により、入出力システム100に入力文が入力されると、入出力演算部110において、入力文に対応する出力文が演算され、モニタ等の外部機器(不図示)に出力される。
以下、本実施形態1の入出力システム100に入力文及び1つのキャラクタ表現ベクトルが入力された場合の動作につき説明する。
入力装置(不図示)により、入出力システム100に入力文及びキャラクタ表現ベクトルが入力されると、入出力演算部110において、キャラクタ性を反映した、入力文に対応する出力文が演算され、モニタ等の外部機器(不図示)に出力される。
以下、本実施形態1の入出力システム100に入力文及び複数のキャラクタ表現ベクトルが入力された場合の動作につき説明する。
複数のキャラクタ表現ベクトルが入力された場合、入出力演算部110に事前に設定された合成の割合に基づき、複数のキャラクタ表現ベクトルが合成される。
キーボード等の入力装置(不図示)により、入力文と、複数のキャラクタ表現ベクトルが入出力演算部110に入力されると、入出力演算部110において事前に設定された割合(例えば、各ベクトル均等)に従いキャラクタ表現ベクトルが合成される。そして、合成されたキャラクタ表現ベクトルに基づき、合成されたキャラクタ性を反映した、入力文に対応する出力文が演算され、モニタ等の外部機器(不図示)に出力される。
このように、入出力演算部110が、上記のようにキャラクタ性を表現した空間であるキャラクタ表現空間を備えるため、キャラクタ表現空間上のベクトルを合成することで、合成されたキャラクタ性を表現したキャラクタ表現ベクトルを得ることが可能である。
次に本実施形態1における、キャラクタ表現ベクトル算出部120における、入出力データ対からのキャラクタ表現ベクトル算出によるキャラクタの追加について説明する。本実施形態1では、上述の基本入出力の学習(大規模学習)によって構築された入出力モデルを固定した上で、数百〜千件程度の会話対データ(キャラクタデータ対)に表現されたキャラクタ性に対応するキャラクタ表現ベクトルの算出を行うことで、新たなキャラクタを容易に追加することができる。
ここで、構築された入出力モデルの固定とは、入出力モデルの各パラメータを常に固定した状態をいう。これにより、キャラクタ表現空間の固定も生じる。以下、入出力モデル及びキャラクタ表現空間の固定とも称する。
また、以下、キャラクタ表現ベクトル算出部120に入力される入出力データ対をキャラクタデータ対や、第2の入出力データ対とも称する。キャラクタデータ対における会話対の量は数百〜千件程度でも可能であり、一般的に入出力モデルの構築及びキャラクタ空間の構築に必要とされる数十万〜数百万件の学習データに対して1/1000程度と大幅に少ないデータでキャラクタを追加することができる。また、ここでのキャラクタ追加に必要なデータは、本特許出願時における個人携帯端末装置の処理能力でも十分処理可能なレベルのものである。本実施形態1では、キャラクタデータ対として数百の会話対データを用意した。
まず、入力部(不図示)より、キャラクタデータ対とともに、初期キャラクタ表現ベクトルがキャラクタ表現ベクトル算出部120に入力される(ステップS410)。なお、初期キャラクタ表現ベクトルは乱数によるランダム生成とした。
顔文字「(^ω^)」が多用され、キャラクタ1のキャラクタ性が反映された返答がされていることがわかる。
顔文字「(///ω///)」が多用され、キャラクタ2のキャラクタ性が反映された返答がされていることがわかる。
それぞれの結果において、顔文字だけではなく、居住地や年齢についても、キャラクタ2からキャラクタ1へと変化していることがわかる。
以上のように、本実施形態1における入出力システム100は、入出力演算部110がキャラクタ表現空間を備える入出力モデルを有するように構成されているため、キャラクタ表現空間上のベクトルを入力することで、キャラクタ性が表現された出力をすることができる。
また、入力されるキャラクタ表現ベクトルの変更のみで、容易に新たなキャラクタ性を反映した出力を得ることができる。
また、複数のキャラクタ表現ベクトルの合成をすることで、キャラクタ性の合成が可能である。
また、キャラクタ表現空間上に各キャラクタ性に対応するキャラクタ表現ベクトルをプロットすることにより、キャラクタ性をキャラクタ表現空間上に可視化したキャラクタマップを生成することができ、キャラクタ同士の類似度や相関性を可視化することができる。
また、本実施形態1における入出力システム100は、キャラクタ表現ベクトル算出部120が、入出力演算部110にて固定された入出力モデルを利用し、キャラクタデータ対に表現されたキャラクタ性が反映されたキャラクタ表現ベクトルを生成可能に構成されているため、入出力演算部110を再構築することなく、所望するキャラクタ性を表現したキャラクタ表現ベクトルを容易に得ることができる。そのため、入出力演算部110の構築のための学習データには存在しなかったキャラクタについてのキャラクタ性を表現した出力をすることができる。また、キャラクタの追加に必要なキャラクタデータ対は、従来の学習で通常必要とされるデータ対の1/1000程度で済むので、キャラクタ表現空間内へのキャラクタ追加が容易である。したがって、キャラクタ表現空間におけるキャラクタマップの充実を図ることができ、マップから簡易に所望のキャラクタ性を表現したキャラクタ表現ベクトルを特定することができる。より具体的には、多くのプロットからベクトルを構成する要素の代表点の算出が容易になり、所望のキャラクタ性を精度高く表現することができる。
このように、本実施形態における入出力システム100は、新たなキャラクタ性を表現するために入出力演算部110を再構築する必要がない。そのため、特に学習過程におけるシステム上、制御上の負荷を低減することが可能である。なお、スマートフォン等の携帯端末において、入出力演算部110におけるキャラクタ表現ベクトルの算出が可能な程度に負荷を低減することができる。また、キャラクタデータ対としてスマートフォン等の携帯端末において蓄積される会話対データを用いることでキャラクタの抽出が可能になるので、例えば、サーバがあらゆる会話対データを取得すれば該サーバは容易に多様なキャラクタを収集することができる。また、サーバが各携帯端末において算出されたキャラクタ表現ベクトルを取得することで、同一キャラクタ表現空間を用いたサービスにおいて多様なキャラクタを簡易に提供することができる。
[チャットシステム]
以下に本実施形態2における入出力システム200を用いたチャットシステム2について説明する。
チャットシステム2は、入出力システム200を備え、ネットワーク等により接続されたユーザ端末から入力された入力文に対して、キャラクタ性を反映した出力文を出力するチャットシステムである。
本実施形態2における入出力システム200は、通信機能等を備えたサーバ装置にて構成され、入出力制御部230を備える点以外については、実施形態1における入出力システム100と同様であるため、実施形態1と同様の構成については説明を省略する。
なお、以下に記載する各動作は、入出力システム200に対して接続されたそれぞれのユーザ端末に対して独立しており、また、並列に動作を行う。
まず、チャットシステム2におけるユーザ端末からの入力に対して、事前に設定されたキャラクタ性を反映した出力を行う動作について説明する。
この場合、まず、入出力制御部230に、ネットワーク等を介してユーザ端末から入力文が入力される。
次に、入出力制御部230は、事前に設定されたキャラクタに対応する、入出力演算部110におけるキャラクタ表現空間内のキャラクタ表現ベクトルと、入力文と、を入出力演算部110に出力する。
そして、入出力演算部110は入力文に対応し、かつ、事前に設定されたキャラクタのキャラクタ性が反映された出力文を演算し、入出力制御部230に出力する。
このように、入出力制御部230に出力文が入力されると、入出力制御部230は、当該入力を行ったユーザ端末へ、事前に設定されたキャラクタ性を反映した出力文を送信する。
次に、チャットシステム2がユーザ端末上に表示されたUI等(不図示)によりキャラクタを指定されるように構成されている例につき説明する。この場合、入出力制御部230が、ユーザにより指定されたキャラクタのID等と、入出力演算部110におけるキャラクタ表現空間内のキャラクタ表現ベクトルとの対応テーブル等を備える。
入出力制御部230は、ユーザ端末から入力文及び指定されたキャラクタのID等の情報が入力されると、対応テーブルに基づき、ユーザ端末から指定されたキャラクタについてのキャラクタ表現ベクトルと、入力文と、を入出力演算部110に出力する。
その他の動作については上記の動作1と同様である。
次に、チャットシステム2が、ユーザ端末上に表示されたUI等(不図示)により指定された複数のキャラクタを合成し、合成されたキャラクタ性を反映した出力を行うように構成されている例につき説明する。この場合、入出力制御部230は、上述の動作2の場合と同様に、ユーザにより指定されたキャラクタのID等と、入出力演算部110におけるキャラクタ表現空間内のキャラクタ表現ベクトルとの対応テーブル等を備える。
入出力制御部230は、ユーザ端末から入力文及び指定された複数のキャラクタのID等の情報が入力されると、対応テーブルに基づき、ユーザ端末から指定された複数のキャラクタについてのキャラクタ表現ベクトルと、入力文と、を入出力演算部110に出力する。
入出力演算部110は入力された複数のキャラクタ表現ベクトルに基づき、キャラクタ合成ベクトルを生成し、入力文に対応し、かつ、合成されたキャラクタ性が反映された出力文を演算し、入出力制御部230に出力する。
その他の動作については上記の動作1と同様である。
なお、キャラクタ表現ベクトルの合成は、ユーザ端末にて指定された複数のキャラクタに対応するキャラクタ合成ベクトルを、入出力演算部110が合成する例につき記載したが、キャラクタ合成ベクトルについては、ユーザ端末側、又は入出力制御部230にて合成し、入出力演算部110に出力するように構成されていてもよい。
次に、チャットシステム2が、ユーザ端末よりキャラクタデータ対が入力され、キャラクタデータ対に表現されているキャラクタ性を反映した出力を行うように構成されている例につき説明する。
入出力制御部230は、ユーザ端末からキャラクタデータ対が入力されると、キャラクタデータ対をキャラクタ表現ベクトル算出部120へと出力する。キャラクタ表現ベクトル算出部120は、入力されたキャラクタデータ対に対応するキャラクタ表現ベクトルを算出し、入出力制御部230へと出力する。
そして、入出力演算部110は入力文に対応し、かつ、キャラクタデータ対に対応するキャラクタ性が反映された出力文を演算し、入出力制御部230に出力する。
その他の動作については上記の動作1と同様である。
チャットシステム2がこのような構成を備えることで、該当ユーザのキャラクタ性を表現した出力が可能なチャットシステム2を構築可能である。
すなわち、チャットシステム2は、ユーザ毎の類似度を、キャラクタ表現空間上のキャラクタ表現ベクトルの距離等により定義し、類似度の近いユーザをマッチングするように構成されている。
チャットシステム2がこのような構成を備えることで、キャラクタ表現ベクトルが近いユーザ同士のキャラクタ性は類似していると考えられるため、キャラクタ性が類似したユーザをマッチングすることが可能となる。
また、ユーザにより指定されたキャラクタ性を反映したチャットを楽しむことができる。
また、ユーザにより指定された複数のキャラクタを合成したキャラクタ性を反映したチャットを楽しむことができる。
また、ユーザにより入力されたキャラクタデータ対に対応するキャラクタ性を反映したチャットを楽しむことができる。
具体例として、文章と対応づけた画像を学習し、文章を元にして特定の画家(キャラクタ)風の絵を生成するといった例や、英語から特定の翻訳者(キャラクタ)風に日本語の翻訳文を生成するといった例が考えられる。
また、本実施形態1又は2におけるキャラクタ表現ベクトルに対応するキャラクタ性は、方言、登録名、年齢、性別等の個人情報等を用いた例を記載したが、入出力データ対において対応付けが可能な要素であればよく、数値化された感情や印象などといった任意の要素を用いてもよい。
また、ステップS440における損失関数の値の収束については、収束するのに十分な回数だけキャラクタ表現ベクトルの更新を行い、規定された回数の更新が終了した時点でステップS450に移行するように構成されていてもよい。
110…入出力演算部
120…キャラクタ表現ベクトル算出部
2…チャットシステム
230…入出力制御部
Claims (7)
- 入出力演算部を備え、
前記入出力演算部は、入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備え、
前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトルと、入力データと、が前記入出力演算部に入力され、
前記入出力演算部が、前記入出力モデル及び前記キャラクタ表現空間に基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力し、
キャラクタ表現ベクトル算出部を更に備え、
キャラクタ性を抽出するための入出力データ対であるキャラクタデータ対が前記キャラクタ表現ベクトル算出部に入力され、
前記キャラクタ表現ベクトル算出部が、前記入出力演算部において固定された前記入出力モデル及びキャラクタ表現空間における、前記キャラクタデータ対についての演算結果に基づき、前記キャラクタデータ対に対応するキャラクタ表現ベクトルを算出する、
入出力システム。 - 前記入出力演算部に、入力データと、複数のキャラクタ表現ベクトルと、が入力され、
前記入出力演算部が、前記複数のキャラクタ表現ベクトルのそれぞれに表現されたキャラクタ性が合成されたベクトルであるキャラクタ合成ベクトルを生成し、当該キャラクタ合成ベクトルに基づき、合成されたキャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力する、請求項1に記載の入出力システム。 - ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
請求項1又は2に記載の入出力システムを備え、
事前に設定されたキャラクタに基づく、前記キャラクタ表現ベクトルが前記入出力システムに入力され、
当該設定されたキャラクタのキャラクタ性を反映した、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。 - ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
請求項1に記載の入出力システムを備え、
前記ユーザにより指定された前記キャラクタデータ対が前記入出力システムに入力されることで、
当該キャラクタデータ対に対応するキャラクタ性を反映した前記キャラクタ表現ベクトルが算出され、前記ユーザからの入力データと前記キャラクタ表現ベクトルが前記入出力演算部に入力され、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。 - ユーザとの間でキャラクタ性が反映された対話を行うチャットシステムであって、
請求項2に記載の入出力システムを備え、
前記ユーザにより指定された複数のキャラクタに基づく複数のキャラクタ表現ベクトルが前記入出力システムに入力され、
当該指定された複数のキャラクタを合成したキャラクタ性を反映した、前記ユーザからの入力データに対応する出力データを出力する、チャットシステム。 - 第1の入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備え、入力された前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトル及び入力データに基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算し、出力する、入出力演算部と、
第2の入出力データ対が入力され、前記入出力演算部において固定された前記入出力モデル及びキャラクタ表現空間における演算結果に基づき、前記第2の入出力データ対に対応したキャラクタ性を反映したキャラクタ表現ベクトルを算出する、キャラクタ表現ベクトル算出部と、
を備える情報処理装置。 - 入出力データ対の学習により構築された、キャラクタ性が表現された空間であるキャラクタ表現空間を有する入出力モデルを備えた、入出力演算部と、
キャラクタ表現ベクトル算出部と、
を備える入出力システムにおいて、
入力データと、前記キャラクタ表現空間におけるキャラクタ性を表現したベクトルであるキャラクタ表現ベクトルと、が前記入出力演算部に入力されるステップと、
前記入出力演算部が、前記入出力モデル及び前記キャラクタ表現空間に基づき、前記キャラクタ性を反映した、前記入力データに対応する出力データを演算するステップと、
当該出力データを出力するステップと、
キャラクタ性を抽出するための入出力データ対であるキャラクタデータ対が前記キャラクタ表現ベクトル算出部に入力されるステップと、
前記キャラクタ表現ベクトル算出部が、前記入出力演算部において固定された前記入出力モデル及びキャラクタ表現空間における、前記キャラクタデータ対についての演算結果に基づき、前記キャラクタデータ対に対応するキャラクタ表現ベクトルを算出するステップと、を
実行させる入出力プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017075879A JP6243072B1 (ja) | 2017-04-06 | 2017-04-06 | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
US15/944,251 US20180349303A1 (en) | 2017-04-06 | 2018-04-03 | Input-output system, input-output program information processing apparatus and chat system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017075879A JP6243072B1 (ja) | 2017-04-06 | 2017-04-06 | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214514A Division JP2018181300A (ja) | 2017-11-07 | 2017-11-07 | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6243072B1 true JP6243072B1 (ja) | 2017-12-06 |
JP2018180720A JP2018180720A (ja) | 2018-11-15 |
Family
ID=60570298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017075879A Active JP6243072B1 (ja) | 2017-04-06 | 2017-04-06 | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180349303A1 (ja) |
JP (1) | JP6243072B1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210477B2 (en) * | 2019-05-09 | 2021-12-28 | Adobe Inc. | Systems and methods for transferring stylistic expression in machine translation of sequence data |
CN110378318B (zh) * | 2019-07-30 | 2022-07-15 | 腾讯科技(深圳)有限公司 | 文字识别方法、装置、计算机设备及存储介质 |
JP2021033400A (ja) * | 2019-08-16 | 2021-03-01 | ネイバー コーポレーションNAVER Corporation | データ処理方法、プログラム、データ処理装置 |
CN113553863B (zh) | 2021-06-30 | 2023-10-20 | 北京百度网讯科技有限公司 | 文本生成方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004513445A (ja) * | 2000-10-30 | 2004-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 個人のインタラクションをシミュレートし、ユーザの情緒状態及び/又は性格に反応するユーザインタフェース/エンタテインメントデバイス |
JP2005326670A (ja) * | 2004-05-14 | 2005-11-24 | Hiroshi Sato | 移動端末装置、情報処理方法。並びにサービス提供システム。 |
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075014A1 (en) * | 2016-09-11 | 2018-03-15 | Xiaojiang Duan | Conversational artificial intelligence system and method using advanced language elements |
US10049106B2 (en) * | 2017-01-18 | 2018-08-14 | Xerox Corporation | Natural language generation through character-based recurrent neural networks with finite-state prior knowledge |
-
2017
- 2017-04-06 JP JP2017075879A patent/JP6243072B1/ja active Active
-
2018
- 2018-04-03 US US15/944,251 patent/US20180349303A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004513445A (ja) * | 2000-10-30 | 2004-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 個人のインタラクションをシミュレートし、ユーザの情緒状態及び/又は性格に反応するユーザインタフェース/エンタテインメントデバイス |
JP2005326670A (ja) * | 2004-05-14 | 2005-11-24 | Hiroshi Sato | 移動端末装置、情報処理方法。並びにサービス提供システム。 |
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
Non-Patent Citations (1)
Title |
---|
牧田光晴,外1名: ""対話ログとユーザ属性情報を用いたリカレントニューラルネットワークによる雑談対話生成方式"", 電子情報通信学会技術研究報告, vol. 第115巻,第347号, JPN6017031325, 26 November 2015 (2015-11-26), pages p.7−12 * |
Also Published As
Publication number | Publication date |
---|---|
JP2018180720A (ja) | 2018-11-15 |
US20180349303A1 (en) | 2018-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6972265B2 (ja) | ポインタセンチネル混合アーキテクチャ | |
CN110427617B (zh) | 推送信息的生成方法及装置 | |
EP2953065B1 (en) | Generating representations of input sequences using neural networks | |
CN108417210B (zh) | 一种词嵌入语言模型训练方法、词语识别方法及系统 | |
JP6951712B2 (ja) | 対話装置、対話システム、対話方法、およびプログラム | |
CN110837548B (zh) | 答案匹配方法、装置、电子设备及存储介质 | |
JP6243072B1 (ja) | 入出力システム、入出力プログラム、情報処理装置、チャットシステム | |
CN111966800B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN110019745A (zh) | 具有自学习自然语言理解的对话系统 | |
JP7194270B2 (ja) | 対話生成方法と装置、コンピュータ機器及びプログラム | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN110275939B (zh) | 对话生成模型的确定方法及装置、存储介质、电子设备 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
WO2018082569A1 (zh) | 序列转换方法及装置 | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
JP2017076281A (ja) | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム | |
KR20210045217A (ko) | 감정 이식 장치 및 감정 이식 방법 | |
JP2018181300A (ja) | 入出力システム、入出力プログラム、情報処理装置、チャットシステム | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
JP2019144844A (ja) | 形態素解析学習装置、形態素解析装置、方法、及びプログラム | |
JP6605997B2 (ja) | 学習装置、学習方法及びプログラム | |
JP2019204415A (ja) | 言い回し文生成方法、言い回し文装置及びプログラム | |
JP2024506597A (ja) | 自己注意動作および相互注意動作を使用して潜在的埋め込みを豊かにすることによってニューラルネットワーク出力を生成すること | |
CN111310847B (zh) | 训练要素分类模型的方法和装置 | |
KR102379730B1 (ko) | 대화 에이전트 시스템의 학습 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6243072 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |