JP6165306B1 - 生成装置、生成方法及び生成プログラム - Google Patents

生成装置、生成方法及び生成プログラム Download PDF

Info

Publication number
JP6165306B1
JP6165306B1 JP2016182901A JP2016182901A JP6165306B1 JP 6165306 B1 JP6165306 B1 JP 6165306B1 JP 2016182901 A JP2016182901 A JP 2016182901A JP 2016182901 A JP2016182901 A JP 2016182901A JP 6165306 B1 JP6165306 B1 JP 6165306B1
Authority
JP
Japan
Prior art keywords
response
user
model
generating
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016182901A
Other languages
English (en)
Other versions
JP2018049342A (ja
Inventor
北岸 郁雄
郁雄 北岸
暁史 津森
暁史 津森
徹 上永
徹 上永
成臣 西田
成臣 西田
崇央 小宮
崇央 小宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016182901A priority Critical patent/JP6165306B1/ja
Application granted granted Critical
Publication of JP6165306B1 publication Critical patent/JP6165306B1/ja
Priority to US15/691,421 priority patent/US20180082196A1/en
Publication of JP2018049342A publication Critical patent/JP2018049342A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

【課題】質問文に対する応答の精度を向上させること。【解決手段】本願に係る生成装置は、利用者によって入力された条件に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する選択部と、前記選択部により選択されたモデルを用いて、前記利用者からの問い合わせに対する応答を生成する生成部とを有することを特徴とする。【選択図】図1

Description

本発明は、生成装置、生成方法及び生成プログラムに関する。
近年、自然言語処理や深層学習などの人工知能関連技術を用いた情報処理の技術が提案されている。例えば、自然言語による質問文を受け付けると、入力された質問文が有する特徴量を抽出し、抽出した特徴量を用いて、質問文に対する応答を推定する技術が知られている。
特許第5591871号公報
しかしながら、上述した従来技術では、判断基準となる条件が異なる場合には、応答の精度が悪化する場合がある。
例えば、恋愛相談等の人間関係に関する質問では、性別や年齢等、質問者自身や相手方の属性によって判断基準が変化するので、同一の判断基準を用いて質問文に対する応答を推定した場合には、誤った応答を出力する恐れがある。
本願は、上記に鑑みてなされたものであって、質問文に対する応答の推定精度を向上させることができる生成装置、生成方法及び生成プログラムを提供することを目的とする。
本願に係る生成装置は、利用者によって入力された条件に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する選択部と、前記選択部により選択されたモデルを用いて、前記利用者からの問い合わせに対する応答を生成する生成部とを有することを特徴とする。
実施形態の一態様によれば、質問文に対する応答の精度を向上させることができる。
図1は、実施形態に係る情報処理装置が発揮する作用効果の一例を説明するための図である。 図2は、実施形態に係る情報処理装置が有する機能構成の一例を説明する図である。 図3は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係る教師データデータベースに登録される情報の一例を示す図である。 図5は、実施形態に係る情報処理装置が実行する生成処理の流れの一例を説明するフローチャートである。 図6は、実施形態に係る情報処理装置が実行する学習処理の流れの一例を説明するフローチャートである。 図7は、実施形態に係る情報処理装置が条件を取得する処理の一例を示す図である。
以下に、本願に係る生成装置、生成方法及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位及び処理には同一の符号を付し、重複する説明は省略される。
また、以下の説明では、生成装置の一例である情報処理装置10が実行する生成処理の一例として、利用者U01から、他の利用者に関する問い合わせとして、利用者U01と他の利用者との恋愛相談に関連する問い合わせを受け付ける処理の一例について記載するが、実施形態は、これに限定されるものではない。例えば、情報処理装置10は、他の利用者等、利用者U01の相手方となる利用者に関連しない問い合わせを受け付ける際に、後述する生成処理を実行してもよい。
〔1.生成処理の概念〕
まず、図1を用いて、情報処理装置10が実行する生成処理の概念について説明する。図1は、実施形態に係る情報処理装置が発揮する作用効果の一例を説明するための図である。例えば、情報処理装置10は、サーバ装置やクラウドシステム等、単数または複数の情報処理装置により実現され、移動通信網や無線LAN(Local Area Network)等のネットワークNを介して、利用者U01が使用する端末装置100と通信可能な情報処理装置である。
端末装置100は、例えば、スマートフォン、タブレット端末やPDA(Personal Digital Assistant)等の移動端末、ノート型PC(Personal Computer)等の情報処理装置である。例えば、端末装置100は、所定のUI(User Interface)を介して、利用者U01が入力した問い合わせの文章(以下、「質問」と記載する。)を受け付けると、受付けた質問を情報処理装置10へと送信する。
一方、情報処理装置10は、端末装置100から質問を受け付けると、質問に対する応答となる文章(以下、単に「応答」と記載する。)を生成し、生成した応答を端末装置100へと送信する。例えば、情報処理装置10は、w2v(word2vec)やディープラーニング等といった人工知能関連技術を用いて、質問の内容に応じた応答を生成し、生成した応答を出力する。より具体的な例を挙げると、情報処理装置10は、質問が入力された際に応答の内容を推定するモデルをあらかじめ学習する。そして、情報処理装置10は、モデルを用いて、利用者から受付けた質問に対する応答の内容を推定し、推定結果に応じた応答を出力する。
しかしながら、質問には、判断基準となる条件が異なる場合がある。具体的な例を挙げると、恋愛相談等、質問者となる利用者と他の利用者との間の関係についての質問では、利用者と他の利用者との年代や性別等といった属性によって、質問に対する応答が変化する場合がある。
例えば、情報処理装置10は、図1中(A)に示すように、利用者U01が利用者U02に対して行った行為や利用者U02が利用者U01に対して行った行為、利用者U01と利用者U02との間の関係性や状態等、利用者U02が利用者U01に対して好意を有しているか否かの推定の元となる情報(以下、「推定情報」と記載する。)を用いて、利用者U02が利用者U01に対して好意を有しているか否かを推定するモデルをあらかじめ学習する。そして、情報処理装置10は、利用者U01から推定情報を含む質問を取得すると、モデルを用いて、取得した推定情報から利用者U02が利用者U01に対して好意を有しているか否かを示す応答を出力する。
しかしながら、例えば、利用者U01および利用者U02が20代である場合は、推定情報の内容が利用者U02が利用者U01に対して好意を有する旨を想起させるとしても、利用者U01および利用者U02が30代である場合は、推定情報の内容が利用者U02が利用者U01に対して好意を有する旨を想起させるとは限らない。
また、利用者U01や利用者U02の属性だけではなく、利用者U02が利用者U01に対して行為を行ったタイミング、利用者U01と利用者U02との年齢差等、各種の条件に応じて、応答が変化するとも考えられる。このため、従来技術のように、質問に対する応答を単一のモデルにより生成した場合は、応答の精度が悪化してしまう。
〔2.実施形態に係る情報処理装置が実行する生成処理について〕
そこで、情報処理装置10は、以下の生成処理を実行する。例えば、情報処理装置10は、利用者U01によって入力された条件に基づいて、質問に対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。そして、情報処理装置10は、選択されたモデルを用いて、利用者U01からの質問に対する応答を生成する。そして、情報処理装置10は、生成した応答を利用者U01の端末装置100へと送信する。
以下、図を用いて、上述した生成処理を実現する情報処理装置10の機能構成及び作用効果の一例を説明する。なお、以下の説明では、利用者U01から取得した質問の中に、応答を推定するための推定情報が含まれているものとする。
〔2−1.機能構成の一例〕
図2は、実施形態に係る情報処理装置が有する機能構成の一例を説明する図である。図2に示すように、情報処理装置10は、通信部20、記憶部30、および制御部40を有する。通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100との間で、質問や応答の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、生成処理を実行するための各種データであるモデルデータベース31、および教師データデータベース32を有する。以下、図3および図4を用いて、モデルデータベース31、および教師データデータベース32に登録される情報の一例を説明する。
モデルデータベース31には、利用者によって入力された条件に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルが登録されている。例えば、モデルデータベース31には、質問者となる利用者や、質問において相手方となる利用者等の属性に対応する応答を生成するためのモデルが登録されている。ここで、利用者の属性とは、例えば、利用者の性別や年代、居住地域や出身地域といったデモグラフィック属性のみならず、利用者の好み等といったサイコグラフィック属性等、利用者を示す任意の属性が採用可能である。
ここで、モデルデータベース31には、モデルとして、利用者U01からの質問に対し、所定の応答または所定の応答とは逆の内容の応答のいずれか一方を出力するモデルが登録されている。例えば、モデルデータベース31に登録されたモデルは、相手方となる利用者(例えば、利用者U02)が質問者となる利用者(例えば、利用者U01)に対して興味があるか否かといった内容の質問を受け付けると、推定情報に基づいて、質問者となる利用者に対し「脈あり(興味がある)」である旨の応答、または「脈なし(興味がない)」である旨の推定結果を出力する。
例えば、図3は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。図3に示すように、モデルデータベース31には、「属性」、および「モデル」といった項目を有する情報が登録される。ここで「モデル」とは、例えば、DNN(Deep Neural Network)等によって生成されたモデルである。また、「属性」とは、対応付けられたモデルがどのような条件の元で応答を生成するかを示す情報である。すなわち、モデルデータベース31に登録された各モデルは、対応付けられた「属性」が示す属性の利用者が納得する可能性が高い応答、すなわち、対応付けられた「属性」が示す属性に対して適正化された応答を出力する。
例えば、図3に示す例では、モデルデータベース31には、属性「10代 女性」、およびモデル「モデル#1」が対応付けて登録されている。このような情報は、利用者からの質問に対して、モデル#1が10代の女性にとって適正化された応答を出力するように学習が行われている旨を示す。ここで、モデルデータベース31に登録されるモデルは、質問を行う側の利用者に対して適正化が行われているものとする。
教師データデータベース32には、各モデルを学習するために用いる教師データが登録されている。より具体的には、教師データデータベース32には、情報処理装置10が利用者から受付けた質問と、質問に対する応答と、応答に対する評価を示す情報とが教師データとして登録されている。
例えば、図4は、実施形態に係る教師データデータベースに登録される情報の一例を示す図である。図4に示すように、教師データデータベース32には、「属性」、「質問文」、「分類ラベル」、および「極性」といった項目を有する情報が登録されている。ここで、図4に示す「属性」とは、質問を行った利用者の属性を示す情報である。また「質問文」とは、利用者が入力した質問の文章、すなわち、テキストデータである。
また、「分類ラベル」とは、対応付けられた「質問文」が示す質問に対してモデルが出力した応答の内容を示す情報である。例えば、各モデルは、「質問文」のテキストデータが入力されると、入力されたテキストデータに含まれる推定情報の内容から、「質問文」を「脈あり」または「脈なし」のいずれかに分類する。そして、情報処理装置10は、各モデルによる分類結果に基づいて、応答を生成する。例えば、各モデルは、「質問文」が入力されると、入力された「質問文」を「脈あり」または「脈なし」に分類する。そして、情報処理装置10は、「質問文」が「脈あり」に分類された場合は、「脈あり」である旨の応答を生成し、「質問文」が「脈なし」に分類された場合は、「脈なし」である旨の応答を生成する。
また、「極性」とは、情報処理装置10が出力した応答に対する利用者からの評価を示す情報である。より具体的には、「極性」とは、応答の内容に対して利用者が好意的な評価(例えば、「いいね!」等)を行ったか、利用者が否定的な評価(例えば、「そうかな?」等)を行ったかを示す情報である。
例えば、図4に示す例では、教師データデータベース32には、属性「10代 男性」、質問文「質問文#1」、分類ラベル「脈あり」、極性「+(いいね!)」等が対応付けて登録されている。このような情報は、質問を行った利用者の属性が「10代 男性」であり、質問文が「質問文#1」であり、応答の内容が「脈あり」であった旨を示す。また、このような情報は、「脈あり」の内容の応答に対して、質問を行った利用者が好意的な評価(「+(いいね!)」)を行った旨を示す。
図2に戻り、説明を続ける。制御部40は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムが、RAM等の記憶領域を作業領域として実行されることにより実現される。図2に示す例では、制御部40は、取得部41、選択部42、生成部43、応答部44、受付部45、および学習部46(以下、総称して各処理部41〜46と記載する場合がある。)を有する。
なお、制御部40が有する各処理部41〜46の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。また、各処理部41〜46は、以下に説明するような生成処理および学習処理の機能・作用(例えば図1)を実現・実行するものであるが、これらは説明のために整理した機能単位であり、実際のハードウェア要素やソフトウェアモジュールとの一致は問わない。すなわち、以下の生成処理および学習処理の機能・作用を実現・実行することができるのであれば、情報処理装置10は、任意の機能単位で案内処理を実現・実行して良い。
〔2−2.生成処理における作用効果の一例〕
以下、図5に示すフローチャートを用いて、各処理部41〜45が実行・実現する生成処理の内容について説明する。図5は、実施形態に係る情報処理装置が実行する生成処理の流れの一例を説明するフローチャートである。
まず、取得部41は、端末装置100から質問を受け付ける(ステップS101)。例えば、情報処理装置10は、図1中ステップS1に示すように、端末装置100から質問文#1と、利用者U01の属性「10代 男性」とを取得する。ここで、情報処理装置10は、Bクッキー等の技術を用いて、利用者U01の属性を自動的に取得してもよく、利用者U01に属性を入力させてもよい。例えば、情報処理装置10は、端末装置100に対して「あなたの情報を教えてください。」等といった文章を表示させ、利用者U01に属性を入力させてもよい。すなわち、情報処理装置10は、利用者U01に属性を入力させることで、応答を生成する際に使用するモデルを選択させてもよい。
このような場合、選択部42は、利用者U01の属性等に基づいて、応答を生成する際に用いるモデルを選択する(ステップS102)。すなわち、選択部42は、利用者U01によって入力された条件に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。
より具体的には、選択部42は、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、利用者U01の属性に基づいて、応答を生成する際に用いるモデルを選択する。例えば、選択部42は、質問を行った利用者U01の属性と同じ属性に対応する応答を生成するためのモデルを選択する。ここで、選択部42は、利用者U01に対して属性等の条件の入力を求め、利用者U01が入力した属性に基づいて、モデルの中から応答を生成する際に用いるモデルを選択してもよい。このような選択の結果、選択部42は、モデルとして、利用者U01からの質問に対し、所定の応答または所定の応答とは逆の内容の応答のいずれか一方を出力するモデルの中から、応答を生成する際に用いるモデルを選択することとなる。
例えば、情報処理装置10は、図1中ステップS2に示すように、利用者U01から利用者U01と利用者U02との関係性に関する質問文を受付けた場合は、利用者U01の属性「10代 男性」を特定する。そして、情報処理装置10は、属性「10代 男性」と対応付けられたモデル#2、すなわち、属性「10代 男性」に対して適正化された応答を生成するためのモデル#2を選択する。
また、生成部43は、選択部42がモデルを選択した場合は、選択したモデルを用いて、質問に対する応答内容を生成する(ステップS103)。例えば、生成部43は、モデルに質問文を入力し、モデルによる質問文の分類結果に基づいた応答を生成する。例えば、情報処理装置10は、図1中ステップS3に示すように、選択されたモデル#2を用いて、利用者U01からの質問に対する応答を生成する。
より具体的な例を挙げると、情報処理装置10は、モデル#2に利用者U01から受付けた質問文#1を入力する。このような場合、モデル#2は、属性「10代 男性」について適正化された応答として、分類ラベル「脈あり」を出力する。また、モデル#2は、分類ラベル「脈あり」が示す応答の内容が正しい可能性を示す値、すなわち、確度の値を出力する。
また、情報処理装置10は、分類ラベル「脈あり」が示す内容の応答を生成する。例えば、情報処理装置10は、利用者U02が利用者U01に対して好意を有する旨や、モデル#2が出力した確度を示す応答C10を生成する。より具体的な例を挙げると、情報処理装置10は、「脈あり度は、75パーセント」等というように、「脈あり」であるか「脈なし」であるかといった応答とともに、モデルが出力した確度を示す情報を応答C10として生成する。
そして、応答部44は、生成した応答を端末装置100へと送信する(ステップS104)。例えば、情報処理装置10は、図1中ステップS4に示すように、生成した応答を端末装置100へと出力する。
続いて、受付部45は、端末装置100から応答に対する評価を受付けたか否かを判定する(ステップS105)。そして、受付部45は、評価を受付けていない場合は(ステップS105:No)、受け付けるまで待機する。また、受付部45は、応答に対する評価を受付けた場合は(ステップS105:Yes)、質問文と、利用者U01の属性と、評価との組を教師データとして教師データデータベース32に登録し(ステップS106)、処理を終了する。
例えば、図1に示す応答C10には、「いいね!」といった肯定的な評価を受け付けるボタンC11と、「そうかな?」等といった否定的な評価を受付るボタンC12とが配置されている。このような場合、端末装置100は、応答C10を画面上に表示し、図1中ステップS5に示すように、応答に対する評価を受け付ける。また、情報処理装置10は、利用者U01がボタンC11またはボタンC12のいずれかを選択した場合には、図1中ステップS6に示すように、利用者U01が選択したボタンが示す評価を取得する。
そして、情報処理装置10は、利用者U01の属性「10代 男性」と、利用者U01が入力した質問文「質問文#1」と、選択したモデル#2が出力した応答の内容を示す分類ラベル「脈あり」と、利用者U01の評価を示す極性「+(いいね!)」との組を教師データとして、教師データデータベース32に登録する。
なお、情報処理装置10は、教師データデータベース32に登録された教師データを用いて、モデルデータベース31に登録された各モデルの学習を行う学習処理を実行する。より具体的には、情報処理装置10は、図1中ステップS7に示すように、評価が示す極性に応じて、応答の内容を示す分類ラベル、すなわち、質問文の分類結果を示す分類ラベルと質問文との組をモデルに学習させる学習処理を実行する。
〔2−3.学習処理における作用効果の一例〕
以下、図6に示すフローチャートを用いて、学習部46が実行・実現する取得処理の内容について説明する。図6は、実施形態に係る情報処理装置が実行する学習処理の流れの一例を説明するフローチャートである。学習部46は、図6に示す学習処理を実行することで、利用者U01からの質問と、質問に対して生成された応答と、応答に対する評価とを用いて、モデルを学習する。
例えば、学習部46は、学習対象となるモデルの属性と対応する教師データを選択する(ステップS201)。すなわち、学習部46は、利用者U01からの質問と、質問に対して生成された応答と、応答に対する評価とを用いて、その利用者U01によって入力された条件に対応する応答を生成するためのモデルを学習する。
例えば、学習部46は、モデルデータベース31を参照し、学習が行われていないモデルを一つ選択する。また、学習部46は、選択したモデルの属性を参照し、参照した属性と同じ属性を含む教師データを教師データデータベース32から全て抽出する。すなわち、学習部46は、利用者U01によって入力された条件に対応する応答を生成するためのモデルを、その条件に対応する応答と、その応答に対する評価とに基づいて学習する。
また、学習部46は、選択した教師データの極性が「+」であるか否かを判定する(ステップS202)。また、学習部46は、極性が「+」である場合は(ステップS202:Yes)、分類ラベルの内容をそのまま教師データとして採用する(ステップS203)。一方、学習部46は、極性が「+」ではない場合は(ステップS202:No)、分類ラベルの内容を反転させる(ステップS204)。例えば、学習部46は、極性が「−」である際に、分類ラベルが「脈あり」である場合には、分類ラベルを「脈なし」に変更する。また、学習部46は、極性が「−」である際に、分類ラベルが「脈なし」である場合には、分類ラベルを「脈あり」に変更する。
そして、学習部46は、教師データの質問文と分類ラベルとの関係性をモデルに学習させる(ステップS205)。すなわち、学習部46は、応答に対する評価が好意的な評価である場合は、利用者U01からの質問と、質問に対して生成された応答とをモデルに学習させる。一方、学習部46は、応答に対する評価が否定的な評価である場合は、利用者U01からの質問と、質問に対して生成された応答とは逆の内容の応答とをモデルに学習させる。
例えば、学習部46は、図1に示すモデル#3の学習を行う場合、モデル#3と対応する属性「20代 女性」を特定し、特定した属性「20代 女性」と対応付けられた教師データを抽出する。この結果、学習部46は、教師データの属性が「20代 女性」であり、質問文が「質問文#2」であり、分類ラベルが「脈なし」であり、極性が「−(そうかな?)」である教師データを抽出する。ここで、学習部46は、抽出した教師データの極性が「−(そうかな?)」であるので、分類ラベルを「脈なし」から「脈あり」へと変換する。そして、学習部46は、モデル#3に対して質問文「質問文#2」を入力した際に、分類ラベル「脈あり」を出力するように、モデル#3の調整を行う。より具体的には、学習部46は、モデル#3がDNN(Deep Neural Network)等により実現される場合は、バックプロパゲーション等の公知の学習手法を用いて、モデル#3が有する各ノード間の接続係数を修正することで、モデル#3の再学習を行う。
また、例えば、学習部46は、図1に示すモデル#2の学習を行う場合、モデル#2と対応する属性「10代 男性」を特定し、特定した属性「10代 男性」と対応付けられた教師データを抽出する。この結果、学習部46は、教師データの属性が「10代 男性」であり、質問文が「質問文#1」であり、分類ラベルが「脈あり」であり、極性が「+(いいね!)」である教師データを抽出する。ここで、学習部46は、抽出した教師データの極性が「+(いいね!)」であるので、分類ラベルを「脈あり」のままにする。そして、学習部46は、モデル#2に対して質問文「質問文#1」を入力した際に、分類ラベル「脈あり」を出力するように、モデル#2の調整を行う。
このような処理の結果、学習部46は、質問文が入力された際に、条件に応じて、質問文を「脈あり」または「脈なし」に分類する分類モデルを取得することができる。より具体的には、学習部46は、推定情報を含む質問文を入力すると、利用者U02が利用者U01に好意を持っているか(すなわち「脈あり」)、好意を持っていないか(すなわち「脈なし」)を示す情報を出力するモデルであって、各利用者の属性に応じて適正化がなされたモデルの学習を行うことができる。
また、学習部46は、全てのモデルの学習が終了したか否かを判定し(ステップS206)、全てのモデルの学習が終了した場合は(ステップS206:Yes)、処理を終了する。一方、学習部46は、学習が終了していないモデルが存在する場合は(ステップS206:No)、学習対象となる次のモデルを選択し(ステップS207)、ステップS201を実行する。
なお、学習部46は、図6に示す学習処理を、任意のタイミングで実行して良い。例えば、学習部46は、教師データの数が所定の閾値を超えたタイミングで、学習処理を実行すればよい。
ここで、上述した説明では、情報処理装置10が有する学習部46は、質問文を入力すると、質問文の内容に応じた分類ラベルを出力するようにモデルの学習を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理装置10は、質問文を入力すると、質問文の内容に応じた分類ラベルが示す内容の応答文そのものを出力するモデルの学習を行ってもよい。
例えば、情報処理装置10は、質問文が「質問文#1」であり、応答として出力されるテキストである応答文が「応答文#1」であり、極性が「+(いいね!)」である教師データが存在する場合、質問文「質問文#1」を入力した際に応答文が「応答文#1」を出力するようにモデルの学習を行う。また、情報処理装置10は、質問文が「質問文#1」であり、応答文が「応答文#1」であり、極性が「−(そうかな?)」である教師データが存在する場合、質問文「質問文#1」を入力した際に応答文が「応答文#1」とは逆の意味を有する「応答文#2」を出力するようにモデルの学習を行う。例えば、情報提供装置10は、形態素解析の技術やw2vの技術等を用いて、「応答文#1」とは逆の意味を有する「応答文#2」をあらかじめ生成し、質問文「質問文#1」を入力した際に応答文が「応答文#2」を出力するようにモデルの学習を行う。例えば、情報処理装置10は、ウェブ検索等の検索処理において順位付けを行うためのモデルを作成する処理と類似した処理により、応答文を出力するようなモデルを学習可能である。このような学習を行う場合、情報処理装置10は、質問文「質問文#1」、応答文「応答文#1」、および極性「+(いいね!)」を対応付けた教師データを収集することとなる。
ここで、情報処理装置10は、質問文とともに極性をモデルに入力することで、質問文から極性に応じた分類ラベルや応答文を出力するモデルの学習を行ってもよい。例えば、情報処理装置10は、質問文「質問文#1」と極性「+(いいね!)」を入力した際に分類ラベル「脈あり」や応答文「応答文#1」を出力し、質問文「質問文#1」と極性「−(そうかな?)」を入力した際に分類ラベル「脈なし」や応答文「応答文#2」を出力するようなモデルの学習を行ってもよい。
すなわち、情報処理装置10は、利用者によって入力された条件に基づいて、問い合わせに対する応答を生成するための複数のモデルであれば、応答を生成するために用いられる情報を生成するモデルのみならず、応答そのものを生成するモデルの利用や学習を行ってよい。また、情報処理装置10は、教師データに含まれる極性(すなわち、応答文に対する利用者の評価)を考慮してモデルの学習を行うのであれば、極性に応じて変換した教師データを用いた学習を行ってもよく、極性の値そのものを教師データとしてモデルに学習させてもよい。
〔3.変形例〕
上述した実施形態に係る情報処理装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の情報処理装置10の他の実施形態について説明する。
〔3−1.モデルの選択について〕
ここで、情報処理装置10は、利用者U01の属性に対して適正化されたモデルを選択し、選択したモデルを用いて、利用者U01に対する応答を生成した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理装置10は、利用者U01の属性以外にも、任意の選択基準に基づき、応答を生成するモデルの選択をおこなってよい。
例えば、情報処理装置10は、利用者U01の属性と異なる属性に対応する応答を生成するためのモデルを選択してもよい。例えば、恋愛相談に関する質問を受け付ける場合、利用者U01の属性が「10代 男性」である場合は、相手方となる利用者U02の属性は「10代 女性」であると予測される。そこで、情報処理装置10は、利用者U01の属性が「10代 男性」である場合は、属性「10代 女性」に対して適正化されたモデルを選択し、選択したモデルを用いて、推定情報から応答の生成を行ってもよい。
また、例えば、情報処理装置10は、上司との関係に関する質問を受け付ける場合、利用者U01の属性が「20代 男性」である場合は、相手方となる利用者U02の属性が「30代 男性」であると予測される。そこで、情報処理装置10は、利用者U01の属性が「20代 男性」である場合は、属性「30代 男性」に対して適正化されたモデルを選択し、選択したモデルを用いて、推定情報から応答の生成を行ってもよい。
また、情報処置装置10は、相手方となる利用者U02の属性を特定可能である場合は、かかる属性に対して適正化されたモデルを選択してもよい。すなわち、情報処理装置10は、利用者U01から他の利用者U02に関する問い合わせを受け付けた場合は、他の利用者U02の属性に基づき、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択してもよい。例えば、情報処理装置10は、「相手の年齢や性別を教えてください」等といった応答を出力することで、利用者U01に相手方となる利用者U02の年齢や性別といった属性を入力させる。そして、情報処理装置10は、入力された属性に対して適正化されたモデルを選択し、応答の出力をおこなってもよい。
また、例えば、情報処理装置10は、質問を行った利用者U01に対して、使用するモデルの選択を行わせてもよい。すなわち、情報処理装置10は、利用者U01が選択した条件に対応する応答を生成するためのモデルを選択してもよい。例えば、情報処理装置10は、モデルデータベース31に登録された「属性」を利用者に対して提示し、どの「属性」に対応するモデルを用いて応答を生成すればよいかを利用者に対して問い合わせる。そして、情報処理装置10は、利用者が選択した「属性」に対して適正化されたモデル、すなわち、利用者が選択した条件に対して適正化されたモデルを用いて、応答の生成を行ってもよい。
また、情報処理装置10は、複数のモデルを選択し、選択した複数のモデルを用いて、応答の生成を行ってもよい。例えば、情報処理装置10は、各モデルに対して推定情報を入力した際に、各モデルが出力した確度に基づいて、応答を生成する際に用いるモデルの選択を行ってもよい。すなわち、情報処理装置10は、応答と応答の確度とを出力する複数のモデルの中から、利用者U01からの質問に対して各モデルが出力した確度の値に基づき、質問に対して応答を生成するためのモデルを選択してもよい。
例えば、情報処理装置10は、利用者U01から推定情報を含む質問を受付けた場合は、推定情報を各モデル#1〜#3に入力し、各モデル#1〜#3の応答と確度とを取得する。ここで、例えば、モデル#1が分類ラベル「脈あり」および確度「0.75」を出力し、モデル#2が分類ラベル「脈なし)」および確度「0.65」を出力し、モデル#3が分類ラベル「脈あり」および確度「0.99」を出力したものとする。このような場合、情報処理装置10は、確度の値が最も高いモデル#3を選択し、モデル#3が出力した分類ラベル「脈あり」に基づく応答を生成してもよい。
また、例えば、情報処理装置10は、複数のモデルを用いて、利用者U01からの質問に対する応答と応答の確度とをそれぞれ生成し、生成した応答の内容ごとに確度の平均値を算出し、算出した平均値の値が最も高い内容の応答を出力してもよい。例えば、情報処理装置10は、モデル#1が分類ラベル「脈あり」および確度「0.75」を出力し、モデル#2が分類ラベル「脈なし」および確度「0.65」を出力し、モデル#3が分類ラベル「脈あり」および確度「0.99」を出力した場合、分類ラベル「脈あり」の確度の平均値「0.87」と、分類ラベル「脈なし」の確度の平均値「0.65」とを算出する。そして、情報処理装置10は、確度の平均値の値がより高い分類ラベル「脈あり」に基づく応答を生成してもよい。
また、例えば、情報処理装置10は、利用者U01の属性に「男性」が含まれる場合は、属性に「男性」が含まれる全てのモデルを選択し、選択した複数のモデルのうち、確度の値が高い方のモデルを用いて、応答の生成を行ってもよい。また、情報処理装置10は、利用者U01の属性に「10代」が含まれる場合は、属性に「10代」が含まれる全てのモデルを選択し、選択した複数のモデルのうち、確度の値が高い方のモデルを用いて、応答の生成を行ってもよい。
なお、情報処理装置10は、任意の粒度の条件に対して適正化がなされたモデルをあらかじめ学習しておき、これら全てのモデルを用いて質問に対する応答の内容(「脈あり」であるか「脈なし」であるか等)を取得する。そして、情報処理装置10は、取得した内容の多数決や内容に対する確度に基づく多数決に基づいて、応答の内容を決定してもよい。また、情報処理装置10は、質問者となる利用者U01の属性や利用者U02の属性、各モデルが推定した応答の内容や確度の値等に基づく重みづけを考慮して、応答の内容を決定してもよい。
〔3−2.モデルについて〕
上述した例では、情報処理装置10は、質問者である利用者に対し、相手方となる利用者が「脈あり」であるか「脈なし」であるかを応答するためのモデルの学習や利用を行った。しかしながら、実施形態は、これに限定されるものではない。すなわち、情報処理装置10は、質問の種別に応じて様々な条件に対する適正化が行われたモデルの学習や利用を行ってもよい。
例えば、情報処理装置10は、会社における人間関係に関する質問に対する応答を生成するためのモデルの学習や利用を行ってもよい。このような場合、情報処理装置10は、質問者となる利用者の属性や、相手方となる利用者の属性、および推定情報の内容に基づいて、相手方となる利用者が質問者となる利用者を気に入っているか否かを推定するモデルの学習を行ってもよい。また、情報処理装置10は、質問者となる利用者の属性のみならず、相手方となる利用者の属性に対して適正化されたモデルの学習を行えばよい。
また、情報処理装置10は、就職活動に関する質問に対する応答を生成するためのモデルの学習や利用を行ってもよい。例えば、情報処理装置10は、推定情報として、質問者となる利用者の大学や専攻の内容に基づいて、就職できるか否かを推定するモデルであって、各会社ごとに適正化がなされたモデルを保持する。そして、情報処理装置10は、利用者の大学や専攻の内容を受け付けるとともに、就職を希望する会社の選択を受け付けると、かかる会社に対して適正化がなされたモデルを用いて、利用者が就職できるか否かの推定結果を応答として出力してもよい。
なお、情報処理装置10は、上述した内容以外にも、任意の内容について質問に対する応答を生成するモデルの利用や学習を行ってよい。すなわち、情報処理装置10は、条件ごとに適正化がなされた複数のモデルのうち、利用者の入力に基づく条件(例えば、質問者の属性や相手方の属性等)に応じて応答を生成するためのモデルを選択するのであれば、任意の内容の質問に対する応答を生成するモデルの利用や学習を行ってよい。
〔3−3.属性について〕
上述した情報処理装置10は、推定情報から利用者の属性ごとに適正化された応答を出力するための複数のモデルを学習し、質問を行った利用者の属性に対して適正化された応答を出力するためのモデルを選択した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理装置10は、推定情報から、相手方となる利用者が好意を有するか否かを推定するモデルであれば、任意の条件に対して適正化された推定を行うモデルの学習を行ってよい。
例えば、利用者U02が利用者U01に対してある行為を行った場合、ある地域では利用者U02が利用者U01に対して好意を有すると推定されるが、他の地域では好意を有していないと推定される場合がある。そこで、情報処理装置10は、利用者U01が所在する地域に基づいて、それぞれ異なる地域に対応する応答(すなわち、各地域に対して適正化された応答)を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択してもよい。
例えば、情報処理装置10は、推定情報に基づいて、相手方となる利用者が好意を有するか否かを推定するモデルを所定の地域ごとに学習する。また、情報処理装置10は、利用者U01から推定情報を含む質問を受付けた場合は、利用者U01の所在地をGPS(Global Positioning System)等の測位システムを用いて特定する。なお、情報処理装置10は、「どこに住んでいますか?」等といった応答を出力することで、利用者U01が所在する地域を入力させてもよい。そして、情報処理装置10は、利用者U01の所在地を特定した場合は、特定した地域と対応するモデルを用いて、利用者U01から受信した質問に対する応答を生成してもよい。
〔3−4.学習処理について〕
上述した処理では、情報処理装置10は、質問者である利用者から受付けた応答に対する評価に応じて、応答の内容をそのまま若しくは反転させて、質問者である利用者の属性に対して適正化がなされたモデルの学習を行った。しかしながら、実施形態は、これに限定されるものではない。
例えば、情報処理装置10は、質問における相手方の利用者の属性を特定可能である場合は、質問と、質問に対する応答と、応答に対する評価とを教師データとして、相手方の利用者の属性に対して適正化がなされたモデルの学習を行ってもよい。例えば、情報処理装置10は、利用者U01から利用者U02に関する質問を受付けた場合は、その質問と、その質問に対する応答と、応答に対する評価とに基づいて、利用者U02の属性「10代 女性」と対応するモデル#1の学習を行ってもよい。
また、情報処理装置10は、上述した選択処理の変形例と同様に、質問と、質問に対する応答と、応答に対する評価とを用いて、質問者となる利用者の属性とは異なる属性に対して最適化がなされたモデルの学習を行ってもよい。例えば、情報処理装置10は、質問者となる利用者U01の属性が「10代 男性」である場合は、利用者U01の質問と、質問に対する応答と、応答に対する評価とに基づいて、「10代 女性」に対して適正化がなされたモデルの学習を行ってもよい。
なお、情報処理装置10は、「脈あり」および「脈なし」といった2値の分類を行うモデルのみならず、「脈あり」、「脈なし」、「不明」といった3値以上の分類を行うモデルの利用や学習を行ってもよい。このようなモデルの学習を行う場合、情報処理装置10は、応答に対する極性が「+」である場合は、質問と、応答の内容(分類結果ラベル)とをそのまま教師データすることで、モデルの学習を行えばよい。
また、情報処理装置10は、応答に対する極性が「−」である場合は、応答の内容以外の内容と、質問とを対応づけた教師データを生成し、生成した教師データを用いて、モデルの学習を行う。例えば、情報処理装置10は、ある質問に対する応答の内容が「脈あり」であり、かかる応答に対する極性が「−」であった場合は、質問と応答の内容「脈なし」とを対応付けた教師データと、質問と応答の内容「不明」とを対応付けた教師データとを用いて、モデルの学習を行えばよい。
〔3−5.オフトピックスの判定〕
ここで、情報処理装置10は、上述した処理に加えて、オフトピックスの判定を行うモデルの学習や利用を行ってもよい。例えば、情報処理装置10は、質問を受け付けると、任意の文章解析技術を用いて、質問が属する分野が恋愛相談であるか否かを判定する。そして、情報処理装置10は、質問が属する分野が恋愛相談である場合は、質問者の属性や相手方の属性に応じてモデルを選択し、選択したモデルを用いて質問に対する応答を出力すればよい。
また、情報処理装置10は、例えば、入力された質問から「脈あり」であるか「脈なし」であるか「オフトピックス」であるかを推定するモデルの学習や利用を行ってもよい。このような場合、情報処理装置10は、モデルが「オフトピックス」である旨を出力した場合は、質問者に対して応答ができない旨を通知してもよく、他の質問を入力するように促す応答を出力してもよい。
〔3−6.条件の取得〕
ここで、情報処理装置10は、質問者との会話を進めることで、質問者の属性や相手方の属性等といったモデルを選択するための条件を取得してもよい。例えば、図7は、実施形態に係る情報処理装置が条件を取得する処理の一例を示す図である。なお、図7に示す例では、情報処理装置10が端末装置100に表示させるメッセージと、端末装置100が利用者U01から受け付ける文章(すなわち、「質問」)の一例について記載した。
例えば、情報処理装置10は、図7中(A)に示すように「どんなことがありましたか?」等というように、推定情報を含む質問の入力を促すメッセージを表示させる。ここで、利用者U01は、図7中(B)に示すように、「頻繁に目があってどきどきします。」等といった推定情報を含むメッセージを入力したとする。このような場合、情報処理装置10は、図7中(C)に示すように、「あなたや相手のことを教えてください。」等といった利用者U01や相手方となる利用者の情報(すなわち、「条件」)の入力を促すメッセージを表示させる。
ここで、図7中(D)に示すように、利用者U01が「自分は、10代の男性です。相手は、10代の女性です。」といったメッセージを入力したとする。このような場合、情報処理装置10は、利用者U01が入力したメッセージから、利用者U01の属性が「10代 男性」であり、相手方となる利用者の属性が「10代 女性」である旨を特定する。そして、情報処理装置10は、特定した利用者U01の属性や相手方となる利用者の属性に基づいて、応答を生成するためのモデルを選択し、選択したモデルを用いて応答を生成する。そして、情報処理装置10は、図7中(E)に示すように、「脈あり」であるか「脈なし」であるか、どれくらいの確度であるかを示すとともに、利用者U01からの評価を受け付けるための応答C10を表示させる。
〔3−7.評価の受付〕
ここで、情報処理装置10は、質問を行った利用者U01から、質問に対する応答への評価を受付けた。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理装置10は、利用者U01からの質問と、質問に対する応答とを公開し、第三者からの評価を受け付ける。そして、情報処理装置10は、利用者U01からの質問と、質問に対する応答とを公開し、第三者からの評価とを用いて、モデルの学習を行ってもよい。例えば、情報処理装置10は、第三者の属性が「女性 10代」である場合は、利用者U01からの質問と、質問に対する応答と、第三者からの評価とを用いて、属性「女性 10代」に対して適正化されたモデルの学習を行ってもよい。このような学習を行う場合、情報処理装置10は、利用者U01からの質問に対し、相手方となる利用者U02の属性に基づいてモデルの選択を行うことで、応答内容の推定精度を向上させることができる。
〔3−8.その他〕
上述した情報処理装置10は、上述したモデル以外にも、任意のモデルの学習や利用を行ってよい。例えば、情報処理装置10は、入力された文章が犬に関する文章であるのか猫に関する文章であるのかを判定するモデルであって、それぞれ異なる条件(例えば、質問者の性別)に対して適正化がなされたモデルの学習を行ってもよい。また、情報処理装置10は、米ドルに関する文章であるのかユーロに関する文章であるのかを判定するモデルであって、それぞれ異なる条件(例えば、入力された文章の言語)に対して適正化がなされたモデルの学習を行ってもよい。また、情報処理装置10は、野球に関する文章であるのかサッカーに関する文章であるのかを判定するモデルであって、それぞれ異なる条件(例えば、質問者の年代)に対して適正化がなされたモデルの学習を行ってもよい。
また、例えば、情報処理装置10は、質問者となる利用者U01と相手方の利用者U02との間の年齢差ごとに、異なる適正化がなされた複数のモデルを生成し、質問者となる利用者U01と相手方の利用者U02との間の年齢差に応じて、応答を生成するモデルを選択してもよい。このようなモデルを学習する場合、情報処理装置10は、質問を行った利用者U01と相手方の利用者U02との年齢差を算出し、算出した年齢差に対して適正化がなされたモデルを学習対象として選択する。そして、情報処理装置10は、質問と、応答と、評価とを教師データとして、選択したモデルの学習を行えばよい。
また、情報処理装置10は、応答に対する評価のみならず、応答に対する結果を利用者U01から受付け、受付けた結果に基づいて、モデルを選択する際の重みづけやモデルを学習する際の重みづけを行ってもよい。例えば、情報処理装置10は、利用者U01に対して利用者U02が「脈あり」である旨の応答を提供する。このような場合、情報処理装置10は、利用者U02が利用者U01に対して好意を持っていたか否かを利用者U01に問い合わせる。そして、情報処理装置10は、好意を持っていた旨の通知を利用者U01から得られた場合は、利用者U01が入力した質問文に対して「脈あり」である旨を出力するように、モデルの調整を行ってもよい。また、情報処理装置10は、利用者U01が入力した質問文に対して応答を生成する際に用いたモデルの結果をより信頼するような重みづけを行ってもよい。
〔3−9.他の実施形態〕
なお、上記実施形態は例示に過ぎず、本発明は、以下に例示するものやそれ以外の他の実施態様も含むものである。例えば、本出願における機能構成、データ構造、フローチャートに示す処理の順序や内容などは例示に過ぎず、各要素の有無、その配置や処理実行などの順序、具体的内容などは適宜変更可能である。例えば、上述した生成処理や学習処理は、上記実施形態で例示したように情報処理装置10が実現する以外にも、クラウドシステムにおける装置、方法やプログラムとして実現することもできる。
また、情報処理装置10を構成する各処理部41〜46を、さらにそれぞれ独立した装置で実現する構成も一般的である。同様に、外部のプラットフォーム等をAPI(アプリケーション・プログラム・インタフェース)やネットワークコンピューティング(いわゆるクラウドなど)で呼び出すことで、上記実施形態で示した各手段を実現するなど、本発明の構成は柔軟に変更できる。さらに、本発明に関する手段などの各要素は、コンピュータの演算制御部に限らず物理的な電子回路など他の情報処理機構で実現してもよい。
また、情報処理装置10は、端末装置100との間で質問や応答の送受信を行うフロントエンドサーバと、生成処理や学習処理を実行するバックエンドサーバとにより実現されてもよい。例えば、フロントエンドサーバは、端末装置100から利用者U01の属性や質問を受け付けると、受付けた属性や質問をバックエンドサーバへと送信する。このような場合、バックエンドサーバは、受付けた属性に基づいてモデルの選択を行うとともに、選択したモデルを用いて質問に対する応答を生成する。そして、バックエンドサーバは、生成した応答をフロントエンドサーバへと送信する。その後、フロントエンドサーバは、応答をメッセージとして端末装置100へと送信する。
また、フロントエンドサーバは、端末装置100から応答に対する評価を受け付けると、受付けた評価と、送信した質問と、利用者の属性(すなわち、条件)とを対応付けた教師データを生成し、生成した教師データをバックエンドサーバへと送信する。この結果、バックエンドサーバは、教師データを用いて、モデルの学習を行うことができる。
〔4.効果〕
上述したように、情報処理装置10は、利用者U01によって入力された条件に基づいて、質問に対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。そして、情報処理装置10は、選択されたモデルを用いて、利用者U01からの質問に対する応答を生成する。このため、情報処理装置10は、質問に対する応答の推定精度を向上させることができる。
また、情報処理装置10は、条件として、利用者U01の属性に基づいて、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。例えば、情報処理装置10は、利用者U01の属性と同じ属性に対応する応答を生成するためのモデルを選択する。このため、情報処理装置10は、利用者U01が納得しやすい(利用者U01に対して適正化された)応答を出力することができる。
また、情報処理装置10は、利用者U01の属性と異なる属性に対応する応答を生成するためのモデルを選択する。例えば、情報処理装置10は、利用者U01から他の利用者U02に関する質問を受け付けた場合は、条件として、当該他の利用者U02の属性に基づき、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。例えば、情報処理装置10は、利用者U02の属性に対して適正化されたモデルを選択する。このため、情報処理装置10は、人間関係に関する質問に対する応答の推定精度を向上させることができる。
また、情報処理装置10は、モデルとして、応答と応答の確度とを出力する複数のモデルの中から、利用者U01からの質問に対して各モデルが出力した確度の値に基づき、質問に対して応答を生成するためのモデルを選択する。このため、情報処理装置10は、正答を出力する確率が高いモデルを用いて、応答を生成することができる。
また、情報処理装置10は、条件として、利用者U01が所在する地域に基づいて、それぞれ異なる地域に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する。このため、情報処理装置10は、利用者U01の所在地域を考慮して、応答を生成することができる。
また、情報処理装置10は、モデルのうち、利用者U01が選択した条件に対応する応答を生成するためのモデルを選択する。このため、情報処理装置10は、質問に対する応答の推定精度を向上させることができる。
また、情報処理装置10は、モデルの中から複数のモデルを選択する。例えば、情報処理装置10は、応答と応答の確度とを出力する複数のモデルの中から複数のモデルを選択し、選択された複数のモデルを用いて、利用者U01からの質問に対する応答と応答の確度とをそれぞれ生成し、生成した応答のうち、確度の値が最も高い応答を出力する。また、例えば、情報処理装置10は、生成した応答の内容ごとに確度の平均値を算出し、算出した平均値の値が最も高い内容の応答を出力する。このため、情報処理装置10は、質問に対する応答の推定精度をより向上させることができる。
また、情報処理装置10は、利用者U01から、生成部が生成した応答に対する評価を受け付ける。そして、情報処理装置10は、利用者U01からの質問と、質問に対して生成された応答と、応答に対する評価とを用いて、モデルを学習する。例えば、情報処理装置10は、モデルとして、利用者U01からの質問に対し、所定の応答または所定の応答とは逆の内容の応答のいずれか一方を出力するモデルの中から、応答を生成する際に用いるモデルを選択する。そして、情報処理装置10は、応答に対する評価が好意的な評価である場合は、利用者U01からの質問と、質問に対して生成された応答とをモデルに学習させ、応答に対する評価が否定的な評価である場合は、利用者U01からの質問と、質問に対して生成された応答とは逆の内容の応答とをモデルに学習させる。このため、情報処理装置10は、出力した応答の内容が適切であったか否かに関わらず、出力した応答を教師データとすることができるので、教師データの数を増やす結果、応答の推定精度をより向上させることができる。
また、情報処理装置10は、利用者U01からの質問と、質問に対して生成された応答と、応答に対する評価とを用いて、利用者U01によって入力された条件に対応する応答を生成するためのモデルを学習する。このため、情報処理装置10は、質問に対する応答を生成するための複数のモデルであって、それぞれ異なる条件に対応する応答を生成するためのモデルを学習することができる。
また、情報処理装置10は、利用者U01からの質問であって、他の利用者U02に関する質問と、質問に対する応答と、応答に対する評価とを用いて、他の利用者U01の属性に対応する応答を生成するためのモデルを学習する。このため、情報処理装置10は、人間関係に関する質問に対する応答精度を向上させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、選択部は、選択手段や選択回路に読み替えることができる。
10 情報処理装置
20 通信部
30 記憶部
31 モデルデータベース
32 教師データデータベース
40 制御部
41 取得部
42 選択部
43 生成部
44 応答部
45 受付部
46 学習部
100 端末装置

Claims (16)

  1. 利用者から他の利用者に関する問い合わせを受け付けた場合は、利用者によって入力された他の利用者の属性に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する選択部と、
    前記選択部により選択されたモデルを用いて、前記利用者からの問い合わせに対する応答を生成する生成部と
    を有することを特徴とする生成装置。
  2. 前記選択部は、さらに、前記利用者の属性に基づいて、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する
    ことを特徴とする請求項1に記載の生成装置。
  3. 前記選択部は、前記利用者の属性と同じ属性に対応する応答を生成するためのモデルを選択する
    ことを特徴とする請求項2に記載の生成装置。
  4. 前記選択部は、前記利用者の属性と異なる属性に対応する応答を生成するためのモデルを選択する
    ことを特徴とする請求項2に記載の生成装置。
  5. 前記選択部は、前記モデルとして、前記応答と当該応答の確度とを出力する複数のモデルの中から、前記利用者からの問い合わせに対して各モデルが出力した確度の値に基づき、当該問い合わせに対して応答を生成するためのモデルを選択する
    ことを特徴とする請求項1〜のうちいずれか1つに記載の生成装置。
  6. 前記選択部は、さらに、前記利用者が所在する地域に基づいて、それぞれ異なる地域に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する
    ことを特徴とする請求項1〜のうちいずれか1つに記載の生成装置。
  7. 前記選択部は、前記モデルの中から複数のモデルを選択する
    ことを特徴とする請求項1〜のうちいずれか1つに記載の生成装置。
  8. 前記選択部は、前記モデルとして、前記応答と当該応答の確度とを出力する複数のモデルの中から複数のモデルを選択し、
    前記生成部は、前記選択部により選択された複数のモデルを用いて、前記利用者からの問い合わせに対する応答と当該応答の確度とをそれぞれ生成し、生成した応答のうち、確度の値が最も高い応答を出力する
    ことを特徴とする請求項に記載の生成装置。
  9. 前記生成部は、前記選択部により選択された複数のモデルを用いて、前記利用者からの問い合わせに対する応答と当該応答の確度とをそれぞれ生成し、生成した応答の内容ごとに確度の平均値を算出し、算出した平均値の値が最も高い内容の応答を出力する
    ことを特徴とする請求項に記載の生成装置。
  10. 前記利用者から、前記生成部が生成した応答に対する評価を受け付ける受付部と、
    前記利用者からの問い合わせと、当該問い合わせに対して生成された応答と、当該応答に対する評価とを用いて、前記モデルを学習する学習部と
    を有することを特徴とする請求項1〜のうちいずれか1つに記載の生成装置。
  11. 前記学習部は、前記応答に対する評価が好意的な評価である場合は、前記利用者からの問い合わせと、当該問い合わせに対して生成された応答とを前記モデルに学習させ、前記応答に対する評価が否定的な評価である場合は、前記利用者からの問い合わせと、当該問い合わせに対して生成された応答とは逆の内容の応答とを前記モデルに学習させる
    ことを特徴とする請求項1に記載の生成装置。
  12. 前記学習部は、前記利用者からの問い合わせと、当該問い合わせに対して生成された応答と、当該応答に対する評価とを用いて、当該利用者によって入力された前記他の利用者の属性に対応する応答を生成するためのモデルを学習する
    ことを特徴とする請求項1または1に記載の生成装置。
  13. 前記学習部は、前記利用者からの問い合わせであって、他の利用者に関する問い合わせと、当該問い合わせに対する応答と、当該応答に対する評価とを用いて、当該他の利用者の属性に対応する応答を生成するためのモデルを学習する
    ことを特徴とする請求項1〜1のうちいずれか1つに記載の生成装置。
  14. 前記選択部は、前記モデルとして、前記利用者からの問い合わせに対し、所定の応答または所定の応答とは逆の内容の応答のいずれか一方を出力するモデルの中から、応答を生成する際に用いるモデルを選択する
    ことを特徴とする請求項1〜1のうちいずれか1つに記載の生成装置。
  15. 生成装置が実行する生成方法であって、
    利用者から他の利用者に関する問い合わせを受け付けた場合は、利用者によって入力された他の利用者の属性に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する選択工程と、
    前記選択工程により選択されたモデルを用いて、前記利用者からの問い合わせに対する応答を生成する生成工程と
    を含むことを特徴とする生成方法。
  16. 利用者から他の利用者に関する問い合わせを受け付けた場合は、利用者によって入力された他の利用者の属性に基づいて、問い合わせに対する応答を生成するための複数のモデルであって、それぞれ異なる属性に対応する応答を生成するためのモデルの中から、応答を生成する際に用いるモデルを選択する選択手順と、
    前記選択手順により選択されたモデルを用いて、前記利用者からの問い合わせに対する応答を生成する生成手順と
    をコンピュータに実行させるための生成プログラム。
JP2016182901A 2016-09-20 2016-09-20 生成装置、生成方法及び生成プログラム Active JP6165306B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016182901A JP6165306B1 (ja) 2016-09-20 2016-09-20 生成装置、生成方法及び生成プログラム
US15/691,421 US20180082196A1 (en) 2016-09-20 2017-08-30 Generation apparatus, generation method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016182901A JP6165306B1 (ja) 2016-09-20 2016-09-20 生成装置、生成方法及び生成プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017120708A Division JP6449378B2 (ja) 2017-06-20 2017-06-20 生成装置、生成方法及び生成プログラム

Publications (2)

Publication Number Publication Date
JP6165306B1 true JP6165306B1 (ja) 2017-07-19
JP2018049342A JP2018049342A (ja) 2018-03-29

Family

ID=59351389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016182901A Active JP6165306B1 (ja) 2016-09-20 2016-09-20 生成装置、生成方法及び生成プログラム

Country Status (2)

Country Link
US (1) US20180082196A1 (ja)
JP (1) JP6165306B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028646A (ja) * 2017-07-28 2019-02-21 Hrソリューションズ株式会社 情報提供装置、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265808A (ja) * 2000-03-22 2001-09-28 Skysoft Inc 情報検索システム及び情報検索方法
JP2014120053A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム
JP2016058101A (ja) * 2012-03-06 2016-04-21 株式会社オウケイウェイヴ クライアントシステム及びサーバ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100234204B1 (ko) * 1997-05-15 1999-12-15 윤종용 인터넷을 이용한 고객 지원 시스템
US8738617B2 (en) * 2010-09-28 2014-05-27 International Business Machines Corporation Providing answers to questions using multiple models to score candidate answers
US9760990B2 (en) * 2014-12-14 2017-09-12 International Business Machines Corporation Cloud-based infrastructure for feedback-driven training and image recognition
US10453074B2 (en) * 2016-07-08 2019-10-22 Asapp, Inc. Automatically suggesting resources for responding to a request

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265808A (ja) * 2000-03-22 2001-09-28 Skysoft Inc 情報検索システム及び情報検索方法
JP2016058101A (ja) * 2012-03-06 2016-04-21 株式会社オウケイウェイヴ クライアントシステム及びサーバ
JP2014120053A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028646A (ja) * 2017-07-28 2019-02-21 Hrソリューションズ株式会社 情報提供装置、方法およびプログラム

Also Published As

Publication number Publication date
US20180082196A1 (en) 2018-03-22
JP2018049342A (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
US10146768B2 (en) Automatic suggested responses to images received in messages using language model
US10909441B2 (en) Modeling an action completion conversation using a knowledge graph
WO2020177282A1 (zh) 一种机器对话方法、装置、计算机设备及存储介质
Pejovic et al. Anticipatory mobile computing: A survey of the state of the art and research challenges
Tang et al. A novel multimodal communication framework using robot partner for aging population
US11657371B2 (en) Machine-learning-based application for improving digital content delivery
US20190303835A1 (en) Entity representation learning for improving digital content recommendations
WO2021162839A1 (en) Graph enhanced attention network for explainable poi recommendation
US20160019280A1 (en) Identifying question answerers in a question asking system
US20200402082A1 (en) Method of selecting respondents for querying in a respondent-interrogator system
JP6449378B2 (ja) 生成装置、生成方法及び生成プログラム
CN110019729B (zh) 智能问答方法及存储介质、终端
US20180091467A1 (en) Calculating efficient messaging parameters
US10769227B2 (en) Incenting online content creation using machine learning
US20170351769A1 (en) System and Method for a Platform to Identify and Connect Like-Minded Individuals Based on Interaction
US20160078125A1 (en) Participant grouping for enhanced interactive experience
WO2019226375A1 (en) Personalized query formulation for improving searches
US20190138650A1 (en) Systems and methods for electronic communication, communication node classification, and communication node affinity mapping using machine learning
JP6165306B1 (ja) 生成装置、生成方法及び生成プログラム
US20230325944A1 (en) Adaptive wellness collaborative media system
Bhatia et al. soc2seq: Social embedding meets conversation model
US11615441B2 (en) Multi-stage content analysis system that profiles users and selects promotions
CN115191002A (zh) 匹配系统、匹配方法以及匹配程序
Lola et al. Chatbot for fitness management using IBM Watson
JP6937707B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170620

R150 Certificate of patent or registration of utility model

Ref document number: 6165306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250