JP7418106B2 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7418106B2 JP7418106B2 JP2019165579A JP2019165579A JP7418106B2 JP 7418106 B2 JP7418106 B2 JP 7418106B2 JP 2019165579 A JP2019165579 A JP 2019165579A JP 2019165579 A JP2019165579 A JP 2019165579A JP 7418106 B2 JP7418106 B2 JP 7418106B2
- Authority
- JP
- Japan
- Prior art keywords
- response
- information
- age
- specific person
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 27
- 238000003672 processing method Methods 0.000 title claims 3
- 230000004044 response Effects 0.000 claims description 147
- 238000004458 analytical method Methods 0.000 claims description 19
- 238000000034 method Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000002269 spontaneous effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、特定人物を模した応答を実現する技術に関する。 The present invention relates to a technique for realizing a response imitating a specific person.
近年、パーソナルコンピュータやスマートフォンの処理性能の向上に伴い、ユーザの質問や問いかけに対して、パーソナルコンピュータやスマートフォン上に生成されたチャットボットやアバターが自動応答する技術が発達している。チャットボットに関する技術として、特許文献1には、複数のユーザの端末からの質問文に対して自動応答するチャットボットシステムにおいて、長文の応答メッセージを適切な長さに分割することが開示されている。チャットボットやアバターとのコミュニケーションにおいて、ユーザは、必要な情報が速やかに得られるというだけでなく、コミュニケーション自体を楽しむことも出来るようになってきている。そのため、より人間らしいコミュニケーションを人工知能(Artificial Intelligence(AI))で実現するために、様々なケースの会話などをコンピュータに学習させることも行われている。機械学習されたアバターは、あたかも、本物の特定人物が応答しているかのような自動応答をすることが可能である。 In recent years, as the processing performance of personal computers and smartphones has improved, technology has been developed in which chatbots and avatars generated on personal computers and smartphones automatically respond to users' questions and inquiries. As a technology related to chatbots, Patent Document 1 discloses dividing a long response message into appropriate lengths in a chatbot system that automatically responds to questions sent from multiple users' terminals. . When communicating with chatbots and avatars, users are not only able to quickly obtain the information they need, but are also able to enjoy the communication itself. Therefore, in order to realize more human-like communication using artificial intelligence (AI), computers are being trained to learn conversations in various cases. Machine-learned avatars can respond automatically as if a real, specific person was responding.
しかしながら、従来技術におけるチャットボットシステムやアバターとのコミュニケーションでは、ユーザに対して十分な満足感を与えることが出来ない場合がある。例えば、俳優などの著名人を模したアバターとコミュニケーションを行う場合、現在の著名人を模したアバターではなく、過去の最も活躍していた時の著名人を再現したアバターとのコミュニケーションが望まれることがある。また、故人をアバターで再現してコミュニケーションを行う場合、亡くなる直前の故人ではなく、所望の年齢の故人とのコミュニケーションが望まれることもある。 However, communication with chatbot systems and avatars in the prior art may not be able to provide a sufficient sense of satisfaction to users. For example, when communicating with an avatar that imitates a celebrity such as an actor, it is desirable to communicate with an avatar that reproduces the celebrity when he or she was most active in the past, rather than an avatar that imitates the current celebrity. There is. Furthermore, when communicating by reproducing a deceased person as an avatar, it may be desirable to communicate with a deceased person of a desired age rather than with the deceased person who was about to die.
本発明は、上記課題を鑑みてなされたものであり、所定の年齢の特定人物を模した応答を実現するための学習モデルを生成することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to generate a learning model for realizing a response imitating a specific person of a predetermined age.
本発明は、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、所定の年齢を設定する設定手段と、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする。 The present invention provides an acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response, a setting device for setting a predetermined age, and a set of the predetermined age and the age information. an extraction means for extracting response information corresponding to the predetermined age from the response information; and a generation means for generating a learning model of the specific person's response from the extracted response information. It is characterized by
本発明によれば、所定の年齢の特定人物を模した応答を実現出来る。 According to the present invention, a response imitating a specific person of a predetermined age can be realized.
(第1の実施形態)
以下、図面を用いて、第一の実施形態を説明する。図1は、本実施形態における装置およびシステム構成図である。情報処理装置1100は、例えば、一般的なコンピュータであり、特定人物を模した応答を実現するための応答モデル(学習モデル)を生成する。
(First embodiment)
The first embodiment will be described below with reference to the drawings. FIG. 1 is an apparatus and system configuration diagram in this embodiment. The
情報処理装置1100は、CPU1101、DRAM1102、二次記憶装置1103、ネットワークIF1104、I/Oコントローラ1105から構成されている。CPU1101は、中央演算装置であり、コンピュータプログラムの指示命令に従い、各種処理を行う。DRAM1102は、揮発性のメモリであり、コンピュータプログラムや各種データを一時的に記憶する。二次記憶装置1103は、ハードディスクドライブ(HDD)もしくはソリッドステイトディスク(SSD)などの不揮発性記憶装置であり、コンピュータプログラムや各種データを記憶する。ネットワーク1400は、有線ケーブルもしくは無線ネットワークであり、ネットワーク1400を介して、外部装置との各種データの送受信が行われる。コンピュータプログラムや各種データは、二次記憶装置1103もしくはネットワーク1400から取得され、DRAM1102に一時的に記憶される。CPU1101は、DRAM1102に記憶されたコンピュータプログラムや各種データに基づき情報処理を行う。I/Oコントローラ1105は、外部接続された入力装置1106、モニタ1107、スピーカ1108との間の入出力を制御するコントローラである。入力装置1106は、例えば、キーボードやマウス、マイクのデバイスであり、ユーザの入力を受け付ける。ユーザは、入力装置1106を使い、情報処理装置1100上に再現された仮想的な特定人物に対して、テキスト入力や音声入力で、問いかけや質問を行うことが可能である。モニタ1107は、例えば、一般的な液晶ディスプレイであり、情報処理装置1100の処理結果を表示する。モニタ1107上に、情報処理装置1100上に再現された特定人物のコンピュータグラフィックスを表示しても良い。また、モニタ1107上に、特定人物の応答をテキスト表示しても良い。スピーカ1108は、情報処理装置1100上に再現された特定人物の応答を音声出力するようにしても良い。
The
ユーザは、モニタ1107上に表示された特定人物のコンピュータグラフィックスを視認しながら、入力装置1106で質問などの問いかけを行い、スピーカ1108から音声出力される応答を聞くことが出来る。尚、情報処理装置1100上に再現された特定人物とのコミュニケーションは、入力装置1106、モニタ1107、スピーカ1108を用いずに行っても良い。例えば、情報処理装置1100とネットワーク1400を介して接続されているクライアントPCやスマートフォン1300を使って、土曜のコミュニケーションを行うことが可能である。
The user can ask a question or the like using the
図2は、本実施形態における機能構成図である。図2に示した各機能は、情報処理装置1100が、DRAM1102に記憶されたコンピュータプログラムや各種データに基づく処理を行うことにより、実現される。記憶手段2001は、DRAM1102や二次記憶装置1103により実現され、Q&Aデータおよび年齢情報を保持する。Q&Aデータは、特定人物に対して行った質問に対する応答を集めたデータである。Q&Aデータは、テキスト形式のデータでも良いし、音声形式のデータでも良い。また、特定人物の自発的な発言として、無言に対する応答を含むデータでも良い。Q&Aデータは、携帯電話やスマートフォンの会話ログから収集しても良いし、パーソナルコンピュータ上に記録されているチャットログから収集しても良い。年齢情報は、Q&Aデータに含まれる各応答を特定人物が何歳の時にしたものかを示す情報である。年齢情報は、Q&Aデータに含まれる各応答に関連付けて記憶されている。図3は、本実施形態におけるQ&Aデータおよび年齢情報を示す図である。図に示す通り、Q&Aデータ3001には、多くの質問に対する回答が含まれている。また、各Q&Aが、何歳の時になされたものかを示す年齢情報3002が関連付けられている。記憶手段2001には、一人の特定人物のQ&Aデータ3001および年齢情報3002だけでなく、複数の特定人物のQ&Aデータ3001および年齢情報3002を記憶しておいても良い。また、年齢情報3002は、25歳~30歳のように年齢の範囲で設定しておいても良い。
FIG. 2 is a functional configuration diagram in this embodiment. Each function shown in FIG. 2 is realized by the
取得手段2002は、記憶手段2001に記憶されているQ&Aデータと年齢情報とを取得する手段である。そして、設定手段2003は、ユーザ指示などに基づき所定の年齢を設定する手段である。所定の年齢は、ユーザが所望の年齢を定めればよい。例えば、特定人物が25歳の時の仮想人物を再現してコミュニケーションを行いたい場合は、25歳を設定する。また、25~30歳のように年齢の範囲を設定しても良い。抽出手段2004は、設定手段2003で設定された所定の年齢に基づき、Q&Aデータから対応する応答情報を抽出する手段である。例えば、設定手段2003で25歳が設定されている場合、図3に示すQ&Aデータ3001には、25歳、50歳、51歳の応答情報が含まれているため、年齢情報3002を参照して、25歳のみの応答情報を抽出する。生成手段2005は、抽出手段2004で抽出された応答情報を用いて、特定人物の応答モデル(学習モデル)を生成する。応答モデルは、最も単純なものでは、抽出手段2004で抽出されたQ&Aデータそのものでも良い。その場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみ応答できるモデルになる。判定手段2006は、生成した応答モデルを使ったコミュニケーションを行うか否か、またコミュニケーションを停止するか否かを判定する判定手段である。判定手段2006は、所定の時間だけユーザからの質問がなかった場合やユーザからコミュニケーション停止の指示を受けた場合、学習によって生成した応答モデルを使ったコミュニケーションを停止させる。入力手段2007は、ユーザからの質問を受け付け、応答モデルに質問のデータを入力する手段である。尚、生成した応答モデルが複数存在する場合、入力手段2007からの入力に基づき、所望の応答モデルを選択する。出力手段2008は、ユーザからの質問に対する応答モデルの応答を出力する手段である。
The acquisition means 2002 is means for acquiring the Q&A data and age information stored in the storage means 2001. The setting means 2003 is means for setting a predetermined age based on a user's instruction or the like. The predetermined age may be determined by the user. For example, if you want to communicate by reproducing a virtual person when the specific person is 25 years old, set the age of 25. Furthermore, an age range may be set, such as 25 to 30 years old. The extraction means 2004 is means for extracting corresponding response information from the Q&A data based on the predetermined age set by the setting means 2003. For example, if 25 years old is set in the setting means 2003, the
図4は、本実施形態における応答モデルの一例の概念図である。前述した通り、抽出手段2004で抽出されたQ&Aデータそのものを応答モデルにした場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみしか応答することが出来ない。よって、記憶手段2001に記憶されていたQ&Aデータに含まれる質問以外の質問にも応答するため、意味解析モデル4102を導入する。意味解析モデル4102は、あらかじめ、ニューラルネットワークやサポートベクターマシンなどの機械学習を用いて作成しておく。意味解析モデル4102は、テキスト形式もしくは音声形式の質問データを入力とし、質問を同定可能な質問の特徴量4103を出力する。類似の質問に同一ラベルを付与した多くの質問データを教師データとして機械学習を行うことにより、類似の質問に対して同一の特徴量を出力する意味解析モデル4102を作成することが出来る。Q&Aデータが比較的少ない場合は、特徴量4103はスカラー値でも良いが、Q&Aデータが多い場合は、特徴量4103はベクトル値にすると良い。ここで、機械学習の一つであるニューラルネットワークの概念について説明する。
FIG. 4 is a conceptual diagram of an example of a response model in this embodiment. As described above, if the Q&A data itself extracted by the extraction means 2004 is used as a response model, only the questions included in the Q&A data stored in the storage means 2001 can be answered. Therefore, in order to respond to questions other than those included in the Q&A data stored in the storage means 2001, a
なお、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。図5は、ニューラルネットワークを説明する図である。図5では中間層を1層としているが、2層以上で中間層を構成することが望ましい。図5に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。 Note that since the principle of the neural network itself is well known, it will be briefly explained. FIG. 5 is a diagram illustrating a neural network. In FIG. 5, the intermediate layer is one layer, but it is desirable to configure the intermediate layer with two or more layers. In the neural network shown in Figure 5, the input layer has Mi nodes (n11, n12,..., n1Mi), the middle layer has Mh nodes (n21, n22,..., n2Mh), and the output layer (Final layer) has Mo nodes (n31, n32, . . . , n3Mo). The nodes of each layer are connected to all the nodes of adjacent layers, forming a three-layer hierarchical neural network that transmits information between layers.
入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。つまり本実施形態においては、16画素×16画素のブロック画像が入力され、16画素×16画素の画素値を出力するので、入力層および出量層におけるノードは256個である。データは、図5の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。 When inputting an image to the input layer, nodes for the number of pixels are provided in the input layer so that there is a one-to-one relationship between pixels and nodes. Further, nodes for the number of pixels to be output are set in the output layer as well. That is, in this embodiment, a block image of 16 pixels x 16 pixels is input, and pixel values of 16 pixels x 16 pixels are output, so there are 256 nodes in the input layer and the output layer. Data is passed from left to right in FIG. 5, that is, in the order of input layer, intermediate layer, and output layer. Each node in the input layer is connected to all nodes in the hidden layer, and each connection between nodes has a weight. The output value transmitted from one node to another node through a connection is enhanced or attenuated by the weight of the connection. A set of weighting coefficients and bias values determined for such connections are parameters of the learning model. Note that the activation function is not particularly limited, but a logistic sigmoid function, a rectified linear unit (ReLU) function, or the like may be used. As a learning method, various neural network learning methods that have been proposed may be applied. For example, when student data is input to the input layer and a neural network is operated, the difference between the output obtained from the output layer and the teacher data that is previously associated with the student data is calculated, and the difference is calculated. The weighting coefficient and bias value are adjusted to minimize them.
図4に示す通り、上記の通りに作成された意味解析モデル4102と、抽出手段2004で抽出された応答情報から作成されたQ&Aモデル4101とを直列接続することにより、応答モデル4100を作成することが出来る。Q&Aモデル4101は、Q&Aデータの集合であるが、意味解析モデル4102と接続するため、入力の質問を意味解析モデル4102の特徴量に変更しておく。応答モデル4100の処理としては、まず、質問が入力されると、意味解析モデル4102は、質問を同定可能な特徴量4103を出力する。Q&Aモデル4101は、意味解析モデル4102が出力した特徴量4103を入力として、特徴量4103に対応する応答を出力する。以上の処理により、あらかじめ記憶されていた質問以外の質問にも応答可能な応答モデル4100を実現することが出来る。尚、上記実施形態では、Q&Aモデル4101とは別に、意味解析モデル4102を機械学習により生成したが、機械学習の段階で、Q&Aモデル4101を含めて応答モデル4100を作成しても良い。
As shown in FIG. 4, a
図6は、本実施形態における応答モデルの生成を示すフローチャートである。以下、各ステップについて説明する。尚、以下の各ステップは、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つが行うものである。
FIG. 6 is a flowchart showing generation of a response model in this embodiment. Each step will be explained below. Note that each of the following steps is performed by at least one of the
S601は、取得手段2002が、記憶手段2001から、特定人物のQ&Aデータおよび、対応する年齢情報を取得するステップである。尚、特定人物は、あらかじめ設定しておいても良いし、ユーザの指示に基づき設定しても良い。
S601 is a step in which the
S602は、設定手段2003が、ユーザ所望の年齢を設定するステップである。ここで設定する年齢は、特定の年齢ではなく、25~30歳のように年齢の範囲であっても良い。また、西暦や元号で指定し、特定人物の生年月日に基づき、年齢を算出ししても良い。
S602 is a step in which the
S603は、抽出手段2004が、S602で設定された所定の年齢に基づき、特定人物のQ&Aデータから対応する応答情報を抽出する処理である。例えば、S602で25歳が設定された場合、S601で取得した年齢情報を参照して、特定人物のQ&Aデータから25歳の応答情報のみを抽出する。
S603 is a process in which the
S604は、S603で抽出された応答情報を用いて、応答モデルを生成するステップである。応答モデルの生成の詳細については、前述したため、ここでは省略する。 S604 is a step of generating a response model using the response information extracted in S603. Details of response model generation have been described above, so they will be omitted here.
以上の処理により、ユーザが所望した年齢の特定人物の応答を再現することが可能な応答モデルを生成することが出来る。 Through the above processing, it is possible to generate a response model that can reproduce the response of a specific person of the age desired by the user.
次に、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つを使い、生成された応答モデルを用いたコミュニケーションを行う方法について説明する。
Next, a method of communicating using the generated response model using at least one of the
図7は、第1の実施形態における応答モデルを使ったコミュニケーションのフローチャートである。以下、各ステップについて説明する。 FIG. 7 is a flowchart of communication using the response model in the first embodiment. Each step will be explained below.
S701は、入力手段2007が、ユーザからの入力指示に基づき、コミュニケーションを望む年齢の特定人物の応答モデルを選択するステップである。尚、ここでは、複数の特定人物もしくは複数年齢の応答モデルがすでに生成されている前提で選択を行っている。しかしながら、所望の応答モデルが一つだけ生成されている場合には、本ステップにおける選択を省略することも可能である。 S701 is a step in which the input means 2007 selects a response model of a specific person of the age with whom communication is desired based on an input instruction from the user. Note that selection is performed here on the premise that response models for multiple specific persons or multiple ages have already been generated. However, if only one desired response model has been generated, the selection in this step may be omitted.
S702は、判定手段2006が、S701で選択された応答モデルとのコミュニケーションを停止するか否かを判定するステップである。判定は、ユーザの入力指示や、あらかじめ設定した所定時間を経過したことなどに基づき行う。コミュニケーションを停止すると判定された場合は、本フローにおける処理を終了させる。コミュニケーションを停止しないと判定された場合、すなわち、コミュニケーションを継続すると判定された場合は、S703に処理を進める。
S702 is a step in which the determining
S703は、判定手段2006が、ユーザからの質問があるか否かを判定するステップである。ユーザからの質問は、入力装置1106、クライアントPC1200、スマートフォン1300を用いて、テキスト形式や音声形式のデータで入力される。また、特定人物からの自発的な発言を望む場合は、自発モードをあらかじめ設定しておくことにより、ユーザからの質問がなかったとしても、質問が入力されたものとして処理を進める。質問が入力されたら、質問ありと判定され、S704に処理を進める。質問なしと判定された場合、コミュニケーションを停止するか否かを判定するため、S702に処理を戻す。
S703 is a step in which the determining
S704は、出力手段2008が、S703で入力された質問に対する応答を出力するステップである。応答は、S703で入力された質問を応答モデルに入力し、応答モデルから応答を出力する。応答は、スピーカ1108、モニタ1107、ネットワーク1400を介したクライアントPC1200、スマートフォン1300で出力される。出力後、次のユーザからの質問を受けるため、S703に処理を戻す。
S704 is a step in which the output means 2008 outputs a response to the question input in S703. For the response, the question input in S703 is input into the response model, and the response is output from the response model. The response is output from the
以上、本実施形態によれば、ユーザ所望の年齢の特定人物の応答モデルを作成し、生成された応答モデルを使ったコミュニケーションが可能となる。 As described above, according to the present embodiment, it is possible to create a response model of a specific person of the user's desired age and to communicate using the generated response model.
(第二の実施形態)
第一の実施形態では、意味解析モデル4102とQ&Aモデル4101と直列接続させて、応答モデル4100を生成した。しかしながら、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行うためには、異なる方法で応答モデルを作成したほうが良いこともある。
(Second embodiment)
In the first embodiment, a
一般的に、特定人物らしいか否かは、応答の内容と、語尾の癖や方言の有無などの口調とで判別されていると考えられる。そこで、本実施形態では、口調モデルを導入した応答モデルを生成する。尚、応答モデルの生成方法以外に関しては、第一の実施形態と同様であるため、以下では、本実施形態における応答モデルの生成方法のみについて説明する。 In general, it is thought that whether or not a response seems to be a specific person is determined based on the content of the response and the tone, such as the habit of ending words and the presence or absence of dialect. Therefore, in this embodiment, a response model incorporating a tone model is generated. Note that the second embodiment is the same as the first embodiment except for the response model generation method, so only the response model generation method in this embodiment will be described below.
図8は、本実施形態における応答モデル8100の概念図である。図8において、意味解析モデル8102は第一の実施形態における意味解析モデル4102と同様で、特徴量8103は第一の実施形態における特徴量4103と同様である。本実施形態における応答モデル8100は、意味解析モデル8102、再学習済の標準応答モデル8101、口調モデル8104を直列に接続することにより実現される。
FIG. 8 is a conceptual diagram of a
再学習済の標準応答モデル8101は、標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いた再学習を行い、生成されたものである。標準応答モデルは、一般的な標準応答を行うことが可能なモデルであり、標準的な会話ログなどを教師データとすることにより生成可能である。標準的な会話ログからは、特定人物ならではの応答を学習することは出来ないが、膨大なQ&Aデータを収集することが可能である。よって、多様な質問に対して応答可能な応答モデルを生成することが出来る。本実施形態では、多様な質問に対して応答可能な標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いて再学習を行う。すなわち、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて再学習を行い、Q&Aデータ3001に含まれる質問に対してはQ&Aデータ3001に含まれる応答を行う。そして、Q&Aデータ3001に含まれない質問に対しては標準応答を行うように学習するものである。
The retrained
口調モデル8104は、入力されたテキストもしくは音声をそのまま出力するモデルに対して、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて口調を学習させたモデルである。すなわち、入力されたテキストもしくは音声に対して、内容としては同じあるが、語尾の癖や方言などの特定人物の口調らしさが加わった出力を行うように学習させたものである。
The
本実施形態における応答モデル8100では、第一の実施形態と同様に、質問が入力されると、意味解析モデル8102は、質問を同定可能な特徴量8103を出力する。再学習済の標準応答モデル8101は、意味解析モデル8102が出力した特徴量8103を入力として、特徴量8103に対応する応答を出力する。ここでの応答は、Q&Aデータ3001に含まれていた質問に対しては、特定人物らしい応答になるが、Q&Aデータ3001に含まれていなかった質問に対しては、標準応答となる。再学習済の標準応答モデル8101の出力は、口調モデル8104に入力され、特定人物らしい口調の応答で出力される。以上の処理により、仮に、再学習済の標準応答モデル8101からの出力が標準応答だったとしても、口調モデル8104により特定人物らしい口調の応答で出力されるため、ユーザは特定人物らしさを感じることが出来る。再学習済の標準応答モデル8101からの出力がQ&Aデータ3001に含まれていた質問だった場合は、応答の内容と口調ともに特定人物らしくすることが可能になる。
In the
尚、本実施形態におけるモデルの学習は、前述したニューラルネットワークやサポートベクターマシンなどの各機械学習の手法を用いて実現することが可能である。以上、本実施形態によれば、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行う応答モデルを生成することが可能となる。 Note that model learning in this embodiment can be realized using various machine learning techniques such as the neural network and support vector machine described above. As described above, according to the present embodiment, it is possible to generate a response model that appropriately responds to a variety of questions asked by a user in a way that is typical of a specific person.
図9は、年齢別の応答モデルを用いたアバターの表示例を示したものである。図9に示した年齢別のアバターの画像を、モニタ1107、クライアントPC1200、スマートフォン1300のいずれかに表示させることにより、ユーザは、互いに異なる年齢とアバターを対面しているかのように感じることが出来る。そして、あらかじめ作成された年齢別の応答モデルを各年齢のアバターに設定しておけば、ユーザの質問や問いかけに対して、年齢ごとに特有の応答をすることが出来るため、ユーザが互いに異なる年齢のアバターと会話をしているような感覚を得ることが出来る。
FIG. 9 shows an example of how avatars are displayed using age-specific response models. By displaying the images of avatars according to age shown in FIG. 9 on the
図10は、図9のアバターによる応答を実現するための応答モデルの一例であり、応答モデルを年齢別に選択するモデルの概念図である。図に示す通り、応答モデル10100には、25歳で再学習済の標準応答モデル10101、50歳で再学習済の標準応答モデル10201、70歳で再学習済の標準応答モデル10301、が含まれている。更に、25歳で再学習済の標準応答モデル10101には25歳の口調モデル10104が接続されている。50歳で再学習済の標準応答モデル10201には50歳の口調モデル10204が接続され、70歳で再学習済の標準応答モデル10301には70歳の口調モデル10304が接続されている。モデルの機能は図8に示した応答8100と類似している。大きく異なる点として、入力(質問)に対して意味解析モデルおよび年齢選択10102では、入力(質問)の意味解析に加えて、年齢選択を行い、選択された年齢に対応するモデルに対して、特徴量10103を出力するようになっている。年齢選択は、あらかじめ設定されたものでも良いし、ユーザの設定指示に応じて選択しても良い。また、特定の年齢だけでなく、年齢の幅で選択しても良い。このような構成にすることにより、図9に示した年齢別のアバターそれぞれに対応した応答モデルが選択され、適切な出力(応答)がなされる。
FIG. 10 is an example of a response model for realizing the response by the avatar in FIG. 9, and is a conceptual diagram of a model for selecting response models by age. As shown in the figure, the
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
2002 取得手段
2003 設定手段
2004 抽出手段
2005 生成手段
2002 Acquisition means 2003 Setting means 2004 Extraction means 2005 Generation means
Claims (11)
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置。 acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response;
a setting means for setting a predetermined age;
Extracting means for extracting response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
An information processing apparatus comprising: a generation means for generating a learning model of the specific person's response from the extracted response information.
取得手段が、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得工程と、
設定手段が、所定の年齢を設定する設定工程と、
抽出手段が、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出工程と、
生成手段が、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成工程と、を有することを特徴とする情報処理方法。 An information processing method executed by an information processing device, the method comprising:
an acquisition step in which the acquisition means acquires information on the specific person's response together with age information of the specific person at the time of the response;
a setting step in which the setting means sets a predetermined age;
an extraction step in which the extraction means extracts response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
An information processing method , characterized in that the generating means has a generating step of generating a learning model of the specific person's response from the extracted response information.
特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置として機能させるプログラム。 computer,
acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response;
a setting means for setting a predetermined age;
Extracting means for extracting response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
A program that functions as an information processing apparatus, comprising: a generation unit that generates a learning model of the specific person's response from the extracted response information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165579A JP7418106B2 (en) | 2019-09-11 | 2019-09-11 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165579A JP7418106B2 (en) | 2019-09-11 | 2019-09-11 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043723A JP2021043723A (en) | 2021-03-18 |
JP7418106B2 true JP7418106B2 (en) | 2024-01-19 |
Family
ID=74862354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165579A Active JP7418106B2 (en) | 2019-09-11 | 2019-09-11 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7418106B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115293132B (en) * | 2022-09-30 | 2022-12-30 | 腾讯科技(深圳)有限公司 | Dialog of virtual scenes a treatment method device, electronic apparatus, and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018181300A (en) | 2017-11-07 | 2018-11-15 | 株式会社 ディー・エヌ・エー | Input and output system, input and output program, information processing device and chat system |
JP2019040516A (en) | 2017-08-28 | 2019-03-14 | 歌織 市原 | Robot for the deceased possession |
JP2019091387A (en) | 2017-11-14 | 2019-06-13 | 富士ゼロックス株式会社 | Information processing apparatus and program |
-
2019
- 2019-09-11 JP JP2019165579A patent/JP7418106B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019040516A (en) | 2017-08-28 | 2019-03-14 | 歌織 市原 | Robot for the deceased possession |
JP2018181300A (en) | 2017-11-07 | 2018-11-15 | 株式会社 ディー・エヌ・エー | Input and output system, input and output program, information processing device and chat system |
JP2019091387A (en) | 2017-11-14 | 2019-06-13 | 富士ゼロックス株式会社 | Information processing apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021043723A (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633719B (en) | Anthropomorphic image artificial intelligence teaching system and method based on multi-language human-computer interaction | |
Bartneck | How convincing is Mr. Data's smile: Affective expressions of machines | |
CN107203953A (en) | It is a kind of based on internet, Expression Recognition and the tutoring system of speech recognition and its implementation | |
CN108833941A (en) | Man-machine dialogue system method, apparatus, user terminal, processing server and system | |
KR102035088B1 (en) | Storytelling-based multimedia unmanned remote 1: 1 customized education system | |
CN104021326B (en) | A kind of Teaching Methods and foreign language teaching aid | |
Wilks et al. | A prototype for a conversational companion for reminiscing about images | |
US10964323B2 (en) | Acquisition method, generation method, system therefor and program for enabling a dialog between a computer and a human using natural language | |
CN115731751A (en) | Online teaching system integrating artificial intelligence and virtual reality technology | |
WO2020070923A1 (en) | Dialogue device, method therefor, and program | |
JP7418106B2 (en) | Information processing device, information processing method and program | |
CN114048299A (en) | Dialogue method, apparatus, device, computer-readable storage medium, and program product | |
CN113850898A (en) | Scene rendering method and device, storage medium and electronic equipment | |
KR20230065339A (en) | Model data processing method, device, electronic device and computer readable medium | |
Bhatia | Using transfer learning, spectrogram audio classification, and MIT app inventor to facilitate machine learning understanding | |
Gamborino et al. | Towards effective robot-assisted photo reminiscence: Personalizing interactions through visual understanding and inferring | |
JP6656529B2 (en) | Foreign language conversation training system | |
JP7096626B2 (en) | Information extraction device | |
KR20210098623A (en) | Method and system for mimicking tone and style of real person | |
CN115499613A (en) | Video call method and device, electronic equipment and storage medium | |
JP2022075661A (en) | Information extraction apparatus | |
JP7152453B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
JP2021093099A (en) | Information processing device, information processing method, and program | |
KR20210108565A (en) | Virtual contents creation method | |
CN112309183A (en) | Interactive listening and speaking exercise system suitable for foreign language teaching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7418106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |