JP7418106B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7418106B2
JP7418106B2 JP2019165579A JP2019165579A JP7418106B2 JP 7418106 B2 JP7418106 B2 JP 7418106B2 JP 2019165579 A JP2019165579 A JP 2019165579A JP 2019165579 A JP2019165579 A JP 2019165579A JP 7418106 B2 JP7418106 B2 JP 7418106B2
Authority
JP
Japan
Prior art keywords
response
information
age
specific person
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019165579A
Other languages
Japanese (ja)
Other versions
JP2021043723A (en
Inventor
一則 奥冨
健史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019165579A priority Critical patent/JP7418106B2/en
Publication of JP2021043723A publication Critical patent/JP2021043723A/en
Application granted granted Critical
Publication of JP7418106B2 publication Critical patent/JP7418106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、特定人物を模した応答を実現する技術に関する。 The present invention relates to a technique for realizing a response imitating a specific person.

近年、パーソナルコンピュータやスマートフォンの処理性能の向上に伴い、ユーザの質問や問いかけに対して、パーソナルコンピュータやスマートフォン上に生成されたチャットボットやアバターが自動応答する技術が発達している。チャットボットに関する技術として、特許文献1には、複数のユーザの端末からの質問文に対して自動応答するチャットボットシステムにおいて、長文の応答メッセージを適切な長さに分割することが開示されている。チャットボットやアバターとのコミュニケーションにおいて、ユーザは、必要な情報が速やかに得られるというだけでなく、コミュニケーション自体を楽しむことも出来るようになってきている。そのため、より人間らしいコミュニケーションを人工知能(Artificial Intelligence(AI))で実現するために、様々なケースの会話などをコンピュータに学習させることも行われている。機械学習されたアバターは、あたかも、本物の特定人物が応答しているかのような自動応答をすることが可能である。 In recent years, as the processing performance of personal computers and smartphones has improved, technology has been developed in which chatbots and avatars generated on personal computers and smartphones automatically respond to users' questions and inquiries. As a technology related to chatbots, Patent Document 1 discloses dividing a long response message into appropriate lengths in a chatbot system that automatically responds to questions sent from multiple users' terminals. . When communicating with chatbots and avatars, users are not only able to quickly obtain the information they need, but are also able to enjoy the communication itself. Therefore, in order to realize more human-like communication using artificial intelligence (AI), computers are being trained to learn conversations in various cases. Machine-learned avatars can respond automatically as if a real, specific person was responding.

特開2009-3533号公報Japanese Patent Application Publication No. 2009-3533

しかしながら、従来技術におけるチャットボットシステムやアバターとのコミュニケーションでは、ユーザに対して十分な満足感を与えることが出来ない場合がある。例えば、俳優などの著名人を模したアバターとコミュニケーションを行う場合、現在の著名人を模したアバターではなく、過去の最も活躍していた時の著名人を再現したアバターとのコミュニケーションが望まれることがある。また、故人をアバターで再現してコミュニケーションを行う場合、亡くなる直前の故人ではなく、所望の年齢の故人とのコミュニケーションが望まれることもある。 However, communication with chatbot systems and avatars in the prior art may not be able to provide a sufficient sense of satisfaction to users. For example, when communicating with an avatar that imitates a celebrity such as an actor, it is desirable to communicate with an avatar that reproduces the celebrity when he or she was most active in the past, rather than an avatar that imitates the current celebrity. There is. Furthermore, when communicating by reproducing a deceased person as an avatar, it may be desirable to communicate with a deceased person of a desired age rather than with the deceased person who was about to die.

本発明は、上記課題を鑑みてなされたものであり、所定の年齢の特定人物を模した応答を実現するための学習モデルを生成することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to generate a learning model for realizing a response imitating a specific person of a predetermined age.

本発明は、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、所定の年齢を設定する設定手段と、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする。 The present invention provides an acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response, a setting device for setting a predetermined age, and a set of the predetermined age and the age information. an extraction means for extracting response information corresponding to the predetermined age from the response information; and a generation means for generating a learning model of the specific person's response from the extracted response information. It is characterized by

本発明によれば、所定の年齢の特定人物を模した応答を実現出来る。 According to the present invention, a response imitating a specific person of a predetermined age can be realized.

第1の実施形態における装置およびシステム構成図Device and system configuration diagram in the first embodiment 第1の実施形態における機能構成図Functional configuration diagram in the first embodiment Q&Aデータと年齢情報とを示す図Diagram showing Q&A data and age information 第1の実施形態における応答モデルの概念図Conceptual diagram of the response model in the first embodiment ニューラルネットワークの概念を示す図Diagram showing the concept of neural networks 第1の実施形態における応答モデル生成のフローチャートFlowchart of response model generation in the first embodiment 第1の実施形態における応答モデルを使ったコミュニケーションのフローチャートFlowchart of communication using response model in first embodiment 第2の実施形態における応答モデルの概念図Conceptual diagram of response model in second embodiment 年齢別の応答モデルを用いたアバターの表示例Example of avatar display using age-specific response model 応答モデルを年齢別に選択するモデルの概念図Conceptual diagram of a model that selects response models by age

(第1の実施形態)
以下、図面を用いて、第一の実施形態を説明する。図1は、本実施形態における装置およびシステム構成図である。情報処理装置1100は、例えば、一般的なコンピュータであり、特定人物を模した応答を実現するための応答モデル(学習モデル)を生成する。
(First embodiment)
The first embodiment will be described below with reference to the drawings. FIG. 1 is an apparatus and system configuration diagram in this embodiment. The information processing device 1100 is, for example, a general computer, and generates a response model (learning model) for realizing a response imitating a specific person.

情報処理装置1100は、CPU1101、DRAM1102、二次記憶装置1103、ネットワークIF1104、I/Oコントローラ1105から構成されている。CPU1101は、中央演算装置であり、コンピュータプログラムの指示命令に従い、各種処理を行う。DRAM1102は、揮発性のメモリであり、コンピュータプログラムや各種データを一時的に記憶する。二次記憶装置1103は、ハードディスクドライブ(HDD)もしくはソリッドステイトディスク(SSD)などの不揮発性記憶装置であり、コンピュータプログラムや各種データを記憶する。ネットワーク1400は、有線ケーブルもしくは無線ネットワークであり、ネットワーク1400を介して、外部装置との各種データの送受信が行われる。コンピュータプログラムや各種データは、二次記憶装置1103もしくはネットワーク1400から取得され、DRAM1102に一時的に記憶される。CPU1101は、DRAM1102に記憶されたコンピュータプログラムや各種データに基づき情報処理を行う。I/Oコントローラ1105は、外部接続された入力装置1106、モニタ1107、スピーカ1108との間の入出力を制御するコントローラである。入力装置1106は、例えば、キーボードやマウス、マイクのデバイスであり、ユーザの入力を受け付ける。ユーザは、入力装置1106を使い、情報処理装置1100上に再現された仮想的な特定人物に対して、テキスト入力や音声入力で、問いかけや質問を行うことが可能である。モニタ1107は、例えば、一般的な液晶ディスプレイであり、情報処理装置1100の処理結果を表示する。モニタ1107上に、情報処理装置1100上に再現された特定人物のコンピュータグラフィックスを表示しても良い。また、モニタ1107上に、特定人物の応答をテキスト表示しても良い。スピーカ1108は、情報処理装置1100上に再現された特定人物の応答を音声出力するようにしても良い。 The information processing device 1100 includes a CPU 1101, a DRAM 1102, a secondary storage device 1103, a network IF 1104, and an I/O controller 1105. The CPU 1101 is a central processing unit and performs various processes according to instructions from a computer program. DRAM 1102 is a volatile memory that temporarily stores computer programs and various data. The secondary storage device 1103 is a nonvolatile storage device such as a hard disk drive (HDD) or a solid state disk (SSD), and stores computer programs and various data. The network 1400 is a wired cable or a wireless network, and various data are sent and received to and from external devices via the network 1400. Computer programs and various data are acquired from the secondary storage device 1103 or the network 1400 and temporarily stored in the DRAM 1102. The CPU 1101 performs information processing based on computer programs and various data stored in the DRAM 1102. The I/O controller 1105 is a controller that controls input/output between an externally connected input device 1106, monitor 1107, and speaker 1108. The input device 1106 is, for example, a keyboard, mouse, or microphone device, and accepts user input. The user can use the input device 1106 to ask questions to the virtual specific person reproduced on the information processing device 1100 through text input or voice input. The monitor 1107 is, for example, a general liquid crystal display, and displays the processing results of the information processing apparatus 1100. Computer graphics of a specific person reproduced on the information processing device 1100 may be displayed on the monitor 1107. Further, the response of the specific person may be displayed in text on the monitor 1107. The speaker 1108 may output a voice of the specific person's response reproduced on the information processing device 1100.

ユーザは、モニタ1107上に表示された特定人物のコンピュータグラフィックスを視認しながら、入力装置1106で質問などの問いかけを行い、スピーカ1108から音声出力される応答を聞くことが出来る。尚、情報処理装置1100上に再現された特定人物とのコミュニケーションは、入力装置1106、モニタ1107、スピーカ1108を用いずに行っても良い。例えば、情報処理装置1100とネットワーク1400を介して接続されているクライアントPCやスマートフォン1300を使って、土曜のコミュニケーションを行うことが可能である。 The user can ask a question or the like using the input device 1106 while viewing the computer graphics of the specific person displayed on the monitor 1107, and can listen to the response outputted as a voice from the speaker 1108. Note that communication with the specific person reproduced on the information processing device 1100 may be performed without using the input device 1106, monitor 1107, or speaker 1108. For example, it is possible to communicate on Saturdays using a client PC or smartphone 1300 that is connected to the information processing device 1100 via the network 1400.

図2は、本実施形態における機能構成図である。図2に示した各機能は、情報処理装置1100が、DRAM1102に記憶されたコンピュータプログラムや各種データに基づく処理を行うことにより、実現される。記憶手段2001は、DRAM1102や二次記憶装置1103により実現され、Q&Aデータおよび年齢情報を保持する。Q&Aデータは、特定人物に対して行った質問に対する応答を集めたデータである。Q&Aデータは、テキスト形式のデータでも良いし、音声形式のデータでも良い。また、特定人物の自発的な発言として、無言に対する応答を含むデータでも良い。Q&Aデータは、携帯電話やスマートフォンの会話ログから収集しても良いし、パーソナルコンピュータ上に記録されているチャットログから収集しても良い。年齢情報は、Q&Aデータに含まれる各応答を特定人物が何歳の時にしたものかを示す情報である。年齢情報は、Q&Aデータに含まれる各応答に関連付けて記憶されている。図3は、本実施形態におけるQ&Aデータおよび年齢情報を示す図である。図に示す通り、Q&Aデータ3001には、多くの質問に対する回答が含まれている。また、各Q&Aが、何歳の時になされたものかを示す年齢情報3002が関連付けられている。記憶手段2001には、一人の特定人物のQ&Aデータ3001および年齢情報3002だけでなく、複数の特定人物のQ&Aデータ3001および年齢情報3002を記憶しておいても良い。また、年齢情報3002は、25歳~30歳のように年齢の範囲で設定しておいても良い。 FIG. 2 is a functional configuration diagram in this embodiment. Each function shown in FIG. 2 is realized by the information processing apparatus 1100 performing processing based on a computer program and various data stored in the DRAM 1102. Storage means 2001 is realized by DRAM 1102 and secondary storage device 1103, and holds Q&A data and age information. Q&A data is data that collects responses to questions asked to a specific person. The Q&A data may be in text format or audio format. Alternatively, the data may include a response to silence as a spontaneous utterance by a specific person. Q&A data may be collected from conversation logs on mobile phones or smartphones, or from chat logs recorded on personal computers. The age information is information indicating how old a specific person was when making each response included in the Q&A data. Age information is stored in association with each response included in the Q&A data. FIG. 3 is a diagram showing Q&A data and age information in this embodiment. As shown in the figure, Q&A data 3001 includes answers to many questions. Furthermore, age information 3002 indicating the age at which each Q&A was made is associated. The storage unit 2001 may store not only Q&A data 3001 and age information 3002 of one specific person, but also Q&A data 3001 and age information 3002 of a plurality of specific persons. Furthermore, the age information 3002 may be set in an age range such as 25 to 30 years old.

取得手段2002は、記憶手段2001に記憶されているQ&Aデータと年齢情報とを取得する手段である。そして、設定手段2003は、ユーザ指示などに基づき所定の年齢を設定する手段である。所定の年齢は、ユーザが所望の年齢を定めればよい。例えば、特定人物が25歳の時の仮想人物を再現してコミュニケーションを行いたい場合は、25歳を設定する。また、25~30歳のように年齢の範囲を設定しても良い。抽出手段2004は、設定手段2003で設定された所定の年齢に基づき、Q&Aデータから対応する応答情報を抽出する手段である。例えば、設定手段2003で25歳が設定されている場合、図3に示すQ&Aデータ3001には、25歳、50歳、51歳の応答情報が含まれているため、年齢情報3002を参照して、25歳のみの応答情報を抽出する。生成手段2005は、抽出手段2004で抽出された応答情報を用いて、特定人物の応答モデル(学習モデル)を生成する。応答モデルは、最も単純なものでは、抽出手段2004で抽出されたQ&Aデータそのものでも良い。その場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみ応答できるモデルになる。判定手段2006は、生成した応答モデルを使ったコミュニケーションを行うか否か、またコミュニケーションを停止するか否かを判定する判定手段である。判定手段2006は、所定の時間だけユーザからの質問がなかった場合やユーザからコミュニケーション停止の指示を受けた場合、学習によって生成した応答モデルを使ったコミュニケーションを停止させる。入力手段2007は、ユーザからの質問を受け付け、応答モデルに質問のデータを入力する手段である。尚、生成した応答モデルが複数存在する場合、入力手段2007からの入力に基づき、所望の応答モデルを選択する。出力手段2008は、ユーザからの質問に対する応答モデルの応答を出力する手段である。 The acquisition means 2002 is means for acquiring the Q&A data and age information stored in the storage means 2001. The setting means 2003 is means for setting a predetermined age based on a user's instruction or the like. The predetermined age may be determined by the user. For example, if you want to communicate by reproducing a virtual person when the specific person is 25 years old, set the age of 25. Furthermore, an age range may be set, such as 25 to 30 years old. The extraction means 2004 is means for extracting corresponding response information from the Q&A data based on the predetermined age set by the setting means 2003. For example, if 25 years old is set in the setting means 2003, the Q&A data 3001 shown in FIG. , extracts response information only for 25-year-olds. The generation unit 2005 generates a response model (learning model) of the specific person using the response information extracted by the extraction unit 2004. The simplest response model may be the Q&A data itself extracted by the extraction means 2004. In that case, the model becomes such that only the questions included in the Q&A data stored in the storage means 2001 can be answered. The determining means 2006 is a determining means that determines whether or not to perform communication using the generated response model, and whether or not to stop communication. The determining means 2006 stops communication using the response model generated by learning when there is no question from the user for a predetermined period of time or when an instruction to stop communication is received from the user. Input means 2007 is means for accepting questions from the user and inputting question data into the response model. Note that if there are multiple generated response models, a desired response model is selected based on the input from the input means 2007. The output means 2008 is a means for outputting a response of the response model to a question from a user.

図4は、本実施形態における応答モデルの一例の概念図である。前述した通り、抽出手段2004で抽出されたQ&Aデータそのものを応答モデルにした場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみしか応答することが出来ない。よって、記憶手段2001に記憶されていたQ&Aデータに含まれる質問以外の質問にも応答するため、意味解析モデル4102を導入する。意味解析モデル4102は、あらかじめ、ニューラルネットワークやサポートベクターマシンなどの機械学習を用いて作成しておく。意味解析モデル4102は、テキスト形式もしくは音声形式の質問データを入力とし、質問を同定可能な質問の特徴量4103を出力する。類似の質問に同一ラベルを付与した多くの質問データを教師データとして機械学習を行うことにより、類似の質問に対して同一の特徴量を出力する意味解析モデル4102を作成することが出来る。Q&Aデータが比較的少ない場合は、特徴量4103はスカラー値でも良いが、Q&Aデータが多い場合は、特徴量4103はベクトル値にすると良い。ここで、機械学習の一つであるニューラルネットワークの概念について説明する。 FIG. 4 is a conceptual diagram of an example of a response model in this embodiment. As described above, if the Q&A data itself extracted by the extraction means 2004 is used as a response model, only the questions included in the Q&A data stored in the storage means 2001 can be answered. Therefore, in order to respond to questions other than those included in the Q&A data stored in the storage means 2001, a semantic analysis model 4102 is introduced. The semantic analysis model 4102 is created in advance using machine learning such as a neural network or a support vector machine. The semantic analysis model 4102 inputs question data in text format or audio format, and outputs a feature amount 4103 of the question that can identify the question. By performing machine learning using a large amount of question data in which similar questions are given the same label as training data, it is possible to create a semantic analysis model 4102 that outputs the same feature amount for similar questions. If there is relatively little Q&A data, the feature amount 4103 may be a scalar value, but if there is a lot of Q&A data, the feature amount 4103 may be a vector value. Here, we will explain the concept of neural networks, which is a type of machine learning.

なお、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。図5は、ニューラルネットワークを説明する図である。図5では中間層を1層としているが、2層以上で中間層を構成することが望ましい。図5に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。 Note that since the principle of the neural network itself is well known, it will be briefly explained. FIG. 5 is a diagram illustrating a neural network. In FIG. 5, the intermediate layer is one layer, but it is desirable to configure the intermediate layer with two or more layers. In the neural network shown in Figure 5, the input layer has Mi nodes (n11, n12,..., n1Mi), the middle layer has Mh nodes (n21, n22,..., n2Mh), and the output layer (Final layer) has Mo nodes (n31, n32, . . . , n3Mo). The nodes of each layer are connected to all the nodes of adjacent layers, forming a three-layer hierarchical neural network that transmits information between layers.

入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。つまり本実施形態においては、16画素×16画素のブロック画像が入力され、16画素×16画素の画素値を出力するので、入力層および出量層におけるノードは256個である。データは、図5の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。 When inputting an image to the input layer, nodes for the number of pixels are provided in the input layer so that there is a one-to-one relationship between pixels and nodes. Further, nodes for the number of pixels to be output are set in the output layer as well. That is, in this embodiment, a block image of 16 pixels x 16 pixels is input, and pixel values of 16 pixels x 16 pixels are output, so there are 256 nodes in the input layer and the output layer. Data is passed from left to right in FIG. 5, that is, in the order of input layer, intermediate layer, and output layer. Each node in the input layer is connected to all nodes in the hidden layer, and each connection between nodes has a weight. The output value transmitted from one node to another node through a connection is enhanced or attenuated by the weight of the connection. A set of weighting coefficients and bias values determined for such connections are parameters of the learning model. Note that the activation function is not particularly limited, but a logistic sigmoid function, a rectified linear unit (ReLU) function, or the like may be used. As a learning method, various neural network learning methods that have been proposed may be applied. For example, when student data is input to the input layer and a neural network is operated, the difference between the output obtained from the output layer and the teacher data that is previously associated with the student data is calculated, and the difference is calculated. The weighting coefficient and bias value are adjusted to minimize them.

図4に示す通り、上記の通りに作成された意味解析モデル4102と、抽出手段2004で抽出された応答情報から作成されたQ&Aモデル4101とを直列接続することにより、応答モデル4100を作成することが出来る。Q&Aモデル4101は、Q&Aデータの集合であるが、意味解析モデル4102と接続するため、入力の質問を意味解析モデル4102の特徴量に変更しておく。応答モデル4100の処理としては、まず、質問が入力されると、意味解析モデル4102は、質問を同定可能な特徴量4103を出力する。Q&Aモデル4101は、意味解析モデル4102が出力した特徴量4103を入力として、特徴量4103に対応する応答を出力する。以上の処理により、あらかじめ記憶されていた質問以外の質問にも応答可能な応答モデル4100を実現することが出来る。尚、上記実施形態では、Q&Aモデル4101とは別に、意味解析モデル4102を機械学習により生成したが、機械学習の段階で、Q&Aモデル4101を含めて応答モデル4100を作成しても良い。 As shown in FIG. 4, a response model 4100 is created by serially connecting the semantic analysis model 4102 created as described above and the Q&A model 4101 created from the response information extracted by the extraction means 2004. I can do it. The Q&A model 4101 is a collection of Q&A data, but in order to connect it to the semantic analysis model 4102, the input question is changed to the feature amount of the semantic analysis model 4102. As for the processing of the response model 4100, first, when a question is input, the semantic analysis model 4102 outputs a feature amount 4103 that can identify the question. The Q&A model 4101 inputs the feature amount 4103 output by the semantic analysis model 4102 and outputs a response corresponding to the feature amount 4103. Through the above processing, it is possible to realize a response model 4100 that can respond to questions other than those stored in advance. In the above embodiment, the semantic analysis model 4102 is generated separately from the Q&A model 4101 by machine learning, but the response model 4100 may be created including the Q&A model 4101 at the machine learning stage.

図6は、本実施形態における応答モデルの生成を示すフローチャートである。以下、各ステップについて説明する。尚、以下の各ステップは、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つが行うものである。 FIG. 6 is a flowchart showing generation of a response model in this embodiment. Each step will be explained below. Note that each of the following steps is performed by at least one of the information processing device 1100, the client PC 1200, and the smartphone 1300.

S601は、取得手段2002が、記憶手段2001から、特定人物のQ&Aデータおよび、対応する年齢情報を取得するステップである。尚、特定人物は、あらかじめ設定しておいても良いし、ユーザの指示に基づき設定しても良い。 S601 is a step in which the acquisition unit 2002 acquires the specific person's Q&A data and corresponding age information from the storage unit 2001. Note that the specific person may be set in advance or may be set based on the user's instructions.

S602は、設定手段2003が、ユーザ所望の年齢を設定するステップである。ここで設定する年齢は、特定の年齢ではなく、25~30歳のように年齢の範囲であっても良い。また、西暦や元号で指定し、特定人物の生年月日に基づき、年齢を算出ししても良い。 S602 is a step in which the setting unit 2003 sets the user's desired age. The age set here is not a specific age, but may be an age range such as 25 to 30 years old. Alternatively, the age may be calculated based on the specific person's date of birth by specifying the Western calendar or era name.

S603は、抽出手段2004が、S602で設定された所定の年齢に基づき、特定人物のQ&Aデータから対応する応答情報を抽出する処理である。例えば、S602で25歳が設定された場合、S601で取得した年齢情報を参照して、特定人物のQ&Aデータから25歳の応答情報のみを抽出する。 S603 is a process in which the extraction unit 2004 extracts corresponding response information from the Q&A data of the specific person based on the predetermined age set in S602. For example, if 25 years old is set in S602, only the response information of 25 years old is extracted from the Q&A data of the specific person by referring to the age information acquired in S601.

S604は、S603で抽出された応答情報を用いて、応答モデルを生成するステップである。応答モデルの生成の詳細については、前述したため、ここでは省略する。 S604 is a step of generating a response model using the response information extracted in S603. Details of response model generation have been described above, so they will be omitted here.

以上の処理により、ユーザが所望した年齢の特定人物の応答を再現することが可能な応答モデルを生成することが出来る。 Through the above processing, it is possible to generate a response model that can reproduce the response of a specific person of the age desired by the user.

次に、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つを使い、生成された応答モデルを用いたコミュニケーションを行う方法について説明する。 Next, a method of communicating using the generated response model using at least one of the information processing device 1100, the client PC 1200, and the smartphone 1300 will be described.

図7は、第1の実施形態における応答モデルを使ったコミュニケーションのフローチャートである。以下、各ステップについて説明する。 FIG. 7 is a flowchart of communication using the response model in the first embodiment. Each step will be explained below.

S701は、入力手段2007が、ユーザからの入力指示に基づき、コミュニケーションを望む年齢の特定人物の応答モデルを選択するステップである。尚、ここでは、複数の特定人物もしくは複数年齢の応答モデルがすでに生成されている前提で選択を行っている。しかしながら、所望の応答モデルが一つだけ生成されている場合には、本ステップにおける選択を省略することも可能である。 S701 is a step in which the input means 2007 selects a response model of a specific person of the age with whom communication is desired based on an input instruction from the user. Note that selection is performed here on the premise that response models for multiple specific persons or multiple ages have already been generated. However, if only one desired response model has been generated, the selection in this step may be omitted.

S702は、判定手段2006が、S701で選択された応答モデルとのコミュニケーションを停止するか否かを判定するステップである。判定は、ユーザの入力指示や、あらかじめ設定した所定時間を経過したことなどに基づき行う。コミュニケーションを停止すると判定された場合は、本フローにおける処理を終了させる。コミュニケーションを停止しないと判定された場合、すなわち、コミュニケーションを継続すると判定された場合は、S703に処理を進める。 S702 is a step in which the determining means 2006 determines whether to stop communication with the response model selected in S701. The determination is made based on a user's input instruction, a predetermined period of time, etc. If it is determined that communication is to be stopped, the processing in this flow is ended. If it is determined that the communication is not to be stopped, that is, if it is determined that the communication is to be continued, the process advances to S703.

S703は、判定手段2006が、ユーザからの質問があるか否かを判定するステップである。ユーザからの質問は、入力装置1106、クライアントPC1200、スマートフォン1300を用いて、テキスト形式や音声形式のデータで入力される。また、特定人物からの自発的な発言を望む場合は、自発モードをあらかじめ設定しておくことにより、ユーザからの質問がなかったとしても、質問が入力されたものとして処理を進める。質問が入力されたら、質問ありと判定され、S704に処理を進める。質問なしと判定された場合、コミュニケーションを停止するか否かを判定するため、S702に処理を戻す。 S703 is a step in which the determining means 2006 determines whether there is a question from the user. Questions from the user are input using the input device 1106, the client PC 1200, and the smartphone 1300 in the form of text or audio data. Furthermore, if a spontaneous statement is desired from a specific person, by setting the spontaneous mode in advance, the process proceeds as if a question had been input even if there was no question from the user. When a question is input, it is determined that there is a question, and the process advances to S704. If it is determined that there are no questions, the process returns to S702 to determine whether to stop communication.

S704は、出力手段2008が、S703で入力された質問に対する応答を出力するステップである。応答は、S703で入力された質問を応答モデルに入力し、応答モデルから応答を出力する。応答は、スピーカ1108、モニタ1107、ネットワーク1400を介したクライアントPC1200、スマートフォン1300で出力される。出力後、次のユーザからの質問を受けるため、S703に処理を戻す。 S704 is a step in which the output means 2008 outputs a response to the question input in S703. For the response, the question input in S703 is input into the response model, and the response is output from the response model. The response is output from the speaker 1108, the monitor 1107, the client PC 1200 via the network 1400, and the smartphone 1300. After the output, the process returns to S703 in order to receive a question from the next user.

以上、本実施形態によれば、ユーザ所望の年齢の特定人物の応答モデルを作成し、生成された応答モデルを使ったコミュニケーションが可能となる。 As described above, according to the present embodiment, it is possible to create a response model of a specific person of the user's desired age and to communicate using the generated response model.

(第二の実施形態)
第一の実施形態では、意味解析モデル4102とQ&Aモデル4101と直列接続させて、応答モデル4100を生成した。しかしながら、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行うためには、異なる方法で応答モデルを作成したほうが良いこともある。
(Second embodiment)
In the first embodiment, a response model 4100 is generated by connecting a semantic analysis model 4102 and a Q&A model 4101 in series. However, in order to appropriately respond to a variety of user questions in a way that is appropriate for a specific person, it may be better to create a response model using a different method.

一般的に、特定人物らしいか否かは、応答の内容と、語尾の癖や方言の有無などの口調とで判別されていると考えられる。そこで、本実施形態では、口調モデルを導入した応答モデルを生成する。尚、応答モデルの生成方法以外に関しては、第一の実施形態と同様であるため、以下では、本実施形態における応答モデルの生成方法のみについて説明する。 In general, it is thought that whether or not a response seems to be a specific person is determined based on the content of the response and the tone, such as the habit of ending words and the presence or absence of dialect. Therefore, in this embodiment, a response model incorporating a tone model is generated. Note that the second embodiment is the same as the first embodiment except for the response model generation method, so only the response model generation method in this embodiment will be described below.

図8は、本実施形態における応答モデル8100の概念図である。図8において、意味解析モデル8102は第一の実施形態における意味解析モデル4102と同様で、特徴量8103は第一の実施形態における特徴量4103と同様である。本実施形態における応答モデル8100は、意味解析モデル8102、再学習済の標準応答モデル8101、口調モデル8104を直列に接続することにより実現される。 FIG. 8 is a conceptual diagram of a response model 8100 in this embodiment. In FIG. 8, a semantic analysis model 8102 is the same as the semantic analysis model 4102 in the first embodiment, and a feature amount 8103 is the same as the feature amount 4103 in the first embodiment. The response model 8100 in this embodiment is realized by connecting a semantic analysis model 8102, a retrained standard response model 8101, and a tone model 8104 in series.

再学習済の標準応答モデル8101は、標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いた再学習を行い、生成されたものである。標準応答モデルは、一般的な標準応答を行うことが可能なモデルであり、標準的な会話ログなどを教師データとすることにより生成可能である。標準的な会話ログからは、特定人物ならではの応答を学習することは出来ないが、膨大なQ&Aデータを収集することが可能である。よって、多様な質問に対して応答可能な応答モデルを生成することが出来る。本実施形態では、多様な質問に対して応答可能な標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いて再学習を行う。すなわち、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて再学習を行い、Q&Aデータ3001に含まれる質問に対してはQ&Aデータ3001に含まれる応答を行う。そして、Q&Aデータ3001に含まれない質問に対しては標準応答を行うように学習するものである。 The retrained standard response model 8101 is generated by relearning the standard response model using the Q&A data 3001 and age information 3002. The standard response model is a model that can perform general standard responses, and can be generated by using a standard conversation log or the like as training data. Although it is not possible to learn responses unique to a specific person from standard conversation logs, it is possible to collect a huge amount of Q&A data. Therefore, response models capable of responding to various questions can be generated. In this embodiment, a standard response model capable of responding to various questions is retrained using Q&A data 3001 and age information 3002. That is, relearning is performed using the Q&A data 3001 corresponding to the age set by the user, and responses included in the Q&A data 3001 are given to questions included in the Q&A data 3001. The computer learns to give standard responses to questions that are not included in the Q&A data 3001.

口調モデル8104は、入力されたテキストもしくは音声をそのまま出力するモデルに対して、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて口調を学習させたモデルである。すなわち、入力されたテキストもしくは音声に対して、内容としては同じあるが、語尾の癖や方言などの特定人物の口調らしさが加わった出力を行うように学習させたものである。 The tone model 8104 is a model that outputs the input text or voice as is, but is made to learn the tone using Q&A data 3001 corresponding to the age set by the user. In other words, the system is trained to output input text or audio that has the same content, but adds the tone of a specific person, such as the habit of the ending or the dialect.

本実施形態における応答モデル8100では、第一の実施形態と同様に、質問が入力されると、意味解析モデル8102は、質問を同定可能な特徴量8103を出力する。再学習済の標準応答モデル8101は、意味解析モデル8102が出力した特徴量8103を入力として、特徴量8103に対応する応答を出力する。ここでの応答は、Q&Aデータ3001に含まれていた質問に対しては、特定人物らしい応答になるが、Q&Aデータ3001に含まれていなかった質問に対しては、標準応答となる。再学習済の標準応答モデル8101の出力は、口調モデル8104に入力され、特定人物らしい口調の応答で出力される。以上の処理により、仮に、再学習済の標準応答モデル8101からの出力が標準応答だったとしても、口調モデル8104により特定人物らしい口調の応答で出力されるため、ユーザは特定人物らしさを感じることが出来る。再学習済の標準応答モデル8101からの出力がQ&Aデータ3001に含まれていた質問だった場合は、応答の内容と口調ともに特定人物らしくすることが可能になる。 In the response model 8100 in this embodiment, when a question is input, as in the first embodiment, the semantic analysis model 8102 outputs a feature amount 8103 that can identify the question. The retrained standard response model 8101 receives the feature amount 8103 output by the semantic analysis model 8102 as input, and outputs a response corresponding to the feature amount 8103. The response here will be a response typical of a specific person to a question included in the Q&A data 3001, but will be a standard response to a question not included in the Q&A data 3001. The output of the retrained standard response model 8101 is input to the tone model 8104, and is output as a response with a tone similar to that of a specific person. Through the above processing, even if the output from the retrained standard response model 8101 is a standard response, the tone model 8104 outputs a response with a tone that is typical of a specific person, so the user does not feel that the response is similar to a specific person. I can do it. If the output from the retrained standard response model 8101 is a question included in the Q&A data 3001, it becomes possible to make the content and tone of the response similar to that of a specific person.

尚、本実施形態におけるモデルの学習は、前述したニューラルネットワークやサポートベクターマシンなどの各機械学習の手法を用いて実現することが可能である。以上、本実施形態によれば、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行う応答モデルを生成することが可能となる。 Note that model learning in this embodiment can be realized using various machine learning techniques such as the neural network and support vector machine described above. As described above, according to the present embodiment, it is possible to generate a response model that appropriately responds to a variety of questions asked by a user in a way that is typical of a specific person.

図9は、年齢別の応答モデルを用いたアバターの表示例を示したものである。図9に示した年齢別のアバターの画像を、モニタ1107、クライアントPC1200、スマートフォン1300のいずれかに表示させることにより、ユーザは、互いに異なる年齢とアバターを対面しているかのように感じることが出来る。そして、あらかじめ作成された年齢別の応答モデルを各年齢のアバターに設定しておけば、ユーザの質問や問いかけに対して、年齢ごとに特有の応答をすることが出来るため、ユーザが互いに異なる年齢のアバターと会話をしているような感覚を得ることが出来る。 FIG. 9 shows an example of how avatars are displayed using age-specific response models. By displaying the images of avatars according to age shown in FIG. 9 on the monitor 1107, client PC 1200, or smartphone 1300, the user can feel as if they are facing avatars of different ages. . By setting pre-created age-specific response models to avatars of each age, it is possible to respond to user questions and inquiries in a way that is unique to each age group. You can feel as if you are having a conversation with an avatar.

図10は、図9のアバターによる応答を実現するための応答モデルの一例であり、応答モデルを年齢別に選択するモデルの概念図である。図に示す通り、応答モデル10100には、25歳で再学習済の標準応答モデル10101、50歳で再学習済の標準応答モデル10201、70歳で再学習済の標準応答モデル10301、が含まれている。更に、25歳で再学習済の標準応答モデル10101には25歳の口調モデル10104が接続されている。50歳で再学習済の標準応答モデル10201には50歳の口調モデル10204が接続され、70歳で再学習済の標準応答モデル10301には70歳の口調モデル10304が接続されている。モデルの機能は図8に示した応答8100と類似している。大きく異なる点として、入力(質問)に対して意味解析モデルおよび年齢選択10102では、入力(質問)の意味解析に加えて、年齢選択を行い、選択された年齢に対応するモデルに対して、特徴量10103を出力するようになっている。年齢選択は、あらかじめ設定されたものでも良いし、ユーザの設定指示に応じて選択しても良い。また、特定の年齢だけでなく、年齢の幅で選択しても良い。このような構成にすることにより、図9に示した年齢別のアバターそれぞれに対応した応答モデルが選択され、適切な出力(応答)がなされる。 FIG. 10 is an example of a response model for realizing the response by the avatar in FIG. 9, and is a conceptual diagram of a model for selecting response models by age. As shown in the figure, the response model 10100 includes a standard response model 10101 that has been retrained at the age of 25, a standard response model 10201 that has been retrained at the age of 50, and a standard response model 10301 that has been retrained at the age of 70. ing. Furthermore, a tone model 10104 for a 25-year-old is connected to a standard response model 10101 that has been retrained at a 25-year-old. A 50-year-old tone model 10204 is connected to the standard response model 10201 that has been retrained at the age of 50, and a 70-year-old tone model 10304 is connected to the standard response model 10301 that has been retrained at the age of 70. The functionality of the model is similar to the response 8100 shown in FIG. The major difference is that in the semantic analysis model and age selection 10102 for input (question), in addition to semantic analysis of the input (question), age selection is performed, and features are applied to the model corresponding to the selected age. The amount 10103 is output. The age selection may be set in advance or may be selected according to a setting instruction from the user. Moreover, you may select not only a specific age but also a range of ages. With this configuration, a response model corresponding to each age-specific avatar shown in FIG. 9 is selected, and an appropriate output (response) is made.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

2002 取得手段
2003 設定手段
2004 抽出手段
2005 生成手段
2002 Acquisition means 2003 Setting means 2004 Extraction means 2005 Generation means

Claims (11)

特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置。
acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response;
a setting means for setting a predetermined age;
Extracting means for extracting response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
An information processing apparatus comprising: a generation means for generating a learning model of the specific person's response from the extracted response information.
前記設定手段は、所定の年齢を年齢の範囲で設定することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the setting means sets the predetermined age in an age range. 前記応答の情報に含まれる応答それぞれは、前記特定人物の年齢情報と関連付けられていることを特徴とする請求項1または請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein each response included in the response information is associated with age information of the specific person. 前記応答の学習モデルは、ユーザからの入力に対して、前記所定の年齢に対応する応答を出力するモデルであることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the response learning model is a model that outputs a response corresponding to the predetermined age in response to an input from a user. . 前記生成手段は、ユーザからの入力の意味を解析する解析モデルを含む応答の学習モデルを生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 5. The information processing apparatus according to claim 1, wherein the generating means generates a response learning model including an analysis model for analyzing the meaning of input from a user. 前記生成手段は、前記所定の年齢の前記特定人物の口調を再現する口調モデルを含む応答の学習モデルを生成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the generating means generates a response learning model including a tone model that reproduces the tone of the specific person of the predetermined age. . 前記生成手段は、前記抽出された応答の情報と、標準的な応答を行う標準応答モデルとに基づき、前記応答の学習モデルを生成することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 7. The generating means generates a learning model of the response based on the extracted response information and a standard response model that performs a standard response. The information processing device described in . 前記生成手段は、ニューラルネットワークを用いて、前記応答の学習モデルを生成することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 8. The information processing apparatus according to claim 1, wherein the generating means generates a learning model of the response using a neural network. 前記特定人物の応答の学習モデルと関連付けられたアバターを表示させる表示手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 9. The information processing apparatus according to claim 1, further comprising a display means for displaying an avatar associated with a learned model of the response of the specific person. 情報処理装置が実行する情報処理方法であって、
取得手段が、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得工程と、
設定手段が、所定の年齢を設定する設定工程と、
抽出手段が、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出工程と、
生成手段が、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成工程と、を有することを特徴とする情報処理方法
An information processing method executed by an information processing device, the method comprising:
an acquisition step in which the acquisition means acquires information on the specific person's response together with age information of the specific person at the time of the response;
a setting step in which the setting means sets a predetermined age;
an extraction step in which the extraction means extracts response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
An information processing method , characterized in that the generating means has a generating step of generating a learning model of the specific person's response from the extracted response information.
コンピュータを、
特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置として機能させるプログラム。
computer,
acquisition means for acquiring information on a specific person's response together with age information of the specific person at the time of the response;
a setting means for setting a predetermined age;
Extracting means for extracting response information corresponding to the predetermined age from the response information based on the predetermined age and the age information;
A program that functions as an information processing apparatus, comprising: a generation unit that generates a learning model of the specific person's response from the extracted response information.
JP2019165579A 2019-09-11 2019-09-11 Information processing device, information processing method and program Active JP7418106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165579A JP7418106B2 (en) 2019-09-11 2019-09-11 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165579A JP7418106B2 (en) 2019-09-11 2019-09-11 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2021043723A JP2021043723A (en) 2021-03-18
JP7418106B2 true JP7418106B2 (en) 2024-01-19

Family

ID=74862354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165579A Active JP7418106B2 (en) 2019-09-11 2019-09-11 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7418106B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115293132B (en) * 2022-09-30 2022-12-30 腾讯科技(深圳)有限公司 Dialog of virtual scenes a treatment method device, electronic apparatus, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181300A (en) 2017-11-07 2018-11-15 株式会社 ディー・エヌ・エー Input and output system, input and output program, information processing device and chat system
JP2019040516A (en) 2017-08-28 2019-03-14 歌織 市原 Robot for the deceased possession
JP2019091387A (en) 2017-11-14 2019-06-13 富士ゼロックス株式会社 Information processing apparatus and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040516A (en) 2017-08-28 2019-03-14 歌織 市原 Robot for the deceased possession
JP2018181300A (en) 2017-11-07 2018-11-15 株式会社 ディー・エヌ・エー Input and output system, input and output program, information processing device and chat system
JP2019091387A (en) 2017-11-14 2019-06-13 富士ゼロックス株式会社 Information processing apparatus and program

Also Published As

Publication number Publication date
JP2021043723A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
CN107633719B (en) Anthropomorphic image artificial intelligence teaching system and method based on multi-language human-computer interaction
Bartneck How convincing is Mr. Data's smile: Affective expressions of machines
CN107203953A (en) It is a kind of based on internet, Expression Recognition and the tutoring system of speech recognition and its implementation
CN108833941A (en) Man-machine dialogue system method, apparatus, user terminal, processing server and system
KR102035088B1 (en) Storytelling-based multimedia unmanned remote 1: 1 customized education system
CN104021326B (en) A kind of Teaching Methods and foreign language teaching aid
Wilks et al. A prototype for a conversational companion for reminiscing about images
US10964323B2 (en) Acquisition method, generation method, system therefor and program for enabling a dialog between a computer and a human using natural language
CN115731751A (en) Online teaching system integrating artificial intelligence and virtual reality technology
WO2020070923A1 (en) Dialogue device, method therefor, and program
JP7418106B2 (en) Information processing device, information processing method and program
CN114048299A (en) Dialogue method, apparatus, device, computer-readable storage medium, and program product
CN113850898A (en) Scene rendering method and device, storage medium and electronic equipment
KR20230065339A (en) Model data processing method, device, electronic device and computer readable medium
Bhatia Using transfer learning, spectrogram audio classification, and MIT app inventor to facilitate machine learning understanding
Gamborino et al. Towards effective robot-assisted photo reminiscence: Personalizing interactions through visual understanding and inferring
JP6656529B2 (en) Foreign language conversation training system
JP7096626B2 (en) Information extraction device
KR20210098623A (en) Method and system for mimicking tone and style of real person
CN115499613A (en) Video call method and device, electronic equipment and storage medium
JP2022075661A (en) Information extraction apparatus
JP7152453B2 (en) Information processing device, information processing method, information processing program, and information processing system
JP2021093099A (en) Information processing device, information processing method, and program
KR20210108565A (en) Virtual contents creation method
CN112309183A (en) Interactive listening and speaking exercise system suitable for foreign language teaching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R151 Written notification of patent or utility model registration

Ref document number: 7418106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151