WO2021145228A1 - Information processing device, and information processing method - Google Patents

Information processing device, and information processing method Download PDF

Info

Publication number
WO2021145228A1
WO2021145228A1 PCT/JP2021/000017 JP2021000017W WO2021145228A1 WO 2021145228 A1 WO2021145228 A1 WO 2021145228A1 JP 2021000017 W JP2021000017 W JP 2021000017W WO 2021145228 A1 WO2021145228 A1 WO 2021145228A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information processing
candidate
input
user
Prior art date
Application number
PCT/JP2021/000017
Other languages
French (fr)
Japanese (ja)
Inventor
悠希 武田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021145228A1 publication Critical patent/WO2021145228A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri

Definitions

  • the present technology relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method capable of efficiently collecting data desired by a user.
  • Patent Document 1 discloses an inter-vocabulary relationship estimation device that defines a relationship between a plurality of vocabularies to be processed by machine learning using existing inter-vocabulary relationship data. This technique can also be applied to tasks such as collecting closely related and similar data.
  • This technology was made in view of such a situation, and enables the user to efficiently collect the desired data.
  • the information processing apparatus of the present technology includes a control unit that outputs candidate data that is a candidate for giving the same label as the input data input by the user based on the learning model, and the control unit is included in the candidate data.
  • This is an information processing device that outputs further the candidate data based on the learning model learned by the user using the selection data selected as the target for assigning the label.
  • the information processing apparatus outputs candidate data that can be given the same label as the input data input by the user based on the learning model, and the user selects the candidate data from the candidate data.
  • candidate data that is a candidate for assigning the same label as the input data input by the user is output, and the candidate data is selected by the user as the target for assigning the label. Further candidate data is output based on the learning model trained using the selected data.
  • the word data handled in this technology includes "words” such as "cat"-"Animal”, “apple”-"Fruit”, “festival”-”Event”, etc. It is described by a pair of “labels” that represent the concept to which the word belongs.
  • word data as shown in FIG. 1 is indispensable. However, collecting such word data is time consuming and costly.
  • Collecting word data here means giving a label of the concept to which each word belongs to a large number of words collected by some method.
  • an algorithm that infers the concept to which the word belongs and assigns the corresponding label is required.
  • the required word data structure may differ depending on the type of voice agent you want to create. For example, as shown in FIG. 2, when creating a voice agent 11 that supports cooking, the word “fish” should be labeled with “ingredients”. On the other hand, when creating a voice agent 12 for guidance in an aquarium, the word “fish” should be labeled as "creature”.
  • candidate data close to the input data input by the user is output, and further candidate data is output by learning using the selection data selected by the user from the candidate data. It enables the user to efficiently collect the desired data.
  • FIG. 3 is a block diagram showing a configuration example of an information processing device to which the present technology is applied.
  • the information processing device 100 of FIG. 3 is composed of a personal computer operated by a user, a tablet terminal, a computer terminal such as a smartphone, and the like.
  • the information processing device 100 is composed of an input unit 110, a presentation unit 120, a storage unit 130, and a control unit 140.
  • the input unit 110 is composed of buttons, a keyboard, a mouse, a microphone, etc., and accepts user operations.
  • the input information according to the user's operation is input to the control unit 140.
  • the presentation unit 120 is composed of an organic EL (Electro-Luminescence) display, a liquid crystal display, a speaker, and the like, and presents data and the like output by the control unit 140.
  • the input unit 110 may be composed of a touch panel formed integrally with the display as the presentation unit 120.
  • the storage unit 130 is composed of a non-volatile memory such as a flash memory, and stores a program and various data read by the control unit 140.
  • the control unit 140 is composed of a processor such as a CPU (Central Processing Unit) and a memory.
  • the control unit 140 includes a learning unit 141.
  • the learning unit 141 is realized by executing a predetermined program read from the storage unit 130 by the CPU constituting the control unit 140.
  • a predetermined number of word data P1s labeled with "Fruit" are input to the learning model 141a as training data from an existing word data list.
  • the input of the word data P1 is accepted by the input unit 110.
  • word data N1 with the label "Animal”, word data N2 with the label “Vegetable”, and the like are word data.
  • the same number as P1 is randomly extracted.
  • the word data N1 and the word data N2 are also input to the learning model 141a as learning data.
  • the learning unit 141 learns a learning model 141a that embeds words (converts words into vectors) using an algorithm such as word2vec, using word data P1 as a positive example and word data N1 and word data N2 as negative examples. Let me.
  • the learning unit 141 classifies the unlabeled word data WD extracted from the vocabulary database VDB using the binary classifier 141b based on the feature amount (vector of each word) which is the learning result of the learning model 141a.
  • the unlabeled word data WD classified on the positive example side is output to the presentation unit 120 as a candidate data CD, and is presented by the presentation unit 120.
  • the candidate data CD is word data having a vector close to the word data P1.
  • the learning unit 141 causes the learning model 141a to input the selection data SD selected by the user from the candidate data CDs presented by the presentation unit 120 as regular learning data.
  • the learning unit 141 repeats the above process until instructed by the user.
  • the learning unit 141 learns the input data (word data) supplied from the input unit 110 using the learning model, and outputs candidate data (unlabeled word data) close to the input data to the presentation unit 120. do. Further, the learning unit 141 learns again using the candidate data selected by the user from the candidate data presented to the presentation unit 120, and outputs new candidate data to the presentation unit 120.
  • step S11 the input unit 110 accepts the input of word data to which the label of the attribute that the user wants to collect is attached.
  • step S12 the control unit 140 (learning unit 141) provides the presentation unit 120 with candidate data that is a candidate for giving the same label as the input word data based on the learning model trained using the input data. Output.
  • step S13 the presentation unit 120 presents the candidate data output from the control unit 140.
  • step S14 the control unit 140 determines whether or not the instruction to end the collection of word data has been received by the user's operation on the input unit 110.
  • step S15 When the input unit 110 is not instructed to end the collection of word data, but is accepted to select a predetermined candidate data as a label assignment target from the candidate data presented by the presentation unit 120. , The process proceeds to step S15.
  • step S15 the control unit 140 (learning unit 141) adds the selected candidate data, which is the selected data, to the positive example, and the non-selected data, which is the non-selected candidate data, to the negative example.
  • step S16 the control unit 140 (learning unit 141) trains the learning model using the selected data as a positive example and the non-selected data as a negative example. After that, the process returns to step S12, and the subsequent processes are repeated.
  • 6 to 8 are diagrams showing an example of presentation of candidate data in the presentation unit 120.
  • the screens shown in FIGS. 6 to 8 are provided with a word data input area 151, a send button 152, and a candidate data display area 153-1, 153-2, 153, ...
  • word data normal learning data
  • word data normal learning data
  • FIG. 6 “cake”, “pudding”, and “cookie” labeled as “confectionery” are input as word data in the word data input area 151.
  • the selection buttons 162P and 162N are displayed.
  • the selection button 162P is a button for using the candidate data 161 as selection data (normal learning data).
  • the selection button 162N is a button for using the candidate data 161 as non-selection data (learning data of a negative example).
  • “chocolate”, “ramune”, and “curry” are used as candidate data 161 for assigning a “confectionery” label to each of the candidate data display areas 153-1, 153-2, and 153-3. Is displayed. The score of the binary classification is shown on the right side of each of the candidate data 161. The closer this score is to 1.0, the more the corresponding candidate data 161 is classified on the positive example side.
  • one of the selection buttons 162P and 162N is selected in each of the candidate data display areas 153-1, 153-2, 153-3 from the state of FIG.
  • the selection button 162P having "chocolate” of the candidate data 161 as the selection data is selected, and in the candidate data display area 1532, the "ramune” of the candidate data 161 is selected.
  • the selection button 162P with "" as the selection data is selected.
  • the selection button 162N having "curry" of the candidate data 161 as non-selection data is selected.
  • the word data input area 151 is newly labeled with “confectionery” in addition to the “cake”, “pudding”, and “cookie” input in the state of FIG.
  • the pudding "chocolate” and “ramune” are entered.
  • step S14 it is determined that the instruction to end the collection of the word data has been received, such as by determining that the user has collected a satisfactory amount of word data.
  • the process ends.
  • the labeled selection data, that is, the collected word data is stored in, for example, the storage unit 130.
  • candidate data close to the word data input by the user is presented, and further candidate data is presented by learning using the selection data selected from the candidate data.
  • the time required to output word data can be shortened. This makes it possible to improve the accuracy of word data proposals by interactive learning without stressing the user.
  • Second embodiment weighting for each learning model>
  • the context in which word data should be collected may differ. For example, when creating a voice agent that introduces news, you want to handle many hard-expressing words used in news, but when creating a voice agent that is a friendly conversation partner, you want to use buzzwords and broken expressions. I want to handle many words.
  • steps S21, S23 to S26 in the flowchart of FIG. 9 is basically the same as the processing of steps S11, S13 to S16 in the flowchart of FIG. 5, so the description thereof will be omitted.
  • step S22 the control unit 140 (learning unit 141) provides candidate data as a candidate to be given the same label as the input word data for each learning model based on a plurality of learning models prepared in advance. , Is output to the presentation unit 120. At this time, the same number of candidate data is output for each learning model.
  • step S27 the control unit 140 (learning unit 141) changes the weighting of the number of candidate data output for each learning model according to the selected candidate data (selected data). After that, the process returns to step S22, and the subsequent processes are repeated.
  • FIG. 10 is a diagram illustrating weighting of the number of candidate data for each learning model.
  • a word2vec model 210 learned from the contents of a newspaper article and a word2vec model 220 learned from the contents of an SNS post are prepared.
  • the same number (for example, 5) of candidate data 231 is output from each of the word2vec models 210 and 220.
  • the weighting of the number of candidate data output from each of the word2vec models 210 and 220 is changed. Specifically, for the word2vec model in which more selection data is output, the weighting is changed so that more candidate data is output.
  • seven candidate data 232 are output from the word2vec model 210, and three candidate data 232 are output from the word2vec model 220.
  • the weighting of the number of candidate data output for each learning model is changed according to the selection data selected by the user, so that the word data in the context desired by the user can be collected. Is possible.
  • word data of one language for example, Japanese
  • word data of one language for example, Japanese
  • FIG. 11 is a block diagram showing a configuration example of the information processing apparatus of the present embodiment.
  • the information processing device 100 of FIG. 11 is different from the information processing device 100 of FIG. 3 in that the control unit 140 includes a translation processing unit 311 in addition to the learning unit 141.
  • the translation processing unit 311 translates the input data (word data) input by the user and the candidate data (selected data) to which the same label as the input data is given into a predetermined language.
  • Language translation is performed, for example, by using a dictionary of the corresponding language stored in the storage unit 130.
  • steps S31 to S36 in the flowchart of FIG. 12 is basically the same as the processing of steps S11 to S16 in the flowchart of FIG. 5, so the description thereof will be omitted.
  • step S37 the translation processing unit 311 selects the regular word data (that is, the input data and the selection data). , Translate into the given language.
  • the word data 330 when word data 330 belonging to a fruit is collected as regular word data, the word data 330 includes Chinese word data 330C, English word data 330E, and Russian. Is translated into the word data 330R of.
  • the man-hours for collecting multilingual word data can be shortened, and the cost and time required for developing a voice agent corresponding to multiple languages can be reduced.
  • the user selects the word data on the screen as shown in FIGS. 6 to 8 to give the word data a label.
  • word data may be selected on the screen 350 for providing the quiz game as shown in FIG. 14, and a label may be given to the word data.
  • buttons 361 to 364 for selecting "Dorian”, “Tomato”, “Table”, and “Chair”, which are candidates for the word of the attribute (fruit), are displayed.
  • the user selects the button of the word that is considered to be a fruit so that the user answers the question "Which fruit?", And the selected word is given a fruit label.
  • word data is input as input data, but data in other formats may be input.
  • image data may be input as input data.
  • candidate data candidate image data to be given the same label as the input image data is presented, and further image data is presented by learning using the image data selected from the candidate data.
  • image data close to the input image data can be efficiently collected, and for example, the accuracy of similar image search can be improved.
  • sensor data obtained from various sensors can be input.
  • the acceleration data obtained from the acceleration sensor or the angular acceleration data obtained from the gyro sensor may be input as the input data.
  • candidate data sensor data that gives the same label as the input sensor data is presented as acceleration or rotation in, for example, VR (Virtual Reality) goggles. Further sensor data is presented by learning using the sensor data selected from them.
  • FIG. 15 is a block diagram showing a functional configuration example of an information processing system in which this technology is applied to cloud computing.
  • the information processing system of FIG. 15 is composed of a terminal device 400 and a cloud server 500.
  • the terminal device 400 and the cloud server 500 are connected by a network NW such as the Internet, and can communicate with each other.
  • NW such as the Internet
  • the terminal device 400 is composed of a computer terminal such as a PC, a tablet terminal, or a smartphone operated by a user, and includes at least an input unit 410 and a presentation unit 420.
  • the input unit 410 and the presentation unit 420 correspond to the input unit 110 and the presentation unit 120 of FIG. 3, respectively.
  • the cloud server 500 is composed of a large computer device, and includes at least a storage unit 510 and a control unit 520.
  • the control unit 520 includes a learning unit 521.
  • the storage unit 510, the control unit 520, and the learning unit 521 correspond to the storage unit 130, the control unit 140, and the learning unit 141 of FIG. 3, respectively.
  • the storage unit 510 may be provided in a database server or the like configured separately from the cloud server 500.
  • the terminal device 400 transmits the input data to the cloud server 500.
  • the cloud server 500 transmits candidate data that is a candidate to be given the same label as the input data from the terminal device 400 to the terminal device 400.
  • the terminal device 400 presents candidate data, and one of them is selected by the user as a label addition target.
  • the selected candidate data (selected data) is transmitted to the cloud server 500.
  • the cloud server 500 transmits further candidate data to the terminal device 400 based on the learning model learned using the candidate data (selected data) selected in the terminal device 400.
  • FIG. 16 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the information processing device 100 and the cloud server 500 described above are realized by the computer 1000 having the configuration shown in FIG.
  • the CPU 1001, ROM 1002, and RAM 1003 are connected to each other by the bus 1004.
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006 including a keyboard and a mouse, and an output unit 1007 including a display and a speaker are connected to the input / output interface 1005.
  • the input / output interface 1005 is connected to a storage unit 1008 including a hard disk and a non-volatile memory, a communication unit 1009 including a network interface, and a drive 1010 for driving the removable media 1011.
  • the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, thereby executing the series described above. Processing is done.
  • the program executed by the CPU 1001 is recorded on the removable media 1011 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 1008.
  • a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting
  • the program executed by the computer 1000 may be a program in which processing is performed in chronological order in the order described in this specification, or at a required timing such as in parallel or when a call is made. It may be a program that is processed by.
  • the present technology can have the following configuration.
  • a control unit that outputs candidate data that is a candidate to be given the same label as the input data input by the user.
  • the control unit is an information processing device that outputs further candidate data based on the learning model learned by using the selected data selected by the user as the target for assigning the label from the candidate data.
  • the control unit trains the learning model using the selected data as a positive example and non-selected data not selected by the user as a target for assigning the label from the candidate data as a negative example (1).
  • the information processing device described.
  • (3) The information processing device according to (1) or (2), wherein the control unit outputs the candidate data for each of the learning models based on the plurality of learning models.
  • the control unit The same number of candidate data is output for each learning model, and the same number of candidate data is output.
  • the information processing apparatus according to (6) or (7), further comprising a translation processing unit that translates the input data and the selected data to which the label is attached into a predetermined language.
  • the information processing device wherein the input data is image data.
  • the information processing device according to (1), wherein the input data is sensor data.
  • the information processing device is acceleration data.
  • the sensor data is angular acceleration data.
  • a presentation unit that presents the output candidate data to the user, The information processing apparatus according to any one of (1) to (12), further comprising an input unit that accepts selection of the selected data from the presented candidate data.
  • Information processing device Based on the learning model, output candidate data that can be given the same label as the input data input by the user, and output the candidate data.
  • 100 information processing device 110 input unit, 120 presentation unit, 130 storage unit, 140 control unit, 141 learning unit, 311 translation processing unit, 500 cloud server

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present technology relates to an information processing device and an information processing method which enable efficient collection of data desired by a user. According to the present invention, a control unit outputs, on the basis of a learning model, candidate data serving as a candidate for assignment of the same label as input data input by a user, and outputs additional candidate data on the basis of a learning model that has learned using selected data selected as a target for assignment of a label by the user, from among the candidate data. The present technology can be applied to a computer terminal used to collect word data, for example.

Description

情報処理装置および情報処理方法Information processing device and information processing method
 本技術は、情報処理装置および情報処理方法に関し、特に、ユーザが所望するデータを効率良く収集することができるようにした情報処理装置および情報処理方法に関する。 The present technology relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method capable of efficiently collecting data desired by a user.
 語彙間の関係性を推測する技術が知られている。 The technique of guessing the relationship between vocabularies is known.
 例えば、特許文献1には、既存の語彙間関係性データを用いた機械学習により、処理対象とする複数の語彙間の関係性を定義する語彙間関係性推測装置が開示されている。この技術は、関連性の強い互いに類似するデータを収集するといったタスクにも応用することができる。 For example, Patent Document 1 discloses an inter-vocabulary relationship estimation device that defines a relationship between a plurality of vocabularies to be processed by machine learning using existing inter-vocabulary relationship data. This technique can also be applied to tasks such as collecting closely related and similar data.
特開2019-149097号公報Japanese Unexamined Patent Publication No. 2019-149097
 しかしながら、特許文献1の技術では、処理対象とする語彙間の関係性は、既存の語彙間関係性データにより一意に定まってしまう。したがって、例えば、ユーザがアプリケーション毎にデータ間の関係性を設定するなど、ユーザの要求に応じたデータを収集することはできなかった。 However, in the technique of Patent Document 1, the relationship between the vocabularies to be processed is uniquely determined by the existing inter-vocabulary relationship data. Therefore, for example, the user cannot collect the data according to the user's request, such as setting the relationship between the data for each application.
 本技術は、このような状況に鑑みてなされたものであり、ユーザが所望するデータを効率良く収集することができるようにするものである。 This technology was made in view of such a situation, and enables the user to efficiently collect the desired data.
 本技術の情報処理装置は、学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力する制御部を備え、前記制御部は、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する情報処理装置である。 The information processing apparatus of the present technology includes a control unit that outputs candidate data that is a candidate for giving the same label as the input data input by the user based on the learning model, and the control unit is included in the candidate data. This is an information processing device that outputs further the candidate data based on the learning model learned by the user using the selection data selected as the target for assigning the label.
 本技術の情報処理方法は、情報処理装置が、学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力し、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する情報処理方法である。 In the information processing method of the present technology, the information processing apparatus outputs candidate data that can be given the same label as the input data input by the user based on the learning model, and the user selects the candidate data from the candidate data. This is an information processing method for outputting further candidate data based on the learning model learned using the selection data selected as the target for assigning the label.
 本技術においては、学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データが出力され、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データが出力される。 In the present technology, based on the learning model, candidate data that is a candidate for assigning the same label as the input data input by the user is output, and the candidate data is selected by the user as the target for assigning the label. Further candidate data is output based on the learning model trained using the selected data.
単語データの例を示す図である。It is a figure which shows the example of a word data. 音声エージェントに応じた単語データの違いについて説明する図である。It is a figure explaining the difference of word data according to a voice agent. 本技術を適用した情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the information processing apparatus to which this technology is applied. 学習部の処理概要を示す図である。It is a figure which shows the processing outline of a learning part. 単語データ収集処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of word data collection processing. 候補データの提示例を示す図である。It is a figure which shows the presentation example of the candidate data. 候補データの提示例を示す図である。It is a figure which shows the presentation example of the candidate data. 候補データの提示例を示す図である。It is a figure which shows the presentation example of the candidate data. 単語データ収集処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of word data collection processing. 学習モデル毎の重み付けについて説明する図である。It is a figure explaining the weighting for each learning model. 情報処理装置の他の機能構成例を示すブロック図である。It is a block diagram which shows the other functional configuration example of an information processing apparatus. 単語データ収集処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of word data collection processing. 単語の翻訳の例を示す図である。It is a figure which shows the example of the translation of a word. 単語データへのラベル付与の変形例について説明する図である。It is a figure explaining the modification of the label assignment to word data. クラウドサーバの機能構成例を示すブロック図である。It is a block diagram which shows the functional configuration example of a cloud server. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the configuration example of a computer.
 以下、本技術を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。 Hereinafter, a mode for implementing the present technology (hereinafter referred to as an embodiment) will be described. The explanation will be given in the following order.
 1.従来技術の問題点
 2.第1の実施の形態(候補データの出力と提示)
 3.第2の実施の形態(学習モデル毎の重み付け)
 4.第3の実施の形態(多言語の単語データの収集)
 5.変形例
 6.クラウドコンピューティングへの適用
 7.コンピュータの構成
1. 1. Problems with conventional technology 2. First embodiment (output and presentation of candidate data)
3. 3. Second embodiment (weighting for each learning model)
4. Third embodiment (collection of multilingual word data)
5. Modification example 6. Application to cloud computing 7. Computer configuration
<1.従来技術の問題点>
 図1に示されるように、本技術において扱われる単語データは、「猫」-「Animal」、「リンゴ」-「Fruit」、「お祭り」-「Event」などのように、「単語」と、その単語が属する概念を表す「ラベル」のペアで記述される。
<1. Problems with conventional technology>
As shown in FIG. 1, the word data handled in this technology includes "words" such as "cat"-"Animal", "apple"-"Fruit", "festival"-"Event", etc. It is described by a pair of "labels" that represent the concept to which the word belongs.
 ユーザの発話に対して応答を提示する音声エージェント(スマートスピーカなどともいわれる)を作成する際、図1に示されるような単語データは不可欠である。しかしながら、このような単語データを収集するには、多くの時間とコストがかかってしまう。 When creating a voice agent (also called a smart speaker) that presents a response to a user's utterance, word data as shown in FIG. 1 is indispensable. However, collecting such word data is time consuming and costly.
 ここでいう単語データの収集は、何らかの手法で集めてきた多数の単語に、それぞれの単語が属する概念のラベルを付与することをいう。単語データの収集を自動化するには、所定の単語が与えられたときに、その単語が属する概念を推測し、該当するラベルを付与するアルゴリズムが必要となる。 Collecting word data here means giving a label of the concept to which each word belongs to a large number of words collected by some method. To automate the collection of word data, when a given word is given, an algorithm that infers the concept to which the word belongs and assigns the corresponding label is required.
 しかしながら、作成したい音声エージェントの種類によっては、必要となる単語データの構造が異なる場合がある。例えば、図2に示されるように、料理支援を行う音声エージェント11を作成する際、「魚」という単語には、「食材」のラベルを付与するべきである。一方で、水族館での案内を行う音声エージェント12を作成する際、「魚」という単語には、「生き物」のラベルを付与するべきである。 However, the required word data structure may differ depending on the type of voice agent you want to create. For example, as shown in FIG. 2, when creating a voice agent 11 that supports cooking, the word "fish" should be labeled with "ingredients". On the other hand, when creating a voice agent 12 for guidance in an aquarium, the word "fish" should be labeled as "creature".
 単語データの収集において、辞書のような既存のデータベースを用いた場合、図2のようにして、柔軟にラベルを付与することはできなかった。その結果、ユーザの要求に応じた単語データを収集することはできなかった。 When using an existing database such as a dictionary in collecting word data, it was not possible to flexibly add labels as shown in Fig. 2. As a result, it was not possible to collect word data in response to the user's request.
 そこで、本技術においては、ユーザにより入力された入力データに近い候補データを出力し、その候補データの中からユーザにより選択された選択データを用いた学習により、さらなる候補データを出力することで、ユーザが所望するデータを効率良く収集できるようにする。 Therefore, in the present technology, candidate data close to the input data input by the user is output, and further candidate data is output by learning using the selection data selected by the user from the candidate data. It enables the user to efficiently collect the desired data.
<2.第1の実施の形態(候補データの出力と提示)>
(情報処理装置の構成)
 図3は、本技術を適用した情報処理装置の構成例を示すブロック図である。
<2. First Embodiment (output and presentation of candidate data)>
(Configuration of information processing device)
FIG. 3 is a block diagram showing a configuration example of an information processing device to which the present technology is applied.
 図3の情報処理装置100は、ユーザが操作するPC(Personal Computer)やタブレット端末、スマートフォンなどのコンピュータ端末で構成される。 The information processing device 100 of FIG. 3 is composed of a personal computer operated by a user, a tablet terminal, a computer terminal such as a smartphone, and the like.
 情報処理装置100は、入力部110、提示部120、記憶部130、および制御部140から構成される。 The information processing device 100 is composed of an input unit 110, a presentation unit 120, a storage unit 130, and a control unit 140.
 入力部110は、ボタンやキーボード、マウス、マイクロフォンなどで構成され、ユーザの操作を受け付ける。ユーザの操作に応じた入力情報は、制御部140に入力される。 The input unit 110 is composed of buttons, a keyboard, a mouse, a microphone, etc., and accepts user operations. The input information according to the user's operation is input to the control unit 140.
 提示部120は、有機EL(Electro-Luminescence)ディスプレイや液晶ディスプレイ、スピーカなどで構成され、制御部140により出力されたデータなどを提示する。入力部110は、提示部120としてのディスプレイと一体で形成されるタッチパネルで構成されてもよい。 The presentation unit 120 is composed of an organic EL (Electro-Luminescence) display, a liquid crystal display, a speaker, and the like, and presents data and the like output by the control unit 140. The input unit 110 may be composed of a touch panel formed integrally with the display as the presentation unit 120.
 記憶部130は、フラッシュメモリなどの不揮発性メモリなどにより構成され、制御部140に読み出されるプログラムや各種のデータを記憶している。 The storage unit 130 is composed of a non-volatile memory such as a flash memory, and stores a program and various data read by the control unit 140.
 制御部140は、CPU(Central Processing Unit)などのプロセッサやメモリなどで構成される。制御部140は、学習部141を備えている。学習部141は、制御部140を構成するCPUにより、記憶部130から読み出された所定のプログラムが実行されることによって実現される。 The control unit 140 is composed of a processor such as a CPU (Central Processing Unit) and a memory. The control unit 140 includes a learning unit 141. The learning unit 141 is realized by executing a predetermined program read from the storage unit 130 by the CPU constituting the control unit 140.
(学習部の処理概要)
 ここで、図4を参照して、学習部141の処理概要について説明する。
(Outline of processing of the learning department)
Here, the processing outline of the learning unit 141 will be described with reference to FIG.
 例えば、ユーザが果物に属する単語データを収集する場合、既存の単語データリストから、「Fruit」のラベルが付与された所定数の単語データP1が、学習データとして学習モデル141aに入力される。単語データP1の入力は、入力部110により受け付けられる。 For example, when a user collects word data belonging to a fruit, a predetermined number of word data P1s labeled with "Fruit" are input to the learning model 141a as training data from an existing word data list. The input of the word data P1 is accepted by the input unit 110.
 このとき、既存の単語データリストからは、果物に属さない単語データとして、「Animal」のラベルが付与された単語データN1や、「Vegetable」のラベルが付与された単語データN2などが、単語データP1と同数だけランダムに抽出される。単語データN1や単語データN2もまた、学習データとして学習モデル141aに入力される。 At this time, from the existing word data list, as word data that does not belong to fruits, word data N1 with the label "Animal", word data N2 with the label "Vegetable", and the like are word data. The same number as P1 is randomly extracted. The word data N1 and the word data N2 are also input to the learning model 141a as learning data.
 学習部141は、例えばword2vecなどのアルゴリズムを用いて単語埋め込みをする(単語をベクトルに変換する)学習モデル141aを、単語データP1を正例として、単語データN1や単語データN2を負例として学習させる。 The learning unit 141 learns a learning model 141a that embeds words (converts words into vectors) using an algorithm such as word2vec, using word data P1 as a positive example and word data N1 and word data N2 as negative examples. Let me.
 学習部141は、学習モデル141aの学習結果である特徴量(各単語のベクトル)に基づいて、二値分類器141bを用いて、語彙データベースVDBから抽出されたラベル無し単語データWDを分類する。正例側に分類されたラベル無し単語データWDは、候補データCDとして提示部120に出力され、提示部120により提示される。候補データCDは、単語データP1に近いベクトルを有する単語データとなる。 The learning unit 141 classifies the unlabeled word data WD extracted from the vocabulary database VDB using the binary classifier 141b based on the feature amount (vector of each word) which is the learning result of the learning model 141a. The unlabeled word data WD classified on the positive example side is output to the presentation unit 120 as a candidate data CD, and is presented by the presentation unit 120. The candidate data CD is word data having a vector close to the word data P1.
 図4の例では、ラベル無し単語データWDとして「キウイ」、「政治家」、「ドリアン」、「トマト」、・・・が分類対象とされ、正例側に分類された「キウイ」、「ドリアン」、「トマト」、・・・が候補データCDとして出力され、提示される。 In the example of FIG. 4, "kiwi", "politician", "Dorian", "tomato", ... Are classified as unlabeled word data WD, and "kiwi" and "kiwi" are classified on the regular side. "Dorian", "Tomato", ... Are output and presented as candidate data CDs.
 学習部141は、提示部120により提示された候補データCDの中からユーザにより選択された選択データSDを、正例の学習データとして学習モデル141aに入力させる。 The learning unit 141 causes the learning model 141a to input the selection data SD selected by the user from the candidate data CDs presented by the presentation unit 120 as regular learning data.
 図4の例では、選択データSDとして「キウイ」、「ドリアン」、・・・が選択されている。このとき、候補データCDの中からユーザにより選択されなかった非選択データは、負例の学習データとして学習モデル141aに入力される。特に、一般的に「トマト」は、果物であるか野菜であるかの明確な定義がないが、この例では、ユーザの要求により「トマト」は果物ではないことが選択されている。 In the example of FIG. 4, "kiwi", "durian", ... Are selected as the selection data SD. At this time, the non-selected data not selected by the user from the candidate data CD is input to the learning model 141a as learning data of a negative example. In particular, in general, there is no clear definition of whether "tomato" is a fruit or a vegetable, but in this example, "tomato" is selected not to be a fruit at the request of the user.
 学習部141は、ユーザの指示があるまで、以上の処理を繰り返す。 The learning unit 141 repeats the above process until instructed by the user.
 このように、学習部141は、学習モデルを用いて、入力部110から供給される入力データ(単語データ)を学習し、入力データに近い候補データ(ラベル無し単語データ)を提示部120に出力する。また、学習部141は、提示部120に提示された候補データの中からユーザにより選択された候補データを用いて再度学習し、新たな候補データを提示部120に出力する。 In this way, the learning unit 141 learns the input data (word data) supplied from the input unit 110 using the learning model, and outputs candidate data (unlabeled word data) close to the input data to the presentation unit 120. do. Further, the learning unit 141 learns again using the candidate data selected by the user from the candidate data presented to the presentation unit 120, and outputs new candidate data to the presentation unit 120.
(単語データ収集処理の流れ)
 次に、図5のフローチャートを参照して、情報処理装置100による単語データ収集処理の流れについて説明する。
(Flow of word data collection process)
Next, the flow of the word data collection process by the information processing apparatus 100 will be described with reference to the flowchart of FIG.
 ステップS11において、入力部110は、ユーザが収集を所望する属性のラベルが付与された単語データの入力を受け付ける。 In step S11, the input unit 110 accepts the input of word data to which the label of the attribute that the user wants to collect is attached.
 ステップS12において、制御部140(学習部141)は、入力データを用いて学習させた学習モデルに基づいて、入力された単語データと同じラベルを付与する候補となる候補データを、提示部120に出力する。 In step S12, the control unit 140 (learning unit 141) provides the presentation unit 120 with candidate data that is a candidate for giving the same label as the input word data based on the learning model trained using the input data. Output.
 ステップS13において、提示部120は、制御部140から出力された候補データを提示する。 In step S13, the presentation unit 120 presents the candidate data output from the control unit 140.
 ステップS14において、制御部140は、入力部110に対するユーザの操作により、単語データの収集を終了する旨の指示が受け付けられたか否かを判定する。 In step S14, the control unit 140 determines whether or not the instruction to end the collection of word data has been received by the user's operation on the input unit 110.
 入力部110において、単語データの収集を終了する旨の指示ではなく、提示部120によって提示された候補データの中から、ユーザによりラベルの付与対象として、所定の候補データの選択が受け付けられた場合、処理はステップS15に進む。 When the input unit 110 is not instructed to end the collection of word data, but is accepted to select a predetermined candidate data as a label assignment target from the candidate data presented by the presentation unit 120. , The process proceeds to step S15.
 ステップS15において、制御部140(学習部141)は、選択された候補データである選択データを正例に、選択されなかった候補データである非選択データを負例に加える。 In step S15, the control unit 140 (learning unit 141) adds the selected candidate data, which is the selected data, to the positive example, and the non-selected data, which is the non-selected candidate data, to the negative example.
 ステップS16において、制御部140(学習部141)は、選択データを正例として、非選択データを負例として、学習モデルを学習させる。その後、処理はステップS12に戻り、以降の処理が繰り返される。 In step S16, the control unit 140 (learning unit 141) trains the learning model using the selected data as a positive example and the non-selected data as a negative example. After that, the process returns to step S12, and the subsequent processes are repeated.
 図6乃至図8は、提示部120における候補データの提示例を示す図である。 6 to 8 are diagrams showing an example of presentation of candidate data in the presentation unit 120.
 図6乃至図8に示される画面には、単語データ入力領域151、送信ボタン152、および、候補データ表示領域153-1,153-2,153-3,・・・が設けられる。 The screens shown in FIGS. 6 to 8 are provided with a word data input area 151, a send button 152, and a candidate data display area 153-1, 153-2, 153, ...
 単語データ入力領域151には、ユーザが収集を所望する属性のラベルが付与された単語データ(正例の学習データ)が入力される。図6の例では、単語データ入力領域151に、単語データとして、例えば「菓子」のラベルが付与された「ケーキ」、「プリン」、および「クッキー」が入力されている。 In the word data input area 151, word data (normal learning data) to which a label of an attribute desired to be collected by the user is attached is input. In the example of FIG. 6, “cake”, “pudding”, and “cookie” labeled as “confectionery” are input as word data in the word data input area 151.
 単語データ入力領域151に単語データが入力された状態で、送信ボタン152が操作されると、候補データ表示領域153-1,153-2,153-3,・・・には、候補データ161と選択ボタン162P,162Nが表示される。選択ボタン162Pは、候補データ161を選択データ(正例の学習データ)とするためのボタンである。一方、選択ボタン162Nは、候補データ161を非選択データ(負例の学習データ)とするためのボタンである。 When the send button 152 is operated while the word data is input to the word data input area 151, the candidate data display area 153-1, 153-2, 153-3, ... Is filled with the candidate data 161. The selection buttons 162P and 162N are displayed. The selection button 162P is a button for using the candidate data 161 as selection data (normal learning data). On the other hand, the selection button 162N is a button for using the candidate data 161 as non-selection data (learning data of a negative example).
 図6の例では、候補データ表示領域153-1,153-2,153-3それぞれに、「菓子」のラベルを付与する候補となる候補データ161として「チョコレート」、「ラムネ」、「カレー」が表示されている。なお、候補データ161それぞれの右側には、二値分類のスコアが示されている。このスコアが1.0に近いほど、対応する候補データ161が正例側に分類されていることを示している。 In the example of FIG. 6, “chocolate”, “ramune”, and “curry” are used as candidate data 161 for assigning a “confectionery” label to each of the candidate data display areas 153-1, 153-2, and 153-3. Is displayed. The score of the binary classification is shown on the right side of each of the candidate data 161. The closer this score is to 1.0, the more the corresponding candidate data 161 is classified on the positive example side.
 図7の例では、図6の状態から、候補データ表示領域153-1,153-2,153-3それぞれにおいて、選択ボタン162P,162Nのいずれかが選択されている。 In the example of FIG. 7, one of the selection buttons 162P and 162N is selected in each of the candidate data display areas 153-1, 153-2, 153-3 from the state of FIG.
 具体的には、候補データ表示領域153-1においては、候補データ161の「チョコレート」を選択データとする選択ボタン162Pが選択され、候補データ表示領域153-2においては、候補データ161の「ラムネ」を選択データとする選択ボタン162Pが選択されている。また、候補データ表示領域153-3においては、候補データ161の「カレー」を非選択データとする選択ボタン162Nが選択されている。 Specifically, in the candidate data display area 153-1, the selection button 162P having "chocolate" of the candidate data 161 as the selection data is selected, and in the candidate data display area 1532, the "ramune" of the candidate data 161 is selected. The selection button 162P with "" as the selection data is selected. Further, in the candidate data display area 153-3, the selection button 162N having "curry" of the candidate data 161 as non-selection data is selected.
 図7の状態で、送信ボタン152が操作されることで、「チョコレート」と「ラムネ」には、「菓子」のラベルが付与される。 By operating the send button 152 in the state of FIG. 7, the "chocolate" and "ramune" are given the label of "confectionery".
 その後、図8に示されるように、単語データ入力領域151には、図6の状態で入力された「ケーキ」、「プリン」、および「クッキー」に加え、新たに「菓子」のラベルが付与された「チョコレート」と「ラムネ」が入力される。 After that, as shown in FIG. 8, the word data input area 151 is newly labeled with "confectionery" in addition to the "cake", "pudding", and "cookie" input in the state of FIG. The pudding "chocolate" and "ramune" are entered.
 この状態で、送信ボタン152が操作されると、候補データ表示領域153-1,153-2,153-3それぞれには、「菓子」のラベルを付与するさらなる候補データ161として、「チーズ」、「アーモンド」、「パン」が表示される。 In this state, when the send button 152 is operated, "cheese", as further candidate data 161 for giving a label of "confectionery" to each of the candidate data display areas 153-1, 153-2, 153-3, "Almond" and "Bread" are displayed.
 このようにして、提示された候補データの選択と、選択データを用いた学習による候補データの提示が繰り返される。 In this way, the selection of the presented candidate data and the presentation of the candidate data by learning using the selected data are repeated.
 さて、図5のフローチャートに戻り、ステップS14において、ユーザが満足できる量の単語データが収集されたと判断するなどして、単語データの収集を終了する旨の指示が受け付けられたと判定されると、処理は終了する。ラベルが付与された選択データ、すなわち、収集された単語データは、例えば記憶部130に記憶される。 Now, returning to the flowchart of FIG. 5, in step S14, it is determined that the instruction to end the collection of the word data has been received, such as by determining that the user has collected a satisfactory amount of word data. The process ends. The labeled selection data, that is, the collected word data is stored in, for example, the storage unit 130.
 以上の処理によれば、ユーザにより入力された単語データに近い候補データが提示され、候補データの中から選択された選択データを用いた学習により、さらなる候補データが提示される。これにより、ユーザの要求に応じた精度の高い単語データの提案が可能となり、ユーザが所望するデータを効率良く収集することが可能となる。 According to the above processing, candidate data close to the word data input by the user is presented, and further candidate data is presented by learning using the selection data selected from the candidate data. As a result, it is possible to propose highly accurate word data according to the user's request, and it is possible to efficiently collect the data desired by the user.
 また、学習モデルの学習において、高速なアルゴリズムを用いるようにすることで、単語データの出力に要する時間を短縮することができる。これにより、ユーザにストレスを与えることなく、インタラクティブな学習により単語データの提案の精度を高めることが可能となる。 Also, by using a high-speed algorithm in learning the learning model, the time required to output word data can be shortened. This makes it possible to improve the accuracy of word data proposals by interactive learning without stressing the user.
<3.第2の実施の形態(学習モデル毎の重み付け)>
 作成したい音声エージェントの種類によっては、どのような文脈での単語データを収集すべきかが異なる場合がある。例えば、ニュースを紹介する音声エージェントを作成する場合には、ニュースに用いられる堅い表現の単語を多く扱いたい一方、フレンドリーな会話相手となる音声エージェントを作成する際には、流行語や砕けた表現の単語を多く扱いたい。
<3. Second embodiment (weighting for each learning model)>
Depending on the type of voice agent you want to create, the context in which word data should be collected may differ. For example, when creating a voice agent that introduces news, you want to handle many hard-expressing words used in news, but when creating a voice agent that is a friendly conversation partner, you want to use buzzwords and broken expressions. I want to handle many words.
 そこで、新聞記事の内容から学習したword2vecモデルや、SNS(Social Networking Service)投稿の内容から学習したword2vecモデルなど、あらかじめ複数の学習モデルを用意し、学習モデル毎に候補データを提示する例について説明する。 Therefore, we will explain an example of preparing multiple learning models in advance and presenting candidate data for each learning model, such as a word2vec model learned from the contents of newspaper articles and a word2vec model learned from the contents of SNS (Social Networking Service) posts. do.
(単語データ収集処理の流れ)
 図9のフローチャートを参照して、複数の学習モデルを用いた単語データ収集処理の流れについて説明する。
(Flow of word data collection process)
The flow of the word data collection process using the plurality of learning models will be described with reference to the flowchart of FIG.
 なお、図9のフローチャートにおけるステップS21,S23乃至S26の処理は、図5のフローチャートにおけるステップS11,S13乃至S16の処理と基本的に同様であるので、その説明は省略する。 Note that the processing of steps S21, S23 to S26 in the flowchart of FIG. 9 is basically the same as the processing of steps S11, S13 to S16 in the flowchart of FIG. 5, so the description thereof will be omitted.
 すなわち、ステップS22において、制御部140(学習部141)は、あらかじめ用意された複数の学習モデルに基づいて、学習モデル毎に、入力された単語データと同じラベルを付与する候補となる候補データを、提示部120に出力する。このとき、学習モデル毎に同一数の候補データが出力される。 That is, in step S22, the control unit 140 (learning unit 141) provides candidate data as a candidate to be given the same label as the input word data for each learning model based on a plurality of learning models prepared in advance. , Is output to the presentation unit 120. At this time, the same number of candidate data is output for each learning model.
 その後、提示部120によって提示された候補データの中から所定の候補データが選択される。そして、ステップS27において、制御部140(学習部141)は、選択された候補データ(選択データ)に応じて、学習モデル毎に出力される候補データの数の重み付けを変更する。その後、処理はステップS22に戻り、以降の処理が繰り返される。 After that, a predetermined candidate data is selected from the candidate data presented by the presentation unit 120. Then, in step S27, the control unit 140 (learning unit 141) changes the weighting of the number of candidate data output for each learning model according to the selected candidate data (selected data). After that, the process returns to step S22, and the subsequent processes are repeated.
 図10は、学習モデル毎の候補データの数の重み付けについて説明する図である。 FIG. 10 is a diagram illustrating weighting of the number of candidate data for each learning model.
 図10の例では、新聞記事の内容から学習したword2vecモデル210と、SNS投稿の内容から学習したword2vecモデル220が用意されている。 In the example of FIG. 10, a word2vec model 210 learned from the contents of a newspaper article and a word2vec model 220 learned from the contents of an SNS post are prepared.
 まず、図10のA図に示されるように、word2vecモデル210,220それぞれからは同一数(例えば5つ)の候補データ231が出力される。 First, as shown in FIG. 10A, the same number (for example, 5) of candidate data 231 is output from each of the word2vec models 210 and 220.
 A図の例では、word2vecモデル210から出力された5つの候補データ231のうちの4つが選択データとして選択され、word2vecモデル220から出力された5つの候補データ231のうちの1つが選択データとして選択されている。 In the example of FIG. A, four of the five candidate data 231 output from the word2vec model 210 are selected as selection data, and one of the five candidate data 231 output from the word2vec model 220 is selected as selection data. Has been done.
 この場合、ユーザは、新聞記事に用いられる堅い表現の単語データの収集を所望していることが推測される。 In this case, it is presumed that the user wants to collect word data of rigid expressions used in newspaper articles.
 その結果、word2vecモデル210,220それぞれから出力される候補データの数の重み付けが変更される。具体的には、選択データがより多く出力されたword2vecモデルについて、より多くの候補データが出力されるように重み付けが変更される。 As a result, the weighting of the number of candidate data output from each of the word2vec models 210 and 220 is changed. Specifically, for the word2vec model in which more selection data is output, the weighting is changed so that more candidate data is output.
 例えば、図10のB図に示されるように、word2vecモデル210からは7つの候補データ232が出力され、word2vecモデル220からは3つの候補データ232が出力されるようになる。 For example, as shown in FIG. 10B, seven candidate data 232 are output from the word2vec model 210, and three candidate data 232 are output from the word2vec model 220.
 以上の処理によれば、ユーザにより選択された選択データに応じて、学習モデル毎に出力される候補データの数の重み付けが変更されるので、ユーザが所望する文脈での単語データを収集することが可能となる。 According to the above processing, the weighting of the number of candidate data output for each learning model is changed according to the selection data selected by the user, so that the word data in the context desired by the user can be collected. Is possible.
<4.第3の実施の形態(多言語の単語データの収集)>
 多言語に対応する音声エージェントを開発する場合、単語データも対応する言語の数だけ用意する必要がある。これは、音声エージェントの開発者にとって負担となる。
<4. Third embodiment (collection of multilingual word data)>
When developing a voice agent that supports multiple languages, it is necessary to prepare as many word data as there are languages that support it. This is a burden for voice agent developers.
 そこで、上述した機能により1つの言語(例えば日本語)の単語データを収集した後、これらの単語データを自動的に各言語に翻訳する例について説明する。 Therefore, an example will be described in which word data of one language (for example, Japanese) is collected by the above-mentioned function, and then these word data are automatically translated into each language.
(情報処理装置の構成)
 図11は、本実施の形態の情報処理装置の構成例を示すブロック図である。
(Configuration of information processing device)
FIG. 11 is a block diagram showing a configuration example of the information processing apparatus of the present embodiment.
 図11の情報処理装置100は、制御部140が、学習部141に加え、翻訳処理部311を備えている点で、図3の情報処理装置100と異なる。 The information processing device 100 of FIG. 11 is different from the information processing device 100 of FIG. 3 in that the control unit 140 includes a translation processing unit 311 in addition to the learning unit 141.
 翻訳処理部311は、ユーザにより入力された入力データ(単語データ)と、入力データと同じラベルが付与された候補データ(選択データ)とを、所定の言語に翻訳する。言語の翻訳は、例えば記憶部130に記憶されている、対応する言語の辞書を用いるなどして行われる。 The translation processing unit 311 translates the input data (word data) input by the user and the candidate data (selected data) to which the same label as the input data is given into a predetermined language. Language translation is performed, for example, by using a dictionary of the corresponding language stored in the storage unit 130.
(単語データ収集処理の流れ)
 次に、図12のフローチャートを参照して、収集された単語データを所定の言語に翻訳する単語データ収集処理の流れについて説明する。
(Flow of word data collection process)
Next, the flow of the word data collection process for translating the collected word data into a predetermined language will be described with reference to the flowchart of FIG.
 なお、図12のフローチャートにおけるステップS31乃至S36の処理は、図5のフローチャートにおけるステップS11乃至S16の処理と基本的に同様であるので、その説明は省略する。 Note that the processing of steps S31 to S36 in the flowchart of FIG. 12 is basically the same as the processing of steps S11 to S16 in the flowchart of FIG. 5, so the description thereof will be omitted.
 すなわち、ステップS34において、単語データの収集を終了する旨の指示が受け付けられたと判定された後、ステップS37において、翻訳処理部311は、正例の単語データ(すなわち、入力データと選択データ)を、所定の言語に翻訳する。 That is, after it is determined in step S34 that the instruction to end the collection of word data has been received, in step S37, the translation processing unit 311 selects the regular word data (that is, the input data and the selection data). , Translate into the given language.
 例えば、図13に示されるように、正例の単語データとして、果物に属する単語データ330が収集された場合、その単語データ330は、中国語の単語データ330C、英語の単語データ330E、ロシア語の単語データ330Rにそれぞれ翻訳される。 For example, as shown in FIG. 13, when word data 330 belonging to a fruit is collected as regular word data, the word data 330 includes Chinese word data 330C, English word data 330E, and Russian. Is translated into the word data 330R of.
 以上の処理によれば、多言語の単語データの収集の工数を短縮することができ、多言語に対応する音声エージェントの開発にかかるコストや時間を削減することが可能となる。 According to the above processing, the man-hours for collecting multilingual word data can be shortened, and the cost and time required for developing a voice agent corresponding to multiple languages can be reduced.
<5.変形例>
 以下では、上述した実施の形態の変形例について説明する。
<5. Modification example>
Hereinafter, a modified example of the above-described embodiment will be described.
(提示の例)
 上述した実施の形態では、ユーザが、図6乃至図8に示されるような画面において単語データを選択することで、その単語データにラベルが付与されるものとした。
(Example of presentation)
In the above-described embodiment, the user selects the word data on the screen as shown in FIGS. 6 to 8 to give the word data a label.
 これに限らず、図14に示されるような、クイズゲームを提供する画面350において単語データを選択させ、その単語データにラベルが付与されるようにしてもよい。 Not limited to this, word data may be selected on the screen 350 for providing the quiz game as shown in FIG. 14, and a label may be given to the word data.
 図14の画面350上部には、ユーザが収集を所望する属性の単語、具体的には、果物に属する単語を選択させる質問文が表示されている。その質問文の下方には、その属性(果物)の単語の候補となる「ドリアン」、「トマト」、「テーブル」、「椅子」を選択するためのボタン361乃至364が表示されている。 At the upper part of the screen 350 of FIG. 14, a question sentence for selecting a word of an attribute that the user wants to collect, specifically, a word belonging to a fruit is displayed. Below the question, buttons 361 to 364 for selecting "Dorian", "Tomato", "Table", and "Chair", which are candidates for the word of the attribute (fruit), are displayed.
 ユーザが、「果物はどれですか?」という質問文に回答するように、果物であると考える単語のボタンを選択することで、選択された単語には、果物のラベルが付与される。 The user selects the button of the word that is considered to be a fruit so that the user answers the question "Which fruit?", And the selected word is given a fruit label.
 このようなクイズゲームを、より多くのプレーヤに提供することで、ユーザが所望するデータを効率良く収集することが可能となる。 By providing such a quiz game to more players, it is possible to efficiently collect the data desired by the user.
(入力データの例)
 上述した実施の形態では、入力データとして単語データが入力されるものとしたが、その他の形式のデータが入力されるようにしてもよい。
(Example of input data)
In the above-described embodiment, word data is input as input data, but data in other formats may be input.
 具体的には、入力データとして画像データが入力されるようにしてもよい。この場合、候補データとして、入力された画像データと同じラベルを付与する候補となる画像データが提示され、その中から選択された画像データを用いた学習により、さらなる画像データが提示される。 Specifically, image data may be input as input data. In this case, as candidate data, candidate image data to be given the same label as the input image data is presented, and further image data is presented by learning using the image data selected from the candidate data.
 これにより、入力された画像データに近い画像データを効率良く収集することができ、例えば、類似画像検索の精度を向上させることが可能となる。 As a result, image data close to the input image data can be efficiently collected, and for example, the accuracy of similar image search can be improved.
 また、入力データとして、各種のセンサから得られるセンサデータが入力されるようにもできる。 Also, as input data, sensor data obtained from various sensors can be input.
 例えば、入力データとして、加速度センサから得られる加速度データや、ジャイロセンサから得られる角加速度データが入力されるようにしてもよい。この場合、候補データとして、入力されたセンサデータと同じラベルを付与するセンサデータが、例えばVR(Virtual Reality)ゴーグルにおける加速や回転として提示されるようにする。その中から選択されたセンサデータを用いた学習により、さらなるセンサデータが提示される。 For example, the acceleration data obtained from the acceleration sensor or the angular acceleration data obtained from the gyro sensor may be input as the input data. In this case, as candidate data, sensor data that gives the same label as the input sensor data is presented as acceleration or rotation in, for example, VR (Virtual Reality) goggles. Further sensor data is presented by learning using the sensor data selected from them.
 これにより、入力されたセンサデータに近い加速や回転を実現するセンサデータを効率良く収集することができ、例えば、VR体験における没入感を高めることが可能となる。 This makes it possible to efficiently collect sensor data that realizes acceleration and rotation close to the input sensor data, and for example, it is possible to enhance the immersive feeling in the VR experience.
<6.クラウドコンピューティングへの適用>
 本技術は、クラウドコンピューティングへ適用することもできる。
<6. Application to cloud computing>
This technology can also be applied to cloud computing.
 図15は、本技術をクラウドコンピューティングへ適用した情報処理システムの機能構成例を示すブロック図である。 FIG. 15 is a block diagram showing a functional configuration example of an information processing system in which this technology is applied to cloud computing.
 図15の情報処理システムは、端末装置400とクラウドサーバ500により構成される。端末装置400とクラウドサーバ500とは、例えばインターネットなどのネットワークNWにより接続され、互いに通信可能とされる。 The information processing system of FIG. 15 is composed of a terminal device 400 and a cloud server 500. The terminal device 400 and the cloud server 500 are connected by a network NW such as the Internet, and can communicate with each other.
 端末装置400は、ユーザが操作するPCやタブレット端末、スマートフォンなどのコンピュータ端末で構成され、入力部410と提示部420を少なくとも備える。入力部410と提示部420は、それぞれ、図3の入力部110と提示部120に対応する。 The terminal device 400 is composed of a computer terminal such as a PC, a tablet terminal, or a smartphone operated by a user, and includes at least an input unit 410 and a presentation unit 420. The input unit 410 and the presentation unit 420 correspond to the input unit 110 and the presentation unit 120 of FIG. 3, respectively.
 一方、クラウドサーバ500は、大型のコンピュータ装置で構成され、記憶部510と制御部520を少なくとも備える。制御部520は、学習部521を備えている。記憶部510、制御部520、および学習部521は、それぞれ、図3の記憶部130、制御部140、および学習部141に対応する。記憶部510は、クラウドサーバ500とは別に構成されるデータベースサーバなどに設けられてもよい。 On the other hand, the cloud server 500 is composed of a large computer device, and includes at least a storage unit 510 and a control unit 520. The control unit 520 includes a learning unit 521. The storage unit 510, the control unit 520, and the learning unit 521 correspond to the storage unit 130, the control unit 140, and the learning unit 141 of FIG. 3, respectively. The storage unit 510 may be provided in a database server or the like configured separately from the cloud server 500.
 図15の情報処理システムにおいて、端末装置400は、入力データをクラウドサーバ500に送信する。 In the information processing system of FIG. 15, the terminal device 400 transmits the input data to the cloud server 500.
 クラウドサーバ500は、学習モデルに基づいて、端末装置400からの入力データと同じラベルを付与する候補となる候補データを、端末装置400に送信する。 Based on the learning model, the cloud server 500 transmits candidate data that is a candidate to be given the same label as the input data from the terminal device 400 to the terminal device 400.
 端末装置400は、候補データを提示し、その中のいずれかがユーザによりラベルの付与対象として選択される。選択された候補データ(選択データ)は、クラウドサーバ500に送信される。 The terminal device 400 presents candidate data, and one of them is selected by the user as a label addition target. The selected candidate data (selected data) is transmitted to the cloud server 500.
 クラウドサーバ500は、端末装置400において選択された候補データ(選択データ)を用いて学習した学習モデルに基づいて、さらなる候補データを端末装置400に送信する。 The cloud server 500 transmits further candidate data to the terminal device 400 based on the learning model learned using the candidate data (selected data) selected in the terminal device 400.
 このような構成においても、ユーザの要求に応じた精度の高い単語データの提案が可能となり、ユーザが所望するデータを効率良く収集することが可能となる。 Even in such a configuration, it is possible to propose highly accurate word data according to the user's request, and it is possible to efficiently collect the data desired by the user.
<7.コンピュータの構成>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
<7. Computer configuration>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed from the program recording medium on a computer embedded in dedicated hardware, a general-purpose personal computer, or the like.
 図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 16 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
 上述した情報処理装置100およびクラウドサーバ500は、図16に示す構成を有するコンピュータ1000により実現される。 The information processing device 100 and the cloud server 500 described above are realized by the computer 1000 having the configuration shown in FIG.
 CPU1001、ROM1002、RAM1003は、バス1004により相互に接続されている。 The CPU 1001, ROM 1002, and RAM 1003 are connected to each other by the bus 1004.
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。 An input / output interface 1005 is further connected to the bus 1004. An input unit 1006 including a keyboard and a mouse, and an output unit 1007 including a display and a speaker are connected to the input / output interface 1005. Further, the input / output interface 1005 is connected to a storage unit 1008 including a hard disk and a non-volatile memory, a communication unit 1009 including a network interface, and a drive 1010 for driving the removable media 1011.
 以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。 In the computer 1000 configured as described above, the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, thereby executing the series described above. Processing is done.
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。 The program executed by the CPU 1001 is recorded on the removable media 1011 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 1008.
 なお、コンピュータ1000が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer 1000 may be a program in which processing is performed in chronological order in the order described in this specification, or at a required timing such as in parallel or when a call is made. It may be a program that is processed by.
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Further, the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
 さらに、本技術は以下のような構成をとることができる。
(1)
 学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力する制御部
 を備え、
 前記制御部は、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する
 情報処理装置。
(2)
 前記制御部は、前記選択データを正例として、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択されなかった非選択データを負例として、前記学習モデルを学習させる
 (1)に記載の情報処理装置。
(3)
 前記制御部は、複数の前記学習モデルに基づいて、前記学習モデル毎に前記候補データを出力する
 (1)または(2)に記載の情報処理装置。
(4)
 前記制御部は、
  前記学習モデル毎に同一数の前記候補データを出力し、
  前記ユーザにより選択された前記選択データに応じて、前記学習モデル毎に出力される前記候補データの数の重み付けを変更する
 (3)に記載の情報処理装置。
(5)
 前記制御部は、前記選択データがより多く出力された前記学習モデルについて、より多くの前記候補データが出力されるように前記重み付けを変更する
 (4)に記載の情報処理装置。
(6)
 前記入力データは、単語データである
 (1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記学習モデルは、word2vecモデルである
 (6)に記載の情報処理装置。
(8)
 前記入力データと前記ラベルが付与された前記選択データとを、所定の言語に翻訳する翻訳処理部をさらに備える
 (6)または(7)に記載の情報処理装置。
(9)
 前記入力データは、画像データである
 (1)に記載の情報処理装置。
(10)
 前記入力データは、センサデータである
 (1)に記載の情報処理装置。
(11)
 前記センサデータは、加速度データである
 (10)に記載の情報処理装置。
(12)
 前記センサデータは、角加速度データである
 (10)に記載の情報処理装置。
(13)
 出力された前記候補データを前記ユーザに提示する提示部と、
 提示された前記候補データの中から前記選択データの選択を受け付ける入力部とをさらに備える
 (1)乃至(12)のいずれかに記載の情報処理装置。
(14)
 情報処理装置が、
 学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力し、
 前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する
 情報処理方法。
Further, the present technology can have the following configuration.
(1)
Based on the learning model, it is equipped with a control unit that outputs candidate data that is a candidate to be given the same label as the input data input by the user.
The control unit is an information processing device that outputs further candidate data based on the learning model learned by using the selected data selected by the user as the target for assigning the label from the candidate data.
(2)
The control unit trains the learning model using the selected data as a positive example and non-selected data not selected by the user as a target for assigning the label from the candidate data as a negative example (1). The information processing device described.
(3)
The information processing device according to (1) or (2), wherein the control unit outputs the candidate data for each of the learning models based on the plurality of learning models.
(4)
The control unit
The same number of candidate data is output for each learning model, and the same number of candidate data is output.
The information processing apparatus according to (3), wherein the weighting of the number of candidate data output for each learning model is changed according to the selected data selected by the user.
(5)
The information processing device according to (4), wherein the control unit changes the weighting of the learning model to which more selection data is output so that more candidate data is output.
(6)
The information processing device according to any one of (1) to (5), wherein the input data is word data.
(7)
The information processing device according to (6), wherein the learning model is a word2vec model.
(8)
The information processing apparatus according to (6) or (7), further comprising a translation processing unit that translates the input data and the selected data to which the label is attached into a predetermined language.
(9)
The information processing device according to (1), wherein the input data is image data.
(10)
The information processing device according to (1), wherein the input data is sensor data.
(11)
The information processing device according to (10), wherein the sensor data is acceleration data.
(12)
The information processing device according to (10), wherein the sensor data is angular acceleration data.
(13)
A presentation unit that presents the output candidate data to the user,
The information processing apparatus according to any one of (1) to (12), further comprising an input unit that accepts selection of the selected data from the presented candidate data.
(14)
Information processing device
Based on the learning model, output candidate data that can be given the same label as the input data input by the user, and output the candidate data.
An information processing method for outputting further candidate data based on the learning model learned by using the selected data selected by the user as the target for assigning the label from the candidate data.
 100 情報処理装置, 110 入力部, 120 提示部, 130 記憶部, 140 制御部, 141 学習部, 311 翻訳処理部, 500 クラウドサーバ 100 information processing device, 110 input unit, 120 presentation unit, 130 storage unit, 140 control unit, 141 learning unit, 311 translation processing unit, 500 cloud server

Claims (14)

  1.  学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力する制御部
     を備え、
     前記制御部は、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する
     情報処理装置。
    Based on the learning model, it is equipped with a control unit that outputs candidate data that is a candidate to be given the same label as the input data input by the user.
    The control unit is an information processing device that outputs further candidate data based on the learning model learned by using the selected data selected by the user as the target for assigning the label from the candidate data.
  2.  前記制御部は、前記選択データを正例として、前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択されなかった非選択データを負例として、前記学習モデルを学習させる
     請求項1に記載の情報処理装置。
    According to claim 1, the control unit trains the learning model using the selected data as a positive example and non-selected data not selected by the user as a target for assigning the label from the candidate data as a negative example. The information processing device described.
  3.  前記制御部は、複数の前記学習モデルに基づいて、前記学習モデル毎に前記候補データを出力する
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1, wherein the control unit outputs the candidate data for each of the learning models based on the plurality of learning models.
  4.  前記制御部は、
      前記学習モデル毎に同一数の前記候補データを出力し、
      前記ユーザにより選択された前記選択データに応じて、前記学習モデル毎に出力される前記候補データの数の重み付けを変更する
     請求項3に記載の情報処理装置。
    The control unit
    The same number of candidate data is output for each learning model, and the same number of candidate data is output.
    The information processing apparatus according to claim 3, wherein the weighting of the number of candidate data output for each learning model is changed according to the selected data selected by the user.
  5.  前記制御部は、前記選択データがより多く出力された前記学習モデルについて、より多くの前記候補データが出力されるように前記重み付けを変更する
     請求項4に記載の情報処理装置。
    The information processing device according to claim 4, wherein the control unit changes the weighting of the learning model to which more selection data is output so that more candidate data is output.
  6.  前記入力データは、単語データである
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1, wherein the input data is word data.
  7.  前記学習モデルは、word2vecモデルである
     請求項6に記載の情報処理装置。
    The information processing device according to claim 6, wherein the learning model is a word2vec model.
  8.  前記入力データと前記ラベルが付与された前記選択データとを、所定の言語に翻訳する翻訳処理部をさらに備える
     請求項6に記載の情報処理装置。
    The information processing apparatus according to claim 6, further comprising a translation processing unit that translates the input data and the selected data to which the label is attached into a predetermined language.
  9.  前記入力データは、画像データである
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1, wherein the input data is image data.
  10.  前記入力データは、センサデータである
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1, wherein the input data is sensor data.
  11.  前記センサデータは、加速度データである
     請求項10に記載の情報処理装置。
    The information processing device according to claim 10, wherein the sensor data is acceleration data.
  12.  前記センサデータは、角加速度データである
     請求項10に記載の情報処理装置。
    The information processing device according to claim 10, wherein the sensor data is angular acceleration data.
  13.  出力された前記候補データを前記ユーザに提示する提示部と、
     提示された前記候補データの中から前記選択データの選択を受け付ける入力部とをさらに備える
     請求項1に記載の情報処理装置。
    A presentation unit that presents the output candidate data to the user,
    The information processing apparatus according to claim 1, further comprising an input unit that accepts selection of the selected data from the presented candidate data.
  14.  情報処理装置が、
     学習モデルに基づいて、ユーザにより入力された入力データと同じラベルを付与する候補となる候補データを出力し、
     前記候補データの中から前記ユーザにより前記ラベルの付与対象として選択された選択データを用いて学習した前記学習モデルに基づいて、さらなる前記候補データを出力する
     情報処理方法。
    Information processing device
    Based on the learning model, output candidate data that can be given the same label as the input data input by the user, and output the candidate data.
    An information processing method for outputting further candidate data based on the learning model learned by using the selected data selected by the user as the target for assigning the label from the candidate data.
PCT/JP2021/000017 2020-01-17 2021-01-04 Information processing device, and information processing method WO2021145228A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020005937A JP2021114082A (en) 2020-01-17 2020-01-17 Information processing device and information processing method
JP2020-005937 2020-01-17

Publications (1)

Publication Number Publication Date
WO2021145228A1 true WO2021145228A1 (en) 2021-07-22

Family

ID=76863997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000017 WO2021145228A1 (en) 2020-01-17 2021-01-04 Information processing device, and information processing method

Country Status (2)

Country Link
JP (1) JP2021114082A (en)
WO (1) WO2021145228A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017194782A (en) * 2016-04-19 2017-10-26 ソニー株式会社 Information processing device and information processing method
JP2019117437A (en) * 2017-12-26 2019-07-18 大日本印刷株式会社 Article identification apparatus, article identification method and program
WO2019235335A1 (en) * 2018-06-05 2019-12-12 住友化学株式会社 Diagnosis support system, diagnosis support method, and diagnosis support program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017194782A (en) * 2016-04-19 2017-10-26 ソニー株式会社 Information processing device and information processing method
JP2019117437A (en) * 2017-12-26 2019-07-18 大日本印刷株式会社 Article identification apparatus, article identification method and program
WO2019235335A1 (en) * 2018-06-05 2019-12-12 住友化学株式会社 Diagnosis support system, diagnosis support method, and diagnosis support program

Also Published As

Publication number Publication date
JP2021114082A (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US11037048B2 (en) Virtual conversation method or system
EP1986175A2 (en) Method, interface and system for obtaining user input
EP2610724B1 (en) A system and method for online user assistance
CA3109113A1 (en) Systems and methods for training artificially-intelligent classifier
CN109940627A (en) It is a kind of towards the man-machine interaction method and system of drawing this reading machine people
WO2015187584A1 (en) Virtual assistant teams
US20100075289A1 (en) Method and system for automated content customization and delivery
US11037460B2 (en) Cognitive robotic assistance for education
KR102035088B1 (en) Storytelling-based multimedia unmanned remote 1: 1 customized education system
US20200111488A1 (en) Analytics-based speech therapy
JP2021073590A (en) Document information storage device for search
WO2017112869A1 (en) Synchronized communication platform
EP3306485A1 (en) Method for editing machine learning result and information processing apparatus
CN204425398U (en) Intelligence is teaching system and device early
WO2021145228A1 (en) Information processing device, and information processing method
CN110032561A (en) Semantic-based list construction method and system
CN115440223A (en) Intelligent interaction method and device, robot and computer readable storage medium
JP2022529543A (en) Brain science-based learning memory methods, systems, recording media
JP7359196B2 (en) Information processing device, information processing method, and information processing program
JPWO2018147435A1 (en) Learning support system and method, and computer program
WO2023079712A1 (en) Processing device, processing method, and processing program
WO2021206179A1 (en) Method for persona learning and usage, and program
KR102692549B1 (en) Context-aware and persona-based generative ai interpretation device and method for controlling the same
US20230237922A1 (en) Artificial intelligence-driven avatar-based personalized learning techniques
US20240095273A1 (en) Actionable suggestions for media content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21741852

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21741852

Country of ref document: EP

Kind code of ref document: A1