JP6995698B2 - Information processing equipment, information processing methods, and information processing programs - Google Patents
Information processing equipment, information processing methods, and information processing programs Download PDFInfo
- Publication number
- JP6995698B2 JP6995698B2 JP2018107118A JP2018107118A JP6995698B2 JP 6995698 B2 JP6995698 B2 JP 6995698B2 JP 2018107118 A JP2018107118 A JP 2018107118A JP 2018107118 A JP2018107118 A JP 2018107118A JP 6995698 B2 JP6995698 B2 JP 6995698B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- character information
- type
- model
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 393
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 194
- 238000000034 method Methods 0.000 claims description 114
- 238000012545 processing Methods 0.000 claims description 108
- 230000008569 process Effects 0.000 claims description 80
- 230000004044 response Effects 0.000 claims description 31
- 230000006870 function Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 22
- 101100446829 Candida glabrata (strain ATCC 2001 / CBS 138 / JCM 3761 / NBRC 0622 / NRRL Y-65) FLR2 gene Proteins 0.000 description 12
- 238000013459 approach Methods 0.000 description 12
- 102100024061 Integrator complex subunit 1 Human genes 0.000 description 11
- 101710092857 Integrator complex subunit 1 Proteins 0.000 description 11
- 102100028043 Fibroblast growth factor 3 Human genes 0.000 description 9
- 108050002021 Integrator complex subunit 2 Proteins 0.000 description 9
- 102100037338 F-box/LRR-repeat protein 5 Human genes 0.000 description 8
- 101001026853 Homo sapiens F-box/LRR-repeat protein 5 Proteins 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000013145 classification model Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 101100396142 Arabidopsis thaliana IAA14 gene Proteins 0.000 description 6
- 101150110992 SLR1 gene Proteins 0.000 description 6
- 101150117967 mdt-11 gene Proteins 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 101100344915 Caenorhabditis elegans rgr-1 gene Proteins 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 101150023408 mdt-21 gene Proteins 0.000 description 4
- 101100049574 Human herpesvirus 6A (strain Uganda-1102) U5 gene Proteins 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150064834 ssl1 gene Proteins 0.000 description 3
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 2
- 101150046212 ARC2 gene Proteins 0.000 description 2
- 101150083013 FIN1 gene Proteins 0.000 description 2
- 101000663006 Homo sapiens Poly [ADP-ribose] polymerase tankyrase-1 Proteins 0.000 description 2
- 101000800312 Homo sapiens TERF1-interacting nuclear factor 2 Proteins 0.000 description 2
- 101100013460 Mus musculus Ftl2 gene Proteins 0.000 description 2
- 102100037664 Poly [ADP-ribose] polymerase tankyrase-1 Human genes 0.000 description 2
- 102100033085 TERF1-interacting nuclear factor 2 Human genes 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 101150085774 mdt-22 gene Proteins 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 101150106709 ARC1 gene Proteins 0.000 description 1
- 101100013575 Arabidopsis thaliana FTSHI1 gene Proteins 0.000 description 1
- 102100033825 Collagen alpha-1(XI) chain Human genes 0.000 description 1
- 102100029378 Follistatin-related protein 1 Human genes 0.000 description 1
- 101000710623 Homo sapiens Collagen alpha-1(XI) chain Proteins 0.000 description 1
- 101001062535 Homo sapiens Follistatin-related protein 1 Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Description
本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and an information processing program.
従来、翻訳等の種々の文字列変換に関する技術が提供されている。例えば、フレームレベルの言語らしさの系列情報を利用して、より高精度な言語識別を実現するための技術が知られている。このような技術においては、変換前の文字列と変化後の文字列の組とした複数の学習データが用いられる。また、従来技術においては、例えば、複数の言語による音声データと各音声データの言語を表す言語ラベルとを組とした複数の学習データが用いられる。 Conventionally, various techniques related to character string conversion such as translation have been provided. For example, there is known a technique for realizing more accurate language identification by using the series information of language-likeness at the frame level. In such a technique, a plurality of learning data as a set of a character string before conversion and a character string after change are used. Further, in the prior art, for example, a plurality of learning data in which voice data in a plurality of languages and language labels representing the languages of the voice data are combined are used.
しかしながら、上記の従来技術では、文字情報変換に関するサービスを適切に提供可能にすることが難しい場合がある。例えば、このような文字情報変換において、変換前の文字情報と変換後の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題がある。 However, with the above-mentioned prior art, it may be difficult to appropriately provide a service related to character information conversion. For example, in such character information conversion, if the combination of the character information before conversion and the character information after conversion (teacher data) is insufficient, it is difficult to appropriately provide the service related to the character information conversion. There is a problem such as.
本願は、上記に鑑みてなされたものであって、文字情報変換に関するサービスを適切に提供可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an information processing apparatus, an information processing method, and an information processing program that can appropriately provide services related to character information conversion.
本願に係る情報処理装置は、第1種別の文字情報である第1文字情報と、前記第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する取得部と、前記第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、前記第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、前記第1種別の対象文字情報の入力に応じて、前記対象文字情報が前記第2種別に変換された変換文字情報を出力する変換モデルを生成する学習部と、を備えたことを特徴とする。 The information processing apparatus according to the present application includes an acquisition unit for acquiring first character information which is character information of the first type and second character information which is character information of the second type different from the first type. Based on learning that the first character information is input information and the first character information is correct information, and learning that the second character information is input information and the second character information is correct information. It is characterized by including a learning unit that generates a conversion model that outputs the converted character information obtained by converting the target character information into the second type in response to the input of the target character information of the first type. And.
実施形態の一態様によれば、文字情報変換に関するサービスを適切に提供可能にすることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that a service related to character information conversion can be appropriately provided.
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the information processing apparatus, the information processing method, and the embodiment for implementing the information processing program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the information processing apparatus, information processing method, and information processing program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.
(実施形態)
〔1.情報処理(学習処理)〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、実施形態に係る情報処理のうち、学習処理の一例について説明する。図1では、情報処理装置100が第1種別の文字情報(以下「第1文字情報」ともいう)と、第1種別とは異なる第2種別の文字情報(以下「第2文字情報」ともいう)とに基づいて、モデルの生成を行う場合を示す。なお、ここでいう第1種別と第2種別とは、同一の言語における種別であるものとする。また、図1では、第1種別は、ニュース記事であり、第2種別は、子供向け記事である場合を一例として示すが、第1種別及び第2種別は、同一の言語内における異なる種別であれば、どのような種別であってもよい。図1では、情報処理装置100が第1文字情報を用いた学習処理と、第2文字情報を用いた学習処理とに基づいて、文字情報の種別を変換するモデル(以下「変換モデル」ともいう)の生成を行う場合を示す。すなわち、図1では、情報処理装置100が入力された文字情報(以下「変換前文字情報」ともいう)の種別を変換した文字情報(以下「変換後文字情報」ともいう)を出力する変換モデルの生成を行う場合を示す。
(Embodiment)
[1. Information processing (learning process)]
First, an example of information processing according to an embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of information processing according to an embodiment. Specifically, FIG. 1 describes an example of learning processing among the information processing according to the embodiment. In FIG. 1, the
また、情報処理装置100は、生成した変換モデルを用いて、ある変換前文字情報を取得した際に、その変換前文字情報の種別を変換した変換後文字情報を生成する。また、情報処理装置100は、生成した変換後文字情報に基づいて、サービスを提供したりするが、この点については図2で説明する。
Further, the
〔情報処理システムの構成〕
まず、図1の説明に先立って、図3に示す情報処理システム1について説明する。図3に示すように、情報処理システム1は、端末装置10と、情報提供装置50と、情報処理装置100とが含まれる。端末装置10と、情報提供装置50と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る情報処理システムの構成例を示す図である。なお、図3に示した情報処理システム1には、複数台の端末装置10や、複数台の情報提供装置50や、複数台の情報処理装置100が含まれてもよい。
[Information processing system configuration]
First, prior to the description of FIG. 1, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
The
端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、ユーザの操作に応じて、情報処理装置100や情報提供装置50に種々の情報を送信する。例えば、端末装置10は、情報処理装置100や情報提供装置50に文字情報等のコンテンツを要求する情報等を送信する。また、端末装置10は、情報処理装置100や情報提供装置50から種々の情報を受信する。例えば、端末装置10は、情報処理装置100や情報提供装置50から変換後文字情報を受信する。例えば、端末装置10は、情報処理装置100や情報提供装置50から受信した文字情報を表示する。
The
情報提供装置50は、所定のサービスを提供する提供元によって利用される情報処理装置である。提供元は、個人であってもよいし、法人等であってもよい。例えば、情報提供装置50は、情報提供者CP1によって利用される。情報提供者CP1は、コンテンツプロバイダ等のコンテンツの提供元であってもよい。情報提供者CP1は、コンテンツ配信サービスを行う事業者であってもよい。情報提供者CP1は、広告配信サービスを行う事業者であってもよい。
The
例えば、情報提供者CP1は、情報提供装置50を用いて、コンテンツ配信サービスにおいて提供する文字情報を情報処理装置100へ送信する。情報提供者CP1は、情報提供装置50を用いて、変換後文字情報を生成するために情報処理装置100へ送信する。また、情報提供装置50は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。なお、以下では、情報提供装置50を提供元と表記する場合がある。すなわち、以下では、提供元を情報提供装置50と読み替えることもできる。具体的には、図1及び図2では、情報提供装置50が情報提供者CP1により利用されるノート型PCである場合を示す。なお、情報提供装置50は、情報処理装置100と一体であってもよい。すなわち、情報処理装置100は、コンテンツ配信サービスや広告配信サービス等を行ってもよい。
For example, the information provider CP1 uses the
情報処理装置100は、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する情報処理装置である。情報処理装置100は、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する情報処理装置である。例えば、情報処理装置100は、学習処理を行う学習装置である。
The
情報処理装置100は、文字情報を変換モデルに入力することにより、その文字情報の種別が変換された変換後文字情報を生成する情報処理装置である。例えば、情報処理装置100は、文字情報の生成処理を行う生成装置である。例えば、情報処理装置100は、文字情報の変換処理を行う変換装置である。
The
また、情報処理装置100は、生成した変換後文字情報に基づいてサービスを提供する。図2の例では、情報処理装置100は、生成した変換後文字情報を情報提供装置50に提供する。情報処理装置100は、生成した変換後文字情報を用いて、ユーザが利用する端末装置10に情報提供してもよい。情報処理装置100は、生成した変換後文字情報を含むコンテンツを、端末装置10に配信してもよい。この場合、情報処理装置100は、コンテンツ配信サービスを提供する外部の情報処理装置等から各種情報を取得し、取得した各種情報に基づいて情報処理や外部の情報処理装置への情報提供を行ってもよい。
Further, the
まず、情報処理装置100は、第1文字情報を学習データLD1として取得する(ステップS11)。そして、情報処理装置100は、ステップS11で取得した学習データLD1に含まれる第1文字情報を学習データとして追加する(ステップS12)。具体的には、情報処理装置100は、学習データLD1を第1種別情報記憶部121に追加する。
First, the
図1に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
The first type
図1の第1種別情報記憶部121中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図1の第1種別情報記憶部121中の「第1文字情報」は、文字情報IDにより識別される文字情報を示す。
The "character information ID" in the first type
図1に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示し、文字情報ID「FID12」により識別される文字情報は、第1文字情報FCH12であることを示す。また、文字情報ID「FID13」により識別される文字情報は、第1文字情報FCH13であることを示し、文字情報ID「FID14」により識別される文字情報は、第1文字情報FCH14であることを示す。第1文字情報FCH11~FCH14等は、子供向けではない一般的なニュース(以下「通常ニュース」ともいう)等や通常のコンテンツ配信等で配信される文字情報等であれば、どのような文字情報であってもよい。例えば、第1文字情報FCH11~FCH14等は、政治や経済に関する通常ニュースやスポーツやエンターテインメントに関する通常ニュース等であってもよい。 In the example shown in FIG. 1, the character information identified by the character information ID "FID11" indicates that it is the first character information FCH11, and the character information identified by the character information ID "FID12" is the first character information. Indicates that it is FCH12. Further, the character information identified by the character information ID "FID13" indicates that it is the first character information FCH13, and the character information identified by the character information ID "FID14" is the first character information FCH14. show. The first character information FCH11 to FCH14, etc. is any character information as long as it is general news not for children (hereinafter, also referred to as "normal news") or character information distributed by ordinary content distribution. May be. For example, the first character information FCH11 to FCH14 and the like may be ordinary news about politics and economy, ordinary news about sports and entertainment, and the like.
また、情報処理装置100は、第2文字情報を学習データLD2として取得する(ステップS13)。そして、情報処理装置100は、ステップS13で取得した学習データLD2に含まれる第2文字情報を学習データとして追加する(ステップS14)。具体的には、情報処理装置100は、学習データLD2を第2種別情報記憶部122に追加する。
Further, the
図1に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
The second type
図1の第2種別情報記憶部122中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図1の第2種別情報記憶部122中の「第2文字情報」は、文字情報IDにより識別される文字情報を示す。
The "character information ID" in the second type
図1に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示し、文字情報ID「SID12」により識別される文字情報は、第2文字情報SCH12であることを示す。また、文字情報ID「SID13」により識別される文字情報は、第2文字情報SCH13であることを示し、文字情報ID「SID14」により識別される文字情報は、第2文字情報SCH14であることを示す。第2文字情報SCH11~SCH14等は、子供向けに作成されたニュース(以下「子供向けニュース」ともいう)等の文字情報であれば、どのような文字情報であってもよい。例えば、第2文字情報SCH11~SCH14等は、子供向けに作成された政治や経済に関する子供向けニュースやスポーツやエンターテインメントに関する子供向けニュース等であってもよい。 In the example shown in FIG. 1, the character information identified by the character information ID "SID11" indicates that it is the second character information SCH11, and the character information identified by the character information ID "SID12" is the second character information. Indicates that it is SCH12. Further, the character information identified by the character information ID "SID13" indicates that it is the second character information SCH13, and the character information identified by the character information ID "SID14" is the second character information SCH14. show. The second character information SCH11 to SCH14 and the like may be any character information as long as it is character information such as news created for children (hereinafter, also referred to as "news for children"). For example, the second character information SCH11 to SCH14 and the like may be children's news about politics and economy created for children, children's news about sports and entertainment, and the like.
そして、情報処理装置100は、学習データに基づく学習処理によりモデルを生成する。例えば、情報処理装置100は、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等や第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。なお、第1文字情報FCH11~FCH14等と第2種別情報記憶部122中の第2文字情報SCH11~SCH14等との間には、対応関係はないものとする。例えば、第1文字情報FCH11~FCH14等及び第2種別情報記憶部122中の第2文字情報SCH11~SCH14等は、各々が異なる内容のニュースであるものとする。
Then, the
まず、情報処理装置100が生成する変換モデル(学習器)について簡単に説明する。図1の例では、モデル情報記憶部123中のモデルM1は、構造情報ARC1に示すようなアーキテクチャのモデルである。図1の例において、情報処理装置100が生成する変換モデルであるモデルM1は、複数の第1部分モデルM1-1、M1-2等を含むモデルである。上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別されるモデルである。
First, a conversion model (learner) generated by the
また、上記のように、「第1部分モデルM*(*は任意の数値)」と記載した場合、その第1部分モデルは第1部分モデルID「M*」により識別されるモデルであることを示す。例えば、「第1部分モデルM1-1」と記載した場合、その第1部分モデルは第1部分モデルID「M1-1」により識別されるモデルである。 Further, as described above, when the description is described as "first part model M * (* is an arbitrary numerical value)", the first part model is a model identified by the first part model ID "M *". Is shown. For example, when described as "first partial model M1-1", the first partial model is a model identified by the first partial model ID "M1-1".
また、上記のように、「第2部分モデルM*(*は任意の数値)」と記載した場合、その第2部分モデルは第2部分モデルID「M*」により識別されるモデルであることを示す。例えば、「第2部分モデルM11」と記載した場合、その第2部分モデルは第2部分モデルID「M11」により識別されるモデルである。なお、第1部分モデルや第2部分モデルを特に区別することなく説明する場合、単に「部分モデル」を記載する場合がある。 Further, as described above, when the description is "second part model M * (* is an arbitrary numerical value)", the second part model is a model identified by the second part model ID "M *". Is shown. For example, when described as "second part model M11", the second part model is a model identified by the second part model ID "M11". When the first partial model and the second partial model are described without particular distinction, a "partial model" may be simply described.
第1部分モデルM1-1は、符号化部であり、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出する符号化器(以下「エンコーダ」ともいう)が含まれる部分モデルに対応する。図1に示すように、第1部分モデルM1-1は、入力情報IN1を入力として、中間情報INT1を出力するモデルに対応する。第1部分モデルM1-1は、第1文字情報や第2文字情報が入力情報IN1として入力され、中間情報INT1を出力するモデルに対応する。 The first partial model M1-1 is a coding unit, and includes a encoder (hereinafter, also referred to as “encoder”) that extracts the features of the input information by compressing the dimensional amount of the input information. Corresponds to the partial model. As shown in FIG. 1, the first partial model M1-1 corresponds to a model in which the input information IN1 is input and the intermediate information INT1 is output. The first partial model M1-1 corresponds to a model in which first character information and second character information are input as input information IN1 and intermediate information INT1 is output.
第1部分モデルM1-1には、第1文字情報を入力とするエンコーダである第2部分モデルM11が含まれる。第2部分モデルM11は、入力された第1文字情報の次元量を圧縮することで入力された第1文字情報が有する特徴を抽出する。第2部分モデルM11は、図1中の中間情報INT1として、第1文字情報の次元量が圧縮された第1文字情報が有する特徴を示す中間情報を出力する。例えば、図1中の中間情報INT1は、入力情報の特徴を示す中間出力(符号化ベクトル等)であり、例えば、分散表現や実数値ベクトルであってもよい。例えば、中間情報INT1は、モデルM1に入力された文字情報の意味(概念)に関する情報が含まれる。 The first partial model M1-1 includes a second partial model M11 which is an encoder for inputting the first character information. The second partial model M11 extracts the features of the input first character information by compressing the dimension amount of the input first character information. The second partial model M11 outputs, as the intermediate information INT1 in FIG. 1, intermediate information indicating the characteristics of the first character information in which the dimension amount of the first character information is compressed. For example, the intermediate information INT1 in FIG. 1 is an intermediate output (encoded vector or the like) showing the characteristics of the input information, and may be, for example, a distributed representation or a real value vector. For example, the intermediate information INT1 includes information regarding the meaning (concept) of the character information input to the model M1.
また、第1部分モデルM1-1には、第2文字情報を入力とするエンコーダである第2部分モデルM12が含まれる。第2部分モデルM12は、入力された第2文字情報の次元量を圧縮することで入力された第2文字情報が有する特徴を抽出する。第2部分モデルM12は、図1中の中間情報INT1として、第2文字情報の次元量が圧縮された第2文字情報が有する特徴を示す中間情報を出力する。 Further, the first partial model M1-1 includes a second partial model M12 which is an encoder for inputting the second character information. The second partial model M12 extracts the features of the input second character information by compressing the dimension amount of the input second character information. The second partial model M12 outputs, as the intermediate information INT1 in FIG. 1, intermediate information indicating the characteristics of the second character information in which the dimension amount of the second character information is compressed.
例えば、中間情報INT1は次元数等の仕様が設定されており、第1部分モデルM1-1中の第2部分モデルM11、M12は、共通の仕様に基づく中間情報INT1を出力する。第2部分モデルM11、M12は、共通の次元数まで圧縮した中間情報を出力する。なお、図1の例では、説明のために第2部分モデルM11、M12を個別に図示するが、第2部分モデルM11、M12は、共通する部分は共有してもよい。例えば、第2部分モデルM11、M12は一体であってもよい。言い換えると、第2部分モデルM11、M12は1つのモデルであってもよい。例えば、第1部分モデルM1-1は、第2部分モデルM11、M12の機能を実現するための構成うち、重複する部分を除いた構成であってもよい。 For example, the intermediate information INT1 is set with specifications such as the number of dimensions, and the second partial models M11 and M12 in the first partial model M1-1 output the intermediate information INT1 based on the common specifications. The second partial models M11 and M12 output intermediate information compressed to a common number of dimensions. In the example of FIG. 1, the second partial models M11 and M12 are shown individually for the sake of explanation, but the second partial models M11 and M12 may share a common part. For example, the second partial models M11 and M12 may be integrated. In other words, the second partial models M11 and M12 may be one model. For example, the first partial model M1-1 may be configured by removing overlapping portions from the configurations for realizing the functions of the second partial models M11 and M12.
また、第1部分モデルM1-1は、入力される文字情報の種別に応じて、入力された文字情報を第2部分モデルM11、M12のいずれに入力するかを決定する機能を有する。例えば、第1部分モデルM1-1は、入力される文字情報の種別を特定する情報(特定情報)を受け付け、第2部分モデルM11、M12うち、その特定情報に対応する方に文字情報を入力すると決定する機能を有する。例えば、第1部分モデルM1-1は、所定のスイッチング機能(切り替え機能)により、第2部分モデルM11、M12うち、特定情報に基づくモデルの入力層に文字情報が入力されるように、(論理)回路等を切り替えてもよい。例えば、第1部分モデルM1-1は、学習時には、後述する選択情報(制御ベクトル)を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。 Further, the first partial model M1-1 has a function of determining which of the second partial models M11 and M12 to input the input character information according to the type of the input character information. For example, the first partial model M1-1 accepts information (specific information) that specifies the type of character information to be input, and inputs character information to the second partial models M11 and M12 that correspond to the specific information. Then, it has a function to determine. For example, in the first partial model M1-1, character information is input to the input layer of the model based on the specific information among the second partial models M11 and M12 by a predetermined switching function (switching function) (logic). ) The circuit etc. may be switched. For example, in the first partial model M1-1, at the time of learning, the selection information (control vector) described later may be used as specific information to determine a model for inputting character information among the second partial models M11 and M12. ..
例えば、第1部分モデルM1-1は、生成時(変換時)には、後述する選択情報を反転した情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。例えば、第1部分モデルM1-1は、生成時(変換時)には、選択情報が「第1種別」を示す情報である場合、その情報を反転した「第2種別」を示す情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。例えば、第1部分モデルM1-1は、生成時(変換時)には、選択情報が「第2種別」を示す情報である場合、その情報を反転した「第1種別」を示す情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。なお、上記は一例であり、情報処理装置100は、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, the first partial model M1-1 is a model in which character information is input from the second partial models M11 and M12 by using the information obtained by inverting the selection information described later as specific information at the time of generation (conversion). May be determined. For example, in the first partial model M1-1, when the selection information is the information indicating the "first type" at the time of generation (conversion), the information indicating the "second type" obtained by reversing the information is specified. Of the second partial models M11 and M12, which may be used as information, a model for inputting character information may be determined. For example, in the first partial model M1-1, when the selection information is the information indicating the "second type" at the time of generation (conversion), the information indicating the "first type" obtained by reversing the information is specified. Of the second partial models M11 and M12, which may be used as information, a model for inputting character information may be determined. The above is an example, and the
第1部分モデルM1-2は、復号化部であり、エンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(以下「デコーダ」ともいう)が含まれる部分モデルに対応する。すなわち、第1部分モデルM1-2は、エンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、所定の種別の文字情報を出力するデコーダが含まれる部分モデルに対応する。図1に示すように、第1部分モデルM1-2は、中間情報INT1を入力として、出力情報OUT1を出力するモデルに対応する。 The first partial model M1-2 is a decoding unit, and includes a decoder (hereinafter, also referred to as “decoder”) that increases the dimensional amount of the feature extracted by the encoder and outputs character information of a predetermined type. Corresponds to a partial model. That is, the first partial model M1-2 is a partial model including a decoder that inputs intermediate information output by an encoder, increases the dimension amount of the input intermediate information, and outputs character information of a predetermined type. handle. As shown in FIG. 1, the first partial model M1-2 corresponds to a model in which the intermediate information INT1 is input and the output information OUT1 is output.
第1部分モデルM1-2には、中間情報を入力とするデコーダである第2部分モデルM13が含まれる。第2部分モデルM13は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第1文字情報を生成する。第2部分モデルM13は、図1中の出力情報OUT1として、入力された中間情報に対応する第1文字情報を出力する。 The first partial model M1-2 includes a second partial model M13 which is a decoder for inputting intermediate information. The second partial model M13 generates the first character information corresponding to the input intermediate information by increasing the dimension amount of the input intermediate information. The second partial model M13 outputs the first character information corresponding to the input intermediate information as the output information OUT1 in FIG.
また、第1部分モデルM1-2には、中間情報を入力とするデコーダである第2部分モデルM14が含まれる。第2部分モデルM14は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第2文字情報を生成する。第2部分モデルM14は、図1中の出力情報OUT1として、入力された中間情報に対応する第2文字情報を出力する。なお、図1の例では、説明のために第2部分モデルM13、M14を個別に図示するが、第2部分モデルM13、M14は、共通する部分は共有してもよい。例えば、第2部分モデルM13、M14は一体であってもよい。言い換えると、第2部分モデルM13、M14は1つのモデルであってもよい。例えば、第2部分モデルM13、M14が一体(同一モデル)であっても、第1部分モデルM1-2は、異なる選択情報が入力されることにより、選択情報による選択に応じた情報を生成(出力)する。例えば、第1部分モデルM1-2は、第2部分モデルM13、M14の機能を実現するための構成うち、重複する部分を除いた構成であってもよい。 Further, the first partial model M1-2 includes a second partial model M14 which is a decoder for inputting intermediate information. The second partial model M14 generates the second character information corresponding to the input intermediate information by increasing the dimension amount of the input intermediate information. The second partial model M14 outputs the second character information corresponding to the input intermediate information as the output information OUT1 in FIG. In the example of FIG. 1, the second partial models M13 and M14 are shown individually for the sake of explanation, but the second partial models M13 and M14 may share a common part. For example, the second partial models M13 and M14 may be integrated. In other words, the second partial models M13 and M14 may be one model. For example, even if the second partial models M13 and M14 are integrated (same model), the first partial model M1-2 generates information according to the selection by the selection information by inputting different selection information (the same model). Output. For example, the first partial model M1-2 may be configured by removing overlapping portions from the configurations for realizing the functions of the second partial models M13 and M14.
また、第1部分モデルM1-2は、出力する文字情報の種別を選択する選択情報(制御ベクトル)を受け付ける。第1部分モデルM1-2は、出力する文字情報の種別を選択する選択情報SL1が入力される。すなわち、第1部分モデルM1-2は、選択情報SL1に応じて、入力された中間情報を第2部分モデルM13、M14のいずれに入力するかを決定する機能を有する。例えば、第1部分モデルM1-2は、選択情報を受け付け、第2部分モデルM13、M14うち、その選択情報に対応する方に中間情報を入力すると決定する機能を有する。例えば、第1部分モデルM1-2は、所定のスイッチング機能(切り替え機能)により、第2部分モデルM13、M14うち、中間情報に基づくモデルの入力層に中間情報が入力されるように、(論理)回路等を切り替えてもよい。 Further, the first partial model M1-2 accepts selection information (control vector) for selecting the type of character information to be output. In the first partial model M1-2, selection information SL1 for selecting the type of character information to be output is input. That is, the first partial model M1-2 has a function of determining whether the input intermediate information is input to the second partial model M13 or M14 according to the selection information SL1. For example, the first partial model M1-2 has a function of accepting selection information and determining that intermediate information is input to the second partial models M13 and M14 corresponding to the selection information. For example, in the first partial model M1-2, the intermediate information is input to the input layer of the model based on the intermediate information among the second partial models M13 and M14 by a predetermined switching function (switching function) (logic). ) The circuit etc. may be switched.
例えば、第1部分モデルM1-2は、選択情報が「第1種別」を示す情報である場合、第2部分モデルM13に中間情報を入力すると決定する。例えば、第1部分モデルM1-2は、選択情報が「第2種別」を示す情報である場合、第2部分モデルM14に中間情報を入力すると決定する。なお、上記は一例であり、情報処理装置100は、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, the first partial model M1-2 determines that intermediate information is input to the second partial model M13 when the selection information is information indicating "first type". For example, the first partial model M1-2 determines that intermediate information is input to the second partial model M14 when the selection information is information indicating "second type". The above is an example, and the
なお、エンコーダおよびデコーダは、単純に入力された情報量の次元数を変化させるニューラルネットワークのみならず、GRU(Gated Recurrent Unit)やLSTM(Long Short-Term Memory)を始めとするRNN(Recurrent Neural Network)等といった種々のニューラルネットワークが採用可能である。 The encoder and decoder are not only a neural network that simply changes the number of dimensions of the input information amount, but also an RNN (Recurrent Neural Network) such as a GRU (Gated Recurrent Unit) and an LSTM (Long Short-Term Memory). ) Etc. can be adopted.
情報処理装置100は、第1文字情報を用いた学習処理により変換モデルを生成する(ステップS15)。情報処理装置100は、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。図1では、第1学習FLR1に示すように、第1種別を選択する選択情報FSL1が設定される。これにより、第1学習FLR1においては、モデルM1のうち、第2部分モデルM11及び第2部分モデルM13を用いるように制御される。そして、情報処理装置100は、第1文字情報である入力情報FIN1を入力として、第2部分モデルM11及び第2部分モデルM13を経由して、第1文字情報である出力情報FOUT1を出力する学習を行なう。
The
情報処理装置100は、第1学習FLR1においては、モデルM1の入力とする第1文字情報がモデルM1から出力されるように、学習処理を行う。例えば、情報処理装置100は、モデルM1に第1文字情報FCH11が入力された場合、モデルM1から第1文字情報FCH11が出力されるように学習処理を行う。例えば、情報処理装置100は、モデルM1に第1文字情報FCH12が入力された場合、モデルM1から第1文字情報FCH12が出力されるように学習処理を行う。
In the first learning FLR1, the
例えば、情報処理装置100は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を第1文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM11及び第2部分モデルM13に第1文字情報が有する特徴を学習させる。このように、情報処理装置100は、モデルM1における出力と、入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、情報処理装置100は、第1文字情報のみを用いて第2部分モデルM11及び第2部分モデルM13について学習処理を行うことができる。
For example, in the first learning FLR1, the
また、情報処理装置100は、第2文字情報を用いた学習処理により変換モデルを生成する(ステップS16)。情報処理装置100は、第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。図1では、第2学習SLR1に示すように、第2種別を選択する選択情報SSL1が設定される。これにより、第2学習SLR1においては、モデルM1のうち、第2部分モデルM12及び第2部分モデルM14を用いるように制御される。そして、情報処理装置100は、第2文字情報である入力情報SIN1を入力として、第2部分モデルM12及び第2部分モデルM14を経由して、第2文字情報である出力情報SOUT1を出力する学習を行なう。
Further, the
情報処理装置100は、第2学習SLR1においては、モデルM1の入力とする第2文字情報がモデルM1から出力されるように、学習処理を行う。例えば、情報処理装置100は、モデルM1に第2文字情報SCH11が入力された場合、モデルM1から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100は、モデルM1に第2文字情報SCH12が入力された場合、モデルM1から第2文字情報SCH12が出力されるように学習処理を行う。
In the second learning SLR1, the
例えば、情報処理装置100は、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM12及び第2部分モデルM14に第2文字情報が有する特徴を学習させる。これにより、情報処理装置100は、第2文字情報のみを用いて第2部分モデルM12及び第2部分モデルM14について学習処理を行うことができる。
For example, in the
このように、情報処理装置100は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を対象として学習処理を行い、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を対象として学習処理を行う。これにより、情報処理装置100は、モデルM1に含まれる各第2部分モデルM11~M14についての学習を行なうことができる。
As described above, the
上述のように、情報処理装置100は、第1文字情報を用いた学習処理と第2文字情報を用いた学習処理とを行うことにより、第1文字情報と第2文字情報とが対応づけられた学習データ(教師データ)が無い場合であっても、適切に学習処理を行うことができる。すなわち、情報処理装置100は、第1種別の文字情報と第2種別の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題を解決することができる。そして、情報処理装置100は、学習したモデルを用いて文字情報の種別を変換することにより、適切に文字情報の種別の変換を行い、種々のサービスを行うことができる。
As described above, the
(1-1.第1種別、第2種別)
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、例えば、情報処理装置100は、少数であっても、第1文字情報と第2文字情報とが対応づけられた教師データ(以下「ペアデータ」ともいう)がある場合、そのペアデータを用いてもよい。例えば、情報処理装置100は、ペアデータがある場合、そのペアデータの一方を入力情報とし、他方を出力の正解情報として学習を行なってもよい。
(1-1. 1st type, 2nd type)
The model learning method is not limited to the above-mentioned method, and any known technique can be applied. Further, for example, even if the
情報処理装置100は、ペアデータのうち、第1文字情報を入力とし、第2文字情報を出力とする場合に、第2部分モデルM11及び第2部分モデルM14を用いるように制御して、学習処理を行う。そして、情報処理装置100は、第1文字情報を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2文字情報を出力する学習を行なう。また、情報処理装置100は、ペアデータのうち、第2文字情報を入力とし、第1文字情報を出力とする場合に、第2部分モデルM12及び第2部分モデルM13を用いるように制御して、学習処理を行う。そして、情報処理装置100は、第2文字情報を入力として、第2部分モデルM12及び第2部分モデルM13を経由して、第1文字情報を出力する学習を行なう。これにより、情報処理装置100は、モデルM1の変換精度を向上させることができる。
The
(1-2.選択情報(制御ベクトル))
図1の例では、いずれのデコーダを用いるかを選択情報で制御する場合を一例として説明したが、情報処理装置100は、制御ベクトルを受付可能なようにデコーダが拡張されてもよい。例えば、情報処理装置100は、単語ベクトルと制御ベクトルを結合して、それを通常の単語ベクトルとみなしてもよい。また、情報処理装置100は、種々の制御ベクトルを用いてもよい。例えば、情報処理装置100は、単語ごとに異なる制御ベクトルを用いてもよい。例えば、情報処理装置100は、単語ベクトルごとに異なる制御ベクトルを結合させてもよい。例えば、情報処理装置100は、要約を行う場合、残り文字数に対応する制御ベクトルを用いてもよい。例えば、情報処理装置100は、要約を行う場合、残り何文字残り何文字出力されるかという情報を制御ベクトル(「制御ベクトルCX」とする)として用いてもよい。例えば、情報処理装置100は、単語ベクトルと制御ベクトルCXとを結合させたベクトルを用いて文字列変換処理を行ってもよい。
(1-2. Selection information (control vector))
In the example of FIG. 1, the case where which decoder is used is controlled by the selection information has been described as an example, but the
(1-3.第1種別、第2種別)
図1の例では、第1種別がニュース記事であり、第2種別が子供向け記事である場合を示したが、情報処理装置100は、種々の種別を対象に処理を行ってもよい。第1種別は、第1文字数以上の文字を含む文字情報であり、第2種別は、第1文字数以下の第2文字数未満の文字を含む文字情報であってもよい。例えば、第1種別は、本文(記事本文)であり、第2種別は、要約であってもよい。また、出力を制御する信号は二種類以上あってもよい。
(1-3. 1st type, 2nd type)
In the example of FIG. 1, the case where the first type is a news article and the second type is an article for children is shown, but the
(1-4.3つ以上の種別)
図1の例では、第1種別と第2種別の2つの種別の変換を一例として説明したが、情報処理装置100は、3つ以上の種別の文字情報を相互に変換する変換モデルを学習してもよい。例えば、第1種別を大人向けとし、第2種別を小学生向けとし、第3種別を高校生向けする3つの種別の文字情報を相互に変換する変換モデルを生成してもよい。
(1-4. 3 or more types)
In the example of FIG. 1, the conversion of two types, the first type and the second type, has been described as an example, but the
〔2.情報処理(提供処理)〕
図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。具体的には、図2は、実施形態に係る情報処理のうち、提供処理の一例について説明する。図2では、情報処理装置100は、情報提供装置50から取得した文字情報の種別を変換した変換文字情報を、情報提供装置50へ提供する場合を示す。
[2. Information processing (provided processing)]
An example of information processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of information processing according to an embodiment. Specifically, FIG. 2 describes an example of the provision process among the information processing according to the embodiment. FIG. 2 shows a case where the
まず、情報処理装置100は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する(ステップS21)。図2の例では、情報処理装置100は、第1種別の文字情報である対象文字情報INF21を情報提供装置50から取得する。
First, the
そして、情報処理装置100は、変換モデルを取得する(ステップS22)。図2の例では、情報処理装置100は、モデル情報記憶部123からモデルM1を取得する。そして、情報処理装置100は、モデルM1を用いて、対象文字情報INF21の種別を変換した変換文字情報INF22を生成する。具体的には、情報処理装置100は、第1種別の対象文字情報INF21をモデルM1に入力することにより、第2種別の変換文字情報INF22を生成する。
Then, the
図2の例では、情報処理装置100は、処理群PS1に示すような処理により、変換文字情報INF22を生成する。情報処理装置100は、対象文字情報INF21が第1種別であるため、第2種別を選択する選択情報SSL1を設定する(ステップS23)。また、情報処理装置100は、対象文字情報INF21が第1種別であるため、第1種別を選択する特定情報を設定する。これにより、処理群PS1においては、モデルM1のうち、第2部分モデルM11及び第2部分モデルM14を用いるように制御される。
In the example of FIG. 2, the
そして、情報処理装置100は、対象文字情報INF21をモデルM1に入力する(ステップS24)。情報処理装置100は、対象文字情報INF21である入力情報TIN1を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2種別の変換文字情報INF22である出力情報TOUT1を出力させる。具体的には、情報処理装置100は、対象文字情報INF21を第2部分モデルM11に入力する。そして、情報処理装置100は、第2部分モデルM11が出力した中間情報INT1を第2部分モデルM14に入力する。そして、情報処理装置100は、第2部分モデルM14に変換文字情報INF22を出力させる(ステップS25)。これにより、情報処理装置100は、第1種別の対象文字情報INF21の種別が第2種別に変換された変換文字情報INF22を生成する。
Then, the
そして、情報処理装置100は、変換文字情報INF22を情報提供装置50へ提供する(ステップS26)。図2の例では、情報処理装置100は、変換文字情報INF22を情報提供装置50へ送信する。
Then, the
上述したように、情報処理装置100は、モデルM1を用いて、対象文字情報INF21の種別を第2種別に変換した変換文字情報INF22を提供することにより、文字情報変換に関するサービスを適切に提供することができる。
As described above, the
〔3.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Information processing device configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や情報提供装置50との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、第1種別情報記憶部121と、第2種別情報記憶部122と、モデル情報記憶部123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 4, the storage unit 120 according to the embodiment includes a first-type
(第1種別情報記憶部121)
実施形態に係る第1種別情報記憶部121は、第1種別に関する各種情報を記憶する。図5は、実施形態に係る第1種別情報記憶部の一例を示す図である。例えば、第1種別情報記憶部121は、モデルの生成に用いる第1種別に関する教師データを記憶する。図5に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
(First type information storage unit 121)
The first type
「文字情報ID」は、文字情報を識別するための識別情報を示す。「第1文字情報」は、文字情報IDにより識別される文字情報を示す。図5では「第1文字情報」に「FID11」といった概念的な情報が格納される例を示したが、実際には、具体的な文章等の文字列(文字情報)、または、その格納場所を示すファイルパス名などが格納される。第1文字情報FCH11は、子供向けでない通常の文字情報であれば、どのような文字情報であってもよい。第1文字情報FCH11は、政治や経済に関するニュースやスポーツやエンターテインメントに関するニュース等であってもよい。また、第1文字情報FCH11は、製品の取扱説明書や法令の条文等であってもよい。
The "character information ID" indicates identification information for identifying character information. "First character information" indicates character information identified by the character information ID. In FIG. 5, an example in which conceptual information such as "FID11" is stored in "first character information" is shown, but in reality, a character string (character information) such as a specific sentence or its storage location is shown. The file path name indicating is stored. The first
図5に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示す。 In the example shown in FIG. 5, it is shown that the character information identified by the character information ID "FID11" is the first character information FCH11.
なお、第1種別情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第1種別情報記憶部121は、各文字情報(学習データ)が追加された日時に関する情報を記憶してもよい。また、例えば、第1種別情報記憶部121は、各文字情報が作成された日時等を示す情報を記憶してもよい。また、第1種別情報記憶部121は、各文字情報の種別を特定する情報を記憶してもよい。
The first type
また、第1種別情報記憶部121は、第1種別が第1文字数(例えば200文字)以上の文字を含む文字情報である場合、第1文字情報として、第1文字数以上の文字情報を記憶してもよい。例えば、第1種別情報記憶部121は、第1種別が記事本文である場合、第1文字情報として、記事本文を記憶してもよい。
Further, when the first type is character information including characters of the first character number (for example, 200 characters), the first type
(第2種別情報記憶部122)
実施形態に係る第2種別情報記憶部122は、第2種別に関する各種情報を記憶する。図6は、実施形態に係る第2種別情報記憶部の一例を示す図である。例えば、第2種別情報記憶部122は、モデルの生成に用いる第2種別に関する教師データを記憶する。図6に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
(Type 2 information storage unit 122)
The second type
「文字情報ID」は、文字情報を識別するための識別情報を示す。「第2文字情報」は、文字情報IDにより識別される文字情報を示す。図6では「第2文字情報」に「SID11」といった概念的な情報が格納される例を示したが、実際には、具体的な文章等の文字列(文字情報)、または、その格納場所を示すファイルパス名などが格納される。第2文字情報SCH11は、子供向けの文字情報であれば、どのような文字情報であってもよい。第2文字情報SCH11は、子供向けに作成された文字情報であれば、どのような文字情報であってもよい。第2文字情報SCH11は、子供向けの本の文章等であってもよい。また、第2文字情報SCH11は、子供向けに作成された政治や経済に関するニュースやスポーツやエンターテインメントに関するニュース等であってもよい。 The "character information ID" indicates identification information for identifying character information. "Second character information" indicates character information identified by the character information ID. In FIG. 6, an example in which conceptual information such as "SID11" is stored in "second character information" is shown, but in reality, a character string (character information) such as a specific sentence or its storage location is shown. The file path name indicating is stored. The second character information SCH11 may be any character information as long as it is character information for children. The second character information SCH11 may be any character information as long as it is character information created for children. The second character information SCH11 may be a text of a book for children or the like. Further, the second character information SCH11 may be news on politics and economy created for children, news on sports and entertainment, and the like.
図6に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示す。 In the example shown in FIG. 6, it is shown that the character information identified by the character information ID "SID11" is the second character information SCH11.
なお、第2種別情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第2種別情報記憶部122は、各文字情報(学習データ)が追加された日時に関する情報を記憶してもよい。また、例えば、第2種別情報記憶部122は、各文字情報が作成された日時等を示す情報を記憶してもよい。また、第2種別情報記憶部122は、各文字情報の種別を特定する情報を記憶してもよい。
The second type
また、第2種別情報記憶部122は、第2種別が第2文字数(例えば15文字)未満の文字を含む文字情報である場合、第2文字情報として、第2文字数未満の文字情報を記憶してもよい。例えば、第2種別情報記憶部122は、第2種別が要約である場合、第2文字情報として、要約を記憶してもよい。
Further, when the second type is character information including characters less than the second character number (for example, 15 characters), the second type
(モデル情報記憶部123)
実施形態に係るモデル情報記憶部123は、モデルに関する情報を記憶する。例えば、モデル情報記憶部123は、情報処理により生成されたモデル情報(モデルデータ)を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部123は、「モデルID」、「第1部分モデルID」、「第2部分モデルID」、「用途」、「モデルデータ」といった項目が含まれる。なお、図7では、モデルM1のみを図示するが、モデルM3、M4等の複数のモデル情報が記憶されてもよい。
(Model information storage unit 123)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「第1部分モデルID」は、対応するモデルの第1部分モデルを識別するための識別情報を示す。例えば、部分モデルID「M1-1」により識別される第1部分モデルは、図1の例に示した第1部分モデルM1-1に対応する。 The "model ID" indicates identification information for identifying the model. For example, the model identified by the model ID "M1" corresponds to the model M1 shown in the example of FIG. The "first part model ID" indicates identification information for identifying the first part model of the corresponding model. For example, the first partial model identified by the partial model ID "M1-1" corresponds to the first partial model M1-1 shown in the example of FIG.
「第2部分モデルID」は、対応するモデルの第2部分モデルを識別するための識別情報を示す。「第2部分モデルID」は、対応する第1部分モデルをさらに細分化したモデルを示す。例えば、第2部分モデルID「M11」により識別される部分モデルは、図1の例に示した第2部分モデルM11に対応する。「用途」は、対応する部分モデル(第2部分モデル)の用途を示す。また、「モデルデータ」は、対応する部分モデル(第2部分モデル)のデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 The "second part model ID" indicates identification information for identifying the second part model of the corresponding model. The "second partial model ID" indicates a model in which the corresponding first partial model is further subdivided. For example, the partial model identified by the second partial model ID "M11" corresponds to the second partial model M11 shown in the example of FIG. "Use" indicates the use of the corresponding partial model (second part model). Further, the "model data" indicates the data of the corresponding partial model (second partial model). For example, "model data" includes information including nodes in each layer, functions adopted by each node, connection relationships of the nodes, and connection coefficients set for connections between the nodes.
例えば、図7に示す例において、モデルM1には、第1部分モデルM1-1、M1-2等が含まれることを示す。第1部分モデルM1-1には、第2部分モデルM11、M12が含まれることを示す。第1部分モデルM1-2には、第2部分モデルM13、M14が含まれることを示す。 For example, in the example shown in FIG. 7, it is shown that the model M1 includes the first partial models M1-1, M1-2, and the like. It is shown that the first partial model M1-1 includes the second partial models M11 and M12. It is shown that the first partial model M1-2 includes the second partial models M13 and M14.
また、例えば、第2部分モデルID「M11」により識別されるモデル(第2部分モデルM11)は、用途が「第1文字情報⇒中間情報」であり、入力された第1文字情報からの中間情報の生成に用いられることを示す。すなわち、第2部分モデルM11は、入力された第1文字情報からの特徴の抽出に用いられることを示す。また、第2部分モデルM11のモデルデータは、モデルデータMDT11であることを示す。 Further, for example, the model (second part model M11) identified by the second part model ID "M11" has a purpose of "first character information ⇒ intermediate information" and is intermediate from the input first character information. Indicates that it is used to generate information. That is, it is shown that the second partial model M11 is used for extracting features from the input first character information. Further, it is shown that the model data of the second partial model M11 is the model data MDT11.
また、例えば、第2部分モデルID「M14」により識別されるモデル(第2部分モデルM14)は、用途が「中間情報⇒第2文字情報」であり、中間情報から第2文字情報の生成に用いられることを示す。すなわち、第2部分モデルM14は、抽出された文字情報の特徴を示す情報である中間情報から第2文字情報を生成するために用いられることを示す。また、第2部分モデルM14のモデルデータは、モデルデータMDT14であることを示す。 Further, for example, the model identified by the second part model ID "M14" (second part model M14) has a purpose of "intermediate information ⇒ second character information", and is used for generating second character information from the intermediate information. Indicates that it will be used. That is, it is shown that the second partial model M14 is used to generate the second character information from the intermediate information which is the information indicating the characteristics of the extracted character information. Further, it is shown that the model data of the second partial model M14 is the model data MDT14.
モデルM1(各モデルデータMDT11~MDT14等)は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M1 (each model data MDT11 to MDT14, etc.) is an input layer into which a predetermined type of character information is input, an output layer, and any layer from the input layer to the output layer, other than the output layer. Including the first element belonging to the above and the second element whose value is calculated based on the weights of the first element and the first element, and for the character information input to the input layer, to each layer other than the output layer. A computer is used to output character information converted into a type different from a predetermined type from the output layer by performing an operation based on the first element and the weight of the first element with each element to which it belongs as the first element. It is a model to make it work.
例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 For example, the first element included in the model M1 corresponds to either node of the input layer or the intermediate layer. Further, the second element corresponds to the node of the next stage, which is the node to which the value is transmitted from the node corresponding to the first element. Further, the weight of the first element corresponds to a connection coefficient which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
なお、モデル情報記憶部123は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(学習プログラムや生成プログラム等の情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部123に記憶されているモデルM1等に従った情報処理により、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in a storage device inside the
図4に示すように、制御部130は、取得部131と、学習部132と、生成部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130は、記憶部120に記憶されているモデルM1(各モデルデータMDT11~MDT14等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素とを含み、入力層に入力された所定の種別の文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力する。
As shown in FIG. 4, the control unit 130 includes an
制御部130は、記憶部120に記憶されているモデルM1(モデルデータMDT11~MTD14等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素とを含み、入力層に入力された入力情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報の種別が変換された文字情報を出力層から出力する。なお、モデルM1等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM1等のモデルは、プログラムであってもよい。 The control unit 130 calculates a value based on the first element and the weight of the first element by information processing according to the model M1 (model data MDT11 to MTD14, etc.) stored in the storage unit 120. For input information input to the input layer including elements, input is performed by performing an operation based on the weights of the first element and the first element, with each element belonging to each layer other than the output layer as the first element. The character information in which the type of the converted character information is converted is output from the output layer. The model such as the model M1 may be expected to be used as a program module which is a part of the artificial intelligence software. A model such as model M1 may be a program.
(取得部131)
取得部131は、各種情報を取得する。取得部131は、端末装置10や情報提供装置50等の外部の情報処理装置から各種情報を取得する。取得部131は、第1種別情報記憶部121や第2種別情報記憶部122やモデル情報記憶部123等に示す各種情報を、外部の情報処理装置から取得してもよい。
(Acquisition unit 131)
The
取得部131は、記憶部120から各種情報を取得する。取得部131は、第1種別情報記憶部121や第2種別情報記憶部122やモデル情報記憶部123等から各種情報を取得する。
The
取得部131は、第1種別の文字情報である第1文字情報と、第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する。取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。取得部131は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得する。
The
取得部131は、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得する。取得部131は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。取得部131は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得する。
The
図1の例では、取得部131は、第1文字情報を学習データLD1として取得する。取得部131は、学習データLD1に含まれる第1文字情報を学習データとして追加する。取得部131は、学習データLD1を第1種別情報記憶部121に追加する。取得部131は、第2文字情報を学習データLD2として取得する。取得部131は、学習データLD2に含まれる第2文字情報を学習データとして追加する。取得部131は、学習データLD2を第2種別情報記憶部122に追加する。
In the example of FIG. 1, the
図2の例では、取得部131は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する。取得部131は、第1種別の文字情報である対象文字情報INF21を情報提供装置50から取得する。取得部131は、変換モデルを取得する。取得部131は、モデル情報記憶部123からモデルM1を取得する。
In the example of FIG. 2, the
(学習部132)
学習部132は、各種情報を学習する。学習部132は、学習処理により各種モデルを生成する。例えば、学習部132は、第1種別情報記憶部121や第2種別情報記憶部122等に記憶された情報に基づいて、学習処理を行う。学習部132は、第1種別情報記憶部121や第2種別情報記憶部122等に記憶された情報に基づいて種々のモデルを生成する。
(Learning Department 132)
The learning unit 132 learns various information. The learning unit 132 generates various models by learning processing. For example, the learning unit 132 performs learning processing based on the information stored in the first type
例えば、学習部132は、第1種別情報記憶部121や第2種別情報記憶部122に記憶された学習データを用いて、モデル情報記憶部123に示すようなモデルを生成する。例えば、学習部132は、取得部131により取得された学習データに基づいて、所定の種別の文字情報から所定の種別とは異なる種別に変換された文字情報を生成するために用いるモデルを生成する。学習部132は、モデルを生成し、生成したモデルをモデル情報記憶部123に格納する。具体的には、学習部132は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、文字情報が所定の種別から他の種別に変換された文字情報を出力層から出力するモデルを生成する。
For example, the learning unit 132 uses the learning data stored in the first type
学習部132は、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。 The learning unit 132 uses the first character information as input information, learning using the first character information as correct answer information, second character information as input information, and the second character information as correct answer information. Based on the learning, a conversion model is generated that outputs the converted character information in which the target character information is converted to the second type in response to the input of the target character information of the first type. The learning unit 132 has a coding unit that outputs intermediate information indicating the characteristics of the first character information in response to input of the first character information, and converted character information corresponding to the intermediate information using the intermediate information as input information. Generates a conversion model that includes a decoding unit that outputs.
学習部132は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する。学習部132は、選択情報に対応する種別の文字情報を出力する変換モデルを生成する。学習部132は、学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。 The learning unit 132 has a coding unit that outputs intermediate information indicating the characteristics of the second character information in response to input of the second character information, and a first character corresponding to the intermediate information using the intermediate information as input information. It is a conversion model including a decoding unit that outputs information, and outputs other converted character information in which other target character information is converted to the first type in response to input of other target character information of the second type. Generate a transformation model to do. The learning unit 132 generates a conversion model that outputs character information of the type corresponding to the selection information. The learning unit 132 generates a conversion model by performing a learning process so as to output the learning character information based on the learning type in response to the input of the learning character information.
学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成する。学習部132は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成する。 The learning unit 132 has a first encoder that outputs intermediate information indicating the characteristics of the first character information in response to the input of the first character information, and the learning unit 132 has the second character information in response to the input of the second character information. A conversion model including a coding unit having a second encoder that outputs intermediate information indicating the characteristics is generated. The learning unit 132 generates a conversion model including a decoding unit having a first decoder that outputs the first character information corresponding to the intermediate information and a second decoder that outputs the second character information corresponding to the intermediate information. ..
図1の例では、学習部132は、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等や第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。学習部132は、第1文字情報を用いた学習処理により変換モデルを生成する。学習部132は、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。学習部132は、第1文字情報である入力情報FIN1を入力として、第2部分モデルM11及び第2部分モデルM13を経由して、第1文字情報である出力情報FOUT1を出力する学習を行なう。
In the example of FIG. 1, the learning unit 132 learns the first character information FCH11 to FCH14 and the like in the first type
学習部132は、第1学習FLR1においては、モデルM1の入力とする第1文字情報がモデルM1から出力されるように、学習処理を行う。学習部132は、モデルM1に第1文字情報FCH11が入力された場合、モデルM1から第1文字情報FCH11が出力されるように学習処理を行う。学習部132は、モデルM1に第1文字情報FCH12が入力された場合、モデルM1から第1文字情報FCH12が出力されるように学習処理を行う。
In the first learning FLR1, the learning unit 132 performs a learning process so that the first character information input to the model M1 is output from the model M1. When the first
学習部132は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を第1文字情報のオートエンコーダとして学習処理を行う。学習部132は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。学習部132は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM11及び第2部分モデルM13に第1文字情報が有する特徴を学習させる。学習部132は、モデルM1における出力と、入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。学習部132は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。 In the first learning FLR1, the learning unit 132 performs learning processing using the second partial model M11 and the second partial model M13 as an autoencoder of the first character information. The learning unit 132 performs learning processing by a method such as backpropagation (error back propagation method) so that the character information output by the model M1 approaches the character information input to the model M1. The learning unit 132 corrects the value of the weight (that is, the connection coefficient) considered when the value is transmitted between the nodes, so that the first character information is transmitted to the second part model M11 and the second part model M13. Learn the characteristics they have. The learning unit 132 learns the model M1 by processing such as backpropagation that corrects a parameter (connection coefficient) so that an error between the output and the input in the model M1 is reduced. The learning unit 132 generates the model M1 by performing processing such as backpropagation so as to minimize a predetermined loss function.
学習部132は、第2文字情報を用いた学習処理により変換モデルを生成する。学習部132は、第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。学習部132は、第2文字情報である入力情報SIN1を入力として、第2部分モデルM12及び第2部分モデルM14を経由して、第2文字情報である出力情報SOUT1を出力する学習を行なう。
The learning unit 132 generates a conversion model by a learning process using the second character information. The learning unit 132 generates the model M1 by performing learning using the second character information SCH11 to SCH14 and the like in the second type
学習部132は、第2学習SLR1においては、モデルM1の入力とする第2文字情報がモデルM1から出力されるように、学習処理を行う。学習部132は、モデルM1に第2文字情報SCH11が入力された場合、モデルM1から第2文字情報SCH11が出力されるように学習処理を行う。学習部132は、モデルM1に第2文字情報SCH12が入力された場合、モデルM1から第2文字情報SCH12が出力されるように学習処理を行う。 In the second learning SLR1, the learning unit 132 performs a learning process so that the second character information input to the model M1 is output from the model M1. When the second character information SCH11 is input to the model M1, the learning unit 132 performs a learning process so that the second character information SCH11 is output from the model M1. When the second character information SCH12 is input to the model M1, the learning unit 132 performs a learning process so that the second character information SCH12 is output from the model M1.
学習部132は、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を第2文字情報のオートエンコーダとして学習処理を行う。学習部132は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM12及び第2部分モデルM14に第2文字情報が有する特徴を学習させる。 In the second learning SLR1, the learning unit 132 performs learning processing using the second partial model M12 and the second partial model M14 as an autoencoder of the second character information. The learning unit 132 performs learning processing by a method such as backpropagation so that the character information output by the model M1 approaches the character information input to the model M1. The learning unit 132 corrects the value of the weight (that is, the connection coefficient) considered when the value is transmitted between the nodes, so that the second character information is transmitted to the second part model M12 and the second part model M14. Learn the characteristics they have.
学習部132は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を対象として学習処理を行い、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を対象として学習処理を行う。学習部132は、モデルM1に含まれる各第2部分モデルM11~M14についての学習を行なう。
In the first learning FLR1, the learning unit 132 performs learning processing on the second partial model M11 and the second partial model M13, and in the
(生成部133)
生成部133は、各種情報を生成する。生成部133は、生成処理により各種文字情報を生成する。例えば、生成部133は、モデル情報記憶部123等に記憶された情報に基づいて、生成処理を行う。学習部132は、モデル情報記憶部123に記憶されたモデルを用いて、文字情報を生成する。
(Generation unit 133)
The generation unit 133 generates various information. The generation unit 133 generates various character information by the generation process. For example, the generation unit 133 performs a generation process based on the information stored in the model
生成部133は、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する。生成部133は、他の対象文字情報を変換モデルに入力することにより、他の対象文字情報が第1種別に変換された他の変換文字情報を生成する。生成部133は、選択情報を変換モデルに入力することにより、選択情報に対応する種別の文字情報を生成する。生成部133は、対象文字情報と選択情報とを変換モデルに入力することにより、対象文字情報が他方の種別に変換された変換文字情報を生成する。 The generation unit 133 generates the converted character information in which the target character information is converted into the second type by inputting the target character information into the conversion model. By inputting other target character information into the conversion model, the generation unit 133 generates other converted character information in which the other target character information is converted into the first type. The generation unit 133 generates character information of the type corresponding to the selection information by inputting the selection information into the conversion model. The generation unit 133 generates the converted character information in which the target character information is converted into the other type by inputting the target character information and the selection information into the conversion model.
図2の例では、生成部133は、モデルM1を用いて、対象文字情報INF21の種別を変換した変換文字情報INF22を生成する。生成部133は、第1種別の対象文字情報INF21をモデルM1に入力することにより、第2種別の変換文字情報INF22を生成する。生成部133は、処理群PS1に示すような処理により、変換文字情報INF22を生成する。生成部133は、対象文字情報INF21が第1種別であるため、第2種別を選択する選択情報SSL1を設定する。生成部133は、対象文字情報INF21が第1種別であるため、第1種別を選択する特定情報を設定する。 In the example of FIG. 2, the generation unit 133 uses the model M1 to generate the converted character information INF22 obtained by converting the type of the target character information INF21. The generation unit 133 generates the conversion character information INF22 of the second type by inputting the target character information INF21 of the first type into the model M1. The generation unit 133 generates the converted character information INF22 by the processing as shown in the processing group PS1. Since the target character information INF21 is the first type, the generation unit 133 sets the selection information SSL1 for selecting the second type. Since the target character information INF21 is the first type, the generation unit 133 sets specific information for selecting the first type.
生成部133は、対象文字情報INF21をモデルM1に入力する。生成部133は、対象文字情報INF21である入力情報TIN1を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2種別の変換文字情報INF22である出力情報TOUT1を出力させる。生成部133は、対象文字情報INF21を第2部分モデルM11に入力する。生成部133は、第2部分モデルM11が出力した中間情報INT1を第2部分モデルM14に入力する。生成部133は、第2部分モデルM14に変換文字情報INF22を出力させる。生成部133は、第1種別の対象文字情報INF21の種別が第2種別に変換された変換文字情報INF22を生成する。 The generation unit 133 inputs the target character information INF21 into the model M1. The generation unit 133 receives the input information TIN1 which is the target character information INF21 as an input, and outputs the output information TOUT1 which is the conversion character information INF22 of the second type via the second partial model M11 and the second partial model M14. .. The generation unit 133 inputs the target character information INF21 to the second partial model M11. The generation unit 133 inputs the intermediate information INT1 output by the second partial model M11 to the second partial model M14. The generation unit 133 causes the second partial model M14 to output the converted character information INF22. The generation unit 133 generates the converted character information INF22 in which the type of the target character information INF21 of the first type is converted into the second type.
(提供部134)
提供部134は、各種情報を提供する。例えば、提供部134は、端末装置10や情報提供装置50に各種情報を提供する。提供部134は、端末装置10や情報提供装置50に各種情報を送信する。提供部134は、端末装置10や情報提供装置50に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、学習部132により学習された各種情報に基づいて、種々の情報を提供する。提供部134は、学習部132により学習されたモデルに基づいて、種々の情報を提供する。提供部134は、生成部133により生成された各種情報に基づいて、種々の情報を提供する。提供部134は、生成部133により生成された変換文字情報に基づいて、種々の情報を提供する。
(Providing section 134)
The providing unit 134 provides various information. For example, the providing unit 134 provides various information to the
図2の例では、提供部134は、変換文字情報INF22を情報提供装置50へ提供する。提供部134は、変換文字情報INF22を情報提供装置50へ送信する。提供部134は、変換文字情報を用いたコンテンツ配信サービスを提供する。提供部134は、変換文字情報を用いた広告配信サービスを提供する。
In the example of FIG. 2, the providing unit 134 provides the converted character information INF 22 to the
〔4.情報処理(学習処理)のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理のうち、学習処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。
[4. Information processing (learning process) flow]
Next, the procedure of the learning process in the information processing by the
図8に示すように、情報処理装置100は、第1種別の第1文字情報を取得する(ステップS101)。例えば、情報処理装置100は、第1種別情報記憶部121から第1文字情報を学習データとして取得する。
As shown in FIG. 8, the
その後、情報処理装置100は、第1文字情報を入力情報とするとともに、第1文字情報を正解情報として変換モデルを学習する(ステップS102)。例えば、情報処理装置100は、第1種別情報記憶部121に記憶された第1文字情報を用いて変換モデルを学習する。
After that, the
また、情報処理装置100は、第2種別の第2文字情報を取得する(ステップS103)。例えば、情報処理装置100は、第2種別情報記憶部122から第2文字情報を学習データとして取得する。
Further, the
その後、情報処理装置100は、第2文字情報を入力情報とするとともに、第2文字情報を正解情報として変換モデルを学習する(ステップS102)。図1の例では、情報処理装置100は、第1種別情報記憶部121に記憶された第2文字情報を用いて変換モデルを学習する。
After that, the
〔5.情報処理(生成処理)のフロー〕
次に、図9を用いて、実施形態に係る情報処理システム1による情報処理のうち、生成処理(変換処理)の手順について説明する。図9は、実施形態に係る情報処理の一例を示すフローチャートである。
[5. Information processing (generation processing) flow]
Next, the procedure of the generation process (conversion process) in the information processing by the
図9に示すように、情報処理装置100は、変換モデルを取得する(ステップS201)。また、情報処理装置100は、第1種別の対象文字情報を取得する(ステップS202)。そして、情報処理装置100は、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する(ステップS203)。情報処理装置100は、変換文字情報に基づいてサービスを提供する(ステップS204)。
As shown in FIG. 9, the
〔6.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる態様にて実施されてもよい。以下では、上記の情報処理システム1の他の実施形態について説明する。なお、上述した実施形態と同様の点については同様の符号を付す等して適宜説明を省略する。例えば、実施形態に係る情報処理システム1と変形例における情報処理システム(図示省略)とは、情報処理装置100と情報処理装置100Aとの相違以外は同様の構成である。以下、情報処理装置100Aによる情報処理について説明する。
[6. Modification example]
The
〔6-1.情報処理(学習処理)〕
まず、図10を用いて、変形例に係る情報処理システムにおける推定処理について説明する。図10は、変形例に係る情報処理の一例を示す図である。具体的には、図10は、実施形態に係る情報処理のうち、学習処理の一例について説明する。図1では、情報処理装置100Aが第1文字情報と、第2文字情報とに基づいて、第1種別の文字情報の種別を第2種別に変換する変換モデルの生成を行う場合を示す。
[6-1. Information processing (learning process)]
First, the estimation process in the information processing system according to the modified example will be described with reference to FIG. FIG. 10 is a diagram showing an example of information processing according to a modified example. Specifically, FIG. 10 describes an example of learning processing among the information processing according to the embodiment. FIG. 1 shows a case where the
まず、情報処理装置100Aは、第1文字情報を学習データLD1として取得する(ステップS51)。そして、情報処理装置100Aは、ステップS51で取得した学習データLD1に含まれる第1文字情報を学習データとして追加する(ステップS52)。具体的には、情報処理装置100Aは、学習データLD1を第1種別情報記憶部121に追加する。
First, the
図10に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
The first type
図10の第1種別情報記憶部121中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図10の第1種別情報記憶部121中の「第1文字情報」は、文字情報IDにより識別される文字情報を示す。
The "character information ID" in the first type
図10に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示し、文字情報ID「FID12」により識別される文字情報は、第1文字情報FCH12であることを示す。また、文字情報ID「FID13」により識別される文字情報は、第1文字情報FCH13であることを示し、文字情報ID「FID14」により識別される文字情報は、第1文字情報FCH14であることを示す。第1文字情報FCH11~FCH14等は、子供向けではない一般的なニュース(以下「通常ニュース」ともいう)等や通常のコンテンツ配信等で配信される文字情報等であれば、どのような文字情報であってもよい。例えば、第1文字情報FCH11~FCH14等は、政治や経済に関する通常ニュースやスポーツやエンターテインメントに関する通常ニュース等であってもよい。 In the example shown in FIG. 10, the character information identified by the character information ID "FID11" indicates that it is the first character information FCH11, and the character information identified by the character information ID "FID12" is the first character information. Indicates that it is FCH12. Further, the character information identified by the character information ID "FID13" indicates that it is the first character information FCH13, and the character information identified by the character information ID "FID14" is the first character information FCH14. show. The first character information FCH11 to FCH14, etc. is any character information as long as it is general news not for children (hereinafter, also referred to as "normal news") or character information distributed by ordinary content distribution. May be. For example, the first character information FCH11 to FCH14 and the like may be ordinary news about politics and economy, ordinary news about sports and entertainment, and the like.
また、情報処理装置100Aは、第2文字情報を学習データLD2として取得する(ステップS53)。そして、情報処理装置100Aは、ステップS53で取得した学習データLD2に含まれる第2文字情報を学習データとして追加する(ステップS54)。具体的には、情報処理装置100Aは、学習データLD2を第2種別情報記憶部122に追加する。
Further, the
図10に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
The second type
図10の第2種別情報記憶部122中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図10の第2種別情報記憶部122中の「第2文字情報」は、文字情報IDにより識別される文字情報を示す。
The "character information ID" in the second type
図10に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示し、文字情報ID「SID12」により識別される文字情報は、第2文字情報SCH12であることを示す。また、文字情報ID「SID13」により識別される文字情報は、第2文字情報SCH13であることを示し、文字情報ID「SID14」により識別される文字情報は、第2文字情報SCH14であることを示す。第2文字情報SCH11~SCH14等は、子供向けに作成されたニュース(以下「子供向けニュース」ともいう)等の文字情報であれば、どのような文字情報であってもよい。例えば、第2文字情報SCH11~SCH14等は、子供向けに作成された子供向けニュースやスポーツやエンターテインメントに関する子供向けニュース等であってもよい。 In the example shown in FIG. 10, the character information identified by the character information ID "SID11" indicates that it is the second character information SCH11, and the character information identified by the character information ID "SID12" is the second character information. Indicates that it is SCH12. Further, the character information identified by the character information ID "SID13" indicates that it is the second character information SCH13, and the character information identified by the character information ID "SID14" is the second character information SCH14. show. The second character information SCH11 to SCH14 and the like may be any character information as long as it is character information such as news created for children (hereinafter, also referred to as "news for children"). For example, the second character information SCH11 to SCH14 and the like may be children's news created for children, children's news about sports and entertainment, and the like.
そして、情報処理装置100Aは、学習データに基づく学習処理によりモデルを生成する。例えば、情報処理装置100Aは、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等や第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。なお、第1文字情報FCH11~FCH14等と第2種別情報記憶部122中の第2文字情報SCH11~SCH14等との間には、対応関係はないものとする。例えば、第1文字情報FCH11~FCH14等及び第2種別情報記憶部122中の第2文字情報SCH11~SCH14等は、各々が異なる内容のニュースであるものとする。
Then, the
まず、情報処理装置100Aが生成する変換モデル(学習器)について簡単に説明する。図10の例では、モデル情報記憶部123A中のモデルM2は、構造情報ARC2に示すようなアーキテクチャのモデルである。図10の例において、情報処理装置100Aが生成する変換モデルであるモデルM2は、複数の部分モデルM21、M22等を含むモデルである。
First, a conversion model (learner) generated by the
上記のように、「部分モデルM*(*は任意の数値)」と記載した場合、その部分モデルは部分モデルID「M*」により識別されるモデルであることを示す。例えば、「部分モデルM21」と記載した場合、その部分モデルは部分モデルID「M21」により識別されるモデルである。 As described above, when "partial model M * (* is an arbitrary numerical value)" is described, it means that the partial model is a model identified by the partial model ID "M *". For example, when the description is described as "partial model M21", the partial model is a model identified by the partial model ID "M21".
部分モデルM21は、符号化部であり、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出する符号化器(エンコーダ)に対応する。図10に示すように、部分モデルM21は、入力情報IN2を入力として、中間情報INT2を出力するモデルに対応する。部分モデルM21は、第1文字情報や第2文字情報が入力情報IN2として入力され、中間情報INT2を出力するモデルに対応する。すなわち、部分モデルM21には、第1文字情報や第2文字情報を入力とするエンコーダである。部分モデルM21は、入力された第1文字情報や第2文字情報の次元量を圧縮することで入力された第1文字情報や第2文字情報が有する特徴を抽出する。部分モデルM21は、図10中の中間情報INT2として、第1文字情報の次元量が圧縮された第1文字情報や第2文字情報が有する特徴を示す中間情報を出力する。例えば、図10中の中間情報INT2は、入力情報の特徴を示す中間出力(符号化ベクトル等)であり、例えば、分散表現や実数値ベクトルであってもよい。例えば、中間情報INT2は、モデルM2に入力された文字情報の意味(概念)に関する情報が含まれる。 The partial model M21 is a coding unit, and corresponds to an encoder that extracts the features of the input information by compressing the dimensional amount of the input information. As shown in FIG. 10, the partial model M21 corresponds to a model in which the input information IN2 is input and the intermediate information INT2 is output. The partial model M21 corresponds to a model in which first character information and second character information are input as input information IN2 and intermediate information INT2 is output. That is, the partial model M21 is an encoder that inputs the first character information and the second character information. The partial model M21 extracts the features of the input first character information and the second character information by compressing the dimensional amount of the input first character information and the second character information. The partial model M21 outputs, as the intermediate information INT2 in FIG. 10, intermediate information indicating the characteristics of the first character information and the second character information in which the dimension amount of the first character information is compressed. For example, the intermediate information INT2 in FIG. 10 is an intermediate output (encoded vector or the like) showing the characteristics of the input information, and may be, for example, a distributed representation or a real value vector. For example, the intermediate information INT2 includes information regarding the meaning (concept) of the character information input to the model M2.
部分モデルM22は、復号化部であり、エンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(デコーダ)に対応する。すなわち、部分モデルM22は、エンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、第2種別の文字情報を出力するデコーダに対応する。図10に示すように、部分モデルM22は、中間情報INT2を入力として、出力情報OUT2を出力するモデルに対応する。すなわち、部分モデルM22は、中間情報を入力とするデコーダである。部分モデルM22は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第2文字情報を生成する。部分モデルM22は、図10中の出力情報OUT2として、入力された中間情報に対応する第2文字情報を出力する。 The partial model M22 is a decoding unit, and corresponds to a decoder (decoder) that increases the dimensional amount of the feature extracted by the encoder and outputs character information of a predetermined type. That is, the partial model M22 corresponds to a decoder that takes the intermediate information output by the encoder as an input, increases the dimensional amount of the input intermediate information, and outputs the second type of character information. As shown in FIG. 10, the partial model M22 corresponds to a model in which the intermediate information INT2 is input and the output information OUT2 is output. That is, the partial model M22 is a decoder that inputs intermediate information. The partial model M22 generates the second character information corresponding to the input intermediate information by increasing the dimension amount of the input intermediate information. The partial model M22 outputs the second character information corresponding to the input intermediate information as the output information OUT2 in FIG.
また、モデルM2は、学習時に入力される文字情報の種別を示す種別情報(制御ベクトル)を受け付ける。モデルM2は、入力される文字情報の種別を選択する種別情報TL2が入力される。すなわち、モデルM2は、種別情報TL2に応じて、入力された文字情報の種別を特定し、その種別に応じた学習を行なう機能を有する。例えば、モデルM2は、種別情報を受け付け、部分モデルM22に種別情報に応じた学習を行なわせる機能を有する。例えば、モデルM2は、所定のスイッチング機能(切り替え機能)により、部分モデルM22に、種別情報TL2に応じた学習処理を行わせる。 Further, the model M2 receives the type information (control vector) indicating the type of the character information input at the time of learning. In the model M2, the type information TL2 for selecting the type of the character information to be input is input. That is, the model M2 has a function of specifying the type of the input character information according to the type information TL2 and performing learning according to the type. For example, the model M2 has a function of accepting type information and causing the partial model M22 to perform learning according to the type information. For example, the model M2 causes the partial model M22 to perform learning processing according to the type information TL2 by a predetermined switching function (switching function).
例えば、部分モデルM22は、種別情報が「第1種別」を示す情報である場合、部分モデルM22に第1種別に対応する学習を行なわせる。例えば、モデルM2は、部分モデルM22に、種別情報TL2が第1種別の場合は、強化学習等の学習処理を行わせる。例えば、部分モデルM22は、種別情報が「第2種別」を示す情報である場合、第2部分モデルM24に中間情報を入力すると決定する。例えば、モデルM2は、部分モデルM22に、種別情報TL2が第2種別の場合は、入力情報を復号するようにオートエンコーダとして学習処理を行わせる。なお、上記は一例であり、情報処理装置100Aは、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, in the partial model M22, when the type information is information indicating "first type", the partial model M22 is made to perform learning corresponding to the first type. For example, the model M2 causes the partial model M22 to perform learning processing such as reinforcement learning when the type information TL2 is the first type. For example, the partial model M22 determines that intermediate information is input to the second partial model M24 when the type information is information indicating "second type". For example, the model M2 causes the partial model M22 to perform learning processing as an autoencoder so as to decode the input information when the type information TL2 is the second type. The above is an example, and the
また、図10の例では、情報処理装置100Aは、構造情報ARC2に示すように、モデルM5を用いて、学習処理を行う。
Further, in the example of FIG. 10, the
モデルM5は、モデルM2以外の他の復号化部であり、モデルM2のエンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(デコーダに対応する。すなわち、モデルM5は、モデルM2のエンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、モデルM2のエンコーダに入力された文字情報を出力するデコーダに対応する。図10に示すように、モデルM5は、モデルM2のエンコーダが出力する中間情報INT2を入力として、学習用情報OUT5を出力するモデルに対応する。すなわち、モデルM5は、中間情報を入力とするデコーダである。モデルM5は、入力された中間情報の次元量を増大させることで、入力された中間情報の基となった文字情報を生成(復号)する。モデルM5は、図10中の学習用情報OUT5として、入力された中間情報に対応する文字情報を出力する。なお、モデルM5はモデルM2に含まれてもよい。 The model M5 is a decoding unit other than the model M2, and is a decoder (corresponding to a decoder) that increases the dimensional amount of the feature extracted by the encoder of the model M2 and outputs a predetermined type of character information. The model M5 corresponds to a decoder that takes the intermediate information output by the encoder of the model M2 as an input, increases the dimensional amount of the input intermediate information, and outputs the character information input to the encoder of the model M2. As shown in 10, the model M5 corresponds to a model that outputs the learning information OUT5 by using the intermediate information INT2 output by the encoder of the model M2 as an input. That is, the model M5 is a decoder that inputs the intermediate information. The model M5 generates (decodes) the character information that is the basis of the input intermediate information by increasing the dimension amount of the input intermediate information. The model M5 is the learning information in FIG. As OUT5, the character information corresponding to the input intermediate information is output. The model M5 may be included in the model M2.
なお、エンコーダおよびデコーダは、単純に入力された情報量の次元数を変化させるニューラルネットワークのみならず、GRUやLSTMを始めとするRNN等といった種々のニューラルネットワークが採用可能である。 As the encoder and decoder, not only a neural network that simply changes the number of dimensions of the input information amount, but also various neural networks such as RNN such as GRU and LSTM can be adopted.
情報処理装置100Aは、第1文字情報を用いた学習処理により変換モデルを生成する(ステップS55)。情報処理装置100Aは、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。図10では、第1学習FLR2に示すように、第1種別を選択する種別情報FTL2が設定される。これにより、第1学習FLR2においては、モデルM2は、部分モデルM22について第1種別に対応する学習を行なうように制御される。そして、情報処理装置100Aは、第1文字情報である入力情報FIN2を入力として、入力情報FIN2に対応する第2文字情報である出力情報FOUT2を出力する学習を行なう。
The
情報処理装置100Aは、第1学習FLR2においては、モデルM2の入力とする第1文字情報が第2種別に変換された第2文字情報がモデルM2から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM2から第1文字情報FCH11に対応する第2種別の文字情報が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM2から第1文字情報FCH12に対応する第2種別の文字情報が出力されるように学習処理を行う。
In the first learning FLR2, the
例えば、情報処理装置100Aは、第1学習FLR2においては、出力情報FOUT2に含まれる子供向けの用語(以下「子供用語」とする)が多くなるように学習処理を行う。例えば、子供用語は、子供向けの記事に特徴的な単語等であってもよい。例えば、情報処理装置100Aは、子供向け記事に用いられる子供用語の一覧情報等を用いて、出力情報FOUT2のスコアを算出し、そのスコアが高くなるように学習してもよい。例えば、情報処理装置100Aは、出力情報FOUT2に含まれる子供用語の割合が多い程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。例えば、情報処理装置100Aは、出力情報FOUT2のスコアが高くなるようにバックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行ってもよい。これにより、情報処理装置100Aは、モデルM2について学習処理を行うことができる。なお、情報処理装置100Aは、上記に限らず、種々の情報を適宜用いて学習を行なってもよい。
For example, the
例えば、情報処理装置100Aは、ニュース記事と子供向け記事を分類する分類モデル(以下「分類モデルMX」ともいう)が出力する情報を用いてもよい。例えば、情報処理装置100Aは、分類モデルMXが出力するスコアを用いてもよい。分類モデルMXは、ニュース記事と子供向け記事を分類するモデルであれば、どのようなモデルであってもよく、例えばSVM(Support Vector Machine)等種々の態様であってもよい。ここで、分類モデルMXは、子供向け記事が入力された場合に高いスコアを出力し、通常のニュース記事が入力された場合に低いスコアを出力するように学習されたモデルであるものとする。この場合、情報処理装置100Aは、出力情報FOUT2を分類モデルMXに入力し、分類モデルMXが出力するスコアが高くなるように学習を行なってもよい。
For example, the
また、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、文字数を評価基準とした強化学習を行なってもよい。例えば、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、出力情報FOUT2の文字数が所定の閾値(例えば「20」等)よりも少なくなるように、学習を行なってもよい。例えば、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、出力情報FOUT2の文字数が少ない程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。
Further, in the
また、情報処理装置100Aは、第1学習FLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第1文字情報がモデルM5から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM5から第1文字情報FCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM5から第1文字情報FCH12が出力されるように学習処理を行う。
Further, the
例えば、情報処理装置100Aは、第1学習FLR2においては、モデルM2の部分モデルM21及びモデルM5を第1文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第1文字情報が有する特徴を学習させる。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第1文字情報が有する特徴を学習させる。このように、情報処理装置100Aは、モデルM5における出力と、モデルM2における入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により学習することによりモデルM2及びモデルM5を生成する。例えば、情報処理装置100Aは、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM2及びモデルM5を生成する。これにより、情報処理装置100Aは、第1文字情報のみを用いてモデルM2及びモデルM5について学習処理を行うことができる。
For example, in the first learning FLR2, the
また、情報処理装置100Aは、第2文字情報を用いた学習処理により変換モデルを生成する(ステップS56)。情報処理装置100Aは、第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。図10では、第2学習SLR2に示すように、第2種別を選択する種別情報STL2が設定される。これにより、第2学習SLR2においては、モデルM2は、部分モデルM22について第2種別に対応する学習を行なうように制御される。そして、情報処理装置100Aは、第2文字情報である入力情報SIN2を入力として、第2文字情報である出力情報SOUT2を出力する学習を行なう。
Further, the
情報処理装置100Aは、第2学習SLR2においては、モデルM2の入力とする第2文字情報がモデルM2から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
In the second learning SLR2, the
例えば、情報処理装置100Aは、第2学習SLR2においては、部分モデルM21及び部分モデルM22を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM2が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、部分モデルM21及び部分モデルM22に第2文字情報が有する特徴を学習させる。これにより、情報処理装置100Aは、モデルM2について学習処理を行うことができる。
For example, in the second learning SLR2, the
また、情報処理装置100Aは、第2学習SLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第2文字情報がモデルM5から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
Further, the
例えば、情報処理装置100Aは、第2学習SLR2においては、モデルM2の部分モデルM21及びモデルM5を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第2文字情報が有する特徴を学習させる。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第2文字情報が有する特徴を学習させる。このように、情報処理装置100Aは、モデルM5における出力と、モデルM2における入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により学習することによりモデルM2及びモデルM5を生成する。例えば、情報処理装置100Aは、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM2及びモデルM5を生成する。これにより、情報処理装置100Aは、第2文字情報のみを用いてモデルM2及びモデルM5について学習処理を行うことができる。
For example, in the second learning SLR2, the
このように、情報処理装置100Aは、第1学習FLR2においては、入力された第1種別の文字情報を第2種別に変換して出力するように学習処理を行い、第2学習SLR2においては、入力された第2種別の文字情報を出力するように学習処理を行う。これにより、情報処理装置100Aは、モデルM2が第2種別の文字情報を出力するように学習を行なうことができる。
As described above, the
上述のように、情報処理装置100Aは、第1文字情報を用いた学習処理と第2文字情報を用いた学習処理とを行うことにより、第1文字情報と第2文字情報とが対応づけられた学習データ(教師データ)が無い場合であっても、適切に学習処理を行うことができる。すなわち、情報処理装置100Aは、第1種別の文字情報と第2種別の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題を解決することができる。そして、情報処理装置100Aは、学習したモデルを用いて第1文字情報の種別を第2種別に変換することにより、適切に文字情報の種別の変換を行い、種々のサービスを行うことができる。
As described above, the
〔6-2.情報処理(提供処理)〕
図11を用いて、変形例に係る情報処理の一例について説明する。図11は、変形例に係る情報処理の一例を示す図である。具体的には、図11は、変形例に係る情報処理のうち、提供処理の一例について説明する。図11では、情報処理装置100Aは、情報提供装置50から取得した文字情報の種別を変換した変換文字情報を、情報提供装置50へ提供する場合を示す。
[6-2. Information processing (provided processing)]
An example of information processing according to a modified example will be described with reference to FIG. FIG. 11 is a diagram showing an example of information processing according to a modified example. Specifically, FIG. 11 describes an example of the provision process among the information processing related to the modified example. FIG. 11 shows a case where the
まず、情報処理装置100Aは、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する(ステップS61)。図11の例では、情報処理装置100Aは、第1種別の文字情報である対象文字情報INF51を情報提供装置50から取得する。
First, the
そして、情報処理装置100Aは、変換モデルを取得する(ステップS62)。図11の例では、情報処理装置100Aは、モデル情報記憶部123AからモデルM2を取得する。なお、情報処理装置100Aは、学習時のみに必要であるモデルM5を取得しない。そして、情報処理装置100Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を生成する。具体的には、情報処理装置100Aは、第1種別の対象文字情報INF51をモデルM2に入力することにより、第2種別の変換文字情報INF52を生成する。
Then, the
図11の例では、情報処理装置100Aは、処理群PS2に示すような処理により、変換文字情報INF52を生成する。情報処理装置100Aは、対象文字情報INF51をモデルM2に入力する(ステップS63)。情報処理装置100Aは、対象文字情報INF51である入力情報TIN2をモデルM2に入力し、モデルM2から第2種別の変換文字情報INF52である出力情報TOUT2を出力させる。具体的には、情報処理装置100Aは、対象文字情報INF51を部分モデルM21に入力する。そして、情報処理装置100Aは、部分モデルM21が出力した中間情報INT2を部分モデルM22に入力する。そして、情報処理装置100Aは、部分モデルM22に変換文字情報INF52を出力させる(ステップS64)。これにより、情報処理装置100Aは、第1種別の対象文字情報INF51の種別が第2種別に変換された変換文字情報INF52を生成する。
In the example of FIG. 11, the
そして、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ提供する(ステップS65)。図11の例では、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ送信する。
Then, the
上述したように、情報処理装置100Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を提供することにより、文字情報変換に関するサービスを適切に提供することができる。
As described above, the
〔6-3.情報処理装置の構成〕
次に、図12を用いて、変形例に係る情報処理装置100Aの構成について説明する。図12は、変形例に係る情報処理装置100Aの構成例を示す図である。図12に示すように、情報処理装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、情報処理装置100Aについては、実施形態に係る情報処理装置100と同様の点については、適宜説明を省略する。
[6-3. Information processing device configuration]
Next, the configuration of the
(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図11に示すように、第1種別情報記憶部121と、第2種別情報記憶部122と、モデル情報記憶部123Aとを有する。
(Memory unit 120A)
The storage unit 120A is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 11, the storage unit 120A according to the modified example has a first-type
(モデル情報記憶部123A)
変形例に係るモデル情報記憶部123Aは、モデルに関する情報を記憶する。例えば、モデル情報記憶部123Aは、情報処理により生成されたモデル情報(モデルデータ)を記憶する。図13は、変形例に係るモデル情報記憶部の一例を示す図である。図13に示すモデル情報記憶部123Aは、「モデルID」、「部分モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M2」により識別されるモデルは、図10の例に示したモデルM2に対応する。「部分モデルID」は、対応するモデルの部分モデルを識別するための識別情報を示す。例えば、部分モデルID「M21」により識別される部分モデルは、図10の例に示した部分モデルM21に対応する。「用途」は、対応する部分モデルの用途を示す。また、「モデルデータ」は、対応する部分モデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 The "model ID" indicates identification information for identifying the model. For example, the model identified by the model ID "M2" corresponds to the model M2 shown in the example of FIG. The "partial model ID" indicates identification information for identifying a partial model of the corresponding model. For example, the partial model identified by the partial model ID "M21" corresponds to the partial model M21 shown in the example of FIG. "Use" indicates the use of the corresponding partial model. Further, "model data" indicates data of the corresponding partial model. For example, "model data" includes information including nodes in each layer, functions adopted by each node, connection relationships of the nodes, and connection coefficients set for connections between the nodes.
例えば、図13に示す例において、モデルM2には、部分モデルM21、M22等が含まれることを示す。また、例えば、部分モデルID「M21」により識別されるモデル(部分モデルM21)は、用途が「文字情報⇒中間情報」であり、入力された文字情報からの中間情報の生成に用いられることを示す。すなわち、部分モデルM21は、入力された文字情報からの特徴の抽出に用いられることを示す。また、部分モデルM21のモデルデータは、モデルデータMDT21であることを示す。 For example, in the example shown in FIG. 13, it is shown that the model M2 includes the partial models M21, M22, and the like. Further, for example, the model (partial model M21) identified by the partial model ID "M21" has a purpose of "character information ⇒ intermediate information" and is used to generate intermediate information from the input character information. show. That is, it is shown that the partial model M21 is used for extracting features from the input character information. Further, it is shown that the model data of the partial model M21 is the model data MDT21.
また、例えば、部分モデルID「M22」により識別されるモデル(部分モデルM22)は、用途が「中間情報⇒第2文字情報」であり、中間情報から第2文字情報の生成に用いられることを示す。すなわち、部分モデルM22は、抽出された文字情報の特徴を示す情報である中間情報から第2文字情報を生成するために用いられることを示す。また、部分モデルM22のモデルデータは、モデルデータMDT22であることを示す。 Further, for example, the model (partial model M22) identified by the partial model ID "M22" has a purpose of "intermediate information ⇒ second character information" and is used to generate second character information from the intermediate information. show. That is, it is shown that the partial model M22 is used to generate the second character information from the intermediate information which is the information indicating the characteristics of the extracted character information. Further, it is shown that the model data of the partial model M22 is the model data MDT22.
モデルM2(各モデルデータMDT21、MDT22等)は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報に対応する第2種別の文字情報を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M2 (each model data MDT21, MDT22, etc.) is an input layer into which a predetermined type of character information is input, an output layer, and any layer from the input layer to the output layer, which is a layer other than the output layer. A first element belonging to the above and a second element whose value is calculated based on the weights of the first element and the first element are included, and the character information input to the input layer is applied to each layer other than the output layer. A computer so as to output the second type of character information corresponding to the input character information from the output layer by performing an operation based on the first element and the weight of the first element with each element to which it belongs as the first element. It is a model to make it work.
例えば、モデルM2が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 For example, the first element included in the model M2 corresponds to either node of the input layer or the intermediate layer. Further, the second element corresponds to the node of the next stage, which is the node to which the value is transmitted from the node corresponding to the first element. Further, the weight of the first element corresponds to a connection coefficient which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
例えば、モデルID「M5」により識別されるモデルは、図10の例に示したモデルM5に対応する。図10では、モデルM5には、部分モデルはないことを示す。モデルM5は、用途が「中間情報⇒文字情報復号」であり、中間情報からその中間情報の生成基となった文字情報を復号するために用いられることを示す。すなわち、モデルM5は、モデルM2の部分モデルM21が生成した中間情報を入力として、中間情報から部分モデルM21に入力された文字情報を復号するに用いられることを示す。また、モデルM5のモデルデータは、モデルデータMDT5であることを示す。 For example, the model identified by the model ID "M5" corresponds to the model M5 shown in the example of FIG. FIG. 10 shows that model M5 does not have a partial model. The model M5 shows that the purpose is "intermediate information ⇒ character information decoding", and it is used to decode the character information that is the generation base of the intermediate information from the intermediate information. That is, it is shown that the model M5 is used to decode the character information input to the partial model M21 from the intermediate information by using the intermediate information generated by the partial model M21 of the model M2 as an input. Further, it is shown that the model data of the model M5 is the model data MDT5.
なお、モデル情報記憶部123Aは、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130A)
図4の説明に戻って、制御部130Aは、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100A内部の記憶装置に記憶されている各種プログラム(学習プログラムや生成プログラム等の情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130Aは、モデル情報記憶部123Aに記憶されているモデルM2等に従った情報処理により、第1種別の第1文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第1文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、第1文字情報が第2種別に変換された文字情報を出力層から出力する。
(Control unit 130A)
Returning to the description of FIG. 4, the control unit 130A is a controller, and is stored in a storage device inside the
図4に示すように、制御部130Aは、取得部131と、学習部132Aと、生成部133Aと、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130Aの内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130Aは、記憶部120Aに記憶されているモデルM2(モデルデータMDT21、MTD22等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された、第1種別の第1文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、第1文字情報が第2種別に変換された文字情報を出力層から出力する。
As shown in FIG. 4, the control unit 130A has an
制御部130Aは、記憶部120Aに記憶されているモデルM2(モデルデータMDT21、MTD22等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報の種別が第2種別に変換された文字情報を出力層から出力する。なお、モデルM2等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM2等のモデルは、プログラムであってもよい。 The second control unit 130A calculates a value based on the first element and the weight of the first element by information processing according to the model M2 (model data MDT21, MTD22, etc.) stored in the storage unit 120A. By performing an operation based on the first element and the weight of the first element with each element belonging to each layer other than the output layer as the first element for the character information including the element and input to the input layer. The character information in which the type of the input character information is converted to the second type is output from the output layer. The model such as model M2 may be expected to be used as a program module which is a part of artificial intelligence software. A model such as model M2 may be a program.
(取得部131)
変形例に係る取得部131は、実施形態に係る取得部131と同様の処理を行う。取得部131は、実施形態に係る取得部131と同様に種々の情報を取得する。例えば、取得部131は、変換モデルに入力する学習文字情報を取得する。
(Acquisition unit 131)
The
図10の例では、取得部131は、第1文字情報を学習データLD1として取得する。取得部131は、学習データLD1に含まれる第1文字情報を学習データとして追加する。取得部131は、学習データLD1を第1種別情報記憶部121に追加する。取得部131は、第2文字情報を学習データLD2として取得する。取得部131は、学習データLD2に含まれる第2文字情報を学習データとして追加する。取得部131は、学習データLD2を第2種別情報記憶部122に追加する。
In the example of FIG. 10, the
図11の例では、取得部131は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する。取得部131は、第1種別の文字情報である対象文字情報INF51を情報提供装置50から取得する。取得部131は、変換モデルを取得する。取得部131は、モデル情報記憶部123AからモデルM2を取得する。
In the example of FIG. 11, the
(学習部132A)
変形例に係る学習部132Aは、実施形態に係る学習部132と同様の処理を行う。学習部132Aは、実施形態に係る学習部132と同様に種々の情報を学習する。
(Learning Department 132A)
The learning unit 132A according to the modified example performs the same processing as the learning unit 132 according to the embodiment. The learning unit 132A learns various information in the same manner as the learning unit 132 according to the embodiment.
学習部132Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。学習部132Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。 The learning unit 132A uses the first character information as input information, learning using the first character information as correct answer information, second character information as input information, and the second character information as correct answer information. Based on the learning, a conversion model is generated that outputs the converted character information in which the target character information is converted to the second type in response to the input of the target character information of the first type. The learning unit 132A has a coding unit that outputs intermediate information indicating the characteristics of the first character information in response to input of the first character information, and converted character information corresponding to the intermediate information using the intermediate information as input information. Generates a conversion model that includes a decoding unit that outputs.
学習部132Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成する。学習部132Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成する。学習部132Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成する。学習部132Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成する。学習部132Aは、学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。学習部132Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。 The learning unit 132A generates a conversion model including a coding unit that outputs intermediate information indicating the characteristics of the second character information in response to the input of the second character information. When the second character information is input, the learning unit 132A generates a conversion model trained to output the second character information. When the first character information is input, the learning unit 132A generates a conversion model trained so that the first character information is converted into the second type. The learning unit 132A generates a conversion model by learning using another decoding unit that inputs intermediate information output by the decoding unit. In response to the input of the learning character information, the learning unit 132A inputs the intermediate information output by the decoding unit to another decoding unit, and performs learning processing so that the other decoding unit outputs the learning character information. By doing so, a transformation model is generated. When the learning character information is the first type, the learning unit 132A converts the learning character information into the second type, and when the learning character information is the second type, the conversion model converts the learning character information. A transformation model is generated by performing learning processing so that it is output.
学習部132Aは、第1文字情報を用いた学習処理により変換モデルを生成する。学習部132Aは、第1種別情報記憶部121中の第1文字情報FCH11~FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。学習部132Aは、第1学習FLR2に示すように、第1種別を選択する種別情報FTL2が設定される。学習部132Aは、第1文字情報である入力情報FIN2を入力として、入力情報FIN2に対応する第2文字情報である出力情報FOUT2を出力する学習を行なう。
The learning unit 132A generates a conversion model by a learning process using the first character information. The learning unit 132A generates the model M2 by performing learning using the first character information FCH11 to FCH14 and the like in the first type
学習部132Aは、第1学習FLR2においては、モデルM2の入力とする第1文字情報が第2種別に変換された第2文字情報がモデルM2から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM2から第1文字情報FCH11に対応する第2種別の文字情報が出力されるように学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM2から第1文字情報FCH12に対応する第2種別の文字情報が出力されるように学習処理を行う。
In the first learning FLR2, the learning unit 132A performs a learning process so that the second character information obtained by converting the first character information input to the model M2 into the second type is output from the model M2. When the first
学習部132Aは、第1学習FLR2においては、出力情報FOUT2に含まれる子供向けの用語(子供用語)が多くなるように学習処理を行う。学習部132Aは、子供向け記事に用いられる子供用語の一覧情報等を用いて、出力情報FOUT2のスコアを算出し、そのスコアが高くなるように学習してもよい。学習部132Aは、出力情報FOUT2に含まれる子供用語の割合が多い程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。学習部132Aは、出力情報FOUT2のスコアが高くなるようにバックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。 In the first learning FLR2, the learning unit 132A performs learning processing so that the number of terms (children's terms) for children included in the output information FOUT2 increases. The learning unit 132A may calculate the score of the output information FOUT2 by using the list information of the children's terms used in the article for children, and learn so that the score becomes high. The learning unit 132A may calculate the score so that the higher the ratio of the child terms contained in the output information FOUT2, the higher the score, and the learning unit 132A may perform learning so that the score of the output information FOUT2 becomes higher. The learning unit 132A performs learning processing by a method such as backpropagation (error back propagation method) so that the score of the output information FOUT2 becomes high.
学習部132Aは、第1学習FLR2において、モデルM5用いて学習処理を行う。学習部132Aは、モデルM2の入力とする第1文字情報がモデルM5から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM5から第1文字情報FCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM5から第1文字情報FCH12が出力されるように学習処理を行う。
The learning unit 132A performs learning processing using the model M5 in the first learning FLR2. The learning unit 132A performs learning processing so that the first character information input to the model M2 is output from the model M5. When the first
学習部132Aは、第1学習FLR2においては、モデルM2の部分モデルM21及びモデルM5を第1文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132Aは、モデルM2及びモデルM5について学習処理を行う。 In the first learning FLR2, the learning unit 132A performs learning processing using the partial model M21 and the model M5 of the model M2 as the autoencoder of the first character information. The learning unit 132A performs learning processing by a method such as backpropagation so that the character information output by the model M5 approaches the character information input to the model M2. The learning unit 132A performs learning processing on the model M2 and the model M5.
学習部132Aは、第2文字情報を用いた学習処理により変換モデルを生成する。学習部132Aは、第2種別情報記憶部122中の第2文字情報SCH11~SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。学習部132Aは、第2文字情報である入力情報SIN2を入力として、第2文字情報である出力情報SOUT2を出力する学習を行なう。
The learning unit 132A generates a conversion model by a learning process using the second character information. The learning unit 132A generates the model M2 by performing learning using the second character information SCH11 to SCH14 and the like in the second type
学習部132Aは、第2学習SLR2においては、モデルM2の入力とする第2文字情報がモデルM2から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。 In the second learning SLR2, the learning unit 132A performs a learning process so that the second character information input to the model M2 is output from the model M2. When the second character information SCH11 is input to the model M2, the learning unit 132A performs a learning process so that the second character information SCH11 is output from the model M2. When the second character information SCH12 is input to the model M2, the learning unit 132A performs a learning process so that the second character information SCH12 is output from the model M2.
学習部132Aは、第2学習SLR2においては、部分モデルM21及び部分モデルM22を第2文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM2が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、部分モデルM21及び部分モデルM22に第2文字情報が有する特徴を学習させる。 In the second learning SLR2, the learning unit 132A performs learning processing using the partial model M21 and the partial model M22 as an autoencoder of the second character information. The learning unit 132A performs learning processing by a method such as backpropagation so that the character information output by the model M2 approaches the character information input to the model M2. The learning unit 132A learns the characteristics of the second character information in the partial model M21 and the partial model M22 by modifying the value of the weight (that is, the connection coefficient) considered when the value is transmitted between the nodes. Let me.
学習部132Aは、第2学習SLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第2文字情報がモデルM5から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
The learning unit 132A performs learning processing using the model M5 in the second learning SLR2. The
学習部132Aは、第2学習SLR2においては、モデルM2の部分モデルM21及びモデルM5を第2文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。 In the second learning SLR2, the learning unit 132A performs learning processing using the partial model M21 and the model M5 of the model M2 as the autoencoder of the second character information. The learning unit 132A performs learning processing by a method such as backpropagation so that the character information output by the model M5 approaches the character information input to the model M2.
(生成部133A)
生成部133Aは、実施形態に係る生成部133と同様の処理を行う。生成部133Aは、実施形態に係る生成部133と同様に種々の情報を提供する。
(Generation unit 133A)
The generation unit 133A performs the same processing as the generation unit 133 according to the embodiment. The generation unit 133A provides various information in the same manner as the generation unit 133 according to the embodiment.
図11の例では、生成部133Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を生成する。生成部133Aは、第1種別の対象文字情報INF51をモデルM2に入力することにより、第2種別の変換文字情報INF52を生成する。 In the example of FIG. 11, the generation unit 133A uses the model M2 to generate the converted character information INF 52 obtained by converting the type of the target character information INF 51 into the second type. The generation unit 133A generates the conversion character information INF 52 of the second type by inputting the target character information INF 51 of the first type into the model M2.
生成部133Aは、処理群PS2に示すような処理により、変換文字情報INF52を生成する。生成部133Aは、対象文字情報INF51をモデルM2に入力する。生成部133Aは、対象文字情報INF51である入力情報TIN2をモデルM2に入力し、モデルM2から第2種別の変換文字情報INF52である出力情報TOUT2を出力させる。生成部133Aは、対象文字情報INF51を部分モデルM21に入力する。生成部133Aは、部分モデルM21が出力した中間情報INT2を部分モデルM22に入力する。生成部133Aは、部分モデルM22に変換文字情報INF52を出力させる。生成部133Aは、第1種別の対象文字情報INF51の種別が第2種別に変換された変換文字情報INF52を生成する。 The generation unit 133A generates the converted character information INF52 by the processing as shown in the processing group PS2. The generation unit 133A inputs the target character information INF51 into the model M2. The generation unit 133A inputs the input information TIN2 which is the target character information INF51 into the model M2, and outputs the output information TOUT2 which is the second type conversion character information INF52 from the model M2. The generation unit 133A inputs the target character information INF51 into the partial model M21. The generation unit 133A inputs the intermediate information INT2 output by the partial model M21 to the partial model M22. The generation unit 133A causes the partial model M22 to output the converted character information INF52. The generation unit 133A generates the converted character information INF 52 in which the type of the target character information INF 51 of the first type is converted into the second type.
(提供部134)
変形例に係る提供部134は、実施形態に係る提供部134と同様の処理を行う。提供部134は、実施形態に係る提供部134と同様に種々の情報を提供する。
(Providing section 134)
The providing unit 134 according to the modified example performs the same processing as the providing unit 134 according to the embodiment. The providing unit 134 provides various information in the same manner as the providing unit 134 according to the embodiment.
図11の例では、提供部134は、変換文字情報INF52を情報提供装置50へ提供する。提供部134は、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ送信する。
In the example of FIG. 11, the providing unit 134 provides the converted character information INF 52 to the
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、取得部131と、学習部132、132Aとを有する。取得部131は、第1種別の文字情報である第1文字情報と、第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する。また、学習部132、132Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。
[7. effect〕
As described above, the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、学習部132、132Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。学習部132は、選択情報に対応する種別の文字情報を出力する変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、変換モデルが出力する文字情報の種別を選択する選択情報を取得し、その選択情報に対応する種別の文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得する。学習部132は、学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得し、その学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、取得部131は、変換モデルに入力する学習文字情報を取得する。学習部132Aは、学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、変換モデルに入力する学習文字情報を取得し、その学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, in the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、生成部133、133Aを有する。取得部131は、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得する。生成部133、133Aは、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する。
Further, the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得し、対象文字情報を変換モデルに入力する。これにより、情報処理装置100、100Aは、対象文字情報が第2種別に変換された変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, in the
また、実施形態に係る情報処理装置100において、取得部131は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。生成部133は、他の対象文字情報を変換モデルに入力することにより、他の対象文字情報が第1種別に変換された他の変換文字情報を生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。生成部133は、他の対象文字情報を変換モデルに入力する。これにより、情報処理装置100は、他の対象文字情報が第1種別に変換された他の変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。生成部133は、選択情報を変換モデルに入力することにより、選択情報に対応する種別の文字情報を生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、変換モデルが出力する文字情報の種別を選択する選択情報を取得し、選択情報を変換モデルに入力する。これにより、情報処理装置100は、選択情報に対応する種別の文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得する。生成部133は、対象文字情報と選択情報とを変換モデルに入力することにより、対象文字情報が他方の種別に変換された変換文字情報を生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得し、対象文字情報と選択情報とを変換モデルに入力する。これにより、情報処理装置100は、対象文字情報が他方の種別に変換された変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別と第2種別とは、同一の言語における種別である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、同一の言語における種別である第1種別と第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、ニュース記事であり、第2種別は、子供向け記事である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、ニュース記事である第1種別と、子供向け記事である第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、第1文字数以上の文字を含む文字情報であり、第2種別は、第1文字数以下の第2文字数未満の文字を含む文字情報である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字数以上の文字を含む文字情報が属する第1種別と、第1文字数以下の第2文字数未満の文字を含む文字情報が属する第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、本文であり、第2種別は、要約である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、記事等の本文である第1種別と、記事等の要約である第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
〔8.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図14に示すような構成のコンピュータ1000によって実現される。図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100、100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1(各モデルデータMDT11~MDT14等))を実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1(各モデルデータMDT11~MDT14等))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described in detail with reference to the drawings, these are examples and various based on the knowledge of those skilled in the art, including the embodiments described in the disclosure line of the invention. It is possible to carry out the present invention in another form in which the above is modified or improved.
〔9.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the performed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
100、100A 情報処理装置
121 第1種別情報記憶部
122 第2種別情報記憶部
123、123A モデル情報記憶部
130、130A 制御部
131 取得部
132、132A 学習部
133、133A 生成部
134 提供部
10 端末装置
50 情報提供装置
N ネットワーク
1
Claims (17)
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記変換モデルの出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習部と、
を備えることを特徴とする情報処理装置。 An acquisition unit for acquiring the first character information which is the character information of the first type and the second character information which is the character information of the second type different from the first type.
When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. A conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information is input with the first character information. At the time of learning processing using the first character information as the first correct answer information, the designated type is set as the first type, and learning is performed so that the output of the conversion model becomes the first correct answer information, and the second character information. In the learning process in which the second character information is used as the second correct answer information, the designated type is set as the second type and the output of the conversion model is learned to be the second correct answer information. , The learning part to generate,
An information processing device characterized by being equipped with.
前記指定種別を選択する選択情報を取得し、
前記変換モデルの前記復号化部は、前記選択情報を、前記指定種別を示す情報として受け付ける
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition unit
Acquire the selection information for selecting the specified type , and
The information processing apparatus according to claim 1 , wherein the decoding unit of the conversion model receives the selection information as information indicating the designated type .
前記変換モデルに入力する文字情報である学習文字情報が前記第1種別である場合、前記第1種別を選択し、前記学習文字情報が前記第2種別である前記第2種別を選択する前記選択情報を取得し、
前記学習部は、
前記学習文字情報の入力とし、当該学習文字情報を出力するように学習処理を行うことにより、前記変換モデルを生成する
ことを特徴とする請求項2に記載の情報処理装置。 The acquisition unit
When the learning character information which is the character information to be input to the conversion model is the first type, the first type is selected, and the second type where the learning character information is the second type is selected. Get information,
The learning unit
The information processing apparatus according to claim 2 , wherein the conversion model is generated by inputting the learning character information and performing a learning process so as to output the learning character information.
前記第1文字情報の入力に応じて、当該第1文字情報の特徴を示す前記中間情報を出力する第1エンコーダと、前記第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する前記符号化部を含む前記変換モデルを生成する
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。 The learning unit
The first encoder that outputs the intermediate information indicating the characteristics of the first character information in response to the input of the first character information, and the characteristics of the second character information in response to the input of the second character information. The information processing apparatus according to any one of claims 1 to 3 , wherein the conversion model including the coding unit including the second encoder for outputting the intermediate information shown is generated.
前記中間情報に対応する前記第1文字情報を出力する第1デコーダと、前記中間情報に対応する前記第2文字情報を出力する第2デコーダとを有する前記復号化部を含む前記変換モデルを生成する
ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。 The learning unit
Generate the conversion model including the decoding unit having the first decoder that outputs the first character information corresponding to the intermediate information and the second decoder that outputs the second character information corresponding to the intermediate information. The information processing apparatus according to any one of claims 1 to 4 , wherein the information processing apparatus is to be used.
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記符号化部が出力する前記中間情報を入力とする他の復号化部であって、前記変換モデル以外の他の符号化部の出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習部と、
を備えることを特徴とする情報処理装置。 An acquisition unit for acquiring the first character information which is the character information of the first type and the second character information which is the character information of the second type different from the first type.
When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. The first character information is a conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information. In the learning process in which the first character information is used as the first correct answer information, the designated type is set as the first type, and the intermediate information output by the coding unit is input as another decoding unit. Therefore, the output of the coding unit other than the conversion model is learned to be the first correct answer information, the second character information is input, and the second character information is the second correct answer information. At the time of learning processing, the designated type is set as the second type, and the learning unit generated by learning so that the output of the conversion model becomes the second correct answer information .
An information processing device characterized by being equipped with.
前記指定種別を示す種別情報を取得し、Acquire the type information indicating the specified type, and
前記変換モデルは、前記種別情報を、前記指定種別を示す情報として受け付けるThe conversion model accepts the type information as information indicating the designated type.
ことを特徴とする請求項6に記載の情報処理装置。The information processing apparatus according to claim 6.
前記第1文字情報が入力された場合は、当該第1文字情報が変換された前記変換文字情報に前記第2種別に対応する用語が多く含まれるように学習された前記変換モデルを生成する
ことを特徴とする請求項6または請求項7に記載の情報処理装置。 The learning unit
When the first character information is input, the conversion model trained so that the converted character information to which the first character information is converted includes many terms corresponding to the second type is generated. The information processing apparatus according to claim 6 or 7 .
前記変換モデルに入力する学習文字情報を取得し、
前記学習部は、
前記学習文字情報の入力に応じて、前記符号化部が出力する前記中間情報を前記他の復号化部に入力し、前記他の復号化部が前記学習文字情報を出力するように学習処理を行うことにより、前記変換モデルを生成する
ことを特徴とする請求項6または請求項7に記載の情報処理装置。 The acquisition unit
Acquire the learning character information to be input to the conversion model,
The learning unit
In response to the input of the learning character information, the intermediate information output by the coding unit is input to the other decoding unit, and the learning process is performed so that the other decoding unit outputs the learning character information. The information processing apparatus according to claim 6 or 7 , wherein the conversion model is generated by performing the above.
ことを特徴とする請求項1~9のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9 , wherein the first type and the second type are types in the same language.
ことを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10 , wherein the first type is a news article, and the second type is an article for children.
ことを特徴とする請求項1~11のいずれか1項に記載の情報処理装置。 The first type is character information including characters having a first number of characters or more, and the second type is character information including characters having a number of characters less than or equal to the first number of characters. The information processing apparatus according to any one of 1 to 11 .
ことを特徴とする請求項1~12のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 12 , wherein the first type is a text and the second type is a summary.
第1種別の文字情報である第1文字情報と、前記第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する取得工程と、
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記変換モデルの出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習工程と、
を含むことを特徴とする情報処理方法。 It is an information processing method executed by a computer.
An acquisition process for acquiring first character information, which is character information of the first type, and second character information, which is character information of the second type different from the first type.
When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. A conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information is input with the first character information. At the time of learning processing using the first character information as the first correct answer information, the designated type is set as the first type, and learning is performed so that the output of the conversion model becomes the first correct answer information, and the second character information. In the learning process in which the second character information is used as the second correct answer information, the designated type is set as the second type and the output of the conversion model is learned to be the second correct answer information. , The learning process to generate,
An information processing method characterized by including.
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記変換モデルの出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 An acquisition procedure for acquiring the first character information which is the character information of the first type and the second character information which is the character information of the second type different from the first type.
When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. A conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information is input with the first character information. At the time of learning processing using the first character information as the first correct answer information, the designated type is set as the first type, and learning is performed so that the output of the conversion model becomes the first correct answer information, and the second character information. In the learning process in which the second character information is used as the second correct answer information, the designated type is set as the second type and the output of the conversion model is learned to be the second correct answer information. , The learning procedure to generate,
An information processing program characterized by having a computer execute.
第1種別の文字情報である第1文字情報と、前記第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する取得工程と、An acquisition process for acquiring first character information, which is character information of the first type, and second character information, which is character information of the second type different from the first type.
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記符号化部が出力する前記中間情報を入力とする他の復号化部であって、前記変換モデル以外の他の符号化部の出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習工程と、When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. A conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information is input with the first character information. In the learning process in which the first character information is the first correct answer information, the designated type is the first type, and the intermediate information output by the coding unit is input as another decoding unit. At the time of learning processing in which the output of the coding unit other than the conversion model is learned to be the first correct answer information, the second character information is input, and the second character information is the second correct answer information. Is a learning process generated by learning so that the output of the conversion model becomes the second correct answer information, with the designated type as the second type.
を含むことを特徴とする情報処理方法。An information processing method characterized by including.
前記第1文字情報が入力された場合、当該第1文字情報の特徴を示す中間情報を出力し、前記第2文字情報が入力された場合、当該第2文字情報の特徴を示す前記中間情報を出力する符号化部と、前記中間情報を入力として、指定された指定種別に対応する文字情報である変換文字情報を出力する復号化部を含む変換モデルを、前記第1文字情報を入力とし、当該第1文字情報を第1正解情報とする学習処理時においては前記指定種別を前記第1種別として、前記符号化部が出力する前記中間情報を入力とする他の復号化部であって、前記変換モデル以外の他の符号化部の出力が前記第1正解情報となるように学習し、前記第2文字情報を入力とし、当該第2文字情報を第2正解情報とする学習処理時においては前記指定種別を前記第2種別として、前記変換モデルの出力が前記第2正解情報となるように学習することにより、生成する学習手順と、When the first character information is input, intermediate information indicating the characteristics of the first character information is output, and when the second character information is input, the intermediate information indicating the characteristics of the second character information is output. A conversion model including a coding unit to be output and a decoding unit to output converted character information which is character information corresponding to a specified designated type by inputting the intermediate information is input with the first character information. In the learning process in which the first character information is the first correct answer information, the designated type is the first type, and the intermediate information output by the coding unit is input as another decoding unit. At the time of learning processing in which the output of the coding unit other than the conversion model is learned to be the first correct answer information, the second character information is input, and the second character information is the second correct answer information. Is a learning procedure generated by learning so that the output of the conversion model becomes the second correct answer information with the designated type as the second type.
をコンピュータに実行させることを特徴とする情報処理プログラム。 An information processing program characterized by having a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107118A JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107118A JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211977A JP2019211977A (en) | 2019-12-12 |
JP6995698B2 true JP6995698B2 (en) | 2022-01-17 |
Family
ID=68844104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018107118A Active JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6995698B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI760234B (en) | 2021-05-25 | 2022-04-01 | 仁寶電腦工業股份有限公司 | Translation method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004457A (en) | 2005-06-23 | 2007-01-11 | Advanced Telecommunication Research Institute International | Corpus conversion apparatus and computer program |
JP6259946B1 (en) | 2017-07-20 | 2018-01-10 | 株式会社Nttドコモ | Machine learning system, identification system, and program |
-
2018
- 2018-06-04 JP JP2018107118A patent/JP6995698B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004457A (en) | 2005-06-23 | 2007-01-11 | Advanced Telecommunication Research Institute International | Corpus conversion apparatus and computer program |
JP6259946B1 (en) | 2017-07-20 | 2018-01-10 | 株式会社Nttドコモ | Machine learning system, identification system, and program |
Non-Patent Citations (3)
Title |
---|
和田 崇史、岩田 具治 ,教師なし系列マッチング,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2017年12月13日,第117巻 第367号,pp.31-36 |
小林 尚輝 外4名,双方向翻訳のための中間表現制約を用いたニューラル機械翻訳,言語処理学会第24回年次大会 発表論文集 [online],日本,言語処理学会,2018年03月05日,pp.300-303,Internet<URL:http://www.anlp.jp/proceedings/annual_meeting/2018/pdf_dir/B2-3.pdf> |
米田 昌弘、鶴岡 慶雅,教師なし英日ニューラル機械翻訳の検討と文の潜在表現の分析,言語処理学会第25回年次大会 発表論文集 [online] Proceedings of the Twenty-fifth Annual Meeting of the Association for Natural Language Processing,日本,言語処理学会,2019年03月04日,pp.1323-1326 |
Also Published As
Publication number | Publication date |
---|---|
JP2019211977A (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109219812B (en) | Natural language generation in spoken dialog systems | |
JP6355800B1 (en) | Learning device, generating device, learning method, generating method, learning program, and generating program | |
US20200097820A1 (en) | Method and apparatus for classifying class, to which sentence belongs, using deep neural network | |
JP6381768B1 (en) | Learning device, learning method, learning program and operation program | |
AU2019200746A1 (en) | Method to generate summaries tuned to topics of interest of readers | |
US10946880B2 (en) | Method and system for train route optimization | |
US8856007B1 (en) | Use text to speech techniques to improve understanding when announcing search results | |
CN110400575A (en) | Interchannel feature extracting method, audio separation method and device calculate equipment | |
Ku et al. | A study of the Lamarckian evolution of recurrent neural networks | |
WO2018003457A1 (en) | Information processing device, information processing method of time series data, and program | |
CN111666416A (en) | Method and apparatus for generating semantic matching model | |
US20190354533A1 (en) | Information processing device, information processing method, and non-transitory computer-readable recording medium | |
JP2023036574A (en) | Conversational recommendation method, method and device of training model, electronic apparatus, storage medium, and computer program | |
JPWO2019163718A1 (en) | Learning devices, speech recognition ranking estimators, their methods, and programs | |
JP6995698B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
CN113077237B (en) | Course arrangement method and system for self-adaptive hybrid algorithm | |
Lou et al. | Communicating with sentences: A multi-word naming game model | |
JP2018155939A (en) | Generation device, generation method and generation program | |
CN110851580A (en) | Personalized task type dialog system based on structured user attribute description | |
KR20170128070A (en) | Chord composition method based on recurrent neural network | |
WO2022264461A1 (en) | Information processing system and information processing method | |
JP6705506B2 (en) | Learning program, information processing apparatus, and learning method | |
JP2019079087A (en) | Learning device, program parameter and learning method | |
JP6526607B2 (en) | Learning apparatus, learning method, and learning program | |
Ulfa et al. | Applying fuzzy logic to customize learning materials in e-learning systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6995698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |