JP2019211977A - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2019211977A JP2019211977A JP2018107118A JP2018107118A JP2019211977A JP 2019211977 A JP2019211977 A JP 2019211977A JP 2018107118 A JP2018107118 A JP 2018107118A JP 2018107118 A JP2018107118 A JP 2018107118A JP 2019211977 A JP2019211977 A JP 2019211977A
- Authority
- JP
- Japan
- Prior art keywords
- information
- character information
- type
- model
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 397
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000006243 chemical reaction Methods 0.000 claims abstract description 198
- 238000000034 method Methods 0.000 claims description 157
- 230000008569 process Effects 0.000 claims description 123
- 238000012545 processing Methods 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 33
- 238000003860 storage Methods 0.000 description 132
- 238000012986 modification Methods 0.000 description 43
- 230000004048 modification Effects 0.000 description 43
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 22
- 101100446829 Candida glabrata (strain ATCC 2001 / CBS 138 / JCM 3761 / NBRC 0622 / NRRL Y-65) FLR2 gene Proteins 0.000 description 12
- 238000013459 approach Methods 0.000 description 12
- 102100024061 Integrator complex subunit 1 Human genes 0.000 description 11
- 101710092857 Integrator complex subunit 1 Proteins 0.000 description 11
- 238000009826 distribution Methods 0.000 description 11
- 102100028043 Fibroblast growth factor 3 Human genes 0.000 description 9
- 108050002021 Integrator complex subunit 2 Proteins 0.000 description 9
- 101100396142 Arabidopsis thaliana IAA14 gene Proteins 0.000 description 8
- 102100037338 F-box/LRR-repeat protein 5 Human genes 0.000 description 8
- 101001026853 Homo sapiens F-box/LRR-repeat protein 5 Proteins 0.000 description 8
- 101150110992 SLR1 gene Proteins 0.000 description 8
- 238000013145 classification model Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 101150117967 mdt-11 gene Proteins 0.000 description 6
- 101100344915 Caenorhabditis elegans rgr-1 gene Proteins 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 101150023408 mdt-21 gene Proteins 0.000 description 4
- 101100049574 Human herpesvirus 6A (strain Uganda-1102) U5 gene Proteins 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150064834 ssl1 gene Proteins 0.000 description 3
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 2
- 101150046212 ARC2 gene Proteins 0.000 description 2
- 101150083013 FIN1 gene Proteins 0.000 description 2
- 101000663006 Homo sapiens Poly [ADP-ribose] polymerase tankyrase-1 Proteins 0.000 description 2
- 101000800312 Homo sapiens TERF1-interacting nuclear factor 2 Proteins 0.000 description 2
- 101100013460 Mus musculus Ftl2 gene Proteins 0.000 description 2
- 102100037664 Poly [ADP-ribose] polymerase tankyrase-1 Human genes 0.000 description 2
- 102100033085 TERF1-interacting nuclear factor 2 Human genes 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 101150085774 mdt-22 gene Proteins 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 101150106709 ARC1 gene Proteins 0.000 description 1
- 101100013575 Arabidopsis thaliana FTSHI1 gene Proteins 0.000 description 1
- 102100033825 Collagen alpha-1(XI) chain Human genes 0.000 description 1
- 102100029378 Follistatin-related protein 1 Human genes 0.000 description 1
- 101000710623 Homo sapiens Collagen alpha-1(XI) chain Proteins 0.000 description 1
- 101001062535 Homo sapiens Follistatin-related protein 1 Proteins 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and an information processing program.
従来、翻訳等の種々の文字列変換に関する技術が提供されている。例えば、フレームレベルの言語らしさの系列情報を利用して、より高精度な言語識別を実現するための技術が知られている。このような技術においては、変換前の文字列と変化後の文字列の組とした複数の学習データが用いられる。また、従来技術においては、例えば、複数の言語による音声データと各音声データの言語を表す言語ラベルとを組とした複数の学習データが用いられる。 Conventionally, various techniques related to character string conversion such as translation have been provided. For example, a technique for realizing language identification with higher accuracy using sequence information of language-likeness at a frame level is known. In such a technique, a plurality of learning data is used as a set of a character string before conversion and a character string after change. Further, in the prior art, for example, a plurality of learning data in which voice data in a plurality of languages and a language label representing the language of each voice data are paired are used.
しかしながら、上記の従来技術では、文字情報変換に関するサービスを適切に提供可能にすることが難しい場合がある。例えば、このような文字情報変換において、変換前の文字情報と変換後の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題がある。 However, with the above-described conventional technology, it may be difficult to appropriately provide a service relating to character information conversion. For example, in such character information conversion, when a combination (teacher data) of character information before conversion and character information after conversion is insufficient, it is difficult to appropriately provide a service related to character information conversion. There is a problem.
本願は、上記に鑑みてなされたものであって、文字情報変換に関するサービスを適切に提供可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an information processing apparatus, an information processing method, and an information processing program that can appropriately provide a service related to character information conversion.
本願に係る情報処理装置は、第1種別の文字情報である第1文字情報と、前記第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する取得部と、前記第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、前記第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、前記第1種別の対象文字情報の入力に応じて、前記対象文字情報が前記第2種別に変換された変換文字情報を出力する変換モデルを生成する学習部と、を備えたことを特徴とする。 The information processing apparatus according to the present application includes: an acquisition unit that acquires first character information that is first type character information; and second character information that is second type character information different from the first type; Based on learning using the first character information as input information, using the first character information as correct information, and learning using the second character information as input information and using the second character information as correct information. And a learning unit that generates a conversion model for outputting the converted character information obtained by converting the target character information into the second type in response to the input of the first type of target character information. And
実施形態の一態様によれば、文字情報変換に関するサービスを適切に提供可能にすることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately provide a service related to character information conversion.
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the information processing apparatus, the information processing method, and the information processing program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1.情報処理(学習処理)〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、実施形態に係る情報処理のうち、学習処理の一例について説明する。図1では、情報処理装置100が第1種別の文字情報(以下「第1文字情報」ともいう)と、第1種別とは異なる第2種別の文字情報(以下「第2文字情報」ともいう)とに基づいて、モデルの生成を行う場合を示す。なお、ここでいう第1種別と第2種別とは、同一の言語における種別であるものとする。また、図1では、第1種別は、ニュース記事であり、第2種別は、子供向け記事である場合を一例として示すが、第1種別及び第2種別は、同一の言語内における異なる種別であれば、どのような種別であってもよい。図1では、情報処理装置100が第1文字情報を用いた学習処理と、第2文字情報を用いた学習処理とに基づいて、文字情報の種別を変換するモデル(以下「変換モデル」ともいう)の生成を行う場合を示す。すなわち、図1では、情報処理装置100が入力された文字情報(以下「変換前文字情報」ともいう)の種別を変換した文字情報(以下「変換後文字情報」ともいう)を出力する変換モデルの生成を行う場合を示す。
(Embodiment)
[1. Information processing (learning process)]
First, an example of information processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of information processing according to the embodiment. Specifically, FIG. 1 illustrates an example of a learning process in the information processing according to the embodiment. In FIG. 1, the
また、情報処理装置100は、生成した変換モデルを用いて、ある変換前文字情報を取得した際に、その変換前文字情報の種別を変換した変換後文字情報を生成する。また、情報処理装置100は、生成した変換後文字情報に基づいて、サービスを提供したりするが、この点については図2で説明する。
Further, when the
〔情報処理システムの構成〕
まず、図1の説明に先立って、図3に示す情報処理システム1について説明する。図3に示すように、情報処理システム1は、端末装置10と、情報提供装置50と、情報処理装置100とが含まれる。端末装置10と、情報提供装置50と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る情報処理システムの構成例を示す図である。なお、図3に示した情報処理システム1には、複数台の端末装置10や、複数台の情報提供装置50や、複数台の情報処理装置100が含まれてもよい。
[Configuration of information processing system]
First, prior to the description of FIG. 1, the information processing system 1 shown in FIG. 3 will be described. As illustrated in FIG. 3, the information processing system 1 includes a
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
The
端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、ユーザの操作に応じて、情報処理装置100や情報提供装置50に種々の情報を送信する。例えば、端末装置10は、情報処理装置100や情報提供装置50に文字情報等のコンテンツを要求する情報等を送信する。また、端末装置10は、情報処理装置100や情報提供装置50から種々の情報を受信する。例えば、端末装置10は、情報処理装置100や情報提供装置50から変換後文字情報を受信する。例えば、端末装置10は、情報処理装置100や情報提供装置50から受信した文字情報を表示する。
The
情報提供装置50は、所定のサービスを提供する提供元によって利用される情報処理装置である。提供元は、個人であってもよいし、法人等であってもよい。例えば、情報提供装置50は、情報提供者CP1によって利用される。情報提供者CP1は、コンテンツプロバイダ等のコンテンツの提供元であってもよい。情報提供者CP1は、コンテンツ配信サービスを行う事業者であってもよい。情報提供者CP1は、広告配信サービスを行う事業者であってもよい。
The
例えば、情報提供者CP1は、情報提供装置50を用いて、コンテンツ配信サービスにおいて提供する文字情報を情報処理装置100へ送信する。情報提供者CP1は、情報提供装置50を用いて、変換後文字情報を生成するために情報処理装置100へ送信する。また、情報提供装置50は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。なお、以下では、情報提供装置50を提供元と表記する場合がある。すなわち、以下では、提供元を情報提供装置50と読み替えることもできる。具体的には、図1及び図2では、情報提供装置50が情報提供者CP1により利用されるノート型PCである場合を示す。なお、情報提供装置50は、情報処理装置100と一体であってもよい。すなわち、情報処理装置100は、コンテンツ配信サービスや広告配信サービス等を行ってもよい。
For example, the information provider CP1 uses the
情報処理装置100は、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する情報処理装置である。情報処理装置100は、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する情報処理装置である。例えば、情報処理装置100は、学習処理を行う学習装置である。
The
情報処理装置100は、文字情報を変換モデルに入力することにより、その文字情報の種別が変換された変換後文字情報を生成する情報処理装置である。例えば、情報処理装置100は、文字情報の生成処理を行う生成装置である。例えば、情報処理装置100は、文字情報の変換処理を行う変換装置である。
The
また、情報処理装置100は、生成した変換後文字情報に基づいてサービスを提供する。図2の例では、情報処理装置100は、生成した変換後文字情報を情報提供装置50に提供する。情報処理装置100は、生成した変換後文字情報を用いて、ユーザが利用する端末装置10に情報提供してもよい。情報処理装置100は、生成した変換後文字情報を含むコンテンツを、端末装置10に配信してもよい。この場合、情報処理装置100は、コンテンツ配信サービスを提供する外部の情報処理装置等から各種情報を取得し、取得した各種情報に基づいて情報処理や外部の情報処理装置への情報提供を行ってもよい。
Further, the
まず、情報処理装置100は、第1文字情報を学習データLD1として取得する(ステップS11)。そして、情報処理装置100は、ステップS11で取得した学習データLD1に含まれる第1文字情報を学習データとして追加する(ステップS12)。具体的には、情報処理装置100は、学習データLD1を第1種別情報記憶部121に追加する。
First, the
図1に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
The first type
図1の第1種別情報記憶部121中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図1の第1種別情報記憶部121中の「第1文字情報」は、文字情報IDにより識別される文字情報を示す。
“Character information ID” in the first type
図1に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示し、文字情報ID「FID12」により識別される文字情報は、第1文字情報FCH12であることを示す。また、文字情報ID「FID13」により識別される文字情報は、第1文字情報FCH13であることを示し、文字情報ID「FID14」により識別される文字情報は、第1文字情報FCH14であることを示す。第1文字情報FCH11〜FCH14等は、子供向けではない一般的なニュース(以下「通常ニュース」ともいう)等や通常のコンテンツ配信等で配信される文字情報等であれば、どのような文字情報であってもよい。例えば、第1文字情報FCH11〜FCH14等は、政治や経済に関する通常ニュースやスポーツやエンターテインメントに関する通常ニュース等であってもよい。 In the example shown in FIG. 1, the character information identified by the character information ID “FID11” indicates the first character information FCH11, and the character information identified by the character information ID “FID12” is the first character information. Indicates that it is FCH12. The character information identified by the character information ID “FID13” indicates the first character information FCH13, and the character information identified by the character information ID “FID14” is the first character information FCH14. Show. The first character information FCH11 to FCH14 is any character information as long as it is general news (hereinafter also referred to as “normal news”) that is not intended for children, character information distributed by normal content distribution, or the like. It may be. For example, the first character information FCH11 to FCH14 may be normal news about politics and economy, normal news about sports and entertainment, and the like.
また、情報処理装置100は、第2文字情報を学習データLD2として取得する(ステップS13)。そして、情報処理装置100は、ステップS13で取得した学習データLD2に含まれる第2文字情報を学習データとして追加する(ステップS14)。具体的には、情報処理装置100は、学習データLD2を第2種別情報記憶部122に追加する。
Further, the
図1に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
The second type
図1の第2種別情報記憶部122中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図1の第2種別情報記憶部122中の「第2文字情報」は、文字情報IDにより識別される文字情報を示す。
The “character information ID” in the second type
図1に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示し、文字情報ID「SID12」により識別される文字情報は、第2文字情報SCH12であることを示す。また、文字情報ID「SID13」により識別される文字情報は、第2文字情報SCH13であることを示し、文字情報ID「SID14」により識別される文字情報は、第2文字情報SCH14であることを示す。第2文字情報SCH11〜SCH14等は、子供向けに作成されたニュース(以下「子供向けニュース」ともいう)等の文字情報であれば、どのような文字情報であってもよい。例えば、第2文字情報SCH11〜SCH14等は、子供向けに作成された政治や経済に関する子供向けニュースやスポーツやエンターテインメントに関する子供向けニュース等であってもよい。 In the example shown in FIG. 1, the character information identified by the character information ID “SID11” indicates the second character information SCH11, and the character information identified by the character information ID “SID12” is the second character information. Indicates SCH12. Further, the character information identified by the character information ID “SID13” indicates the second character information SCH13, and the character information identified by the character information ID “SID14” is the second character information SCH14. Show. The second character information SCH11 to SCH14 and the like may be any character information as long as it is character information such as news created for children (hereinafter also referred to as “news for children”). For example, the second character information SCH11 to SCH14 and the like may be news for children related to politics and economy created for children, news for children about sports and entertainment, and the like.
そして、情報処理装置100は、学習データに基づく学習処理によりモデルを生成する。例えば、情報処理装置100は、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等や第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。なお、第1文字情報FCH11〜FCH14等と第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等との間には、対応関係はないものとする。例えば、第1文字情報FCH11〜FCH14等及び第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等は、各々が異なる内容のニュースであるものとする。
And the
まず、情報処理装置100が生成する変換モデル(学習器)について簡単に説明する。図1の例では、モデル情報記憶部123中のモデルM1は、構造情報ARC1に示すようなアーキテクチャのモデルである。図1の例において、情報処理装置100が生成する変換モデルであるモデルM1は、複数の第1部分モデルM1−1、M1−2等を含むモデルである。上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別されるモデルである。
First, a conversion model (learning device) generated by the
また、上記のように、「第1部分モデルM*(*は任意の数値)」と記載した場合、その第1部分モデルは第1部分モデルID「M*」により識別されるモデルであることを示す。例えば、「第1部分モデルM1−1」と記載した場合、その第1部分モデルは第1部分モデルID「M1−1」により識別されるモデルである。 Further, as described above, when “first partial model M * (* is an arbitrary numerical value)” is described, the first partial model is a model identified by the first partial model ID “M *”. Indicates. For example, when “first partial model M1-1” is described, the first partial model is a model identified by the first partial model ID “M1-1”.
また、上記のように、「第2部分モデルM*(*は任意の数値)」と記載した場合、その第2部分モデルは第2部分モデルID「M*」により識別されるモデルであることを示す。例えば、「第2部分モデルM11」と記載した場合、その第2部分モデルは第2部分モデルID「M11」により識別されるモデルである。なお、第1部分モデルや第2部分モデルを特に区別することなく説明する場合、単に「部分モデル」を記載する場合がある。 As described above, when “second partial model M * (* is an arbitrary numerical value)” is described, the second partial model is a model identified by the second partial model ID “M *”. Indicates. For example, when “second partial model M11” is described, the second partial model is a model identified by the second partial model ID “M11”. Note that when the first partial model and the second partial model are described without particular distinction, the “partial model” may be simply described.
第1部分モデルM1−1は、符号化部であり、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出する符号化器(以下「エンコーダ」ともいう)が含まれる部分モデルに対応する。図1に示すように、第1部分モデルM1−1は、入力情報IN1を入力として、中間情報INT1を出力するモデルに対応する。第1部分モデルM1−1は、第1文字情報や第2文字情報が入力情報IN1として入力され、中間情報INT1を出力するモデルに対応する。 The first partial model M1-1 is an encoding unit, and includes an encoder (hereinafter also referred to as “encoder”) that extracts features of the input information by compressing the dimensionality of the input information. Corresponding to the partial model. As shown in FIG. 1, the first partial model M1-1 corresponds to a model that receives the input information IN1 and outputs the intermediate information INT1. The first partial model M1-1 corresponds to a model in which the first character information and the second character information are input as the input information IN1, and the intermediate information INT1 is output.
第1部分モデルM1−1には、第1文字情報を入力とするエンコーダである第2部分モデルM11が含まれる。第2部分モデルM11は、入力された第1文字情報の次元量を圧縮することで入力された第1文字情報が有する特徴を抽出する。第2部分モデルM11は、図1中の中間情報INT1として、第1文字情報の次元量が圧縮された第1文字情報が有する特徴を示す中間情報を出力する。例えば、図1中の中間情報INT1は、入力情報の特徴を示す中間出力(符号化ベクトル等)であり、例えば、分散表現や実数値ベクトルであってもよい。例えば、中間情報INT1は、モデルM1に入力された文字情報の意味(概念)に関する情報が含まれる。 The first partial model M1-1 includes a second partial model M11 that is an encoder that receives the first character information. The second partial model M11 extracts the features of the input first character information by compressing the dimensional amount of the input first character information. The second partial model M11 outputs, as intermediate information INT1 in FIG. 1, intermediate information indicating characteristics of the first character information in which the dimensional amount of the first character information is compressed. For example, the intermediate information INT1 in FIG. 1 is an intermediate output (encoded vector or the like) indicating the characteristics of the input information, and may be, for example, a distributed expression or a real value vector. For example, the intermediate information INT1 includes information related to the meaning (concept) of the character information input to the model M1.
また、第1部分モデルM1−1には、第2文字情報を入力とするエンコーダである第2部分モデルM12が含まれる。第2部分モデルM12は、入力された第2文字情報の次元量を圧縮することで入力された第2文字情報が有する特徴を抽出する。第2部分モデルM12は、図1中の中間情報INT1として、第2文字情報の次元量が圧縮された第2文字情報が有する特徴を示す中間情報を出力する。 The first partial model M1-1 includes a second partial model M12 that is an encoder that receives the second character information. The second partial model M12 extracts features of the input second character information by compressing the dimensional amount of the input second character information. The second partial model M12 outputs, as intermediate information INT1 in FIG. 1, intermediate information indicating characteristics of the second character information in which the dimension amount of the second character information is compressed.
例えば、中間情報INT1は次元数等の仕様が設定されており、第1部分モデルM1−1中の第2部分モデルM11、M12は、共通の仕様に基づく中間情報INT1を出力する。第2部分モデルM11、M12は、共通の次元数まで圧縮した中間情報を出力する。なお、図1の例では、説明のために第2部分モデルM11、M12を個別に図示するが、第2部分モデルM11、M12は、共通する部分は共有してもよい。例えば、第2部分モデルM11、M12は一体であってもよい。言い換えると、第2部分モデルM11、M12は1つのモデルであってもよい。例えば、第1部分モデルM1−1は、第2部分モデルM11、M12の機能を実現するための構成うち、重複する部分を除いた構成であってもよい。 For example, specifications such as the number of dimensions are set for the intermediate information INT1, and the second partial models M11 and M12 in the first partial model M1-1 output intermediate information INT1 based on the common specifications. The second partial models M11 and M12 output intermediate information compressed to a common number of dimensions. In the example of FIG. 1, the second partial models M11 and M12 are individually illustrated for explanation, but the second partial models M11 and M12 may share common portions. For example, the second partial models M11 and M12 may be integrated. In other words, the second partial models M11 and M12 may be one model. For example, the 1st partial model M1-1 may be the structure except the overlap part among the structures for implement | achieving the function of the 2nd partial models M11 and M12.
また、第1部分モデルM1−1は、入力される文字情報の種別に応じて、入力された文字情報を第2部分モデルM11、M12のいずれに入力するかを決定する機能を有する。例えば、第1部分モデルM1−1は、入力される文字情報の種別を特定する情報(特定情報)を受け付け、第2部分モデルM11、M12うち、その特定情報に対応する方に文字情報を入力すると決定する機能を有する。例えば、第1部分モデルM1−1は、所定のスイッチング機能(切り替え機能)により、第2部分モデルM11、M12うち、特定情報に基づくモデルの入力層に文字情報が入力されるように、(論理)回路等を切り替えてもよい。例えば、第1部分モデルM1−1は、学習時には、後述する選択情報(制御ベクトル)を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。 In addition, the first partial model M1-1 has a function of determining which of the second partial models M11 and M12 the input character information is to be input in accordance with the type of input character information. For example, the first partial model M1-1 receives information (specific information) that specifies the type of character information to be input, and inputs character information to the second partial model M11, M12 corresponding to the specific information. Then, it has a function to decide. For example, the first partial model M1-1 is configured so that character information is input to an input layer of a model based on specific information among the second partial models M11 and M12 by a predetermined switching function (switching function). ) A circuit or the like may be switched. For example, the first partial model M1-1 may determine a model for inputting character information among the second partial models M11 and M12 by using selection information (control vector), which will be described later, as specific information during learning. .
例えば、第1部分モデルM1−1は、生成時(変換時)には、後述する選択情報を反転した情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。例えば、第1部分モデルM1−1は、生成時(変換時)には、選択情報が「第1種別」を示す情報である場合、その情報を反転した「第2種別」を示す情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。例えば、第1部分モデルM1−1は、生成時(変換時)には、選択情報が「第2種別」を示す情報である場合、その情報を反転した「第1種別」を示す情報を特定情報として用いて、第2部分モデルM11、M12うち、文字情報を入力するモデルを決定してもよい。なお、上記は一例であり、情報処理装置100は、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, the first partial model M1-1 is a model for inputting character information among the second partial models M11 and M12 using information obtained by inverting selection information described later as specific information at the time of generation (conversion). May be determined. For example, when the first partial model M1-1 is generated (converted) and the selection information is information indicating “first type”, the information indicating “second type” obtained by inverting the information is specified. Of the second partial models M11 and M12, a model for inputting character information may be determined as information. For example, when the selection information is information indicating “second type” at the time of generation (conversion), the first partial model M1-1 specifies information indicating “first type” obtained by inverting the information. Of the second partial models M11 and M12, a model for inputting character information may be determined as information. Note that the above is an example, and the
第1部分モデルM1−2は、復号化部であり、エンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(以下「デコーダ」ともいう)が含まれる部分モデルに対応する。すなわち、第1部分モデルM1−2は、エンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、所定の種別の文字情報を出力するデコーダが含まれる部分モデルに対応する。図1に示すように、第1部分モデルM1−2は、中間情報INT1を入力として、出力情報OUT1を出力するモデルに対応する。 The first partial model M1-2 is a decoding unit, and includes a decoder (hereinafter also referred to as a “decoder”) that increases the dimensionality of features extracted by the encoder and outputs character information of a predetermined type. Corresponds to the partial model. That is, the first partial model M1-2 is a partial model including a decoder that receives intermediate information output by the encoder, increases the dimensional amount of the input intermediate information, and outputs character information of a predetermined type. Correspond. As shown in FIG. 1, the first partial model M1-2 corresponds to a model that receives the intermediate information INT1 and outputs the output information OUT1.
第1部分モデルM1−2には、中間情報を入力とするデコーダである第2部分モデルM13が含まれる。第2部分モデルM13は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第1文字情報を生成する。第2部分モデルM13は、図1中の出力情報OUT1として、入力された中間情報に対応する第1文字情報を出力する。 The first partial model M1-2 includes a second partial model M13 that is a decoder that receives intermediate information. The second partial model M13 generates first character information corresponding to the input intermediate information by increasing the dimensional amount of the input intermediate information. The second partial model M13 outputs first character information corresponding to the input intermediate information as output information OUT1 in FIG.
また、第1部分モデルM1−2には、中間情報を入力とするデコーダである第2部分モデルM14が含まれる。第2部分モデルM14は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第2文字情報を生成する。第2部分モデルM14は、図1中の出力情報OUT1として、入力された中間情報に対応する第2文字情報を出力する。なお、図1の例では、説明のために第2部分モデルM13、M14を個別に図示するが、第2部分モデルM13、M14は、共通する部分は共有してもよい。例えば、第2部分モデルM13、M14は一体であってもよい。言い換えると、第2部分モデルM13、M14は1つのモデルであってもよい。例えば、第2部分モデルM13、M14が一体(同一モデル)であっても、第1部分モデルM1−2は、異なる選択情報が入力されることにより、選択情報による選択に応じた情報を生成(出力)する。例えば、第1部分モデルM1−2は、第2部分モデルM13、M14の機能を実現するための構成うち、重複する部分を除いた構成であってもよい。 The first partial model M1-2 includes a second partial model M14 that is a decoder that receives intermediate information. The second partial model M14 generates second character information corresponding to the input intermediate information by increasing the dimensional amount of the input intermediate information. The second partial model M14 outputs second character information corresponding to the input intermediate information as the output information OUT1 in FIG. In the example of FIG. 1, the second partial models M13 and M14 are individually illustrated for explanation, but the second partial models M13 and M14 may share common portions. For example, the second partial models M13 and M14 may be integrated. In other words, the second partial models M13 and M14 may be one model. For example, even if the second partial models M13 and M14 are integrated (the same model), the first partial model M1-2 generates information corresponding to the selection based on the selection information by inputting different selection information ( Output. For example, the first partial model M1-2 may have a configuration in which redundant portions are removed from the configurations for realizing the functions of the second partial models M13 and M14.
また、第1部分モデルM1−2は、出力する文字情報の種別を選択する選択情報(制御ベクトル)を受け付ける。第1部分モデルM1−2は、出力する文字情報の種別を選択する選択情報SL1が入力される。すなわち、第1部分モデルM1−2は、選択情報SL1に応じて、入力された中間情報を第2部分モデルM13、M14のいずれに入力するかを決定する機能を有する。例えば、第1部分モデルM1−2は、選択情報を受け付け、第2部分モデルM13、M14うち、その選択情報に対応する方に中間情報を入力すると決定する機能を有する。例えば、第1部分モデルM1−2は、所定のスイッチング機能(切り替え機能)により、第2部分モデルM13、M14うち、中間情報に基づくモデルの入力層に中間情報が入力されるように、(論理)回路等を切り替えてもよい。 The first partial model M1-2 receives selection information (control vector) for selecting the type of character information to be output. The first partial model M1-2 receives selection information SL1 for selecting a type of character information to be output. That is, the first partial model M1-2 has a function of determining which of the second partial models M13 and M14 the input intermediate information is input according to the selection information SL1. For example, the first partial model M1-2 has a function of receiving selection information and determining to input intermediate information to the second partial model M13, M14 corresponding to the selection information. For example, the first partial model M1-2 is configured so that intermediate information is input to an input layer of a model based on intermediate information among the second partial models M13 and M14 by a predetermined switching function (switching function). ) A circuit or the like may be switched.
例えば、第1部分モデルM1−2は、選択情報が「第1種別」を示す情報である場合、第2部分モデルM13に中間情報を入力すると決定する。例えば、第1部分モデルM1−2は、選択情報が「第2種別」を示す情報である場合、第2部分モデルM14に中間情報を入力すると決定する。なお、上記は一例であり、情報処理装置100は、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, the first partial model M1-2 is determined to input intermediate information to the second partial model M13 when the selection information is information indicating “first type”. For example, the first partial model M1-2 is determined to input intermediate information to the second partial model M14 when the selection information is information indicating “second type”. Note that the above is an example, and the
なお、エンコーダおよびデコーダは、単純に入力された情報量の次元数を変化させるニューラルネットワークのみならず、GRU(Gated Recurrent Unit)やLSTM(Long Short-Term Memory)を始めとするRNN(Recurrent Neural Network)等といった種々のニューラルネットワークが採用可能である。 The encoder and decoder are not only a neural network that simply changes the number of dimensions of input information, but also an RNN (Recurrent Neural Network) such as GRU (Gated Recurrent Unit) and LSTM (Long Short-Term Memory). Various neural networks such as) can be employed.
情報処理装置100は、第1文字情報を用いた学習処理により変換モデルを生成する(ステップS15)。情報処理装置100は、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。図1では、第1学習FLR1に示すように、第1種別を選択する選択情報FSL1が設定される。これにより、第1学習FLR1においては、モデルM1のうち、第2部分モデルM11及び第2部分モデルM13を用いるように制御される。そして、情報処理装置100は、第1文字情報である入力情報FIN1を入力として、第2部分モデルM11及び第2部分モデルM13を経由して、第1文字情報である出力情報FOUT1を出力する学習を行なう。
The
情報処理装置100は、第1学習FLR1においては、モデルM1の入力とする第1文字情報がモデルM1から出力されるように、学習処理を行う。例えば、情報処理装置100は、モデルM1に第1文字情報FCH11が入力された場合、モデルM1から第1文字情報FCH11が出力されるように学習処理を行う。例えば、情報処理装置100は、モデルM1に第1文字情報FCH12が入力された場合、モデルM1から第1文字情報FCH12が出力されるように学習処理を行う。
In the first learning FLR1, the
例えば、情報処理装置100は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を第1文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM11及び第2部分モデルM13に第1文字情報が有する特徴を学習させる。このように、情報処理装置100は、モデルM1における出力と、入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、情報処理装置100は、第1文字情報のみを用いて第2部分モデルM11及び第2部分モデルM13について学習処理を行うことができる。
For example, in the first learning FLR1, the
また、情報処理装置100は、第2文字情報を用いた学習処理により変換モデルを生成する(ステップS16)。情報処理装置100は、第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。図1では、第2学習SLR1に示すように、第2種別を選択する選択情報SSL1が設定される。これにより、第2学習SLR1においては、モデルM1のうち、第2部分モデルM12及び第2部分モデルM14を用いるように制御される。そして、情報処理装置100は、第2文字情報である入力情報SIN1を入力として、第2部分モデルM12及び第2部分モデルM14を経由して、第2文字情報である出力情報SOUT1を出力する学習を行なう。
Further, the
情報処理装置100は、第2学習SLR1においては、モデルM1の入力とする第2文字情報がモデルM1から出力されるように、学習処理を行う。例えば、情報処理装置100は、モデルM1に第2文字情報SCH11が入力された場合、モデルM1から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100は、モデルM1に第2文字情報SCH12が入力された場合、モデルM1から第2文字情報SCH12が出力されるように学習処理を行う。
In the second learning SLR1, the
例えば、情報処理装置100は、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM12及び第2部分モデルM14に第2文字情報が有する特徴を学習させる。これにより、情報処理装置100は、第2文字情報のみを用いて第2部分モデルM12及び第2部分モデルM14について学習処理を行うことができる。
For example, in the second learning SLR1, the
このように、情報処理装置100は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を対象として学習処理を行い、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を対象として学習処理を行う。これにより、情報処理装置100は、モデルM1に含まれる各第2部分モデルM11〜M14についての学習を行なうことができる。
As described above, the
上述のように、情報処理装置100は、第1文字情報を用いた学習処理と第2文字情報を用いた学習処理とを行うことにより、第1文字情報と第2文字情報とが対応づけられた学習データ(教師データ)が無い場合であっても、適切に学習処理を行うことができる。すなわち、情報処理装置100は、第1種別の文字情報と第2種別の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題を解決することができる。そして、情報処理装置100は、学習したモデルを用いて文字情報の種別を変換することにより、適切に文字情報の種別の変換を行い、種々のサービスを行うことができる。
As described above, the
(1−1.第1種別、第2種別)
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、例えば、情報処理装置100は、少数であっても、第1文字情報と第2文字情報とが対応づけられた教師データ(以下「ペアデータ」ともいう)がある場合、そのペアデータを用いてもよい。例えば、情報処理装置100は、ペアデータがある場合、そのペアデータの一方を入力情報とし、他方を出力の正解情報として学習を行なってもよい。
(1-1. First type, second type)
Note that the model learning technique is not limited to the technique described above, and any known technique can be applied. Further, for example, if there is a small number of teacher data (hereinafter also referred to as “pair data”) in which the first character information and the second character information are associated with each other, the
情報処理装置100は、ペアデータのうち、第1文字情報を入力とし、第2文字情報を出力とする場合に、第2部分モデルM11及び第2部分モデルM14を用いるように制御して、学習処理を行う。そして、情報処理装置100は、第1文字情報を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2文字情報を出力する学習を行なう。また、情報処理装置100は、ペアデータのうち、第2文字情報を入力とし、第1文字情報を出力とする場合に、第2部分モデルM12及び第2部分モデルM13を用いるように制御して、学習処理を行う。そして、情報処理装置100は、第2文字情報を入力として、第2部分モデルM12及び第2部分モデルM13を経由して、第1文字情報を出力する学習を行なう。これにより、情報処理装置100は、モデルM1の変換精度を向上させることができる。
The
(1−2.選択情報(制御ベクトル))
図1の例では、いずれのデコーダを用いるかを選択情報で制御する場合を一例として説明したが、情報処理装置100は、制御ベクトルを受付可能なようにデコーダが拡張されてもよい。例えば、情報処理装置100は、単語ベクトルと制御ベクトルを結合して、それを通常の単語ベクトルとみなしてもよい。また、情報処理装置100は、種々の制御ベクトルを用いてもよい。例えば、情報処理装置100は、単語ごとに異なる制御ベクトルを用いてもよい。例えば、情報処理装置100は、単語ベクトルごとに異なる制御ベクトルを結合させてもよい。例えば、情報処理装置100は、要約を行う場合、残り文字数に対応する制御ベクトルを用いてもよい。例えば、情報処理装置100は、要約を行う場合、残り何文字残り何文字出力されるかという情報を制御ベクトル(「制御ベクトルCX」とする)として用いてもよい。例えば、情報処理装置100は、単語ベクトルと制御ベクトルCXとを結合させたベクトルを用いて文字列変換処理を行ってもよい。
(1-2. Selection information (control vector))
In the example of FIG. 1, the case of controlling which decoder is used is described as an example. However, the
(1−3.第1種別、第2種別)
図1の例では、第1種別がニュース記事であり、第2種別が子供向け記事である場合を示したが、情報処理装置100は、種々の種別を対象に処理を行ってもよい。第1種別は、第1文字数以上の文字を含む文字情報であり、第2種別は、第1文字数以下の第2文字数未満の文字を含む文字情報であってもよい。例えば、第1種別は、本文(記事本文)であり、第2種別は、要約であってもよい。また、出力を制御する信号は二種類以上あってもよい。
(1-3. First type, second type)
In the example of FIG. 1, the case where the first type is a news article and the second type is an article for children is shown, but the
(1−4.3つ以上の種別)
図1の例では、第1種別と第2種別の2つの種別の変換を一例として説明したが、情報処理装置100は、3つ以上の種別の文字情報を相互に変換する変換モデルを学習してもよい。例えば、第1種別を大人向けとし、第2種別を小学生向けとし、第3種別を高校生向けする3つの種別の文字情報を相互に変換する変換モデルを生成してもよい。
(1-4. 3 or more types)
In the example of FIG. 1, conversion of two types of the first type and the second type has been described as an example. However, the
〔2.情報処理(提供処理)〕
図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。具体的には、図2は、実施形態に係る情報処理のうち、提供処理の一例について説明する。図2では、情報処理装置100は、情報提供装置50から取得した文字情報の種別を変換した変換文字情報を、情報提供装置50へ提供する場合を示す。
[2. Information processing (provision processing)]
An example of information processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of information processing according to the embodiment. Specifically, FIG. 2 illustrates an example of a providing process in the information processing according to the embodiment. In FIG. 2, the
まず、情報処理装置100は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する(ステップS21)。図2の例では、情報処理装置100は、第1種別の文字情報である対象文字情報INF21を情報提供装置50から取得する。
First, the
そして、情報処理装置100は、変換モデルを取得する(ステップS22)。図2の例では、情報処理装置100は、モデル情報記憶部123からモデルM1を取得する。そして、情報処理装置100は、モデルM1を用いて、対象文字情報INF21の種別を変換した変換文字情報INF22を生成する。具体的には、情報処理装置100は、第1種別の対象文字情報INF21をモデルM1に入力することにより、第2種別の変換文字情報INF22を生成する。
Then, the
図2の例では、情報処理装置100は、処理群PS1に示すような処理により、変換文字情報INF22を生成する。情報処理装置100は、対象文字情報INF21が第1種別であるため、第2種別を選択する選択情報SSL1を設定する(ステップS23)。また、情報処理装置100は、対象文字情報INF21が第1種別であるため、第1種別を選択する特定情報を設定する。これにより、処理群PS1においては、モデルM1のうち、第2部分モデルM11及び第2部分モデルM14を用いるように制御される。
In the example of FIG. 2, the
そして、情報処理装置100は、対象文字情報INF21をモデルM1に入力する(ステップS24)。情報処理装置100は、対象文字情報INF21である入力情報TIN1を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2種別の変換文字情報INF22である出力情報TOUT1を出力させる。具体的には、情報処理装置100は、対象文字情報INF21を第2部分モデルM11に入力する。そして、情報処理装置100は、第2部分モデルM11が出力した中間情報INT1を第2部分モデルM14に入力する。そして、情報処理装置100は、第2部分モデルM14に変換文字情報INF22を出力させる(ステップS25)。これにより、情報処理装置100は、第1種別の対象文字情報INF21の種別が第2種別に変換された変換文字情報INF22を生成する。
Then, the
そして、情報処理装置100は、変換文字情報INF22を情報提供装置50へ提供する(ステップS26)。図2の例では、情報処理装置100は、変換文字情報INF22を情報提供装置50へ送信する。
Then, the
上述したように、情報処理装置100は、モデルM1を用いて、対象文字情報INF21の種別を第2種別に変換した変換文字情報INF22を提供することにより、文字情報変換に関するサービスを適切に提供することができる。
As described above, the
〔3.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of information processing apparatus]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や情報提供装置50との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network by wire or wireless, and transmits and receives information to and from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、第1種別情報記憶部121と、第2種別情報記憶部122と、モデル情報記憶部123とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 4, the storage unit 120 according to the embodiment includes a first type
(第1種別情報記憶部121)
実施形態に係る第1種別情報記憶部121は、第1種別に関する各種情報を記憶する。図5は、実施形態に係る第1種別情報記憶部の一例を示す図である。例えば、第1種別情報記憶部121は、モデルの生成に用いる第1種別に関する教師データを記憶する。図5に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
(First type information storage unit 121)
The first type
「文字情報ID」は、文字情報を識別するための識別情報を示す。「第1文字情報」は、文字情報IDにより識別される文字情報を示す。図5では「第1文字情報」に「FID11」といった概念的な情報が格納される例を示したが、実際には、具体的な文章等の文字列(文字情報)、または、その格納場所を示すファイルパス名などが格納される。第1文字情報FCH11は、子供向けでない通常の文字情報であれば、どのような文字情報であってもよい。第1文字情報FCH11は、政治や経済に関するニュースやスポーツやエンターテインメントに関するニュース等であってもよい。また、第1文字情報FCH11は、製品の取扱説明書や法令の条文等であってもよい。 “Character information ID” indicates identification information for identifying character information. “First character information” indicates character information identified by a character information ID. FIG. 5 shows an example in which conceptual information such as “FID11” is stored in “first character information”, but in reality, a character string (character information) such as a specific sentence or the storage location thereof. The file path name indicating The first character information FCH11 may be any character information as long as it is normal character information not intended for children. The first character information FCH11 may be news about politics or economy, news about sports or entertainment, or the like. Further, the first character information FCH11 may be a product instruction manual or a legal provision.
図5に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示す。 In the example illustrated in FIG. 5, the character information identified by the character information ID “FID11” is the first character information FCH11.
なお、第1種別情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第1種別情報記憶部121は、各文字情報(学習データ)が追加された日時に関する情報を記憶してもよい。また、例えば、第1種別情報記憶部121は、各文字情報が作成された日時等を示す情報を記憶してもよい。また、第1種別情報記憶部121は、各文字情報の種別を特定する情報を記憶してもよい。
The first type
また、第1種別情報記憶部121は、第1種別が第1文字数(例えば200文字)以上の文字を含む文字情報である場合、第1文字情報として、第1文字数以上の文字情報を記憶してもよい。例えば、第1種別情報記憶部121は、第1種別が記事本文である場合、第1文字情報として、記事本文を記憶してもよい。
Moreover, the 1st type
(第2種別情報記憶部122)
実施形態に係る第2種別情報記憶部122は、第2種別に関する各種情報を記憶する。図6は、実施形態に係る第2種別情報記憶部の一例を示す図である。例えば、第2種別情報記憶部122は、モデルの生成に用いる第2種別に関する教師データを記憶する。図6に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
(Second type information storage unit 122)
The second type
「文字情報ID」は、文字情報を識別するための識別情報を示す。「第2文字情報」は、文字情報IDにより識別される文字情報を示す。図6では「第2文字情報」に「SID11」といった概念的な情報が格納される例を示したが、実際には、具体的な文章等の文字列(文字情報)、または、その格納場所を示すファイルパス名などが格納される。第2文字情報SCH11は、子供向けの文字情報であれば、どのような文字情報であってもよい。第2文字情報SCH11は、子供向けに作成された文字情報であれば、どのような文字情報であってもよい。第2文字情報SCH11は、子供向けの本の文章等であってもよい。また、第2文字情報SCH11は、子供向けに作成された政治や経済に関するニュースやスポーツやエンターテインメントに関するニュース等であってもよい。 “Character information ID” indicates identification information for identifying character information. “Second character information” indicates character information identified by a character information ID. FIG. 6 shows an example in which conceptual information such as “SID11” is stored in “second character information”, but in reality, a character string (character information) such as a specific sentence or the storage location thereof. The file path name indicating The second character information SCH11 may be any character information as long as it is character information for children. The second character information SCH11 may be any character information as long as it is character information created for children. The second character information SCH11 may be a text of a book for children. Further, the second character information SCH11 may be politics / economic news, sports / entertainment news, etc. created for children.
図6に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示す。 In the example illustrated in FIG. 6, the character information identified by the character information ID “SID11” is the second character information SCH11.
なお、第2種別情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第2種別情報記憶部122は、各文字情報(学習データ)が追加された日時に関する情報を記憶してもよい。また、例えば、第2種別情報記憶部122は、各文字情報が作成された日時等を示す情報を記憶してもよい。また、第2種別情報記憶部122は、各文字情報の種別を特定する情報を記憶してもよい。
The second type
また、第2種別情報記憶部122は、第2種別が第2文字数(例えば15文字)未満の文字を含む文字情報である場合、第2文字情報として、第2文字数未満の文字情報を記憶してもよい。例えば、第2種別情報記憶部122は、第2種別が要約である場合、第2文字情報として、要約を記憶してもよい。
Further, when the second type is character information including characters less than the second number of characters (for example, 15 characters), the second type
(モデル情報記憶部123)
実施形態に係るモデル情報記憶部123は、モデルに関する情報を記憶する。例えば、モデル情報記憶部123は、情報処理により生成されたモデル情報(モデルデータ)を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部123は、「モデルID」、「第1部分モデルID」、「第2部分モデルID」、「用途」、「モデルデータ」といった項目が含まれる。なお、図7では、モデルM1のみを図示するが、モデルM3、M4等の複数のモデル情報が記憶されてもよい。
(Model information storage unit 123)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「第1部分モデルID」は、対応するモデルの第1部分モデルを識別するための識別情報を示す。例えば、部分モデルID「M1−1」により識別される第1部分モデルは、図1の例に示した第1部分モデルM1−1に対応する。 “Model ID” indicates identification information for identifying a model. For example, the model identified by the model ID “M1” corresponds to the model M1 illustrated in the example of FIG. The “first partial model ID” indicates identification information for identifying the first partial model of the corresponding model. For example, the first partial model identified by the partial model ID “M1-1” corresponds to the first partial model M1-1 illustrated in the example of FIG.
「第2部分モデルID」は、対応するモデルの第2部分モデルを識別するための識別情報を示す。「第2部分モデルID」は、対応する第1部分モデルをさらに細分化したモデルを示す。例えば、第2部分モデルID「M11」により識別される部分モデルは、図1の例に示した第2部分モデルM11に対応する。「用途」は、対応する部分モデル(第2部分モデル)の用途を示す。また、「モデルデータ」は、対応する部分モデル(第2部分モデル)のデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 “Second partial model ID” indicates identification information for identifying the second partial model of the corresponding model. The “second partial model ID” indicates a model obtained by further subdividing the corresponding first partial model. For example, the partial model identified by the second partial model ID “M11” corresponds to the second partial model M11 illustrated in the example of FIG. “Use” indicates the use of the corresponding partial model (second partial model). “Model data” indicates data of a corresponding partial model (second partial model). For example, “model data” includes information including nodes in each layer, functions adopted by the nodes, connection relationships between the nodes, and connection coefficients set for connections between the nodes.
例えば、図7に示す例において、モデルM1には、第1部分モデルM1−1、M1−2等が含まれることを示す。第1部分モデルM1−1には、第2部分モデルM11、M12が含まれることを示す。第1部分モデルM1−2には、第2部分モデルM13、M14が含まれることを示す。 For example, in the example illustrated in FIG. 7, the model M1 indicates that the first partial models M1-1, M1-2, and the like are included. The first partial model M1-1 indicates that the second partial models M11 and M12 are included. The first partial model M1-2 indicates that the second partial models M13 and M14 are included.
また、例えば、第2部分モデルID「M11」により識別されるモデル(第2部分モデルM11)は、用途が「第1文字情報⇒中間情報」であり、入力された第1文字情報からの中間情報の生成に用いられることを示す。すなわち、第2部分モデルM11は、入力された第1文字情報からの特徴の抽出に用いられることを示す。また、第2部分モデルM11のモデルデータは、モデルデータMDT11であることを示す。 In addition, for example, the model (second partial model M11) identified by the second partial model ID “M11” has a usage of “first character information → intermediate information”, and an intermediate from the input first character information. Indicates that it is used to generate information. That is, the second partial model M11 is used for extracting features from the input first character information. The model data of the second partial model M11 is model data MDT11.
また、例えば、第2部分モデルID「M14」により識別されるモデル(第2部分モデルM14)は、用途が「中間情報⇒第2文字情報」であり、中間情報から第2文字情報の生成に用いられることを示す。すなわち、第2部分モデルM14は、抽出された文字情報の特徴を示す情報である中間情報から第2文字情報を生成するために用いられることを示す。また、第2部分モデルM14のモデルデータは、モデルデータMDT14であることを示す。 Further, for example, the model identified by the second partial model ID “M14” (second partial model M14) has a usage of “intermediate information⇒second character information”, and generates second character information from the intermediate information. Indicates that it will be used. That is, the second partial model M14 is used to generate second character information from intermediate information that is information indicating the characteristics of the extracted character information. The model data of the second partial model M14 is model data MDT14.
モデルM1(各モデルデータMDT11〜MDT14等)は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M1 (each model data MDT11 to MDT14) is an input layer to which a predetermined type of character information is input, an output layer, or any layer from the input layer to the output layer and other than the output layer. And a second element whose value is calculated based on the first element and the weight of the first element, and for each layer other than the output layer for character information input to the input layer The computer is configured to output from the output layer character information converted into a type different from the predetermined type by performing an operation based on the first element and the weight of the first element, with each element belonging to the first element. It is a model to make it function.
例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 For example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.
なお、モデル情報記憶部123は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(学習プログラムや生成プログラム等の情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部123に記憶されているモデルM1等に従った情報処理により、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in a storage device inside the
図4に示すように、制御部130は、取得部131と、学習部132と、生成部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130は、記憶部120に記憶されているモデルM1(各モデルデータMDT11〜MDT14等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素とを含み、入力層に入力された所定の種別の文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の種別とは異なる種別に変換された文字情報を出力層から出力する。
As illustrated in FIG. 4, the control unit 130 includes an
制御部130は、記憶部120に記憶されているモデルM1(モデルデータMDT11〜MTD14等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素とを含み、入力層に入力された入力情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報の種別が変換された文字情報を出力層から出力する。なお、モデルM1等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM1等のモデルは、プログラムであってもよい。 The control unit 130 calculates a second value based on the first element and the weight of the first element by information processing according to the model M1 (model data MDT11 to MTD14 and the like) stored in the storage unit 120. By performing an operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element for the input information input to the input layer The character information in which the type of the character information is converted is output from the output layer. Note that the model such as the model M1 may be assumed to be used as a program module that is a part of the artificial intelligence software. The model such as the model M1 may be a program.
(取得部131)
取得部131は、各種情報を取得する。取得部131は、端末装置10や情報提供装置50等の外部の情報処理装置から各種情報を取得する。取得部131は、第1種別情報記憶部121や第2種別情報記憶部122やモデル情報記憶部123等に示す各種情報を、外部の情報処理装置から取得してもよい。
(Acquisition part 131)
The
取得部131は、記憶部120から各種情報を取得する。取得部131は、第1種別情報記憶部121や第2種別情報記憶部122やモデル情報記憶部123等から各種情報を取得する。
The
取得部131は、第1種別の文字情報である第1文字情報と、第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する。取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。取得部131は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得する。
The
取得部131は、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得する。取得部131は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。取得部131は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得する。
The
図1の例では、取得部131は、第1文字情報を学習データLD1として取得する。取得部131は、学習データLD1に含まれる第1文字情報を学習データとして追加する。取得部131は、学習データLD1を第1種別情報記憶部121に追加する。取得部131は、第2文字情報を学習データLD2として取得する。取得部131は、学習データLD2に含まれる第2文字情報を学習データとして追加する。取得部131は、学習データLD2を第2種別情報記憶部122に追加する。
In the example of FIG. 1, the
図2の例では、取得部131は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する。取得部131は、第1種別の文字情報である対象文字情報INF21を情報提供装置50から取得する。取得部131は、変換モデルを取得する。取得部131は、モデル情報記憶部123からモデルM1を取得する。
In the example of FIG. 2, the
(学習部132)
学習部132は、各種情報を学習する。学習部132は、学習処理により各種モデルを生成する。例えば、学習部132は、第1種別情報記憶部121や第2種別情報記憶部122等に記憶された情報に基づいて、学習処理を行う。学習部132は、第1種別情報記憶部121や第2種別情報記憶部122等に記憶された情報に基づいて種々のモデルを生成する。
(Learning unit 132)
The
例えば、学習部132は、第1種別情報記憶部121や第2種別情報記憶部122に記憶された学習データを用いて、モデル情報記憶部123に示すようなモデルを生成する。例えば、学習部132は、取得部131により取得された学習データに基づいて、所定の種別の文字情報から所定の種別とは異なる種別に変換された文字情報を生成するために用いるモデルを生成する。学習部132は、モデルを生成し、生成したモデルをモデル情報記憶部123に格納する。具体的には、学習部132は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、文字情報が所定の種別から他の種別に変換された文字情報を出力層から出力するモデルを生成する。
For example, the
学習部132は、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。
The
学習部132は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する。学習部132は、選択情報に対応する種別の文字情報を出力する変換モデルを生成する。学習部132は、学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
The
学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成する。学習部132は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成する。
The
図1の例では、学習部132は、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等や第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。学習部132は、第1文字情報を用いた学習処理により変換モデルを生成する。学習部132は、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。学習部132は、第1文字情報である入力情報FIN1を入力として、第2部分モデルM11及び第2部分モデルM13を経由して、第1文字情報である出力情報FOUT1を出力する学習を行なう。
In the example of FIG. 1, the
学習部132は、第1学習FLR1においては、モデルM1の入力とする第1文字情報がモデルM1から出力されるように、学習処理を行う。学習部132は、モデルM1に第1文字情報FCH11が入力された場合、モデルM1から第1文字情報FCH11が出力されるように学習処理を行う。学習部132は、モデルM1に第1文字情報FCH12が入力された場合、モデルM1から第1文字情報FCH12が出力されるように学習処理を行う。
In the first learning FLR1, the
学習部132は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を第1文字情報のオートエンコーダとして学習処理を行う。学習部132は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。学習部132は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM11及び第2部分モデルM13に第1文字情報が有する特徴を学習させる。学習部132は、モデルM1における出力と、入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。学習部132は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。
In the first learning FLR1, the
学習部132は、第2文字情報を用いた学習処理により変換モデルを生成する。学習部132は、第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM1を生成する。学習部132は、第2文字情報である入力情報SIN1を入力として、第2部分モデルM12及び第2部分モデルM14を経由して、第2文字情報である出力情報SOUT1を出力する学習を行なう。
The
学習部132は、第2学習SLR1においては、モデルM1の入力とする第2文字情報がモデルM1から出力されるように、学習処理を行う。学習部132は、モデルM1に第2文字情報SCH11が入力された場合、モデルM1から第2文字情報SCH11が出力されるように学習処理を行う。学習部132は、モデルM1に第2文字情報SCH12が入力された場合、モデルM1から第2文字情報SCH12が出力されるように学習処理を行う。
In the second learning SLR1, the
学習部132は、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を第2文字情報のオートエンコーダとして学習処理を行う。学習部132は、モデルM1が出力した文字情報が、モデルM1に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132は、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルM12及び第2部分モデルM14に第2文字情報が有する特徴を学習させる。
In the second learning SLR1, the
学習部132は、第1学習FLR1においては、第2部分モデルM11及び第2部分モデルM13を対象として学習処理を行い、第2学習SLR1においては、第2部分モデルM12及び第2部分モデルM14を対象として学習処理を行う。学習部132は、モデルM1に含まれる各第2部分モデルM11〜M14についての学習を行なう。
The
(生成部133)
生成部133は、各種情報を生成する。生成部133は、生成処理により各種文字情報を生成する。例えば、生成部133は、モデル情報記憶部123等に記憶された情報に基づいて、生成処理を行う。学習部132は、モデル情報記憶部123に記憶されたモデルを用いて、文字情報を生成する。
(Generator 133)
The generation unit 133 generates various information. The generation unit 133 generates various character information through a generation process. For example, the generation unit 133 performs generation processing based on information stored in the model
生成部133は、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する。生成部133は、他の対象文字情報を変換モデルに入力することにより、他の対象文字情報が第1種別に変換された他の変換文字情報を生成する。生成部133は、選択情報を変換モデルに入力することにより、選択情報に対応する種別の文字情報を生成する。生成部133は、対象文字情報と選択情報とを変換モデルに入力することにより、対象文字情報が他方の種別に変換された変換文字情報を生成する。 The generation unit 133 generates converted character information in which the target character information is converted into the second type by inputting the target character information into the conversion model. The generation unit 133 generates other converted character information in which the other target character information is converted into the first type by inputting the other target character information into the conversion model. The generation unit 133 generates character information of a type corresponding to the selection information by inputting the selection information to the conversion model. The generation unit 133 generates converted character information in which the target character information is converted into the other type by inputting the target character information and the selection information into the conversion model.
図2の例では、生成部133は、モデルM1を用いて、対象文字情報INF21の種別を変換した変換文字情報INF22を生成する。生成部133は、第1種別の対象文字情報INF21をモデルM1に入力することにより、第2種別の変換文字情報INF22を生成する。生成部133は、処理群PS1に示すような処理により、変換文字情報INF22を生成する。生成部133は、対象文字情報INF21が第1種別であるため、第2種別を選択する選択情報SSL1を設定する。生成部133は、対象文字情報INF21が第1種別であるため、第1種別を選択する特定情報を設定する。 In the example of FIG. 2, the generation unit 133 generates converted character information INF22 obtained by converting the type of the target character information INF21 using the model M1. The generation unit 133 generates the second type of converted character information INF22 by inputting the first type of target character information INF21 to the model M1. The generation unit 133 generates the converted character information INF22 by processing as shown in the processing group PS1. Since the target character information INF21 is the first type, the generation unit 133 sets the selection information SSL1 for selecting the second type. Since the target character information INF21 is the first type, the generation unit 133 sets specific information for selecting the first type.
生成部133は、対象文字情報INF21をモデルM1に入力する。生成部133は、対象文字情報INF21である入力情報TIN1を入力として、第2部分モデルM11及び第2部分モデルM14を経由して、第2種別の変換文字情報INF22である出力情報TOUT1を出力させる。生成部133は、対象文字情報INF21を第2部分モデルM11に入力する。生成部133は、第2部分モデルM11が出力した中間情報INT1を第2部分モデルM14に入力する。生成部133は、第2部分モデルM14に変換文字情報INF22を出力させる。生成部133は、第1種別の対象文字情報INF21の種別が第2種別に変換された変換文字情報INF22を生成する。 The generation unit 133 inputs the target character information INF21 to the model M1. The generation unit 133 receives the input information TIN1 that is the target character information INF21 and outputs the output information TOUT1 that is the second type of converted character information INF22 via the second partial model M11 and the second partial model M14. . The generation unit 133 inputs the target character information INF21 to the second partial model M11. The generation unit 133 inputs the intermediate information INT1 output from the second partial model M11 to the second partial model M14. The generation unit 133 causes the second partial model M14 to output the converted character information INF22. The generation unit 133 generates converted character information INF22 in which the type of the target character information INF21 of the first type is converted to the second type.
(提供部134)
提供部134は、各種情報を提供する。例えば、提供部134は、端末装置10や情報提供装置50に各種情報を提供する。提供部134は、端末装置10や情報提供装置50に各種情報を送信する。提供部134は、端末装置10や情報提供装置50に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、学習部132により学習された各種情報に基づいて、種々の情報を提供する。提供部134は、学習部132により学習されたモデルに基づいて、種々の情報を提供する。提供部134は、生成部133により生成された各種情報に基づいて、種々の情報を提供する。提供部134は、生成部133により生成された変換文字情報に基づいて、種々の情報を提供する。
(Providing unit 134)
The providing unit 134 provides various information. For example, the providing unit 134 provides various types of information to the
図2の例では、提供部134は、変換文字情報INF22を情報提供装置50へ提供する。提供部134は、変換文字情報INF22を情報提供装置50へ送信する。提供部134は、変換文字情報を用いたコンテンツ配信サービスを提供する。提供部134は、変換文字情報を用いた広告配信サービスを提供する。
In the example of FIG. 2, the providing unit 134 provides the converted character information INF22 to the
〔4.情報処理(学習処理)のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理のうち、学習処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。
[4. Information processing (learning process) flow]
Next, a learning process procedure in the information processing by the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of information processing according to the embodiment.
図8に示すように、情報処理装置100は、第1種別の第1文字情報を取得する(ステップS101)。例えば、情報処理装置100は、第1種別情報記憶部121から第1文字情報を学習データとして取得する。
As illustrated in FIG. 8, the
その後、情報処理装置100は、第1文字情報を入力情報とするとともに、第1文字情報を正解情報として変換モデルを学習する(ステップS102)。例えば、情報処理装置100は、第1種別情報記憶部121に記憶された第1文字情報を用いて変換モデルを学習する。
Thereafter, the
また、情報処理装置100は、第2種別の第2文字情報を取得する(ステップS103)。例えば、情報処理装置100は、第2種別情報記憶部122から第2文字情報を学習データとして取得する。
Further, the
その後、情報処理装置100は、第2文字情報を入力情報とするとともに、第2文字情報を正解情報として変換モデルを学習する(ステップS102)。図1の例では、情報処理装置100は、第1種別情報記憶部121に記憶された第2文字情報を用いて変換モデルを学習する。
Thereafter, the
〔5.情報処理(生成処理)のフロー〕
次に、図9を用いて、実施形態に係る情報処理システム1による情報処理のうち、生成処理(変換処理)の手順について説明する。図9は、実施形態に係る情報処理の一例を示すフローチャートである。
[5. Information processing (generation processing) flow]
Next, the procedure of the generation process (conversion process) in the information processing by the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of information processing according to the embodiment.
図9に示すように、情報処理装置100は、変換モデルを取得する(ステップS201)。また、情報処理装置100は、第1種別の対象文字情報を取得する(ステップS202)。そして、情報処理装置100は、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する(ステップS203)。情報処理装置100は、変換文字情報に基づいてサービスを提供する(ステップS204)。
As illustrated in FIG. 9, the
〔6.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる態様にて実施されてもよい。以下では、上記の情報処理システム1の他の実施形態について説明する。なお、上述した実施形態と同様の点については同様の符号を付す等して適宜説明を省略する。例えば、実施形態に係る情報処理システム1と変形例における情報処理システム(図示省略)とは、情報処理装置100と情報処理装置100Aとの相違以外は同様の構成である。以下、情報処理装置100Aによる情報処理について説明する。
[6. (Modification)
The information processing system 1 according to the above-described embodiment may be implemented in various different modes other than the above-described embodiment. Below, other embodiment of said information processing system 1 is described. In addition, about the point similar to embodiment mentioned above, the same code | symbol is attached | subjected etc., and description is abbreviate | omitted suitably. For example, the information processing system 1 according to the embodiment and the information processing system (not shown) in the modification have the same configuration except for the difference between the
〔6−1.情報処理(学習処理)〕
まず、図10を用いて、変形例に係る情報処理システムにおける推定処理について説明する。図10は、変形例に係る情報処理の一例を示す図である。具体的には、図10は、実施形態に係る情報処理のうち、学習処理の一例について説明する。図1では、情報処理装置100Aが第1文字情報と、第2文字情報とに基づいて、第1種別の文字情報の種別を第2種別に変換する変換モデルの生成を行う場合を示す。
[6-1. Information processing (learning process)]
First, the estimation process in the information processing system according to the modification will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of information processing according to the modification. Specifically, FIG. 10 illustrates an example of learning processing in the information processing according to the embodiment. FIG. 1 illustrates a case where the
まず、情報処理装置100Aは、第1文字情報を学習データLD1として取得する(ステップS51)。そして、情報処理装置100Aは、ステップS51で取得した学習データLD1に含まれる第1文字情報を学習データとして追加する(ステップS52)。具体的には、情報処理装置100Aは、学習データLD1を第1種別情報記憶部121に追加する。
First, the
図10に示す第1種別情報記憶部121には、「文字情報ID」、「第1文字情報」といった項目が含まれる。
The first type
図10の第1種別情報記憶部121中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図10の第1種別情報記憶部121中の「第1文字情報」は、文字情報IDにより識別される文字情報を示す。
“Character information ID” in the first type
図10に示す例において、文字情報ID「FID11」により識別される文字情報は、第1文字情報FCH11であることを示し、文字情報ID「FID12」により識別される文字情報は、第1文字情報FCH12であることを示す。また、文字情報ID「FID13」により識別される文字情報は、第1文字情報FCH13であることを示し、文字情報ID「FID14」により識別される文字情報は、第1文字情報FCH14であることを示す。第1文字情報FCH11〜FCH14等は、子供向けではない一般的なニュース(以下「通常ニュース」ともいう)等や通常のコンテンツ配信等で配信される文字情報等であれば、どのような文字情報であってもよい。例えば、第1文字情報FCH11〜FCH14等は、政治や経済に関する通常ニュースやスポーツやエンターテインメントに関する通常ニュース等であってもよい。 In the example shown in FIG. 10, the character information identified by the character information ID “FID11” indicates the first character information FCH11, and the character information identified by the character information ID “FID12” is the first character information. Indicates that it is FCH12. The character information identified by the character information ID “FID13” indicates the first character information FCH13, and the character information identified by the character information ID “FID14” is the first character information FCH14. Show. The first character information FCH11 to FCH14 is any character information as long as it is general news (hereinafter also referred to as “normal news”) that is not intended for children, character information distributed by normal content distribution, or the like. It may be. For example, the first character information FCH11 to FCH14 may be normal news about politics and economy, normal news about sports and entertainment, and the like.
また、情報処理装置100Aは、第2文字情報を学習データLD2として取得する(ステップS53)。そして、情報処理装置100Aは、ステップS53で取得した学習データLD2に含まれる第2文字情報を学習データとして追加する(ステップS54)。具体的には、情報処理装置100Aは、学習データLD2を第2種別情報記憶部122に追加する。
Further, the
図10に示す第2種別情報記憶部122には、「文字情報ID」、「第2文字情報」といった項目が含まれる。
The second type
図10の第2種別情報記憶部122中の「文字情報ID」は、文字情報を識別するための識別情報を示す。図10の第2種別情報記憶部122中の「第2文字情報」は、文字情報IDにより識別される文字情報を示す。
“Character information ID” in the second type
図10に示す例において、文字情報ID「SID11」により識別される文字情報は、第2文字情報SCH11であることを示し、文字情報ID「SID12」により識別される文字情報は、第2文字情報SCH12であることを示す。また、文字情報ID「SID13」により識別される文字情報は、第2文字情報SCH13であることを示し、文字情報ID「SID14」により識別される文字情報は、第2文字情報SCH14であることを示す。第2文字情報SCH11〜SCH14等は、子供向けに作成されたニュース(以下「子供向けニュース」ともいう)等の文字情報であれば、どのような文字情報であってもよい。例えば、第2文字情報SCH11〜SCH14等は、子供向けに作成された子供向けニュースやスポーツやエンターテインメントに関する子供向けニュース等であってもよい。 In the example shown in FIG. 10, the character information identified by the character information ID “SID11” indicates the second character information SCH11, and the character information identified by the character information ID “SID12” is the second character information. Indicates SCH12. Further, the character information identified by the character information ID “SID13” indicates the second character information SCH13, and the character information identified by the character information ID “SID14” is the second character information SCH14. Show. The second character information SCH11 to SCH14 and the like may be any character information as long as it is character information such as news created for children (hereinafter also referred to as “news for children”). For example, the second character information SCH11 to SCH14 and the like may be news for children created for children, news for children regarding sports and entertainment, and the like.
そして、情報処理装置100Aは、学習データに基づく学習処理によりモデルを生成する。例えば、情報処理装置100Aは、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等や第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、変換モデルを生成する。なお、第1文字情報FCH11〜FCH14等と第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等との間には、対応関係はないものとする。例えば、第1文字情報FCH11〜FCH14等及び第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等は、各々が異なる内容のニュースであるものとする。
Then, the
まず、情報処理装置100Aが生成する変換モデル(学習器)について簡単に説明する。図10の例では、モデル情報記憶部123A中のモデルM2は、構造情報ARC2に示すようなアーキテクチャのモデルである。図10の例において、情報処理装置100Aが生成する変換モデルであるモデルM2は、複数の部分モデルM21、M22等を含むモデルである。
First, the conversion model (learning device) generated by the
上記のように、「部分モデルM*(*は任意の数値)」と記載した場合、その部分モデルは部分モデルID「M*」により識別されるモデルであることを示す。例えば、「部分モデルM21」と記載した場合、その部分モデルは部分モデルID「M21」により識別されるモデルである。 As described above, when “partial model M * (* is an arbitrary numerical value)” is described, it indicates that the partial model is a model identified by the partial model ID “M *”. For example, when “partial model M21” is described, the partial model is a model identified by the partial model ID “M21”.
部分モデルM21は、符号化部であり、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出する符号化器(エンコーダ)に対応する。図10に示すように、部分モデルM21は、入力情報IN2を入力として、中間情報INT2を出力するモデルに対応する。部分モデルM21は、第1文字情報や第2文字情報が入力情報IN2として入力され、中間情報INT2を出力するモデルに対応する。すなわち、部分モデルM21には、第1文字情報や第2文字情報を入力とするエンコーダである。部分モデルM21は、入力された第1文字情報や第2文字情報の次元量を圧縮することで入力された第1文字情報や第2文字情報が有する特徴を抽出する。部分モデルM21は、図10中の中間情報INT2として、第1文字情報の次元量が圧縮された第1文字情報や第2文字情報が有する特徴を示す中間情報を出力する。例えば、図10中の中間情報INT2は、入力情報の特徴を示す中間出力(符号化ベクトル等)であり、例えば、分散表現や実数値ベクトルであってもよい。例えば、中間情報INT2は、モデルM2に入力された文字情報の意味(概念)に関する情報が含まれる。 The partial model M21 is an encoding unit, and corresponds to an encoder that extracts features of the input information by compressing the dimensionality of the input information. As shown in FIG. 10, the partial model M21 corresponds to a model that receives the input information IN2 and outputs the intermediate information INT2. The partial model M21 corresponds to a model in which the first character information and the second character information are input as the input information IN2, and the intermediate information INT2 is output. That is, the partial model M21 is an encoder that receives the first character information and the second character information. The partial model M21 extracts features of the input first character information and second character information by compressing the dimensional quantities of the input first character information and second character information. The partial model M21 outputs intermediate information indicating characteristics of the first character information and the second character information in which the dimension amount of the first character information is compressed as intermediate information INT2 in FIG. For example, the intermediate information INT2 in FIG. 10 is an intermediate output (encoded vector or the like) indicating the characteristics of the input information, and may be, for example, a distributed expression or a real value vector. For example, the intermediate information INT2 includes information related to the meaning (concept) of the character information input to the model M2.
部分モデルM22は、復号化部であり、エンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(デコーダ)に対応する。すなわち、部分モデルM22は、エンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、第2種別の文字情報を出力するデコーダに対応する。図10に示すように、部分モデルM22は、中間情報INT2を入力として、出力情報OUT2を出力するモデルに対応する。すなわち、部分モデルM22は、中間情報を入力とするデコーダである。部分モデルM22は、入力された中間情報の次元量を増大させることで、入力された中間情報に対応する第2文字情報を生成する。部分モデルM22は、図10中の出力情報OUT2として、入力された中間情報に対応する第2文字情報を出力する。 The partial model M22 is a decoding unit, and corresponds to a decoder (decoder) that increases the dimensional amount of features extracted by the encoder and outputs character information of a predetermined type. That is, the partial model M22 corresponds to a decoder that receives the intermediate information output by the encoder, increases the dimensional amount of the input intermediate information, and outputs the second type of character information. As shown in FIG. 10, the partial model M22 corresponds to a model that receives the intermediate information INT2 and outputs the output information OUT2. That is, the partial model M22 is a decoder that receives intermediate information as an input. The partial model M22 generates second character information corresponding to the input intermediate information by increasing the dimensional amount of the input intermediate information. The partial model M22 outputs second character information corresponding to the input intermediate information as the output information OUT2 in FIG.
また、モデルM2は、学習時に入力される文字情報の種別を示す種別情報(制御ベクトル)を受け付ける。モデルM2は、入力される文字情報の種別を選択する種別情報TL2が入力される。すなわち、モデルM2は、種別情報TL2に応じて、入力された文字情報の種別を特定し、その種別に応じた学習を行なう機能を有する。例えば、モデルM2は、種別情報を受け付け、部分モデルM22に種別情報に応じた学習を行なわせる機能を有する。例えば、モデルM2は、所定のスイッチング機能(切り替え機能)により、部分モデルM22に、種別情報TL2に応じた学習処理を行わせる。 The model M2 receives type information (control vector) indicating the type of character information input during learning. The model M2 receives type information TL2 for selecting the type of input character information. That is, the model M2 has a function of specifying the type of input character information according to the type information TL2 and performing learning according to the type. For example, the model M2 has a function of receiving type information and causing the partial model M22 to perform learning according to the type information. For example, the model M2 causes the partial model M22 to perform a learning process according to the type information TL2 by a predetermined switching function (switching function).
例えば、部分モデルM22は、種別情報が「第1種別」を示す情報である場合、部分モデルM22に第1種別に対応する学習を行なわせる。例えば、モデルM2は、部分モデルM22に、種別情報TL2が第1種別の場合は、強化学習等の学習処理を行わせる。例えば、部分モデルM22は、種別情報が「第2種別」を示す情報である場合、第2部分モデルM24に中間情報を入力すると決定する。例えば、モデルM2は、部分モデルM22に、種別情報TL2が第2種別の場合は、入力情報を復号するようにオートエンコーダとして学習処理を行わせる。なお、上記は一例であり、情報処理装置100Aは、所望のモデルへの入力が可能であれば、どのような機能により入力するモデルの決定を実現してもよい。
For example, the partial model M22 causes the partial model M22 to perform learning corresponding to the first type when the type information is information indicating “first type”. For example, the model M2 causes the partial model M22 to perform learning processing such as reinforcement learning when the type information TL2 is the first type. For example, the partial model M22 determines to input intermediate information to the second partial model M24 when the type information is information indicating “second type”. For example, the model M2 causes the partial model M22 to perform a learning process as an auto encoder so as to decode the input information when the type information TL2 is the second type. Note that the above is an example, and the
また、図10の例では、情報処理装置100Aは、構造情報ARC2に示すように、モデルM5を用いて、学習処理を行う。
In the example of FIG. 10, the
モデルM5は、モデルM2以外の他の復号化部であり、モデルM2のエンコーダによって抽出された特徴の次元量を増大させ、所定の種別の文字情報を出力する復号器(デコーダに対応する。すなわち、モデルM5は、モデルM2のエンコーダによって出力された中間情報を入力とし、入力された中間情報の次元量を増大させ、モデルM2のエンコーダに入力された文字情報を出力するデコーダに対応する。図10に示すように、モデルM5は、モデルM2のエンコーダが出力する中間情報INT2を入力として、学習用情報OUT5を出力するモデルに対応する。すなわち、モデルM5は、中間情報を入力とするデコーダである。モデルM5は、入力された中間情報の次元量を増大させることで、入力された中間情報の基となった文字情報を生成(復号)する。モデルM5は、図10中の学習用情報OUT5として、入力された中間情報に対応する文字情報を出力する。なお、モデルM5はモデルM2に含まれてもよい。 The model M5 is a decoding unit other than the model M2, and corresponds to a decoder (decoder that increases the dimensional quantity of features extracted by the encoder of the model M2 and outputs character information of a predetermined type. The model M5 corresponds to a decoder that receives the intermediate information output by the encoder of the model M2 as input, increases the dimensional amount of the input intermediate information, and outputs the character information input to the encoder of the model M2. 10, the model M5 corresponds to a model that receives the intermediate information INT2 output from the encoder of the model M2 and outputs the learning information OUT5, that is, the model M5 is a decoder that receives the intermediate information. The model M5 increases the dimensional quantity of the input intermediate information, thereby increasing the character information that is the basis of the input intermediate information. Generating (decoded). Model M5 as learning information OUT5 in FIG. 10, and outputs the character information corresponding to the input intermediate information. Note that the model M5 may be included in the model M2.
なお、エンコーダおよびデコーダは、単純に入力された情報量の次元数を変化させるニューラルネットワークのみならず、GRUやLSTMを始めとするRNN等といった種々のニューラルネットワークが採用可能である。 The encoder and the decoder can employ not only a neural network that simply changes the number of dimensions of input information but also various neural networks such as RNN including GRU and LSTM.
情報処理装置100Aは、第1文字情報を用いた学習処理により変換モデルを生成する(ステップS55)。情報処理装置100Aは、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。図10では、第1学習FLR2に示すように、第1種別を選択する種別情報FTL2が設定される。これにより、第1学習FLR2においては、モデルM2は、部分モデルM22について第1種別に対応する学習を行なうように制御される。そして、情報処理装置100Aは、第1文字情報である入力情報FIN2を入力として、入力情報FIN2に対応する第2文字情報である出力情報FOUT2を出力する学習を行なう。
The
情報処理装置100Aは、第1学習FLR2においては、モデルM2の入力とする第1文字情報が第2種別に変換された第2文字情報がモデルM2から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM2から第1文字情報FCH11に対応する第2種別の文字情報が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM2から第1文字情報FCH12に対応する第2種別の文字情報が出力されるように学習処理を行う。
In the first learning FLR2, the
例えば、情報処理装置100Aは、第1学習FLR2においては、出力情報FOUT2に含まれる子供向けの用語(以下「子供用語」とする)が多くなるように学習処理を行う。例えば、子供用語は、子供向けの記事に特徴的な単語等であってもよい。例えば、情報処理装置100Aは、子供向け記事に用いられる子供用語の一覧情報等を用いて、出力情報FOUT2のスコアを算出し、そのスコアが高くなるように学習してもよい。例えば、情報処理装置100Aは、出力情報FOUT2に含まれる子供用語の割合が多い程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。例えば、情報処理装置100Aは、出力情報FOUT2のスコアが高くなるようにバックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行ってもよい。これにより、情報処理装置100Aは、モデルM2について学習処理を行うことができる。なお、情報処理装置100Aは、上記に限らず、種々の情報を適宜用いて学習を行なってもよい。
For example, in the first learning FLR2, the
例えば、情報処理装置100Aは、ニュース記事と子供向け記事を分類する分類モデル(以下「分類モデルMX」ともいう)が出力する情報を用いてもよい。例えば、情報処理装置100Aは、分類モデルMXが出力するスコアを用いてもよい。分類モデルMXは、ニュース記事と子供向け記事を分類するモデルであれば、どのようなモデルであってもよく、例えばSVM(Support Vector Machine)等種々の態様であってもよい。ここで、分類モデルMXは、子供向け記事が入力された場合に高いスコアを出力し、通常のニュース記事が入力された場合に低いスコアを出力するように学習されたモデルであるものとする。この場合、情報処理装置100Aは、出力情報FOUT2を分類モデルMXに入力し、分類モデルMXが出力するスコアが高くなるように学習を行なってもよい。
For example, the
また、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、文字数を評価基準とした強化学習を行なってもよい。例えば、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、出力情報FOUT2の文字数が所定の閾値(例えば「20」等)よりも少なくなるように、学習を行なってもよい。例えば、情報処理装置100Aは、第1種別が記事本文であり、第2種別が要約である場合、出力情報FOUT2の文字数が少ない程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。
The
また、情報処理装置100Aは、第1学習FLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第1文字情報がモデルM5から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM5から第1文字情報FCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM5から第1文字情報FCH12が出力されるように学習処理を行う。
In addition, the
例えば、情報処理装置100Aは、第1学習FLR2においては、モデルM2の部分モデルM21及びモデルM5を第1文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第1文字情報が有する特徴を学習させる。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第1文字情報が有する特徴を学習させる。このように、情報処理装置100Aは、モデルM5における出力と、モデルM2における入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により学習することによりモデルM2及びモデルM5を生成する。例えば、情報処理装置100Aは、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM2及びモデルM5を生成する。これにより、情報処理装置100Aは、第1文字情報のみを用いてモデルM2及びモデルM5について学習処理を行うことができる。
For example, in the first learning FLR2, the
また、情報処理装置100Aは、第2文字情報を用いた学習処理により変換モデルを生成する(ステップS56)。情報処理装置100Aは、第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。図10では、第2学習SLR2に示すように、第2種別を選択する種別情報STL2が設定される。これにより、第2学習SLR2においては、モデルM2は、部分モデルM22について第2種別に対応する学習を行なうように制御される。そして、情報処理装置100Aは、第2文字情報である入力情報SIN2を入力として、第2文字情報である出力情報SOUT2を出力する学習を行なう。
In addition, the
情報処理装置100Aは、第2学習SLR2においては、モデルM2の入力とする第2文字情報がモデルM2から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
In the second learning SLR2, the
例えば、情報処理装置100Aは、第2学習SLR2においては、部分モデルM21及び部分モデルM22を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM2が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、部分モデルM21及び部分モデルM22に第2文字情報が有する特徴を学習させる。これにより、情報処理装置100Aは、モデルM2について学習処理を行うことができる。
For example, in the second learning SLR2, the
また、情報処理装置100Aは、第2学習SLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第2文字情報がモデルM5から出力されるように、学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。例えば、情報処理装置100Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
In addition, the
例えば、情報処理装置100Aは、第2学習SLR2においては、モデルM2の部分モデルM21及びモデルM5を第2文字情報のオートエンコーダとして学習処理を行う。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第2文字情報が有する特徴を学習させる。例えば、情報処理装置100Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、モデルM2の部分モデルM21及びモデルM5に第2文字情報が有する特徴を学習させる。このように、情報処理装置100Aは、モデルM5における出力と、モデルM2における入力との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により学習することによりモデルM2及びモデルM5を生成する。例えば、情報処理装置100Aは、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM2及びモデルM5を生成する。これにより、情報処理装置100Aは、第2文字情報のみを用いてモデルM2及びモデルM5について学習処理を行うことができる。
For example, in the second learning SLR2, the
このように、情報処理装置100Aは、第1学習FLR2においては、入力された第1種別の文字情報を第2種別に変換して出力するように学習処理を行い、第2学習SLR2においては、入力された第2種別の文字情報を出力するように学習処理を行う。これにより、情報処理装置100Aは、モデルM2が第2種別の文字情報を出力するように学習を行なうことができる。
As described above, the
上述のように、情報処理装置100Aは、第1文字情報を用いた学習処理と第2文字情報を用いた学習処理とを行うことにより、第1文字情報と第2文字情報とが対応づけられた学習データ(教師データ)が無い場合であっても、適切に学習処理を行うことができる。すなわち、情報処理装置100Aは、第1種別の文字情報と第2種別の文字情報との組合せ(教師データ)が不足している場合、文字情報変換に関するサービスを適切に提供可能にすることが難しいといった課題を解決することができる。そして、情報処理装置100Aは、学習したモデルを用いて第1文字情報の種別を第2種別に変換することにより、適切に文字情報の種別の変換を行い、種々のサービスを行うことができる。
As described above, the
〔6−2.情報処理(提供処理)〕
図11を用いて、変形例に係る情報処理の一例について説明する。図11は、変形例に係る情報処理の一例を示す図である。具体的には、図11は、変形例に係る情報処理のうち、提供処理の一例について説明する。図11では、情報処理装置100Aは、情報提供装置50から取得した文字情報の種別を変換した変換文字情報を、情報提供装置50へ提供する場合を示す。
[6-2. Information processing (provision processing)]
An example of information processing according to the modification will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of information processing according to the modification. Specifically, FIG. 11 illustrates an example of the providing process among the information processing according to the modification. In FIG. 11, the
まず、情報処理装置100Aは、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する(ステップS61)。図11の例では、情報処理装置100Aは、第1種別の文字情報である対象文字情報INF51を情報提供装置50から取得する。
First, the
そして、情報処理装置100Aは、変換モデルを取得する(ステップS62)。図11の例では、情報処理装置100Aは、モデル情報記憶部123AからモデルM2を取得する。なお、情報処理装置100Aは、学習時のみに必要であるモデルM5を取得しない。そして、情報処理装置100Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を生成する。具体的には、情報処理装置100Aは、第1種別の対象文字情報INF51をモデルM2に入力することにより、第2種別の変換文字情報INF52を生成する。
Then, the
図11の例では、情報処理装置100Aは、処理群PS2に示すような処理により、変換文字情報INF52を生成する。情報処理装置100Aは、対象文字情報INF51をモデルM2に入力する(ステップS63)。情報処理装置100Aは、対象文字情報INF51である入力情報TIN2をモデルM2に入力し、モデルM2から第2種別の変換文字情報INF52である出力情報TOUT2を出力させる。具体的には、情報処理装置100Aは、対象文字情報INF51を部分モデルM21に入力する。そして、情報処理装置100Aは、部分モデルM21が出力した中間情報INT2を部分モデルM22に入力する。そして、情報処理装置100Aは、部分モデルM22に変換文字情報INF52を出力させる(ステップS64)。これにより、情報処理装置100Aは、第1種別の対象文字情報INF51の種別が第2種別に変換された変換文字情報INF52を生成する。
In the example of FIG. 11, the
そして、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ提供する(ステップS65)。図11の例では、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ送信する。
Then, the
上述したように、情報処理装置100Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を提供することにより、文字情報変換に関するサービスを適切に提供することができる。
As described above, the
〔6−3.情報処理装置の構成〕
次に、図12を用いて、変形例に係る情報処理装置100Aの構成について説明する。図12は、変形例に係る情報処理装置100Aの構成例を示す図である。図12に示すように、情報処理装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、情報処理装置100Aについては、実施形態に係る情報処理装置100と同様の点については、適宜説明を省略する。
[6-3. Configuration of information processing apparatus]
Next, the configuration of the
(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図11に示すように、第1種別情報記憶部121と、第2種別情報記憶部122と、モデル情報記憶部123Aとを有する。
(Storage unit 120A)
The storage unit 120A is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 11, the storage unit 120A according to the modification includes a first type
(モデル情報記憶部123A)
変形例に係るモデル情報記憶部123Aは、モデルに関する情報を記憶する。例えば、モデル情報記憶部123Aは、情報処理により生成されたモデル情報(モデルデータ)を記憶する。図13は、変形例に係るモデル情報記憶部の一例を示す図である。図13に示すモデル情報記憶部123Aは、「モデルID」、「部分モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M2」により識別されるモデルは、図10の例に示したモデルM2に対応する。「部分モデルID」は、対応するモデルの部分モデルを識別するための識別情報を示す。例えば、部分モデルID「M21」により識別される部分モデルは、図10の例に示した部分モデルM21に対応する。「用途」は、対応する部分モデルの用途を示す。また、「モデルデータ」は、対応する部分モデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 “Model ID” indicates identification information for identifying a model. For example, the model identified by the model ID “M2” corresponds to the model M2 illustrated in the example of FIG. “Partial model ID” indicates identification information for identifying a partial model of a corresponding model. For example, the partial model identified by the partial model ID “M21” corresponds to the partial model M21 illustrated in the example of FIG. “Use” indicates the use of the corresponding partial model. “Model data” indicates data of a corresponding partial model. For example, “model data” includes information including nodes in each layer, functions adopted by the nodes, connection relationships between the nodes, and connection coefficients set for connections between the nodes.
例えば、図13に示す例において、モデルM2には、部分モデルM21、M22等が含まれることを示す。また、例えば、部分モデルID「M21」により識別されるモデル(部分モデルM21)は、用途が「文字情報⇒中間情報」であり、入力された文字情報からの中間情報の生成に用いられることを示す。すなわち、部分モデルM21は、入力された文字情報からの特徴の抽出に用いられることを示す。また、部分モデルM21のモデルデータは、モデルデータMDT21であることを示す。 For example, in the example shown in FIG. 13, it is shown that the model M2 includes partial models M21 and M22. Further, for example, the model (partial model M21) identified by the partial model ID “M21” has a usage of “character information = intermediate information” and is used to generate intermediate information from the input character information. Show. That is, the partial model M21 is used for extracting features from the input character information. Further, the model data of the partial model M21 indicates that it is model data MDT21.
また、例えば、部分モデルID「M22」により識別されるモデル(部分モデルM22)は、用途が「中間情報⇒第2文字情報」であり、中間情報から第2文字情報の生成に用いられることを示す。すなわち、部分モデルM22は、抽出された文字情報の特徴を示す情報である中間情報から第2文字情報を生成するために用いられることを示す。また、部分モデルM22のモデルデータは、モデルデータMDT22であることを示す。 In addition, for example, the model (partial model M22) identified by the partial model ID “M22” has an application of “intermediate information⇒second character information” and is used to generate the second character information from the intermediate information. Show. That is, the partial model M22 indicates that it is used to generate second character information from intermediate information that is information indicating the characteristics of the extracted character information. Further, the model data of the partial model M22 is model data MDT22.
モデルM2(各モデルデータMDT21、MDT22等)は、所定の種別の文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報に対応する第2種別の文字情報を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M2 (each model data MDT21, MDT22, etc.) is an input layer to which a predetermined type of character information is input, an output layer, or any layer from the input layer to the output layer and other than the output layer And a second element whose value is calculated based on the first element and the weight of the first element, and for each layer other than the output layer for character information input to the input layer The computer is configured to output from the output layer the second type of character information corresponding to the input character information by performing an operation based on the first element and the weight of the first element, with each element belonging to the first element. Is a model for making
例えば、モデルM2が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 For example, the first element included in the model M2 corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.
例えば、モデルID「M5」により識別されるモデルは、図10の例に示したモデルM5に対応する。図10では、モデルM5には、部分モデルはないことを示す。モデルM5は、用途が「中間情報⇒文字情報復号」であり、中間情報からその中間情報の生成基となった文字情報を復号するために用いられることを示す。すなわち、モデルM5は、モデルM2の部分モデルM21が生成した中間情報を入力として、中間情報から部分モデルM21に入力された文字情報を復号するに用いられることを示す。また、モデルM5のモデルデータは、モデルデータMDT5であることを示す。 For example, the model identified by the model ID “M5” corresponds to the model M5 illustrated in the example of FIG. FIG. 10 shows that the model M5 has no partial model. The model M5 indicates that the usage is “intermediate information → character information decoding” and is used to decode the character information that is the generation basis of the intermediate information from the intermediate information. That is, the model M5 indicates that the intermediate information generated by the partial model M21 of the model M2 is used as an input and the character information input to the partial model M21 is decoded from the intermediate information. Further, the model data of the model M5 indicates that it is model data MDT5.
なお、モデル情報記憶部123Aは、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130A)
図4の説明に戻って、制御部130Aは、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100A内部の記憶装置に記憶されている各種プログラム(学習プログラムや生成プログラム等の情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130Aは、モデル情報記憶部123Aに記憶されているモデルM2等に従った情報処理により、第1種別の第1文字情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第1文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、第1文字情報が第2種別に変換された文字情報を出力層から出力する。
(Control unit 130A)
Returning to the description of FIG. 4, the control unit 130 </ b> A is a controller, and is stored in a storage device inside the
図4に示すように、制御部130Aは、取得部131と、学習部132Aと、生成部133Aと、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130Aの内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130Aは、記憶部120Aに記憶されているモデルM2(モデルデータMDT21、MTD22等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された、第1種別の第1文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、第1文字情報が第2種別に変換された文字情報を出力層から出力する。
As illustrated in FIG. 4, the control unit 130A includes an
制御部130Aは、記憶部120Aに記憶されているモデルM2(モデルデータMDT21、MTD22等)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された文字情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された文字情報の種別が第2種別に変換された文字情報を出力層から出力する。なお、モデルM2等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM2等のモデルは、プログラムであってもよい。 The control unit 130A calculates a second value based on the first element and the weight of the first element by information processing according to the model M2 (model data MDT21, MTD22, etc.) stored in the storage unit 120A. By performing an operation based on the weight of the first element and the first element, with each element belonging to each layer other than the output layer as the first element for character information input to the input layer, Character information in which the type of the input character information is converted to the second type is output from the output layer. The model such as the model M2 may be assumed to be used as a program module that is a part of the artificial intelligence software. The model such as the model M2 may be a program.
(取得部131)
変形例に係る取得部131は、実施形態に係る取得部131と同様の処理を行う。取得部131は、実施形態に係る取得部131と同様に種々の情報を取得する。例えば、取得部131は、変換モデルに入力する学習文字情報を取得する。
(Acquisition part 131)
The
図10の例では、取得部131は、第1文字情報を学習データLD1として取得する。取得部131は、学習データLD1に含まれる第1文字情報を学習データとして追加する。取得部131は、学習データLD1を第1種別情報記憶部121に追加する。取得部131は、第2文字情報を学習データLD2として取得する。取得部131は、学習データLD2に含まれる第2文字情報を学習データとして追加する。取得部131は、学習データLD2を第2種別情報記憶部122に追加する。
In the example of FIG. 10, the
図11の例では、取得部131は、情報提供者CP1が利用する情報提供装置50から変換文字情報の生成対象となる文字情報を取得する。取得部131は、第1種別の文字情報である対象文字情報INF51を情報提供装置50から取得する。取得部131は、変換モデルを取得する。取得部131は、モデル情報記憶部123AからモデルM2を取得する。
In the example of FIG. 11, the
(学習部132A)
変形例に係る学習部132Aは、実施形態に係る学習部132と同様の処理を行う。学習部132Aは、実施形態に係る学習部132と同様に種々の情報を学習する。
(Learning unit 132A)
The learning unit 132A according to the modification performs the same process as the
学習部132Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。学習部132Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。 The learning unit 132A uses the first character information as input information, learns the first character information as correct information, uses the second character information as input information, and sets the second character information as correct information. Based on the learning, a conversion model is generated that outputs converted character information obtained by converting the target character information into the second type in response to the input of the first type of target character information. The learning unit 132A includes an encoding unit that outputs intermediate information indicating the characteristics of the first character information in response to the input of the first character information, and converted character information corresponding to the intermediate information using the intermediate information as input information. A conversion model including a decoding unit that outputs is generated.
学習部132Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成する。学習部132Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成する。学習部132Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成する。学習部132Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成する。学習部132Aは、学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。学習部132Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。 The learning unit 132A generates a conversion model including an encoding unit that outputs intermediate information indicating characteristics of the second character information in response to the input of the second character information. When the second character information is input, the learning unit 132A generates a conversion model learned so as to output the second character information. When the first character information is input, the learning unit 132A generates a conversion model learned so that the first character information is converted into the second type. The learning unit 132A generates a conversion model by learning using another decoding unit that receives the intermediate information output from the decoding unit. In response to the input of learning character information, learning unit 132A inputs intermediate information output by the decoding unit to another decoding unit, and performs learning processing so that the other decoding unit outputs learning character information. Thus, a conversion model is generated. When the learning character information is the first type, the learning unit 132A converts the learning character information into the second type, and when the learning character information is the second type, the conversion model converts the learning character information into the second type. A conversion model is generated by performing a learning process so as to output.
学習部132Aは、第1文字情報を用いた学習処理により変換モデルを生成する。学習部132Aは、第1種別情報記憶部121中の第1文字情報FCH11〜FCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。学習部132Aは、第1学習FLR2に示すように、第1種別を選択する種別情報FTL2が設定される。学習部132Aは、第1文字情報である入力情報FIN2を入力として、入力情報FIN2に対応する第2文字情報である出力情報FOUT2を出力する学習を行なう。
The learning unit 132A generates a conversion model by a learning process using the first character information. The learning unit 132A generates the model M2 by performing learning using the first character information FCH11 to FCH14 in the first type
学習部132Aは、第1学習FLR2においては、モデルM2の入力とする第1文字情報が第2種別に変換された第2文字情報がモデルM2から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM2から第1文字情報FCH11に対応する第2種別の文字情報が出力されるように学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM2から第1文字情報FCH12に対応する第2種別の文字情報が出力されるように学習処理を行う。 In the first learning FLR2, the learning unit 132A performs a learning process so that the second character information obtained by converting the first character information input to the model M2 into the second type is output from the model M2. When the first character information FCH11 is input to the model M2, the learning unit 132A performs a learning process so that the second type of character information corresponding to the first character information FCH11 is output from the model M2. When the first character information FCH12 is input to the model M2, the learning unit 132A performs a learning process so that the second type of character information corresponding to the first character information FCH12 is output from the model M2.
学習部132Aは、第1学習FLR2においては、出力情報FOUT2に含まれる子供向けの用語(子供用語)が多くなるように学習処理を行う。学習部132Aは、子供向け記事に用いられる子供用語の一覧情報等を用いて、出力情報FOUT2のスコアを算出し、そのスコアが高くなるように学習してもよい。学習部132Aは、出力情報FOUT2に含まれる子供用語の割合が多い程スコアが高くなるようにスコアを算出し、出力情報FOUT2のスコアが高くなるように学習を行なってもよい。学習部132Aは、出力情報FOUT2のスコアが高くなるようにバックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。 In the first learning FLR2, the learning unit 132A performs a learning process so that terms for children (child terms) included in the output information FOUT2 increase. The learning unit 132A may calculate the score of the output information FOUT2 using the child term list information used for the article for children, and may learn to increase the score. The learning unit 132A may calculate the score so that the score increases as the ratio of the child terms included in the output information FOUT2 increases, and may perform the learning so that the score of the output information FOUT2 increases. The learning unit 132A performs a learning process by a method such as back propagation (error back propagation method) so that the score of the output information FOUT2 becomes high.
学習部132Aは、第1学習FLR2において、モデルM5用いて学習処理を行う。学習部132Aは、モデルM2の入力とする第1文字情報がモデルM5から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH11が入力された場合、モデルM5から第1文字情報FCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第1文字情報FCH12が入力された場合、モデルM5から第1文字情報FCH12が出力されるように学習処理を行う。 The learning unit 132A performs learning processing using the model M5 in the first learning FLR2. The learning unit 132A performs a learning process so that the first character information input to the model M2 is output from the model M5. When the first character information FCH11 is input to the model M2, the learning unit 132A performs a learning process so that the first character information FCH11 is output from the model M5. When the first character information FCH12 is input to the model M2, the learning unit 132A performs a learning process so that the first character information FCH12 is output from the model M5.
学習部132Aは、第1学習FLR2においては、モデルM2の部分モデルM21及びモデルM5を第1文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132Aは、モデルM2及びモデルM5について学習処理を行う。 In the first learning FLR2, the learning unit 132A performs a learning process using the partial model M21 and the model M5 of the model M2 as an auto encoder for the first character information. The learning unit 132A performs a learning process by a method such as back propagation so that the character information output from the model M5 approaches the character information input to the model M2. The learning unit 132A performs learning processing for the model M2 and the model M5.
学習部132Aは、第2文字情報を用いた学習処理により変換モデルを生成する。学習部132Aは、第2種別情報記憶部122中の第2文字情報SCH11〜SCH14等を学習データ(教師データ)として、学習を行なうことにより、モデルM2を生成する。学習部132Aは、第2文字情報である入力情報SIN2を入力として、第2文字情報である出力情報SOUT2を出力する学習を行なう。
The learning unit 132A generates a conversion model by a learning process using the second character information. The learning unit 132A generates the model M2 by performing learning using the second character information SCH11 to SCH14 in the second type
学習部132Aは、第2学習SLR2においては、モデルM2の入力とする第2文字情報がモデルM2から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。 In the second learning SLR2, the learning unit 132A performs a learning process so that the second character information that is input to the model M2 is output from the model M2. When the second character information SCH11 is input to the model M2, the learning unit 132A performs a learning process so that the second character information SCH11 is output from the model M2. When the second character information SCH12 is input to the model M2, the learning unit 132A performs a learning process so that the second character information SCH12 is output from the model M2.
学習部132Aは、第2学習SLR2においては、部分モデルM21及び部分モデルM22を第2文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM2が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。学習部132Aは、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、部分モデルM21及び部分モデルM22に第2文字情報が有する特徴を学習させる。 In the second learning SLR2, the learning unit 132A performs learning processing using the partial model M21 and the partial model M22 as an auto encoder for the second character information. The learning unit 132A performs a learning process by a technique such as back propagation so that the character information output from the model M2 approaches the character information input to the model M2. The learning unit 132A learns the characteristics of the second character information in the partial model M21 and the partial model M22 by correcting the value of the weight (that is, the connection coefficient) considered when the value is transmitted between the nodes. Let
学習部132Aは、第2学習SLR2において、モデルM5用いて学習処理を行う。情報処理装置100Aは、モデルM2の入力とする第2文字情報がモデルM5から出力されるように、学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH11が入力された場合、モデルM2から第2文字情報SCH11が出力されるように学習処理を行う。学習部132Aは、モデルM2に第2文字情報SCH12が入力された場合、モデルM2から第2文字情報SCH12が出力されるように学習処理を行う。
The learning unit 132A performs learning processing using the model M5 in the second learning SLR2. The
学習部132Aは、第2学習SLR2においては、モデルM2の部分モデルM21及びモデルM5を第2文字情報のオートエンコーダとして学習処理を行う。学習部132Aは、モデルM5が出力した文字情報が、モデルM2に入力した文字情報に近づくように、バックプロパゲーション等の手法により学習処理を行う。 In the second learning SLR2, the learning unit 132A performs a learning process using the partial model M21 and the model M5 of the model M2 as the second character information auto-encoder. The learning unit 132A performs a learning process by a method such as back propagation so that the character information output from the model M5 approaches the character information input to the model M2.
(生成部133A)
生成部133Aは、実施形態に係る生成部133と同様の処理を行う。生成部133Aは、実施形態に係る生成部133と同様に種々の情報を提供する。
(Generator 133A)
The generation unit 133A performs the same processing as the generation unit 133 according to the embodiment. 133 A of production | generation parts provide various information similarly to the production | generation part 133 which concerns on embodiment.
図11の例では、生成部133Aは、モデルM2を用いて、対象文字情報INF51の種別を第2種別に変換した変換文字情報INF52を生成する。生成部133Aは、第1種別の対象文字情報INF51をモデルM2に入力することにより、第2種別の変換文字情報INF52を生成する。 In the example of FIG. 11, the generation unit 133A generates converted character information INF52 obtained by converting the type of the target character information INF51 into the second type using the model M2. The generation unit 133A generates the second type of converted character information INF52 by inputting the first type of target character information INF51 to the model M2.
生成部133Aは、処理群PS2に示すような処理により、変換文字情報INF52を生成する。生成部133Aは、対象文字情報INF51をモデルM2に入力する。生成部133Aは、対象文字情報INF51である入力情報TIN2をモデルM2に入力し、モデルM2から第2種別の変換文字情報INF52である出力情報TOUT2を出力させる。生成部133Aは、対象文字情報INF51を部分モデルM21に入力する。生成部133Aは、部分モデルM21が出力した中間情報INT2を部分モデルM22に入力する。生成部133Aは、部分モデルM22に変換文字情報INF52を出力させる。生成部133Aは、第1種別の対象文字情報INF51の種別が第2種別に変換された変換文字情報INF52を生成する。 The generation unit 133A generates the converted character information INF52 by processing as shown in the processing group PS2. The generation unit 133A inputs the target character information INF51 to the model M2. The generation unit 133A inputs the input information TIN2 that is the target character information INF51 to the model M2, and outputs the output information TOUT2 that is the second type of converted character information INF52 from the model M2. The generation unit 133A inputs the target character information INF51 to the partial model M21. The generation unit 133A inputs the intermediate information INT2 output from the partial model M21 to the partial model M22. The generation unit 133A causes the partial model M22 to output the converted character information INF52. The generating unit 133A generates converted character information INF52 in which the type of the target character information INF51 of the first type is converted to the second type.
(提供部134)
変形例に係る提供部134は、実施形態に係る提供部134と同様の処理を行う。提供部134は、実施形態に係る提供部134と同様に種々の情報を提供する。
(Providing unit 134)
The providing unit 134 according to the modification performs the same processing as the providing unit 134 according to the embodiment. The providing unit 134 provides various information in the same manner as the providing unit 134 according to the embodiment.
図11の例では、提供部134は、変換文字情報INF52を情報提供装置50へ提供する。提供部134は、情報処理装置100Aは、変換文字情報INF52を情報提供装置50へ送信する。
In the example of FIG. 11, the providing unit 134 provides the converted character information INF52 to the
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、取得部131と、学習部132、132Aとを有する。取得部131は、第1種別の文字情報である第1文字情報と、第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する。また、学習部132、132Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成する。
[7. effect〕
As described above, the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、第1種別の対象文字情報の入力に応じて、対象文字情報が第2種別に変換された変換文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、学習部132、132Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する変換文字情報を出力する復号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成する。
In the
このように、実施形態に係る情報処理装置100は、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部と、中間情報を入力情報として、当該中間情報に対応する第1文字情報を出力する復号化部を含む変換モデルであって、第2種別の他の対象文字情報の入力に応じて、他の対象文字情報が第1種別に変換された他の変換文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。学習部132は、選択情報に対応する種別の文字情報を出力する変換モデルを生成する。
In the
このように、実施形態に係る情報処理装置100は、変換モデルが出力する文字情報の種別を選択する選択情報を取得し、その選択情報に対応する種別の文字情報を出力する変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得する。学習部132は、学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
In the
このように、実施形態に係る情報処理装置100は、変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する選択情報を取得し、その学習文字情報の入力に応じて、学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する第1エンコーダと、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する符号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、学習部132は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成する。
In the
このように、実施形態に係る情報処理装置100は、中間情報に対応する第1文字情報を出力する第1デコーダと、中間情報に対応する第2文字情報を出力する第2デコーダとを有する復号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する符号化部を含む変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成する。
In the
このように、変形例に係る情報処理装置100Aは、第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, when the second character information is input, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、第1文字情報が入力された場合は、当該第1文字情報が第2種別に変換されるように学習された変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, when the first character information is input, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成する。
In the
このように、変形例に係る情報処理装置100Aは、復号化部が出力する中間情報を入力とする他の復号化部を用いた学習により変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
In this way, the
また、変形例に係る情報処理装置100Aにおいて、取得部131は、変換モデルに入力する学習文字情報を取得する。学習部132Aは、学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
In the
このように、変形例に係る情報処理装置100Aは、変換モデルに入力する学習文字情報を取得し、その学習文字情報の入力に応じて、復号化部が出力する中間情報を他の復号化部に入力し、他の復号化部が学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、変形例に係る情報処理装置100Aにおいて、学習部132Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成する。
Further, in the
このように、変形例に係る情報処理装置100Aは、学習文字情報が第1種別である場合、変換モデルが当該学習文字情報を第2種別に変換し、学習文字情報が第2種別である場合、変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、変換モデルを生成することにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, in the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、生成部133、133Aを有する。取得部131は、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得する。生成部133、133Aは、対象文字情報を変換モデルに入力することにより、対象文字情報が第2種別に変換された変換文字情報を生成する。
Further, the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1種別の文字情報である第1文字情報を、第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、第1種別の対象文字情報とを取得し、対象文字情報を変換モデルに入力する。これにより、情報処理装置100、100Aは、対象文字情報が第2種別に変換された変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。生成部133は、他の対象文字情報を変換モデルに入力することにより、他の対象文字情報が第1種別に変換された他の変換文字情報を生成する。
In the
このように、実施形態に係る情報処理装置100は、第2文字情報を第1文字情報に変換する変換モデルと、第2種別の他の対象文字情報とを取得する。生成部133は、他の対象文字情報を変換モデルに入力する。これにより、情報処理装置100は、他の対象文字情報が第1種別に変換された他の変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルが出力する文字情報の種別を選択する選択情報を取得する。生成部133は、選択情報を変換モデルに入力することにより、選択情報に対応する種別の文字情報を生成する。
In the
このように、実施形態に係る情報処理装置100は、変換モデルが出力する文字情報の種別を選択する選択情報を取得し、選択情報を変換モデルに入力する。これにより、情報処理装置100は、選択情報に対応する種別の文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100において、取得部131は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得する。生成部133は、対象文字情報と選択情報とを変換モデルに入力することにより、対象文字情報が他方の種別に変換された変換文字情報を生成する。
Further, in the
このように、実施形態に係る情報処理装置100は、変換モデルに入力する対象文字情報と、第1種別または第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する選択情報を取得し、対象文字情報と選択情報とを変換モデルに入力する。これにより、情報処理装置100は、対象文字情報が他方の種別に変換された変換文字情報を生成することができるため、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別と第2種別とは、同一の言語における種別である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、同一の言語における種別である第1種別と第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、ニュース記事であり、第2種別は、子供向け記事である。
In the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、ニュース記事である第1種別と、子供向け記事である第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、第1文字数以上の文字を含む文字情報であり、第2種別は、第1文字数以下の第2文字数未満の文字を含む文字情報である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、第1文字数以上の文字を含む文字情報が属する第1種別と、第1文字数以下の第2文字数未満の文字を含む文字情報が属する第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
また、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aにおいて、第1種別は、本文であり、第2種別は、要約である。
Further, in the
このように、実施形態に係る情報処理装置100、及び変形例に係る情報処理装置100Aは、記事等の本文である第1種別と、記事等の要約である第2種別とを対象に処理を行うことにより、文字情報変換に関するサービスを適切に提供可能にすることができる。
As described above, the
〔8.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図14に示すような構成のコンピュータ1000によって実現される。図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100、100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1(各モデルデータMDT11〜MDT14等))を実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1(各モデルデータMDT11〜MDT14等))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the computer 1000 functions as the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. It is possible to carry out the present invention in other forms that have been modified and improved.
〔9.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. Others]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modification examples can be combined as appropriate within a range that does not contradict processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 情報処理システム
100、100A 情報処理装置
121 第1種別情報記憶部
122 第2種別情報記憶部
123、123A モデル情報記憶部
130、130A 制御部
131 取得部
132、132A 学習部
133、133A 生成部
134 提供部
10 端末装置
50 情報提供装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1
Claims (25)
前記第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、前記第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、前記第1種別の対象文字情報の入力に応じて、前記対象文字情報が前記第2種別に変換された変換文字情報を出力する変換モデルを生成する学習部と、
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires first character information that is character information of a first type and second character information that is character information of a second type different from the first type;
Learning with the first character information as input information, learning with the first character information as correct information, and learning with the second character information as input information and with the second character information as correct information Based on the input of the first type of target character information, a learning unit that generates a conversion model that outputs the converted character information obtained by converting the target character information into the second type;
An information processing apparatus comprising:
前記第1文字情報の入力に応じて、当該第1文字情報の特徴を示す中間情報を出力する符号化部と、前記中間情報を入力情報として、当該中間情報に対応する前記変換文字情報を出力する復号化部を含む前記変換モデルを生成する
ことを特徴とする請求項1に記載の情報処理装置。 The learning unit
In response to the input of the first character information, an encoding unit that outputs intermediate information indicating the characteristics of the first character information, and the converted character information corresponding to the intermediate information is output using the intermediate information as input information. The information processing apparatus according to claim 1, wherein the conversion model including a decoding unit is generated.
前記第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する前記符号化部と、前記中間情報を入力情報として、当該中間情報に対応する前記第1文字情報を出力する前記復号化部を含む前記変換モデルであって、前記第2種別の他の対象文字情報の入力に応じて、前記他の対象文字情報が前記第1種別に変換された他の変換文字情報を出力する前記変換モデルを生成する
ことを特徴とする請求項2に記載の情報処理装置。 The learning unit
In response to the input of the second character information, the encoding unit that outputs intermediate information indicating the characteristics of the second character information, and the first character information corresponding to the intermediate information using the intermediate information as input information The conversion model including the decoding unit that outputs the other, the other conversion in which the other target character information is converted into the first type in response to the input of the other target character information of the second type The information processing apparatus according to claim 2, wherein the conversion model that outputs character information is generated.
前記変換モデルが出力する文字情報の種別を選択する選択情報を取得し、
前記学習部は、
前記選択情報に対応する種別の文字情報を出力する前記変換モデルを生成する
ことを特徴とする請求項3に記載の情報処理装置。 The acquisition unit
Obtaining selection information for selecting the type of character information output by the conversion model;
The learning unit
The information processing apparatus according to claim 3, wherein the conversion model that outputs character information of a type corresponding to the selection information is generated.
前記変換モデルに入力する学習文字情報に対応する種別である学習種別を選択する前記選択情報を取得し、
前記学習部は、
前記学習文字情報の入力に応じて、前記学習種別に基づいて、当該学習文字情報を出力するように学習処理を行うことにより、前記変換モデルを生成する
ことを特徴とする請求項4に記載の情報処理装置。 The acquisition unit
Obtaining the selection information for selecting a learning type that is a type corresponding to the learning character information input to the conversion model;
The learning unit
5. The conversion model is generated by performing learning processing so as to output the learning character information based on the learning type in response to an input of the learning character information. Information processing device.
前記第1文字情報の入力に応じて、当該第1文字情報の特徴を示す前記中間情報を出力する第1エンコーダと、前記第2文字情報の入力に応じて、当該第2文字情報の特徴を示す中間情報を出力する第2エンコーダとを有する前記符号化部を含む前記変換モデルを生成する
ことを特徴とする請求項3〜5のいずれか1項に記載の情報処理装置。 The learning unit
In response to the input of the first character information, the first encoder that outputs the intermediate information indicating the characteristics of the first character information; and the characteristics of the second character information in response to the input of the second character information. The information processing apparatus according to any one of claims 3 to 5, wherein the conversion model including the encoding unit including a second encoder that outputs intermediate information to be displayed is generated.
前記中間情報に対応する前記第1文字情報を出力する第1デコーダと、前記中間情報に対応する前記第2文字情報を出力する第2デコーダとを有する前記復号化部を含む前記変換モデルを生成する
ことを特徴とする請求項3〜6のいずれか1項に記載の情報処理装置。 The learning unit
Generating the conversion model including the decoding unit having a first decoder that outputs the first character information corresponding to the intermediate information and a second decoder that outputs the second character information corresponding to the intermediate information The information processing apparatus according to any one of claims 3 to 6, wherein:
前記第2文字情報の入力に応じて、当該第2文字情報の特徴を示す前記中間情報を出力する前記符号化部を含む前記変換モデルを生成する
ことを特徴とする請求項2に記載の情報処理装置。 The learning unit
3. The information according to claim 2, wherein the conversion model including the encoding unit that outputs the intermediate information indicating the characteristics of the second character information is generated in response to the input of the second character information. Processing equipment.
前記第2文字情報が入力された場合は、当該第2文字情報を出力するように学習された前記変換モデルを生成する
ことを特徴とする請求項8に記載の情報処理装置。 The learning unit
The information processing apparatus according to claim 8, wherein, when the second character information is input, the conversion model learned to output the second character information is generated.
前記第1文字情報が入力された場合は、当該第1文字情報が前記第2種別に変換されるように学習された前記変換モデルを生成する
ことを特徴とする請求項8または請求項9に記載の情報処理装置。 The learning unit
The said conversion model learned so that the said 1st character information may be converted into the said 2nd classification is produced | generated when the said 1st character information is input. The Claim 8 or Claim 9 characterized by the above-mentioned. The information processing apparatus described.
前記復号化部が出力する前記中間情報を入力とする他の復号化部を用いた学習により前記変換モデルを生成する
ことを特徴とする請求項8〜10のいずれか1項に記載の情報処理装置。 The learning unit
The information processing according to any one of claims 8 to 10, wherein the conversion model is generated by learning using another decoding unit that receives the intermediate information output by the decoding unit. apparatus.
前記変換モデルに入力する学習文字情報を取得し、
前記学習部は、
前記学習文字情報の入力に応じて、前記復号化部が出力する前記中間情報を前記他の復号化部に入力し、前記他の復号化部が前記学習文字情報を出力するように学習処理を行うことにより、前記変換モデルを生成する
ことを特徴とする請求項11に記載の情報処理装置。 The acquisition unit
Obtain learning character information to be input to the conversion model,
The learning unit
In response to the input of the learning character information, the intermediate information output by the decoding unit is input to the other decoding unit, and a learning process is performed so that the other decoding unit outputs the learning character information. The information processing apparatus according to claim 11, wherein the conversion model is generated by performing.
前記学習文字情報が前記第1種別である場合、前記変換モデルが当該学習文字情報を前記第2種別に変換し、前記学習文字情報が前記第2種別である場合、前記変換モデルが当該学習文字情報を出力するように学習処理を行うことにより、前記変換モデルを生成する
ことを特徴とする請求項12に記載の情報処理装置。 The learning unit
When the learning character information is the first type, the conversion model converts the learning character information into the second type, and when the learning character information is the second type, the conversion model is the learning character. The information processing apparatus according to claim 12, wherein the conversion model is generated by performing learning processing so as to output information.
前記対象文字情報を前記変換モデルに入力することにより、前記対象文字情報が前記第2種別に変換された変換文字情報を生成する生成部と、
を備えることを特徴とする情報処理装置。 A conversion model for converting first character information, which is character information of the first type, into second character information, which is character information of a second type different from the first type, and target character information of the first type An acquisition unit to acquire;
A generation unit that generates converted character information in which the target character information is converted into the second type by inputting the target character information into the conversion model;
An information processing apparatus comprising:
前記第2文字情報を前記第1文字情報に変換する前記変換モデルと、前記第2種別の他の対象文字情報とを取得し、
前記生成部は、
前記他の対象文字情報を前記変換モデルに入力することにより、前記他の対象文字情報が前記第1種別に変換された他の変換文字情報を生成する
ことを特徴とする請求項14に記載の情報処理装置。 The acquisition unit
Obtaining the conversion model for converting the second character information into the first character information, and other target character information of the second type,
The generator is
The other converted character information in which the other target character information is converted into the first type is generated by inputting the other target character information into the conversion model. Information processing device.
前記変換モデルが出力する文字情報の種別を選択する選択情報を取得し、
前記生成部は、
前記選択情報を前記変換モデルに入力することにより、前記選択情報に対応する種別の文字情報を生成する
ことを特徴とする請求項15に記載の情報処理装置。 The acquisition unit
Obtaining selection information for selecting the type of character information output by the conversion model;
The generator is
The information processing apparatus according to claim 15, wherein character information of a type corresponding to the selection information is generated by inputting the selection information to the conversion model.
前記変換モデルに入力する対象文字情報と、前記第1種別または前記第2種別の一方に種別であって、当該対象文字情報の種別と異なる他方の種別を選択する前記選択情報を取得し、
前記生成部は、
前記対象文字情報と前記選択情報とを前記変換モデルに入力することにより、前記対象文字情報が前記他方の種別に変換された変換文字情報を生成する
ことを特徴とする請求項16に記載の情報処理装置。 The acquisition unit
Obtaining the selection information for selecting the target character information to be input to the conversion model and one of the first type and the second type, and selecting the other type different from the type of the target character information;
The generator is
The information according to claim 16, wherein converted character information in which the target character information is converted into the other type is generated by inputting the target character information and the selection information into the conversion model. Processing equipment.
ことを特徴とする請求項1〜17のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the first type and the second type are types in the same language.
ことを特徴とする請求項1〜18のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 18, wherein the first type is a news article, and the second type is an article for children.
ことを特徴とする請求項1〜18のいずれか1項に記載の情報処理装置。 The first type is character information including characters equal to or more than a first character number, and the second type is character information including characters less than a second character number equal to or less than the first character number. The information processing apparatus according to any one of 1 to 18.
ことを特徴とする請求項1〜18のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 18, wherein the first type is a text, and the second type is a summary.
第1種別の文字情報である第1文字情報と、前記第1種別とは異なる第2種別の文字情報である第2文字情報とを取得する取得工程と、
前記第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、前記第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、前記第1種別の対象文字情報の入力に応じて、前記対象文字情報が前記第2種別に変換された変換文字情報を出力する変換モデルを生成する学習工程と、
を含むことを特徴とする情報処理方法。 An information processing method executed by a computer,
An acquisition step of acquiring first character information that is character information of the first type and second character information that is character information of a second type different from the first type;
Learning with the first character information as input information, learning with the first character information as correct information, and learning with the second character information as input information and with the second character information as correct information Based on the input of the first type of target character information, a learning step of generating a conversion model that outputs the converted character information obtained by converting the target character information into the second type;
An information processing method comprising:
前記第1文字情報を入力情報とするとともに、当該第1文字情報を正解情報とする学習と、前記第2文字情報を入力情報とするとともに、当該第2文字情報を正解情報とする学習とに基づいて、前記第1種別の対象文字情報の入力に応じて、前記対象文字情報が前記第2種別に変換された変換文字情報を出力する変換モデルを生成する学習手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 An acquisition procedure for acquiring first character information that is character information of the first type and second character information that is character information of a second type different from the first type;
Learning with the first character information as input information, learning with the first character information as correct information, and learning with the second character information as input information and with the second character information as correct information Based on the input of the first type of target character information, a learning procedure for generating a conversion model that outputs the converted character information obtained by converting the target character information into the second type;
An information processing program for causing a computer to execute.
第1種別の文字情報である第1文字情報を、前記第1種別とは異なる第2種別の文字情報である第2文字情報に変換する変換モデルと、前記第1種別の対象文字情報とを取得する取得工程と、
前記対象文字情報を前記変換モデルに入力することにより、前記対象文字情報が前記第2種別に変換された変換文字情報を生成する生成工程と、
を含むことを特徴とする情報処理方法。 An information processing method executed by a computer,
A conversion model for converting first character information, which is character information of the first type, into second character information, which is character information of a second type different from the first type, and target character information of the first type An acquisition process to acquire;
Generating the converted character information in which the target character information is converted into the second type by inputting the target character information into the conversion model;
An information processing method comprising:
前記対象文字情報を前記変換モデルに入力することにより、前記対象文字情報が前記第2種別に変換された変換文字情報を生成する生成手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 A conversion model for converting first character information, which is character information of the first type, into second character information, which is character information of a second type different from the first type, and target character information of the first type Acquisition procedure to acquire,
A generation procedure for generating converted character information in which the target character information is converted into the second type by inputting the target character information into the conversion model;
An information processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107118A JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107118A JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211977A true JP2019211977A (en) | 2019-12-12 |
JP6995698B2 JP6995698B2 (en) | 2022-01-17 |
Family
ID=68844104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018107118A Active JP6995698B2 (en) | 2018-06-04 | 2018-06-04 | Information processing equipment, information processing methods, and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6995698B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022181151A (en) * | 2021-05-25 | 2022-12-07 | 仁宝電脳工業股▲ふん▼有限公司 | Translation method and translation device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004457A (en) * | 2005-06-23 | 2007-01-11 | Advanced Telecommunication Research Institute International | Corpus conversion apparatus and computer program |
JP6259946B1 (en) * | 2017-07-20 | 2018-01-10 | 株式会社Nttドコモ | Machine learning system, identification system, and program |
-
2018
- 2018-06-04 JP JP2018107118A patent/JP6995698B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004457A (en) * | 2005-06-23 | 2007-01-11 | Advanced Telecommunication Research Institute International | Corpus conversion apparatus and computer program |
JP6259946B1 (en) * | 2017-07-20 | 2018-01-10 | 株式会社Nttドコモ | Machine learning system, identification system, and program |
Non-Patent Citations (3)
Title |
---|
和田 崇史、岩田 具治: "教師なし系列マッチング", 電子情報通信学会技術研究報告, vol. 第117巻 第367号, JPN6021012783, 13 December 2017 (2017-12-13), JP, pages 31 - 36, ISSN: 0004482333 * |
小林 尚輝 外4名: "双方向翻訳のための中間表現制約を用いたニューラル機械翻訳", 言語処理学会第24回年次大会 発表論文集 [ONLINE], JPN6021012781, 5 March 2018 (2018-03-05), JP, pages 300 - 303, ISSN: 0004482332 * |
米田 昌弘、鶴岡 慶雅: "教師なし英日ニューラル機械翻訳の検討と文の潜在表現の分析", 言語処理学会第25回年次大会 発表論文集 [ONLINE] PROCEEDINGS OF THE TWENTY-FIFTH ANNUAL M, JPN6021012785, 4 March 2019 (2019-03-04), JP, pages 1323 - 1326, ISSN: 0004482334 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022181151A (en) * | 2021-05-25 | 2022-12-07 | 仁宝電脳工業股▲ふん▼有限公司 | Translation method and translation device |
JP7267346B2 (en) | 2021-05-25 | 2023-05-01 | 仁宝電脳工業股▲ふん▼有限公司 | Translation method and translation device |
US11783137B2 (en) | 2021-05-25 | 2023-10-10 | Compal Electronics, Inc. | Translation method and translation device |
Also Published As
Publication number | Publication date |
---|---|
JP6995698B2 (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109219812B (en) | Natural language generation in spoken dialog systems | |
JP6355800B1 (en) | Learning device, generating device, learning method, generating method, learning program, and generating program | |
JP7208952B2 (en) | Method and apparatus for generating interaction models | |
US11521110B2 (en) | Learning apparatus, learning method, and non-transitory computer readable storage medium | |
JP2018156451A (en) | Network learning device, network learning system, network learning method, and program | |
JP6906181B2 (en) | Information processing device, information processing method of time series data, and program | |
US20190354533A1 (en) | Information processing device, information processing method, and non-transitory computer-readable recording medium | |
JP6680659B2 (en) | Information processing device, information processing method, and program | |
JPWO2019163718A1 (en) | Learning devices, speech recognition ranking estimators, their methods, and programs | |
JP6995698B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
KR20210045217A (en) | Device and method for emotion transplantation | |
Lou et al. | Communicating with sentences: A multi-word naming game model | |
US20180268816A1 (en) | Generating device, generating method, and non-transitory computer readable storage medium | |
CN110851580B (en) | Personalized task type dialog system based on structured user attribute description | |
CN113077237A (en) | Course arrangement method and system for self-adaptive hybrid algorithm | |
JP2019079102A (en) | Learning device, generation device, classification device, learning method, learning program, and operation program | |
KR20170128070A (en) | Chord composition method based on recurrent neural network | |
JP6205039B1 (en) | Information processing apparatus, information processing method, and program | |
JP2019079087A (en) | Learning device, program parameter and learning method | |
CN114818613A (en) | Dialogue management model construction method based on deep reinforcement learning A3C algorithm | |
JPWO2018066083A1 (en) | Learning program, information processing apparatus and learning method | |
JP2019057266A (en) | Generation device, learning apparatus, generation method, learning method, generation program, learning program, and model | |
JP2020027549A (en) | Argument analyzer and program | |
WO2023112169A1 (en) | Training method, estimation method, training device, estimation device, training program, and estimation program | |
Flower et al. | Efficient Cloud Platform for Developing a Chatbot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6995698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |