JP7476578B2 - 学習装置及びプログラム - Google Patents
学習装置及びプログラム Download PDFInfo
- Publication number
- JP7476578B2 JP7476578B2 JP2020038858A JP2020038858A JP7476578B2 JP 7476578 B2 JP7476578 B2 JP 7476578B2 JP 2020038858 A JP2020038858 A JP 2020038858A JP 2020038858 A JP2020038858 A JP 2020038858A JP 7476578 B2 JP7476578 B2 JP 7476578B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- output
- model
- pairs
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims description 74
- 238000001914 filtration Methods 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 12
- 230000002787 reinforcement Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 238000012552 review Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 241000501754 Astronotus ocellatus Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、本実施形態の基本原理について説明する。
図1は、本実施形態における学習装置の構成ブロック図を示す。
(1)学習データから負例を作成し、正例と負例を結合して新たな学習データとする
(2)新たな学習データでフィルタモデルを学習する
(3)学習済のフィルタモデルで元の学習データをフィルタリングする
(4)フィルタ済の学習データを教師データとして要約モデルを学習する
(A)フィルタモデル
(B)要約モデル
フィルタモデル22におけるフィルタリングの方法として、Gregoire等(Francis Gregoire and Philippe Langlais. Extracting parallel sentences with bidirectional recurrent neural networks to improve machine translation. In COLING 2018.)の手法を用いる。この研究では,Siamese Network を利用して、翻訳の対となる文を取得し、新たに学習データに加える事で翻訳モデルの精度を向上させている。翻訳前の言語の文と翻訳後の言語の文をモデルへの入力とする。モデルは正しい翻訳になっているペアとそうでないペアかを判定するように学習する。学習後のモデルで、文単位の対応関係がわからないペアに対して予測を行い、正例を新たに学習データに加える事で精度を向上させている。
要約モデル24のモデリングには、例えばCopyNet(Jiatao Gu, Zhengdong Lu, Hang Li, and Victor O.K. Li. Incorporating copying mechanism in sequence-to-sequence learning. In ACL 2016.)を用いることができる。CopyNetは注意機構付きEncoder-Decoder モデルに、入力文(本文)に含まれる未知語を出力文(要約)に生成できる機構を加えたモデルである。パラメータは、フィルタモデル22と同様に単語Embedding の次元を300、初期値にGloVe(GloVe: Global Vectors for Word Representation. In EMNLP 2014.) を採用し得る。また、隠れ層の次元は256等とし得る。Beam Search のサイズを8とし、最適化にはAdam を使用し、損失関数にはCrossEntropy を使用し得る。
図4は、本実施形態の処理フローチャートを示す。
(C1,S1),(C2,S2),(C3,S3),(C4,S4)・・・
であるとすると、これらをシャッフルして、
(C1,S2),(C2,S5),(C3,S1),(C4,S10),・・・
と負例32を生成する等である。
<フィルタモデル22の学習結果>
学習済フィルタモデル22のタイトルと本文ペアを正しく判定する精度(F1値)は、
TIFU タイトルデータ:0.930
Enron subject データ:0.800
であった。TIFU タイトルデータにおいてより精度が高かった理由としては、TIFU タイトルの方がEnron のsubjectに比べ要約長が長い事、また、Reddit の投稿自体の内容がメールデータに比べ多岐に渡るので、本文との関係性を予測しやすい点が挙げられる。
5%:0.215
10%:0.307
15%:0.390
20%:0.467
であり、Reddit タイトルデータにおいて、
5%:0.246
10%:0.424
15%:0.584
20%:0.717
であった。閾値の値が高めになっているのは、フィルタリング対象のデータがフィルタモデル22の学習データ26における正例だからである。
フィルタリング後の要約モデル24の学習結果を表1及び表2に示す。表1は、TIFUタイトルでの結果であり、表2はEnron subjectでの結果である。
「Trimming my beard; a tale of woe」
と本文
「I have strong beard, it's been growing for 10 months. start trimming accidentally trim off too much compensate. Depression kicks in」
のペアは予測確率1.000と出力される。また、タイトル
「Telling my students a PERSON PERSON joke」
と本文
「They just looked at me weirdly and thought I was some kind of horrible person now I guess I should just teach what is written in the textbook」
のペアは予測確率0.004と出力される。予測確率0.004のペアは、不適切なペアとして除去される。なお、「person」は、具体的な人名を置き換えたものである。
本実施形態において、学習済の要約モデル24を用いて本文を入力し、要約を出力した場合の誤差あるいは精度をフィルタモデル22にフィードバックし、フィルタモデル22を強化学習することでフィルタモデル22のフィルタ精度をさらに向上させてもよい。
本実施形態では、学習済のフィルタモデル22において、出力された予測確率を閾値と比較し、閾値以下の予測確率を有するペアを不適切なペアとして除去しているが、予測確率に基づいてエントロピーを算出し、算出したエントロピーを用いて不適切なペアを除去してもよい。
本実施形態では、負例生成部30における処理として、ランダムサンプリングやシャッフルを例示したが、文章間の類似度を算出し、類似度に基づいて類似度が閾値以上離れるように負例32を生成してもよい。文章間の類似度は、LevenShtein距離、Humming距離、Cosine距離等の距離指標を用いて算出し得る。ここで、LevenShtein距離は、二つの文字列がどの程度異なっているかを示す距離の一種であり、1文字の挿入・削除・置換によって、一方の文字列をもう一方の文字列に変形するのに必要な手順の最小回数として定義される。また、Hamming 距離は、等しい文字数を持つ2つの文字列の中で、対応する位置にある異なった文字の個数であり、ある文字列を別の文字列に変形する際に必要な置換回数を計測したものである。
Claims (10)
- 入力と出力の複数ペアを入力する入力部と、
プロセッサと、
出力部と、
を備え、前記プロセッサは、プログラムを実行することで、
前記入力と出力のペアを正例として生成し、前記入力と出力の組み合わせが変更されたペアを負例として生成し、
前記正例及び前記負例を用いてフィルタモデルを学習し、
前記フィルタモデルを用いて、前記入力と出力のペアから誤ったペアを除去してフィルタリングする、
学習装置。 - 前記プロセッサは、さらに、
前記フィルタリングされた入力と出力のペアを用いて、入力から出力を得るモデルを学習する、
請求項1に記載の学習装置。 - 前記プロセッサは、
前記入力と出力のペアをランダムに入れ替えることで前記負例を生成する、
請求項1,2のいずれかに記載の学習装置。 - 前記プロセッサは、
前記入力と出力間の類似度に基づいて前記負例を生成する、
請求項1,2のいずれかに記載の学習装置。 - 前記プロセッサは、
学習済みの前記入力から出力を得るモデルの出力結果に基づき、前記フィルタモデルを強化学習する、
請求項2に記載の学習装置。 - 前記フィルタモデルは、入力と出力の正しいペアであるかの判定確率を用いる、
請求項1-5のいずれかに記載の学習装置。 - 前記フィルタモデルは、入力と出力の正しいペアであるかの判定確率から算出されるエントロピーを用いる、
請求項1-5のいずれかに記載の学習装置。 - 前記入力は本文データであり、前記出力は前記本文データの要約データである、
請求項1-7のいずれかに記載の学習装置。 - 前記入力は原文データであり、前記出力は前記原文データの翻訳文データである、
請求項1-7のいずれかに記載の学習装置。 - コンピュータに、
入力と出力のペアを入力するステップと、
前記入力と出力のペアを正例として生成し、前記入力と出力の組み合わせが変更されたペアを負例として生成するステップと、
前記正例及び前記負例を用いてフィルタモデルを学習するステップと、
前記フィルタモデルを用いて、前記入力と出力のペアから誤ったペアを除去してフィルタリングするステップと、
を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038858A JP7476578B2 (ja) | 2020-03-06 | 2020-03-06 | 学習装置及びプログラム |
US17/008,714 US20210279638A1 (en) | 2020-03-06 | 2020-09-01 | Training apparatus and non-transitory computer readable medium |
CN202010933785.3A CN113360535A (zh) | 2020-03-06 | 2020-09-08 | 学习装置、学习方法和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038858A JP7476578B2 (ja) | 2020-03-06 | 2020-03-06 | 学習装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140558A JP2021140558A (ja) | 2021-09-16 |
JP7476578B2 true JP7476578B2 (ja) | 2024-05-01 |
Family
ID=77524435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020038858A Active JP7476578B2 (ja) | 2020-03-06 | 2020-03-06 | 学習装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210279638A1 (ja) |
JP (1) | JP7476578B2 (ja) |
CN (1) | CN113360535A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11354515B2 (en) * | 2020-07-21 | 2022-06-07 | Salesforce, Inc. | Discovery and recommendation of online learning resources |
US11481425B2 (en) * | 2021-02-22 | 2022-10-25 | International Business Machines Corporation | Automatic generation of presentation slides from documents |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003248676A (ja) | 2002-02-22 | 2003-09-05 | Communication Research Laboratory | 解データ編集処理装置、解データ編集処理方法、自動要約処理装置、および自動要約処理方法 |
JP2018206262A (ja) | 2017-06-08 | 2018-12-27 | 日本電信電話株式会社 | 単語連接識別モデル学習装置、単語連接検出装置、方法、及びプログラム |
JP2019149030A (ja) | 2018-02-27 | 2019-09-05 | 日本電信電話株式会社 | 学習品質推定装置、方法、及びプログラム |
US20190294694A1 (en) | 2018-03-21 | 2019-09-26 | International Business Machines Corporation | Similarity based negative sampling analysis |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250311B2 (en) * | 2017-03-15 | 2022-02-15 | Salesforce.Com, Inc. | Deep neural network-based decision network |
WO2019027259A1 (en) * | 2017-08-01 | 2019-02-07 | Samsung Electronics Co., Ltd. | APPARATUS AND METHOD FOR PROVIDING SUMMARY INFORMATION USING ARTIFICIAL INTELLIGENCE MODEL |
GB201805293D0 (en) * | 2018-03-29 | 2018-05-16 | Benevolentai Tech Limited | Attention filtering for multiple instance learning |
CN113678147A (zh) * | 2019-04-09 | 2021-11-19 | 基诺媒体株式会社 | 搜索方法以及信息处理系统 |
US20210142181A1 (en) * | 2019-11-07 | 2021-05-13 | Microsoft Technology Licensing, Llc | Adversarial training of machine learning models |
US11222167B2 (en) * | 2019-12-19 | 2022-01-11 | Adobe Inc. | Generating structured text summaries of digital documents using interactive collaboration |
-
2020
- 2020-03-06 JP JP2020038858A patent/JP7476578B2/ja active Active
- 2020-09-01 US US17/008,714 patent/US20210279638A1/en not_active Abandoned
- 2020-09-08 CN CN202010933785.3A patent/CN113360535A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003248676A (ja) | 2002-02-22 | 2003-09-05 | Communication Research Laboratory | 解データ編集処理装置、解データ編集処理方法、自動要約処理装置、および自動要約処理方法 |
JP2018206262A (ja) | 2017-06-08 | 2018-12-27 | 日本電信電話株式会社 | 単語連接識別モデル学習装置、単語連接検出装置、方法、及びプログラム |
JP2019149030A (ja) | 2018-02-27 | 2019-09-05 | 日本電信電話株式会社 | 学習品質推定装置、方法、及びプログラム |
US20190294694A1 (en) | 2018-03-21 | 2019-09-26 | International Business Machines Corporation | Similarity based negative sampling analysis |
Non-Patent Citations (1)
Title |
---|
白井 圭佑 ほか,人工負例による識別器を用いたニューラル機械翻訳,言語処理学会 第25回年次大会 発表論文集,言語処理学会,2019年03月,pp.105-108 |
Also Published As
Publication number | Publication date |
---|---|
JP2021140558A (ja) | 2021-09-16 |
CN113360535A (zh) | 2021-09-07 |
US20210279638A1 (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | User reviews: Sentiment analysis using lexicon integrated two-channel CNN–LSTM family models | |
Cheng et al. | An emotion cause corpus for chinese microblogs with multiple-user structures | |
Millstein | Natural language processing with python: natural language processing using NLTK | |
Gao et al. | Text classification research based on improved Word2vec and CNN | |
JP7476578B2 (ja) | 学習装置及びプログラム | |
CN111339772B (zh) | 俄语文本情感分析方法、电子设备和存储介质 | |
Errami et al. | Sentiment Analysis onMoroccan Dialect based on ML and Social Media Content Detection | |
Wadud et al. | Text coherence analysis based on misspelling oblivious word embeddings and deep neural network | |
Sajid et al. | Roman Urdu multi-class offensive text detection using hybrid features and SVM | |
Bhatia et al. | Analysing cyberbullying using natural language processing by understanding jargon in social media | |
Ziani et al. | Combining RSS-SVM with genetic algorithm for Arabic opinions analysis | |
Amur et al. | State-of-the Art: Short Text Semantic Similarity (STSS) Techniques in Question Answering Systems (QAS) | |
CN116108840A (zh) | 一种文本细粒度情感分析方法、系统、介质和计算设备 | |
JP6586055B2 (ja) | 深層格解析装置、深層格学習装置、深層格推定装置、方法、及びプログラム | |
Pratheek et al. | Prediction of answer keywords using char-RNN | |
Lo et al. | GPoeT-2: A GPT-2 based poem generator | |
Chua et al. | A comparative study of sentiment-based graphs of text summaries | |
Patel et al. | Mental health detection using transformer bert | |
Indirakanth et al. | Sarcasm Identification Of Dravidian Languages (Malayalam and Tamil). | |
Le et al. | CRYPTEXT: Database and Interactive Toolkit of Human-Written Text Perturbations in the Wild | |
Langlais et al. | Issues in analogical inference over sequences of symbols: A case study on proper name transliteration | |
Liza | Sentence classification with imbalanced data for health applications | |
Banovic et al. | How Soon Can We Detect Depression? | |
Kolappan | Computer Assisted Short Answer Grading with Rubrics using Active Learning | |
Feng et al. | Opinion analysis based on TNF (textual noise fixing) algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476578 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |