JP7224569B2 - Information processing device, estimation method, and estimation program - Google Patents
Information processing device, estimation method, and estimation program Download PDFInfo
- Publication number
- JP7224569B2 JP7224569B2 JP2022575175A JP2022575175A JP7224569B2 JP 7224569 B2 JP7224569 B2 JP 7224569B2 JP 2022575175 A JP2022575175 A JP 2022575175A JP 2022575175 A JP2022575175 A JP 2022575175A JP 7224569 B2 JP7224569 B2 JP 7224569B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- images
- amount
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Description
本開示は、情報処理装置、推定方法、及び推定プログラムに関する。 The present disclosure relates to an information processing device, an estimation method, and an estimation program.
近年、人間の状況に応じて機器を制御することが望まれている。例えば、人間の状況を示すものとして、人間の行動又は感情がある。例えば、特許文献1には、感情、発話の意図などは、顔及び手の位置を時系列に追う事で得られるそれらの動きから推測できると記載がある。
In recent years, it has been desired to control devices according to human conditions. For example, human behavior or emotions are indicative of human situations. For example,
上記のように、手、足などの体の部位を大きく動かした場合、感情が推定されるものと考えられる。一方、動きが小さい場合、上記の考えでは、推定ができない。 As described above, when a body part such as a hand or a leg is largely moved, it is considered that an emotion is estimated. On the other hand, when the motion is small, estimation cannot be performed according to the above considerations.
本開示の目的は、小さい動きに基づく感情を推定することである。 The purpose of this disclosure is to estimate emotion based on small movements.
本開示の一態様に係る情報処理装置が提供される。情報処理装置は、ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得する取得部と、前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出する抽出部と、前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出する動作量算出部と、前記動作量が予め設定された閾値以下であるか否かを判定する判定部と、前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する推定部と、を有する。 An information processing device according to one aspect of the present disclosure is provided. An information processing apparatus includes an acquisition unit that acquires a plurality of images that include a user and that are captured at different times, and extracts a plurality of pieces of skeletal information representing skeletal feature points of the user based on the plurality of images. an extraction unit that calculates the amount of movement of the user in a preset period based on the plurality of pieces of skeleton information; and a determination unit that determines whether the amount of movement is equal to or less than a preset threshold. and an estimation unit for estimating that the user's feeling is unpleasant when the amount of motion is equal to or less than the threshold.
本開示によれば、小さい動きに基づく感情を推定することができる。 According to the present disclosure, emotions can be estimated based on small movements.
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。 Embodiments will be described below with reference to the drawings. The following embodiments are merely examples, and various modifications are possible within the scope of the present disclosure.
実施の形態.
図1は、実施の形態の制御システムを示す図である。制御システムは、情報処理装置100、撮像装置200、及び制御対象機器300を含む。情報処理装置100、撮像装置200、及び制御対象機器300は、ネットワークを介して、通信する。
情報処理装置100は、推定方法を実行する装置である。情報処理装置100は、制御装置又は感情推定装置と呼んでもよい。Embodiment.
FIG. 1 is a diagram showing a control system according to an embodiment. The control system includes an
The
まず、情報処理装置100が有するハードウェアを説明する。情報処理装置100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、及び通信インタフェース104を有する。
First, hardware included in the
プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。また、情報処理装置100は、処理回路を有してもよい。処理回路は、単一回路又は複合回路でもよい。
The
揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
通信インタフェース104は、撮像装置200及び制御対象機器300と通信する。The
The
例えば、撮像装置200は、監視カメラ、DMS(Driver Monitor System)、又は赤外線カメラである。撮像装置200は、ユーザを撮像する。
情報処理装置100は、撮像装置200から複数の画像(すなわち、映像)を取得する。情報処理装置100は、複数の画像に基づいて、ユーザの感情を推定する。情報処理装置100は、推定された感情の情報に基づいて、制御対象機器300を制御することができる。ここで、制御対象機器300の制御の一例を示す。For example, the
The
図2は、実施の形態の制御対象機器の制御の具体例を示す図である。図2は、制御対象機器300の例として、エレベータの昇降機301を示している。また、図2では、小さい動きをしているユーザの上面図を示している。
撮像装置200は、天井に設置されている。撮像装置200は、ユーザを撮像する。情報処理装置100は、撮像装置200から複数の画像を取得する。情報処理装置100は、複数の画像に基づいて、ユーザの感情を推定する。情報処理装置100は、推定された感情の情報に基づいて、昇降機301を制御する。FIG. 2 is a diagram illustrating a specific example of control of a device to be controlled according to the embodiment. FIG. 2 shows an
The
次に、情報処理装置100が有する機能を説明する。
図3は、実施の形態の情報処理装置の機能を示すブロック図である。情報処理装置100は、記憶部110、取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160を有する。Next, functions of the
FIG. 3 is a block diagram illustrating functions of the information processing apparatus according to the embodiment. The
記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160の一部又は全部は、処理回路によって実現してもよい。また、取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、推定プログラムとも言う。例えば、推定プログラムは、記録媒体に記録されている。The
A part or all of the
取得部120は、撮像時刻がそれぞれ異なる複数の画像を撮像装置200から取得する。取得部120は、複数の画像を外部装置(例えば、クラウドサーバ)から取得してもよい。複数の画像のそれぞれは、異なる時刻にユーザを撮像することにより得られた画像である。そのため、複数の画像のそれぞれには、ユーザが含まれている。
The
抽出部130は、複数の画像に基づいて、複数の骨格情報を抽出する。複数の骨格情報のそれぞれは、ユーザの骨格特徴点を示す情報である。例えば、ユーザの骨格特徴点を示す情報は、座標である。以下、ユーザの骨格特徴点を示す情報は、座標とする。
The
まず、1つの画像に基づいて、1つの骨格情報が抽出される場合を説明する。ここで、骨格情報の例を示す。 First, a case will be described in which one piece of skeleton information is extracted based on one image. Here, an example of skeleton information is shown.
図4は、実施の形態の骨格情報の例を示す図である。図4は、複数の画像のうちの1つの画像である画像400を示している。抽出部130は、公知技術を用いて、骨格情報500を抽出する。例えば、公知技術は、OpenPose又はPoseNetである。骨格情報500は、ユーザの骨格特徴点を示す座標である。例えば、図4の座標501は、ユーザの耳の骨格特徴点を示す。なお、当該座標は、X座標とY座標で表される。
FIG. 4 is a diagram showing an example of skeleton information according to the embodiment. FIG. 4 shows an image 400, which is one of a plurality of images.
図4は、1人のユーザが画像400の中に含まれている場合を示している。複数のユーザが画像の中に含まれている場合、抽出部130は、複数のユーザのそれぞれの骨格情報を抽出する。
FIG. 4 illustrates the case where one user is included in image 400 . When multiple users are included in the image, the
このように、抽出部130は、1つ画像に基づいて、1つの骨格情報を抽出する。同様に、抽出部130は、複数の画像のそれぞれに対して、骨格情報の抽出処理を行う。これにより、複数の骨格情報が得られる。
In this way, the
ここで、制御システムには、複数の撮像装置が含まれてもよい。複数の撮像装置のそれぞれは、異なる位置に設置されている。複数の撮像装置のそれぞれは、異なる方向からユーザを撮像する。複数の撮像装置が制御システムに含まれる場合、取得部120は、複数の撮像装置が同じ時刻にユーザを撮像することにより得られた複数の画像を取得する。例えば、取得部120は、当該複数の画像を複数の撮像装置から取得する。また、取得部120は、複数の撮像装置のそれぞれの位置情報を取得する。例えば、取得部120は、複数の撮像装置のそれぞれの位置情報を記憶部110から取得する。抽出部130は、当該複数の画像と、複数の撮像装置のそれぞれの位置情報とに基づいて、1つの骨格情報を抽出する。ここで、例えば、ある撮像装置が、ある方向からユーザを撮像した場合、ユーザの一部分が撮像されないことがある。そこで、他の撮像装置が、異なる方向からユーザを撮像することで、当該一部分が撮像される。このように、抽出部130は、複数の撮像装置のそれぞれが異なる方向からユーザを撮像することにより得られた複数の画像に基づいて、骨格情報を抽出する。これにより、情報処理装置100は、精度の高い骨格情報を得ることができる。
Here, the control system may include a plurality of imaging devices. Each of the plurality of imaging devices is installed at a different position. Each of the plurality of imaging devices images the user from different directions. When a plurality of imaging devices are included in the control system, the
動作量算出部140は、複数の骨格情報に基づいて、予め設定された期間Tにおける、ユーザの動作量FPを算出する。動作量FPは、期間Tにおける、骨格情報が示す座標(すなわち、骨格特徴点)の移動量の平均により、算出される。時刻t(0<t<T)におけるi(1<i<N)番目の座標を(Xi(t)、Yi(t))とした場合、動作量FPは、式(1)により表される。
The
判定部150は、動作量FPが予め設定された閾値以下であるか否かを判定する。動作量FPが予め設定された閾値以下である場合、ユーザの動きは、小さいと言える。
推定部160は、動作量FPが当該閾値以下である場合、ユーザの感情を不快と推定する。The
The
ここで、例えば、不快は、ユーザが待機しているときに生じる。ユーザは、不快感が高まった場合、貧乏ゆすり、軸足の入れ替え、腕の組み直しの動作などを行う。そこで、推定部160は、不快の動作の種類を推定するために、以下の処理を行ってもよい。推定部160は、複数の骨格情報を用いて、三角関数“Asin(2πft+φ)”を算出する。推定部160は、三角関数“Asin(2πft+φ)”を近似する。これにより、“Asin(2πft+φ)+B”が、得られる。ここで、“Asin(2πft+φ)+B”を示すグラフを例示する。
Here, for example, discomfort occurs when the user is waiting. When the discomfort increases, the user performs motions such as swaying, changing the supporting leg, and rearranging the arm. Therefore, the
図5は、実施の形態のグラフの例を示す図である。縦軸は、骨格特徴点の位置を示す。例えば、縦軸は、足の骨格特徴点の位置を示す。骨格特徴点の位置は、骨格特徴点を示す座標のX座標と考えてもよいし、当該座標のY座標と考えてもよい。横軸は、時刻tを示している。
グラフが示すように、推定部160は、複数の骨格情報に基づいて、“Asin(2πft+φ)+B”を算出することができる。FIG. 5 is a diagram illustrating an example of a graph according to the embodiment; The vertical axis indicates the positions of skeleton feature points. For example, the vertical axis indicates the positions of the skeletal feature points of the foot. The position of the skeleton feature point may be considered as the X coordinate of the coordinates indicating the skeleton feature point, or may be considered as the Y coordinate of the coordinate. The horizontal axis indicates time t.
As shown in the graph, the estimating
推定部160は、“Asin(2πft+φ)+B”に基づいて、周波数を算出する。推定部160は、振幅Aが予め設定された閾値以上である場合、不快の動作が軸足の入れ替え、又は腕の組み直しであると推定する。推定部160は、周波数が予め設定された閾値以上である場合、不快の動作が貧乏ゆすりと推定する。
このように、推定部160は、複数の骨格情報に基づいて、不快の動作の種類を推定する。これにより、情報処理装置100は、不快の動作の種類を推定できる。
In this way,
推定部160は、ユーザが留まっている時間と、不快と推定された時間とに基づいて、不快度を算出してもよい。例えば、推定部160は、複数の画像に基づいて、ユーザが同じ位置に留まっている時間を算出する。推定部160は、複数の画像のうちの複数の画像に基づいて不快と推定された時間を算出する。推定部160は、ユーザが留まっている時間と、不快と推定された時間とに基づいて、不快度を算出する。これにより、情報処理装置100は、ユーザの不快度を検出できる。情報処理装置100は、不快度を低減するための制御を制御対象機器300に行ってもよい。
The
次に、情報処理装置100が実行する処理を、フローチャートを用いて、説明する。
図6は、実施の形態の情報処理装置が実行する処理の例を示すフローチャートである。
(ステップS11)取得部120は、撮像時刻がそれぞれ異なる複数の画像を撮像装置200から取得する。
(ステップS12)抽出部130は、複数の画像に基づいて、複数の骨格情報を抽出する。
(ステップS13)動作量算出部140は、複数の骨格情報に基づいて、ユーザの動作量FPを算出する。Next, processing executed by the
FIG. 6 is a flowchart illustrating an example of processing executed by the information processing apparatus according to the embodiment;
(Step S<b>11 ) The
(Step S12)
(Step S13) The
(ステップS14)判定部150は、動作量FPが予め設定された閾値以下であるか否かを判定する。動作量FPが当該閾値以下である場合、処理は、ステップS15に進む。動作量FPが当該閾値よりも大きい場合、処理は、終了する。
(ステップS15)推定部160は、ユーザの感情を不快と推定する。(Step S14) The
(Step S15) The
上記したように、実施の形態によれば、情報処理装置100は、小さい動きに基づく感情を推定することができる。
As described above, according to the embodiment, the
100 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 104 通信インタフェース、 110 記憶部、 120 取得部、 130 抽出部、 140 動作量算出部、 150 判定部、 160 推定部、 200 撮像装置、 300 制御対象機器、 301 昇降機、 400 画像、 500 骨格情報、 501 座標。 100 information processing device, 101 processor, 102 volatile storage device, 103 nonvolatile storage device, 104 communication interface, 110 storage unit, 120 acquisition unit, 130 extraction unit, 140 operation amount calculation unit, 150 determination unit, 160 estimation unit, 200 imaging device, 300 controlled device, 301 elevator, 400 image, 500 skeleton information, 501 coordinates.
Claims (6)
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出する抽出部と、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出する動作量算出部と、
前記動作量が予め設定された閾値以下であるか否かを判定する判定部と、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する推定部と、
を有する情報処理装置。an acquisition unit that acquires a plurality of images that include a user and are captured at different times;
an extraction unit that extracts a plurality of pieces of skeletal information, which are information indicating skeletal feature points of the user, based on the plurality of images;
an action amount calculation unit that calculates an action amount of the user in a preset period based on the plurality of pieces of skeleton information;
a determination unit that determines whether the amount of movement is equal to or less than a preset threshold;
an estimation unit for estimating that the user's emotion is unpleasant when the amount of motion is equal to or less than the threshold;
Information processing device having
前記抽出部は、前記複数の撮像装置が同じ時刻に前記ユーザを撮像することにより得られた複数の画像と、前記複数の撮像装置のそれぞれの位置情報とに基づいて、前記複数の骨格情報のうちの1つの骨格情報を抽出する、
請求項1に記載の情報処理装置。The acquisition unit acquires a plurality of images obtained by imaging the user at the same time by a plurality of image capturing devices that capture images of the user from different directions, and position information of each of the plurality of image capturing devices. death,
The extraction unit extracts the plurality of skeleton information based on a plurality of images obtained by imaging the user at the same time by the plurality of imaging devices and position information of each of the plurality of imaging devices. extract the skeletal information of one of the
The information processing device according to claim 1 .
請求項1又は2に記載の情報処理装置。The estimation unit estimates the type of the unpleasant motion based on the plurality of pieces of skeleton information.
The information processing apparatus according to claim 1 or 2.
請求項1から3のいずれか1項に記載の情報処理装置。The estimation unit calculates the discomfort level based on the time the user stays and the time estimated to be uncomfortable.
The information processing apparatus according to any one of claims 1 to 3.
ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得し、
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出し、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出し、
前記動作量が予め設定された閾値以下であるか否かを判定し、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する、
推定方法。The information processing device
Acquiring a plurality of images including a user and having different imaging times,
extracting, based on the plurality of images, a plurality of pieces of skeletal information representing skeletal feature points of the user;
calculating an amount of movement of the user in a preset period based on the plurality of pieces of skeleton information;
determining whether the amount of movement is equal to or less than a preset threshold;
estimating that the user's feeling is unpleasant when the amount of movement is equal to or less than the threshold;
estimation method.
ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得し、
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出し、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出し、
前記動作量が予め設定された閾値以下であるか否かを判定し、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する、
処理を実行させる推定プログラム。
information processing equipment,
Acquiring a plurality of images including a user and having different imaging times,
extracting, based on the plurality of images, a plurality of pieces of skeletal information representing skeletal feature points of the user;
calculating an amount of movement of the user in a preset period based on the plurality of pieces of skeleton information;
determining whether the amount of movement is equal to or less than a preset threshold;
estimating that the user's feeling is unpleasant when the amount of movement is equal to or less than the threshold;
An inferred program that causes the process to take place.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/005141 WO2022172384A1 (en) | 2021-02-12 | 2021-02-12 | Information processing device, inference method, and inference program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022172384A1 JPWO2022172384A1 (en) | 2022-08-18 |
JP7224569B2 true JP7224569B2 (en) | 2023-02-17 |
Family
ID=82838524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022575175A Active JP7224569B2 (en) | 2021-02-12 | 2021-02-12 | Information processing device, estimation method, and estimation program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7224569B2 (en) |
TW (1) | TW202232375A (en) |
WO (1) | WO2022172384A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037410A (en) | 2007-08-01 | 2009-02-19 | Nippon Hoso Kyokai <Nhk> | Emotion expression extraction processing device and program thereof |
JP2014206903A (en) | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Facial expression estimation device, control method, control program, and recording medium |
JP2019125061A (en) | 2018-01-12 | 2019-07-25 | ナブテスコ株式会社 | System for estimating condition of person |
-
2021
- 2021-02-12 WO PCT/JP2021/005141 patent/WO2022172384A1/en active Application Filing
- 2021-02-12 JP JP2022575175A patent/JP7224569B2/en active Active
- 2021-07-26 TW TW110127304A patent/TW202232375A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037410A (en) | 2007-08-01 | 2009-02-19 | Nippon Hoso Kyokai <Nhk> | Emotion expression extraction processing device and program thereof |
JP2014206903A (en) | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Facial expression estimation device, control method, control program, and recording medium |
JP2019125061A (en) | 2018-01-12 | 2019-07-25 | ナブテスコ株式会社 | System for estimating condition of person |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022172384A1 (en) | 2022-08-18 |
WO2022172384A1 (en) | 2022-08-18 |
TW202232375A (en) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014171258A1 (en) | Information processing system, information processing method, and program | |
JP4915655B2 (en) | Automatic tracking device | |
US9773192B2 (en) | Fast template-based tracking | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
JP6217635B2 (en) | Fall detection device, fall detection method, fall detection camera, and computer program | |
US20160217326A1 (en) | Fall detection device, fall detection method, fall detection camera and computer program | |
JP2015528936A (en) | Adaptive switching between vision-assisted inertial camera pose estimation and vision-based camera pose estimation | |
JP2019186955A (en) | Information processing system, information processing method, and program | |
JP2011234314A (en) | Image processing apparatus, image processing method and program | |
JP5530399B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP6981555B2 (en) | Performance modeling methods, systems, and programs for crowd estimation methods | |
JP2014186547A (en) | Moving object tracking system, method and program | |
JP7224569B2 (en) | Information processing device, estimation method, and estimation program | |
US11557122B2 (en) | Control apparatus, control system, control method, and storage medium | |
JP5436351B2 (en) | State estimation device, state estimation method, and program | |
JP5639033B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
KR20080079506A (en) | Photographing apparatus for tracking object and method thereof | |
JP6737262B2 (en) | Abnormal state detection device, abnormal state detection method, and abnormal state detection program | |
JP7041046B2 (en) | Group estimation device and group estimation method | |
US11908197B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019192154A (en) | Image processing apparatus, imaging device, image processing method, and program | |
KR101187481B1 (en) | Method and apparatus for extracting hand color to use image recognition based interface and image recognition based interface device | |
CN113691731B (en) | Processing method and device and electronic equipment | |
JP6034671B2 (en) | Information display device, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221205 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7224569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |