JP2019046472A - 画像処理装置、画像処理方法 - Google Patents
画像処理装置、画像処理方法 Download PDFInfo
- Publication number
- JP2019046472A JP2019046472A JP2018160599A JP2018160599A JP2019046472A JP 2019046472 A JP2019046472 A JP 2019046472A JP 2018160599 A JP2018160599 A JP 2018160599A JP 2018160599 A JP2018160599 A JP 2018160599A JP 2019046472 A JP2019046472 A JP 2019046472A
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- operation point
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】 撮像画像中の対象物体の輪郭を構成する点群のうち、規定の条件を満たす点を操作点として選択し、該操作点に基づいて処理を実行する。
【選択図】 図1
Description
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、PC(パーソナルコンピュータ)やタブレット端末装置などのコンピュータ装置である情報処理装置1000と、頭部装着型表示装置の一例としてのHMD1100と、を有する。情報処理装置1000とHMD1100との間は、互いにデータ通信が可能なように接続されており、例えば、LANやインターネットなどのネットワークを介して接続されている。なお、情報処理装置1000とHMD1100との間の接続形態については特定の接続形態に限らず、例えば、無線であっても良いし有線であっても良い。
本実施形態を含め、以下では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、選択する操作点の数を1としていたが、選択する操作点の数は2以上であっても良い。選択可能な操作点の数を2以上とし、それぞれの操作点について、該操作点の位置や動きに応じた処理を実行可能とすることで、対象物体による操作の種類を第1の実施形態よりも増加させることができる。本実施形態では、図2のフローチャートにおいて、上記のステップS2100〜S2500の代わりに図6のフローチャートに従った処理を行う。
第1,2の実施形態では、1つの対象物体に対して1つの操作点を設定していたが、1つの対象物体に対して設定可能な操作点の数は2以上であっても良い。例えば、1本の指を用いる場合よりも、複数の指を用いる場合の方が、より多様な操作を実現することができるため、1つの手における複数の指に対して操作点を設定し、該設定した操作点のそれぞれの位置や動きなどに応じた処理を実行することには意義がある。本実施形態では、図2のフローチャートにおいて、上記のステップS2300〜S2500の代わりに図12のフローチャートに従った処理を行う。
本変形例では、第3の実施形態において説明した複数の操作点の算出方法とは異なる別の算出方法について説明する。本変形例では、図2のフローチャートにおいて、上記のステップS2300〜S2500の代わりに図14のフローチャートに従った処理を行う。
上記の各実施形態や変形例では、対象物体の3次元輪郭線をステレオ画像を用いて求めていたが、対象物体の3次元輪郭線を求めるための方法は特定の方法に限らない。例えば、図17に示す如く、HMD1100にデプスカメラ17010を搭載して、対象物体のデプス画像を撮像させる。デプスカメラ17010による対象物体のデプス画像は情報処理装置1000に対して送出される。輪郭生成部1020は、デプスカメラ17010からのデプス画像を用いて対象物体の3次元輪郭線を求める。
第1の実施形態では、操作点となる所定の特徴は、操作状態に特に依存しないが、操作状態によって操作点を得るための特徴を切り替えることができれば、操作性が向上することが期待される。
本実施形態では、操作点を得る実空間オブジェクトが複数存在した場合に、操作点を抽出するための1つの実空間オブジェクトを選択する方法を、操作状態によって切り替える方法について説明する。
図1,17に示した情報処理装置1000の各機能部はハードウェアで実装しても良いが、保持部1060を除く他の機能部についてはソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、保持部1060として機能するメモリを有し、且つこのソフトウェアを実行可能なコンピュータ装置は、上記の情報処理装置1000に適用可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (20)
- 撮像画像中の対象物体の輪郭を構成する点群のうち、規定の条件を満たす点を操作点として選択する選択手段と、
前記操作点に基づいて処理を実行する処理手段と
を備えることを特徴とする画像処理装置。 - 前記選択手段は、前記点群のうち前記撮像画像において最も上側に位置する点を前記操作点として選択することを特徴とする請求項1に記載の画像処理装置。
- 前記処理手段は、前記操作点に仮想物体を配置し、該仮想物体が他の仮想物体と接触した場合には、対応する処理を実行することを特徴とする請求項1に記載の画像処理装置。
- 前記処理手段は、前記操作点の付近に仮想物体を配置することを特徴とする請求項1に記載の画像処理装置。
- 前記選択手段は、撮像画像中の複数の対象物体のそれぞれについて、該対象物体の輪郭を構成する点群のうち規定の条件を満たす点を操作点として選択することを特徴とする請求項1に記載の画像処理装置。
- 前記処理手段は、前記複数の対象物体のそれぞれについて前記選択手段が選択した操作点に基づいて処理を実行することを特徴とする請求項5に記載の画像処理装置。
- 前記処理手段は、前記選択手段が選択した操作点ごとに、該操作点に固有の処理を実行することを特徴とする請求項5に記載の画像処理装置。
- 前記選択手段は、前記点群のうち規定の条件を満たす複数の点を前記操作点として選択することを特徴とする請求項1に記載の画像処理装置。
- 前記選択手段は、前記点群のうち尖度が閾値以上となる点を前記操作点として選択することを特徴とする請求項8に記載の画像処理装置。
- 前記選択手段は、前記点群のうち規定の条件を満たす点と、該点を基準とする領域内で規定の条件を満たす点と、を前記操作点として選択することを特徴とする請求項8に記載の画像処理装置。
- 前記撮像画像から前記対象物体を抽出する抽出手段と、
前記対象物体の3次元輪郭線を生成する輪郭生成手段とを備え、
前記選択手段は、前記3次元輪郭線を構成する点群のうち規定の条件を満たす点を前記操作点として選択することを特徴とする請求項1に記載の画像処理装置。 - 前記輪郭生成手段は、ステレオ画像を用いて前記3次元輪郭線を生成することを特徴とする請求項11に記載の画像処理装置。
- 前記輪郭生成手段は、デプスカメラによる前記対象物体の画像を用いて前記3次元輪郭線を生成することを特徴とする請求項11に記載の画像処理装置。
- 更に、
前記撮像画像を撮像する撮像部の位置姿勢に応じた仮想物体の画像を生成する生成手段と、
前記撮像画像と前記仮想物体の画像との合成画像を生成し、該生成した合成画像を表示部に対して出力する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 - 前記生成手段は、前記操作点に基づいて前記仮想物体の画像を生成することを特徴とする請求項14に記載の画像処理装置。
- 前記生成手段は、前記操作点の3次元位置に配置したポインタの画像を生成することを特徴とする請求項15に記載の画像処理装置。
- 前記表示部は、頭部装着型表示装置であることを特徴とする請求項14に記載の画像処理装置。
- 前記選択手段は、前記対象物体に対する操作状態に基づいて操作点を選択することを特徴とする請求項1に記載の画像処理装置。
- 画像処理装置が行う画像処理方法であって、
撮像画像中の対象物体の輪郭を構成する点群のうち、規定の条件を満たす点を操作点として選択し、
前記操作点に基づいて処理を実行する
ことを特徴とする画像処理方法。 - コンピュータを、請求項1乃至18の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017167664 | 2017-08-31 | ||
JP2017167664 | 2017-08-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046472A true JP2019046472A (ja) | 2019-03-22 |
JP7209495B2 JP7209495B2 (ja) | 2023-01-20 |
Family
ID=65437625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018160599A Active JP7209495B2 (ja) | 2017-08-31 | 2018-08-29 | 画像処理装置、画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US20190066385A1 (ja) |
JP (1) | JP7209495B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022546502A (ja) * | 2019-09-27 | 2022-11-04 | アップル インコーポレイテッド | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112424728A (zh) * | 2018-07-20 | 2021-02-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274270A (ja) * | 1993-03-10 | 1994-09-30 | Roehm Properties Bv | 仮想現実空間データ入力装置 |
JP2014225145A (ja) * | 2013-05-16 | 2014-12-04 | スタンレー電気株式会社 | 入力操作装置 |
JP2015046092A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 画像処理装置とこれを有する頭部装着型表示装置 |
JP2016091457A (ja) * | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
JP2016194744A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7774075B2 (en) * | 2002-11-06 | 2010-08-10 | Lin Julius J Y | Audio-visual three-dimensional input/output |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US9934451B2 (en) * | 2013-06-25 | 2018-04-03 | Microsoft Technology Licensing, Llc | Stereoscopic object detection leveraging assumed distance |
JP6237000B2 (ja) * | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US20150205358A1 (en) * | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
US10310675B2 (en) * | 2014-08-25 | 2019-06-04 | Canon Kabushiki Kaisha | User interface apparatus and control method |
CN104740869B (zh) * | 2015-03-26 | 2018-04-03 | 北京小小牛创意科技有限公司 | 一种融合真实环境的虚实结合的交互方法及系统 |
US10409443B2 (en) * | 2015-06-24 | 2019-09-10 | Microsoft Technology Licensing, Llc | Contextual cursor display based on hand tracking |
WO2017024142A1 (en) * | 2015-08-04 | 2017-02-09 | Google Inc. | Input via context sensitive collisions of hands with objects in virtual reality |
US10353478B2 (en) * | 2016-06-29 | 2019-07-16 | Google Llc | Hover touch input compensation in augmented and/or virtual reality |
JP2018142168A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US10481755B1 (en) * | 2017-04-28 | 2019-11-19 | Meta View, Inc. | Systems and methods to present virtual content in an interactive space |
-
2018
- 2018-08-23 US US16/110,496 patent/US20190066385A1/en not_active Abandoned
- 2018-08-29 JP JP2018160599A patent/JP7209495B2/ja active Active
-
2022
- 2022-04-26 US US17/729,099 patent/US20220254123A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274270A (ja) * | 1993-03-10 | 1994-09-30 | Roehm Properties Bv | 仮想現実空間データ入力装置 |
JP2014225145A (ja) * | 2013-05-16 | 2014-12-04 | スタンレー電気株式会社 | 入力操作装置 |
JP2015046092A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 画像処理装置とこれを有する頭部装着型表示装置 |
JP2016091457A (ja) * | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
JP2016194744A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Non-Patent Citations (1)
Title |
---|
安室 喜弘他4名: "Clip−Interface:ウェアラブルPCによる3次元作業空間インタフェースの提案", 画像ラボ, JPN6022025306, 1 July 2003 (2003-07-01), JP, ISSN: 0004802163 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022546502A (ja) * | 2019-09-27 | 2022-11-04 | アップル インコーポレイテッド | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース |
JP7465952B2 (ja) | 2019-09-27 | 2024-04-11 | アップル インコーポレイテッド | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース |
Also Published As
Publication number | Publication date |
---|---|
US20220254123A1 (en) | 2022-08-11 |
JP7209495B2 (ja) | 2023-01-20 |
US20190066385A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
US10082879B2 (en) | Head mounted display device and control method | |
KR101687017B1 (ko) | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
US10438373B2 (en) | Method and system for determining a pose of camera | |
Lee et al. | Handy AR: Markerless inspection of augmented reality objects using fingertip tracking | |
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6611501B2 (ja) | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 | |
US8998718B2 (en) | Image generation system, image generation method, and information storage medium | |
WO2013175700A1 (ja) | 情報処理装置および情報処理方法 | |
US10453235B2 (en) | Image processing apparatus displaying image of virtual object and method of displaying the same | |
CN102884492A (zh) | 增强现实的指向装置 | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
US20220254123A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP7162079B2 (ja) | 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
JP4938748B2 (ja) | 画像認識装置及びプログラム | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
US11520409B2 (en) | Head mounted display device and operating method thereof | |
JP7363962B2 (ja) | 処理装置、検出装置、システム及びプログラム | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
US20200258193A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7209495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |