JP2019118993A - ロボット、自己診断プログラム、及び自己診断方法 - Google Patents
ロボット、自己診断プログラム、及び自己診断方法 Download PDFInfo
- Publication number
- JP2019118993A JP2019118993A JP2017255190A JP2017255190A JP2019118993A JP 2019118993 A JP2019118993 A JP 2019118993A JP 2017255190 A JP2017255190 A JP 2017255190A JP 2017255190 A JP2017255190 A JP 2017255190A JP 2019118993 A JP2019118993 A JP 2019118993A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- captured image
- unit
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
例えば、故障発見の方法として、ソーシャルロボットの診断対象の可動部位を駆動させた場合、撮像装置により撮像された撮像画像と、到達点に関する正常時の画像と比較して、可動部位の到達位置の妥当性を判断する方法が考えられる。
すなわち、ソーシャルロボットは、撮像画像から背景と診断対象部位とが同色でないかを判定する。同色である場合、ソーシャルロボットは、撮像画像の背景部の色と診断対象部位の色とが相違するように、ロボットの関節等の可動部位を回転駆動させる。ソーシャルロボットは、可動部位の回転駆動に応じて、撮像画像の背景色と診断対象部位の色との差分が閾値を超えたかどうかを判定する。撮像画像の背景色と診断対象部位の色との差分が閾値を超えた場合、ソーシャルロボットは、診断対象部位の色とは異なる背景色が検出されたと判定し、可動部位の駆動を停止させる。
背景影響処理部45は、アクション指令部44の指令に基づいて動作した部位を被写体として撮像された撮像画像から背景色と診断対象部位の画像部分とが判別可能なように、本実施形態における前処理を行う。背景影響処理部45は、すなわち対象部位を駆動させたり、背景色を変化させたりして、背景色と診断対象部位の画像部分との画素値の差が明確になる画像を撮像し、取得する。
図5は、本実施形態(実施例1)における背景影響処理部の処理を説明する図である。図5(a)は、撮像画像において、自己診断の対象部位とその周辺の背景色とが同色(類似色)であるため、対象部位と背景の境界線が不明瞭であるため対象部位を認識できないまたは認識しづらいことを説明する図である。枠61で示すように、対象部位と背景の境界線が不明瞭であるため対象部位を認識できないまたは認識しづらい。
図6は、本実施形態(実施例1)における画像比較部46の処理(その1)を説明するための図である。図6(a)は、ロボット11が両腕を下げている状態と(上側)、その状態で、撮像部17より撮像した画像(下側)を示す。図6(b)は、ロボット11が右腕を90度まで上げている状態と(上側)、その状態で、撮像部17より撮像した画像(下側)を示す。図6(c)は、ロボット11が右腕をさらに180度まであげている状態と(上側)、その状態で、撮像部17より撮像した画像(下側)を示す。
図13は、本実施形態(実施例2)における背景影響処理(S4a)の詳細な処理を示すフローチャートである。背景影響処理部45は、記憶部28から特徴点(または外界特徴点)の色彩情報52を取得する。図13のフローチャートは、図9のフリーチャートに、S41,S32の処理を追加したものである。
背景影響処理部45は、S12で抽出した背景色と特徴点(または外界特徴点)の色彩情報52は、同色かどうかを判定する。S12で抽出した背景色と特徴点(または外界特徴点)の色彩情報52が同色でない場合(S13で「NO」)、本フローは終了する。
(付記1)
被写体を撮像する撮像部と、
1以上の可動部位を有するロボットの表面に露出しているパーツの色彩情報を記憶する記憶部と、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させるアクション指令部と、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、前記記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得する背景処理部と、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う判定部と、
を備えることを特徴とするロボット。
(付記2)
前記背景処理部は、前記対象部位が前記撮像部以外の部位である場合、前記取得した色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記対象部位を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記1に記載のロボット。
(付記3)
前記背景処理部は、前記対象が前記撮像部である場合、ロボット自身の一部または前記ロボットの周囲にある物体を特徴体とし、該特徴体の色に対応する色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記特徴体を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記1又は2に記載のロボット。
(付記4)
前記ロボットは、さらに、光を照射する光源を備え、
前記背景処理部は、前記光源から前記被写体に光が照射された状態において、前記取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像する
ことを特徴とする付記1〜3のいずれ1項に記載のロボット。
(付記5)
前記光源は、前記対象部位に設けられ、
前記背景処理部は、前記対象部位の色彩情報と前記背景色とが類似する場合、前記光源に該背景色とは異なる色を発色させて、前記撮像部により撮像する
ことを特徴とする付記4に記載のロボット。
(付記6)
前記判定部は、前記撮像部の撮像位置に基づいて、該撮像位置に対する前記対象部位の相対的な変位を判別し、前記対象部位が正常か否かの判定を行う
ことを特徴とする付記1〜5のいずれ1項に記載のロボット。
(付記7)
1以上の可動部位と、被写体を撮像する撮像部とを有するロボットに搭載されたコンピュータに、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させ、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、
前記ロボットの表面に露出しているパーツの色彩情報を記憶する記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、
取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得し、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う
ことを特徴とする自己診断プログラム。
(付記8)
前記特定撮像画像の取得において、前記対象部位が前記撮像部以外の部位である場合、前記取得した色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記対象部位を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記7に記載の自己診断プログラム。
(付記9)
前記特定撮像画像の取得において、前記対象が前記撮像部である場合、ロボット自身の一部または前記ロボットの周囲にある物体を特徴体とし、該特徴体の色に対応する色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記特徴体を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記7又は8に記載の自己診断プログラム。
(付記10)
前記ロボットは、さらに、光を照射する光源を有し、
前記特定撮像画像を取得する場合、前記光源から前記被写体に光が照射された状態において、前記取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像する
ことを特徴とする付記7〜9のいずれ1項に記載の自己診断プログラム。
(付記11)
前記光源は、前記対象部位に設けられ、
前記特定撮像画像の取得において、前記対象部位の色彩情報と前記背景色とが類似する場合、前記光源に該背景色とは異なる色を発色させて、前記撮像部により撮像する
ことを特徴とする付記10に記載の自己診断プログラム。
(付記12)
前記判定を行う場合、前記撮像部の撮像位置に基づいて、該撮像位置に対する前記対象部位の相対的な変位を判別し、前記対象部位が正常か否かの判定を行う
ことを特徴とする付記7〜11のいずれ1項に記載の自己診断プログラム。
(付記13)
1以上の可動部位と、被写体を撮像する撮像部とを有するロボットに搭載されたコンピュータが、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させ、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、
前記ロボットの表面に露出しているパーツの色彩情報を記憶する記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、
取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得し、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う
ことを特徴とする自己診断方法。
(付記14)
前記特定撮像画像の取得において、前記対象部位が前記撮像部以外の部位である場合、前記取得した色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記対象部位を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記13に記載の自己診断方法。
(付記15)
前記特定撮像画像の取得において、前記対象が前記撮像部である場合、ロボット自身の一部または前記ロボットの周囲にある物体を特徴体とし、該特徴体の色に対応する色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記特徴体を特定することができる前記特定撮像画像を取得する
ことを特徴とする付記13又は14に記載の自己診断方法。
(付記16)
前記ロボットは、さらに、光を照射する光源を有し、
前記特定撮像画像を取得する場合、前記光源から前記被写体に光が照射された状態において、前記取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像する
ことを特徴とする付記13〜15のいずれ1項に記載の自己診断方法。
(付記17)
前記光源は、前記対象部位に設けられ、
前記特定撮像画像の取得において、前記対象部位の色彩情報と前記背景色とが類似する場合、前記光源に該背景色とは異なる色を発色させて、前記撮像部により撮像する
ことを特徴とする付記16に記載の自己診断方法。
(付記18)
前記判定を行う場合、前記撮像部の撮像位置に基づいて、該撮像位置に対する前記対象部位の相対的な変位を判別し、前記対象部位が正常か否かの判定を行う
ことを特徴とする付記13〜17のいずれ1項に記載の自己診断方法。
2 撮像部
3 記憶部
4 アクション指令部
5 背景処理部
6 判定部
7 光源
11 ロボット
12 頭部
13 左腕部
14 右腕部
15 胴体部
16 土台部
17 撮像部
21 手動入力部
22 センサ
23 外部I/F
24 コントローラ
25 制御部
26 入力部
27 通信部
28 記憶部
29 アクチュエータ制御部
30 音声出力部
31 バス
32 アクチュエータ部
33 腕軸駆動部
34 胴軸駆動部
35 頭軸駆動部
36 スピーカ
37 発光制御部
38 光源
Claims (8)
- 被写体を撮像する撮像部と、
1以上の可動部位を有するロボットの表面に露出しているパーツの色彩情報を記憶する記憶部と、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させるアクション指令部と、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、前記記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得する背景処理部と、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う判定部と、
を備えることを特徴とするロボット。 - 前記背景処理部は、前記対象部位が前記撮像部以外の部位である場合、前記取得した色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記対象部位を特定することができる前記特定撮像画像を取得する
ことを特徴とする請求項1に記載のロボット。 - 前記背景処理部は、前記対象が前記撮像部である場合、ロボット自身の一部または前記ロボットの周囲にある物体を特徴体とし、該特徴体の色に対応する色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から前記特徴体を特定することができる前記特定撮像画像を取得する
ことを特徴とする請求項1又は2に記載のロボット。 - 前記ロボットは、さらに、光を照射する光源を備え、
前記背景処理部は、前記光源から前記被写体に光が照射された状態において、前記取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像する
ことを特徴とする請求項1〜3のいずれ1項に記載のロボット。 - 前記光源は、前記対象部位に設けられ、
前記背景処理部は、前記対象部位の色彩情報と前記背景色とが類似する場合、前記光源に該背景色とは異なる色を発色させて、前記撮像部により撮像する
ことを特徴とする請求項1〜4のいずれ1項に記載のロボット。 - 前記判定部は、前記撮像部の撮像位置に基づいて、該撮像位置に対する前記対象部位の相対的な変位を判別し、前記対象部位が正常か否かの判定を行う
ことを特徴とする請求項1〜5のいずれ1項に記載のロボット。 - 1以上の可動部位と、被写体を撮像する撮像部とを有するロボットに搭載されたコンピュータに、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させ、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、
前記ロボットの表面に露出しているパーツの色彩情報を記憶する記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、
取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得し、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う
ことを特徴とする自己診断プログラム。 - 1以上の可動部位と、被写体を撮像する撮像部とを有するロボットに搭載されたコンピュータが、
前記ロボットの対象部位についての自己診断を指示する自己診断指示に基づいて、前記ロボットの可動部位に所定のアクションを実行させ、
前記アクションの実行後に前記撮像部により撮像した撮像画像を取得し、
前記ロボットの表面に露出しているパーツの色彩情報を記憶する記憶部から前記撮像画像の対象とする被写体の色に対応する色彩情報を取得し、
取得した該色彩情報と前記撮像画像に撮像された背景色との類似度に応じて、前記ロボットの姿勢を調整する毎に前記撮像部により撮像することにより、前記撮像画像から対象となる被写体を特定することができる撮像画像である特定撮像画像を取得し、
前記特定撮像画像に基づいて、前記対象部位が正常か否かの判定を行う
ことを特徴とする自己診断方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017255190A JP6922733B2 (ja) | 2017-12-29 | 2017-12-29 | ロボット、自己診断プログラム、及び自己診断方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017255190A JP6922733B2 (ja) | 2017-12-29 | 2017-12-29 | ロボット、自己診断プログラム、及び自己診断方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019118993A true JP2019118993A (ja) | 2019-07-22 |
JP6922733B2 JP6922733B2 (ja) | 2021-08-18 |
Family
ID=67307562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017255190A Active JP6922733B2 (ja) | 2017-12-29 | 2017-12-29 | ロボット、自己診断プログラム、及び自己診断方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6922733B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112757284A (zh) * | 2019-10-21 | 2021-05-07 | 佳能株式会社 | 机器人控制装置、方法和存储介质 |
JP7516140B2 (ja) | 2019-12-25 | 2024-07-16 | ニデックインスツルメンツ株式会社 | ロボットの監視システム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61226289A (ja) * | 1985-03-29 | 1986-10-08 | 株式会社神戸製鋼所 | ロボツト・マニピユレ−タの診断装置 |
JPH02262991A (ja) * | 1989-03-31 | 1990-10-25 | Mitsubishi Electric Corp | ロボット動作監視装置 |
JP2005349556A (ja) * | 2004-06-11 | 2005-12-22 | Toshiyuki Horiuchi | 飛翔ロボット |
JP2009066678A (ja) * | 2007-09-11 | 2009-04-02 | Yaskawa Electric Corp | ロボットハンドおよびロボットハンドシステム |
DE102010023736A1 (de) * | 2009-06-15 | 2011-01-27 | Fanuc Ltd | Robotersystem mit Problemerkennungsfunktion |
JP2015199192A (ja) * | 2014-03-31 | 2015-11-12 | キヤノン株式会社 | ロボットシステムの制御方法、プログラム、記録媒体、及びロボットシステム |
JP2015221474A (ja) * | 2014-05-23 | 2015-12-10 | 学校法人立命館 | ロボット制御装置、ロボット制御方法、及びプログラム |
US9375841B1 (en) * | 2014-05-28 | 2016-06-28 | Google Inc. | Robotic devices with ambient indications of joint status |
JP2017124468A (ja) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | ロボット制御方法、部品の製造方法、ロボット装置、プログラム及び記録媒体 |
-
2017
- 2017-12-29 JP JP2017255190A patent/JP6922733B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61226289A (ja) * | 1985-03-29 | 1986-10-08 | 株式会社神戸製鋼所 | ロボツト・マニピユレ−タの診断装置 |
JPH02262991A (ja) * | 1989-03-31 | 1990-10-25 | Mitsubishi Electric Corp | ロボット動作監視装置 |
JP2005349556A (ja) * | 2004-06-11 | 2005-12-22 | Toshiyuki Horiuchi | 飛翔ロボット |
JP2009066678A (ja) * | 2007-09-11 | 2009-04-02 | Yaskawa Electric Corp | ロボットハンドおよびロボットハンドシステム |
DE102010023736A1 (de) * | 2009-06-15 | 2011-01-27 | Fanuc Ltd | Robotersystem mit Problemerkennungsfunktion |
JP2015199192A (ja) * | 2014-03-31 | 2015-11-12 | キヤノン株式会社 | ロボットシステムの制御方法、プログラム、記録媒体、及びロボットシステム |
JP2015221474A (ja) * | 2014-05-23 | 2015-12-10 | 学校法人立命館 | ロボット制御装置、ロボット制御方法、及びプログラム |
US9375841B1 (en) * | 2014-05-28 | 2016-06-28 | Google Inc. | Robotic devices with ambient indications of joint status |
JP2017124468A (ja) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | ロボット制御方法、部品の製造方法、ロボット装置、プログラム及び記録媒体 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112757284A (zh) * | 2019-10-21 | 2021-05-07 | 佳能株式会社 | 机器人控制装置、方法和存储介质 |
CN112757284B (zh) * | 2019-10-21 | 2024-03-22 | 佳能株式会社 | 机器人控制装置、方法和存储介质 |
JP7516140B2 (ja) | 2019-12-25 | 2024-07-16 | ニデックインスツルメンツ株式会社 | ロボットの監視システム |
Also Published As
Publication number | Publication date |
---|---|
JP6922733B2 (ja) | 2021-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8214082B2 (en) | Nursing system | |
CN101522377B (zh) | 机械手 | |
US20170303825A1 (en) | Gait Analysis Medical Assistance Robot | |
JP2011067941A5 (ja) | ||
JP7351383B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20200041384A (ko) | 충돌 검출, 추정 및 회피 | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2017094409A (ja) | 動作予告装置 | |
US20180129303A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019118993A (ja) | ロボット、自己診断プログラム、及び自己診断方法 | |
US20210200311A1 (en) | Proxy controller suit with optional dual range kinematics | |
KR20120033414A (ko) | 자기 위치 인식을 수행하는 로봇 및 그의 운용 방법 | |
KR101378305B1 (ko) | 로봇맵 생성 방법 및 시스템 | |
CN113056315B (zh) | 信息处理装置、信息处理方法和程序 | |
US11256925B2 (en) | Monitoring system and monitoring method thereof | |
CN111673745A (zh) | 一种基于体感互动的机器人控制系统和方法 | |
US12115686B2 (en) | Operation system and operation method | |
KR20190091870A (ko) | 모션센서와 vr을 활용한 로봇 제어 시스템 | |
JP4568024B2 (ja) | 眼球運動測定装置、及び眼球運動測定プログラム | |
JP2019202354A (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
JP2006007390A (ja) | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 | |
US20220016773A1 (en) | Control apparatus, control method, and program | |
CN109571423A (zh) | 机器人控制系统、机器人控制方法及机器人控制系统用的用户设备 | |
JP2020175466A (ja) | 教示装置及び教示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201008 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6922733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |