JP2018055232A - コンテンツ提供装置、コンテンツ提供方法、及びプログラム - Google Patents
コンテンツ提供装置、コンテンツ提供方法、及びプログラム Download PDFInfo
- Publication number
- JP2018055232A JP2018055232A JP2016187993A JP2016187993A JP2018055232A JP 2018055232 A JP2018055232 A JP 2018055232A JP 2016187993 A JP2016187993 A JP 2016187993A JP 2016187993 A JP2016187993 A JP 2016187993A JP 2018055232 A JP2018055232 A JP 2018055232A
- Authority
- JP
- Japan
- Prior art keywords
- content
- group
- interest level
- interest
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
商品紹介エリアや展示会エリアなど、コンテンツ視聴者として個人、グループが混在するような場において、コンテンツ視聴者に適切なコンテンツを提供することが可能な、コンテンツ提供装置、コンテンツ提供方法、及びプログラムを提供することである。
例えば、前記関心度取得手段は、前記グループに含まれる各人物の関心度の平均値または最大値を、前記グループの関心度として取得することができる。
また、前記関心度取得手段は、前記グループに含まれる各人物の中から前記グループの代表者を選定し、選定した前記代表者の関心度を、前記グループの関心度として取得することができる。この場合、前記関心度取得手段は、前記グループに含まれる各人物の位置情報、属性情報、発話情報、又は滞留時間に基づいて、前記グループの代表者を選定することが望ましい。
また、前記関心度取得手段は、更にコンテンツの提供後において認識した前記ジェスチャに基づいて、前記関心度を取得するようにしてもよい。
また、前記コンテンツ提供手段は、新たな個人またはグループに対してコンテンツを提供する際、前記記憶手段を参照して、前記個人または前記グループの属性に対して関心度の高いコンテンツを選択し提供するようにしてもよい。
を含むことを特徴とするコンテンツ提供方法である。
図1は、コンテンツ提供システム1のシステム構成の一例を示す図である。コンテンツ提供システム1は、本発明に係るコンテンツ提供装置の一形態であるロボット2、コンピュータ3、カメラ4、マイク5、及びディスプレイ6を備えて構成される。ロボット2、カメラ4、マイク5、及びディスプレイ6はコンピュータ3と通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、カメラ4、マイク5、及びディスプレイ6とコンピュータ3との通信接続の形態は、有線、無線を問わない。
図2に示すように、ロボット2は、制御部201、記憶部202、入力部203、表示部204、メディア入出力部205、通信I/F206、可動部駆動機構207、周辺機器I/F部208、音声処理部209、カメラ210、マイク211、センサ212、スピーカ213がバス220を介して接続されて構成される。
ROMは、ロボット2のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部201が各種処理を行うために使用するワークエリアを備える。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
音声認識部は、言語判別された音声データに対して、言語毎に用意された音声認識用の統計モデル(音響モデルおよび言語モデル)を用いて音声認識処理を実行することで、人物の発話内容を認識する。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
バス309は、制御信号、データ信号等の授受を媒介する経路である。
人物認識部21は、図4に示すように、顔認識部21A、位置取得部21B、認識時間取得部21C、属性取得部21D、の各機能を更に含む。
「グループ」とは、少なくとも複数の人物から構成され、かつ、人物同士の間に何らかの物理的な関係(位置が近いなど)や属性的な関係(子ども連れ家族、カップルなど)が存在する場合をいう。「個人」とは、どの人物ともグループを形成しない単一の人物のことをいう。
各人物のトラッキング位置32に基づいて人物間の距離を算出し、距離が近い人物同士をグループとして認識する。
(2)認識時間33
各人物の認識時間33が近い人物同士をグループとして認識する。
(3)人物属性34
各人物の人物属性34に基づいて年齢(年代)・性別などの属性が近い人物同士をグループとして認識する。
グループID41(「G1」)のグループは、人物ID31が「P1」、「P2」、「P3」の人物から構成されるグループであり、グループ属性はグループ属性ID「A1」の“子ども連れ家族”である。
また、グループID41(「G2」)のグループは、人物IDが「P4」、「P5」の人物から構成されグループであり、グループ属性はグループ属性ID「A2」の“20代カップル”である。
図7は、グループ属性を決定する際に参照されるグループ属性テーブル50を示す。
グループ属性テーブル50は、グループ属性を一意に識別するグループ属性ID43と、グループ属性の内容を示すグループ属性52と、グループ属性の諸条件を示すグループ条件53と、を対応付けて保持する。
個人・グループ認識部22は、個人属性テーブル55(図9)を参照することで、個人属性を決定する。なお個人属性として図5の人物属性34を用いてもかまわない。
コンテンツデータが映像データの場合、ロボット2の表示部204やディスプレイ6に映像を表示させる。コンテンツデータが音声データの場合、ロボット2のスピーカ213から音声出力させる。コンテンツデータがテキストデータの場合、音声処理部209が、発話DB120を参照してテキストデータに対応する合成音声を生成し、スピーカ213から音声出力させる。或いは、ロボット2の表示部204やディスプレイ6にテキストデータを表示させる。コンテンツデータが動作データの場合、動作データに含まれる各アクションに対応した可動部制御シーケンスをアクションDB130から読み出し、可動部駆動機構207に対して制御信号を送り、各駆動部を動作させる。
図11は、認識対象とするジェスチャ内容を保持するジェスチャテーブル70を示す。図に示すように、ジェスチャテーブル70は、ジェスチャを一意に識別するジェスチャID71と、ジェスチャの内容を示すジェスチャ内容72と、ジェスチャ内容72に示すジェスチャを顔器官や手足の位置や動き等の特徴量(動作パターン)として表すジェスチャ特徴量73と、を対応付けて保持する。
具体的には、まず、ジェスチャ認識部24により認識したジェスチャIDとジェスチャを行った人物の人物IDの通知を受けると、当該人物のコンテンツに対する関心度増減値82を関心度算出テーブル80(図12)から取得する。
図12は、関心度を算出するために参照される関心度算出テーブル80の内容を示す。図に示すように、関心度算出テーブル80には、各ジェスチャに対する関心度のスコアである関心度増減値82が設定されている。
一方、個人・グループ認識部22により「グループ」と認識された場合には、そのグループの関心度履歴テーブル90の各人物の関心度スコア93に基づいて、グループ全体としての関心度のスコアであるグループ関心度スコア95を算出し取得する。
このうち図13(b)の平均スコア95a(+9)は、グループ関心度スコア95を、グループに含まれる各人物の関心度スコア93(+3、+17、+7)の平均値としたものである。
また図13(b)の最大スコア95b(+17)は、グループ関心度スコア95を、グループに含まれる各人物の関心度スコア93(+3、+17、+7)の最大値としたものである。
例えば、人物認識情報30の人物属性34を参照して、グループに含まれる各人物の中で年齢が一番高い人物を、グループの代表者に選定する。或いは、コンテンツが特定の属性(年齢層、性別など)をターゲットとしたものであれば、その属性と最も近い人物をグループの代表者に選定する。
(2)位置情報
例えば、カメラ210(距離センサ)やマイク211(マイクロホンアレイ)を用いて人物との距離を測位し、ロボット2から一番距離の近い人物をグループの代表者に選定する。
(3)発話情報
例えば、マイク211の収録音声を解析し、グループの中で最も発話量が多い(良く喋っている)人物や最も発話音量が大きい(大きい声で喋っている)人物をグループの代表者に選定する。
(4)滞留時間
例えば、人物認識情報30の認識時間33を参照して、グループに含まれる人物ごとに認識時間33から現在時刻までの時間である滞留時間を算出し、滞留時間が最も長い人物をグループの代表者に選定する。
ロボット2は例えば商品紹介エリアや展示エリアなどに設置されており、来客する人物に対して以下の処理を実行する。
なお、コンテンツ提供後の反応も関心度に反映させたい場合には、コンテンツの提供を終えてから所定時間経過するまで、ステップS3とステップS4を繰り返す。
具体的には、前述したように、「個人」の場合には、その個人の関心度履歴テーブル90の関心度スコア93(関心度増減値82の合計値)を取得し、関心度スコア93から決定される関心度(「高い」「中程度」「低い」)を、提供したコンテンツと個人属性に紐づけて、コンテンツ関心度テーブル100に反映設定する。
例えば、ロボット2は、ステップS2においてコンテンツを提供する際に、ステップS1において認識したコンテンツ視聴者(「個人」及び/又は「グループ」)の属性を取得する。そして、コンテンツ関心度テーブル100を参照して、取得した属性に対して関心度の高いコンテンツを選択して提供する。例えば、ステップS2においてコンテンツ視聴者のグループ属性としてグループ属性ID「A2」が取得されたとする。この場合、ロボット2は、図14のコンテンツ関心度テーブル100を参照して、グループ属性ID「A2」の中で関心度が高いコンテンツID「C3」のコンテンツを選択して提供する。なお、ステップS1において複数の「個人」や複数の「グループ」が認識された場合(コンテンツ視聴者が複数存在する場合)には、例えば、ロボット2と最も距離が近いコンテンツ視聴者(「個人」または「グループ」)の属性を取得し、当該属性に関心度の高いコンテンツを提供すればよい。
2……………………ロボット
3……………………コンピュータ
4……………………カメラ
5……………………マイク
6……………………ディスプレイ
8……………………ネットワーク
21…………………人物認識部
21A………………顔認識部
21B………………位置取得部
21C………………認識時間取得部
21D………………属性取得部
22…………………グループ認識部
23…………………コンテンツ提供部
24…………………ジェスチャ認識部
25…………………関心度取得部
26…………………関心度反映部
30…………………人物認識情報
32…………………トラッキング位置
33…………………認識時間
34…………………人物属性
40…………………グループ認識情報
45…………………個人認識情報
50…………………グループ属性テーブル
55…………………個人属性テーブル
60…………………コンテンツリスト
70…………………ジェスチャテーブル
80…………………関心度算出テーブル
90…………………関心度履歴テーブル
93…………………関心度スコア
95…………………グループ関心度スコア
95a………………平均スコア
95b………………最大スコア
95c………………代表者スコア
100………………コンテンツ関心度テーブル
201………………制御部
202………………記憶部
203………………入力部
204………………表示部
205………………メディア入出力部
206………………通信I/F
207………………可動部駆動機構
208………………周辺機器I/F部
209………………音声処理部
210………………カメラ
211………………マイク
212………………センサ
213………………スピーカ
220………………バス
Claims (13)
- コンテンツの提供対象である個人またはグループを認識する認識手段と、
コンテンツを提供するコンテンツ提供手段と、
前記コンテンツに対する前記個人または前記グループの関心度を取得する関心度取得手段と、
取得した前記関心度を前記コンテンツに紐づけて記憶する記憶手段と、
を備えることを特徴とするコンテンツ提供装置。 - 前記関心度取得手段は、前記グループに含まれる各人物の関心度に基づいて、前記グループの関心度を取得する
ことを特徴とする請求項1に記載のコンテンツ提供装置。 - 前記関心度取得手段は、前記グループに含まれる各人物の関心度の平均値または最大値を、前記グループの関心度として取得する
ことを特徴とする請求項2に記載のコンテンツ提供装置。 - 前記関心度取得手段は、前記グループに含まれる各人物の中から前記グループの代表者を選定し、選定した前記代表者の関心度を、前記グループの関心度として取得する
ことを特徴とする請求項2に記載のコンテンツ提供装置。 - 前記関心度取得手段は、前記グループに含まれる各人物の位置情報、属性情報、発話情報、又は滞留時間に基づいて、前記グループの代表者を選定する
ことを特徴とする請求項4に記載のコンテンツ提供装置。 - 前記個人または前記グループに含まれる各人物のジェスチャを認識するジェスチャ認識手段、を更に備え、
前記関心度取得手段は、コンテンツの提供中において認識した前記ジェスチャに基づいて、前記関心度を取得する
ことを特徴とする請求項1から請求項5のいずれかに記載のコンテンツ提供装置。 - 前記関心度取得手段は、更にコンテンツの提供後において認識した前記ジェスチャに基づいて、前記関心度を取得する
ことを特徴とする請求項6に記載のコンテンツ提供装置。 - 前記記憶手段は、取得した前記関心度を、前記個人または前記グループの属性情報と紐づけて記憶する
ことを特徴とする請求項1から請求項7のいずれかに記載のコンテンツ提供装置。 - 前記コンテンツ提供手段は、新たな個人またはグループに対してコンテンツを提供する際、前記記憶手段を参照して、前記個人または前記グループの属性に対して関心度の高いコンテンツを選択し提供する
ことを特徴とする請求項8に記載のコンテンツ提供装置。 - 前記コンテンツ提供手段は、前記コンテンツの提供中に前記関心度取得手段により取得される前記コンテンツに対する関心度に応じて、提供するコンテンツを変える
ことを特徴とする請求項1から請求項9のいずれかに記載のコンテンツ提供装置。 - 前記認識手段は、周囲の各人物の位置情報、認識時間、又は属性情報に基づいて、前記グループを認識する
ことを特徴とする請求項1から請求項10のいずれかに記載のコンテンツ提供装置。 - コンテンツの提供対象である個人またはグループを認識する認識ステップと、
コンテンツを提供するコンテンツ提供ステップと、
前記コンテンツに対する前記個人または前記グループの関心度を取得する関心度取得ステップと、
取得した前記関心度を前記コンテンツに紐づけて記憶する記憶ステップと、
を含むことを特徴とするコンテンツ提供方法。 - 請求項1から請求項11のいずれかに記載のコンテンツ提供装置として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016187993A JP6972526B2 (ja) | 2016-09-27 | 2016-09-27 | コンテンツ提供装置、コンテンツ提供方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016187993A JP6972526B2 (ja) | 2016-09-27 | 2016-09-27 | コンテンツ提供装置、コンテンツ提供方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018055232A true JP2018055232A (ja) | 2018-04-05 |
JP6972526B2 JP6972526B2 (ja) | 2021-11-24 |
Family
ID=61835755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016187993A Active JP6972526B2 (ja) | 2016-09-27 | 2016-09-27 | コンテンツ提供装置、コンテンツ提供方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6972526B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019124976A (ja) * | 2018-01-11 | 2019-07-25 | トヨタ自動車株式会社 | リコメンド装置、リコメンド方法、及びリコメンドプログラム |
JP2021018482A (ja) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | ロボット管理装置、ロボット管理方法およびロボット管理システム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331628A (ja) * | 2000-05-24 | 2001-11-30 | Just Syst Corp | マーケティング調査システム及び方法、装置並びに記録媒体 |
WO2006085383A1 (ja) * | 2005-02-10 | 2006-08-17 | Fujitsu Limited | 情報提供システムおよび情報提供方法 |
JP2009037050A (ja) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | 対話装置と対話用プログラム |
JP2010041194A (ja) * | 2008-08-01 | 2010-02-18 | Oki Electric Ind Co Ltd | 情報処理システム、及び視聴効果測定方法 |
US20100207874A1 (en) * | 2007-10-30 | 2010-08-19 | Hewlett-Packard Development Company, L.P. | Interactive Display System With Collaborative Gesture Detection |
JP2013109051A (ja) * | 2011-11-18 | 2013-06-06 | Glory Ltd | 電子情報提供システム及び電子情報提供方法 |
JP2016122272A (ja) * | 2014-12-24 | 2016-07-07 | 富士通株式会社 | 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム |
JP2016130915A (ja) * | 2015-01-13 | 2016-07-21 | 東芝テック株式会社 | ドライブスルーシステム |
-
2016
- 2016-09-27 JP JP2016187993A patent/JP6972526B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331628A (ja) * | 2000-05-24 | 2001-11-30 | Just Syst Corp | マーケティング調査システム及び方法、装置並びに記録媒体 |
WO2006085383A1 (ja) * | 2005-02-10 | 2006-08-17 | Fujitsu Limited | 情報提供システムおよび情報提供方法 |
JP2009037050A (ja) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | 対話装置と対話用プログラム |
US20100207874A1 (en) * | 2007-10-30 | 2010-08-19 | Hewlett-Packard Development Company, L.P. | Interactive Display System With Collaborative Gesture Detection |
JP2010041194A (ja) * | 2008-08-01 | 2010-02-18 | Oki Electric Ind Co Ltd | 情報処理システム、及び視聴効果測定方法 |
JP2013109051A (ja) * | 2011-11-18 | 2013-06-06 | Glory Ltd | 電子情報提供システム及び電子情報提供方法 |
JP2016122272A (ja) * | 2014-12-24 | 2016-07-07 | 富士通株式会社 | 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム |
JP2016130915A (ja) * | 2015-01-13 | 2016-07-21 | 東芝テック株式会社 | ドライブスルーシステム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019124976A (ja) * | 2018-01-11 | 2019-07-25 | トヨタ自動車株式会社 | リコメンド装置、リコメンド方法、及びリコメンドプログラム |
JP2021018482A (ja) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | ロボット管理装置、ロボット管理方法およびロボット管理システム |
JP7273638B2 (ja) | 2019-07-17 | 2023-05-15 | 本田技研工業株式会社 | ロボット管理装置、ロボット管理方法およびロボット管理システム |
Also Published As
Publication number | Publication date |
---|---|
JP6972526B2 (ja) | 2021-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423909B2 (en) | Word flow annotation | |
US20220284896A1 (en) | Electronic personal interactive device | |
US11858118B2 (en) | Robot, server, and human-machine interaction method | |
US20210081056A1 (en) | Vpa with integrated object recognition and facial expression recognition | |
Wu et al. | Survey on audiovisual emotion recognition: databases, features, and data fusion strategies | |
Jaimes et al. | Multimodal human–computer interaction: A survey | |
JP2010224715A (ja) | 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体 | |
JP2016177483A (ja) | コミュニケーション支援装置、コミュニケーション支援方法及びプログラム | |
JP6886651B2 (ja) | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 | |
JP6972526B2 (ja) | コンテンツ提供装置、コンテンツ提供方法、及びプログラム | |
JP2017182261A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Zhen-Tao et al. | Communication atmosphere in humans and robots interaction based on the concept of fuzzy atmosfield generated by emotional states of humans and robots | |
Park et al. | Music-aided affective interaction between human and service robot | |
Schuller et al. | Speech communication and multimodal interfaces | |
CN111971670A (zh) | 在对话中生成响应 | |
Lin et al. | Nonverbal acoustic communication in human-computer interaction | |
JP2017068592A (ja) | ロボット、ロボット制御装置、ロボット制御方法、及びプログラム | |
Yuan | An approach to integrating emotion in dialogue management | |
AlTarawneh | A cloud-based extensible avatar for human robot interaction | |
Pandey | Lip Reading as an Active Mode of Interaction with Computer Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6972526 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |