JP2022048184A - 監視表示装置 - Google Patents
監視表示装置 Download PDFInfo
- Publication number
- JP2022048184A JP2022048184A JP2022001243A JP2022001243A JP2022048184A JP 2022048184 A JP2022048184 A JP 2022048184A JP 2022001243 A JP2022001243 A JP 2022001243A JP 2022001243 A JP2022001243 A JP 2022001243A JP 2022048184 A JP2022048184 A JP 2022048184A
- Authority
- JP
- Japan
- Prior art keywords
- character
- person
- monitoring
- sight
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 128
- 238000001514 detection method Methods 0.000 claims abstract description 54
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】監視表示装置10は、立哨する警備員を模したキャラクタの画像を表示する表示部11と、監視空間内の人物を検知する検知部181と、監視空間内で人物が検知されていない場合、キャラクタの視線を所定範囲内で移動させる目配り動作を実行し、監視空間内で人物が検知された場合、キャラクタの視線の移動可能範囲を所定範囲より大きくし且つキャラクタの視線を検知された人物に向ける追跡動作を実行するようにキャラクタの画像表示を制御することで、キャラクタの動作を表示制御する表示制御部182と、を有する。
【選択図】図2
Description
なお、監視システム1は、それぞれ異なる複数の監視対象をそれぞれ管理する複数の管理装置20を有してもよい。その場合、監視システム1は、各監視対象から離れた位置に設置された監視センタに配置されたサーバ装置をさらに有し、サーバ装置が、各管理装置20が管理する情報を収集し、管理してもよい。
音声入力部14は、マイクロフォンと、光電変換素子から出力された電気信号を増幅し、アナログ/デジタル(A/D)変換するA/D変換器とを有する。音声入力部14は、入力された音声をデジタルの入力音声に変換して制御部18へ出力する。
音声出力部15は、例えばスピーカ等であり、制御部18からの指示に従って音声を出力する。
また、記憶部17は、データとして、監視空間における監視表示装置10の設置位置、及び、入場ゲートや立入禁止区域等の特定エリアの位置を記憶する。また、記憶部17は、データとして、監視空間におけるセンサ12の配置位置、及び、パルスレーザの照射方向を記憶する。また、記憶部17は、データとして、撮像部13により撮像される画像内の各画素と、監視空間内の各位置との対応関係を示すマップ情報を記憶する。
制御部18は、撮像部13が監視空間を撮像した入力画像又は音声入力部14が集音した入力音声を、通信部16を介して管理装置20へ送信する。また、制御部18は、通信部16を介して管理装置20から受信した監視員の音声を音声出力部15から出力する。
第2音声入力部22は、音声入力部14と同様の構成を有し、入力された音声をデジタルの音声データに変換して第2制御部26へ出力する。
第2音声出力部23は、音声出力部15と同様の構成を有し、第2制御部26からの指示に従って音声を出力する。
第2制御部26は、第2通信部24を介して監視表示装置10から受信した入力画像を第2表示部21に表示するとともに、第2通信部24を介して監視表示装置10から受信した入力音声を第2音声出力部23から出力する。また、第2制御部26は、第2音声入力部22から入力された監視員による音声を、第2通信部24を介して監視表示装置10に送信する。
表示部11は、例えば、液晶ディスプレイ又は有機ELディスプレイ等のモニターの表示面にミラーパネル111を貼り合わせることにより形成されている。ミラーパネル111は、外側(監視空間側)からの光を反射しつつ、内側(モニター側)からの光(画像)を透過する。これにより、表示部11は、監視空間Aを往来する人物H1、H2の像を反射させて表示しつつ、制御部18から出力された警備員キャラクタCの画像を表示する。
ミラーパネル111の外枠112には、センサ12が監視空間Aに向けて近赤外線のパルスレーザを投光可能に配置される。同様に、外枠112には、撮像部13が監視空間Aを撮像可能に配置され、音声入力部14が監視空間Aの音を集音可能に配置され、音声出力部15が監視空間Aに向けて音を出力可能に配置される。なお、センサ12、撮像部13、音声入力部14及び音声出力部15の配置は外枠112に限られるものではなく、ミラーパネル111越しに配置されてもよい。
検知部181は、入力画像から人物を検知する。検知部181は、例えばフレーム間差分処理または背景差分処理を利用して、順次撮影された複数の入力画像において輝度値の時間的な変化を有する変化領域を抽出する。検知部181は、抽出した各変化領域の大きさ、形状等の特徴量に基づいて、人物らしいと考えられる変化領域を人物領域として抽出する。検知部181は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素を抽出する。検知部181は、抽出したエッジ画素から、例えば一般化ハフ変換を用いて、所定の大きさを有する、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を顔領域として抽出する。なお、検知部181は、Adaboost識別器等の他の公知の方法を用いて顔領域を抽出してもよい。検知部181は、入力画像から顔領域を抽出した場合、その顔領域に対応する人物領域に含まれる人物を監視空間内の人物として検出する。そして、検知部181は、マップ情報に基づいて、検出した人物の足元が写っている、人物領域の最下端の画素に対応する監視空間内の位置を人物位置として特定する。検知部181は、複数の顔領域が抽出された場合、抽出した顔領域毎に人物を検出して人物位置を特定する。
また、検知部181は、音声入力部14から入力音声を取得し、取得した入力音声から人物を検知してもよい。検知部181は、入力音声の音圧が、予め設定された閾値以上である場合に、監視空間に人物が存在すると判定する。なお、検知部181は、入力音声の周波数が、予め設定された範囲内である場合に、監視空間に人物が存在すると判定してもよい。
検知部181は、複数の入力画像にわたって抽出された人物領域に対して公知のトラッキング技術を利用して追跡処理を行い、同一人物が写っている人物領域同士を対応付けることにより人物領域を追跡する。検知部181は、例えば、現フレームから抽出された人物領域の重心位置と、前フレームから抽出された人物領域の重心位置の距離を求めて、その距離が閾値以下である場合に、その人物領域に写っている人物を同一人物として対応付ける。なお、人物領域が複数抽出されている場合、検知部181は、距離が閾値以下である人物領域の内、重心位置が最も近い人物領域に写っている人物を同一人物として対応付ける。また、検知部181は、オプティカルフロー、パーティクルフィルタ等の他の公知の方法を用いて人物領域の追跡処理を行ってもよい。
なお、検知部181は、センサ12から取得した測距データから人物を検知した場合、今回検出された人物位置と、前回検出された人物位置の距離を求めて、その距離が閾値以下である場合に、その人物位置に対応する人物を同一人物として対応付ける。なお、人物が複数検知されている場合、検知部181は、距離が閾値以下である人物位置の内、最も近い人物位置に対応する人物を同一人物として対応付ける。
一方、表示制御部182は、検知された人物が所定行動を行っている場合に限り追跡動作を実行するように警備員キャラクタの画像表示を制御することにより、より注意を払うべき人物に対して警備員キャラクタの存在感を強く発揮させることが可能となる。
例えば、検知部181は、機械学習技術を用いて、人物の属性を特定する。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物の属性を出力するように事前に学習された識別器を記憶部17に記憶しておく。検知部181は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された属性を、その人物領域に写っている人物の属性として取得する。
なお、検知部181は、特徴量マッチング技術を用いて、各人物の属性を特定してもよい。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像から算出された「目」「鼻」「口」等の各部位の特徴量をその属性と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク(Haar-Like)特徴量又はHOG(Histogram of Oriented Gradient)特徴量等である。検知部181は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。検知部181は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた属性を、その人物領域に写っている人物の属性として取得する。類似の程度は、正規化相互相関値等である。
表示制御部182は、検知された人物が所定の属性(例えば男性、20歳以上、緊迫した表情等)を有する場合に限り追跡動作を実行するように警備員キャラクタの画像表示を制御する。これにより、表示制御部182は、より注意を払うべき人物に対して警備員キャラクタの存在感を強く発揮させることが可能となる。
また、表示制御部182は、図5(a)、(b)に示す例では、警備員キャラクタの目の向き及び顔の向きを変更することにより視線を変更させているが、目の向き、顔(頭部)の向き又は体全体(全身)の向きの何れか一つ又は複数を変更することにより視線を変更させてもよい。
また、表示制御部182は、各人物に対して優先度を設定してもよい。例えば、表示制御部182は、監視表示装置10の設置位置又は特定エリアの位置に近い人物ほど高くなるように優先度を設定する。または、表示制御部182は、動き(移動距離)が大きい人物ほど高くなるように優先度を設定してもよい。そして、表示制御部182は、優先度が高い人物から順に警備員キャラクタCの視線を向けるように視線方向を決定する。なお、表示制御部182は、優先度が高い人物ほど警備員キャラクタCの視線を向ける時間を長くしてもよい。これにより、表示制御部182は、より危険性が高い人物に対して、見られている意識を強く与えることが可能となる。
また、表示制御部182は、各人物の人物位置及び/又は各人物の移動方向に基づいて、各人物をグループ化してもよい。例えば、表示制御部182は、人物位置が特定の距離内である一又は複数の人物、及び/又は、移動方向(ベクトル)の差が特定の範囲内である一又は複数の人物を一つのグループにまとめる。表示制御部182は、一定時間毎に、警備員キャラクタCの視線を向けるグループを変更し、そのグループに含まれる各人物の人物位置の重心位置に警備員キャラクタCの視線を向けるように視線方向を決定する。これにより、表示制御部182は、検知された人物が多数存在する場合に、視線を効率良く変更することができる。
なお、表示制御部182は、図6(a)、(b)に示す例では、警備員キャラクタの顔の向きを変更することにより視線を変更させているが、目の向き又は体全体の向きを変更することにより視線を変更させてもよい。
また、表示制御部182は、追跡動作における警備員キャラクタの動作する部位(目、顔、体全体等)、即ち動作範囲が、目配り動作における警備員キャラクタの動作範囲より大きくなるように、警備員キャラクタの画像表示を制御してもよい。例えば、表示制御部182は、警備員キャラクタの視線を変更させるために、目配り動作では目の向きのみを変更しつつ、追跡動作では顔又は体全体の向きを変更する。または、表示制御部182は、目配り動作では顔の向きを変更しつつ、追跡動作では体全体の向き変更する。即ち、表示制御部182は、目配り動作では警備員キャラクタの目又は顔を動かすことにより視線を移動させるように動作範囲を設定し、追跡動作では警備員キャラクタの体全体を動かすことにより視線を移動させるように動作範囲を設定する。これにより、表示制御部182は、その人物に対して見られている意識をより強く与えることが可能となる。また、目配り動作と追跡動作とにおいて警備員キャラクタCが同じ方向を向く場合でも視線の向け方を異ならせるようにしてもよい。例えば、正面から左側に30度の方向に視線を向ける場合、目配り動作では目の動きにより視線を向け、追跡動作では体全体の動きにより視線を向ける。また、追跡動作において、目配り動作の移動可能範囲においては目配り動作と同様の動き(例えば、目の動き)により視線を向け、目配り動作の移動可能範囲を越える範囲においては動作範囲を大きくして(例えば、体全体の動き)視線を向けるようにしてもよい。
また、表示制御部182は、追跡動作における警備員キャラクタの動作範囲を、監視表示装置10の設置位置から人物位置までの距離に応じて変更するように、警備員キャラクタの画像表示を制御してもよい。例えば、表示制御部182は、監視表示装置10の設置位置から人物位置までの距離が距離閾値以上である場合、目の向きのみを変更し、監視表示装置10の設置位置から人物位置までの距離が距離閾値未満である場合、顔又は体全体の向きを変更する。これにより、表示制御部182は、警備員キャラクタの視線を、検知した人物に、より自然に向けさせることが可能となる。
Claims (6)
- 立哨する警備員を模したキャラクタの画像を表示する表示部と、
監視空間内の人物を検知する検知部と、
前記監視空間内で人物が検知されていない場合、前記キャラクタの視線を所定範囲内で移動させる目配り動作を実行し、前記監視空間内で人物が検知された場合、前記キャラクタの視線の移動可能範囲を前記所定範囲より大きくし且つ前記キャラクタの視線を前記検知された人物に向ける追跡動作を実行するように前記キャラクタの画像表示を制御することで、前記キャラクタの動作を表示制御する表示制御部と、
を有することを特徴とする監視表示装置。 - 前記表示制御部は、前記追跡動作における前記キャラクタの動作範囲が、前記目配り動作における前記キャラクタの動作範囲より大きくなるように、前記キャラクタの画像表示を制御する、請求項1に記載の監視表示装置。
- 前記表示制御部は、前記目配り動作では前記キャラクタの目又は顔を動かすことにより視線を移動させるように前記動作範囲を設定し、前記追跡動作では前記キャラクタの体全体を動かすことにより視線を移動させるように前記動作範囲を設定する、請求項2に記載の監視表示装置。
- 前記監視空間を撮像する撮像部をさらに有し、
前記検知部は、前記撮像部により撮像された画像から人物を検知するとともに、検知された人物が所定行動を行っているか否かを判定し、
前記表示制御部は、検知された人物が前記所定行動を行っている場合、前記追跡動作を実行するように、前記キャラクタの画像表示を制御する、請求項1~3の何れか一項に記載の監視表示装置。 - 前記表示制御部は、前記監視空間内で所定人物に対して前記追跡動作を所定時間以上連続して実行した場合、前記追跡動作を終了して前記目配り動作を実行し、前記目配り動作において、前記キャラクタの視線を向けた方向に前記所定人物が存在する場合、視線の移動を一時的に停止するように、前記キャラクタの画像表示を制御する、請求項1~4の何れか一項に記載の監視表示装置。
- 前記表示制御部は、前記検知部により検知された人物の数に応じて、前記キャラクタの視線の向け方を変更するように、前記キャラクタの画像表示を制御する、請求項1~5の何れか一項に記載の監視表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022001243A JP7356524B2 (ja) | 2019-04-24 | 2022-01-06 | 監視表示装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083409A JP7007323B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
JP2022001243A JP7356524B2 (ja) | 2019-04-24 | 2022-01-06 | 監視表示装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083409A Division JP7007323B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022048184A true JP2022048184A (ja) | 2022-03-25 |
JP7356524B2 JP7356524B2 (ja) | 2023-10-04 |
Family
ID=73024175
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083409A Active JP7007323B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
JP2022001243A Active JP7356524B2 (ja) | 2019-04-24 | 2022-01-06 | 監視表示装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083409A Active JP7007323B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7007323B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008117132A (ja) * | 2006-11-02 | 2008-05-22 | Fujitsu Ltd | 防犯ロボットシステム及び防犯ロボットによる監視方法、警告方法 |
JP2009045692A (ja) * | 2007-08-20 | 2009-03-05 | Saitama Univ | コミュニケーションロボットとその動作方法 |
JP2011000656A (ja) * | 2009-06-17 | 2011-01-06 | Advanced Telecommunication Research Institute International | 案内ロボット |
JP2017108343A (ja) * | 2015-12-11 | 2017-06-15 | アイホン株式会社 | インターホンシステムおよび玄関機 |
JP2018077556A (ja) * | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202062A (ja) | 2005-01-20 | 2006-08-03 | Toshiba Corp | 施設監視システム |
JP5547144B2 (ja) | 2011-09-08 | 2014-07-09 | 株式会社東芝 | 監視装置、その方法、及び、そのプログラム |
US9329597B2 (en) | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
-
2019
- 2019-04-24 JP JP2019083409A patent/JP7007323B2/ja active Active
-
2022
- 2022-01-06 JP JP2022001243A patent/JP7356524B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008117132A (ja) * | 2006-11-02 | 2008-05-22 | Fujitsu Ltd | 防犯ロボットシステム及び防犯ロボットによる監視方法、警告方法 |
JP2009045692A (ja) * | 2007-08-20 | 2009-03-05 | Saitama Univ | コミュニケーションロボットとその動作方法 |
JP2011000656A (ja) * | 2009-06-17 | 2011-01-06 | Advanced Telecommunication Research Institute International | 案内ロボット |
JP2017108343A (ja) * | 2015-12-11 | 2017-06-15 | アイホン株式会社 | インターホンシステムおよび玄関機 |
JP2018077556A (ja) * | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7356524B2 (ja) | 2023-10-04 |
JP7007323B2 (ja) | 2022-01-24 |
JP2020181347A (ja) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230343129A1 (en) | Detecting device, detecting method, and recording medium | |
US7574021B2 (en) | Iris recognition for a secure facility | |
JP6835065B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
EP2467805B1 (en) | Method and system for image analysis | |
JP5863423B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5127531B2 (ja) | 画像監視装置 | |
JP6548998B2 (ja) | 人物検索システムおよび人物検索方法 | |
JP2007317062A (ja) | 人物認識装置及びその方法 | |
KR20190118965A (ko) | 시선 추적 시스템 및 방법 | |
JP6779410B2 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
JP6109288B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Zhang et al. | Emotion detection using Kinect 3D facial points | |
JP2017228316A (ja) | 検知装置、検知方法、および、プログラム | |
JP7007323B2 (ja) | 監視表示装置 | |
JP2017173455A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6000762B2 (ja) | 画像監視装置 | |
JP7312598B2 (ja) | 監視表示装置 | |
JP6645503B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP7398061B2 (ja) | 情報取得装置及び情報取得方法 | |
JP2018018534A (ja) | 検知装置、検知方法、および、プログラム | |
JP7334054B2 (ja) | 監視表示装置 | |
US20210264132A1 (en) | Recognition Of 3D Objects | |
KR20210001438A (ko) | 영상에서의 얼굴 인덱싱 방법 및 장치 | |
JP7444204B2 (ja) | 制御装置、検知装置、制御方法、およびプログラム | |
Chen et al. | Facial feature detection and tracking in a new multimodal technology-enhanced learning environment for social communication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220106 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7356524 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |