JP6280422B2 - 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム - Google Patents

被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム Download PDF

Info

Publication number
JP6280422B2
JP6280422B2 JP2014080929A JP2014080929A JP6280422B2 JP 6280422 B2 JP6280422 B2 JP 6280422B2 JP 2014080929 A JP2014080929 A JP 2014080929A JP 2014080929 A JP2014080929 A JP 2014080929A JP 6280422 B2 JP6280422 B2 JP 6280422B2
Authority
JP
Japan
Prior art keywords
subject
dimensional coordinate
value
test image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014080929A
Other languages
English (en)
Other versions
JP2015201124A (ja
Inventor
島村 潤
潤 島村
大我 吉田
大我 吉田
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014080929A priority Critical patent/JP6280422B2/ja
Publication of JP2015201124A publication Critical patent/JP2015201124A/ja
Application granted granted Critical
Publication of JP6280422B2 publication Critical patent/JP6280422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、2枚の異なる画像上において、対応する被写体の領域を特定する被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラムに関する。
実空間を撮像したカメラにより入力されたテスト画像から、予め被写体を撮影した訓練画像に該当する領域を特定する技術は、被写体認識や検出を可能としている(例えば、非特許文献1参照)。図8は、非特許文献1の技術による被写体領域の検出方法を示す説明図である。非特許文献1記載の方法では、同一被写体をインライア別の位置・角度で撮影したテスト画像、訓練画像の2枚の画像を使用して、両画像間で同一点を示す対応点を決定する(図8(a))。次に、対応点の位置情報から、訓練画像からテスト画像へのアフィン変換行列を算出することで、訓練画像で撮像された被写体の領域に対応する位置をテスト画像上において特定する(図8(b))方法が記述されている。この方法では仮にテスト画像において被写体の一部が他物体に隠蔽されていたとしても、少なくとも3点以上の対応点が決定されていれば、その3点からアフィン変換行列を求めることで、被写体の位置を特定することが可能である。
D. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, Vol. 60 Issue 2, pp.91-110, November 2004.
ところで、従来の被写体領域検出方法では、被写体が2次元であるという仮定のもとで、テスト画像上での訓練画像に対応する領域を、該訓練画像に対するスケール、回転、スキューの要素で幾何変換するアフィン変換行列を求めることで決定している。
しかしながら、被写体が3次元物体の場合には、画像上では3次元的な歪みを生じ、アフィン変換では表現できなくなるため、テスト画像上での訓練画像に対応する領域を決定できなくなるという問題がある。
本発明は、このような事情に鑑みてなされたもので、被写体が3次元物体であった場合でも、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を特定することができる被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラムを提供することを目的とする。
本発明は、被写体を撮影した訓練画像と、前記被写体が写っている領域を検出すべきテスト画像と、前記訓練画像と前記テスト画像との対応点の情報とを入力する入力部と、前記対応点からそれぞれの画像を撮影したカメラの焦点距離と射影行列を推定し、前記対応点を構成する前記訓練画像上の点の第1の3次元座標値を算出する第1の3次元座標算出部と、前記第1の3次元座標値から、3次元点を代表する奥行きを示す基準Z値を決定する基準Z値決定部と、前記焦点距離と前記基準Z値とを用いて前記訓練画像の被写体領域に相当する第2の3次元座標値を算出する第2の3次元座標算出部と、前記被写体領域に相当する前記第2の3次元座標値を、前記射影行列を用いて前記テスト画像に射影して得られた前記テスト画像上における前記被写体の領域を示す2次元座標値を出力する被写体領域検出部とを備えることを特徴とする。
本発明は、前記基準Z値は、奥行きを示すZ値の平均値、中央値、最小値及び最大値のいずれかから決定することを特徴とする。
本発明は、被写体を撮影した訓練画像と、前記被写体が写っている領域を検出すべきテスト画像と、前記訓練画像と前記テスト画像との対応点の情報とを入力する入力ステップと、前記対応点からそれぞれの画像を撮影したカメラの焦点距離と射影行列を推定し、前記対応点を構成する前記訓練画像上の点の第1の3次元座標値を算出する第1の3次元座標算出ステップと、前記第1の3次元座標値から、3次元点を代表する奥行きを示す基準Z値を決定する基準Z値決定ステップと、前記焦点距離と前記基準Z値とを用いて前記訓練画像の被写体領域に相当する第2の3次元座標値を算出する第2の3次元座標算出ステップと、前記被写体領域に相当する前記第2の3次元座標値を、前記射影行列を用いて前記テスト画像に射影して得られた前記テスト画像上における前記被写体の領域を示す2次元座標値を出力する被写体領域検出ステップとを有することを特徴とする。
本発明は、前記基準Z値は、奥行きを示すZ値の平均値、中央値、最小値及び最大値のいずれかから決定することを特徴とする。
本発明は、コンピュータを、前記被写体領域検出装置として機能させるための被写体領域検出プログラムである。
本発明によれば、被写体が3次元物体であっても、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を特定することができるという効果が得られる。
本発明の一実施形態による被写体領域検出装置の構成を示すブロック図である。 図1に示す被写体領域検出装置1の処理動作を示すフローチャートである。 入力されるテスト画像、訓練画像及び対応点の一例を示す図である。 対応点の3次元座標値と基準Z値の一例を示す図である。 訓練画像枠に該当する3次元座標値を示す図である。 訓練画像枠に該当する4点の2次元座標値を示す図である。 テスト画像上での被写体領域の一例を示す図である。 従来技術による被写体領域の検出方法を示す説明図である。
以下、図面を参照して、本発明の一実施形態による被写体領域検出装置を説明する。図1は同実施形態の構成を示すブロック図である。この図に示す被写体領域検出装置1は、3次元座標算出部2と、テスト画像上射影点算出部3とを備えている。図1に示す被写体領域検出装置1はコンピュータ装置によって構成する。
3次元座標算出部1はテスト画像、訓練画像の2枚の画像と、両画像間での対応点情報を入力する。そして、3次元座標算出部1は、対応点からテスト画像、訓練画像インライアの焦点距離及び訓練画像に対するテスト画像の射影行列を推定する。3次元座標算出部1は、推定結果を用いて対応点を構成する訓練画像上の点の3次元座標値を算出し、この3次元座標値と、推定焦点距離、推定射影行列を出力する。
ここで射影行列とは、実世界の3次元空間の座標(Xw,Yw,Zw)とカメラ画像の2次元座標(i,j)を関連付ける行列であり、(1)式に示すp11からp34の12個のパラメータで記述される3×4の行列である(例えば、参考文献1参照)。(1)式において、演算子〜は、その両辺が定数倍の違いを許して等しいことを表している。
Figure 0006280422
参考文献1:ディジタル画像処理編集委員会著,「ディジタル画像処理」,CG−ARTS協会,2004年,p.252〜256.
テスト画像上射影点算出部3は、テスト画像、訓練画像と、3次元座標算出部2から出力された対応点の3次元座標、推定焦点距離、推定射影行列を入力する。そして、テスト画像上射影点算出部3は、この3次元座標値から基準Z値を決定し、訓練画像の四隅に該当する3次元座標値を推定焦点距離を用いて算出する。
続いて、テスト画像上射影点算出部3は、この3次元座標値をテスト画像上に推定射影行列を用いて射影することで、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を決定し、テスト画像上での被写体領域として出力する。
次に、図1に示す被写体領域検出装置1の処理動作の詳細について説明する。始めに、図1に示す3次元座標算出部2の処理動作を説明する。まず、3次元座標算出部1は、テスト画像、訓練画像の2枚の画像と、両画像間での対応点情報を入力し、入力した対応点情報から、テスト画像、訓練画像インライアを撮影したカメラの焦点距離を推定する。
次に、訓練画像に対するテスト画像への射影行列を推定する。続いて、推定した射影行列と、入力した対応点の座標情報から、対応点の三次元座標を算出する。ここで、焦点距離及び射影行列の推定と、対応点の三次元座標の算出は、例えば参考文献2に記載の公知の方法によって実現できる。
参考文献2:山田,金澤,金谷,菅谷,”2画像からの3次元復元の最新アルゴリズム”, 情報処理学会研究報告,CVIM,[コンピュータビジョンとイメージメディア] 2009−CVIM−168(15),1−8,2009−08−24
最後に、3次元座標算出部2は、対応点の3次元座標、推定焦点距離、推定射影行列を出力して処理を終える。本実施形態の説明では、以降、テスト画像の推定焦点距離をft、訓練画像の推定焦点距離をfr、訓練画像に対するテスト画像への射影行列をPとして説明する。
次に、図1に示すテスト画像上射影点算出部3の処理動作を図2を参照して説明する。図2は、図1に示すテスト画像上射影点算出部3の処理動作を示すフローチャートである。まず、テスト画像上射影点算出部3は、テスト画像、訓練画像、対応点の3次元座標、推定焦点距離、推定射影行列を入力する(ステップS1)。
次に、テスト画像上射影点算出部3は、全3次元座標から基準Z値を決定する(ステップS2)。ここでは図3に示すような対応点が入力されたものとする。図3は、入力されるテスト画像、訓練画像及び対応点の一例を示す図である。訓練画像は、直方体の物体が写っている画像である。テスト画像は、検出すべき直方体の物体と、円柱の物体が写っている画像である。ただし、テスト画像は、同一被写体(直方体の物体)を訓練画像とは別の位置・角度で撮影した画像になっている。対応点は、公知の方法によって対応付けられたものであり、ここでは、直方体の物体の4つの頂点が対応付けられている。
図4は、対応点Mの3次元座標値と基準Z値(Zref)の一例を示す図である。図4に示す通り3次元座標は(X,Y,Z)で表現されるが、基準Z値(Zref)とは算出された3次元点群を代表するZ値を意味する。
この基準Z値の算出は、例えば、入力された3次元座標のZ値の平均Zaveを求める、入力された3次元座標のZ値の中央値Zmedを求める、入力された3次元座標のZ値の最小値Zminを求める、入力された3次元座標のZ値の最大値Zmaxを求める、などの方法で実現される。
Zave,Zmed,Zmin,Zmaxのいずれを用いてもよいが、対応点からの3次元座標算出では、一般的には誤差が生じるため、誤差の影響を受けないためには、Zmed(Zの中央値)を用いるのが好適である。本実施形態では、図4に示すように、入力された3次元座標のZ値の中央値であるZmedを算出し、これをZrefとしたものとする。
次に、テスト画像上射影点算出部3は、訓練画像で撮像された被写体の領域に対応する領域を決定し、この領域の輪郭を示す2次元座標値群を得る(ステップS3)。この処理は、例えば、訓練画像枠に該当する2次元座標値を、訓練画像の縦横サイズを用いて決定してもよい。つまり、訓練画像の縦横サイズがそれぞれW、Hだった場合、(0,0)^T,(W,0)^T,(W,H)^T,(0,H)^Tとなる。ここで、”^T”は転置を意味する。
また、より正確に被写体領域を決定するために、例えば参考文献3記載のセグメンテーション手法を適用し、決定された領域に対して、例えば非特許文献2に記載の輪郭線検出を適用することで、2次元座標値群を得てもよい。
参考文献3:Carsten Rother, Vladimir Kolmogorov,Andrew Blake, "GrabCut: interactive foreground extraction using iterated graph cuts", in Proc. of SIGGRAPH, 309-314, 2004
本実施形態の説明では、以降、訓練画像枠に該当する2次元座標値群(i,j)^T={(0,0)^T,(W,0)^T,(W,H)^T,(0,H)^T}を得たものとして説明する。なお、nは1から始まり2次元座標値の数を最大値にとるインデックスを意味し、この例では1〜4の値を取る。
次に、テスト画像上射影点算出部3は、訓練画像での被写体領域を示す、2次元座標値群(i,j)の3次元座標値M=(X,Y,Z)^Tを、訓練画像の推定焦点距離fr,基準Z値Zref、訓練画像の縦横幅を用いて、(2)〜(4)式に従って算出する(ステップS4)。
=(i−W/2)×Zref/fr ・・・(2)
=(j−H/2)×Zref/fr ・・・(3)
=Zref ・・・(4)
本実施形態では図5に示すように、(i,j)^Tの3次元座標値は(X,Y,Z)^Tとして求め、同様に、(i,j)^Tは(X,Y,Z)^T、(i,j)^Tは(X,Y,Z)^T、(i,j)^Tは(X,Y,Z)^Tとしてそれぞれ求める。図5は、訓練画像枠に該当する3次元座標値を示す図である。
次に、テスト画像上射影点算出部3は、テスト画像上での被写体領域に該当する2次元座標値群x’=(i’,j’)^Tを推定する。この処理は先に算出した訓練画像での被写体領域に該当する3次元座標値Mを、推定射影行列Pを用いてテスト画像に射影することで実現できる。より具体的には、(1)式を用いて、3次元座標値Mの射影点を(5)式により算出する。
Figure 0006280422
本実施形態では、図6のように、(X,Y,Z)^Tのテスト画像への射影点は(i’,j’)^Tとして求め、同様に、(X,Y,Z)^Tは(i’,j’)^T、(X,Y,Z)^Tは(i’,j’)^T、(X,Y,Z)^Tは(i’,j’)^Tとしてそれぞれ求める。テスト画像上射影点算出部3は、この射影点群をテスト画像上での被写体領域に該当する2次元座標値群とする(ステップS5)。図6は、訓練画像枠に該当する4点の2次元座標値を示す図である。図6においては、(X,Y,Z)を(i’,j’)に射影した状態を示している。
最後に、テスト画像上射影点算出部3は、テスト画像上での被写体領域に該当する2次元座標値群を、テスト画像上での被写体領域として出力する(ステップS6)。本実施形態では、テスト画像上での被写体領域に該当する2次元座標値群として、(i’,j’)^T、(i’,j’)^T、(i’,j’)^T、(i’,j’)^Tが出力され、結果的に、図7に示すようなテスト画像上での被写体領域が推定されることになる。図7は、テスト画像上での被写体領域の一例を示す図である。図7に示す破線で囲った部分が被写体領域である。
以上説明したように、同一被写体をインライア別の位置・角度で撮影したテスト画像、訓練画像の2枚の画像において、両画像間で同一点を示す対応点から、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を特定することができる。特に、対応点を構成する訓練画像上の点の3次元座標値を全ての対応点に亘って算出し、この3次元座標値から基準Z値を決定し、訓練画像の領域に該当する3次元座標値を算出して、この3次元座標値をテスト画像上に射影することで、被写体が3次元物体であっても、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を特定することができるようになる。
前述した実施形態における被写体領域検出装置1をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
被写体が3次元物体であった場合でも、訓練画像で撮像された被写体の領域に対応するテスト画像上における領域を特定することが不可欠な用途に適用できる。
1・・・被写体領域検出装置、2・・・3次元座標算出部、3・・・テスト画像上射影点算出部

Claims (3)

  1. 被写体を撮影した訓練画像と、前記被写体が写っている領域を検出すべきテスト画像と、前記訓練画像と前記テスト画像との対応点の情報とを入力する入力部と、
    前記対応点からそれぞれの画像を撮影したカメラの焦点距離と射影行列を推定し、前記対応点を構成する前記訓練画像上の点の第1の3次元座標値を算出する第1の3次元座標算出部と、
    前記第1の3次元座標値から、3次元点を代表する奥行きを示す基準Z値を決定する基準Z値決定部と、
    前記焦点距離と前記基準Z値とを用いて前記訓練画像の被写体領域に相当する第2の3次元座標値を算出する第2の3次元座標算出部と、
    前記被写体領域に相当する前記第2の3次元座標値を、前記射影行列を用いて前記テスト画像に射影して得られた前記テスト画像上における前記被写体の領域を示す2次元座標値を出力する被写体領域検出部と
    を備え
    前記基準Z値は、奥行きを示すZ値の中央値から決定することを特徴とする被写体領域検出装置。
  2. 被写体を撮影した訓練画像と、前記被写体が写っている領域を検出すべきテスト画像と、前記訓練画像と前記テスト画像との対応点の情報とを入力する入力ステップと、
    前記対応点からそれぞれの画像を撮影したカメラの焦点距離と射影行列を推定し、前記対応点を構成する前記訓練画像上の点の第1の3次元座標値を算出する第1の3次元座標算出ステップと、
    前記第1の3次元座標値から、3次元点を代表する奥行きを示す基準Z値を決定する基準Z値決定ステップと、
    前記焦点距離と前記基準Z値とを用いて前記訓練画像の被写体領域に相当する第2の3次元座標値を算出する第2の3次元座標算出ステップと、
    前記被写体領域に相当する前記第2の3次元座標値を、前記射影行列を用いて前記テスト画像に射影して得られた前記テスト画像上における前記被写体の領域を示す2次元座標値を出力する被写体領域検出ステップと
    を有し、
    前記基準Z値は、奥行きを示すZ値の中央値から決定することを特徴とする被写体領域検出方法。
  3. コンピュータを、請求項1に記載の被写体領域検出装置として機能させるための被写体領域検出プログラム。
JP2014080929A 2014-04-10 2014-04-10 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム Active JP6280422B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014080929A JP6280422B2 (ja) 2014-04-10 2014-04-10 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014080929A JP6280422B2 (ja) 2014-04-10 2014-04-10 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム

Publications (2)

Publication Number Publication Date
JP2015201124A JP2015201124A (ja) 2015-11-12
JP6280422B2 true JP6280422B2 (ja) 2018-02-14

Family

ID=54552306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014080929A Active JP6280422B2 (ja) 2014-04-10 2014-04-10 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム

Country Status (1)

Country Link
JP (1) JP6280422B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354320A (ja) * 2003-05-30 2004-12-16 Mitsubishi Electric Engineering Co Ltd 撮像対象物品の認識検定システム
JP4655242B2 (ja) * 2008-09-30 2011-03-23 マツダ株式会社 車両用画像処理装置

Also Published As

Publication number Publication date
JP2015201124A (ja) 2015-11-12

Similar Documents

Publication Publication Date Title
US9858670B2 (en) Information processing apparatus and method thereof
US10043278B2 (en) Method and apparatus for reconstructing 3D face with stereo camera
JP2019075082A (ja) 深度値推定を用いた映像処理方法及び装置
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP7184050B2 (ja) 符号化装置、符号化方法、復号装置、および復号方法
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
CN109479082A (zh) 图象处理方法及装置
WO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
KR20110136016A (ko) 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
CN108492284B (zh) 用于确定图像的透视形状的方法和装置
JP2018194985A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6557640B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法及びカメラキャリブレーションプログラム
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
JP6573196B2 (ja) 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム
JP6736422B2 (ja) 画像処理装置、画像処理の方法およびプログラム
JP2009048516A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US11475629B2 (en) Method for 3D reconstruction of an object
EP3588437B1 (en) Apparatus that generates three-dimensional shape data, method and program
KR101566459B1 (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
JP6280422B2 (ja) 被写体領域検出装置、被写体領域検出方法及び被写体領域検出プログラム
CN112651357B (zh) 图像中目标物体的分割方法、三维重建方法及相关装置
CN111630569A (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
JP6306952B2 (ja) 中間視点画像生成装置、中間視点画像生成方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180119

R150 Certificate of patent or registration of utility model

Ref document number: 6280422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150