JP2008165580A - モーションキャプチャ方法 - Google Patents
モーションキャプチャ方法 Download PDFInfo
- Publication number
- JP2008165580A JP2008165580A JP2006355681A JP2006355681A JP2008165580A JP 2008165580 A JP2008165580 A JP 2008165580A JP 2006355681 A JP2006355681 A JP 2006355681A JP 2006355681 A JP2006355681 A JP 2006355681A JP 2008165580 A JP2008165580 A JP 2008165580A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- data
- eigenspace
- moving object
- basic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像入力手段によって取得した対象動体の2次元的な動作画像から、対象動体の3次元的な動作を再現するためのモーションキャプチャ方法であって、予め動体の基本動作ごとに、動体の基本動作の各フレーム画像データAが点で表示される固有空間データAを作成してデータベース化する固有空間データ作成工程と、この固有空間データAを、動体の基本動作が保有している情報ごとに木構造群に分解して構造化する木構造作成工程と、判別しようとする対象動体の動作の固有空間データBと木構造作成手段で構造化された固有空間データAを比較して、固有空間データBからの距離が最も近い固有空間データAを選び、対象動体の3次元的な動作を特定する判別工程とを有する。
【選択図】図5
Description
このモーションキャプチャ方法としては、例えば、機械式方法、磁気式方法、および光学式方法が主要な方法として挙げられる(例えば、特許文献1〜4参照)。
中でも、光学式方法は、例えば、対象動体である人をカメラにより撮影するだけであるため、動作の制限を最も受けにくい方法であり、広く利用されている。例えば、映画、ビデオゲーム、スポーツ、またはダンスのように、運動または動作を表現する3次元メディアに関連する分野で、それらの立体コンテンツの製作に利用されてきた。これらの分野では、たくさんのカメラがセットされたスタジオを所有しているため、このスタジオでシナリオ通りの動作を行うことにより、その動作データが得られ、立体モデル化ができるからである。
機械式方法は、測定機械を身体に装着する必要があるため、表現可能な動作に制限がある。
また、磁気式方法は、磁場を発生させた環境でしか使用できないという問題があり、適用可能な場所が制約される。
そして、光学式方法は、広く利用されてはいるが、事前にカメラのキャリブレーション(配置および位置設定)が必要であり、また人の動きを測定するためのマーカも、身体に装着する必要があるため、作業性が悪い。なお、視体積交差法(バックプロジェクト法)を使用すれば、マーカの使用は不要となるが、カメラのキャリブレーションは必要である。一方、因子分解に基づく方法を使用すれば、カメラのキャリブレーションは不要となるが、マーカの使用が必要となる。
固有空間データ作成手段により、予め動体の基本動作ごとに、該動体の基本動作の各フレーム画像データAが点で表示される固有空間データAを作成し記憶手段に格納してデータベース化する固有空間データ作成工程と、
木構造作成手段により、前記固有空間データ作成手段でデータベース化された前記固有空間データAを、前記動体の基本動作が保有している情報ごとに木構造群に分解(木構造内に分配)し前記記憶手段に格納して構造化する木構造作成工程と、
判別手段により、判別しようとする前記対象動体の動作のフレーム画像データBが点で表示された固有空間データBと、前記木構造作成手段で構造化された前記動体の基本動作ごとの固有空間データAとを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記対象動体の3次元的な動作を特定する判別工程とを有する。
また、動体として人を対象とした場合、その基本動作として、例えば、重たい荷物を持ち上げる動作、物を拾う動作、腹痛でおなかを抱えて座り込む動作、頭上から落ちてくる物を避けようと両手で頭を覆う動作、歩く動作、および転倒する動作等がある。また、動体としては、人の他に、動物、車等の乗り物、またはロボット等を適用することができる。
ここで、差分画像は、例えば、動体の背景画像を削除することにより得られる画像であり、このような背景画像を削除することで、処理するデータ量を少なくできる。
ここで、疑似人モデルとは、人の3次元モデルのことであり、一般にアバターといわれる。疑似人モデルを使用することにより、基本動作を行う動体を標準化することができる。
ここで、微分処理とは、例えば、ログ(LoG)フィルタ、またはソーベルフィルタ等によって行う方法である。なお、ログフィルタとは、画像データをぼかして微分する方法である。
ここで、カルーネン・レーベ変換とは、カルーネン・レーベ展開ともいわれ、高次元の各フレーム画像データを低次元に変換する方法である。
従って、動体の多数の基本動作を記憶手段に格納することで、例えば、任意の場所における不特定の人物の動作を、観察方向によらず、ビデオカメラのような画像入力手段で撮影し、立体的に再現することができる。
請求項3記載のモーションキャプチャ方法においては、基本動作を疑似人モデルに行わせ複数のフレーム画像データAを得た場合、標準化した人のデータとすることができ、体型の違いを無くすことができる。更に、疑似人モデルまたは人を多方向から観察した動作画像を用いるので、対象物体をどの方向から観察した場合でも動作を判別することができる。
請求項5記載のモーションキャプチャ方法においては、固有空間データAが、フレーム画像データAをカルーネン・レーベ変換して求められた固有値および固有ベクトルから作成される固有空間に投影して得られ、固有空間データBが、フレーム画像データBを固有空間に投影して得られるので、次元を低くでき、動作認識の処理時間を短くできる。
本発明の一実施の形態に係るモーションキャプチャ方法は、1台のビデオカメラ(画像入力手段の一例)によって取得した対象動体の一例である対象人の2次元的な動作画像を、予め登録された動体の一例である人が行った複数の基本動作と比較して、対象人の3次元的な動作を再現するための方法である。以下、詳しく説明する。
人を中心にして等距離で、しかも等角度に、複数台(例えば、4台)のビデオカメラ(動画が撮影可能であればよい)を配置し、人が行う各基本動作(例えば、重たい荷物を持ち上げる動作、物を拾う動作、腹痛でおなかを抱えて座り込む動作、頭上から落ちてくる物を避けようと両手で頭を覆う動作、歩く動作、および転倒する動作等)を撮影する。なお、ビデオカメラとしては、例えば、CCDカメラ、高速度カメラ、ハンディータイプカメラ、デジタルVTR、またはデジタルビデオカメラを使用してもよい。
次に、それぞれの基本動作を撮影した映像をコンピュータに取り込む。なお、以下の作業は、コンピュータ内で計算して行われ、コンピュータ内のプログラムにより処理される。
これにより、基本動作の一連の動作が残像として示される1枚の圧縮された画像を、基本動作の複数のフレーム画像データAとして、コンピュータ内の記憶手段に格納できる。
なお、上記した人の行う基本動作の3次元データは、人に実際に動作をしてもらうことで得たが、例えば、コンピュータグラフィクスを用いた疑似人モデルにより作成してもよく、また予め他のモーションキャプチャ法で獲得したデータを用いて疑似人モデルにより作成してもよい。
この場合、人の基本動作を疑似人モデルに行わせ、この疑似人モデルを中心として、水平方向、上方向、および下方向のいずれか1または2以上に、等間隔で等角度に配置される多数(例えば、6台以上)の仮想ビデオカメラからなる仮想カメラ群により、疑似人モデルを撮影して、複数のフレーム画像データAを得る。
次に、コンピュータ内の固有空間データ作成手段により、予め人の基本動作ごとに、人の基本動作の各フレーム画像データAが点で表示される固有空間データAを作成する。なお、この固有空間データAの作成は、特願2005−237785の方法と同様の手法で実施できる。
xp=(x1,x2,・・・,xN)T・・・(1)
ここで、ベクトルの各要素は、スキャンした順番で並んでいる画素数である。なお、Nはピクセル数を示し、Tは転置を示し、またxpは‖xp‖=1となるように正規化されている。
次に、N行P列の行列Xを、(2)式のように定義する。
X≡(x1−c,x2−c,・・・,xP−c)・・・(2)
ここで、cは画像の平均値であり、(3)式で計算される。
Q=XXT・・・(4)
Qu=λu・・・(5)
ここで、uはN個の成分を持つベクトルである。
得られた固有値λ1,λ2,・・・,λNから、固有ベクトルe1,e2,・・・,eNが求められる。
ES(e1,e2,・・・,ek)≡ES・・・(6)
なお、k≪Nであり、固有空間ES上に画像データを写像する変換行列Eは、(7)式で示される。例えば、kを100とした場合には、N次元からk次元、すなわち、65536次元から100次元に次元を下げることができる。
E=(e1,e2,・・・,ek)・・・(7)
gp=(e1,e2,・・・,ek)Txp・・・(9)
このようにして、人の姿勢は、固有空間上で単なる点として登録される。
この得られた点の集合gpを、記憶手段に格納してデータベース化する。
なお、固有空間データAの作成に際しては、事前に、コンピュータ内に取り込まれた画像の各フレーム画像データAのそれぞれの画像データを、従来公知のログフィルタにかけ、各フレーム画像データAをぼかして微分処理してもよい。
また、複数の基本動作の全てのフレーム画像データAから、同様にして固有空間データAを作成し、記憶手段に格納してデータベース化する。
次に、以上に示した固有空間データ作成手段でデータベース化された固有空間データAを、コンピュータ内の木構造作成手段により、人の基本動作が保有している情報ごとに木構造群に分解する木構造作成工程について説明する。なお、木構造としては、例えば、B−tree、B*−tree、またはB+−treeが従来知られている。
B−tree構造を固有空間に導入して、固有空間の構造化を行うことにより、圧縮画像が点として表現された固有空間は、複数のビンに分けられ、ビンはB−tree構造で表現される。
なお、人の動作を表すこの固有空間を、動作データベースと呼ぶ。
以下の条件を満たすものを、τ(m,H)に属するB−tree Τという。ここで、mは、根(ルート)または節(ノード)が持つことのできる子供の数である。また、Hは木の高さを表し、検索速度に関係する。
1.根は葉であるか、または2〜m個の子を持つ。
2.根、葉以外の節は、[m/2]〜m個の子を持つ。ただし、[x]はx以下の最大の整数を表す。
3.根からすべての葉までの経路の長さは等しい。
B−treeでは、格納するデータから造られる「境界を表す値」、即ちキーが重要な意味を持ち、このキーによって根や節が構築される。このキーは、大小比較することが可能なスカラー値である。また、データは、葉のみに格納される。
ここで、画像IPが式(9)によって固有空間の点g=(g1,g2,・・・,gK)に投影されると、gk(k=1,2,・・・,K)は、いずれかのセクションに含まれるから、そのセクションの固有の番号Sk,r(r=0,1,・・・,R−1)が与えられる。
この結果gは、式(10)によって、K桁R進数であるSpに変換される。
SP=S1,r1S2,r2S3,r3・・・SK,rK・・・(10)
これにより、画像は、SPをキーとして、木構造であるB−tree Τに分配されて格納されるので、これを、記憶手段に格納して、構造化する。
以上の方法により、人の各基本動作がデータベース化される。
まず、対象人の動作を1台のビデオカメラで撮影する。
動作画像をコンピュータに取り込み、(11)式に示す各フレーム画像データBの集合yを得る。
y=(y1,y2,・・・,yP)・・・(11)
そして、前記した固有空間データAと前処理と同様の方法により、その動作を表す連続フレームを圧縮表現して1画像とすることで、フレーム画像データBが作成される。
h=ETy´=(e1,e2,・・・,ek)Ty´・・・(12)
そして、コンピュータ内の判別手段により、固有空間データBと、木構造作成手段で構造化された人の基本動作ごとの固有空間データAとを比較する判別工程について説明する。
最後に、(13)式を適用すれば、固有空間データBを示す点hからの距離が最も近い(距離が最小)固有空間データAを示す点の集合giが選ばれ、最も近い姿勢p′=p*が得られる。
dp *=min‖gpr−gp‖・・・(13)
ここでは、R≪Pとなることが期待されるため、検索速度は大幅に改善される。
ただし、R≪動作データベースに登録されている全基本動作の数である。
これにより、固有空間データBに最も近い圧縮画像が検索されるが、この圧縮画像は、もとの動作情報(即ち、動体の基本動作)を持っているため、これを参照することで、3次元動作を再現できる。
なお、未知の動作がカメラで撮影される場合、画像の前処理により、その動作を表す連続するフレーム画像は、1画像Iで圧縮表現されるため、画像Iに最も近い圧縮画像が、コンピュータ内の基本動作のデータベースから検索される。このデータベースは、前記したように、B−tree構造を持つため、検索は高速に行われる。従って、画像Iと最も距離の短い画像が検索され、この距離がある閾値より小さければ、未知動作は、その動作として判断される。
以上の方法により、動作データベース検索によるモーションキャプチャが実現する。
ここでは、本願発明のモーションキャプチャ方法を適用し、ビデオカメラによって取得した対象人の2次元的な動作画像から、対象人の3次元的な動作を再現する方法について説明する。
まず、図1(A)、(B)、図2(A)、(B)、図3(A)、(B)に示すように、人に、重たい荷物を持ち上げる動作、物を拾う動作、腹痛でおなかを抱えて座り込む動作、頭上から落ちてくる物を避けようと両手で頭を覆う動作、歩く動作、および転倒する動作の各基本動作を行ってもらい、この動作画像をビデオカメラで連続的に撮影して、コンピュータに入力する。なお、ここでは、説明の便宜上、一方向からのみ撮影した映像を示す。
ここでは、図1〜図3の各基本動作を、その動作ごとに重ね合わせ、図4(A)の(a)〜(f)に示す1枚の画像データを得る。なお、図1(A)は図4(A)の(a)、図1(B)は図4(A)の(b)、図2(A)は図4(A)の(c)、図2(B)は図4(A)の(d)、図3(A)は図4(A)の(e)、および図3(B)は図4(A)の(f)に、それぞれ対応する。
そして、図4(A)の(a)〜(f)の背景画像を削除することで、図4(B)に示す抽出画像を得た後、前記した正規化を行うことで、図5に示す画像が得られる。
ここでは、図1〜図3の各基本動作を、連続する2つのフレーム画像ごとに重ね合わせ、変化のない部分、即ち人の周囲に存在する背景画像(例えば、壁、床、および空)を引き算して削除する。そして、この差分画像をそれぞれ重ね合わせることで、図6(A)に示すように、基本動作の一連の動作が残像として示される1枚の圧縮画像を作成できる。なお、図1(A)は図6(A)の(a)、図1(B)は図6(A)の(b)、図2(A)は図6(A)の(c)、図2(B)は図6(A)の(d)、図3(A)は図6(A)の(e)、および図3(B)は図6(A)の(f)に、それぞれ対応する。
そして、図6(A)の(a)〜(f)に残存する背景画像を削除することで、図6(B)に示す抽出画像を得た後、前記した正規化を行うことで、図7に示す画像が得られる。
この各フレーム画像データAからカルーネン・レーベ変換により、固有値および固有ベクトルを計算し、固有空間データAを作成し、複数の基本動作の固有空間データAを、記憶手段に格納してデータベース化する。
次に、このデータベース化された固有空間データAを、木構造に分解(動体の基本動作が保有している情報、例えば、その画像特徴ごとに区分)し、記憶手段に格納してデータベース化する。これにより、固有空間データAは、例えば、類似画像(同じビンに異なる基本動作が入る場合もある)ごとに分類される。
そして、固有空間データBと基本動作ごとの固有空間データAとを比較して、固有空間データBからの距離が最も近い固有空間データAを選び、これを対象人の3次元的な動作と特定する。
これにより、例えば、アニメーション、アバター、またはロボットのような3次元媒体で再現できる。
また、従来のように、事前のカメラキャリブレーションおよびマーカも必要なく、対象となる動体の動作のみを撮影するだけでよいので、立体モデル化できる動作数が増え、また操作が簡単なモーションキャプチャ方法を提供できる。これにより、低価格で使い易いモーションキャプチャシステムを提供できるので、モーションキャプチャ技術の他分野への普及が期待できる。
また、前記実施の形態においては、本願発明である動体として人を適用した場合について説明したが、これに限定されるものではなく、動体として、例えば、人以外の動物、車等の乗り物、またはロボットでもよい。
Claims (5)
- 画像入力手段によって取得した対象動体の2次元的な動作画像から、該対象動体の3次元的な動作を再現するためのモーションキャプチャ方法であって、
固有空間データ作成手段により、予め動体の基本動作ごとに、該動体の基本動作の各フレーム画像データAが点で表示される固有空間データAを作成し記憶手段に格納してデータベース化する固有空間データ作成工程と、
木構造作成手段により、前記固有空間データ作成手段でデータベース化された前記固有空間データAを、前記動体の基本動作が保有している情報ごとに木構造群に分解し前記記憶手段に格納して構造化する木構造作成工程と、
判別手段により、判別しようとする前記対象動体の動作のフレーム画像データBが点で表示された固有空間データBと、前記木構造作成手段で構造化された前記動体の基本動作ごとの固有空間データAとを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記対象動体の3次元的な動作を特定する判別工程とを有することを特徴とするモーションキャプチャ方法。 - 請求項1記載のモーションキャプチャ方法において、前記基本動作ごとの前記各フレーム画像データAは、連続するまたは間隔を有する2つずつのフレーム画像を重ね合わせ、変化のない部分を削除して得られる複数の差分画像を、それぞれ重ね合わせることで得られることを特徴とするモーションキャプチャ方法。
- 請求項1および2のいずれか1項に記載のモーションキャプチャ方法において、前記固有空間データ作成工程での前記動体は疑似人モデルまたは人であり、しかも前記画像入力手段は、前記動体が擬似人モデルの場合は仮想カメラ群、前記動体が人の場合はカメラ群であり、前記動体の基本動作を前記画像入力手段を用いて多方向から撮影し、前記基本動作ごとの複数のフレーム画像データAを得ることを特徴とするモーションキャプチャ方法。
- 請求項1〜3のいずれか1項に記載のモーションキャプチャ方法において、前記固有空間データAは、前記フレーム画像データAに微分処理を行って作成されることを特徴とするモーションキャプチャ方法。
- 請求項1〜4のいずれか1項に記載のモーションキャプチャ方法において、前記固有空間データAは、前記フレーム画像データAをカルーネン・レーベ変換して求められた固有値および固有ベクトルから作成される固有空間に投影して得られ、前記固有空間データBは、前記フレーム画像データBを前記固有空間に投影して得られることを特徴とするモーションキャプチャ方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006355681A JP4934810B2 (ja) | 2006-12-28 | 2006-12-28 | モーションキャプチャ方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006355681A JP4934810B2 (ja) | 2006-12-28 | 2006-12-28 | モーションキャプチャ方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008165580A true JP2008165580A (ja) | 2008-07-17 |
JP4934810B2 JP4934810B2 (ja) | 2012-05-23 |
Family
ID=39694969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006355681A Active JP4934810B2 (ja) | 2006-12-28 | 2006-12-28 | モーションキャプチャ方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4934810B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH103544A (ja) * | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | ジェスチャ認識装置 |
JPH11185055A (ja) * | 1997-12-24 | 1999-07-09 | Fujitsu Ltd | 動きデータ作成装置およびそのプログラムを格納した記憶媒体 |
JP2004145818A (ja) * | 2002-10-28 | 2004-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 物体識別装置、物体識別方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 |
WO2005104010A2 (en) * | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
-
2006
- 2006-12-28 JP JP2006355681A patent/JP4934810B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH103544A (ja) * | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | ジェスチャ認識装置 |
JPH11185055A (ja) * | 1997-12-24 | 1999-07-09 | Fujitsu Ltd | 動きデータ作成装置およびそのプログラムを格納した記憶媒体 |
JP2004145818A (ja) * | 2002-10-28 | 2004-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 物体識別装置、物体識別方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 |
WO2005104010A2 (en) * | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
Also Published As
Publication number | Publication date |
---|---|
JP4934810B2 (ja) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4930854B2 (ja) | 関節物体位置姿勢推定装置及びその方法ならびにプログラム | |
KR101238608B1 (ko) | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 | |
US6396491B2 (en) | Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene | |
JP4613994B2 (ja) | 動態推定装置、動態推定方法、プログラム | |
Bot et al. | Using 3D photogrammetry to create open-access models of live animals: 2D and 3D software solutions | |
JP4761670B2 (ja) | 動立体モデル生成装置及び方法 | |
WO2020152927A1 (ja) | 学習用データ生成方法、学習用データ生成装置、および、推論処理方法 | |
JP3637226B2 (ja) | 動き検出方法、動き検出装置及び記録媒体 | |
JP2010152557A (ja) | 画像処理装置および画像処理方法 | |
JP7385747B2 (ja) | 物体の把持点の三次元位置、ローカル参照フレーム及び把持パターンを求める方法及びシステム | |
JP4934810B2 (ja) | モーションキャプチャ方法 | |
Benedek et al. | An integrated 4D vision and visualisation system | |
JP4376199B2 (ja) | 画像処理装置 | |
JP4802330B2 (ja) | 動体の動作判別方法 | |
CN113786617A (zh) | 应用体素数据进行射线检测的方法、系统、服务器及计算机可读存储介质 | |
JP5061808B2 (ja) | 感情判定方法 | |
Roobini et al. | Self-intelligence with human activities recognition based in convolutional neural network | |
JP4830585B2 (ja) | 画像処理装置および画像処理方法 | |
JP4505616B2 (ja) | 固有空間学習装置、固有空間学習方法及び固有空間プログラム | |
JP2005157942A (ja) | 動作体運動データ分節処理装置。 | |
JP4673241B2 (ja) | 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体 | |
JP2006059165A (ja) | 3次元モデリング装置、幾何学パターン、3次元モデリングデータの生成方法、3次元モデリングプログラム、記録媒体 | |
JP5078017B2 (ja) | 動体の動作認識方法 | |
Muhlbauer et al. | A model-based algorithm to estimate body poses using stereo vision | |
JP2011149952A (ja) | モデル入力装置およびモデル生成システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110614 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |