JP6250035B2 - 奥行きセンサベース反射物体の形状取得方法及び装置 - Google Patents

奥行きセンサベース反射物体の形状取得方法及び装置 Download PDF

Info

Publication number
JP6250035B2
JP6250035B2 JP2015511361A JP2015511361A JP6250035B2 JP 6250035 B2 JP6250035 B2 JP 6250035B2 JP 2015511361 A JP2015511361 A JP 2015511361A JP 2015511361 A JP2015511361 A JP 2015511361A JP 6250035 B2 JP6250035 B2 JP 6250035B2
Authority
JP
Japan
Prior art keywords
depth
image
value
composite image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015511361A
Other languages
English (en)
Other versions
JP2015526692A (ja
Inventor
ジュン シム,ヒョン
ジュン シム,ヒョン
ギュ リ,ソン
ギュ リ,ソン
ギュン キム,ド
ギュン キム,ド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120122345A external-priority patent/KR101913321B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015526692A publication Critical patent/JP2015526692A/ja
Application granted granted Critical
Publication of JP6250035B2 publication Critical patent/JP6250035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

開示の実施形態は、3Dイメージング、3D表示用コンテンツの製作、放送用3D著作物の製作、映画効果、3Dゲーム、仮想現実、拡張現実などに用いるために反射物体の形状を奥行きセンサに基づいて取得する方法及び装置に関する。
3Dイメージング技術は、多様なセンサの開発と共に3D画像関連産業において重要な役割を果たしている。近年、新しい奥行き検出方式及びアーキテクチャが登場することにより、奥行きセンサベースの3Dイメージング技術が様々なアプリケーションに活用される傾向を見せている。
現在の市場で脚光を浴びている3Dセンサは、大きくはToF(Time−of−Flight)原理に基づくセンサタイプと構造光(Structured light)原理に基づくセンサタイプの2つに分けられる。この2種類の方式のセンサは、各々異なる特性と長短所があり、使用するアプリケーションによって選択的に用いられている。
一実施形態によれば、奥行き画像及びIR強度画像のうち少なくとも1つを含む合成画像が入力されるステップと、前記合成画像を整合較正(キャリブレーション)するステップと、前記較正された合成画像からエラー領域を検出するステップと、前記エラー領域の損失した奥行き値を補正するステップとを含む反射物体の形状を取得する方法が提供されてもよい。
一実施形態によれば、奥行き画像が入力されるステップと、前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップと、前記損失した奥行き値を補正するステップとを含む反射物体の形状を取得する方法が提供されてもよい。
一実施形態によれば、奥行き画像及びIR強度画像のうち少なくとも1つを含む合成画像が入力される合成画像入力部と、前記合成画像を較正する合成画像較正部と、前記較正された合成画像からエラー領域を検出する合成画像エラー検出部と、前記エラー領域の損失した奥行き値を補正する合成画像補正部とを含む反射物体の形状を取得する装置が提供されてもよい。
一実施形態によれば、奥行き画像が入力される単一視点奥行き画像入力部と、前記奥行き画像でローカル領域内の周辺値との関連性を基に損失した奥行き値を推定する単一視点奥行き値推定部と、前記損失した奥行き値を補正する単一視点奥行き値補正部とを含む反射物体の形状を取得する装置が提供されてもよい。
一実施形態によれば、少なくとも1つ以上のプロセッサ実行部を制御するプロセッサと、奥行き画像で置換えられる奥行き値を決定する奥行き値推定部と、周辺奥行き値に基づいて取得された値を奥行き値に変える奥行き値補正部とを含む3D奥行き検出カメラが提供されてもよい。
一実施形態によれば、多視点のIR強度画像及び奥行き画像のうち少なくとも1つを含む合成画像の入力を受信するステップと、前記多視点の特徴点をマッチングすることによって合成画像を較正されたステップと、前記較正された合成画像でエラー領域を検出するステップと、前記合成画像の較正に基づいて決定されたエラー領域に対応する地点の視点から取得された奥行き値を用いて前記エラー領域の損失した奥行き値を補正するステップとを含む反射物体の形状を取得する方法が提供されてもよい。
一実施形態によれば、少なくとも1つのプロセッサ実行部を制御するプロセッサと、前記合成画像を較正された合成画像較正部と、前記合成画像の較正に基づいて視点で置換えられる奥行き値を検出する合成画像エラー検出部と、前記合成画像の他の視点で置換えられる奥行き値に対応する各地点で地点の奥行き値を測定する合成画像測定部と、前記合成画像測定部によって測定された地点の奥行き値に基づいて置換えられる前記奥行き値を補正する合成画像エラー補正部とを含む合成画像で奥行き値を復元する装置が提供されてもよい。
ランバート反射(Lambertian)材の奥行き復元方法を示す図である。 ランバート反射(Lambertian)材の奥行き復元方法を示す図である。 反射材の奥行き復元方法を示す図である。 反射材の奥行き復元方法を示す図である。 ToF方式を用いた反射材物体のグレイスケール画像及び奥行き画像を示す図である。 構造光方式を用いた反射材物体のカラー画像及び奥行き画像を示す図である。 ToF方式を用いた反射材物体の奥行き画像における方位に係る誤差を示す図である。 ToF方式を用いた反射材物体の奥行き画像における方位に係る誤差を示す図である。 一実施形態に係る単一視点奥行き画像ベースの反射物体形状取得方法を示す図である。 一実施形態に係る単一視点奥行き画像ベースの反射物体形状取得方法を示す図である。 一実施形態に係る単一視点奥行き画像ベースの形状復元結果を示す図である。 一実施形態に係る単一視点奥行き画像ベースの形状復元結果を示す図である。 一実施形態に係る多視点奥行き画像ベースの形状復元方法を示す図である。 一実施形態に係る反射モデルを適用した多視点合成画像ベースの形状復元方法を示す図である。 一実施形態に係る多視点合成画像から視点依存画素の分離を示す図である。 一実施形態に係る多視点合成画像の視点依存画素と視点独立画素に他の反射モデルを適用することを示す図である。 一実施形態に係る反射モデルから抽出した定数によってノイズが減少した方位マップを示す図である。 一実施形態に係る反射モデルから抽出した定数によってノイズが減少した方位マップを示す図である。 一実施形態に係る反射モデルを適用して方位及び材料による誤差が減少した奥行きマップを示す図である。 一実施形態に係る反射モデルを適用して方位及び材料による誤差が減少した奥行きマップを示す図である。 一実施形態に係る単一視点奥行き画像ベース反射物体の形状取得装置の細部的な構成を示すブロック図である。 一実施形態に係る合成画像ベース反射物体の形状取得装置の細部的な構成を示すブロック図である。
センサの性能向上にもかかわらず、奥行きセンサは、反射物体、例えば輝く又は反射する物体の奥行き値を取得するのに限界を示すことがある。これは、反射の特性上、反射した光が特定方向にだけ受光されるため、センサで検出される反射信号の強度が大きすぎたり、あるいは小さすぎる状況が発生することによる。動作原理と関係なく、全ての奥行きセンサは、反射信号を検出して奥行き値を推定しているが、このような方式の全ての奥行きセンサは、反射物体の奥行き値を処理するのに問題が発生することがある。
以下、様々なアプリケーションに対して奥行きセンサに基づいて反射物体の形状を取得するための装置及び方法と関連する実施形態を添付する図面を参照しながら詳細に説明する。
図1A及び図1Bは、ランバート反射材の奥行き復元方法を示す図である。
従来の全ての奥行きセンサは、物体の材料が理想的なランバート面を有するという仮定の下で作動するように設計されている。ランバート反射材の場合、図1A及び図1Bに示すように入力信号を全方向に同一の量を反射させる現象を見ることができる。ここで、奥行きセンサは、奥行きカメラを含んでもよい。
図1Aに示したToF方式の場合、IR光照射部121で光を放出すると、反射物体110表面で反射して反射した信号がセンサ131に戻ってくる時間を測定してその距離を推算することができる。材料が全方向に同一の光を放射するランバート反射物体の場合、センサ131の位置に関係なく常に一定量の光を受光することができ、その結果、奥行き値を測定することができる。
図1Bに示した構造光(Structured−light)方式の場合、プロジェクター122がパターン光を放出し、反射物体110の表面点ごとに特徴的なパターンを割り当てて、それをセンサ132で検出してもよい。これにより、プロジェクター122から対象表面点の間をつなぐ直線と当該表面点が検出されたセンサ画素からセンサの中心点の間をつなぐ直線との間の交差点を求めてその3D位置を導き出してもよい。対象反射物体110がランバート反射材の場合、プロジェクター122から放出された光が常に一定量以上センサ132で検出され、その結果、特徴的なパターンを検出できるようになり、奥行き値を算出することができる。
図2A及び図2Bは、反射材の奥行き復元方法を示す図である。物体210の材が反射特性を有する場合、図2A及び図2Bに示した現象が発生し得る。図2A及び図2Bは、球形の鏡を対象物体210とする光の反射現象を表現したものである。
ToFセンサ231の場合、図2Aに示すようにIR LED221から放出された光が鏡物体210に到達すると、鏡物体210は入射した光を特定方向にのみ反射することができる(例えば、鏡面反射、正反射)。結果的に、反射した方向にセンサ231が位置しない場合、当該表面点に関して反射した光を得られなくなり、当該奥行き値を測定できないことがある。一方、ToFセンサ231がIR光の反射方向に位置する場合、光の強度がセンサ231の受光能力を外れて認知されたセンサ値が飽和した現象が発生し得る。そのため、物体210が入射パターン光を特定方向にのみ反射させてセンサ231がその反射光を受光できないか、あるいはセンサ231の受光能力を外れる表面点がかなりの数を占めるようになり、奥行き値の復元に失敗する可能性がある。このような問題は、図2Bに示すように、プロジェクター222から放出され、物体210から反射する光を受光する構造光方式センサ232でも発生し得る。
上述した図1A及び図1B及び図2A及び図2Bに示すように、反射材特性を有する物体の場合、従来の商用化されているどんな奥行きセンサを用いたとしても、その奥行き値を推定するには限界がある。
一実施形態によれば、従来のセンサで検出できなかった高反射材の形状値を復元するために、一枚の奥行き画像で奥行き値を推定する方式と多視点の奥行き画像を用いて奥行き値を正確に復元してもよい。ここで一枚の奥行き画像ベースの方式は、単一視点奥行き画像ベースの方式と同一の意味で用いてもよい。
具体的に単一視点奥行き画像ベースの方式の場合、奥行き値が有する連続性及び反復性を仮定して損失した奥行き値を類推してもよい。合成画像ベースの方式は、各単一視点で損失した奥行き値を周辺視点の奥行き画像で測定された値を用いて正確に復元してもよい。ここで、単一視点奥行き画像及び合成画像をToF方式あるいは構造光方式によって測定してもよい。ここで合成画像は、奥行き画像及びIR強度画像を含んでもよい。
これは、様々な従来の奥行きセンサで共通して発生するセンシング限界を克服する方法であるため、今後の3Dイメージング装備に適用されて3D画像取得及び生成に寄与することが期待される。さらに、今後の裸眼3DTVに活用されるコンテンツの確保に用いられることができ、任意のシーンを様々な視覚及び光条件下で合成してもよい。また、仮想物体を実写画像に合わせてレンダリングして混合、合成したり、拡張現実に活用してもよい。
以下、図面を参照しながら、単一視点奥行き画像ベース方式及び合成画像ベース方式を詳細に説明する。
図3及び図4は、各々ToF方式及び構造光方式を用いた反射材物体のグレイスケール画像320、カラー画像420、及び奥行き画像310,410を示す図である。ここで、各奥行き画像310,410は、各グレイスケール画像320及びカラー画像420の奥行きを示してもよい。ここで、ToF方式カメラは、グレイスケール画像320と奥行き画像310を共に提供してもよい。そして、構造光方式カメラは、カラー画像420と奥行き画像410を共に提供してもよい。一実施形態によれば、グレイスケール画像320は、IR強度画像であってもよい。
図3及び図4に示すように反射材物体の場合、当該奥行き画像310,410に飽和状態の値が出力される現象が発生することがある。その原因は、上述したように、入射したIRポイント光あるいはIR構造光が表面で反射してセンサに検出されるとき、その値が一方向に密集してその絶対的値がセンサが検出する範囲を外れることにある。カラー画像の場合、太陽光あるいは照明の近くで画像に飽和が発生するのと似ている。例えば、図3及び図4に示すようにグレイスケール画像320及びカラー画像420において、高反射によって明るく測定された部分321,421が奥行き画像310,410では奥行き値が飽和されて黒い部分311または明るい部分411として表れる。
図5A及び図5Bは、ToF方式を用いた反射材物体の奥行き画像における方位に係る誤差を示す図である。
従来のセンサ方式、すなわちToF方式は、対象物体に入射したIR光の信号遅延を測定して奥行き値を導き出して総反射値を示すIR画像が出力されるが、奥行き値を導き出すときは、IR画像をさらに活用しないことがある。
そのため、図5Aに示すような物体に対して、図5Bに示すような方位に係る誤差が発生し得る。ここで、方位に係る誤差による奥行き値の損失は、例えば、明るい点で示された部分510や形状が消失した部分520と共に表れてもよい。このような方位に係る誤差を克服する方法は、以下の図10〜図13で詳細に説明する。
図6A及び図Bは、一実施形態に係る単一視点奥行き画像ベースの反射物体形状取得方法を示す図である。ここで図6Aは、一実施形態に係る単一視点奥行き画像ベースの反射物体形状取得方法を示すフローチャートであり、図6Bは、一実施形態に係る奥行き値の最適化のための3つのコスト関数で用いられる表記を示す図である。
ステップS610では、奥行き画像が入力されてもよい。一実施形態によれば、奥行き画像は、ToF方式で測定したIR画像であってもよい。
そして、ステップS620では、奥行き画像で周辺値との関連性を基に損失した奥行き値を推定してもよい。一実施形態によれば、関連性は、連続性、周期性及び類似性を含んでもよい。また、奥行き値において、センサの飽和による不正確な奥行き値は、奥行き画像における周辺値との関連性を基に推定してもよい。
続いて、ステップS630では、損失した奥行き値を補正してもよい。一実施形態によれば、損失した奥行き値を上述したステップS620で推定した奥行き値に置換えて補正してもよい。
一実施形態によれば、入力奥行き画像内で周辺値との関連性、例えば、連続性、周期性、及び類似性を保持させる周辺の他の奥行き値を見つけ、それを参照して損失した奥行き値を置換えることによって損失した奥行き値を復元してもよい。
損失した奥行き値を推定するために、値の類似性、連続性(例えば、表面変化の類似性)、周期性(例えば、奥行き画像内に類似分布図を有する奥行き値が存在すると仮定)を定義するコスト関数を定義してもよい。コスト関数の一例として以下の数式(1)を用いてもよい。
Figure 0006250035
ここで、
Figure 0006250035
は奥行きの予測値であり、その他の定数を図6を参照しながら説明する。Lを消失した奥行き値を中心とするローカル領域としたとき、ローカル領域を量子化して領域内の総奥行き個数をNと決定してもよい。ローカル領域は、一定の大きさの空間上のボックスであり、またはその他のキュー(一例として、テクスチャ上の色)によって各消失した奥行き値ごとに異なるように設定されてもよい。ZとZは、復元しようとする消失した奥行き値の周辺奥行き値であり、非消失値を意味してもよい。Zは、連続した奥行き値を有するパッチまたはセグメントであって、パッチまたはセグメント内の変化量を比較して最も少ない値に最適化してもよい。
次に、数式(1)の各項が意味するものを示す。
Figure 0006250035
は類似性であり、復元しようとする奥行き値がローカル領域の平均と類似するか否かを示す。
Figure 0006250035
は、奥行き値とその周辺画素との関係が連続性を保つか否かを示すことができる。他の側面において、表面の屈曲率を保持させる効果を意味してもよい。
Figure 0006250035
は周期性であり、奥行き画像内のパターンが類似の領域が存在するか否かを示すことができるが、奥行き画像の分布図によって復元しようとする奥行き値が受ける影響を意味してもよい。
上述した各項に対してα、β、γで重みを調整して全体のコストを最小化するZ値を見つけてもよい。これは、数式(1)によって最適化されてもよい。そのため、上述した過程を消失した奥行きデータごとに繰り返し行ってその値を復元してもよい。
図7A及び図7Bは、一実施形態に係る単一視点奥行き画像ベースの形状復元結果を示す図である。
図7Aは、従来の方式を用いて反射物体の形状を取得したものであり、等方性材料の物体の形状情報を取得する方式に限定され、非等方性反射性質を有する不透明材料の物体形状に対しては、図に示すように一部分710の奥行き値が消失して明るく測定されるという限界が見られる。したがって、家庭用電化製品(CE:Consumer Electronics)用機器として鏡面が存在する物体の形状を取得するのには限界がある。
図7Bは、一実施形態に係る単一視点奥行き画像ベースの形状復元結果を示す図面であり、図6で上述した方法によって画像内の周辺空間画素を参照して誤差値を復元することによって、過度に明るく測定された部分が周辺と連続的な奥行き値を有するようになり、物体の形状がより完全な姿720で取得される。
図8は、一実施形態に係る合成画像ベースの形状復元方法を示す図である。
上述した一台の奥行きカメラを用いて消失した奥行き値を求める単一視点ベース方式の場合、奥行き値が飽和によって無意味な値として出力された場合に有用な方式であるが、一方の合成画像ベースの形状復元方式は、飽和による値の損失だけでなくノイズによって減少した精度まで補うことができる。
一実施形態によれば、合成画像ベース方式の反射物体の形状を取得する方法は、合成画像の較正(キャリブレーション)、エラー領域の検出、奥行き値補正の順序で行われ得る。他の一実施形態によれば、合成画像で反射物体の形状を取得する方法は、単一視点または多視点奥行きカメラのうちの1つに適用されてもよい。
ステップS810では、奥行き画像及びIR強度画像のうち少なくとも1つを含む合成画像が入力されてもよい。一実施形態によれば、合成画像は、M個の視点の奥行き画像が入力されてもよい。他の一実施形態によれば、奥行き画像及びIR強度画像は、全て、例えば、奥行き画像ペア及びIR強度画像ペアの集合を利用して使用してもよい。
続いて、ステップS820では、合成画像の較正は、一般的なカメラ較正方式の格子パターンから抽出した特徴点の間のマッチングで行ってもよい。従来の方式でオープンシーブイ(openCV)、あるいはZhangのキャリブレーションツールボックス(Zhang’s calibration toolbox)を適用してもよい。
そして、カメラ情報が較正によって得られた場合、合成画像間の較正が可能になり、画像較正によって同一3Dポイントを測定した異なる時点における奥行き値を得ることができる。すなわち、M個の視点画像が与えられたとき、各3DポイントごとにM個の測定値が存在し得る。対象物体が全方向に同一にIRを反射させる材であるピュア(Pure)ランバート反射である場合、M個の測定値は、同一の3Dポイント値を記録してもよい。反射材である場合、反射特性上、特定方向に光が収束して検出されるため、M個の値のうち意味のある奥行きを記録した値と飽和またはノイズを測定した値が全て含まれることがある。したがって、M個のサンプルを分析して、意味のある正確な奥行き値を推定する過程が必要になり得る。ただし、一実施形態によれば、正確な奥行き値推定を取得する間、M個のサンプルより少ない量が分析されてもよい。
続いて、ステップS830においては、合成画像からエラー領域を検出してもよい。このために、M個の奥行き値と当該3Dポイント周辺の隣の3Dポイントで観測されたM個の奥行き値を全て含む分布図を得ることができる。奥行きの分布図は、特定値を中心にピークになってもよいが、これは従来のK平均クラスタリング(K−mean Clustering)アルゴリズム、あるいはガウス混合モデルフィッティング(Gaussian mixture model fitting)などによって得ることができる。この分布図において、多重ピークが存在する3Dポイントは、エラーを含む測定値と見ることができる。
そして、ステップS840では、エラー領域の損失した奥行き値を補正してもよい。一実施形態によれば、複数のクラスタまたはガウスフィッティングによって最も主要なクラスタを確定してもよい。具体的には、クラスタ内部に属するサンプルの数が多く、クラスタサンプルのバリエイションが少ないクラスタを主要クラスタとしてもよい。その後、確定したクラスタ内のサンプル値を平均または非線形加重和を用いて奥行き値を決定してもよい。
上述したアルゴリズムは、算出上の効率のために、周辺ポイントを考慮せずにただ当該3Dポイントを観測するM個の視点の奥行き値にのみクラスタを構成することができ、クラスタ構成時の加重和または平均値の代わりに、中央値を用いたり、クラスタ内の任意の値を用いてもよい。
図9は、一実施形態に係る反射モデルを適用した多視点合成画像ベースの形状復元方法を示す図である。ここで、ToF方式によって提供されたIR画像に光の反射モデルを適用して奥行き値の関数によって次の数式(2)〜数式(4)のように表すことができる。
Figure 0006250035
上述した数式(2)〜数式(4)において、IはIR画像の強度であってもよい。
VIは視点独立画素で、IVDは視点依存画素であってもよい。pは奥行き値、αは値が大きくなるほど滑らかな表面を示し、値が小さくなるほど粗い表面を示す材の表面粗さ、ρは視点依存反射係数であり、一実施形態によれば、反射係数、ρは視点独立反射係数であり、一実施形態によれば、乱反射係数を示してもよい。ここで、αは数式(1)で使用した記号αと異なる意味で用いられてもよい。
とrは、未知の変数pの関数として、各々方位と反射視点の形状を示す法線ベクトル及び反射光ベクトルを示してもよい。ここで、pは図9に示したものと同一であってもよい。一実施形態によれば、ToF方式カメラの場合、上述した数式(3)〜数式(4)において、lは照明ベクトルとして光の方向を、vは視点ベクトルとして視点の方向を示してもよい。ここで、照射されるIRは、ToF装備が設計される過程でその位置が与えられることになり、奥行き値は、カメラセンサのセンター位置を基準として算出されるため、l、vの値は工程過程で予め決定されてもよく、この値は方向ベクトルであって単位はなくてもよい。
ここで、IR画像に光の反射モデルを適用する方法は、次のようになり得る。
まず、多視点IR画像から視点依存画素を視点独立画素と分離して当該IR画像を視点依存画素と視点独立画素の合計で表現してもよい。
そして、反射モデルを適用するために、多視点IR画像を用いて奥行き値、方位、明るさ、及び反射係数を抽出してもよい。
以下、上述したステップの具体的な実行方法を図10〜図11で詳細に説明する。
図10は、一実施形態に係る多視点合成画像から視点依存画素の分離を示す図である。一実施形態によれば、IR LED1020から放出された光線が反射物体1010に反射した画像に対して視点独立成分(IVI)1051を測定するカメラ1031、及び視点依存成分(IVD)1052を測定するカメラ1032がある。ここで、各カメラは、視点独立成分1051から視点独立画素を、視点依存成分1052から視点依存画素を抽出してもよい。このために、視点独立画素は、多視点画像で観測されたIR強度画像の値のうちの最小値に該当する値に決定してもよく、視点依存画素は、当該画素値から視点独立画素値を引いた残りの値に決定してもよい。上述したカメラ1030の視点依存画素と視点独立画素とを合わせて一般的反射現象によって受光したIR画像を表現してもよい。ここで、視点独立成分1051を測定したカメラ1031は、IVI+IVD=IVI+0になるためIVIによってのみ影響を受ける可能性があり、視点依存成分1052を測定したカメラ1032は、IVIおよびIVD成分の全てによって影響を受ける可能性がある。
図11は、一実施形態に係る多視点合成画像の視点依存画素と視点独立画素に他の反射モデルを適用することを示す図である。一実施形態によれば、視点依存画素に対してはPhong/TSモデルを、視点独立画素に対してはランバート反射モデルを適用してもよい。具体的には次のようなステップを行うことができる。
まず、M個の奥行き及びIR強度を撮影する。ここで、各表面点pごとにM個の視点の奥行き及びIR強度値が存在し得る。ここで、pは反射物体1110の表面に存在する地点であってもよく、M個の視点の奥行き及びIR強度はM個のセンサ1131,1132,1133によって測定されてもよい。以下の数式(5)は、測定値と予測値とを比較して最適化するモデル定数を求めることができる。
Figure 0006250035
数式(5)の
Figure 0006250035
は、測定値と予測値を比較することを示し、次のステップでは、pの初期値で撮影された奥行き値を活用して順番に上述した数式(5)を最適化して奥行き値、方位、明るさ、反射係数を抽出することができる。
ここでQ1134は、pの位置における光線であり、残りのp、α、ρ、ρ、I、n、r、l、及びvは、上述した数式(2)〜数式(4)と同一の意味で用いてもよい。
上述した方式は、多視点合成画像だけでなく、単一視点からなる合成画像のみが与えられた場合も適用されてもよい。多視点合成画像の場合、多視点で観測されたIR強度画像からIVDとIVIを分離してもよい。一実施形態によれば、奥行き画像及びIR強度画像の全て、例えば、奥行き画像ペア及びIR強度画像ペアの集合を利用して用いてもよい。数式(5)は、奥行き画像ペア及びIR強度画像ペアの集合に基づいて最適化されてもよい。ただし、単一視点の合成画像だけを用いる場合、次のような方式を適用してもよい。まず奥行き画像の微分値を用いてn(方位)を算出することができ、それを初期値として数式(5)に直ちに適用した後に最適化算出法によってモデル係数p、α、ρ、ρを算出してもよい。
図12A及び図12Bは、一実施形態に係る反射モデルから抽出した係数によってノイズが減少した方位マップを示す図である。一実施形態によれば、IR画像が光の反射モデルに従う現象を定数で数式に適用することによって方位マップの精度を向上させることができる。方位マップは、奥行きマップの微分値に比例する成分であり、形状の精度に非常に敏感な測定値であってもよい。したがって、方位マップの精度は奥行き画像の精度を直接的に反映してもよい。
図12Aは、原本の奥行きによる方位マップであって、測定誤差及びノイズによって表面が輝いて測定されるスパークルノイズが観測される。一方図12Bは、IR画像と光の反射モデルを適用して求めた方位マップであって、ノイズに強い方位マップが確保されることを確認できる。
図13A及び図13Bは、一実施形態に係る反射モデルを適用して方位及び材による誤差が減少した奥行きマップを示す図である。一実施形態によれば、IR画像が光の反射モデルに従う現象を係数として数式に適用することによって方位マップの性能を向上させることができる。
図13Aは、原本の奥行きマップであって、オフフェイス方位(off−face orientation)を有する物体及び高反射材の物体に対する奥行きマップを示す。一実施形態によれば、物体の表面方位はカメラ視点ベクトルをなす角度が直線上の水平から外れるほどオフフェイス方位を示す。ここで、オフフェイス方位1310の領域で消失した奥行き値によって黒く測定されるノイズ及び高反射材によって奥行き値が消失して黒く測定されるノイズ1320が観測されるが、方位及び材料による奥行き誤差が発生することもある。一方図13Bは、IR画像と光の反射モデルを適用したものであり、オフフェイス方位及び高反射材にも強い奥行きマップが取得されることを確認できる。
図14は、一実施形態に係る単一視点奥行き画像ベース反射物体の形状取得装置1400の細部的な構成を示すブロック図である。一実施形態によれば、単一視点奥行き画像ベース反射物体の形状取得装置1400は、単一視点奥行き画像入力部1410、単一視点奥行き値推定部1420、及び単一視点奥行き値補正部1430を含んでもよい。
単一視点奥行き画像入力部1410は、奥行き画像が入力されてもよい。一実施形態によれば、単一視点奥行き画像入力部1410は、奥行きカメラ及び奥行きセンサを含んでもよい。ここで奥行き画像はIR画像を含んでもよい。
単一視点奥行き値推定部1420は、奥行き画像におけるローカル領域内の周辺値との関連性を基に損失した奥行き値を推定してもよい。一実施形態によれば、関連性は奥行き値に対する類似性、連続性及び周期性の3つのコスト関数を最適化することによって保持されてもよい。具体的には、単一視点奥行き値推定部1420は、上述した数式(1)で重みα、β、γを調整して全体のコストを最小化して損失した奥行き値を決定する単一視点奥行き値決定部を含んでもよく、上述した過程は消失した奥行きデータごとにプロセッサによって繰り返し行ってもよい。
単一視点奥行き値補正部1430は、損失した奥行き値を補正してもよい。一実施形態によれば、損失した奥行き値が上述した単一視点奥行き値推定部1420が推定した奥行き値にプロセッサによって置換えられることによって単一視点奥行き画像から反射材の形状情報を抽出することができる。
図15は、一実施形態に係る合成画像ベース反射物体の形状取得装置1500の細部的な構成を示すブロック図である。合成画像ベース反射物体の形状取得装置1500は、合成画像入力部1510、合成画像較正部1520、合成画像エラー検出部1530、及び合成画像補正部1540を含んでもよい。
合成画像入力部1510は、M個の視点の合成画像が入力されてもよい。一実施形態によれば、合成画像はToF方式に係る奥行き画像及びIR強度画像を含んでもよい。ここで合成画像入力部1510は、例えば、奥行きカメラ及び奥行きセンサを含んでもよい。
合成画像較正部1520は、M個の視点の合成画像をカメラ較正してもよい。ここでカメラ較正は、カメラの位置やアングル、移動などの作業によって被写体を効果的に捕らえるために補正する作業であり、一実施形態によれば、オープンシーブイまたはZhangの較正ツールボックスをプロセッサを介して適用してもよい。具体的には、オープンシーブイ方式はチェス盤状のターゲットを数枚撮影した後、それぞれの画像から抽出したチェス盤のコーナー情報を用いて較正を行ってもよい。
合成画像エラー検出部1530は、合成画像からエラー領域を検出してもよい。一実施形態によれば、プロセッサによってK平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングから分布図が算出され、当該分布図で多重ピークが存在する3Dポイントがエラー領域として検出されてもよい。
ここで、合成画像エラー検出部1530は、合成画像から3Dポイント及び周辺の隣の3Dポイントで観測されたM個の奥行き値に対する分布図を算出する合成画像分布図算出部を含んでもよい。
合成画像補正部1540は、一実施形態によれば、分布図から主要クラスタを決定する主要クラスタ決定部及び主要クラスタ内の任意の値、平均値、加重和または中央値を用いて3Dポイントの損失した奥行き値を決定する合成値決定部を含んでもよく、プロセッサを介して決定された値で奥行き値を置換えて合成画像を補正してもよい。そのため、合成画像から反射材の形状情報を抽出してもよい。
他の一実施形態によれば、合成画像補正部1540は、合成画像から視点独立画素と視点依存画素とを分離する画素分離部及び上述した視点独立画素及び視点依存画素に各々他の反射モデルを適用する過程がプロセッサによって行われる反射モデル適用部を含んでもよい。
このような反射モデルの適用によって、従来は取得できなかった方位及び材料の成分まで取得できるようになり、カラー画像と共に使用する照明抽出技術にも活用することができる。これは、奥行きセンサの測定値に存在する精度の限界を反射モデルの適用によって補正するものであり反射物体の形状情報をより精密に取得してもよい。
実施形態に係る方法は、多様なコンピュータ手段によって行うことができるプログラム命令形態で実現され、コンピュータ読み出し可能記録媒体に記録してもよい。この記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせたものを含んでもよい。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含んでもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。例えば、説明した技術が説明した方法と異なる順序で行われたり、および/または説明したシステム、構造、装置、回路などの構成要素が説明した方法と異なる形態で結合または組合されたり、他の構成要素または均等物によって置き換えられたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
1500:合成画像ベース反射物体の形状取得装置
1510:合成画像入力部
1520:合成画像較正部
1530:合成画像エラー検出部
1540:合成画像補正部

Claims (20)

  1. 反射物体の形状を取得する方法であって、
    多視点の複数の奥行き画像及び多視点の複数のIR強度画像のうち少なくとも2以上を含む合成画像が入力されるステップと、
    前記合成画像を較正(キャリブレーション)するステップと、
    前記キャリブレーションされた合成画像からエラー領域を検出するステップと、
    前記合成画像のキャリブレーションに基づいて前記エラー領域の損失した奥行き値を補正するステップと、
    を含み、
    前記エラー領域の損失した奥行き値を補正するステップは、
    前記合成画像から視点独立画素と視点依存画素とを分離して前記合成画像を前記視点独立画素と前記視点依存画素との合計で表すステップと、
    前記視点独立画素と前記視点依存画素に各々他の反射モデルを適用するステップと、
    を含む反射物体の形状を取得する方法。
  2. 前記合成画像をキャリブレーションするステップは、
    前記合成画像に含まれた複数の画像の夫々の格子パターンから抽出した特徴点の間のマッチングによってカメラキャリブレーションを行うステップを含む、請求項に記載の反射物体の形状を取得する方法。
  3. 前記合成画像は、
    M個の視点画像であり、Mは2以上の自然数であり、
    前記キャリブレーションされた合成画像からエラー領域を検出するステップは、
    前記合成画像から3DポイントのM個の奥行き値に対する分布図を算出するステップを含む、請求項1乃至のいずれか一項に記載の反射物体の形状を取得する方法。
  4. 前記合成画像から3DポイントのM個の奥行き値に対する分布図を算出するステップは、
    前記3Dポイント周辺の隣の3Dポイントで観測されたM個の奥行き値に対する分布図を算出するステップを含む、請求項に記載の反射物体の形状を取得する方法。
  5. 前記キャリブレーションされた合成画像からエラー領域を検出するステップは、
    前記分布図で多重ピークが存在する3Dポイントを検出して前記3Dポイントをエラー領域に決定するステップを含む、請求項又はに記載の反射物体の形状を取得する方法。
  6. 前記分布図は、
    K平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングによって算出され、
    前記エラー領域の損失した奥行き値を補正するステップは、
    前記K平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングに係る複数のクラスタから主要クラスタを決定するステップと、
    前記主要クラスタ内のサンプルの任意の値、平均値、加重和または中央値を用いて前記3Dポイントの奥行き値を決定するステップと、
    前記決定された奥行き値で前記損失した値を置換えるステップと、
    を含む、請求項乃至のいずれか一項に記載の反射物体の形状を取得する方法。
  7. 前記K平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングに係る複数のクラスタから主要クラスタを決定するステップは、
    複数のクラスタ中の内部に属したサンプルの数が多く、バリエイションが少ないクラスタを主要クラスタに決定するステップを含む、請求項に記載の反射物体の形状を取得する方法。
  8. 反射物体の形状を取得する方法において、
    奥行き画像が入力されるステップと、
    前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップと、
    前記推定に基づいて前記損失した奥行き値を補正するステップと、
    を含み、
    前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップは、
    前記損失した奥行き値が前記奥行き画像内のパターンに対して周期性を保つように前記損失した奥行き値を推定するステップを含む反射物体の形状を取得する方法。
  9. 前記奥行き画像は、
    前記損失した奥行き値を含む地点を中心とする領域で定義されるローカル領域を含む、請求項に記載の反射物体の形状を取得する方法。
  10. 前記奥行き画像は、
    飽和形態で値が出力される現象が生じた奥行き画像である、請求項又はに記載の反射物体の形状を取得する方法。
  11. 前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップは、
    ーカル領域の平均に対して前記損失した奥行き値の類似性を保つように前記損失した奥行き値を推定するステップを含む、請求項乃至10のいずれか一項に記載の反射物体の形状を取得する方法。
  12. 前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップは、
    前記損失した奥行き値が周辺画素との関係で連続性を保つように前記損失した奥行き値を推定するステップを含む、請求項乃至10のいずれか一項に記載の反射物体の形状を取得する方法。
  13. 前記奥行き画像において周辺値との関連性を基に損失した奥行き値を推定するステップは、
    ローカル領域の平均に対して前記損失した奥行き値の類似性、周辺画素との関係で連続性及び前記奥行き画像内のパターンの周期性を保つように前記損失した奥行き値を推定するステップと、
    前記類似性、前記連続性、及び前記周期性に対して各々重みを付与して全体のコストが最も少ない値に前記損失した奥行き値を決定するステップと、
    を含む、請求項乃至10のいずれか一項に記載の反射物体の形状を取得する方法。
  14. 多視点の複数の奥行き画像及び多視点の複数のIR強度画像のうち少なくとも2以上を含む合成画像が入力される合成画像入力部と、
    前記合成画像をキャリブレーションする合成画像キャリブレーション部と、
    前記キャリブレーションされた合成画像からエラー領域を検出する合成画像エラー検出部と、
    前記合成画像キャリブレーション部による前記合成画像のキャリブレーションに基づいて前記エラー領域の損失した奥行き値を補正する合成画像補正部と、
    を含み、
    前記合成画像キャリブレーション部は、
    前記合成画像から視点独立画素と視点依存画素とを分離して前記合成画像を前記視点独立画素と前記視点依存画素との合計で表し、
    前記視点独立画素と前記視点依存画素に各々他の反射モデルを適用する反射物体の形状を取得する装置。
  15. 前記合成画像は、
    M個の視点画像であり、Mは2以上の自然数であり
    前記合成画像エラー検出部は、
    前記合成画像から3DポイントのM個の奥行き値及び前記3Dポイント周辺の隣の3Dポイントで観測されたM個の奥行き値に対する分布図を算出する合成画像分布図算出部を含む、請求項14に記載の反射物体の形状を取得する装置。
  16. 前記合成画像分布図算出部は、
    K平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングによって前記分布図を算出し、
    前記合成画像補正部は、
    前記K平均クラスタリングアルゴリズムまたはガウス混合モデルフィッティングに係る複数のクラスタ中の内部に属したサンプルの数が多く、バリエイションが少ないクラスタを主要クラスタに決定する主要クラスタ決定部と、
    前記主要クラスタ内のサンプルの任意の値、平均、加重和または中央値を用いて前記3Dポイントの奥行き値を決定する合成値決定部と、
    前記決定された奥行き値で前記損失した値を置換える合成値置換部と、
    を含む、請求項15に記載の反射物体の形状を取得する装置。
  17. 奥行き画像が入力される単一視点奥行き画像入力部と、
    前記奥行き画像でローカル領域内の周辺値との関連性を基に損失した奥行き値を推定する単一視点奥行き値推定部と、
    前記単一視点奥行き値推定部の前記推定に基づいて前記損失した奥行き値を補正する単一視点奥行き値補正部と、
    を含み、
    前記推定部は、
    前記損失した奥行き値が前記奥行き画像内のパターンに対して周期性を保つように前記損失した奥行き値を推定する反射物体の形状を取得する装置。
  18. 前記単一視点奥行き値推定部は、
    ローカル領域の平均に対して前記損失した奥行き値の類似性及び周辺画素との関係で連続性保つように前記損失した奥行き値を推定し、
    ここで前記装置は、
    前記類似性、前記連続性、及び前記周期性に対して各々重みを付与して全体のコストが最も少ない値に前記損失した奥行き値を決定する単一視点奥行き値決定部をさらに含む、請求項17に記載の反射物体の形状を取得する装置。
  19. 多視点の複数のIR強度画像及び多視点の複数の奥行き画像のうち少なくとも2以上を含む合成画像の入力を受信するステップと、
    前記多視点の特徴点をマッチングすることによって合成画像をキャリブレーションされたステップと、
    前記キャリブレーションされた合成画像でエラー領域を検出するステップと、
    前記合成画像のキャリブレーションに基づいて決定されたエラー領域に対応する地点の視点から取得された奥行き値を用いて前記エラー領域の損失した奥行き値を補正するステップと、
    を含み、
    前記エラー領域の損失した奥行き値を補正するステップは、
    前記合成画像から視点独立画素と視点依存画素とを分離して前記合成画像を前記視点独立画素と前記視点依存画素との合計で表すステップと、
    前記視点独立画素と前記視点依存画素に各々他の反射モデルを適用するステップと、
    を含む反射物体の形状を取得する方法。
  20. 請求項19の方法を実行する少なくとも1つのプロセッサを制御するコンピュータ読み出し可能コードを含む非一時的な格納媒体。
JP2015511361A 2012-10-31 2013-05-08 奥行きセンサベース反射物体の形状取得方法及び装置 Active JP6250035B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020120122345A KR101913321B1 (ko) 2012-05-10 2012-10-31 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치
KR10-2012-0122345 2012-10-31
PCT/KR2013/004008 WO2013168996A1 (en) 2012-05-10 2013-05-08 Method and apparatus for acquiring geometry of specular object based on depth sensor

Publications (2)

Publication Number Publication Date
JP2015526692A JP2015526692A (ja) 2015-09-10
JP6250035B2 true JP6250035B2 (ja) 2017-12-20

Family

ID=49534546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015511361A Active JP6250035B2 (ja) 2012-10-31 2013-05-08 奥行きセンサベース反射物体の形状取得方法及び装置

Country Status (1)

Country Link
JP (1) JP6250035B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6456156B2 (ja) * 2015-01-20 2019-01-23 キヤノン株式会社 法線情報生成装置、撮像装置、法線情報生成方法および法線情報生成プログラム
WO2019191819A1 (en) * 2018-04-05 2019-10-10 Efficiency Matrix Pty Ltd Computer implemented structural thermal audit systems and methods
CN114008670A (zh) * 2019-07-17 2022-02-01 索尼集团公司 信息处理装置、信息处理方法和信息处理程序

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6326510A (ja) * 1986-07-19 1988-02-04 Fujitsu Ltd 実装部品検査装置
JPH1023311A (ja) * 1996-07-05 1998-01-23 Canon Inc 画像情報入力方法及び装置
US8107721B2 (en) * 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
KR101626072B1 (ko) * 2009-11-13 2016-06-13 삼성전자주식회사 영상 보정 장치 및 영상 보정 방법
KR20110116325A (ko) * 2010-04-19 2011-10-26 삼성전자주식회사 영상 처리 장치 및 그 방법
JP5553215B2 (ja) * 2010-06-16 2014-07-16 株式会社Ihi アンバランス量測定方法と装置

Also Published As

Publication number Publication date
JP2015526692A (ja) 2015-09-10

Similar Documents

Publication Publication Date Title
KR101913321B1 (ko) 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치
CN109477710B (zh) 基于点的结构化光系统的反射率图估计
JP6244407B2 (ja) 深度測定の品質の向上
EP2072947B1 (en) Image processing device and image processing method
JP6456156B2 (ja) 法線情報生成装置、撮像装置、法線情報生成方法および法線情報生成プログラム
US8988317B1 (en) Depth determination for light field images
EP2071280B1 (en) Normal information generating device and normal information generating method
WO2016181687A1 (ja) 画像処理装置と画像処理方法およびプログラム
US10733751B2 (en) Displacement detecting apparatus and displacement detecting method
EP3594617B1 (en) Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program
US20220215509A1 (en) Physics-based recovery of lost colors in underwater and atmospheric images under wavelength dependent absorption and scattering
KR20170035844A (ko) 타임 오브 플라이트 데이터를 비닝하는 방법
JP6250035B2 (ja) 奥行きセンサベース反射物体の形状取得方法及び装置
Schramm et al. Data fusion for 3D thermal imaging using depth and stereo camera for robust self-localization
US10134136B2 (en) Image processing apparatus and image processing method
JP2019100969A (ja) 距離計測装置、距離計測方法および距離計測プログラム
Vaida et al. Automatic extrinsic calibration of LIDAR and monocular camera images
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
JP2010107224A (ja) 位置特定装置及び異動建物検出装置
Sun et al. Stripes extraction technique of projection pattern in frequency domain for 3D shape measurement based pattern projection technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171121

R150 Certificate of patent or registration of utility model

Ref document number: 6250035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250