JP2014528057A - 物体の姿勢を推定するための方法 - Google Patents

物体の姿勢を推定するための方法 Download PDF

Info

Publication number
JP2014528057A
JP2014528057A JP2014514266A JP2014514266A JP2014528057A JP 2014528057 A JP2014528057 A JP 2014528057A JP 2014514266 A JP2014514266 A JP 2014514266A JP 2014514266 A JP2014514266 A JP 2014514266A JP 2014528057 A JP2014528057 A JP 2014528057A
Authority
JP
Japan
Prior art keywords
pair
boundary
feature
point
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014514266A
Other languages
English (en)
Other versions
JP5726378B2 (ja
JP2014528057A5 (ja
Inventor
田口 裕一
裕一 田口
チュゼル、オンセル
ラマリンガム、スリクマール
チョイ、チャンヒュン
リウ、ミン−ユ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2014528057A publication Critical patent/JP2014528057A/ja
Publication of JP2014528057A5 publication Critical patent/JP2014528057A5/ja
Application granted granted Critical
Publication of JP5726378B2 publication Critical patent/JP5726378B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

物体の姿勢は、最初に、幾何プリミティブの対として一連の対特徴を定義することによって推定され、幾何プリミティブは、方向付けされた表面ポイント、方向付けされた境界ポイントおよび境界線セグメントを含む。モデル対特徴は、物体のモデルに対する一連の対特徴に基づいて決定される。場面対特徴は、3Dセンサによって取得されたデータからの一連の対特徴に基づいて決定され、次いで、モデル対特徴を場面対特徴と一致させ、物体の姿勢を推定する。

Description

本発明は、概して、3D物体の姿勢を推定することに関し、より具体的には、3Dセンサによって取得されたデータから姿勢を推定することに関する。
物体の姿勢には、6自由度(6−DoF)、すなわち、3D並進および3D回転がある。姿勢推定の問題は、基準座標系、通常、センサの座標系に対する物体の姿勢を見出すことを意味する。姿勢は、例えば、3Dモデルを用いた、2D画像、3Dポイントクラウドなどのセンサからの測定値を使用して取得することができる。姿勢推定は、容器の拾上げ、把持、位置測定、自律的ナビゲーションおよび3D再構成など、多くのロボット工学応用において主な役割を果たす。
最近まで、姿勢推定は主に2D画像を使用して行われたが、その理由は、カメラの費用効率が高く、高速画像取得が可能であるためである。2D画像に関する主な問題は、2D特徴と、それらに対応するモデルの3D特徴とを一致させることにある。このことは、カメラの様々な照明条件や異なる視点により、画像空間における回転およびスケールの変化が生じるため、難易度が高いものとなる。その上、物体のいくつかの見方は、理論的に、曖昧な姿勢につながる恐れがある。入力画像と画像のデータベースとの対応を決定するため、いくつかの不変特徴記述子が知られており、同記述子では、2Dキーポイントを3D座標と一致させる。
多くの工業用部品は、例えば、機械加工された金属部品または成形されたプラスチック部品など、構造が曖昧なもの(textureless)である。したがって、画像の観察可能なエッジに大幅に依存しなければならない。物体の境界が使用される場合、物体の一連のエッジテンプレートは、前提として知られる場合が多く、テンプレートは、クエリエッジマップ(query edge map)において探索される。エッジの向きまたは階層表現を組み込むいくつかの変形形態が知られている。強度ベースのエッジ検出は、あまりにも多くのエッジ画素を生じさせる場合が多く、その場合、ほんのわずかなエッジ画素のみが深度不連続に由来する有効エッジである。マルチフラッシュカメラを使用することで、複数のフラッシュ方向から影を投影することによって深度エッジを直接推定することができる。
一般に、3Dセンサで得られる3Dデータは、2Dデータとは対照的に、はるかに少ない変形形態を有する。主な課題は、センサ雑音、オクルージョンおよびクラッタの存在下で対応問題の解を求めることである。対応問題は、データの特徴とモデルの特徴との1対1の一致を見出すことを意味する。特徴は、通常、物体のサイズや形状を特徴付けるように構成される。表面ポイントおよび法線の分布を使用するいくつかの3D特徴記述子や、一致手順が知られている。それらの記述子は、一般に、剛体変換に対して不変であるが、雑音やオクルージョンに敏感である。その上、それらの特徴は、高密度のポイントクラウドを必要とし、高密度のポイントクラウドは、利用可能でない場合がある。
姿勢推定は、センサ3Dデータとモデルとの様々な種類の対応、すなわち、3ポイント対応、2線対応および3つ以上の平面に対する6ポイントで実行可能である。通常、それらの対応は、姿勢を決定するためのランダムサンプルコンセンサス(RANSAC:RANdom SAmple Consensus)などの仮説検証フレームワークで使用される。あるいは、姿勢は、ハフ投票方式またはパラメータ空間でのクラスタリングのいずれかを使用することによって、仮定の姿勢分布のモードから検索することができる。それらの手法は、画像も他の事前情報もない状態で、3Dセンサデータのみが利用可能である場合、2つの問題に悩まされる。ポイント、線および平面は、それほど個別に区別可能なものではなく、組み合わせて一致させることができ、モデルに対して何の事前処理も行うことなく、高速演算を達成することは難しい。
対特徴は、物体の表面上の2つの方向付けされたポイント間の距離および相対的な向きによって定義することができる。物体は、一連の方向付けされたポイント対特徴によって表され、それらの対特徴は、高速検索のためにハッシュ表Hに格納される。ランダムな2つのポイントは、センサデータからサンプリングされ、そのような各対は、特定の姿勢に投票する。必要な姿勢は、最大投票数を有するものに相当する。画素とオフセット画素との深度差からなる、より簡単な対特徴は、ランダムフォレスト集合分類子を用いる人間の姿勢推定に使用される。
本発明の実施形態は、3Dセンサによって取得されたデータから物体の姿勢を推定するための投票ベースの方法を提供する。先行技術で使用される方向付けされた表面ポイント(法線を有する、物体の表面上のポイント)は、かなりの曲率変化がある物体に対して区別可能なものであり、それらの表面ポイントは、平面状の多くの工業用の物体および現実世界の物体に対して十分にコンパクトなものでも、区別可能なものでもない。
境界から情報を得るため、2D登録ではエッジが重要な役割を果たす一方で、3Dでは深度不連続が極めて重要である。実施形態は、この境界情報をより良く活用する姿勢推定方法ファミリを提供する。方向付けされた表面ポイントに加えて、方向付けされた境界ポイント(方向を有する、物体の境界上のポイント)および境界線セグメントを含む、他の2つの幾何プリミティブを使用する。
慎重に選択されたプリミティブは、より多くの情報をコンパクトに符号化し、それにより、幅広いクラスの工業用部品に対してより優れた精度を提供し、さらなる高速演算を可能にする。
本発明の実施形態を使用することができるロボットアセンブリ装置の概略図である。 本発明の実施形態による、投票ベースの方法を使用して3D物体の姿勢を決定するための方法のブロック図である。 投票ベースの方法を使用して3D物体の姿勢を決定するための方法を詳述するブロック図である。 本発明の実施形態による、投票ベースの姿勢推定のための対特徴の概略図である。 本発明の実施形態による、投票ベースの姿勢推定のための対特徴の概略図である。 本発明の実施形態による、投票ベースの姿勢推定のための対特徴の概略図である。 本発明の実施形態による、投票ベースの姿勢推定のための対特徴の概略図である。 本発明の実施形態による、センサデータから得られた線対特徴とモデルから得られた線対特徴との間の変換の概略図である。
図1は、物体の姿勢を推定するためのシステム100を示す。システムは、グリッパ120を備えた6軸ロボットアーム110を含む。3Dセンサ130は、アーム上に配置される。グリッパは、物体の姿勢101に応じて、容器150から物体140を拾い上げる。容器は異なる物体を含み得ることに留意されたい。
3Dセンサの一例は、赤外レーザによって生成される構造化された光を使用する。また、他のセンサも可能である。センサは、640×480画素の深度マップとして3D「ポイントクラウド」160を取得する。3Dセンサは、ロボットアームに対して較正され、それにより、姿勢を使用して、物体を把持することおよび拾い上げることが可能になる。
3Dポイントクラウドは、プロセッサ170で実行される方法によって処理される。プロセッサは、当技術分野で知られているように、メモリおよび入力/出力インターフェースを含み得る。本方法は、姿勢を決定し、物体140を拾い上げるようにアームに指示するため、決定された姿勢を、コントローラ180にフィードバックすることができる。
図2Aは、方法200のブロック図を示し、次の工程、すなわち、場面の3D検知210と、投票ベースの姿勢推定220と、姿勢改善230と、その姿勢に応じた物体の把持240とを含む。
システムは、3Dセンサを使用して物体の容器をスキャンし、本方法によって決定された姿勢に従って物体を検出して、物体を拾い上げる。容器内の異なる各物体の3D CADモデルを考慮して、投票ベースの方法は、スキャンされた3Dポイントクラウド160を使用して、物体の検出および姿勢推定を実行する。この工程は、複数の粗姿勢を提供する。システムは、いくつかの最適な粗姿勢を選択し、反復最近点(ICP:iterative−closest point)手順を使用して、姿勢を個別に改善する。
一般に、ICPは、2つの3Dポイントクラウド間の差を最小化する。ICPは、異なる位置で取得された複数の部分的なスキャンから完全な3Dモデルを再構成し、3D環境モデルに対してロボットの位置測定を行うために使用される場合が多い。手順は、対応するポイント間の距離の最小化に必要な変換(並進および回転)を反復修正することによって、リアルタイムで実行することができる。入力は、2つの3Dポイントクラウド、変換の初期推定および終了基準である。出力は、改善された変換である。主な工程は、最近隣基準によって対応するポイントを見出す工程、費用関数として平均二乗誤差を使用して変換パラメータを推定する工程、推定されたパラメータを使用してポイントを変換する工程、および、反復する工程を含む。
本発明者らのシステムのICP手順は、現在の姿勢推定を使用して物体のCADモデルをレンダリングし、レンダリングされたモデルの表面をサンプリングすることによって、モデルに対する3Dポイントクラウドを生成する。次いで、ICPは、モデルの各3Dポイントに対して、スキャンされたポイントクラウドの最も近い3Dポイントを決定し、3Dポイント対応を使用して姿勢推定を更新する。
ICPが収束した後、スキャンされたポイントクラウドの対応する3Dポイントとモデルの対応する3Dポイントとの間の平均距離として登録誤差が測定される。登録誤差は、ICPが不適正な姿勢に収束する場合、または、他の物体からのオクルージョンが原因で物体の一部が欠如する場合に高い可能性がある。したがって、登録誤差が高い場合は、本発明者らのシステムは、把持に対して推定された姿勢を使用しない。登録誤差に加えて、本発明者らのシステムは、物体を拾い上げることができるかどうかを決定するため、ロボットアームによってその姿勢の物体に到達できるかどうかもチェックする。
座標系
本説明の目的のため、3つの座標系が使用される。センサは、センサ(カメラ)座標系Cの観点から表現される。物体のモデルは、物体座標系Oの観点から表現される。場面の物体は、世界座標系Wを使用する。センサは、一般に、現実世界の公知の位置および向きにあるため、センサ座標系Sは、世界座標系Wに対して較正することができる。
姿勢推定方法は、センサ座標系と物体座標系との間の変換を決定する。次いで、センサ座標系と世界座標系との関係は、場面の物体操作に使用することができる。
投票ベースの姿勢推定
姿勢推定のための本発明者らの特徴は、方向付けされたポイントまたは線の対に基づき、これを対特徴と呼ぶ。ある方向付けされたポイント(基準)から別のポイント(関連)まで特徴ベクトルを非対称的に構成するため、方向付けされた表面ポイントの対からなる対特徴は、S2Sで示される。同様に、方向付けされた境界ポイントの対(B2B)、線セグメントの対(L2L)および異種対(方向付けされた表面ポイントと方向付けされた境界ポイント(S2BとB2S)を含む)に基づいて、他の4つの対特徴を有する(図3A〜3Dを参照)。
ポイント対特徴記述子FS2S、FB2B、FS2BおよびFB2Sは、方向付けされたポイントの対(m,n)の相対位置fならびに向きf、fおよびfによって定義され、ポイントは、表面法線を有する表面ポイントまたは方向を有する境界ポイントのいずれかを示す。図3Dでは、線対特徴記述子FL2Lは、2つの無限線間の最小距離f、2つの線方向間の鋭角fおよび2つの線セグメント間の最大距離fによって定義される。
物体の姿勢を推定するため、場面やモデルから得られるような対特徴間の対応を確立することが必要とされる。対特徴から、その記述子として、様々な幾何制約を使用する。次いで、場面対特徴とモデル対特徴との対応は、それらの記述子を一致させることによって確立される。
対特徴
S2S−表面対特徴:
表面対特徴S2Sは、物体の表面上の2つのポイントと、2つのポイントの法線とを使用して定義される。場面からの方向付けされたポイントおよびモデルからの対応するプリミティブを考慮して、3D姿勢は、ポイント位置およびポイントの法線を位置合わせすることによって、平面回転まで回復させることができる。回転の曖昧性を解決し、完全な6−DoF姿勢を回復させるため、少なくとも場面プリミティブとモデルプリミティブの2対間の対応が必要である。
{(m,n),(m,n)}は対特徴を示し、mは物体の表面上の基準点であり、mは物体の表面上の関連点であり、nおよびnはそれぞれに対応する法線であるものとする。この対特徴を有する関連記述子は、以下の通りであり、
Figure 2014528057
式中、dは、基準点から関連点へのベクトルであり、∠(v,v)∈[0,π)は、2つのベクトル間の角度を表す。
したがって、記述子の第1の成分は、f=||m−m||=||d||を表し、これは、2つの表面ポイント間のユークリッド距離である。第2の成分fは、ベクトルdと表面法線ベクトルnとの間の角度であり、第3の成分fは、ベクトルdと表面法線ベクトルnとの間の角度である。最後の成分fは、2つの法線ベクトル間の角度である。S2S特徴は、図3Aに示される。物体が広範囲の法線にまで広がれば、この特徴は、物体の優れた記述を提供する。
B2B−境界対特徴:
S2S特徴は、広範囲の表面法線にまで広がらない形状に対しては、優れた記述を提供することができない。残念ながら、ロボットアセンブリの間に使用される多くの工業用部品は、平面状であり、非常に小さなセットの法線方向を有する。それに加えて、3Dデータにおける雑音が原因で、表面上の高曲率領域の法線を正確に推定することは難しく、問題をさらに複雑にする。
物体境界上の2つのポイントに基づいて、新規のポイント対特徴B2Bを定義する。表面ポイントとは対照的に、境界ポイントは、良く定義された法線を有さない。境界ポイントの場合、線セグメントを合わせ、方向付けに対して線セグメントの方向を使用する。物体境界上の線セグメントを抽出するため、最初に、キャニーエッジ検出器を使用して、深度マップにおけるエッジを決定する。エッジは、エッジマップに格納される。エッジマップからのポイントは、ランダムにサンプリングされ、3D線は、RANSAC手順を使用して、これらのポイントを中心に展開されるローカル領域上に合わせる。最大インライアを用いて線セグメントの反復位置付けおよび除去を行うことで、全ての線セグメントを回復させる。これらの線セグメントは、インライアに最小二乗を適用することによって、さらに改善される。線を合わせた後、3D線セグメント上の境界ポイントを一様にサンプリングする。
図3Bでは、ポイントは、2つの3D線セグメント上の境界ポイントを示す。次いで、境界対特徴記述子FB2B∈Rが以下によって定義される。
Figure 2014528057
この特徴は、
Figure 2014528057
および
Figure 2014528057
が3D線の方向であることを除いて、FS2Sと同等である。方向は一意的に決定されないことに留意されたい。したがって、B2B特徴を使用する際は、2つの可能な方向:
Figure 2014528057
および
Figure 2014528057
を考慮する。
物体境界は非常に有益である。S2Sと比べると、B2Bは、表面ポイントと比べてより少ない境界ポイントを有するため、より簡潔なモデリングを提供する。それに加えて、ローカル線セグメントからの方向付けは、表面法線と比べて、雑音への回復力に富む。
S2BとB2S−表面と境界との対特徴:
境界対特徴は、物体の深度エッジと関連付けられる。境界ポイントのみに依存するそのような特徴は、高曲率表面を有する物体に対しては、最も良い選択ではない可能性がある。例えば、球体の物体の表面上のいかなるポイントも、姿勢に基づいて深度エッジになれる可能性がある一方で、多面体の物体上の深度エッジは、より安定しており、平面交差上に常に現れる。
平面状の物体と曲線状の物体の両方を一緒に効率的にモデル化するため、方向付けされた表面ポイントと方向付けされた境界ポイントを使用して定義される異種対特徴を提供する。表面上と境界上の方向付けされたポイントを考慮することで、この特徴は、B2B特徴と比べて、姿勢サンプリングを低減する。
図3Cに示されるように、方向付けされた表面ポイントを基準点として選択し、方向付けされた境界ポイントを関連点として選択することで、S2B特徴記述子FS2B∈Rは、以下によって定義される。
Figure 2014528057
同様に、B2S特徴は、方向付けされた境界ポイントを基準点として選択し、方向付けされた表面ポイントを関連点として選択することで定義される。
L2L−線対特徴:
図3Dに示されるように、3D線セグメントに対する対特徴L2Lも提供する。2つの線セグメントに対する特徴を構成することは、方向付けされたポイント対に対する特徴を構成することよりも若干複雑である。本発明者らの方法では、RANSAC手順を使用して線を合わせる。線セグメントは、通常、雑音、ランダム化された線合わせおよびオクルージョンが原因で、より小さないくつかのセグメントに分割される。したがって、線セグメントのエンドポイントは、{l ,l ,l ,l }と示され、確実に決定することはできない。
したがって、cおよびcで示される2つのポイントを考慮して、本発明者らの特徴記述子を定義する。図3Dに示されるように、cおよびcは、互いに対して各線上で最も近いポイントである。方向vおよびvを有する2つの線セグメント間の鋭角は、以下の通りである。
Figure 2014528057
式中、
Figure 2014528057
である。
本発明者らのL2L特徴記述子FL2L∈Rは、以下の通りであり、
Figure 2014528057
式中、
Figure 2014528057
である。
第1の成分は、最も近いポイントcとcとの間の距離(すなわち、2つの無限線間の距離)であり、第2の成分は、2つの線セグメント間の鋭角である。最後の成分は、2つの線セグメント間の最大距離を表す。この最大距離は、ある線セグメントのエンドポイントと別の線セグメントのエンドポイントとの間の全ての可能な距離の最大値であり得る。この最大距離は、同様の距離および角度を有する2つの線セグメント間での誤一致を取り除く際に役立つ。例えば、同一平面上の直交線のいかなる対も、同じ距離および角度を有する。しかし、上記で説明されるように、この最大距離は、線セグメントの切断が原因で、確実なものではない。したがって、姿勢推定のこの成分に対して、より大規模な量子化工程を使用する。平行線セグメントの対に対するL2L特徴は、そのような対は姿勢の曖昧性につながるため、構成しない。
線セグメントの数は表面ポイントまたは境界ポイントの数より少ないため、線対特徴は、非常に効率的な一致を提供する。この特徴は、多面体の物体および長い境界線セグメントを有する物体に対して特に効率的である。
実用的な実装形態では、表面ポイントは、深度画像をスキャンし、サブサンプリングすることによって得られ、3D線は、3Dスキャンから3D線セグメントを推定する本発明者らのRANSAC手順を介して決定され、次いで、境界ポイントは、線セグメントに沿ってサブサンプリングすることによって得られる。
物体表現
最初に、S2Sの方向付けされた表面ポイント、B2Bの方向付けされた境界ポイント、S2BとB2Sの方向付けされた表面ポイントと方向付けされた境界ポイントの両方、および、L2Lの3D線セグメントなどの幾何プリミティブMを得る。これらの幾何プリミティブは、センサと物体との間の公知の較正を伴う3Dスキャンデータまたは公知のCADモデルからレンダリングされる合成深度データのいずれかから決定することができる。
図2Aに示されるように、これらのプリミティブMを用いることで、一連のモデル対特徴201 S2S、B2B、S2B、B2SおよびL2Lを使用して、特定の各物体140を表す。効率的な特徴一致に対しては、ハッシュ表H205にモデル対特徴を格納する。最初に、Δのステップサイズで距離が、そして、Δのステップサイズで角度がそれぞれ量子化される特徴対を離散化する。量子化レベルを適切に定義することが重要である。大きなステップサイズを使用すると、記述子の区別能力が低減されるが、小さなステップサイズを使用すると、方法を雑音に敏感にする。続いて、ハッシュ関数のキーとして、離散化された対特徴記述子を使用し、それに応じて容器に対特徴を挿入する。適切な量子化工程を用いることで、同様の対特徴が一緒にグループ化され、一定の時間内に一致および投票を行うことができる。
物体表現を構成する工程は、オフラインで実行できる前処理工程であり得る。図2Aは、後に拾い上げるために、容器内でランダムに混合させることができる3つの異なる物体を示す。
オンラインプロセスでは、スキャンされた3Dポイントクラウド160から場面対特徴202を決定し、これらの特徴を一連のモデル対特徴と一致させる。方法の詳細については、図2Bに示されている。
S2S、B2B、S2BおよびB2Sの投票方式
図2Bに示されるように、モデルから特徴の対202を決定し、ハッシュ表H205を構成した後、場面対特徴と一連の対応するモデル対特徴との間の剛体変換を計算することによって、姿勢を決定する。最適な姿勢を見出すプロセスを効率的なものにするため、投票方式を使用する。単純な手法は、6−DoF姿勢空間での投票を必要とし、これは非効率的である。
代わりに、中間座標変換を使用して投票空間を2D空間に低減する投票方式を使用する。最初に、ハッシュ表Hにおいて場面ポイント対(s,s)が探索され、次いで、対応するモデルポイント対(m,m)が見出される。次いで、対の基準点の位置が座標系の原点に対応し、対の基準点の法線がx軸と一直線になるように、対の基準点が中間座標系に変換される。対を完全に位置合わせするため、関連点mおよびsは、角度αで物体モデルをx軸を軸として回転させることによって位置合わせされる。
上記の(m,m)から(s,s)への変換は、基準モデル点の対および平面回転角度(m,α)によってパラメータ化され、
Figure 2014528057
によって得られ、式中、R(α)は、角度αでのx軸を軸とする回転であり、Ts→gは、場面座標系から中間座標系への変換であり、Tm→gは、モデル座標系から中間座標系への変換である。
投票段階では、場面の基準点sは、場面の他の点sと対になり、場面対特徴(s,s)と同様のモデル対特徴(m,m)は、それらの対特徴の記述子に基づいて、ハッシュ表Hから得られる。あらゆる対に対し、回転角度αは、中間座標系で決定され、次いで、投票は、対(m,α)に投じられる。投票後、既定の閾値を超える要素が選択され、その要素から、式(10)のように候補姿勢(モデル座標と場面座標との間の剛体変換)206が演算される。このプロセスは、場面の異なる基準点を選択することによって繰り返される。この投票方式は、S2S、B2B、S2BおよびB2S対特徴に適用可能である。
L2Lの投票方式
L2L特徴は線セグメントの対によって定義されるため、L2L特徴に対しては、異なる投票方式を使用する。ポイント対特徴の投票方式と比べて、L2L特徴の投票方式は、より難しい、しかし、基本的な考えは同じであり、図4に示されるように、中間座標系で2つの対特徴を位置合わせする。
最初に、線対を中間座標系に変換する。Ts→gによって、場面からの基準線l は、x軸と一直線になるようにし、基準中間点oは、原点に移動させる。モデルからの基準線l も同様に、Tm→gによって変換される。その後、基準場面線c の最も近いポイントと基準モデル線c の最も近いポイントは、x軸に沿って基準線を並進することによって、原点で位置合わせされる。これらの並進間の差はτで示される。次いで、関連線l およびl は、角度αでモデルをx軸を軸として回転させることによって位置合わせされる。角度αは、dおよびdによって容易に決定することができる。
したがって、L2L投票方式に対し、中間座標系を介する(l ,l )から(l ,l )への変換は、(l ,α,τ)によってパラメータ化され、
Figure 2014528057
によって得られ、式中、T(τ)は、x軸に沿った並進である。
姿勢クラスタリング
上記で説明される投票方式では、候補姿勢206は、場面の各基準プリミティブ(ポイントまたは線)に対して得られる。物体は複数の特徴対によってモデル化されるため、異なる基準プリミティブ(ポイントmまたは線l )上で複数の候補姿勢を有し、一貫した姿勢仮定をサポートすることが予想される。したがって、異なる場面プリミティブから同様の姿勢を集める。
リー群における平均シフトなどの3D剛体変換空間SE(3)でクラスタリングを行うためのいくつかの方法があるが、それらの方法は、通常、時間依存の応用に対して、演算コスト上法外なものである。
非常に効率的な凝集クラスタリング207手法を使用する。最初に、投票数の多いものから順に候補姿勢をソートする。最大投票数を有する候補姿勢から、新しいクラスタを作成する。次の候補姿勢が既存のクラスタの候補姿勢に近ければ、候補姿勢はクラスタに追加され、クラスタ内の候補姿勢の平均としてクラスタの中心が更新される。次の候補姿勢がクラスタのいずれとも近くなければ、新しいクラスタが生成される。近接テストは、並進および回転に対する固定閾値を用いて行われる。並進に対する距離演算および平均化は、3Dユークリッド空間で実行されるが、回転に対する距離演算および平均化は、回転行列の四元数表現を使用して実行される。
クラスタリングの後は、クラスタは、全投票数の多いものから順にソートされ、それにより、推定姿勢の信頼度が決定される。最大投票数を有するクラスタが最適な姿勢208に相当する。
発明の効果
方向付けされた表面ポイント、方向付けされた境界ポイントおよび境界線セグメントを使用する一連の対特徴は、様々な物体をモデル化するために提供される。正確で効率的な姿勢推定のため、投票フレームワークにおいて対特徴を使用する。
境界からの特徴は、よりコンパクトかつ有益であり、それにより、より高い精度およびより高速の演算をもたらす。
本発明の実施形態に従って実装される容器拾上げシステムは、98%より高い拾上げ成功率と、並進に対しては0.3mm未満の姿勢推定誤差および回転に対しては0.3度未満の姿勢推定誤差とを有する。

Claims (15)

  1. 物体の姿勢を推定するための方法であって、
    幾何プリミティブの対として一連の対特徴を定義する工程であって、前記幾何プリミティブは、方向付けされた表面ポイント、方向付けされた境界ポイントおよび境界線セグメントを含む、工程と、
    前記物体のモデルに対する前記一連の対特徴に基づいて、モデル対特徴を決定する工程と、
    3Dセンサによって取得されたデータからの前記一連の対特徴に基づいて、場面対特徴を決定する工程と、
    前記物体の前記姿勢を推定するために、前記モデル対特徴と前記場面対特徴とを一致させる工程であって、プロセッサで実行される、工程と
    を含む、方法。
  2. 前記物体は、他の物体とランダムに混合させた複数の異なる物体のうちの1つであり、各物体に対してモデル対特徴がある、請求項1に記載の方法。
  3. 前記3Dセンサは、ロボットアーム上に装着され、前記ロボットアームは、前記姿勢に応じて前記物体を拾い上げるためのグリッパを含む、請求項1に記載の方法。
  4. 前記3Dセンサは、赤外レーザによって生成される構造化された光を使用する、請求項1に記載の方法。
  5. 各対特徴は、2つの方向付けされた表面ポイント、2つの方向付けされた境界ポイント、1つの方向付けされた表面ポイントと1つの方向付けされた境界ポイント、および、2つの境界線セグメントを使用して定義される、請求項1に記載の方法。
  6. 各方向付けされた表面ポイントは、前記物体の表面上の3D位置と、3D法線ベクトルとを備える、請求項1に記載の方法。
  7. 各方向付けされた境界ポイントは、前記物体の境界上の3D位置と、3D方向ベクトルとを備える、請求項1に記載の方法。
  8. 前記3D方向ベクトルは、前記3D位置における前記境界の接線方向として定義される、請求項7に記載の方法。
  9. 各境界線セグメントは、前記物体の境界上の3Dポイントに合わせた線セグメントである、請求項1に記載の方法。
  10. 記述子は、各対特徴から決定される、請求項1に記載の方法。
  11. 前記一致は、前記モデル対特徴の前記記述子と前記場面対特徴の前記記述子とを比較することによって実行される、請求項10に記載の方法。
  12. 前記対特徴の前記記述子を離散化する工程と、
    前記モデル対特徴の前記離散化された記述子をハッシュ表に格納する工程と、
    前記ハッシュ表を使用して前記一致を実行する工程と
    をさらに含む、請求項11に記載の方法。
  13. 前記物体の候補姿勢は、中間座標変換を介する投票に基づいて推定される、請求項1に記載の方法。
  14. 前記候補姿勢をクラスタリングする工程をさらに含む、請求項13に記載の方法。
  15. 反復最近点手順を使用して前記姿勢を改善する工程をさらに含む、請求項1に記載の方法。
JP2014514266A 2011-12-19 2012-12-04 物体の姿勢を推定するための方法 Active JP5726378B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/329,493 2011-12-19
US13/329,493 US8908913B2 (en) 2011-12-19 2011-12-19 Voting-based pose estimation for 3D sensors
PCT/JP2012/081864 WO2013094441A1 (en) 2011-12-19 2012-12-04 Method for estimating pose of object

Publications (3)

Publication Number Publication Date
JP2014528057A true JP2014528057A (ja) 2014-10-23
JP2014528057A5 JP2014528057A5 (ja) 2015-01-22
JP5726378B2 JP5726378B2 (ja) 2015-05-27

Family

ID=47436153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014514266A Active JP5726378B2 (ja) 2011-12-19 2012-12-04 物体の姿勢を推定するための方法

Country Status (5)

Country Link
US (1) US8908913B2 (ja)
JP (1) JP5726378B2 (ja)
CN (1) CN104040590B (ja)
DE (1) DE112012005350B4 (ja)
WO (1) WO2013094441A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153290A (ja) * 2018-02-21 2019-09-12 コグネックス・コーポレイション ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201339A1 (en) * 2012-02-08 2013-08-08 Honeywell International Inc. System and method of optimal video camera placement and configuration
US9098913B2 (en) * 2012-05-11 2015-08-04 Cornell University Prediction of successful grasps by end of arm tooling
ITPR20120039A1 (it) * 2012-06-20 2012-09-19 Gevis S R L Dispositivo e metodo di misura di un pezzo
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
US9305364B2 (en) * 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
US9280827B2 (en) * 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
JP6245880B2 (ja) * 2013-07-31 2017-12-13 キヤノン株式会社 情報処理装置および情報処理手法、プログラム
US11412334B2 (en) * 2013-10-23 2022-08-09 Cochlear Limited Contralateral sound capture with respect to stimulation energy source
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
US10239210B2 (en) * 2014-04-11 2019-03-26 Symbotic Canada Ulc Vision-assisted system and method for picking of rubber bales in a bin
EP2933604B1 (en) * 2014-04-14 2016-11-30 Softbank Robotics Europe A method for localizing a robot in a localization plane
EP3192057A4 (en) * 2014-09-10 2018-03-21 Vangogh Imaging Inc. Real-time dynamic three-dimensional adaptive object recognition and model reconstruction
US9747493B2 (en) 2014-09-23 2017-08-29 Keylemon Sa Face pose rectification method and apparatus
DE102015100983A1 (de) 2015-01-23 2016-07-28 Sick Ag Verfahren zur Lokalisierung von Greifpunkten von Objekten
US10515259B2 (en) * 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
CN104899918B (zh) * 2015-05-14 2018-02-27 深圳大学 一种无人机的三维环境建模方法及系统
EP3304166B1 (en) 2015-06-02 2019-06-26 Life Technologies Corporation Systems and methods for calibrating a structured illumination imaging system and for capturing a structured illumination image
DE102015212932A1 (de) * 2015-07-10 2017-01-12 Kuka Roboter Gmbh Verfahren zum Steuern eines Roboters und/oder eines autonomen fahrerlosen Transportsystems
EP3185171B1 (en) * 2015-12-24 2020-03-04 Dassault Systèmes 3d object localization with descriptor
US11044390B2 (en) * 2016-02-10 2021-06-22 Karl Storz Imaging, Inc. Imaging system for identifying a boundary between active and inactive portions of a digital image
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
CN107220580B (zh) * 2016-03-22 2022-08-09 敦泰电子有限公司 基于投票决策和最小二乘法的图像识别随机取样一致算法
US10371512B2 (en) * 2016-04-08 2019-08-06 Otis Elevator Company Method and system for multiple 3D sensor calibration
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10380762B2 (en) 2016-10-07 2019-08-13 Vangogh Imaging, Inc. Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
US10116915B2 (en) * 2017-01-17 2018-10-30 Seiko Epson Corporation Cleaning of depth data by elimination of artifacts caused by shadows and parallax
DE102017201169A1 (de) 2017-01-25 2018-07-26 Siemens Aktiengesellschaft Rechnergestütztes Bildverarbeitungsverfahren
EP3495202B1 (en) * 2017-12-05 2020-08-19 Guima Palfinger S.A.S. Truck-mountable detection system
US10839585B2 (en) 2018-01-05 2020-11-17 Vangogh Imaging, Inc. 4D hologram: real-time remote avatar creation and animation control
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
US11080540B2 (en) 2018-03-20 2021-08-03 Vangogh Imaging, Inc. 3D vision processing using an IP block
US10810783B2 (en) 2018-04-03 2020-10-20 Vangogh Imaging, Inc. Dynamic real-time texture alignment for 3D models
CN108537805B (zh) * 2018-04-16 2021-09-21 中北大学 一种基于特征几何收益的目标识别方法
US11170224B2 (en) 2018-05-25 2021-11-09 Vangogh Imaging, Inc. Keyframe-based object scanning and tracking
AU2019336263A1 (en) * 2018-09-04 2021-04-08 Fastbrick Ip Pty Ltd Vision system for a robotic machine
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN109903326B (zh) * 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置
JP7115376B2 (ja) * 2019-03-18 2022-08-09 日本電信電話株式会社 回転状態推定装置、方法及びプログラム
US11170552B2 (en) 2019-05-06 2021-11-09 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time
US11232633B2 (en) 2019-05-06 2022-01-25 Vangogh Imaging, Inc. 3D object capture and object reconstruction using edge cloud computing resources
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法
JP7316134B2 (ja) * 2019-07-22 2023-07-27 ファナック株式会社 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム
CN110992427B (zh) * 2019-12-19 2023-10-13 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
US11335063B2 (en) 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
CN111453401B (zh) * 2020-03-25 2021-04-16 佛山缔乐视觉科技有限公司 工件的自动拾取方法和装置
US11420334B2 (en) 2020-04-14 2022-08-23 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Candidate six dimensional pose hypothesis selection
DE102021109036A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte
CN113486470B (zh) * 2021-07-15 2023-05-23 西北工业大学 一种考虑非理想表面接触状态的装配体位姿计算方法
CN113853632A (zh) * 2021-08-18 2021-12-28 香港应用科技研究院有限公司 用于3d扫描之间全局配准的方法和系统
CN114676528B (zh) * 2022-04-07 2024-02-23 西北工业大学 基于组合基元法的非理想模型装配偏差算法
CN117237451B (zh) * 2023-09-15 2024-04-02 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071743A (ja) * 2008-09-17 2010-04-02 Yaskawa Electric Corp 物体検出方法と物体検出装置およびロボットシステム
JP2011238204A (ja) * 2010-05-07 2011-11-24 Mvtec Software Gmbh 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366645B2 (en) * 2002-05-06 2008-04-29 Jezekiel Ben-Arie Method of recognition of human motion, vector sequences and speech
EP1658579B1 (en) * 2003-08-15 2016-09-28 Scape A/S Method for for classification and spatial localization of bounded 3d-objects
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8401304B2 (en) * 2007-07-27 2013-03-19 Sportvision, Inc. Detecting an object in an image using edge detection and morphological processing
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
CN101510308A (zh) * 2009-03-26 2009-08-19 山东理工大学 产品模型点云边界特征快速提取方法
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8467596B2 (en) * 2011-08-30 2013-06-18 Seiko Epson Corporation Method and apparatus for object pose estimation
US9155675B2 (en) * 2011-10-12 2015-10-13 Board Of Trustees Of The University Of Arkansas Portable robotic device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071743A (ja) * 2008-09-17 2010-04-02 Yaskawa Electric Corp 物体検出方法と物体検出装置およびロボットシステム
JP2011238204A (ja) * 2010-05-07 2011-11-24 Mvtec Software Gmbh 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DROST, BERTRAM: "Model Globally, Match Locally: Efficient and Robust 3D Object Recognition", COMPUTER VISION AND PATTERN RECOGNITION (CVPR), 2010 IEEE CONFERENCE ON, JPN6014054507, 18 June 2010 (2010-06-18), US, pages 998 - 1005, XP055415021, ISSN: 0003014411, DOI: 10.1109/CVPR.2010.5540108 *
KIM, EUNYOUNG: "3D Object Recognition in Range Images Using Visibility Context", 2011 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, JPN6014054509, 30 September 2011 (2011-09-30), US, ISSN: 0003014412 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153290A (ja) * 2018-02-21 2019-09-12 コグネックス・コーポレイション ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
US10957072B2 (en) 2018-02-21 2021-03-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system
JP2022028860A (ja) * 2018-02-21 2022-02-16 コグネックス・コーポレイション ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP7339316B2 (ja) 2018-02-21 2023-09-05 コグネックス・コーポレイション ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
US11881000B2 (en) 2018-02-21 2024-01-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system

Also Published As

Publication number Publication date
JP5726378B2 (ja) 2015-05-27
WO2013094441A1 (en) 2013-06-27
CN104040590B (zh) 2017-02-22
DE112012005350B4 (de) 2022-03-31
CN104040590A (zh) 2014-09-10
US20130156262A1 (en) 2013-06-20
DE112012005350T5 (de) 2014-09-11
US8908913B2 (en) 2014-12-09

Similar Documents

Publication Publication Date Title
JP5726378B2 (ja) 物体の姿勢を推定するための方法
Choi et al. Voting-based pose estimation for robotic assembly using a 3D sensor
JP4715539B2 (ja) 画像処理装置、その方法、および画像処理用プログラム
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP5455873B2 (ja) シーンにおける物体の姿勢を求めるための方法
Torr et al. MLESAC: A new robust estimator with application to estimating image geometry
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
CN110648361A (zh) 一种三维目标物体的实时位姿估计方法及定位抓取系统
Li et al. A tutorial review on point cloud registrations: principle, classification, comparison, and technology challenges
JP4709668B2 (ja) 3次元物体認識システム
Liu et al. Pose estimation in heavy clutter using a multi-flash camera
Drost et al. Local hough transform for 3d primitive detection
Fäulhammer et al. Temporal integration of feature correspondences for enhanced recognition in cluttered and dynamic environments
Byun et al. Registration of 3D scan data using image reprojection
Azad et al. Accurate shape-based 6-dof pose estimation of single-colored objects
Wan et al. 6DOF object positioning and grasping approach for industrial robots based on boundary point cloud features
Nguyen et al. Determination of 3D object pose in point cloud with CAD model
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
Xing et al. RegHEC: Hand-Eye Calibration via Simultaneous Multi-view Point Clouds Registration of Arbitrary Object
JP2011022066A (ja) 3次元物体位置姿勢計測方法
Yamada et al. Pose estimation of a simple-shaped object based on poseclass using RGBD camera
Hlubik et al. Advanced point cloud estimation based on multiple view geometry
Krueger Model based object classification and localisation in multiocular images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20141126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R150 Certificate of patent or registration of utility model

Ref document number: 5726378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250