JP5554286B2 - Method for determining a 3D pose of a three-dimensional (3D) object in an environment - Google Patents

Method for determining a 3D pose of a three-dimensional (3D) object in an environment Download PDF

Info

Publication number
JP5554286B2
JP5554286B2 JP2011123320A JP2011123320A JP5554286B2 JP 5554286 B2 JP5554286 B2 JP 5554286B2 JP 2011123320 A JP2011123320 A JP 2011123320A JP 2011123320 A JP2011123320 A JP 2011123320A JP 5554286 B2 JP5554286 B2 JP 5554286B2
Authority
JP
Japan
Prior art keywords
reference system
camera
environment
line
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011123320A
Other languages
Japanese (ja)
Other versions
JP2012008124A (en
Inventor
スリクマール・ラマリンガム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/824,828 external-priority patent/US8442305B2/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2012008124A publication Critical patent/JP2012008124A/en
Application granted granted Critical
Publication of JP5554286B2 publication Critical patent/JP5554286B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、包括的には姿勢を推定することに関し、より詳細にはジオロケーションの目的で環境における姿勢を推定することに関する。   The present invention relates generally to estimating posture, and more particularly to estimating posture in an environment for the purpose of geolocation.

コンピュータービジョンアプリケーションでは、点および線等の画像特徴を用いて、多岐にわたる幾何学的問題が解かれる。従来の方法は、全ての利用可能な特徴を用い、それらの全ての特徴にわたって最小二乗基準を用いて問題を解く。一方、多くのコンピュータービジョン問題において、最小解が、非最小法と比較して雑音を受けにくいことがわかっている。   Computer vision applications use image features such as points and lines to solve a wide variety of geometric problems. Conventional methods use all available features and solve the problem using a least-squares criterion across all those features. On the other hand, in many computer vision problems, it has been found that the minimum solution is less susceptible to noise than the non-minimum method.

最小解は、ランダムサンプルコンセンサス(RANSAC)等の仮説作成・検査手順における仮説生成器として、非常に有用であった(特許文献1を参照されたい)。   The minimum solution was very useful as a hypothesis generator in a hypothesis creation / inspection procedure such as random sample consensus (RANSAC) (see Patent Document 1).

最小解は、いくつかのコンピュータービジョン問題に関して知られている。それらの問題は、半径方向歪みの自動較正、透視3点問題、5点相対姿勢問題、6点焦点距離問題、6点一般化カメラ問題、放物面反射屈折基本行列を推定するための9点問題、および9点半径方向歪み問題である。全ての既知の解法を把握する統一化の試みも存在する。   The minimum solution is known for some computer vision problems. These problems include automatic calibration of radial distortion, perspective three-point problem, five-point relative attitude problem, six-point focal length problem, six-point generalized camera problem, and nine points for estimating the parabolic catadioptric matrix. The problem, and the nine-point radial distortion problem. There are also attempts to unify all known solutions.

2D−3Dレジストレーション
本発明は、特に、点および線を用いた姿勢推定に関する。姿勢は、並進および回転の3自由度を有するものとして規定される。目標は、ワールド基準系における点および線間の3つの対応、並びにカメラ基準系におけるそれらの画像への投影を所与として、カメラ基準系とワールド基準系との間のカメラの姿勢を求めることである。3線構成または3点構成のための解法が既知である。本明細書で定義されるとき、「基準系」は、3D座標系である。
TECHNICAL FIELD The present invention particularly relates to posture estimation using points and lines. The posture is defined as having three degrees of freedom of translation and rotation. The goal is to determine the camera pose between the camera reference system and the world reference system, given the three correspondences between points and lines in the world reference system, and their projection on the image in the camera reference system. is there. Solutions for three-wire or three-point configurations are known. As defined herein, a “reference system” is a 3D coordinate system.

実際には、点特徴および線特徴の双方が相補的な利点を有する。都市環境における本発明者らの意図されるジオローカライゼーションの用途に配慮すると、画像シーケンスおよび粗い3Dモデルを用いて、3Dモデルおよび画像の線間の対応を取得することは、比較的容易である。   In practice, both point and line features have complementary advantages. Considering our intended geolocalization application in urban environments, it is relatively easy to obtain correspondence between 3D models and image lines using image sequences and coarse 3D models.

2つの画像間の点マッチングも既知であり、線マッチングよりも容易である。追跡のための点および線の融合が説明されてきたが、外れ値、不完全な一致、および狭い視野に対し、より敏感でない最小解は、従来技術において説明されてこなかった。   Point matching between two images is also known and is easier than line matching. Although the fusion of points and lines for tracking has been described, minimal solutions that are less sensitive to outliers, imperfect matches, and narrow fields of view have not been described in the prior art.

近年、点または線のいずれかを用いるが、双方を用いないステレオカメラのための最小姿勢手順が説明されてきた。   In recent years, minimum attitude procedures for stereo cameras that use either points or lines but not both have been described.

画像に基づくジオローカライゼーション
画像からジオロケーションを推測することへの興味が増してきている。縮小していく縦方向を用いて、クエリ画像をデータベース内に格納された画像とマッチングすることによって、地理空間ローカライゼーションを取得することが可能である。
Image-based geolocalization There is a growing interest in inferring geolocation from images. Geospatial localization can be obtained by matching the query image with the image stored in the database using the decreasing vertical direction.

大きな都市環境の再構築に関して、いくつかの3D再構築手順が説明されてきた。1つのローカライゼーション方法は、3Dモデルからの線を、制御された室内環境から広角カメラによって捕捉された画像内の線とマッチングする。   Several 3D reconstruction procedures have been described for the reconstruction of large urban environments. One localization method matches the lines from the 3D model with the lines in the image captured by the wide-angle camera from the controlled room environment.

しかしながら、「都市キャニオン」等の屋外環境における姿勢を求めることは、より困難な課題である。そのような環境におけるジオロケーションの目的での姿勢推定は、無線受信が乏しい場合、GPSに基づく解法では多くの場合、困難である。   However, finding an attitude in an outdoor environment such as “Urban Canyon” is a more difficult task. Attitude estimation for geolocation purposes in such environments is often difficult with GPS based solutions when radio reception is poor.

米国特許第7、359、526号公報US Patent No. 7,359,526

したがって、そのようなジオロケーション用途のためのカメラに基づく解法を提供することが望ましい。   It is therefore desirable to provide a camera-based solution for such geolocation applications.

本発明の実施の形態は、最小数の画像特徴を用いてコンピュータービジョンにおける幾何学的問題を解くための方法を提供する。本方法は、幾何学的共線性制約および幾何学的共平面性制約を用いて、4つの最小幾何学問題の解をもたらす。   Embodiments of the present invention provide a method for solving geometric problems in computer vision using a minimum number of image features. The method uses a geometric collinearity constraint and a geometric coplanarity constraint to provide solutions for four minimal geometric problems.

中間基準系を用いて姿勢推定に関与する方程式を単純化する。本明細書において定義されるとき、「基準系」は、3D座標系である。制約の従来の適用では、64次多項式の解がもたらされる。本発明者らの中間基準系を用いると、問題は、4次多項式および8次多項式まで低減される。   Simplify the equations involved in posture estimation using an intermediate reference system. As defined herein, a “reference system” is a 3D coordinate system. Conventional application of constraints results in a solution of a 64th order polynomial. Using our intermediate reference system, the problem is reduced to 4th and 8th order polynomials.

最小姿勢推定のために、点および線を用いて、最後の2つの欠けている項を与える。   For minimum pose estimation, points and lines are used to give the last two missing terms.

姿勢推定は、ワールド内の既知の特徴(点および線)並びに画像に対するそれらの投影を所与として、カメラの姿勢を回復する問題を指す。点特徴および線特徴を用いる4つの最小構成、すなわち、3点、2点1線、1点2線、および3線が存在する。点または線のいずれかのみに依拠する第1の構成および最後の構成のための解法が既知である。   Pose estimation refers to the problem of recovering the camera pose given the known features (points and lines) in the world and their projections on the image. There are four minimal configurations that use point and line features: three points, two point one line, one point two line, and three lines. Solutions for the first and last configurations that rely only on either points or lines are known.

しかしながら、実際にはより一般的である混合構成は、これまで解決されていない。   However, mixed configurations that are more common in practice have not been solved so far.

本発明者らは、同じ手法を用いて4つ全ての構成を解くことができる汎用技法を開発することが実際に可能であること、およびその解法が4次多項式または8次多項式のいずれかの根を求めることを伴うことを示している。   We can actually develop a generic technique that can solve all four configurations using the same approach, and the solution is either a 4th order polynomial or an 8th order polynomial. Indicates that it involves seeking roots.

解決の鍵は、適切な中間基準系の選択、および姿勢推定問題を解く際の共線性制約および共平面性制約の使用である。画像シーケンス、および無線受信が乏しいGPS不良都市環境の粗い3Dモデルを用いたジオローカライゼーションのための強力な適用も提供する。   The key to the solution is the selection of an appropriate intermediate reference system and the use of collinearity and coplanarity constraints in solving the pose estimation problem. It also provides a powerful application for geolocalization using a rough 3D model of image sequences and poor GPS radio urban environments with poor radio reception.

多くの現実世界の用途において、3点または3線の対応を求めることは、必ずしも可能でない。本発明は、これらの特徴を混合させるという選択を与え、それによって、以前には可能でなかった事例における解決を可能にすることによって、この状況を改善する。   In many real world applications, it is not always possible to seek a three-point or three-line correspondence. The present invention improves on this situation by giving the option of mixing these features, thereby enabling solutions in cases that were not possible before.

共線性制約および共平面性制約を用いた本発明者らの問題定式化、並びに中間基準系を選択する技法は、都市環境におけるジオロケーションおよびオブジェクト検出等の多くの用途で非常に有用である。   Our problem formulation using collinearity and coplanarity constraints and the technique of selecting an intermediate reference system are very useful in many applications such as geolocation and object detection in urban environments.

空間内の点が、カメラからの対応する逆投影された光線上にある共線性制約の概略図である。FIG. 5 is a schematic diagram of collinearity constraints where points in space are on corresponding backprojected rays from the camera. 空間内の線が、カメラからの対応する逆投影された光線によって形成される対応する解釈平面上にある共平面性制約の概略図である。FIG. 5 is a schematic diagram of coplanarity constraints where a line in space is on a corresponding interpretation plane formed by a corresponding backprojected ray from the camera. 本発明の実施の形態による、カメラ基準系およびワールド基準系が対応する中間カメラ基準系および中間ワールド基準系に変換される中間変換技法の概略図である。FIG. 6 is a schematic diagram of an intermediate conversion technique in which a camera reference system and a world reference system are converted to corresponding intermediate camera reference systems and intermediate world reference systems according to an embodiment of the present invention. 本発明の実施の形態による、2点1線を用いた最小姿勢推定手順のための中間変換の概略図である。It is the schematic of the intermediate conversion for the minimum attitude | position estimation procedure using 2 points | pieces 1 line by embodiment of this invention. 本発明の実施の形態による、1点2線を用いた最小姿勢推定手順のための中間変換の概略図である。It is the schematic of the intermediate conversion for the minimum attitude | position estimation procedure using 1 point | piece 2 line by embodiment of this invention. 本発明の実施の形態による最小姿勢推定方法のフローブロック図である。It is a flow block diagram of the minimum attitude | position estimation method by embodiment of this invention. 都市環境における強化されたジオロケーションおよびオブジェクト検出に用いられる都市環境の3Dモデルを構築するための方法の概略図である。1 is a schematic diagram of a method for building a 3D model of an urban environment used for enhanced geolocation and object detection in an urban environment. FIG.

図6は、本発明の実施の形態による、環境602におけるオブジェクトの3D姿勢641を求めるための方法を示している。姿勢は、並進(T)において3自由度、および回転(R)において3自由度を有する。   FIG. 6 illustrates a method for determining a 3D pose 641 of an object in the environment 602 according to an embodiment of the present invention. The posture has 3 degrees of freedom in translation (T) and 3 degrees of freedom in rotation (R).

カメラ603によって環境から捕捉された画像601内の点および線から、特徴が抽出される(610)。これらの特徴は、環境の3Dモデル609にマッチングされ、対応611が求められる。   Features are extracted from points and lines in the image 601 captured from the environment by the camera 603 (610). These features are matched to the 3D model 609 of the environment and a correspondence 611 is determined.

対応を用いて、画像のカメラ基準系および環境のワールド基準系を、対応する中間カメラ基準系および中間ワールド基準系621に変換する。本明細書において定義されるとき、「基準系」は、3D座標系である。幾何学的制約が中間基準系に適用される(630)。次に、制約付き基準系のパラメーターを用いて、3D姿勢が求められる(640)。   The correspondence is used to convert the camera reference frame of the image and the world reference frame of the environment into the corresponding intermediate camera reference frame and intermediate world reference frame 621. As defined herein, a “reference system” is a 3D coordinate system. Geometric constraints are applied to the intermediate reference system (630). Next, a 3D pose is determined using the constrained reference system parameters (640).

図7は、環境、たとえば、屋外都市場面の3Dモデルを構築するために実行することができるステップを示している。たとえば、Google 3D Warehouseからテクスチャのない粗い3Dモデルが捕捉される。代替的に、粗いモデルは、車両ナビゲーティング上に搭載されるカメラによって環境を通じて捕捉された画像から構築される。   FIG. 7 illustrates the steps that can be performed to build a 3D model of the environment, eg, an outdoor city scene. For example, a rough 3D model with no texture is captured from Google 3D Walehouse. Alternatively, the coarse model is constructed from images captured through the environment by a camera mounted on vehicle navigating.

テクスチャを、たとえば、GoogleおよびSketchUpを用いて付加することができる(702)。テクスチャ化されたモデルに人を投入することができ(703)、投影マッピングを用いて道路標識を付加して、詳細な3Dモデルを生成することもできる(704)。構築中、都市環境のいくつかの点および線700を画像から抽出することができる。次に、本明細書において説明される方法を用いて、これらの点および線を用いて様々なオブジェクトの姿勢を求める。そして、この詳細な3Dモデルを、歩行者、車両、交通信号、および道路標識の自動検出を実行するジオロケーション、強化車両ナビゲーションサービスに用いることができる。   Textures can be added using, for example, Google and SketchUp (702). People can be put into the textured model (703), and road signs can be added using projection mapping to generate a detailed 3D model (704). During construction, several points and lines 700 of the urban environment can be extracted from the image. Next, using the methods described herein, the poses of various objects are determined using these points and lines. This detailed 3D model can then be used for geolocation and enhanced vehicle navigation services that perform automatic detection of pedestrians, vehicles, traffic signals, and road signs.

代替的に、本方法は、自動化された製造中に、工業用部品を掴むための姿勢推定、および屋内場面でのロボットナビゲーションのために最小数の点特徴および線特徴が用いられるロボット設定において、用いることができる。たとえば、環境は、屋内工場設定であり、3D姿勢は、ロボットアームを用いて小さな工業用部品を掴み取るために用いられる。   Alternatively, the method can be used in robot settings where a minimum number of point and line features are used during automated manufacturing during posture estimation for grasping industrial parts and robot navigation in indoor scenes. Can be used. For example, the environment is an indoor factory setting and the 3D posture is used to grab small industrial parts using a robot arm.

上記の方法ステップの全てを、当該技術分野において既知のメモリおよび入力/出力インターフェースに接続されたプロセッサ600において実行することができる。   All of the above method steps may be performed in a processor 600 connected to memory and input / output interfaces known in the art.

これより、本方法をより詳細に説明する。   The method will now be described in more detail.

共線性および共平面性
図1および図2に示すように、本発明者らの方法は、2つの幾何学的制約、すなわち、共線性および共平面性のみを用いて、4つ全ての最小構成を解決する。共線性制約は、2D−3D対応611から生じる。一般的なイメージングセットアップにおいて、画像内の全てのピクセルが3D投影光線に対応し、対応する3D点がこの光線上にある。ここで、x、y、およびzは、3D座標である。
Collinearity and coplanarity As shown in FIGS. 1 and 2, our method uses only two geometric constraints, namely collinearity and coplanarity, and all four minimal configurations. To solve. The collinearity constraint arises from the 2D-3D correspondence 611. In a typical imaging setup, every pixel in the image corresponds to a 3D projection ray and the corresponding 3D point is on this ray. Here, x, y, and z are 3D coordinates.

本明細書において説明される最小解は、2D画像特徴に連結される投影光線CDを用い、環境内の関連付けられた3D点Pは、基準系内に表されるとき、共線である。 The minimal solution described herein uses a projected ray CD 1 connected to a 2D image feature, and the associated 3D point P 1 in the environment is collinear when represented in the reference system. .

図2において、2D線の端点に連結された2つの投影光線CDおよびCD、並びに2つの点LおよびLによって表される関連付けられる3D線は、全て共平面である。 In FIG. 2, the two projected rays CD 1 and CD 2 connected to the endpoints of the 2D line and the associated 3D line represented by the two points L 1 and L 2 are all coplanar.

図1において、投影光線CDおよび点Pは、同じ中間基準系内に表されるとき、光線上にある。本発明者らの目標は、姿勢(R、T)のもとで、点Pが光線CD上にある該姿勢(R、T)を見つけることであり、ここで、Rは回転であり、Tは並進である。これらの点を以下の行列にスタックする。この行列を共線性行列と呼ぶ。 In FIG. 1, the projected ray CD 1 and the point P 1 are on the ray when represented in the same intermediate reference system. Our goal is to find the orientation (R, T) where point P 1 is on ray CD 1 under orientation (R, T), where R is rotation. , T is translation. Stack these points into the following matrix: This matrix is called a collinearity matrix.

Figure 0005554286
Figure 0005554286

第1の共線性制約は、上記の行列のサイズ3×3を有する任意の部分行列の行列式が消滅するように強制する。換言すれば、一度に1つの行を除去することによって、4つの制約を取得する。上記の行列から4つの式を取得するが、2つのみが独立しており、このため有用である。   The first collinearity constraint forces the determinant of any submatrix with the above matrix size 3 × 3 to disappear. In other words, four constraints are obtained by removing one row at a time. Four equations are obtained from the above matrix, but only two are independent and are useful for this reason.

第2の共平面性幾何学的制約は、2D−3D線対応から生じる。図2に示すように、点C、D、D、P、およびPは、同じ基準系内に表されるとき、単一平面上にある。換言すれば、正しい姿勢[R、T]の場合、単一の2D−3D線対応から2つの制約を取得する。すなわち、4つ組(C、D、D、[R、T]L)および(C、D、D、[R、T]L)が、それぞれ共平面である。4つ組(C、D、D、[R、T]L)の共平面性制約は、以下の行列の行列式が消滅するように強制する。 The second coplanar geometric constraint arises from the 2D-3D line correspondence. As shown in FIG. 2, points C, D 1 , D 2 , P 1 , and P 2 are on a single plane when represented in the same reference frame. In other words, in the case of the correct posture [R, T], two constraints are acquired from a single 2D-3D line correspondence. That is, the quadruples (C, D 1 , D 2 , [R, T] L 1 ) and (C, D 1 , D 2 , [R, T] L 2 ) are coplanar, respectively. The coplanarity constraint of the quaternion (C, D 1 , D 2 , [R, T] L 1 ) forces the determinant of the following matrix to disappear.

Figure 0005554286
Figure 0005554286

同様に、他方の4つ組(C、D、D、[R、T]L)も共平面性制約を与える。したがって、全ての2D−3D線対応は、線上の2つの点から2つの式をもたらす。 Similarly, the other quadruple (C, D 1 , D 2 , [R, T] L 2 ) also gives coplanarity constraints. Thus, every 2D-3D line correspondence yields two equations from two points on the line.

本発明者らの目標は、3D特徴(点および線の双方)が共線性制約および共平面性制約を満たす6つのパラメーター(3つがR用で3つがT用)を求めることである。このため、4つの可能な最小構成を有する(3点、2点1線、1点2線、および3線)。   Our goal is to determine 6 parameters (3 for R and 3 for T) where 3D features (both points and lines) satisfy collinearity and coplanarity constraints. Thus, it has four possible minimum configurations (3 points, 2 points 1 line, 1 point 2 lines, and 3 lines).

基準系
図3に示すように、点および線が存在するカメラ基準系およびワールド基準系は、それぞれCおよびWによって表される。
Reference System As shown in FIG. 3, the camera reference system and the world reference system in which points and lines exist are represented by C 0 and W 0 , respectively.

本発明者らの目標は、ワールド基準系Wとカメラ基準系Cとの間の変換を求めることである。最初にCおよびWをそれぞれ中間カメラ基準系Cおよび中間ワールド基準系Wに変換する。次に、これらの中間ワールド基準系Wと中間カメラ基準系Cとの間の姿勢を求める。これは、カメラ基準系とワールド基準系との間の姿勢を求めるのに用いることができる。これらの中間基準系を用いる解法によって、結果としての多項式の次数が大幅に低減される。すなわち、従来の64(2)次多項式から、本発明の4次多項式および8次多項式に低減される。 The goal of the present inventors is to find the transformation between the world reference system W 0 and the camera reference system C 0. First, C 0 and W 0 are converted into an intermediate camera reference system C 1 and an intermediate world reference system W 1 , respectively. Next, determine the attitude between these intermediate world reference system W 1 and the intermediate camera reference system C 1. This can be used to determine the attitude between the camera reference system and the world reference system. Solutions using these intermediate reference systems greatly reduce the order of the resulting polynomial. That is, the conventional 64 (2 6 ) degree polynomial is reduced to the fourth order polynomial and the eighth order polynomial of the present invention.

変換(Rw2c、Tw2c)を求める。これは、ワールド基準系およびカメラ基準系内の3Dの点および線を表す。共線性制約および共平面性制約を直接適用した結果、12個の変数(9個のRij、3個のT)を伴う6つの一次方程式となる。これらの変数を解くために、さらなる式を必要とする。これらの式は、6つの二次直交性制約とすることができる。 The transformation (R w2c , T w2c ) is obtained. This represents 3D points and lines in the world reference system and the camera reference system. The direct application of the collinearity and coplanarity constraints results in six linear equations with 12 variables (9 R ij , 3 T i ). To solve these variables, further equations are needed. These equations can be six quadrature orthogonality constraints.

そのような系の解は、最終的に、結果として64個の解を有する64(2)次多項式となる。そのような解を求めることは、いくつかのコンピュータービジョンアプリケーションにとって実現可能でない場合がある。本発明者らの主な目標は、この困難を克服する方法を提供することである。これをなすために、まずカメラ基準系Cおよびワールド基準系Wの双方を、それぞれ中間カメラ基準系Cおよび中間ワールド基準系Wに変換する。 The solution of such a system will eventually result in a 64 (2 6 ) degree polynomial with 64 solutions. Finding such a solution may not be feasible for some computer vision applications. Our main goal is to provide a way to overcome this difficulty. To do this, first, both the camera reference system C 0 and the world reference system W 0 are converted into an intermediate camera reference system C 1 and an intermediate world reference system W 1 , respectively.

この変換後、本発明者らの目標は、中間基準系間の姿勢(R、T)を見つけることである。中間カメラ基準系Cおよび中間ワールド基準系Wを、結果としての多項式が、最も低い可能な次数となるように選択する。2つの最小構成のための姿勢推定手順を説明する。他の2つの構成は、類似した形で取り扱うことができる。 After this transformation, our goal is to find the attitude (R, T) between the intermediate reference frames. The intermediate camera reference system C 1 and the intermediate world reference system W 1 are selected so that the resulting polynomial is the lowest possible order. A posture estimation procedure for two minimum configurations will be described. The other two configurations can be handled in a similar manner.

最小解
2点1線
2つの2D−3D点および1つの2D−3D線の対応からの姿勢推定手順を提供する。点の2D座標から、較正を用いて対応する投影光線を求めることができる。2D線の構成において、画像内の線の端点の対応する投影光線を求めることができる。以下で、画像上の点特徴および線特徴の関連付けられる3D投影光線のみを考察する。
Minimum solution 2 point 1 line The posture estimation procedure from the correspondence of two 2D-3D points and one 2D-3D line is provided. From the 2D coordinates of the points, the corresponding projected rays can be determined using calibration. In a 2D line configuration, the corresponding projected ray at the end point of the line in the image can be determined. In the following, only 3D projection rays associated with point and line features on the image will be considered.

図4(A)〜図4(D)は、カメラ基準系Cおよびワールド基準系W、並びに2点1線構成からの姿勢推定における中間カメラ基準系Cおよび中間ワールド基準系Wを示している。変換前および変換後のカメラ基準系がそれぞれ図4(A)および図4(C)に示されている。同様に、変換前および変換後のワールド基準系がそれぞれ図4(B)および図4(D)に示されている。 4A to 4D show the camera reference system C 0 and the world reference system W 0 , and the intermediate camera reference system C 1 and the intermediate world reference system W 1 in posture estimation from the two-point one-line configuration. Show. The camera reference systems before and after conversion are shown in FIGS. 4A and 4C, respectively. Similarly, the world reference system before and after conversion is shown in FIGS. 4B and 4D, respectively.

中間カメラ基準系C
図4(A)および図4(B)において、それぞれ、カメラ基準系Cおよびワールド基準系Wにおけるカメラ投影光線(2Dの点および線に関連付けられる)および3D特徴(点および線)を示している。カメラの中心は、Cであり、2つの2D点に対応する投影光線は、それらの方向ベクトルd(→)およびd(→)によって与えられ、2D線に対応する投影光線は、方向ベクトルd(→)およびd(→)によって与えられる(ここで、(→)の表記は、かっこの前の記号の上に→が付され、ベクトルを表すことを意味している)。
Intermediate camera reference system C 1
4A and 4B show camera projection rays (associated with 2D points and lines) and 3D features (points and lines) in camera reference system C 0 and world reference system W 0 , respectively. ing. The center of the camera is C 0 and the projected rays corresponding to the two 2D points are given by their direction vectors d 1 (→) and d 2 (→), and the projected rays corresponding to the 2D line are Are given by the vectors d 3 (→) and d 4 (→) (where the notation (→) means that a symbol is added above the symbol before the parenthesis to represent a vector).

中間カメラ基準系Cにおいて、常に、2つの点(中心および光線上の点)を用いてカメラの投影光線を表す。2つの2D点に対応する投影光線は、CDおよびCDであり、線は、CDおよびCDである。3つ組(C、D、D)によって形成される平面は、解釈平面と呼ばれる。 In the intermediate camera reference system C 1, always represents the projection ray camera using two points (a point on the center and light). The projected rays corresponding to the two 2D points are CD 1 and CD 2 , and the lines are CD 3 and CD 4 . The plane formed by the triplet (C, D 3 , D 4 ) is called the interpretation plane.

以下の条件を満たす中間カメラ基準系Cを選択する。
a.カメラ中心が座標C(0、0、−1)にある、
b.線Lに対応する投影光線のうちの一方CDが、D=(0、0、0)となるようにZ軸上にある、および
c.線Lに対応する他方の投影光線CDが、DがX軸上にあるようにXZ平面上にある。
Selecting satisfies intermediate camera reference system C 1 below.
a. The camera center is at coordinates C (0, 0, -1),
b. Is one CD 3 of the projection rays corresponding to line L 3 L 4, it is on the Z-axis such that D 3 = (0,0,0), and c. The other projected ray CD 4 corresponding to line L 3 L 4 is on the XZ plane such that D 4 is on the X axis.

構築的な偏角を用いて、2点1線に対応する投影光線の任意のセットの変換が可能である。PおよびPがそれぞれ基準系CおよびC内の任意の点の座標を表すとする。この表記に従って、点DおよびDは、代数的微分を用いてCおよびCで表される。 Using a constructive declination, any set of projected rays corresponding to a two-point-one line can be transformed. Let P 0 and P represent the coordinates of any point in the reference systems C 0 and C, respectively. According to this notation, points D 3 and D 4 are represented by C 0 and C 1 using algebraic differentiation.

Figure 0005554286
Figure 0005554286

とCとの間の姿勢(Rc1、Tc1)は、3つ組(C、D、D)を(C、D、D)に変換するものによって与えられる。 The attitude (R c1 , T c1 ) between C 0 and C 1 is given by what transforms the triplet (C 0 , D 3 , D 4 ) into (C, D 3 , D 4 ).

中間ワールド基準系W
中間ワールド基準系は、以下のように記述することができる。任意の2つの3D点PおよびQ間のユークリッド距離をd(P、Q)によって表されるものとする。Wにおける3D線上の2つの3D点および1つの3D点は、下式となる。
Intermediate World Reference System W 1
The intermediate world reference system can be described as follows. Let the Euclidean distance between any two 3D points P and Q be represented by d (P, Q). Two 3D points and one 3D point on the 3D line in W 1 are represented by the following equations.

Figure 0005554286
Figure 0005554286

ここで、XおよびYは、三角法を用いて求めることができる。 Here, X 3 and Y 3 can be obtained using trigonometry.

Figure 0005554286
Figure 0005554286

ワールド基準系Wと中間ワールド基準系Wとの間の姿勢(Rw1、Tw1)は、3つ組(P 、P 、L )を(P、P、P)に変換するものによって与えられる。簡潔にするために、姿勢推定手順において、以下の表記を用いる。 The posture (R w1 , T w1 ) between the world reference system W 0 and the intermediate world reference system W 1 is a triple (P 0 1 , P 0 2 , L 0 3 ) (P 1 , P 2 , Is given by what converts to P 3 ). For simplicity, the following notation is used in the posture estimation procedure.

Figure 0005554286
Figure 0005554286

中間カメラ基準系Cと中間ワールド基準系Wとの間の姿勢推定
第1のステップは、全ての利用可能な共線性制約および共平面性制約を行列内にスタックすることである。この場合、3D点PおよびPにそれぞれ対応する3つ組(C、D、P)および(C、D、P)のための2つの共線性行列を有する。式(1)に示すように、これらの2つの共線性行列は、4つの方程式を与える。
Pose estimation first step between the intermediate camera reference system C 1 and the intermediate world reference system W 1 is to stack the matrices all available collinearity limitations and coplanarity constraints. In this case, we have two collinear matrices for triplets (C, D 1 , P 1 ) and (C, D 2 , P 2 ) corresponding to 3D points P 1 and P 2 respectively. As shown in equation (1), these two collinearity matrices give four equations.

加えて、3D線Lに対応する4つ組(C、D、D、L)および(C、D、D、L)からの2つの共平面性方程式を有する。(部分)行列の行列式からの制約をスタックした後、線形系AX=Bを得る。ここで、A、X、およびBは、下式である。 In addition, it has two coplanarity equations from quadruples (C, D 3 , D 4 , L 3 ) and (C, D 3 , D 4 , L 4 ) corresponding to 3D line L 3 L 4 . After stacking the constraints from the (partial) matrix determinant, we get the linear system AX = B. Here, A, X, and B are the following expressions.

Figure 0005554286
Figure 0005554286

行列Aは、既知の変数を有し、階数6である。線形系内に8つの変数が存在するので、2つのベクトルが広がる部分空間内に解を得ることができる。
a.X=u+lv+l
ここで、u、v、およびwは、サイズ8×1の既知のベクトルである。
The matrix A has known variables and has rank 6. Since there are eight variables in the linear system, the solution can be obtained in a subspace in which two vectors are spread.
a. X = u + l 1 v + l 2 w
Where u, v, and w are known vectors of size 8 × 1.

次に、回転行列からの直交性制約を用いて、未知の変数lおよびlを推定する。回転変数を伴う2つの直交性制約を書くことができる。 Next, the unknown variables l 1 and l 2 are estimated using orthogonality constraints from the rotation matrix. Two orthogonality constraints with rotation variables can be written.

Figure 0005554286
Figure 0005554286

これらの回転変数をlおよびlの関数として代入し、上記の連立二次方程式を解いた後、(l、l)について4つの解を得て、このため(R11、R21、R31、R22、R23)について4つの解を得る。 Substituting these rotational variables as a function of l 1 and l 2 and solving the above simultaneous quadratic equations, we obtained four solutions for (l 1 , l 2 ), and therefore (R 11 , R 21 , R 31 , R 22 , R 23 ), obtain four solutions.

回転行列内の5つの要素は、直交性制約を用いて、他の要素を一意に確定する。このため、2点1線構成によって、姿勢(R、T)の合計4つの解がもたらされる。   The five elements in the rotation matrix uniquely determine other elements using orthogonality constraints. For this reason, the two-point one-line configuration provides a total of four solutions for posture (R, T).

1点2線
このセクションでは、1つの2D−3D点、および2つの2D−3D線対応からの姿勢推定手順を説明する。
One-point two-line This section describes a posture estimation procedure from one 2D-3D point and two 2D-3D line correspondences.

中間カメラ基準系W
図5(A)および図5(B)は、それぞれ、カメラ基準系Cおよびワールド基準系Wにおけるカメラ投影光線(2Dの点および線に関連付けられる)および3D特徴(点および線)を示している。カメラ基準系Cにおいて、カメラの中心は、Cにあり、2D点に対応する投影光線は、それらの方向ベクトルd(→)によって与えられ、2つの2D線に対応する投影光線は、方向ベクトルの対(d(→)、d(→))および(d(→)、d(→))によって与えられる。中間カメラ基準系Cにおいて、2D点に対応する光線は、CDであり、2つの線に連結される光線は、それぞれ対(CD、CD)、および(CD、CD)である。
Intermediate camera reference system W 1
FIGS. 5A and 5B show the camera projection rays (associated with 2D points and lines) and 3D features (points and lines) in the camera reference system C 0 and the world reference system W 0 , respectively. ing. In the camera reference system C 0 , the camera center is at C 0 , and the projection rays corresponding to the 2D points are given by their direction vectors d 1 (→), and the projection rays corresponding to the two 2D lines are Given by the pair of direction vectors (d 2 (→), d 3 (→)) and (d 4 (→), d 5 (→)). In the intermediate camera reference system C 1 , the ray corresponding to the 2D point is CD 1 , and the rays connected to the two lines are pairs (CD 2 , CD 3 ) and (CD 3 , CD 4 ), respectively. is there.

以下の条件を満たすことによって、Cを選択する。
a.カメラ中心が、座標C(0、0、−1)にある、
b.2つの解釈平面の交差線からの投影光線CDが、D=(0、0、0)となるようにZ軸上にある、および
c.光線CDが、XZ平面上にあり、ただしDが、X軸上にある。
By satisfying the following conditions, to select the C 1.
a. The camera center is at coordinates C (0, 0, -1).
b. The projected ray CD 3 from the intersection of the two interpretation planes is on the Z axis such that D 3 = (0, 0, 0), and c. Ray CD 2 is on the XZ plane, but D 2 is on the X axis.

上記の構成と同様に、そのような変換が構築によって可能であることを証明する。解釈平面(C、d(→)、d(→))の単位法線ベクトルは、n(→)=d(→)×d(→)およびd(→)=d(→)×d(→)によって与えられる。2つの平面の交差線の方向ベクトルは、d12(→)=d(→)×d(→)として求めることができる。Cにおける方向ベクトルd(→)、d12(→)およびd(→)は、それぞれ投影光線CD、CD、およびCDに対応する。 Similar to the above configuration, we prove that such a transformation is possible by construction. The unit normal vectors of the interpretation planes (C 0 , d 2 (→), d 3 (→)) are n 1 (→) = d 2 (→) × d (→) and d 2 (→) = d 4. (→) × d (→). The direction vector of the intersecting line of the two planes can be obtained as d 12 (→) = d 1 (→) × d 2 (→). Direction vectors d 2 (→), d 12 (→), and d 4 (→) at C 0 correspond to projected rays CD 2 , CD 3 , and CD 4 , respectively.

代数的変換を用いて、中間基準系への変換前および変換後の点DおよびDは下式となる。 Using algebraic transformation, the points D 2 and D 3 before and after the transformation to the intermediate reference system are as follows:

Figure 0005554286
Figure 0005554286

カメラ基準系Cと中間カメラ基準系Cとの間の変換は、3つ組(C、D 、D )を(C、D、D)に投影するものによって与えられる。 The transformation between the camera reference system C 0 and the intermediate camera reference system C 1 is given by what projects the triplet (C 0 , D 0 2 , D 0 3 ) onto (C, D 2 , D 3 ) It is done.

中間ワールド基準系W
中間ワールド基準系Wは、単一の3D点Pが原点(0、0、0)にあるように選択される。ワールド基準系Wと中間ワールド基準系Wとの間の変換は、P をPに並進させる。簡潔にするために、CおよびWにおけるいくつかの点について、以下の表記を用いる。
Intermediate World Reference System W 1
The intermediate world reference system W 1 is selected such that a single 3D point P 1 is at the origin (0, 0, 0). The transformation between the world reference frame W 0 and the intermediate world reference frame W 1 translates P 0 1 to P 1 . For simplicity, the following notation is used for some points in C 0 and W 0 .

Figure 0005554286
Figure 0005554286

中間カメラ基準系Cと中間ワールド基準系Wとの間の姿勢推定
1点2線対応を用いた姿勢推定を説明した。3つ組(C、D、P)からの2つの共線性方程式と、4つ組(C、D、D、L)および(C、D、D、L)からの4つの共平面性方程式とをスタックする。以下の線形系、すなわち、AX=Bを構築する。ここで、A、X、およびBは、下式となる。
He described the attitude estimation using the pose estimation 1 point 2-wire correspondence between the intermediate camera reference system C 1 and the intermediate world reference system W 1. From two collinearity equations from triplicates (C, D 1 , P 1 ) and from quadruples (C, D 2 , D 3 , L 2 ) and (C, D 2 , D 3 , L 3 ) Are stacked with the four coplanarity equations. Construct the following linear system: AX = B. Here, A, X, and B are represented by the following expressions.

Figure 0005554286
Figure 0005554286

線形系AX=Bにおいて、第1の行および第2の行は、3つ組(C、D、P)について、式(1)の共線性制約を用いて得られる。第3行、第4行、第5行、および第6行は、それぞれ4つ組(C、D、D、L)、(C、D、D、L)、(C、D、D、L)、および(C、D、D、L)について、式(2)の共平面性制約を用いて得られる。 In the linear system AX = B, the first and second rows are obtained for the triplet (C, D 1 , P 1 ) using the collinearity constraint of equation (1). The third row, the fourth row, the fifth row, and the sixth row are divided into four pairs (C, D 2 , D 3 , L 2 ), (C, D 2 , D 3 , L 3 ), (C , D 3 , D 4 , L 4 ), and (C, D 3 , D 4 , L 5 ), using the coplanarity constraint of equation (2).

行列Mは、既知の変数を有し、階数6である。線形系内に9つの変数が存在するので、2つのベクトルが広がる部分空間内に以下に示すように解を得ることができる。すなわち、X=u+lv+lw+lyであり、ここで、u、v、w、およびyは、サイズ9×1の既知のベクトルであり、l、l、およびlは、未知の変数である。3つの直交性制約は、回転変数R11、R12、R13、R21、R22、およびR23を含んでいる(X内の個々の要素は、l、l、およびlの関数として表される)。 The matrix M has known variables and has rank 6. Since there are nine variables in the linear system, a solution can be obtained as shown below in a subspace in which two vectors spread. That is, X = u + l 1 v + l 2 w + l 3 y, where u, v, w, and y are known vectors of size 9 × 1, and l 1 , l 2 , and l 3 are unknown Variable. The three orthogonality constraints include the rotation variables R 11 , R 12 , R 13 , R 21 , R 22 , and R 23 (individual elements in X are l 1 , l 2 , and l 3 Represented as a function).

Figure 0005554286
Figure 0005554286

上記の方程式の効率的で安定した解を得るために、グレブナー基底法を用いて構築された自動ソルバを用いて、(l、l、l)の8つの異なる解を得る。結果として、これによって姿勢(R、T)の8つの解が生成された。 In order to obtain an efficient and stable solution of the above equation, eight different solutions of (l 1 , l 2 , l 3 ) are obtained using an automatic solver constructed using the Gröbner basis method. As a result, this generated eight solutions of posture (R, T).

退化構成および他のシナリオ
3D特徴間で、3D点が3D線上にある場合、構成は、退化している。座標変換の同じ着想および共線性制約および共平面性制約の使用を用いて、3点および3線を解くことが可能である。
Degenerate configuration and other scenarios Between 3D features, if the 3D point is on the 3D line, the configuration is degenerate. With the same idea of coordinate transformation and the use of collinearity and coplanarity constraints, it is possible to solve 3 points and 3 lines.

Claims (12)

環境における3次元(3D)オブジェクトの3D姿勢を求めるための方法であって、
カメラによって前記環境から捕捉した画像から特徴を抽出することと、
前記特徴を前記環境の3Dモデルにマッチングすることであって、対応を求める、マッチングすることと、
前記対応を用いて、前記画像のカメラ基準系および前記環境のワールド基準系を対応する中間カメラ基準系および対応する中間ワールド基準系に変換することと、
前記中間カメラ基準系および前記中間ワールド基準系に幾何学的制約を適用することであって、制約付き中間ワールド基準系および制約付きワールド基準系を取得する、適用することと、
前記制約付き中間ワールド基準系および前記制約付きワールド基準系のパラメーターから前記3D姿勢を求めること
を含み、これらのステップは、プロセッサにおいて実行される、方法。
A method for determining a 3D pose of a three-dimensional (3D) object in an environment,
Extracting features from an image captured from the environment by a camera;
Matching the features to a 3D model of the environment, seeking correspondence, matching;
Converting the camera reference system of the image and the world reference system of the environment into a corresponding intermediate camera reference system and a corresponding intermediate world reference system using the correspondence;
Applying a geometric constraint to the intermediate camera reference system and the intermediate world reference system, obtaining a constrained intermediate world reference system and a constrained world reference system;
Determining the 3D pose from parameters of the constrained intermediate world reference system and the constrained world reference system, wherein these steps are performed in a processor.
前記環境は、屋外都市場面であり、前記3D姿勢は、ジオロケーションのために用いられる、請求項1に記載の方法。   The method of claim 1, wherein the environment is an outdoor city scene and the 3D pose is used for geolocation. 前記姿勢は、自動ナビゲーションのために用いられる、請求項1に記載の方法。   The method of claim 1, wherein the posture is used for automatic navigation. 前記環境は、屋内工場設定であり、前記3D姿勢は、ロボットアームを用いて小さな工業用部品を掴み取るのに用いられる、請求項1に記載の方法。   The method of claim 1, wherein the environment is an indoor factory setting and the 3D attitude is used to grab a small industrial part using a robotic arm. 前記幾何学的制約は、共線性制約および共平面性制約である、請求項1に記載の方法。   The method of claim 1, wherein the geometric constraints are collinearity constraints and coplanarity constraints. 前記特徴は、2つの点および1つの線を含む、請求項1に記載の方法。   The method of claim 1, wherein the feature includes two points and a line. 前記特徴は、1つの点および2つの線を含む、請求項1に記載の方法。   The method of claim 1, wherein the feature includes a point and two lines. 前記パラメーターは、前記姿勢の3つの回転パラメーターおよび3つの並進パラメーターを含む、請求項1に記載の方法。   The method of claim 1, wherein the parameters include three rotational parameters and three translation parameters of the attitude. 前記姿勢は、4次多項式を用いて求められる、請求項1に記載の方法。   The method of claim 1, wherein the attitude is obtained using a fourth-order polynomial. 前記姿勢は、8次多項式を用いて求められる、請求項1に記載の方法。   The method according to claim 1, wherein the posture is obtained using an eighth order polynomial. 前記中間カメラ基準系において、前記カメラの中心は、座標C(0、0、−1)にあり、第1の線の投影光線は、Z軸上の線に対応し、第2の線の投影光線は、XZ平面上の線に対応する、請求項1に記載の方法。   In the intermediate camera reference system, the center of the camera is at the coordinates C (0, 0, −1), the projected light of the first line corresponds to the line on the Z axis, and the projection of the second line The method of claim 1, wherein the rays correspond to lines on the XZ plane. 前記姿勢は、ランダムサンプルコンセンサスの枠組みを用いて推定される、請求項1に記載の方法。   The method of claim 1, wherein the pose is estimated using a random sample consensus framework.
JP2011123320A 2010-06-28 2011-06-01 Method for determining a 3D pose of a three-dimensional (3D) object in an environment Active JP5554286B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/824,828 2010-06-28
US12/824,828 US8442305B2 (en) 2009-06-30 2010-06-28 Method for determining 3D poses using points and lines

Publications (2)

Publication Number Publication Date
JP2012008124A JP2012008124A (en) 2012-01-12
JP5554286B2 true JP5554286B2 (en) 2014-07-23

Family

ID=45538814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011123320A Active JP5554286B2 (en) 2010-06-28 2011-06-01 Method for determining a 3D pose of a three-dimensional (3D) object in an environment

Country Status (1)

Country Link
JP (1) JP5554286B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874818B (en) * 2018-08-31 2023-06-23 阿里巴巴集团控股有限公司 Image processing and virtual space construction method, device, system and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4800163B2 (en) * 2006-09-29 2011-10-26 株式会社トプコン Position measuring apparatus and method
US8861834B2 (en) * 2007-03-09 2014-10-14 Omron Corporation Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points

Also Published As

Publication number Publication date
JP2012008124A (en) 2012-01-12

Similar Documents

Publication Publication Date Title
US8442305B2 (en) Method for determining 3D poses using points and lines
Teller et al. Calibrated, registered images of an extended urban area
Moghadam et al. Line-based extrinsic calibration of range and image sensors
CN104376552B (en) A kind of virtual combat method of 3D models and two dimensional image
Kumar et al. Simple calibration of non-overlapping cameras with a mirror
US11216979B2 (en) Dual model for fisheye lens distortion and an algorithm for calibrating model parameters
Ramalingam et al. Pose estimation using both points and lines for geo-localization
CN107843251B (en) Pose estimation method of mobile robot
CN109815847B (en) Visual SLAM method based on semantic constraint
US20230351625A1 (en) A method for measuring the topography of an environment
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
CN205426175U (en) Fuse on -vehicle multisensor's SLAM device
CN101354796B (en) Omnidirectional stereo vision three-dimensional rebuilding method based on Taylor series model
Chen et al. Calibration of a hybrid camera network
CN117456124B (en) Dense SLAM method based on back-to-back binocular fisheye camera
JP6228239B2 (en) A method for registering data using a set of primitives
Benosman et al. A new catadioptric sensor for the panoramic vision of mobile robots
JP5554286B2 (en) Method for determining a 3D pose of a three-dimensional (3D) object in an environment
Kurz et al. Bundle adjustment for stereoscopic 3d
Perez-Yus et al. A novel hybrid camera system with depth and fisheye cameras
CN113048985B (en) Camera relative motion estimation method under known relative rotation angle condition
Pathak et al. Distortion-robust spherical camera motion estimation via dense optical flow
CN118120246A (en) Learning device, learning method, learning program, camera parameter calculation device, camera parameter calculation method, and camera parameter calculation program
CN113436266B (en) Image processing system, image processing method, method of training neural network, and recording medium for performing the method
KR102146839B1 (en) System and method for building real-time virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140403

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140528

R150 Certificate of patent or registration of utility model

Ref document number: 5554286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250