JP4480083B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP4480083B2
JP4480083B2 JP2005047516A JP2005047516A JP4480083B2 JP 4480083 B2 JP4480083 B2 JP 4480083B2 JP 2005047516 A JP2005047516 A JP 2005047516A JP 2005047516 A JP2005047516 A JP 2005047516A JP 4480083 B2 JP4480083 B2 JP 4480083B2
Authority
JP
Japan
Prior art keywords
image plane
image
matrix
points
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005047516A
Other languages
English (en)
Other versions
JP2006234492A (ja
Inventor
俊明 柿並
佐藤  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2005047516A priority Critical patent/JP4480083B2/ja
Priority to EP06714305.7A priority patent/EP1852673B1/en
Priority to US11/884,728 priority patent/US8077965B2/en
Priority to PCT/JP2006/303165 priority patent/WO2006090735A1/ja
Publication of JP2006234492A publication Critical patent/JP2006234492A/ja
Application granted granted Critical
Publication of JP4480083B2 publication Critical patent/JP4480083B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、移動体上に取付けられた撮像手段によって取得される、視点が異なる第1画像面と第2画像面との画像を処理して、移動体周辺の物体を認識する物体認識装置に関する。
上述した物体認識装置で用いられる、視点が異なる第1画像面と第2画像面とを所定間隔をあけて平行に左右配置された2台のカメラによって作り出し、それぞれの画像面における対応する物体画像部分のずれ量を算定し、このずれ量から三角測量の原理を用いて、左右のカメラを結ぶ直線から物体までの垂線距離を求める技術が知られている(例えば、特許文献1参照。)。この物体認識技術では、ステレオ画像が得られるように左右のカメラを正確に位置合わせして配置しなければならず、左右のカメラの位置ずれはそのまま物体の位置座標演算の誤差を導く。この物体認識装置を自動車などに搭載する際には、自動車におけるカメラ配置の自由度はそれほど高くないことから、このカメラ取り付け精度の厳密性は厳しい条件となる。
視点が異なる第1画像面と第2画像面とを1台のカメラの移動前後の画面から作り出し、その第1画像面とカメラ移動の補償変換処理を施された第2画像面とにおける対応する物体画像部分のずれ量を算定し、このずれ量から三角測量の原理を用いて、左右のカメラを結ぶ直線から物体までの垂線距離を求める技術が知られている(例えば、特許文献2参照。)。この物体認識技術では、1台のカメラの移動前後の画像面を用いるのでカメラの取り付け精度はあまり要求されない。しかしながら、物体の位置座標を求めるために、第1画像面と第2画像面とにおける物体画像部分のずれ量から物体の位置座標を算定してその物体を復元しているので、物体の曲面部の構造を復元できないという問題がある。なお、この問題は特許文献1による技術においても同様に生じる。
コンピュータビジョンと呼ばれている技術分野において知られている、異なる視点から得られた2つの画像において対応する点の変換行列としての基礎行列(fundamental matrix:F行列とも呼ばれる)を求める際、まずN組の対応点からランダムに8組の対応点を取り出し、取り出した8組の対応点を用いて求めたF行列を用いて、第1画像面における対応点に対する第2画像面上のエピポーラ線を計算し、次に第2画像面における対応点とこのエピポーラ線との距離dを求め、距離dがある閾値以下となる対応点の組の計数値を求める一連の処理を、ランダムに8組の対応点を取り出しながらある一定回数繰り返し、計数値が最大となるF行列を最終的なF行列とする手法が知られている(例えば、非特許文献1参照。)。この手法では、F行列を求めるために8組以上の対応点を必要とするため、特に自動車などの移動体における物体認識装置に適用する場合安定的に検出・追跡することが困難であるという問題が生じる。
特開平5−114099号公報(段落番号0016−0020、図3,4,5)
特開2001−187553号公報(段落番号0042−0066、図4,8)
フィリップ・トル(P. Torr)著,「Motion segmentation and outlier detection」,University of Oxford , 1995,p.58-60
以上の従来技術で示されるように、移動体上に取付けられた撮像手段によって取得される、視点が異なる第1画像面と第2画像面との画像を処理して、移動体周辺の物体を認識する、現状の物体認識装置では、認識すべき物体が自動車の前端部や後端部あるいは道路の縁石といった表面にテクスチャーが乏しく、かつ曲面形状をしている場合、安定的に認識・追跡することが困難であり、また、時々刻々と変化する画像中での特徴部を従来のステレオ法などで追跡しながら認識するためには対応点探索処理に時間がかかりすぎるといった問題があることから、本発明の課題は、計算負荷が低くても安定した認識が可能な、移動体用、特に自動車用の物体認識装置を提供することであり、さらには表面にテクスチャーの無い物体であっても安定した認識が可能なことである。
前記課題を解決するため、移動体上に取付けられた撮像手段によって取得される、視点が異なる第1画像面と第2画像面との画像を処理して移動体周辺の物体を認識する、本発明による物体認識装置の特徴構成は、前記第1画像面と前記第2画像面とにおける物体画像の特徴点を検出する特徴点検出手段と、前記第1画像面と前記第2画像面との間で対応する少なくとも2組の前記特徴点により前記第1画像面と前記第2画像面との間の並進カメラ運動に基づく幾何学的な対応関係を表す基礎行列を自己エピポーラによるエピポールの算定に基づいて決定する基礎行列決定手段と、前記第1画像面と前記第2画像面とにおける前記物体の座標及び前記決定された基礎行列に基づいて前記物体の3次元位置を計算する3次元位置計算手段とを備え、前記基礎行列決定手段は、仮の基礎行列を生成するとともに前記第1画像面と前記第2画像面とにおいて対応する特徴点同士を結ぶ直線と前記エピポールとの距離が所定値以内である特徴点を正対応特徴点とし、この正対応特徴点の数が最大となる仮の基礎行列を正式な基礎行列として決定することである。
この構成では、撮像された物体画像を写し出す第1画像面と第2画像面とが1台のカメラを用いた撮像手段又は2台のカメラを用いた撮像手段のいずれで作り出されようとも、第1画像面と第2画像面との関係が並進カメラ運動の関係である限り、前記第1画像面と前記第2画像面との間で対応するそれぞれの特徴点、つまり対応点の間の変換を決定する基礎行列を自己エピポーラによるエピポールの算定に基づいて求めることができるので、後で詳しく説明するように、前記第1画像面と前記第2画像面との間で対応する特徴点(対応点)は少なくとも2組だけあればよい。これにより、計算負荷が低くても安定した認識が可能な物体認識装置が実現する。
さらに、前記第1画像面と前記第2画像面とが並進運動に基づく幾何学的関係にあることから、その対応点同士を結ぶ直線がエピポールと呼ばれる一点で交差する自己エピポーラと呼ばれる性質が得られるので、対応点同士を結ぶ直線がエピポールから大きく外れている場合にはこれらの対応点の組は誤対応を起こしていると考えることができる。このことを利用して、ランダムに取り出された2組の対応点(前記第1画像面と前記第2画像面との間で対応し合う特徴点)を用いてF行列を算定し、このF行列より求められたエピポール(擬似的なエピポール)と前記対応点を結ぶ直線との距離がある閾値以下となる対応点の組の計数値を求める。以上の処理を、ランダムに2組の対応点を取り出しながらある一定回数繰り返し、計数値が最大となるF行列を最終的なF行列として決定するのである。このアルゴリズムでは、安定に誤対応除去を行いながらF行列の算定を行うので処理速度が改善される。
前記第1画像面と前記第2画像面とを1台のカメラによって作り出す撮像手段を採用する場合、前記移動体の移動に伴う前記カメラの並進移動の前後で撮影した際の画像面が並進カメラ運動に基づく幾何学的関係をもつ前記第1画像面と前記第2画像面となる。移動体が自動車のような車両の場合、その慣性が大きいことから短い時間間隔での運動(移動)は並進運動(並進移動)とみなすことができるので、このような物体認識装置は効果的に自動車に適用することができる。
なお、前記第1画像面と前記第2画像面とを2台のカメラによって作り出す撮像手段を採用することも本発明では除外されておらず、その際は、同時刻での2台のカメラによる撮影での画像面が前記第1画像面と前記第2画像面となる。この2台のカメラの幾何学的な配置に関しては、並進運動に基づく幾何学的条件が守られさえすればよいので、複数のカメラの並進と回転運動に基づくステレオカメラ法に較べ、カメラ配置の自由度が高くなり、取り付け場所に制限を受ける自動車などに適用する際に利点がある。
前記特徴点検出手段を、前記物体の遮蔽輪郭を検出するとともにこの遮蔽輪郭の輪郭線上に位置する点を前記特徴点として検出するように構成するならば、認識すべき物体にテクスチャーの無くても、物体画像における遮蔽輪郭をもとに物体の特徴点を検出して、3次元形状復元することができる。物体表面上のテクスチャーの代わりに物体と背景との境界である遮蔽輪郭を用いるため、特に、対象物表面にテクスチャーが乏しく、かつ曲面形状をした車両などを安定的に形状復元することが可能となる。
前述したように、本発明による物体認識装置は、計算負荷が低くにもかかわらず、表面にテクスチャーの無い物体であっても安定した認識が可能であることから、自動車に適用し、周囲に存在する自動車のバンパーを認識すべきバンパーとするとともに前記特徴点検出手段をバンパーの遮蔽輪郭を検出するように構成すると、自動車の車庫入れや駐車の自動化に貢献できる。
まず、本発明の理論的根拠を説明する。
本発明では、撮像手段によって取得された認識対象となる物体(以下単に対象物と略称する)の画像特徴として主に遮蔽輪郭が用いられる。遮蔽輪郭とは、図1に示すように、画像中において、対象物が背景を遮蔽して生ずる輪郭である。物体表面にテクスチャーが無い対象物でも、この対象物と背景との間で輝度差が有れば、このような遮蔽輪郭が観測できることから、テクスチャーの有無に関わらず、対象物のための画像特徴として用いることができる。しかしながら、多くの物体は曲面から構成されており、そのため、遮蔽輪郭はコーナーなどの特徴点とは異なり、曲線となるため異なる視点での撮像面で得られた遮蔽輪郭曲線上の点同士を対応付けることは困難である。そこで本発明では、エピポーラ幾何をもとに、異なる視点間における遮蔽輪郭上の点の対応を求め、3次元物体の形状を復元する方法を採用している。
この方法では、まず2つの異なる視点の2つの画像面における画像間のエピポーラ幾何を表すF行列(基礎行列)を安定的に求める必要がある。3次元空間中の同一の点をそのような2つの画像面(第1画像面と第2画像面)に投影して得られる投影点をぞれぞれm = [u, v]T、m' = [u', v']T とすると、これらの間には一般に以下に示すエピポーラ方程式が成り立つ。
ここで、上に付記された「〜」は斉次座標を表す記号であり、上付きの「T」は転置行列を表す記号である。行列F(基礎行列)は、3×3で自由度7の行列である。
一般に、F行列は線形計算で求めようとする場合には最低8点、非線形解法で求める場合にも最低7点の対応点が必要であり、ある程度安定なF行列を得るためには、さらに数点の対応点が必要となる。しかし、画像中において常に十数点の対応点をトラッキングするのは実際には非常に難しいので、本発明では、撮像手段としてのカメラを固定している移動体(典型的には自動車などの車両)の運動に拘束を設け、これをもとにより少ない対応点からより安定的にF行列を求めることにしている。一般に車両は大きな慣性を持っていることから、短時間中では近似的に直線運動を行っていると見なすことができる。従って車両に固定されたカメラの運動も、短時間中では、純粋な並進運動と考えることができる
同一のカメラが並進運動した場合には、並進前後で得られる画像間のF行列は次式で示すような形をしており、定数倍の不定性を除いて2自由度しかない。
従って車載カメラの運動を並進運動と仮定した場合には(2)式に示す2自由度のF行列を求めることによりエピポーラ幾何が求まり、先に述べたようにエピポーラ線をもとに遮蔽輪郭曲線上の対応点を求めることが可能となる。
(2)式のF行列は以下のようにして2組以上の対応点より線形に求めることができる。今、画像中においてN 組の対応点mi = [ui, vi]T、m'i= [u'i, v'i]T (i = 1, …,N)が得られているとする。(2)式を(1)式に代入し、求めるF行列の要素f = [a, b, c]T に関して整理すると、以下の式が得られる。
ここでMは以下に示すN×3 行列である。
この時、f の最小二乗解はMTMの最小固有値に対応する固有ベクトルとして定数倍の不定性を残して求まる。しかし実際には対応点中に誤対応が存在するため、求めた対応点全点を用いて単純に最小二乗解を求めると、得られるF行列は大きな誤差を含む場合がある。そこで、このような誤対応点を取り除いた上で最小二乗法によりF行列を求める手法を取り入れる。誤対応点を取り除く手法として、フィッティングに必要な最小点数を選択して直線をフィッティングするとともに、他の点がその直線にどの程度フィットするかをチェックする処理からなるRANSAC(RANdom Sample Consensus)手法が用いられる。
その際、本発明では、カメラ運動を並進運動に限定しており、また連続する2時刻の画像からF 行列を計算するためカメラ運動が小さいことから、以下のようなアルゴリズムとなる。
カメラ運動は純粋な並進と仮定するため、F行列は最低2組の対応点で求まる。従って、まずN組の対応点からランダムに2組の対応点を取り出し、これら2組の対応点を用いて、(3) 式によりF行列を計算する。
一般には、このようにして求めたF行列を用いて、第1画像面中の対応点mi に対する第2画像面中のエピポーラ線l'iを計算し、第2画像の対応点m'iとの距離を計算すると、カメラ運動が小さいことから、図2に示すように、全ての点点m'iに関して距離dが閾値以下に収まってしまい、誤対応を起こしていても誤対応除去ができなくなる。このため、本発明では、並進運動カメラのエピポーラ幾何が自己エピポーラとなることを用いて、安定的に誤対応除去を行う。
つまり、並進運動カメラの場合には、運動前後の画像を重ね合わせると、図3 に示すように、対応点同士を結ぶ直線がある一点で交差し、この交点がエピポールとなる。この性質は自己エピポーラ(auto epipolar)と呼ばれ、その説明は、例えば、佐藤淳「コンピュータビジョン −視覚の幾何学−」コロナ社,1999年5月7日初版p.101-109に詳しい。この自己エピポーラの性質より、対応点同士を結ぶ直線がエピポールから大きく外れている場合にはこれらの対応点の組は誤対応を起こしていると考えることができる。
そこで、ランダムに2組の対応点を取り出し、これら2組の対応点を用いて、(3)式により仮のF行列を計算した後、このF行列よりエピポールeを計算する。次に、第1画像の対応点miと第2画像の対応点m'iを結ぶ直線liを求め、この直線liとエピポールeとの距離dを計算し、距離dがある閾値以下となる対応点の組の計数値NCを求める。
以上の処理を、ランダムに2組の対応点を取り出しながらある一定回数繰り返し、計数値NCが最大となる最終的なF行列を求める。このようにして、カメラ運動の小さい並進運動カメラから、安定的に誤対応除去を行いながらF行列計算を行うことができる。
前述したアルゴリズムで求められたF行列を用いて遮蔽輪郭から3次元形状を復元する方法を以下に説明する。
3次元物体が車両や人体のように曲面形状である場合には、図4に示すように、異なる視点で得られる遮蔽輪郭曲線上において物理的に対応する点は存在しない。しかし、短い時間間隔またはカメラ移動により画像を得た場合には、近似的に同一の3次元点が遮蔽輪郭として異なる視点に投影されたと考えても差し支えない場合を考える。さらにカメラが並進運動をしていると仮定すると、自己エピポーラの性質が成り立ち、異なる視点の画像同士を重ね合わせると、対応点は同一エピポーラ線上に乗る。そこで図5に示すように、連続する2つの画像上においは、同一のエピポーラ線l上に存在する遮蔽輪郭線上の点m,m'は互いに対応していると考えられる。このようにして、エピポーラ幾何を用いて連続する2時刻の遮蔽輪郭上の点同士の対応関係を求めることができ、得られた対応点を用いて3次元形状を復元することが可能となる。
実際の3次元復元は、まず、求めたF行列から内部パラメータ行列Aを用いて基本行列(Essential行列:以下E行列と称する) を計算し、このE行列を分解して、3次元のカメラ運動(回転と並進)を計算し、求めた2つの画像間のカメラ運動と、エピポーラ幾何より得られる遮蔽輪郭上の対応点m,m'から3次元座標を計算することにより行われる。
上述した本発明の原理を実践すべく構成された本発明による物体認識装置の一例を図面に基づいて説明する。
この物体認識装置は、車両、特に自動車に搭載されるものであり、図6に示すように、撮像手段として1台のデジタルカメラ10と、デジタルカメラ10からの画像信号を受ける画像入力部20と、デジタル化された画像データを一時的に記憶するフレームメモリ30と、取得された画像データに対して種々の画像処理を施す画像処理部40と、ここでは図示されていないモニタなどへの画像信号の出力を行う画像出力部50と、この物体認識装置を構成する種々の機能要素をセンサ等からの入力信号に応じて制御するとともにその制御結果を出力する制御部60とから構成されている。画像処理部40には、画像データ制御部41と特徴抽出部42と認識処理部43が含まれている。
移動体位置情報取得手段として機能する車輪速センサ70等から制御部60に入力された車両移動信号に基づいて、マイコン61が所定距離の車両移動を検知し、カメラ10からの画像信号に画像入力部20が有する機能としての同期分離とA/D変換を施して得られる画像データを所定距離の移動毎にフレームメモリ30に蓄積する。例えて言うならば、この所定距離の移動前の画像データは第1画像面に形成される画像となり、所定距離の移動後の画像データは第2画像面に形成される画像となる。その際、車両の短い距離(例えば10cm程度)の移動では、第1画像面と第2画像面は並進カメラ運動に基づく幾何学的な関係をもつとみなされる。
フレームメモリ30に蓄えられた画像データのうち、画像データ制御部41によるアドレス指定により所望の画像面に含まれる画像分が読み出され、特徴点検出手段として機能する特徴抽出部42においてその画像中の輪郭線やコーナー上の特徴点が検出される。特徴抽出アルゴリムとして種々のものが利用可能であるがここではハリスのコーナー検出が採用されている。
認識処理部43には、前述した第1画像面と第2画像面との間で対応する少なくとも2組の特徴点によりこれらの画像面間の並進カメラ運動に基づく幾何学的な対応関係を表す基礎行列を自己エピポーラによるエピポールの算定に基づいて決定する基礎行列決定手段43aと、この基礎行列と第1画像面と第2画像面とにおける対象物の座標に基づいて対象物の3次元位置を計算する3次元位置計算手段43bがプログラムとして実装されている。
このように構成された認識処理部43では、連続する2つの画像面、つまり視点の異なる第1画像面と第2画像面におけるそれぞれの画像間で検出された特徴点群を用いて、前述したアルゴリズムにしたがって自己エピポーラに基づくF行列の計算と誤対応点の除去が行われ、正しく対応した点群のみを用いて三角測量により3次元座標が算出される。つまり、この認識処理部43は、F行列(基礎行列)決定手段として機能する。算出された3次元座標が画像出力部50の描画部51に転送されると、この3次元座標に基づいて2次元での立体視画像データが作成され、表示コントローラ52で画像信号に変換される。表示コントローラ40にはフレームメモリ30からの画像データも入力されるので、表示コントローラ40からの画像信号をモニタに接続することでカメラ10による撮像画像と画像処理部40で認識された物体の立体視画像がモニタ表示可能である。
なお、ここでは、3次元物体が車両や人体のように曲面形状である場合には、図4に示すように、異なる視点で得られる遮蔽輪郭曲線上において物理的に対応する点は存在しないが、短い時間間隔での画像取得またはカメラの並進移動前後での画像取得の場合には、近似的に同一の3次元点が遮蔽輪郭として異なる視点に投影されたとみなしている。
上述した構成の物体認識装置における、物体の撮像から3次元復元までの処理の流れを図7〜図13のフローチャートを用いて説明する。
図7は基本フローチャートを示しており、制御部60において所定のタイミングで生成されるトリガー信号に応答してカメラ10で取得された画像が順次フレームメモリ30に蓄積される(#01)。フレームメモリ30から画像処理部40に読み込んだ画像における対象物の特徴点を検出・追跡し、エピポーラ幾何計算に基づいてエピポールを求め、F行列を得る(#02)。エピポーラ幾何を用いて遮蔽輪郭検出を行う(#03)。検出された遮蔽輪郭上の対応点の座標からその点の3次元座標を算定し、算定された3次元座標から三次元形状を復元する(#04)。この3次元形状の復元では、まず、求めたF行列から内部パラメータ行列Aを用いてE行列を計算し、このE行列を分解して、3次元のカメラ運動を計算し、求めた2つの画像間のカメラ運動と、エピポーラ幾何より得られる遮蔽輪郭上の対応点m,m'から3次元座標を計算する。
上記ステップ#02におけるエピポーラ幾何計算のルーチンを図8のフローチャートを用いて説明する。
まず、前時刻で取得された撮像面における特徴点の数が閾値を超えているかどうかチェックされる(#10)。特徴点の数が閾値を超えている場合(#10Yes分岐)、特徴点が有効な対応点となるかどうかをチェックする特徴点のトラッキングルーチン(後で説明される)に入り(#20)、さらにエピポールを求めてエピポーラ拘束による対応点の評価を行うエピポーラ拘束による対応チェックルーチンに(後で説明される)入る(#30)。特徴点の数が閾値以下の場合(#10No分岐)、コーナー検出によって特徴点を検出するハリスのコーナー検出ルーチン(後で説明される)を経て(#40)、リターンする。
続いて、現時刻で取得された撮像面における特徴点の数が閾値を超えているかどうかチェックされる(#50)。特徴点の数が閾値を超えている場合(#50Yes分岐)、最小二乗法により並進運動時のエピポーラ幾何を計算し、エピポールを求める(#60)。求められたエピポールが適切な範囲に入っているかどうかチェックされ(#70)、エピポールが適切な範囲に入っている場合(#70Yes分岐)、求められたエピポールの移動平均を計算し(#70)、リターンする。ステップ#50において特徴点の数が閾値以下の場合(#50No分岐)、及びステップ#70においてエピポールが適切な範囲に入っていない場合(#70No分岐)、このルーチンを終了してそのままリターンする。
前記ステップ#20の特徴点トラッキングルーチンを図9のフローチャートを用いて説明する。
まず、変数:minに特徴点近傍の相関値を代入する(#201)。変数:sumに探索点近傍の相関値を代入する(#202)。変数:sumと変数:minを比較して、変数:minが変数:sumを超えている場合(#203Yes分岐)、変数:minに変数:sumの値を代入して、特徴点を対応点候補とする(#204)。変数:minが変数:sum以下の場合(#203No分岐)、ステップ#204がジャンプされる。ステップ#202〜ステップ#204の処理が探索範囲内にわたって繰り返され(#205)、探索範囲内にわたる全ての処理が完了すると対応点候補を有効な対応点として(#206)、リターンする。
前記ステップ#30のエピポーラ拘束による対応チェックルーチンを図10のフローチャートを用いて説明する。
まず、初期設定として変数:maxに0を代入した後(#301)、2組の対応点をランダムに選択し(#302)、この選択した2組の対応点からエピポールを計算する(#303)。さらに、計数値を示す変数:Ncに0を代入した後(#304)、1組の対応点から試験用エピポーラ線を計算し(#305)、この試験用エピポーラ線とエピポールとの距離を計算する(#306)。得られた距離を閾値と比較して(#307)、距離が閾値を下回る場合(#307Yes分岐)、この対応点を対応点候補とするとともに変数:Ncをインクリメントし(#308)、距離が閾値以上の場合(#307No分岐)、ステップ#308の処理をジャンプする。ステップ#305からステップ#308までの処理を全対応点に対して繰り返し行う(#309No分岐)。全対応点にわたる処理が終了すると(#309Yes分岐)、変数:Ncと変数:maxを比較する(#310)。変数:Ncが変数:maxより小さい場合(#310Yes分岐)、対応点候補を対応点とするとともに変数:maxに変数:Ncの値を代入する(#311)。変数:Ncが変数:max以上の場合(#310No分岐)、ステップ#311の処理をジャンプする。上記ステップ#302からステップ#311までの処理を規定回数だけ行った後(#312)、リターンする。
前記ステップ#40のハリスのコーナー検出ルーチンを図11のフローチャートを用いて説明する。
まず、対象となる画像データに対してX方向とY方向へガウシアン微分フィルタを走らせてガウシアン微分演算を施す(#401)。各画素についてコーナーらしさ(CRFと呼ばれる評価値を採用)を計算する(#402)。微分演算値から特徴点候補を列挙し(#403)、列挙された特徴点候補をCRFを基準にして並び替える(#404)。CRFの大きいものから順に特徴点とする処理(#405)を、必要な数の特徴点が得られるまで繰り返し(#405No分岐)、必要な数の特徴点が得られるとリターンする(#405Yes分岐)。
図7の基本フローチャートにおけるエピポーラ幾何を用いた遮蔽輪郭検出ルーチンを図12のフローチャートを用いて説明する。
対象となる画像データに対してエピポールの方向へガウシアン微分フィルタを走らせてガウシアン微分演算を施す(#31)。得られた微分値演算マップをスケーリングした後(#32)、これを用いて微分画像を細線化して(#33)、リターンする。
図7の基本フローチャートにおける形状復元ルーチンを図13のフローチャートを用いて説明する。
まず、特徴点群から注目特徴点を順次指定し、注目特徴点が復元候補点であるかどうかをチェックする(#41)。注目特徴点が復元候補点である場合(#41Yes分岐)、次の時刻の対応する点を推測して(#42)、次の時刻に対応する点が存在すれば(#43Yes分岐)、この注目特徴点を復元可能特徴点とする(#44)。また、注目特徴点が復元候補点でない場合(#41No分岐)、次の時刻の対応する点を探索して(#45)、次の時刻に対応する点が存在すれば(#46Yes分岐)、この注目特徴点を復元候補特徴点とする(#47)。このステップ#41からステップ#47の処理が全ての特徴点に対して行われると(#48Yes分岐)、次のステップに移行する。先の処理で得られた復元可能特徴点をF行列、正確にはE行列を用いて3次元空間に逆射影し(#49)、直線の交点の3次元座標を計算する(#50)。このステップ#49と#50を全ての復元可能特徴点に対して繰り返し行い(#51No分岐)、全ての復元可能特徴点に対する処理が終わると(#51Yes分岐)、リターンする。ここで得られた三次元座標が描画部40に送られることで対象物の3次元表示画像データが生成される。
上述した物体認識装置を自動車に搭載し、用いて駐車スペースの脇を走行して得られた連続画像から、エピポーラ幾何計算を行い、通過した地点の3次元形状を復元した実験例を説明する。この駐車スペースに沿った走行シーンでは最初に3台の車両が駐車しており、その後スペースが有って1台車両が駐車していた。3台の駐車車両を3次元復元した結果が図14に示されているが、図14(a)は撮影画像であり、図14(b)が3次元復元画像である。また、次の1台の駐車車両を3次元復元した結果が図15に示されているが、図15(a)は撮影画像であり、図15(b)が3次元復元画像である。図14(b)から、車両の3次元形状より、連続して駐車している車両一台一台の区別が概ねつくことがわかる。また図15(b) では、後ろ向きに駐車している車両の3次元の外形がほぼ正確に復元できていることが明らかである。さらに、駐車車両の存在するスペースと存在しないスペースの区別が概ねつくことも明らかになった。
自動車の最も突き出た先端部又は後端部であるにもかかわらず、従来は困難とされていた曲面体でテクスチャーのないバンパーの認識が、特に、図15(b)から明らかなように、エピポーラ幾何に基づく対応付けを行うとともにその遮蔽輪郭から3次元形状を認識するという手法で可能となるので、本発明は、駐車時や走行時の障害物、特にバンパーの認識のために効果的に適用できる。
本発明では、車両周辺障害物の3次元形状を、少ない計算コストで復元することができる。特に、エピポーラ幾何に基づく対応付けを行うことにより、駐車車両などテクスチャーの少ない障害物の遮蔽輪郭から3次元形状を復元することで、テクスチャーの無い障害物であっても3次元形状が復元可能となった。つまり、遮蔽輪郭は曲線であるため、異なる時刻で得られる遮蔽輪郭同士の対応を取るのは容易ではないが、エピポーラ幾何を用いることにより、遮蔽輪郭上の点同士の対応を求めている。その際、エピポーラ幾何を安定的に求めるために、短時間中では車両の運動がほぼ並進運動に近似可能であることを用いて、並進運動に限定したエピポーラ幾何を計算するとともに、複数視点の画像間での特徴点誤対応を低減するための大きな計算負荷を避けるために自己エピポーラを導入することにより、誤対応する点を除いている。これにより、画像ノイズに対するエピポーラ幾何計算の安定性が向上し、実際の走行シーン画像を用いた上記実験結果からも明らかなように、3次元形状が概ね復元可能である。
遮蔽輪郭を説明する説明図 RANSAC手法を説明する説明図 自己エピポーラを用いた誤対応除去を説明する説明図 異なる視点から得られる遮蔽輪郭を説明する説明図 自己エピポーラと遮蔽輪郭上の対応点を示す模式図 本発明の物体認識装置の実施形態における機能ブロック図 本発明の物体認識装置の実施形態における認識処理の流れを示すフローチャート エピポーラ幾何計算ルーチンを示すフローチャート 特徴点のトラッキングルーチンを示すフローチャート エピポーラ拘束による対応チェックルーチンを示すフローチャート ハリスのコーナー検出ルーチンを示すフローチャート エピポーラ幾何を用いた遮蔽輪郭検出ルーチンを示すフローチャート 形状復元ルーチンを示すフローチャート 3次元復元の実験結果を示す画面図 3次元復元の実験結果を示す画面図
符号の説明
10 カメラ(撮像手段)
20 画像入力部
30 フレームメモリ
40 画像処理部
41 画像データ制御部
42 特徴抽出部(特徴点検出手段)
43 認識処理部
43a基礎行列決定手段
43b3次元位置計算手段
50 画像出力部
51 描画部
60 制御部
70 車輪速センサ(移動体位置情報取得手段)

Claims (5)

  1. 移動体上に取付けられた撮像手段によって取得される、視点が異なる第1画像面と第2画像面との画像を処理して、移動体周辺の物体を認識する物体認識装置において、
    前記第1画像面と前記第2画像面とにおける物体画像の特徴点を検出する特徴点検出手段と、
    前記第1画像面と前記第2画像面との間で対応する少なくとも2組の前記特徴点により前記第1画像面と前記第2画像面との間の並進カメラ運動に基づく幾何学的な対応関係を表す基礎行列を自己エピポーラによるエピポールの算定に基づいて決定する基礎行列決定手段と、
    前記第1画像面と前記第2画像面とにおける前記物体の座標及び前記決定された基礎行列に基づいて前記物体の3次元位置を計算する3次元位置計算手段と、
    を備え
    前記基礎行列決定手段は、仮の基礎行列を生成するとともに前記第1画像面と前記第2画像面とにおいて対応する特徴点同士を結ぶ直線と前記エピポールとの距離が所定値以内である特徴点を正対応特徴点とし、この正対応特徴点の数が最大となる仮の基礎行列を正式な基礎行列として決定する物体認識装置。
  2. 前記撮像手段は1台のカメラによって構成され、前記第1画像面と前記第2画像面とを、前記移動体の移動に伴う前記カメラの並進移動の前後で作り出す請求項1に記載の物体認識装置。
  3. 前記カメラの移動状態の評価を前記移動体に設けられた移動体位置情報取得手段からの情報に基づいて行う請求項2に記載の物体認識装置。
  4. 前記特徴点検出手段は、前記物体の遮蔽輪郭を検出するとともにこの遮蔽輪郭の輪郭線上に位置する点を前記特徴点として検出する請求項1から3のいずれか一項に記載の物体認識装置。
  5. 前記移動体が自動車であり、前記物体が周囲に存在する自動車のバンパーであり、前記特徴点検出手段は前記バンパーの遮蔽輪郭を検出する請求項1からのいずれか一項に記載の物体認識装置。
JP2005047516A 2005-02-23 2005-02-23 物体認識装置 Expired - Lifetime JP4480083B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005047516A JP4480083B2 (ja) 2005-02-23 2005-02-23 物体認識装置
EP06714305.7A EP1852673B1 (en) 2005-02-23 2006-02-22 Object recognizing apparatus and object recognizing method using epipolar geometry
US11/884,728 US8077965B2 (en) 2005-02-23 2006-02-22 Object recognition apparatus and object recognition method using epipolar geometry
PCT/JP2006/303165 WO2006090735A1 (ja) 2005-02-23 2006-02-22 エピポーラ幾何を用いた物体認識装置及び物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005047516A JP4480083B2 (ja) 2005-02-23 2005-02-23 物体認識装置

Publications (2)

Publication Number Publication Date
JP2006234492A JP2006234492A (ja) 2006-09-07
JP4480083B2 true JP4480083B2 (ja) 2010-06-16

Family

ID=36927373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005047516A Expired - Lifetime JP4480083B2 (ja) 2005-02-23 2005-02-23 物体認識装置

Country Status (4)

Country Link
US (1) US8077965B2 (ja)
EP (1) EP1852673B1 (ja)
JP (1) JP4480083B2 (ja)
WO (1) WO2006090735A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4943034B2 (ja) * 2006-03-23 2012-05-30 株式会社デンソーアイティーラボラトリ ステレオ画像処理装置
US7623702B2 (en) * 2006-04-27 2009-11-24 Mako Surgical Corp. Contour triangulation system and method
US8331625B2 (en) 2006-09-13 2012-12-11 Pioneer Corporation Distance measuring device and method, and computer program
JP4858346B2 (ja) * 2007-07-26 2012-01-18 株式会社島津製作所 マーカー像識別装置及びマーカー像識別方法
JP4836086B2 (ja) * 2007-09-10 2011-12-14 三菱電機株式会社 3次元形状検出装置
CN105844586A (zh) * 2007-12-18 2016-08-10 皇家飞利浦电子股份有限公司 基于特征的2d/3d图像配准
JP4911065B2 (ja) * 2008-02-22 2012-04-04 富士ゼロックス株式会社 画像処理装置及びプログラム
JP5093591B2 (ja) * 2008-03-10 2012-12-12 株式会社Ihi 三次元位置姿勢計測方法および装置
CN102095370B (zh) * 2010-11-22 2013-03-13 北京航空航天大学 三x组合标记的检测识别方法
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
IT1403429B1 (it) * 2010-12-24 2013-10-17 Magneti Marelli Spa Sistema e procedimento di rivelazione di uno spazio di parcheggio per un veicolo
US10109065B2 (en) 2011-01-25 2018-10-23 Qualcomm Incorporated Using occlusions to detect and track three-dimensional objects
US8666145B2 (en) * 2011-09-07 2014-03-04 Superfish Ltd. System and method for identifying a region of interest in a digital image
KR101327736B1 (ko) * 2011-12-23 2013-11-11 현대자동차주식회사 Avm탑뷰 기반 주차지원 시스템
EP2831621B1 (en) * 2012-03-26 2016-07-13 Robert Bosch GmbH Multi-surface model-based tracking
JP5901447B2 (ja) * 2012-06-27 2016-04-13 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
CN104395692B (zh) * 2012-06-29 2016-08-24 富士胶片株式会社 三维测定方法、装置、系统以及图像处理装置
US9076257B2 (en) 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
KR20230142635A (ko) 2013-04-08 2023-10-11 스냅 아이엔씨 멀티-카메라 장치를 사용하는 거리 추정
US9250324B2 (en) 2013-05-23 2016-02-02 GM Global Technology Operations LLC Probabilistic target selection and threat assessment method and application to intersection collision alert system
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US8923565B1 (en) * 2013-09-26 2014-12-30 Chengdu Haicun Ip Technology Llc Parked vehicle detection based on edge detection
JP6651702B2 (ja) * 2015-03-23 2020-02-19 富士通株式会社 物体検出装置、物体検出方法および情報処理プログラム
WO2017093034A1 (en) * 2015-12-01 2017-06-08 Brainlab Ag Method and apparatus for determining or predicting the position of a target
TWI604417B (zh) 2016-08-31 2017-11-01 國立交通大學 估算對極幾何模型的方法及其系統
JP6699761B2 (ja) * 2017-01-16 2020-05-27 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
RU2650857C1 (ru) * 2017-04-06 2018-04-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Кубанский государственный технологический университет" (ФГБОУ ВО "КубГТУ") Система определения геометрических параметров трехмерных объектов
CN110809766B (zh) * 2017-06-28 2022-08-09 华为技术有限公司 高级驾驶员辅助系统和方法
US10535160B2 (en) * 2017-07-24 2020-01-14 Visom Technology, Inc. Markerless augmented reality (AR) system
US10282913B2 (en) 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
EP3486606A1 (de) * 2017-11-20 2019-05-22 Leica Geosystems AG Stereokamera und stereophotogrammetrisches verfahren
CN110874818B (zh) * 2018-08-31 2023-06-23 阿里巴巴集团控股有限公司 图像处理和虚拟空间构建方法、装置、系统和存储介质
CN109753940B (zh) * 2019-01-11 2022-02-22 京东方科技集团股份有限公司 图像处理方法及装置
CN109902725A (zh) 2019-01-31 2019-06-18 北京达佳互联信息技术有限公司 移动目标的检测方法、装置及电子设备和存储介质
WO2020247938A1 (en) * 2019-06-07 2020-12-10 Pictometry International Corp. Using spatial filter to reduce bundle adjustment block size
CN114596333B (zh) * 2020-12-03 2025-07-22 北京华航无线电测量研究所 一种适用于车载环境的目标跟踪方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3167752B2 (ja) 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
JP3494434B2 (ja) 1999-10-21 2004-02-09 松下電器産業株式会社 駐車支援装置
EP1504276B1 (en) * 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
KR100446636B1 (ko) * 2002-11-21 2004-09-04 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
JP2004198211A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
KR100526817B1 (ko) * 2003-04-22 2005-11-08 학교법인 중앙대학교 스테레오 영상 구현 시 기본행렬을 구하는 방법
US7154395B2 (en) * 2004-07-01 2006-12-26 Mitsubishi Electric Research Laboratories, Inc. Interactive wireless tag location and identification system

Also Published As

Publication number Publication date
EP1852673B1 (en) 2014-07-30
EP1852673A1 (en) 2007-11-07
JP2006234492A (ja) 2006-09-07
EP1852673A4 (en) 2010-08-04
US20080137940A1 (en) 2008-06-12
WO2006090735A1 (ja) 2006-08-31
US8077965B2 (en) 2011-12-13

Similar Documents

Publication Publication Date Title
JP4480083B2 (ja) 物体認識装置
KR101961001B1 (ko) 단일-카메라 거리 추정
Suhr et al. Automatic free parking space detection by using motion stereo-based 3D reconstruction
JP5689907B2 (ja) 車両において通行物体位置検出を向上する方法
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
JP4600760B2 (ja) 障害物検出装置
CN107016705B (zh) 计算机视觉系统中的地平面估计
EP3193306B1 (en) A method and a device for estimating an orientation of a camera relative to a road surface
US8744169B2 (en) Voting strategy for visual ego-motion from stereo
EP2372642B1 (en) Method and system for detecting moving objects
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP2007527569A (ja) 立体視に基づく差し迫った衝突の検知
EP1391845A2 (en) Image based object detection apparatus and method
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP2020508501A (ja) 移動オブジェクトのレンジを推定する方法および装置
JP5516561B2 (ja) 車両用運転支援装置
JP4943034B2 (ja) ステレオ画像処理装置
CA2392578A1 (en) System and method for detecting obstacles to vehicle motion
CN115752489B (zh) 可移动设备的定位方法、装置和电子设备
JP4106163B2 (ja) 障害物検出装置及びその方法
JP6932015B2 (ja) ステレオ画像処理装置
Wong et al. Shared-use motion vector algorithm for moving objects detection for automobiles
Romdhane et al. A generic obstacle detection method for collision avoidance
JP7796632B2 (ja) 画像処理装置及び画像処理方法
JP7493433B2 (ja) 移動量算出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4480083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250