JP2000517452A - 視認の方法 - Google Patents

視認の方法

Info

Publication number
JP2000517452A
JP2000517452A JP10548215A JP54821598A JP2000517452A JP 2000517452 A JP2000517452 A JP 2000517452A JP 10548215 A JP10548215 A JP 10548215A JP 54821598 A JP54821598 A JP 54821598A JP 2000517452 A JP2000517452 A JP 2000517452A
Authority
JP
Japan
Prior art keywords
article
edge
matrix
matrices
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10548215A
Other languages
English (en)
Inventor
ベアティ,デビッド,アンドリュー
Original Assignee
シェル オイル カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シェル オイル カンパニー filed Critical シェル オイル カンパニー
Publication of JP2000517452A publication Critical patent/JP2000517452A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Abstract

(57)【要約】 物品の位置および方向を識別する方法を提供する。この方法には、次の段階が含まれている。すなわち、カメラに対し既知の位置および方向を有する物品を介して、物品の画像を得る段階と、物品の画像から、XおよびYテンプレートエッジマトリックスを造出する段階と、各組が、異なる方向の物品の有するXおよびYテンプレートエッジマトリックスである複数組の修正テンプレートエッジマトリックスを造出する段階と、画素のマトリックスである、物品を含むデジタル可視画像を捕捉する段階と、画素のマトリックスから、XおよびY物品エッジマトリックスを造出する段階と、複数組の修正テンプレートエッジマトリックスと、XおよびY物品エッジマトリックスとのそれぞれの間の差を、物品エッジマトリックス境界内の複数位置に配置された修正エッジマトリックスによって定量化する段階と、物品の位置および方向を、修正テンプレートエッジマトリックスと、XおよびY物品エッジマトリックスとの差の定量化された最小値を用いて、XおよびY物品エッジマトリックスの境界内の位置にある修正テンプレートエッジマトリックス組により表される物品の方向として識別する段階とが含まれている。その場合、複数の画像が得られ、既知および未知の位置双方の物品の3次元画像が造出される。これらの3次元画像は、物品の初期照合に用いられるか、または物品の位置および方向を、2次元画像の照合から検出された物品によって検証するのに用いられる。

Description

【発明の詳細な説明】 視認の方法 技術分野 本発明は、視界内の既知の物品の位置および方向を識別する方法に関するもの である。 背景技術 米国特許第5379353号の提案になる微分解析回路では、可動ロボット用 の進路等の物体を識別するため、エッジベクトル(edge vectors)を識別する段階 が利用される。ビデオカメラが捕捉するデジタル画像は、各横列の画素に沿った 、そしてまたおそらくは各縦列の画素に沿った輝度差の発生を含むアルゴリズム を用いて処理される。輝度差の絶対値は画像の変化を表し、閾値を超える差は進 路に対する可能なエッジと確認される。 米国特許第5381155号で提案された速度検出システムは、固定されたカ メラの視界内を移動する車両を識別し、車両速度を測定し、車両の登録番号を識 別する。市販のシステムは、捕捉した画像内のナンバープレートを識別し、次い で登録番号内の番号と文字とを読取ることが可能といわれている。 米国特許第5381489号は、媒体上の文字を認知するシステムを提案して いる。このシステムは、媒体から可能な文宇の窓を造り、その窓を、1組のテン プレート内の各テンプレートと比較する。文字を識別するたびに、テンプレート の組全体を選抜(screen)せねばならない。テンプレートは、ドキュメントから予 め認知された文字に基づいて発生させる。その場合、初期認知には、異なる文字 特徴との、より厳密な比較が要求される。 視認が直面する問題は、特に物品の、カメラの視界内での位置および方向を認 知することであり、その場合、その物品は、可能な物品のライブラリにもとづい て既に識別済みの比較的少数の可能な物品の1つであればよい。しかし、こうし た認知は、明りの条件や影の状態がさまざまである可能性があるため、困難であ る。また、通常、所望の視認設備の現場で利用可能なコンピュータのデータ記憶 量は、限られている。したがって、異なる物品の異なる方向および尺度(scale) のテンプレートを、初期に発生させ、記憶させることは、概してできない。 視認の場合のこのような問題は、視認が、車両の識別手段または自動式燃料補 給システム内での車両の向きの検出手段として利用される場合に、発生する。例 えば、米国特許第3527268号の提案によれば、自動式燃料補給システム内 の車両が、完全自動式に自動車のシルエットを検出する光電装置を介して識別で きる。しかし、これをどのように行うかは提案されていない。 したがって、本発明の目的は、物品の位置および方向を識別する方法を得るこ とにあり、しかも、その方法は、さまざまな自然光および人工照明の条件下で物 品の位置および方向を識別でき、かつまた多数のテンプレートをデジタル式に記 憶させることを要さないものである。 発明の開示 本発明の前記目的およびその他の目的は、物品の位置および方向を識別する方 法によって達せられ、その方法には、次の段階が含まれている:すなわち、カメ ラに対する既知の位置および方向を有する物品により、物品の画像を得る段階と 、その物品の画像からXおよびYのテンプレートエッジマトリックスを造出する 段階と、各組が、異なる方向の物品を含むXおよびYのテンプレートエッジマト リックスである複数組の修正テンプレートエッジマトリックスを造出する段階と 、物品を含む可視デジタル画像、それも画素のマトリックスであるデジタル画像 を捕捉する段階と、画素のマトリックスからXおよびYの物品エッジマトリック スを造出する段階と、複数組みの修正テンプレートエッジマトリックスと、Xお よびYの物品エッジマトリックスとのそれぞれの間の差を、物品エッジマトリッ クスの境界内の複数位置に配置された修正テンプレートエッジマトリックスによ り定量化する段階と、物品の位置および方向を、修正テンプレートエッジマトリ ックスとXおよびYの物品エッジマトリックスとのあいだの定量化された最小差 をもって、XおよびYの物品エッジマトリックスの境界内の位置で、修正テンプ レートエッジマトリックス組によって表される物品の方向と同定する段階とが含 まれている。その場合、複数の画像が得られ、かつ物品の3次元画像が、既知と 未知の双方の位置で造出される。3次元画像は、物品の初期照合に用いられるか 、 または物品の位置および方向とを2次元画像の照合により検出された物品によっ て検証するのに用いられる。 この方法は、自動式燃料補給用の区画内での車両の位置および方向の識別に容 易に適用できる。車両の種類や型は、別の手段、例えば運転者の手動入力、磁気 ストリップまたは光学ストリップ、車両に配置されている受動式または能動式ト ランスポンダ(transponder/応答機)のいずれかによって識別できる。識別さ れた種類および型式、または少数の可能性の1つ(例えば1つ以上のトランスポ ンダ信号が受信されている場合)に限定される種類および型式により、基本テン プレートがメモリから検索できる。基本テンプレートは、カメラに対して既知の 位置に所在する車両と、XおよびYのエッジマトリックスの発生により処理され る画像とを用いて、車両の既知の種類および型式の可視デジタル画像にもとづい て用意できる。車両の種類と型式が識別された後、一連の修正テンプレートが、 初期方向から異なる種々の角度へのテンプレートエッジマトリックスの旋回およ び/またはカメラからの種々の距離を表すようにしたマトリックスの尺度化(sca ling)により、検索されたテンプレートから造出される。したがって、各車両用 のデータベースに記憶させる必要があるのは、1組の基本テンプレート(または 1組のXおよびYエッジマトリックステンプレート)のみである。燃料補給設備 内の車両を含む捕捉された可視画像は、その場合、物品のエッジマトリックスを 発生させるように処理され、修正テンプレートと比較されることができ、各修正 テンプレートは、物品エッジマトリックス内の種々の位置での物品エッジマトリ ックスと比較される。 好ましくは、テンプレートのマスクを用意することによって、物品の周囲区域 ではなく、物品の輪郭線および/または内側エッジのみが実際の物品ェッジマト リックスと比較される。マスクにより、また物品の期待寸法が得られる結果、物 品が適合するであろう物品エッジマトリックス内の複数位置のみが、物品のため に探索され、物品は、視界のエッジに比較的近い位置と同定され得る。 XおよびYのエッジテンプレートマトリックスを、XおよびYの物品エッジマ トリックスと別個に比較することにより、方法の強靭さが著しく改善され、その 結果、物品を見る上での部分的障害や、汚れ、木の葉、草、放置された環境に存 在し得るその他の物による部分的な遮蔽を伴う様々な明かりの条件下で迅速に信 頼のおける適合が見いだされる。 発明の詳細な説明 本発明の実施に当たり、既知の位置および方向での物品の可視画像を捕捉する には、通常、カメラが使用される。デジタル画像は、市販のフレームグラバ(fra megrabber)・ハードウェアおよび関連のソフトウェア・パッケージの1つを用い て捕捉できる。デジタル画像は、画素のマトリックスであり、画素のそれぞれは 、輝度に線形に対応する数を有している。カラー画像の利用は可能だが、その場 合、画像は、3つのマトリックス、すなわち赤、緑、青に各1つのマトリックス によって表される。通常、本発明の実施には、約256×240画素の画像が好 ましい。なぜなら、解像成績はこの画素数で十分であり、かつこの画素数は比較 的安価なビデオカメラの容量範囲内だからである。ビデオカメラは、256×2 40のマトリックスの約2倍の解像度の画像を発生可能である。その場合、その 画像は、隣接画素の平均化により縮小でき、4つの画素のブロックを平均化する ことで2分の1の高さと2分に1の幅を有する画素のマトリックスが造出される 。 SN比は、2つ以上の連続画像を平均化することで増すことができる。 エッジマトリックスは、カメラに対する既知の位置および方向の物品を含む画 像と、位置および方向の検出を要する物品を含む画像との双方から、次のような 演算子を適用することにより発生させることができる: および より好ましいエッジ演算子では合成核が利用され、この合成核は長いエッジに 有利であり、例えば、水平のエッジマトリックスの場合には、 との間で最小値を選択する演算子が利用され、また垂直のエッジマトリックスの 場合は、 および を最小値とする。これらの演算子から分かるように、各演算子は、要素が合計さ れてゼロとなるマトリックスを生じさせる。結果的に得られるこれらのマトリッ クスの要素の絶対値は、x軸とy軸それぞれに沿った輝度の変化を示す。エッジ の大きさの利用は、物品の色彩および照明の向きに見かけの不変量(apperance i nvariant)を与える助けとなる。これらのエッジマトリックスは、したがって物 品の照明または色彩の有意差にもかかわらず、テンプレートと比較し得る画像を 生じさせる(本発明の実施に当たっては、色彩も同様に識別できよう)。これら 2つの演算子の結果は、合計されて1つのエッジベクトルマトリックスが得られ るが、本発明の実際では、2つの演算子が、比較のために組み合わされないこと が重要である。2つを組み合わせないことにより、アルゴリズムの強靭さ、つま り物品が汚れによる遮蔽、部分的な影、照明条件の変化にさらされた場合に、外 形を識別するアルゴリズムの性能が、著しく増大する。 マスクは、好ましくは、既知の位置および方向を有する物品のエッジマトリッ クスの画像上に配置されるので、物品の既知の輪郭線のみが考慮に入れられる。 マスクを配置された区域は、「注意不要」(“Don't care”)区域と呼ばれる。 なぜなら、これらの区域のエッジデータは、物品の位置および方向を識別せねば ならない物品エッジマトリックスに、既知位置の物品エッジマトリックスを適合 させる場合、無視されるからである。 マスクの寸法は、また物品を含む画像内の複数位置の限界を画定することがで き、これら限界は物品の画像を含むことができよう。例えば、マスクが、256 ×240画素の画像内で50×50画素であるとすれば、画像内に物品全体が所 在する場合には、中央の206×190画素内の位置のみがマスクの中央になり 得る。 カラー画像を用いる場合、エッジマトリックスは、好ましく各色彩ごとに発生 せしめられ、その場合、3つのエッジマトリックスを組合わせて、1つのXまた はYエッジマトリックスを形成するのが好ましい。この組合わせは、3つのエッ ジマトリックスの絶対値を合計(かつ合計値を3で除)するか、3つの中のエッ ジマトリックスの最大値を選択するか、平均値を計算するか、エッジマトリック スの対応要素の平方の合計の平方根を得るかのいずれかによって、可能になる。 また、例えば前記方法の1つにより、3色のうちの2色を考慮に入れることも可 能である。カラー画像の利用により、画像から、より多くのエッジ情報を引き出 すことを条件として、テンプレートへの適合が改善される。例えば、色彩間のイ ンタフェースでのエッジ画像は、そのインタフェースが類似輝度を有する表面間 であっても、識別できる。カラー画像を利用ことにより、カメラのコストが高く なり、3組の画像を利用するのに要するデータ処理量が増加するが、適用が難し いため、追加出費に十分な理由が認められる場合は、カラー画像の利用が好まし い。 本発明の方法の信頼性は、ステレオ画像化の利用により改善できる。本発明に よるステレオ画像化は、多数のカメラを用いるか、またはカメラを置き換えて多 数の角度から画像を捉えるかして可能になる。ステレオ画像化用の画像を捉える には、3個のカメラをL字形に配置するのが好都合である。ステレオ画像化は、 双方の画像内の小区域を整合させ、2つの画像内の区域整合位置間の不一致、ま たは方向の相違に基づくその区域までの奥行きを、3角測量することにより得ら れる。 比較される区域が、小さいか、または画像を比較される2個のカメラの間の基 線の方向にテクスチュアを有する場合は、いくつかの箇所で別の画像を容易に整 合させることができるが、正しい整合はそれらの箇所のうち1つだけである。し たがって、2個だけのカメラの使用は、好ましくない。画像の全部が適切なテク スチュアを有するわけではないので、画像全体に対して造られる奥行きマップは まばらであり、また不完全である。2つの基線を用いることによって、他の場合 に得られるよりは、まばらでない奥行きマップが得られる。したがって、3個の カメラ、または3カ所からの画像を用いるのが好ましい。3つの画像を用いても 、マップは比較的まばらだが、本発明の目的には適当である。 本発明の実施にあたり、ステレオ画像が、探索を要する画像から地表近くのエ ッジを削除するのに利用できる。地上の影と泥のはね返りは、それにより除去さ れるため、誤った整合が減少する。 本発明の一実施例では、2次元画像とテンプレートとの間の整合が得られた後 、ステレオ画像化が利用でき、このステレオ画像化は、最終的な整合により、物 品の3次元画像が合致することを検証するために使用される。ステレオ画像化に よるこの検証は、2つの利点を有している。第1は、付加的なチェックがなされ ることで、誤った整合が生じない保証が得られることである。第2は、検証によ り誤った整合が防止されるため、初期探索で求められる整合水準を低くできるこ とである。したがって、最終適合の信頼性を、適合が見いだされる機会が増大す るとともに、増大させることができる。 例えば0から10までの、いくつかの画素が不同(不等)の場合、2乗された 不同(不等)画像Sは、次式により造出できる: Sx,y=(Cx,y−Xx-d,y2 この式において、Cは中央の画素、Xはd画素により置換された画像である。S は、その場合、次の核で濾過でき、Fが得られる: 不同マップDは、その場合、各画素ごとに、どの不同が、その画素での最低値を 備えたF画像を有するかを見出すことで造出される。その画素でのDの値は、そ の場合、不同数を当てがわれる。 その場合、以下の核がC画像に適用されることで、妥当性の確認マップVが得 られる: この確認マップVは、構成可能のパラメータに基づいて閾値化でき、不同マップ D用の確認マスクとして使用でき、部分的な奥行きマップが得られる。 Y変位位置から得られた画像は、また同じ方法によって、前述したX変位カメ ラと考えることができ、前述した合成核のすべてにおいて、X軸とY軸とが逆に なる。いまや最終奥行きマップの各画素に対し、不同値が決定され、それにより 、確認マップが最高値を有することになる。X確認マップが最高値を有する場合 、X不同マップ値は、その画素に用いられる。確認マップ値もテクスチュア閾値 を超えない場合、最終奥行きマップには、0値が当てがわれる。これは、奥行き 情報がその画素では利用不可能であることを示すものである。 テンプレートとの2次元の整合が得られた後、物品の位置の妥当性の確認に、 ステレオ画像化を利用するのが望ましい場合、その確認は、画像を、移動した位 置から得られた画像と比較するよりは、既知の物品形状に基づいて、移動した位 置からの画像が示すであろう形状を予測することによって行うことができる。4 つの象限は、例えば各エッジのためのターゲット平面間の異なる距離により(パ ララックスの不同により)予想位置が相違するため、別個に相関しているのが好 ましい。この相関は、未処理画像の正規化された相関、例えばXおよびX'を用 いて次式により行うことができる: 妥当な象限のそれぞれからのこの相関の幾何的平均に基づき、最終整合は妥当と されるか、拒絶されることが可能である。 物品の画像は、例えば隣接画素の平均化によって縮小できる。したがって、初 期位置および方向の推定値を求めるため、修正テンプレートを物品エッジマトリ ックスと比較するための少数の画素を含む画像が造られる。例えば、256×2 40画素のマトリックスは、2つの連続的な平均化と2段抽出との操作により6 0×60画素のマトリックスに縮小できる。縮小されたマトリックスは、より迅 速に比較でき、その場合、縮小されたマトリックスの適合は、より大きいマトリ ックスに対する適合を求める場合の開始点として利用できる。概して、より高い 解像度で比較される必要があるのは、縮小されたマトリックスの最良の適合結果 に平均化された画素のうちの少数の画素(1〜3)の内部の位置だけである。 マトリックスの縮小により、テンプレートエッジマトリックスと物品エッジマ トリックスとの比較に要する計算時間を有意に短縮できる。勧められるのは2つ の縮小であり、これらはそれぞれ、1つの線形縮小ごとに2つである。したがっ て、考慮に入れるべき情報量は、各縮小により4倍縮小される。縮小を組合わせ ることにより、情報量は16倍縮小される。さらにテンプレートを用意せねばな らないパラメータのそれぞれは、より低い解像度となり、その結果、旋回テンプ レートの組は、より少数となり、物品エッジマトリックスの視界内の位置は、よ り少数となる。縮小されたマトリックス内の初期探索は、したがって、物品エッ ジマトリックスが原水準で探索される場合より、2桁または3けた短い時間で実 施可能である。 画像により探索されるべき物品が既知である場合、その物品のテンプレートは 、好ましくは、マスクを有する2エッジマトリックスとして、1つのデータベー スから選択できる。テンプレートは、その場合、複数の方向の物品を表すように 修正できる。方向設定により、物品の2次元画像は、カメラの視界の軸線のまわ り に旋回され、物品の斜めの眺めへと旋回し、かつ/またはカメラからの距離の変 化を表すように尺度化される。例えば2度から3度へ旋回の増加は、十分な数の 方向を得るのに利用され、そのうちの1つの方向が、特定方向の物品に対し明ら かに最上の適合を有することになる。 例えば、頭上のカメラで自動燃料補給システムの区画内での車両の位置を確認 する等の用途の場合、予想される方向を予知でき(大半の運転者は比較的直線的 である)、また実際の方向が、予想した方向から一定の変化範囲(例えばプラス マイナス20度)を超えないことが予知できる。したがって、修正テンプレート エッジマトリックスは、限られた数だけ造りさえすればよい。しかし、車両の種 類や型式が確認された後にこれらの修正テンプレートを造出することによって、 テンプレートマトリックスの記憶に要するコンピュータ記憶量がかなり減少する 。 ビデオカメラの2次元視界の平面に対し実質的に直角の軸線を中心とするテン プレートマトリックスの旋回(つまり、新しい方向への画像の「転換」)は、周 知の方法により、容易に達成できる。この転換は、好ましくは、画素の原マトリ ックス内の箇所(ポイント)を計算することによって行うのが好ましい。転換さ れたマトリックス内の各画素は、変換されたマトリックスからの画素の中心を取 囲む原マトリックスの4画素が、変換されたマトリックスの画素のための値を補 間するのに利用され得るように、位置することになろう。また、これらの補間を 行う方法は周知である。 テンプレートは、また、カメラから異なる間隔で位置する物品を表すように尺 度化された画像で造出できよう。この尺度化は、カメラの視界の中心点からの寸 法を、カメラからの距離に逆比例するように変化させることで達せられる。この 尺度化は、好ましくは、有効ピンホールからの距離に基づいて行われる。この場 合、有効ピンホールとは、カメラにより透視図が形成されるさい利用される点と 定義される。この有効ピンホールは、したがって、カメラのレンズの僅かに背方 に位置することになろう。 より難しい問題は、物品または輪郭を含む平面に対し直角の平面とはかなり異 なる角度で見た場合に、既知の物品または輪郭の位置と方向とを識別することで ある。例えば、燃料補給設備上に配置されたカメラは、ガソリンノズルのカバー リッドの平面に対し直角方向を向いたカメラを用いてカバーリッドを観察するこ とが許されない位置から、カバーリッドの位置を突き止める必要があるかもしれ ない。長方形のカバーリッドは、したがってカメラからは長方形には見えない。 長方形形状の歪みは、カメラの視界の中心線(光軸として知られる)に対するカ バーリッドの角度と相対位置とに依存するだろう。 幾何的な歪みは、画像の物品が平面的な画像によって推定できるならば、光軸 に対し直角でない画像から除去することができる。物品の平面的な画像の垂線か らの光軸の角度が既知の場合(すなわち画像で物品を探索する場合)、幾何的な 歪みは除去でき、探索されるべき画像内の物品の垂直の眺めへの転換を表す画像 が得られる。同じように、光軸がテンプレート平面に対し直角でない場合に、テ ンプレートが造出されるさい、幾何的歪みは、前記転換によってテンプレートか ら除去できる。光軸に対して直角の平面からの角度が、探索されるべき画像にと って未知の場合、その角度は、別の探索パラメータとなり得る。 垂直の眺めへのそのような転換は、カメラの視界の限界内にターゲットが残る と仮定すれば、該転換が光軸と物品をほぼ含む平面の法線との間の特定の角度の ための転換であることによって、カメラと平面との間の変位とは無関係に、簡単 化される。 本発明の実施に当たっての好ましい転換方法では、物品画像マトリックスから の画素を、転換された画像内に配置するよりは、転換されたマトリックスから画 素の位置を得て、物品画像マトリックス内でその画素の位置を計算することにな ろう。補間は、その場合、逆転換されたマトリックスの画素の位置を取囲む物品 画像マトリックスの4つの画素値を用いて行われ、転換された画像内の画素の値 が決定される。物品の法平面が画像のX軸に対し直角である場合、次の方程式に より、物品画像上の転換画像から画素の位置を得ることができる: および この式において、 a=sin(θ) (12) b=cos(θ) (13) であり、 ρxはPoに対する実際の物品画像平面x位置の比、 ρyはPoに対する実際の物品画像平面y位置の比、 Poは有効ピンホールから実際の物品までの直角の距離、 P'oは変換画像平面から有効ピンホール間での距離、 Pzcは実際の画像内での、カメラ位置に対する変換画像のカメラの鉛直変位、 σyは変換画像内のy座標の値、 σxは変換画像内のw座標の値、 θはカメラに対する法平面の下向きピッチ角である。 最大約50度のθの場合、次の比を用いて、原画像の大部分を変換画像に適合 させることができる: および この式において、Py1は、原画像の鉛直高さの2分の1である。 修正テンプレートは、旋回とカメラからの距離変化とにより造出できるが、そ うした複数の旋回と変化の結果、過剰の数の修正テンプレートが生じる。したが って、探索は、本発明の実際においては、可能な旋回、尺度化、角度を有する視 認のうち1変数について行うのが好ましい。 カメラの視界と直角の平面内での旋回に対する物品の方向が、既知の方向を有 する物品の方向の約20度以内と予想される場合には、テンプレートのXおよび Yエッジ画像は、修正テンプレートエッジ画像と物品エッジ画像とを比較する前 に修正エッジテンプレート画像を形成するために個別に簡単に旋回させることが できる。約20度以上の旋回が可能な場合は、新しい組のエッジ画像を、原エッ ジ画像の組合わせに基づいて造出するのが好ましい。XおよびYのエッジ画像値 は、共に、角度(逆正接(Y/X))と大きさ((X2+Y2)1/2)とを有するエッ ジベクトルを表している。この角度は、テンプレートと計算された新たなXおよ びYの要素との旋回角度だけ旋回できる。通常、XおよびYの要素の絶対値のみ が記憶され、したがって、第1または第3象限のエッジベクトルは、第2または 第4象限のエッジベクトルとは区別されねばならない。第3および第4象限のエ ッジベクトルは、それぞれ第1および第2象限の負のベクトルと考えることがで きよう。したがって、ベクトルの単に2つの象限だけを識別すればよい。エッジ ベクトルの象限は、原テンプレート画像から発生せしめられる単一の付加的なバ イナリテンプレート(binary template)として確認できる。該バイナリテンプレ ートは、その時点でのエッジの大きさのベクトルがエッジ、すなわち第1または 第3象限に、もしくは第2または第4象限に、方向ベクトルが存在するエッジを 表すかどうかを示す画素を有している。このテンプレートは、テンプレート画像 から自動的に発生させることができる。その操作に必要な記憶スペースは極めて 僅かであり、かつその操作を、旋回動作の間に利用して、XおよびYのエッジマ グニチュード重量(edge magnitude weight)を、それらの正確な本来の割合に、 極めて僅かの追加計算費用で調節できる。これにより、なんらかの旋回量だけエ ッジマトリックスを旋回させることが、完全に妥当となる。 次の方程式は、修正テンプレートエッジマトリックスと物品エッジマトリック スとの間の相違を定量化する目的に好都合なものである。なぜなら、市販の画像 処理カードが、迅速な比較の発生に利用可能だからである: この式において、Xは、画像マトリックスの一部に対しテストする方向へ旋回さ せられたi×j画素のXテンプレートエッジマトリックス、 Yは、画像マトリックスの一部に対しテストする方向へ旋回させられたi×j 画素のYテンプレートエッジマトリックス、 X'は、X画像エッジベクトルマトリックスの座標x,yの位置に配置されたi ×j画素の画像Xエッジマトリックスの一部、 Y'は、Y画像エッジベクトルマトリックスの座標x,yの位置に配置されたi ×j画素の画像Yエッジマトリックスの一部、 ρ(x,y)は、点(x,y)に対し正規化されたグレースケールエッジの相関 である。 グレースケールエッジの相関は、ゼロと1との間の数であり、1が完全整合で ある。グレースケールの相関は、物品エッジマトリックス内の各xとyに対し行 われ、その場合、全修正テンプレートエッジマトリックスが物品エッジマトリッ クス内に適合できる。結果として得られるグレースケールの相関は、アプローチ ユニティ(approach unity)に最も近いものが、最も精密に適合する。変数問の補 間は、ノイズ閾値を超える線形計量(linear weithing)または平方計量(squared weighing)を用いて達せられる。それらの変数は、例えば旋回角度またはxおよ びyの位置でよい。 これらのグレースケールエッジマトリックスを発生させる計算部分は、GPB -1補助アラインカード(AlignCard)を用いて迅速に作成できる。 「注意不要」区域は、また修正テンプレートエッジマトリックスのi×jの寸 法のマトリックスの境界内に含まれ得る。「注意不要」と確認されたテンプレー ト内の画素は、方程式(9)による加算では使用しないのが好ましい。 グレースケールエッジマトリックスの相関は、対象物のテンプレートとテスト 画像の相対変位には極めて敏感であるため、双方の比較に先立って、平滑化操作 を行うことができる。既述のマトリックスの縮小で平滑化効果が得られはするが 、更に平滑化操作が可能になる。この平滑化操作は、それぞれに対して相関の計 算前に、しかし、現探索水準に対する副標本抽出後に行うことができる。好まし い平滑化操作は、次の合成核により与えられるガウス近似値である: この平滑化が適用される場合、好ましくは、物品のエッジマトリックスと修正テ ンプレートエッジマトリックスの双方に適用される。 本発明の方法の好ましい一用途は自動式燃料補給方法であり、該方法は、19 95年6月5日に提出された米国特許出願第08/461276号、第08/4 61280号、第08/461281号に開示されており、本明細書で参照され ている。 以上に説明した実施例は、例として示したものであり、本発明の範囲を決定す るには、以下の請求の範囲を参照されたい。

Claims (1)

  1. 【特許請求の範囲】 1. 表面上に置かれた物品の位置と方向とを識別する方法において、該方法 が次の段階、すなわち、 複数位置からの眺めを表す複数画像をともなうカメラに対する既知の方向およ び位置を有する物品を介して、物品の複数画像を得る段階と、 物品の複数画像のそれぞれからXおよびYのテンプレートエッジマトリックス を造出する段階と、 複数のXテンプレートエッジマトリックスから、3次元のXエッジマトリック スを造出する段階と、 複数のYテンプレートエッジマトリックスから、3次元のYエッジマトリック スを造出する段階と、 複数組の修正3次元テンプレートエッジマトリックスの各組が、異なる方向の 物品を含むXおよびY3次元テンプレートエッジマトリックスである複数組の修 正3次元テンプレートエッジマトリックスを造出する段階と、 複数位置からの眺めを表す複数画像をともなうカメラに対する未知の方向およ び位置を有する物品を介して、物品の複数画像を得る段階と、 未知の方向および位置にある物品の複数画像のそれぞれから、XおよびYのエ ッジマトリックスを造出する段階と、 未知の方向および位置にある物品により、複数のXエッジマトリックスから3 次元のXエッジマトリックスを造出する段階と、 未知の方向および位置にある物品により、複数のYエッジマトリックスから3 次元のYエッジマトリックスを造出する段階と、 複数組の修正3次元テンプレートエッジマトリックスのそれぞれの組と、3次 元XおよびYエッジマトリックスとの間の差を、3次元エッジマトリックスの境 界内の複数位置に配置された修正3次元テンプレートエッジマトリックスを用い て定量化する段階と、 物品の位置および方向を、修正3次元テンプレートエッジマトリックスと3次 元XおよびYエッジマトリックスとの差の定量化された最小値を用いて、3次元 テンプレートエッジマトリックス組によって表される物品の位置および方向とし て識別する段階とを含む、物品の位置および方向を識別する方法。 2. 修正3次元XおよびYテンプレートエッジマトリックスと3次元Xおよ びYエッジマトリックスとの差を、未知の方向および位置にある物品により定量 化する前に、表面に存在する3次元XおよびY物品エッジマトリックスの複数部 分が削除される、請求項1に記載された方法。 3. 既知および未知の位置および方向にある物品の3つの画像が捕捉される 請求項1に記載された方法。 4. 更に次の段階、すなわち、 修正テンプレートエッジマトリックスと3次元XおよびYエッジマトリックス とを、隣接画素の平均化によって平滑化し、副標本を抽出して画素数を減らすこ とでマトリックスを縮小する段階と、 縮小修正テンプレートエッジマトリックスのそれぞれと、縮小された物品エッ ジマトリックスとの差を、物品エッジマトリックスの境界内の複数位置に配置さ れた縮小修正テンプレートエッジマトリックスにより定量化する段階と、 複数組の修正テンプレートエッジマトリックスの各組と、3次元XおよびYエ ッジマトリックスとの差を、複数の縮小マトリックス間の差が最小の方向および 位置に近い位置に対してのみ、複数の位置に配置された修正テンプレートエッジ マトリックスにより、定量化する段階とを含む、請求項1に記載された方法。 5. エッジマトリックスが、次の演算子を画像に適用することによって得ら れ、それによりそれぞれ水平および垂直のエッジマトリックスが得られる、請求 項1に記載された方法: および 6. 複数の修正3次元テンプレートエッジマトリックスが、光軸に対する法 線と異なる角度を表すように転換されたテンプレートエッジマトリックスにより 造出される、請求項1に記載された方法。 7. 物品の輪郭外側の修正3次元テンプレートエッジマトリックスの複数部 分が、修正テンプレートエッジマトリックスと物品エッジマトリックスとのそれ ぞれの間の差を定量化するする場合に、無視される、請求項1に記載された方法 。 8. 複数の位置が、3次元エッジマトリックス内で隣接する各組の画素であ り、該3次元エッジマトリックス内に、修正3次元テンプレートエッジマトリッ クスが適合することになる、請求項1に記載された方法。 9. 複数の位置に対し、縮小修正3次元テンプレートエッジマトリックスと 、縮小3次元エッジマトリックスとのそれぞれの間の差が定量化され、該複数の 位置が、縮小修正テンプレートエッジマトリックス内に隣接する各組の画素を含 む、請求項4に記載された方法。 10. エッジマトリックスを得るさい、水平エッジマトリックスを得るには 、画像に次の最小値、すなわち および を、また垂直エッジマトリックスを得るには、画像に次の最小値、すなわち および を適用する、請求項1に記載された方法。 11. 物品、それも表面上に置かれた物品の位置を識別する方法において、 該方法が次の段階、すなわち 物品の複数2次元画像を、既知の位置および方向の物品を介して得る段階と、 既知位置の物品の2次元画像から、物品の2次元画像からのエッジマトリック スを造出する段階と、 既知位置の物品の3次元表現を、2次元エッジマトリックスのうちの少なくと も2つを用いて造出する段階と、 位置および方向を検出されるべき物品の複数画像を得る段階と、 未知の位置にある物品の3次元表現を、2次元エッジマトリックスのうちの少 なくとも2つを用いて造出する段階と、 既知の位置および方向の物品の2次元画像のうちの少なくとも1つを、未知の 位置および方向の物品の画像のうちの少なくとも1つと照合する段階と、 その照合にもとづいて、物品の位置および方向を推定する段階と、 推定された位置および方向で配置された、既知の位置および方向の物品の3次 元表現が、未知の位置および方向の物品の3次元表現と整合するかどうかを検出 することによって、物品の位置および方向を検証する段階とを含む、物品の位置 を識別する方法。 12. 表面のデータまたは表面近くのデータが、物品の位置および方向の検 証時に無視される、請求項11に記載された方法。
JP10548215A 1997-05-05 1998-04-30 視認の方法 Pending JP2000517452A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US4564097P 1997-05-05 1997-05-05
US60/045,640 1997-05-05
PCT/US1998/008761 WO1998050878A1 (en) 1997-05-05 1998-04-30 Visual recognition method

Publications (1)

Publication Number Publication Date
JP2000517452A true JP2000517452A (ja) 2000-12-26

Family

ID=21939086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10548215A Pending JP2000517452A (ja) 1997-05-05 1998-04-30 視認の方法

Country Status (6)

Country Link
US (1) US6094501A (ja)
EP (1) EP0910833A1 (ja)
JP (1) JP2000517452A (ja)
AU (1) AU7171698A (ja)
CA (1) CA2259411A1 (ja)
WO (1) WO1998050878A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010022674A1 (en) * 1998-09-23 2001-09-20 Xerox Corporation Electronic image registration for a scanner
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US6766058B1 (en) * 1999-08-04 2004-07-20 Electro Scientific Industries Pattern recognition using multiple templates
US6807286B1 (en) * 2000-04-13 2004-10-19 Microsoft Corporation Object recognition using binary image quantization and hough kernels
US7738706B2 (en) * 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
JP4199939B2 (ja) * 2001-04-27 2008-12-24 株式会社日立製作所 半導体検査システム
US6730926B2 (en) 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
US7274820B2 (en) * 2001-09-26 2007-09-25 Kabushiki Kaisha Toshiba Pattern evaluation system, pattern evaluation method and program
US6705726B2 (en) * 2002-02-20 2004-03-16 Nidek Co., Ltd. Instrument for eye examination and method
US20030157464A1 (en) * 2002-02-20 2003-08-21 Cesare Tanassi Instrument for eye examination and method
US9684675B2 (en) * 2002-09-30 2017-06-20 Adobe Systems Incorporated Reduction of search ambiguity with multiple media references
DE10323915A1 (de) * 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US20050058350A1 (en) * 2003-09-15 2005-03-17 Lockheed Martin Corporation System and method for object identification
JP2005196678A (ja) * 2004-01-09 2005-07-21 Neucore Technol Inc テンプレートマッチング方法および対象画像領域抽出装置
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
GB2431717A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US7606424B2 (en) * 2006-02-13 2009-10-20 3M Innovative Properties Company Combined forward and reverse correlation
US7831089B2 (en) * 2006-08-24 2010-11-09 Microsoft Corporation Modeling and texturing digital surface models in a mapping application
US8903430B2 (en) * 2008-02-21 2014-12-02 Microsoft Corporation Location based object tracking
US7999506B1 (en) 2008-04-09 2011-08-16 SeventhDigit Corporation System to automatically recharge vehicles with batteries
TWI384408B (zh) * 2009-04-30 2013-02-01 Ind Tech Res Inst 影像辨識以及輸出方法與其系統
US9529426B2 (en) 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
KR20140095838A (ko) * 2013-01-25 2014-08-04 한국전자통신연구원 3차원 정보 복원 장치 및 방법
WO2014196374A1 (ja) * 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
CN107798651B (zh) * 2017-09-29 2021-04-20 惠州华阳通用电子有限公司 一种提高图像填充效率的方法及装置
CN111368785B (zh) * 2020-03-17 2023-08-25 广东智媒云图科技股份有限公司 一种摄像头遮挡判断方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3527268A (en) * 1967-07-26 1970-09-08 Standard Oil Co Device for automatically filling vehicle tanks with motor fuel
EP0341985B1 (en) * 1988-05-09 1995-07-05 Honda Giken Kogyo Kabushiki Kaisha Picture processing device
US5131053A (en) * 1988-08-10 1992-07-14 Caere Corporation Optical character recognition method and apparatus
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
US5381155A (en) * 1993-12-08 1995-01-10 Gerber; Eliot S. Vehicle speeding detection and identification
US5459636A (en) * 1994-01-14 1995-10-17 Hughes Aircraft Company Position and orientation estimation neural network system and method
DE19506328C2 (de) * 1994-12-20 1997-06-12 Matsushita Electric Works Ltd Verfahren zur Erkennung der Position und Lage eines Objekts im dreidimensionalen Raum
JPH11506847A (ja) * 1995-06-05 1999-06-15 シェル・オイル・カンパニー 視覚的識別方法
US5609190A (en) * 1995-06-05 1997-03-11 Shell Oil Company Automated refueling system
US5634503A (en) * 1995-06-05 1997-06-03 Shell Oil Company Automated refuelling system
US5628351A (en) * 1995-06-05 1997-05-13 Shell Oil Company Method for automated refuelling
JP3054682B2 (ja) * 1995-07-19 2000-06-19 工業技術院長 画像処理方法
JP3054681B2 (ja) * 1995-07-19 2000-06-19 工業技術院長 画像処理方法
US5675661A (en) * 1995-10-12 1997-10-07 Northrop Grumman Corporation Aircraft docking system
US5809171A (en) * 1996-01-05 1998-09-15 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template

Also Published As

Publication number Publication date
US6094501A (en) 2000-07-25
AU7171698A (en) 1998-11-27
WO1998050878A1 (en) 1998-11-12
CA2259411A1 (en) 1998-11-12
EP0910833A1 (en) 1999-04-28

Similar Documents

Publication Publication Date Title
JP2000517452A (ja) 視認の方法
JP4865557B2 (ja) 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
US8212812B2 (en) Active shape model for vehicle modeling and re-identification
Drost et al. 3d object detection and localization using multimodal point pair features
JP2919284B2 (ja) 物体認識方法
KR960042482A (ko) 물체 관측 방법 및 그 방법을 이용한 물체 관측 장치와, 이 장치를 이용한 교통 흐름 계측 장치 및 주차장 관측 장치
WO2006016663A1 (ja) 物体検出装置
CN101147159A (zh) 利用统计模板匹配进行对象检测的快速方法
Stevens et al. Precise matching of 3-D target models to multisensor data
CN110619674B (zh) 用于事故和警情场景还原的三维增强现实设备及方法
JP4946878B2 (ja) 画像識別装置及びプログラム
JP2002133413A (ja) 画像処理を用いる3次元物体の識別方法および装置
IL123566A (en) Detection of prominent contours in a pair of stereoscopic figures
JP3516118B2 (ja) 物体認識方法および物体認識装置
JP3503543B2 (ja) 道路構造認識方法、距離測定方法及び距離測定装置
GB2344205A (en) Vehicle identification
JP4874836B2 (ja) 画像検索方法及び画像検索システム
EP0834151B1 (en) Object recognition method
JPH1055446A (ja) 物体認識装置
CN112669360B (zh) 一种基于非封闭多维轮廓特征序列的多源图像配准方法
JP4200165B2 (ja) ステレオカメラによるオブジェクトの分類のための方法
Corneliu et al. Real-time pedestrian classification exploiting 2D and 3D information
CN112489240B (zh) 一种商品陈列巡检方法、巡检机器人以及存储介质
Forsyth et al. Integrating geometric and photometric information for image retrieval
JP2000207557A (ja) 位置ずれ量計測方法