JPH08136220A - 物品の位置検出方法およびその装置 - Google Patents

物品の位置検出方法およびその装置

Info

Publication number
JPH08136220A
JPH08136220A JP6279281A JP27928194A JPH08136220A JP H08136220 A JPH08136220 A JP H08136220A JP 6279281 A JP6279281 A JP 6279281A JP 27928194 A JP27928194 A JP 27928194A JP H08136220 A JPH08136220 A JP H08136220A
Authority
JP
Japan
Prior art keywords
image
dimensional
article
model
dimensional appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6279281A
Other languages
English (en)
Other versions
JP3738456B2 (ja
Inventor
Masafumi Yamamoto
雅史 山本
Masanori Kobayashi
正典 小林
Atsushi Kutami
篤 久田見
Hiroyuki Yoshida
博行 吉田
Hiroyuki Takahashi
弘行 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP27928194A priority Critical patent/JP3738456B2/ja
Publication of JPH08136220A publication Critical patent/JPH08136220A/ja
Application granted granted Critical
Publication of JP3738456B2 publication Critical patent/JP3738456B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 対象物品が変わっても共通のアルゴリズムで
対応できる、ステレオ視法による物品の位置検出装置を
提供する。 【構成】 2台のカメラから構成された撮像装置1によ
り対象物品のステレオ画像を撮像し、撮像された画像か
ら特徴抽出装置2を用いて線分・円弧等の特徴部を抽出
し、これら特徴部と物品の2次元見え方モデル上の特徴
部とを2次元見え方モデルマッチング装置3を用いてマ
ッチングさせることにより、ステレオ視法における左右
画像間の対応付けを行ない、該対応付けの結果を用い
て、3次元位置計測装置4が各特徴部の3次元位置を計
測し、これら3次元位置を計測した特徴部と3次元構造
モデルとを3次元構造モデルマッチング装置5によりマ
ッチングさせることにより、物品の3次元位置を算出す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、第1および第2の撮像
手段を用いて、物品をステレオ視することにより物品の
3次元位置を検出する物品の位置検出方法およびその装
置に関し、特に、物品の2次元見え方モデルを介して2
つの撮像画面の特徴部の対応付けを行なう物品の位置検
出方法およびその装置に関する。
【0002】
【従来の技術】例えば自動車組立て工場における作業の
自動化のためには部品のハンドリングが非常に重要な問
題である。特に、組立て領域の自動化において必要とさ
れているようなロボットによる多機能で正確な自動ハン
ドリングを実現するためには、多種類の部品の3次元位
置を計測する技術が必要となる。
【0003】一般に知られている物品の位置検出方法
は、所定の平面上に置かれた計測対象物品の2次元位置
を画像により計測するもの(特開平1−305303号
公報参照)や、対象物品に認識用のマーカを設置し、こ
のマーカを計測することにより対象物品の3次元位置を
計測するもの(特開平3−281130号公報参照)、
あるいはスリット光により物品の高さを検出するもの
(特開昭62−32582号公報参照)である。
【0004】また、対象物品の3次元位置を画像で計測
する方法として、2台のCCDカメラを用いるステレオ
視法が知られている。
【0005】
【発明が解決しようとする課題】従来の画像による計測
装置は、個々の物品専用に開発されているため、汎用性
がなく、多種類の物品に対応させようとすると、すべて
の物品についてアルゴリズムを開発しなければならず、
開発・投資効率が悪くなる。
【0006】また、ステレオ視法には、撮像装置が簡単
で、高い計測精度が得られる特長がある一方で、左右画
像間で特徴部の対応付けに問題がある。とくに、多種類
物品の3次元位置をステレオ視法を用いて計測する場合
には、下記のような問題がある。
【0007】すなわち、左右画像間で特徴部を対応付け
する際に、物品の構造的情報を用いずに行なおうとする
と、処理に長い時間を要する。そこで従来の手法では、
対象物品の構造的情報をアルゴリズムに組み込むことに
より対応付けを行なっているが、この場合、同じアルゴ
リズムを用いて他の物品の対応付けを行なうことはでき
ないから、多種類物品に対応できる3次元計測装置に
は、従来の手法を適用することは不可能である。
【0008】本発明は、上記問題点を解決するためにな
されたもので、対象物品が変わっても共通のアルゴリズ
ムで対応できるステレオ視法による物品の位置検出方法
およびその装置を提供することを目的とする。
【0009】
【課題を解決するための手段】本発明による物品の位置
検出方法は、請求項1に記載されているように、第1お
よび第2の撮像手段を用いたステレオ視により物品を撮
像した1対の画像から上記物品の3次元位置を検出する
方法であって、上記物品の2次元上の特徴部を有する2
次元見え方モデルを設定し、上記1対の画像のそれぞれ
から抽出した特徴部を、上記2次元見え方モデルを介し
て対応付けを行なうことを特徴とする。
【0010】その場合に、本発明による物品の位置検出
方法では、請求項2に記載されているように、上記1対
の画像からそれぞれ抽出した特徴部と上記2次元見え方
モデル上の特徴部とをそれぞれマッチングさせることに
より、上記1対の画像間の対応付けを行なって、各特徴
部の3次元位置を計測し、かつ上記物品の3次元構造モ
デルを設定して、上記3次元位置が計測された上記画像
上の特徴部と上記3次元構造モデル上の特徴部とをマッ
チングさせることにより、上記物品の3次元位置を算出
することができる。
【0011】また、請求項3に記載されているように、
上記物品の設計データを用いて上記3次元構造モデルを
設定し、該3次元構造モデルを変換することにより、上
記2次元見え方モデルを設定することができる。
【0012】本発明による物品の位置検出方法の1つの
態様によれば、請求項4に記載されているように、上記
画像から抽出した特徴点と上記2次元見え方モデル上の
特徴点とを用いて、上記画像データと上記2次元見え方
モデルとをマッチングさせている。
【0013】上記特徴点によるマッチングを行なう場合
には、請求項5ないし7に記載されているように、上記
物品上に見える穴の中心、多角形の頂点、あるいは、穴
の中心と多角形の頂点との双方を特徴点として用いるこ
とができる。
【0014】また、上記特徴点によるマッチングを行な
う場合には、請求項8に記載されているように、上記画
像上および上記2次元見え方モデル上の双方において、
多数の特徴点の中から第1候補点と第2候補点とを任意
に選定するとともに、該第1候補点と第2候補点とを通
る基準線をそれぞれ設定し、該基準線と、上記第1およ
び第2候補点を除く他のすべての特徴点と上記第1候補
点とをそれぞれ結ぶ直線とのなす角度の計測に基づい
て、上記画像上の特徴点と上記2次元見え方モデル上の
特徴点とをマッチングさせる方法を採用することができ
る。
【0015】さらに、上記特徴点による対応付けを行な
う場合には、請求項9に記載されているように、上記画
像上および上記2次元見え方モデル上の双方において、
多数の特徴点の中から第1候補点と第2候補点とを任意
に選定するとともに、該第1候補点と第2候補点とを通
る基準線をそれぞれ設定し、双方の第1候補点が互いに
一致するように両基準線を重ね合わせる態様で、上記画
像と上記2次元見え方モデルとを重ね合わせ、かつ双方
の第2候補点が互いに一致するように、上記画像と上記
2次元見え方モデルとのスケール合わせを行なうことに
より、上記画像上の特徴点と上記2次元見え方モデル上
の特徴点とをマッチングさせる方法を採用することがで
きる。
【0016】その場合に、請求項10に記載されている
ように、上記重ね合わせおよびスケール合わせのなされ
た後の上記画像上の上記第1および第2候補点を除く特
徴点と、これにそれぞれ対応する上記2次元見え方モデ
ル上の特徴点との間の距離の計測に基づいて、上記画像
上の特徴点と上記2次元見え方モデル上の特徴点とをマ
ッチングさせることができる。
【0017】さらに、上記物品に見える多角形の頂点を
特徴点に選定する場合、請求項11に記載されているよ
うに、上記多角形の頂点における内角の2等分線ベクト
ルと内角度とに基づいて、上記画像上の特徴点と上記2
次元見え方モデル上の特徴点とをマッチングさせること
ができる。
【0018】その場合に、請求項12に記載されている
ように、上記2次元見え方モデル上の上記多角形の任意
の頂点を原点候補点として選定し、上記画像上の上記多
角形の頂点のうちから第1候補点を選定し、該第1候補
点が上記原点候補点に重なり合い、かつ双方の内角の2
等分線ベクトルが重なり合うように上記2次元見え方モ
デルを上記画像上に重ね合わせ、次いで、上記画像およ
び上記2次元見え方モデルの上記第1候補点および上記
原点候補点を除く他の頂点から第2候補点をそれぞれ選
定し、双方の第2候補点が互いに一致するようにスケー
ル合わせを行なうことにより、上記画像上の各頂点と上
記2次元見え方モデル上の各頂点とをマッチングさせる
ことができる。
【0019】本発明による物品の位置検出方法の他の態
様によれば、請求項13に記載されているように、上記
画像から抽出した線分と上記2次元見え方モデル上の線
分とを用いて、上記画像と上記2次元見え方モデルとを
マッチングさせることができる。
【0020】その場合に、請求項14に記載されている
ように、上記線分によって形成される多角形の各辺の長
さと方向に対応する複数のベクトルを作成し、該複数の
ベクトルから任意に選定した基準ベクトルに対する他の
ベクトルのなす角度およびスケール情報に基づいて、上
記画像データと上記2次元見え方モデルとをマッチング
させることができる。
【0021】あるいは、請求項15に記載されているよ
うに、上記2次元見え方モデル上の複数の線分から代表
線分を選定し、かつ上記画像上の複数の線分から候補線
分を選定して、両線分間の角度誤差を求め、該角度誤差
に基づき上記2次元見え方モデル上の全ての線分の角度
を補正し、次いで上記画像の上の全ての線分が所定の基
準線に対してなす角度について、該角度の近傍角度に対
して当該線分の長さにより重み付けられた角度誤差評価
値を与える評価値曲線を設定し、上記2次元見え方モデ
ル上の全ての線分の上記基準線に対する角度の評価値を
上記評価値曲線に基づいて算出し、該算出された評価値
に基づいて、上記画像データと上記2次元見え方モデル
とをマッチングさせることもできる。
【0022】本発明による物品の位置検出装置は、請求
項16に記載されているように、ステレオ視法により物
品を撮像する第1および第2の撮像手段と、上記ステレ
オ視法により撮像された1対の画像から特徴部をそれぞ
れ抽出する特徴抽出手段と、上記1対の画像からそれぞ
れ抽出された特徴部と上記物品の2次元見え方モデルの
特徴部とをそれぞれマッチングさせることにより、上記
1対の画像間の対応付けを行なう2次元見え方モデルマ
ッチング手段と、該2次元見え方モデルマッチング手段
による対応付け結果を用いて、上記画像上の各特徴部の
3次元位置を計測する3次元位置計測手段と、上記3次
元位置が計測された上記画像上の特徴部と上記物品の3
次元構造モデルとをマッチングさせることにより、上記
物品の3次元位置を算出する3次元構造モデルマッチン
グ手段とを備えていることを特徴とする。
【0023】さらに、本発明による物品の位置検出装置
は、請求項17に記載されているように、上記物品の設
計データを用いて上記3次元構造モデルを設定し、かつ
該3次元構造モデルを変換することにより、上記2次元
見え方モデルを設定するモデル生成手段を備えることが
できる。
【0024】上記2次元見え方モデルマッチング手段
は、請求項18に記載されているように、上記2次元見
え方モデルと、相対的配置算出部と、対応付け部と、デ
ータ統合部とによって構成することができる。
【0025】
【作用および発明の効果】請求項1の発明によれば、ス
テレオ視法によって物品を撮像した1対の画像にの特徴
部に対して、上記物品の2次元上の特徴部を有する「2
次元見え方モデル」を用いて対応付けを行なっているこ
とにより、左画像と右画像とを「2次元見え方モデル」
を介して対応付けることができ、ステレオ視法における
左右画像間の対応付けが可能になる。
【0026】また、計測対象物品が変わっても、アルゴ
リズムを変更することなく、その物品に応じた2次元見
え方モデルを用意するだけでステレオ視の対応付けがで
きるから、多種類の物品の3次元位置の検出に適用でき
る利点がある。
【0027】請求項2の発明によれば、3次元位置が計
測された上記画像上の特徴部と上記3次元構造モデル上
の特徴部とをマッチングさせることにより、上記物品の
3次元位置を算出しているから、該物品の3次元位置の
検出が容易になる。
【0028】また、請求項3の発明によれば、上記物品
の設計データを用いて、「2次元見え方モデル」と「3
次元構造モデル」とを生成してマッチングを行なってい
るから、高速な処理が可能になる。
【0029】請求項4ないし8の発明によれば、穴を有
する物品や、輪郭が直線で構成されている物品に関し
て、物品の画像データと2次元見え方モデルとのマッチ
ングを行ない、対象物の画像中での位置および回転角度
を求めることができる。
【0030】また、特徴点の角度のみに注目した場合、
候補点を通る同一直線状の点を区別してマッチングさせ
ることは不可能であるが、請求項9の発明のように、ス
ケール合わせを行なうことにより、物品の画像データと
2次元見え方モデルとのマッチング確度が高くなり、さ
らに請求項10の発明のように、距離情報を用いること
により、適用範囲が広がり、マッチング確度をより高め
ることができる。
【0031】請求項11の発明によれば、多角形の頂点
の内角情報を利用するため、多角形の頂点の位置情報の
みを用いる場合に比較して組合わせ可能な数を大幅に削
減することができ、処理の高速化が達成できる。その場
合にも、請求項12の発明のように、スケール合わせを
行なうことにより、確実性が向上する。
【0032】請求項13の発明によれば、線分で構成さ
れるモデルと計測画像から検出した線分とを比較し、最
適なマッチングを判定することにより、モデルと計測画
像との高速で確実なマッチングを行なうことができる。
【0033】その場合に、請求項14の発明によれば、
多角形をマッチングの対象とし、見え方モデルおよび画
像の特徴として各辺の線分の長さと方向とを表すベクト
ルを用いることにより、回転対称性のないモデルに関し
て、回転移動量と線分の対応とを同時に検出できるとと
もに、請求項8の発明ような点集合のマッチング手法を
用いて線分のマッチングを容易に行なうことができる。
また、回転の中心が固定されているので、マッチング評
価の回数が少なくて済む利点がある。
【0034】また、請求項15の発明のように、画像上
の全ての線分が所定の基準線に対してなす角度につい
て、該角度の近傍角度に対して当該線分の長さにより重
み付けられた角度誤差評価値を与える評価値曲線を設定
し、上記2次元見え方モデル上の全ての線分の上記基準
線に対する角度の評価値を上記評価値曲線に基づいて算
出し、該算出された評価値に基づいて、上記画像データ
と上記2次元見え方モデルとをマッチングさせているこ
とにより、マッチングのための角度パラメータ、位置補
正パラメータおよびスケールパラメータの決定を高速か
つ高精度をもって行なうことができる。すなわち、線分
に関する少ない情報でマッチング判定を行なうことがで
きるため、高速処理が可能である。
【0035】本発明による物品の位置検出装置は、請求
項16に記載されているように、ステレオ視法により撮
影された画像からそれぞれ抽出された特徴部と上記物品
の2次元見え方モデルの特徴部とをそれぞれマッチング
させることにより、上記1対の画像間の対応付けを行な
う2次元見え方モデルマッチング手段と、該2次元見え
方モデルマッチング手段による対応付け結果を用いて、
上記画像上の各特徴部の3次元位置を計測する3次元位
置計測手段と、上記3次元位置が計測された上記画像上
の特徴部と上記物品の3次元構造モデルとをマッチング
させることにより、上記物品の3次元位置を算出する3
次元構造モデルマッチング手段とを備えていることによ
り、ステレオ視法における左右画像間の対応付けが可能
になり、また、計測対象物品が変わっても、アルゴリズ
ムを変更することなく、その物品に応じた2次元見え方
モデルを用意するだけでステレオ視の対応付けができる
から、多種類の物品の3次元位置の検出が容易になる。
【0036】また、請求項17に記載されているよう
に、上記構成に加え、上記物品の設計データを用いて、
「2次元見え方モデル」と「3次元構造モデル」とを生
成するモデル生成手段を備えている場合、高速な処理が
可能になる。
【0037】さらに、本発明による物品の位置検出装置
の2次元見え方モデルマッチング手段置が、請求項18
に記載されているように、2次元見え方モデルと、相対
的配置算出部と、対応付け部と、データ統合部とによっ
て構成されている場合、上記1対の画像間の対応付けを
極めて容易に行なうことができる。
【0038】
【実施例】以下、本発明の実施例について図面に基づい
て説明する。
【0039】(装置の全体構成)図1は、本発明による
物品の位置検出装置の全体構成図である。この物品の位
置検出装置は、対象部品のステレオ画像を撮像する2台
のCCDカメラから構成された撮像装置1と、この撮像
装置1により撮像された画像に対して前処理(微分、2
値化、ノイズ除去、細線化、ラベル付け)を施すととも
に、前処理された画像から、線分、円弧あるいは点等の
特徴部を抽出する特徴抽出装置2と、画像から抽出され
た線分、円弧あるいは点等の特徴部と該特徴部に対応す
る2次元見え方モデル上の特徴部とをマッチングさせる
ことにより、ステレオ視法における左右画像間の対応付
けを行なう2次元見え方モデルマッチング装置3と、こ
の対応付けの結果を用いて各特徴部の3次元位置を計測
する3次元位置計測装置4と、3次元位置が計測された
特徴部と3次元構造モデルとをマッチングさせることに
より、物品の3次元位置を算出し、物品の把持位置をロ
ボット制御装置6に出力する3次元構造モデルマッチン
グ装置5と、物品の設計データとセンサデータとより、
物品の3次元構造モデルと2次元見え方モデルとを生成
するモデル生成装置7とによって構成されている。
【0040】(処理の流れ)図2に、処理の流れを表す
フローチャートを示す。
【0041】A.オンライン処理 (1) 画像入力 2台のCCDカメラから左右の原画像を入力する。
【0042】(2) 特徴抽出 入力された左右の原画像を前処理(微分、2値化、ノイ
ズ除去、細線化、ラベル付け)し、前処理された画像か
ら線分、円弧あるいは点等の特徴部を抽出する。
【0043】(3) 2次元見え方モデルマッチング 画像から抽出された線分、円弧あるいは点等の特徴部
と、オフラインで生成された2次元見え方モデルの特徴
部とをマッチングさせる。2次元見え方モデルは、線分
と円弧とで記述されており、各線分および円弧にはそれ
ぞれ識別番号が付されている(図3参照)。また、特徴
抽出装置2によって抽出された線分、円弧等の特徴部に
もそれぞれ識別番号が付されている。2次元見え方モデ
ルマッチング装置3では、左(右)画像のどの特徴部が
2次元見え方モデルのどの特徴部とマッチングするかを
求める。その結果として、下記の表1に示すような対応
付け結果を出力する。すなわち、2次元見え方モデル上
の線分S12に対して左画像の線分Ls2が対応し、右
画像の線分Rs8が対応するから、左画像の線分Ls2
と右画像の線分Rs8が対応することになる。このよう
にして、2次元見え方モデルを介して左右画像間の特徴
部の対応付けがなされている。
【0044】
【表1】
【0045】(4) 特徴部の3次元位置の計測 左右画像間で対応付けがなされた特徴部について、ステ
レオ視法により3次元位置を計測する(図4参照)。
【0046】(5) 3次元構造モデルマッチング 3次元位置が計測された特徴部に3次元構造モデルを当
てはめることにより部品の3次元位置を求め、ハンドリ
ングのための部品の把持位置を出力する。
【0047】B.オフライン処理 (6) モデル生成 モデル生成装置7において、3次元構造モデルと2次元
見え方モデルとがオフラインで生成される。3次元構造
モデルは、部品の設計データを用いて生成され、線分と
円弧とで記述されている。2次元見え方モデルは、既知
であるセンサデータ(カメラパラメータ)を用いて3次
元構造モデルを変換させることにより生成され、線分と
円弧とで記述されている。
【0048】(2次元見え方モデルマッチング装置3の
構成)図5は、2次元見え方モデルマッチング装置3の
基本的構成図である。
【0049】1つの物品に対して種々の方向から見た2
次元見え方モデルが用意されているが、カメラに対する
物品の置かれ方が予め特定されていることにより、物品
の見え方も特定されており、これに対応した見え方を表
す2次元見え方モデル31がオフラインで用意される。
相対配置算出部32L,32Rは、画像データ座標系と
見え方モデル座標系との間の回転・平行移動量およびス
ケール係数を算出する。対応付け部33L,33Rは、
算出された回転・平行移動量およびスケール係数を用い
て、画像より抽出された線分、円弧あるいは点等の特徴
部と2次元見え方モデル31における線分、円弧あるい
は点等の特徴部とを対応付ける。データ統合部34は、
左右画像の各対応付け結果を統合して、左右画像データ
間の対応付け結果を出力する。
【0050】(2次元見え方モデルマッチング装置3に
おける処理の流れ)図6に、処理の流れを表すフローチ
ャートを示す。
【0051】(1) 左画像から抽出された線分、円弧等の
特徴部の画像中での位置を読み込み、(2) 2次元見え方
モデルデータを読み込み、(3) 相対配置算出部32Lに
おいて、画像座標系とモデル座標系との回転・移動およ
びスケールを算出し、(4) 左画像中の特徴部とモデルに
記述されている特徴部とを対応付け、(5) 右画像につい
て、上記処理(1) 〜(4) を同様に行ない、(6) 左画像の
特徴部と右画像の特徴部とを対応付け、(7) 対応付け結
果を出力する。
【0052】(3次元構造モデルマッチング装置5の構
成)3次元構造モデルマッチング装置5では、計測され
た画像の特徴部の3次元座標値から、把持のための部品
の位置姿勢データを算出する。このため、画像の特徴部
の計測データを移動回転させ、対応する3次元構造モデ
ルに合わせる。
【0053】3次元構造モデルの座標系(O−X,Y,
Z)は図7に示すように定義する。すなわち、座標系原
点Oは把持中心に、X軸は把持軸(ロボットハンド座標
系のXh 軸)に沿うように、Z軸はロボットハンドの進
入方向(ロボットハンド座標系のZh 軸)に沿うように
定義する。このように定義することにより、計測データ
をモデルに合わせる手順を逆方向にたどることで、把持
の位置姿勢を合わせることができる。
【0054】(3次元構造モデルマッチング装置5にお
ける処理の流れ)3次元構造モデルマッチング装置3の
処理の手順を図8に示す。
【0055】(1) 3次元構造モデルにおいて、3点以上
の特徴点(円弧中心または多角形の頂点)を含む平面を
選び、これを基準平面とする。
【0056】(2) 上記基準平面に含まれる特徴点に対し
て、これら特徴点に対応する画像上の特徴点の3次元座
標値に基づいて、これら画像上の特徴点を平面を最小二
乗法を適用することにより算出する。
【0057】(3) モデルの基準平面と上記(2) の平面の
それぞれの法線ベクトルを一致させることにより、計測
データ座標系のZ軸を3次元構造モデルの座標系のZ軸
に合わせる。
【0058】(4) 2次元見え方モデルマッチングの特徴
点の対応付け(後述)と同様な手法に基づいて、基準平
面に沿った平行移動量とZ軸まわりの回転量とを決定す
る。ただし、2次元見え方モデルマッチングで既に特徴
点の対応が判明しているので、本ステップでは対応点の
探索を行なう必要はない。
【0059】(5) 以上の処理により物品の3次元位置を
算出することができ、計測データを3次元構造モデルに
合わせる上記手順を逆方向にたどることで、ロボットハ
ンドの位置姿勢を物品位置姿勢に合わせることができ
る。
【0060】(3次元位置計測装置4)図9に示すよう
に、左カメラの座標系(OL −XL ,YL ,ZL )を定
義する。ただし、原点OL は左カメラの焦点にあり、x
軸は水平右向き、y軸は垂直上向き、z軸はカメラの視
線方向とする。同様に、右カメラの座標系(OR
R,YR ,ZR )を定義する。左カメラ座標系と右カ
メラ座標系の間の回転行列をR、平行移動ベクトルをh
とすると、同座標系の関係式は式(1)で表すことがで
きる。
【0061】
【数1】
【0062】特徴点(円弧中心または線分の端点)の3
次元位置(XC ,YC ,ZC )は左カメラ座標系を用い
て表す。左画像の特徴点をcL 、右画像の特徴点をcR
とし、点cL の座標を(cxL,cyL,fL )(左カメラ
座標系)、点cR の座標を(cxR,cyR,fR )(右カ
メラ座標系)とする。ここで、fL ,fR はそれぞれ左
カメラ、右カメラの焦点距離を表す。
【0063】特徴点の3次元位置は、左カメラで特徴点
を見たときの視線と、右カメラで特徴点を見たときの視
線との交点である。原点oL と特徴点cL とを通る直線
の方程式は式(2)となる。
【0064】
【数2】
【0065】また、原点原点oR と特徴点cR とを通る
直線の方程式は式(3)となる。
【0066】
【数3】
【0067】式(3)を左カメラ座標系に変換すると、
式(3)′となる。
【0068】
【数4】
【0069】したがって、円弧の3次元位置は式(2)
と式(3)′の連立方程式を解くことによって式(4)
のようになる。
【0070】
【数5】
【0071】(2次元見え方モデルマッチング装置3の
実施例の説明)次に2次元見え方モデルマッチング装置
3の実施例について説明する。これら実施例は、図5に
示す相対配置算出部32L,32Rにおける処理手法の
差異に応じて下記のように分類される。
【0072】(1) 点によるマッチング (1-1) 任意の点と原点とを結ぶ線のなす角を求め、所定
の評価式を用いて算出した評価値が最小となったとき対
応がついたものとするもの (1-2) 任意の点と原点とを結ぶ線のなす角を用いて、回
転角とスケールとを求めるもの (2) 内角2等分線ベクトルによるマッチング (2-1) 各頂点の内角2等分線ベクトルを求め、第1、第
2候補点による一致度評価によりマッチングを行なうも
の (3) 線分によるマッチング (3-1) モデル各辺に角度情報と長さ情報とを持たせたベ
クトルを設け、撮像画像データの各辺にも上記ベクトル
を設けた後、両ベクトル群の中心を一致させるとともに
スケールを合わせ、回転角とスケール情報とを求めるも
の (3-2) モデルに評価線分を設定し、基準点合わせ処理
(2線の交点合わせ)とスケール合わせ処理(モデルと
画像との一致)とによりマッチングを行なうもの。
【0073】実施例1(点によるマッチング(1-1) ) 本実施例は、画像より抽出された特徴点と、2次元見え
方モデルに記述されている特徴点とを用いて、画像デー
タと見え方モデルとのマッチングをとるようにしたもの
である。画像中の特徴点とモデルの特徴点との対応付け
は、原点を通るように適当に選んだ基準線と、任意の点
と原点とを結ぶ直線とがなす角度を比較することにより
行なう。特徴点の生成の方法は、(1) 穴の中心を用い
る、(2) 多角形の頂点を用いる、(3) 円の中心と多角形
の頂点とを用いる、等があるが、本実施例では特徴点と
して、穴の中心を用いる。
【0074】図10は、本実施例の装置の概略構成図、
図11はその機能ブロック図、図12は処理の流れを表
すフローチャートをそれぞれ示す。
【0075】画像より抽出された特徴点を{Ii :i=
1,2,…,m}、モデルに記述された特徴点を
{Mj :j=1,2,…,n}とする。
【0076】処理(0) :図10に示すように、画像から
穴の中心を抽出する「円中心抽出装置」を本装置に接続
することにより、特徴点の位置を本装置に入力する。ま
た、穴の中心位置情報を有するモデルをオフラインで用
意する。
【0077】処理(1) :特徴点Ii の中から任意の1点
を選び、画像データの第1候補点IC1とする。また、特
徴点Mj の中から任意の1点を選び、モデルの第1候補
点MC1とする。
【0078】処理(2) :第1候補点IC1を除く(m−
1)個の画像中の点の中から任意の1点を選び、第2候
補点IC2とし、第1候補点IC1と第2候補点IC2とを結
ぶ直線を基準線LI とする。同様に、第1候補点MC1
除く(n−1)個のモデルの点の中から任意の1点を選
び、第2候補点MC2とし、第1候補点MC1と第2候補点
C2とを結ぶ直線を基準線LM とする(図13参照)。
【0079】処理(3) :点IC1と点MC1、点IC2と点M
C2とがそれぞれ対応すると仮定し、残りの点{Ik :k
=1,2,…,m−2}と{Mh :h=1,2,…,n
−2}との対応付けを以下の処理(4) 〜(5) で行なう。
【0080】処理(4) :残りの画像中の点{Ik :k=
1,2,…,m−2}について、点Ik と第1候補点I
C1とを結ぶ直線と基準線LI とのなす角度を求め、{θ
k :k=1,2,…,m−2}とする。同様に、残りの
モデルの点{Mh :h=1,2,…,n−2}につい
て、点Mh と第1候補点MC1とを結ぶ直線と基準線LM
とのなす角度を求め、{φh :h=1,2,…,n−
2}とする(図14参照)。
【0081】処理(5) :{φh :h=1,2,…,n−
2}の中からθ1 に最も近い値φθ1を探し、I1 とM
θ1とが対応するものとする。以下同様にして、Ik
対応するMh を見つけ出す。例えば、図15の場合、φ
θ1=φ2 ,φθ2=φ3 ,φθ3=φ5 であるので、点
1 と点M2 、点I2 と点M3 、点I3 と点M5 がそれ
ぞれ対応する。
【0082】処理(6) :下記に示す評価式を用いて評価
値を計算する。
【0083】
【数6】
【0084】図12の場合、Et =|θ1 −φ2 |+|
θ2 −φ3 |+|θ3 −φ5 |となる。
【0085】処理(7) :IC1,IC2,MC1,MC2の選び
方のすべての組み合わせについて(m(m-1)n(n-1)通
り)、上記処理(1) 〜(6) を行ない、評価値Et を計算
する。
【0086】処理(8) :評価値Et が最小になったとき
が最適なIi とMj の対応であると判断し、このときの
回転・平行移動のパラメータを出力する。画面座標系に
おける基準線LI の傾きαI 、モデル座標系における基
準線LM の傾きをαM とし、また、最適な対応結果を得
るときの第1候補点の位置ベクトルをTI ,TM とする
と、回転・平行移動のパラメータはそれぞれα=αI
αM ,T=TI −TMとなる。
【0087】実施例2(点によるマッチング(1-1) ) 輪郭が直線で構成されている物体の場合、物体の輪郭は
多角形となる。この多角形の頂点を抽出すれば、特徴点
として利用できる。この場合の装置の概略構成図および
機能ブロック図は、それぞれ図16および図17に示す
ようになる。ここで、図16、図17は、実施例1にお
ける図10、図11にそれぞれ対応する。そして、処理
(0) は次のようになる。
【0088】処理(0) :画像から線分特徴を抽出する
「線分抽出装置」を本装置に接続することにより、線分
の位置を本装置に入力する。入力された線分の位置から
多角形を抽出し、多角形の頂点を求める。また、多角形
の頂点情報を有するモデルをオフラインで用意する。
【0089】そして、多角形の頂点を特徴点として、実
施例1における処理 (1)〜(8) と同様の処理を実行す
る。
【0090】実施例3(点によるマッチング(1-1) ) 特徴点として、穴の中心と多角形の頂点との双方を利用
する。この場合、実施例1の処理(5) において穴の中心
と多角形の頂点とが対応付けられないように、穴の中心
と頂点とを区別して処理を行なう。画像より抽出された
穴の中心と角度を{Ici :i=1,2,…,m},
{θci :i=1,2,…,m}、頂点と角度を{Iν
j :j=1,2,…,n},{θνj :j=1,2,
…,n}、モデルに記述されている穴の中心と角度を
{Mck :k=1,2,…,p},{φck :k=1,
2,…,p}、頂点と角度を{Mνh :h=1,2,
…,q},{φνh :h=1,2,…,q}とする。θ
i とφck とを用いてIci とMck との対応付けを
行ない、θνj とφνh とを用いてIνj とMνh との
対応付けを行なう。評価式は下記のようになる。
【0091】
【数7】
【0092】以上の第1〜第3実施例によれば、穴を有
する物品や、輪郭が直線で構成されている物品に関し
て、物品の画像データと2次元見え方モデルとのマッチ
ングを行ない、対象物の画像中での位置および回転角度
を求めることができる。
【0093】また、左画像データと見え方モデルとのマ
ッチング、および右画像データと見え方モデルとのマッ
チングを行なうことにより、見え方モデルを仲介して左
画像と右画像とを対応付けることができる。
【0094】実施例4(点によるマッチング(1-2) ) 本実施例は、上述の実施例1〜3で用いた角度情報に加
えて、スケール合わせを行なって距離情報を用いること
で、適用範囲を広げ、さらにマッチングの確度を高めた
ものである。
【0095】すなわち、特徴点の角度のみに注目した場
合、候補点を通る同一直線状の点を区別してマッチング
させることは不可能であるが、本実施例のように、スケ
ール合わせを行なって距離情報を用いることにより、適
用範囲が広がり、さらにマッチング確度が高くなる。
【0096】図18は、本実施例の機能ブロック図、図
19は処理の流れを表すフローチャートをそれぞれ示
す。
【0097】画像より抽出された特徴点を{Ii :i=
1,2,…,m}、モデルに記述された特徴点を
{Mj :j=1,2,…,n}とする。特徴点として、
例えば穴の中心を用いる。
【0098】処理(0) :実施例1の図10と同様に、画
像から穴の中心を抽出する「円中心抽出装置」を本装置
に接続することにより、特徴点の位置を入力する。ま
た、穴の中心位置情報を有するモデルをオフラインで準
備する。
【0099】処理(1) :特徴点Ii の中から任意の1点
を選び、画像データの第1候補点IC1とする。また、特
徴点Mj の中から任意の1点を選び、モデルの第1候補
点MC1とする。
【0100】処理(2) :第1候補点IC1を除く(m−
1)個の画像中の点の中から任意の1点を選び、第2候
補点IC2とし、第1候補点IC1と第2候補点IC2とを結
ぶ直線を基準線LI とする。同様に、第1候補点MC1
除く(n−1)個のモデルの点の中から任意の1点を選
び、第2候補点MC2とし、第1候補点MC1と第2候補点
C2とを結ぶ直線を基準線LM とする(図20参照)。
【0101】処理(3) :点IC1とMC1とが一致するよう
にモデルを平行移動させる。このときの移動ベクトルを
Tとする(図21参照)。
【0102】処理(4) :基準線LI とLM とが一致する
ように、点MC1(IC1)を中心にモデルを回転させる。
このときの回転角をθとする(図22参照)。
【0103】処理(5) :点IC2とMC2とが一致するよう
に、点MC1(IC1)を中心にモデルを拡大・縮小する。
このときのスケールをSとする(図23参照)。
【0104】処理(6) :点IC1と点MC1、点IC2と点M
C2とが対応すると仮定し、残りの点{Ik :k=1,
2,…,m−2}および{Mh :h=1,2,…,n−
2}について以下の処理 (7)〜(8) を実行する。
【0105】処理(7) :点Ik に距離が最も近いモデル
の点Mh を見つけ、2点間の距離d=d(Ik )を記憶
する。
【0106】処理(8) :全ての点Ik にについて距離d
(Ik )が求まれば、評価値Et を下記に示す評価式を
用いてを計算し記憶する。
【0107】
【数8】
【0108】処理(9) :点IC1,IC2,MC1、MC2の選
び方のすべての組み合わせについて(m(m-1)n(n-1)通
り)、上記の処理 (1)〜(8) を行ない、評価値Eを計算
する。 処理(10):評価値Eが最小となったときの点Ik とMh
が最適の対応であるとし、このときの回転角度θ、移動
ベクトルT、スケールSのパラメータと、画像データ点
k とモデル点Mh の対応付けとを出力する。
【0109】実施例5(内角2等分線方向ベクトルによ
るモデルマッチング(2-1) ) 計測画像とモデルデータとの比較により対象物品の2次
元位置を決定する場合、一般に行なわれているように、
モデルデータをイメージ画像として持つ場合には2次元
のパターンマッチングが必要になり、計算コストが増大
する。そこで、2次元のモデルデータを直線や円弧で構
成し、計測画像から得られた直線や円弧とのマッチング
により対象物品の2次元位置を推定できれば、高速なモ
デルマッチングが可能となるが、特徴の選択とマッチン
グ判断とを適切に行なわなければ誤マッチングが発生す
る可能性がある。
【0110】本実施例では、線分で構成されるモデル
が、2つの直線の交点情報として内角の2等分線方向ベ
クトルと内角度に関する情報を有し(図27参照)、ま
た、計測画像から同様の情報を生成し、これらを比較す
ることにより、高速かつ確実なマッチングを行なうもの
である。
【0111】図24は本実施例の全体構成図、図25お
よび図26は処理のフローチャートをそれぞれ示す。
【0112】本実施例では、図24から明らかなよう
に、対象物品の計測入力画像に対する画像処理により線
分検出を行ない、その線分の交点情報をを求めている。
また、対象物品と比較するために、モデルデータベース
を備えており、このモデルデータと計測画像の交点情報
との比較を行なって、最終的に対象物品の確度、位置お
よびスケール情報を得るものである。
【0113】次に、図25および図26のフローチャー
トに基づいて、本実施例の全体処理を説明する。
【0114】処理(1) :先ず、モデルデータとしては、
直線の各交点M1 〜M5 について、その位置座標と2直
線の内角2等分線の方向ベクトルと内角の角度値とを情
報として準備しておく(図27参照)。
【0115】対象物品の計測画像については、例えば単
色階調画像のエッジ抽出処理と線分セグメント抽出処理
等により、画像から線分抽出を行なう。一般に計測画像
から検出される線分は端点まで検出されずに短めの線分
として抽出されるため、検出された線分については延長
処理を行ない、その結果について交点を求めることがで
きる。この交点については、モデルと同様に、その位置
座標と2直線の内角2等分線の方向ベクトルと内角の角
度値とを決定することができる(図28参照)。
【0116】処理(2) :次に、これらモデルと計測画像
から得られた交点のマッチングを行なう。
【0117】先ず、図25のフローチャートに示すよう
に、モデルから原点候補点Mn(例えばM1 )を1点選
択し、これに適合する計測画像の候補点In(例えばI
1 )を選定する。この選定には内角度情報を用い、予め
設定した一定角度誤差以内で同じ内角度を有する点を原
点用の第1候補点として選定する。
【0118】処理(3) :次に、モデルの原点候補点M1
と計測画像の原点候補点I1 との位置誤差を補正するた
めの平行移動量Tqを求める。さらに、内角の2等分線
の方向ベクトル情報を用いて、2点の内角方向が一致す
るような回転移動量Rqを求める(図29参照)。
【0119】処理(4) :得られた変換量Tq,Rqを用
いて、モデルの全交点を平行移動および回転移動させ
る。この変換により、モデルの原点候補点M1 は計測画
像の原点候補点I1 に位置と方向を一致させることがで
きる。その他の点について角度の補正とスケーリングの
補正とを行うために第2候補点を選択する。
【0120】第2候補点はモデル点のうち原点以外の点
で、計測画像の中である一定位置誤差以内に位置し、内
角度がある一定角度誤差以内の点、例えばM2 ,I2
選択する(図30参照)。
【0121】処理(5) :このようにして決定したモデル
と計測画像の第2候補点M2 ,Iと原点候補点
,I1 とを用いて、2点同士の位置が一致するよ
うな平行移動、回転移動、拡大縮小の各係数を求め、再
度全モデル点に対してこの変換を行なう。
【0122】処理(6) :変換されたモデルの各点と計測
画像の各点とを比較して一致度を計算し、一致度評価得
点を求める。このとき、点の一致判定には、点位置の誤
差と併せて内角2等分線の方向ベクトルの方向誤差を用
いることにより確実な一致判定ができる。一致度評価得
点には一致点の個数と位置誤差の累積量とを用いること
ができる。
【0123】以上の処理により、選択された第1候補点
(原点候補点)と第2候補点とによる一致度評価得点が
得られる。この処理を全ての、第1候補点と第2候補点
の組み合わせについて実行し、最も一致度評価得点の高
い組み合わせを選べば、最適なマッチングを行なうこと
ができる。
【0124】これらの処理のうち、第1候補点と第2候
補点の選定については、点の内角情報を利用するため、
点の位置情報のみで選定する場合に比較して組合わせ可
能な数を大幅に削減することができ、処理の高速化と確
実性の向上とを達成できる。なお、対象物品が長方形で
構成されている場合には、隣接しない対角の内角2等分
線は互いに向きが逆になっている。また、一般的にある
特徴的な角度関係を持った複数の点を特徴点として前も
ってモデル情報に含ませることは容易である。これら複
数の点の内角情報の特徴を用いれば、前述の第1候補点
(原点候補点)と第2候補点の選定を1点ずつ全ての組
合わせを判定する必要がなくなる(図31参照)。
【0125】例えば、長方形を有するモデルの場合に特
徴点として対角上の2点を選ぶと、計測画像から互いに
反対方向の内角2等分線の方向ベクトルを有する2点の
組合わせについてのみを評価対象として選択すれば良
い。同様に、三角形の3頂点を特徴点として選べば、計
測画像の各点の角度情報から、モデルと同じ角度構成を
有する3点の組を選択し、その組についてのみ一致評価
を実行すれば良い。そして、これらの処理は点の位置情
報が不要であるため、角度のリストから処理を行なうこ
とができ、処理の簡単化、高速化が可能である。
【0126】実施例6(線分によるモデルマッチング(3
-1) ) 本実施例は、多角形をマッチングの対象とし、見え方モ
デルおよび画像の特徴として各辺の線分の長さと方向と
を用いる。各線分の長さと方向とをベクトルで表し、ベ
クトルの始点を合わせた図形を、モデルと画像双方で構
成する。これらを、ベクトルの始点を中心にして、ベク
トル終点の点集合のマッチングで回転とスケール合わせ
とを行なう。最後に、対応付けられたいずれかの線分を
基準に平行移動することで、線分特徴のマッチングを行
なう。
【0127】マッチングに用いるベクトルとして、図3
2(a)に示すように、多角形の線分集合に対して、各
線分に垂直で多角形の外に向かう、線分の長さに比例し
たベクトルを設定し、始点を合わせる。あるいは、図3
2(b)に示すように、一定方向回りに(例えば左回り
に)、各辺の方向をとってベクトルとし、始点を合わせ
る。
【0128】モデルと計測画像の双方で、同じように特
徴を抽出し、これを中心を含めて点集合マッチングを行
なうことにより、前述の第1実施例の図15に示した手
法と同様の手法で回転角情報を求めて、式(5)に示す
評価式を用いて評価値を計算する。これによって、各辺
の対応と回転角とが検出できるので、対応付けされたい
ずれかの辺で平行移動することで、モデルを計測画像に
合わせるための、平行移動情報および回転移動情報を得
ることができる。そして評価値が最小となった最適な線
分の対応についてスケール情報を求める。したがって、
本実施例で用いる評価式は下記の式に示すようになる。
【0129】
【数9】
【0130】なお、上記評価式において、w1 ,w2
定数、gθk,gφθk は、基準線に対してそれぞれ角
度θk,φθkをなす線分の長さである。
【0131】本実施例によれば、回転対称性のないモデ
ルに関して、回転移動量と線分の対応とを同時に検出で
きるとともに、点集合のマッチング手法(図15参照)
を用いて線分のマッチングを容易に行なうことができ
る。また、回転の中心が固定されているので、マッチン
グ評価の回数が少なくて済む利点がある。
【0132】実施例7(線分によるモデルマッチング(3
-2) ) 本実施例では、線分で構成されるモデルと計測画像から
検出した線分とを比較し、最適なマッチングを判定する
ことにより、モデルと計測画像との高速で確実なマッチ
ングを行なうものである。
【0133】図33に全体構成図を示し、対象物品の計
測入力画像に対して画像処理により線分検出を行ない、
線分で構成されたモデルデータと計測画像の線分情報と
の比較により回転角度を決定し、次いで位置とスケール
を決定し、最終的に対象物品の角度情報、位置情報およ
びスケール情報を得るものである。
【0134】線分情報の比較により、マッチングの角度
情報、位置情報およびスケール情報を得る処理のフロー
チャートを図34および図35に示す。
【0135】本実施例では、2次元見え方モデル上の複
数の線分から代表線分を選定し、かつ上記画像の上の複
数の線分から候補線分を選定して、両線分間の角度誤差
を求め、該角度誤差に基づき上記2次元見え方モデル上
の全ての線分の角度を補正し、次いで上記画像上の全て
の線分が所定の基準線に対してなす角度について、該角
度の近傍角度に対して当該線分の長さにより重み付けら
れた角度誤差評価値を与える評価値曲線を設定し、上記
2次元見え方モデル上の全ての線分の上記基準線に対す
る角度の評価値を上記評価値曲線に基づいて算出し、該
算出された評価値に基づいて、上記画像データと上記2
次元見え方モデルとをマッチングさせている。
【0136】処理(1) :先ず、線分で構成されたモデル
データを準備する。また、物品の計測画像については、
例えば単色階調画像のエッジ抽出処理と線分セグメント
抽出処理等により、画像から線分抽出を行なう(図36
参照)。
【0137】処理(2) :次に、これらモデルと計測画像
とから得られた線分の角度のマッチングを行なう。
【0138】先ず、図34のフローチャートに示すよう
に、モデルから代表線分Lmを1本選択する。これは、
最も特徴的な線分として、最も長い線分、もしくは最も
計測が確実な線分を選ぶ。次に計測画像からこれに適合
する線分Liを選定する。
【0139】処理(3) :モデル線分Lmと計測線分Li
との角度誤差Rq、すなわち、例えば図36ではモデル
線分Lm2 と計測線分Li2 との角度誤差を計算し、こ
の補正角度Rqに基づきモデルの全ての線分Lm1 〜L
5 の角度を補正する。
【0140】処理(4) :次に補正された2次元見え方モ
デル上の全ての線分Lm1 〜Lm5について、計測線分
Li1 〜Li5 の角度分布との一致度評価を行ない、評
価値の総和を線分Lmと線分Liとの角度補正により得
られた評価値とする(図37参照)。
【0141】この手法についてさらに詳細に説明する
と、図36に示す画像の上の全ての線分Li1 〜Li5
が所定の基準線、例えばX軸に対してなす角度θi1〜θ
i5を図37に示す所定の直交座標軸の横軸上にプロット
し、各プロット点からの当該線分Li1 〜Li5 の長さ
に応じた縦軸方向の高さをそれぞれ有する点Pi1〜Pi5
を求め、次いで各点Pi1〜Pi5をそれぞれ頂点とするガ
ウス分布(正規分布)曲線を作成する。そして、上記処
理(3) で角度補正された2次元見え方モデル上の各線分
Lm1 〜Lm5 の上記基準線(例えば図36のX軸)に
対してなす角度θm1〜θm5をガウス分布曲線上にプロッ
トして、各プロット点Pm1〜Pm5の横軸からの高さ
(「線分一致の確からしさ」を表している)をそれぞれ
求め、各プロット点Pm1〜Pm5の横軸からの高さの総和
を求める。
【0142】なお、図37の右端に示すように、2つの
線分Li1 とLi3 の角度θi1,θi3が近接しているこ
とにより、これら線分Li1 ,Li3 にそれぞれ対応す
る2つのガウス分布曲線が互いに交わっている場合は、
これら2つのガウス分布曲線の高さの和の値を高さとす
る新たな曲線kを作成し、線分Li1 ,Li3 にそれぞ
れ対応する2次元見え方モデル上の線分Lm1 ,Lm3
の角度θm1,θm3を上記曲線k上にプロットして、各プ
ロット点Pm1 ,Pm3 の横軸からの高さをそれぞれ求
める。
【0143】処理(5) :角度補正の評価作業を全ての線
分の組合わせに対して行ない、最も評価の高い角度Rq
をモデルと計測画像のとのマッチング角度として採用す
る。
【0144】処理(6) :次に平行移動とスケール係数S
qの決定を行なう。先ず、位置を決定するために角度と
同様にモデルの中で最も代表的な線分Lm1 ,Lm2
選定し、計測画像線分Li1 ,Li2 との位置補正量T
qを求め、2次元見え方モデルを平行移動させ、線分L
1 とLm2 との交点を線分Li1 とLi2 との交点に
一致させる。このように、2本の線分を用いることで、
不正確な端点情報を使用せずにエッジ方向誤差v1 ,v
2 のみを用いて、その合成ベクトルとしての位置補正量
Tqを求めることができる(図38参照)。
【0145】処理(7) :次にスケール係数を決定するた
めにモデルから線分Lm4 を選定し、計測画像の線分L
4 とのスケール係数Sqを求める。基準点として、線
分Lm1 とLm2 との交点を選ぶが、この点は線分Li
1 とLi2 との交点に等しいので、これを原点として線
分Lm4 とLi4 とを一致させる拡大縮小率Sqを決定
する。これも線分Lm4 とLi4 のエッジ方向移動量S
m,Siで決定できる(図39参照)。
【0146】Sq=|Sm|/|Si| 以上の処理のうち、Lm1 ,Lm2 ,Lm4 の各候補線
分は、最も特徴的な組合わせを1組か2組程度用意して
おけば十分である。また計測データの角度は補正済みで
あるため、計測データから選定する候補線分Li1 ,L
2 ,Li4 も角度情報を基準に選定することで候補の
絞り込みは容易に行える。
【0147】これらの処理により、マッチングのための
角度パラメータRq、位置補正パラメータTqおよびス
ケールパラメータSqの決定を高速かつ高精度をもって
行なうことができる。
【0148】すなわち、本実施例によれば、線分に関す
る少ない情報でマッチング判定を行なうため、イメージ
画像でのマッチングに比較して、高速処理が可能であ
る。また、計測画像からの線分抽出では一般に端点を正
確に検出することは困難であるが、本実施例では、角度
と併せて、最も計測精度が高い線分のエッジ方向(線分
に直交する方向)の位置を用いてマッチングを行うた
め、高精度の処理が可能になる。
【図面の簡単な説明】
【図1】本発明による物品の位置検出装置の全体構成図
【図2】同 処理の流れを表すフローチャート
【図3】 2次元見え方モデルの1例を示す説明図
【図4】3次元構造モデルマッチング手法の説明図
【図5】2次元見え方モデルマッチング装置の基本的構
成図
【図6】2次元見え方モデルマッチング装置における処
理の流れを表すフローチャート
【図7】3次元構造モデル座標系の説明図
【図8】3次元構造モデルマッチング装置における処理
の流れを表すフローチャート
【図9】左右のカメラ座標系に対する特徴点の3次元位
置の説明図
【図10】2次元見え方モデルマッチング装置の第1実
施例の概略構成図
【図11】同 機能ブロック図
【図12】同 処理の流れを表すフローチャート
【図13】同 基準線の作成手法の説明図
【図14】同 基準線に対する角度を求める手法の説明
【図15】同 角度によるマッチング手法の説明図
【図16】2次元見え方モデルマッチング装置の第2実
施例の概略構成図
【図17】同 機能ブロック図
【図18】2次元見え方モデルマッチング装置の第4実
施例の機能ブロック図
【図19】同 処理の流れを表すフローチャート
【図20】同 基準線の作成手法の説明図
【図21】同 モデルを平行移動させる手法の説明図
【図22】同 モデルを回転させる手法の説明図
【図23】同 モデルの拡大・縮小手法の説明図
【図24】2次元見え方モデルマッチング装置の第5実
施例の全体構成図
【図25】同 処理の流れを表すフローチャートの前半
部分
【図26】同 処理の流れを表すフローチャートの後半
部分
【図27】同 モデルデータの説明図
【図28】同 計測画像の説明図
【図29】同 第1候補点による平行移動・回転手法の
説明図
【図30】同 第2候補点によるマッチング手法の説明
【図31】長方形モデルの反対方向ベクトルを有する特
徴点の組を示す説明図
【図32】2次元見え方モデルマッチング装置の第6実
施例における多角形の線分集合に対するベクトルの設定
手法の説明図
【図33】2次元見え方モデルマッチング装置の第7実
施例の全体構成図
【図34】同 処理の流れを表すフローチャートの前半
部分
【図35】同 処理の流れを表すフローチャートの後半
部分
【図36】同 モデル線分および計測線分の説明図
【図37】同 角度分布評価手法の説明図
【図38】同 2等分線による位置補正手法の説明図
【図39】同 スケール補正手法の説明図
【符号の説明】
1 撮像装置 2 特徴抽出装置 3 2次元見え方モデルマッチング装置 4 3次元位置計測装置 5 3次元構造モデルマッチング装置 6 ロボット制御装置 7 モデル生成装置 31 2次元見え方モデル 32L,32R 相対配置算出部 33L,33R 対応付け部 34 データ統合部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉田 博行 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 (72)発明者 高橋 弘行 広島県安芸郡府中町新地3番1号 マツダ 株式会社内

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 第1および第2の撮像手段を用いたステ
    レオ視により物品を撮像した1対の画像から上記物品の
    3次元位置を検出する方法であって、上記物品の2次元
    上の特徴部を有する2次元見え方モデルを設定し、上記
    1対の画像のそれぞれから抽出した特徴部を、上記2次
    元見え方モデルを介して対応付けを行なうことを特徴と
    する物品の位置検出方法。
  2. 【請求項2】 上記1対の画像からそれぞれ抽出した特
    徴部と上記2次元見え方モデル上の特徴部とをそれぞれ
    マッチングさせることにより、上記1対の画像間の対応
    付けを行なって、各特徴部の3次元位置を計測し、かつ
    上記物品の3次元構造モデルを設定して、上記3次元位
    置が計測された上記画像上の特徴部と上記3次元構造モ
    デル上の特徴部とをマッチングさせることにより、上記
    物品の3次元位置を算出することを特徴とする請求項1
    に記載の物品の位置検出方法。
  3. 【請求項3】 上記物品の設計データを用いて上記3次
    元構造モデルを設定し、該3次元構造モデルを変換する
    ことにより、上記2次元見え方モデルを設定することを
    特徴とする請求項2に記載の物品の位置検出方法。
  4. 【請求項4】 上記特徴部が特徴点よりなり、上記画像
    から抽出した特徴点と上記2次元見え方モデル上の特徴
    点とをマッチングさせることを特徴とする請求項1ない
    し3の1つに記載の物品の位置検出方法。
  5. 【請求項5】 上記物品上に見える穴の中心を上記特徴
    点として選定することを特徴とする請求項4に記載の物
    品の位置検出方法。
  6. 【請求項6】 上記物品上に見える多角形の頂点を上記
    特徴点として選定することを特徴とする請求項4に記載
    の物品の位置検出方法。
  7. 【請求項7】 上記物品上に見える穴の中心と多角形の
    頂点との双方を上記特徴点として選定することを特徴と
    する請求項4に記載の物品の位置検出方法。
  8. 【請求項8】 上記画像上および上記2次元見え方モデ
    ル上の双方において、多数の特徴点の中から第1候補点
    と第2候補点とを任意に選定するとともに、該第1候補
    点と第2候補点とを通る基準線をそれぞれ設定し、該基
    準線と、上記第1および第2候補点を除く他のすべての
    特徴点と上記第1候補点とをそれぞれ結ぶ直線とのなす
    角度の計測に基づいて、上記画像上の特徴点と上記2次
    元見え方モデル上の特徴点とをマッチングさせることを
    特徴とする請求項4ないし7の1つに記載の物品の位置
    検出方法。
  9. 【請求項9】 上記画像上および上記2次元見え方モデ
    ル上の双方において、多数の特徴点の中から第1候補点
    と第2候補点とを任意に選定するとともに、該第1候補
    点と第2候補点とを通る基準線をそれぞれ設定し、双方
    の第1候補点が互いに一致するように両基準線を重ね合
    わせる態様で、上記画像と上記2次元見え方モデルとを
    重ね合わせ、かつ双方の第2候補点が互いに一致するよ
    うに、上記画像と上記2次元見え方モデルとのスケール
    合わせを行なうことにより、上記b画像上の特徴点と上
    記2次元見え方モデル上の特徴点とをマッチングさせる
    ことを特徴とする請求項4ないし7の1つに記載の物品
    の位置検出方法。
  10. 【請求項10】 上記重ね合わせおよびスケール合わせ
    のなされた後の上記画像上の上記第1および第2候補点
    を除く特徴点と、これにそれぞれ対応する上記2次元見
    え方モデル上の特徴点との間の距離の計測に基づいて、
    上記画像上の特徴点と上記2次元見え方モデル上の特徴
    点とをマッチングさせることを特徴とする請求項9に記
    載の物品の位置検出方法。
  11. 【請求項11】 上記多角形の頂点における内角の2等
    分線ベクトルと内角度とに基づいて、上記画像上の特徴
    点と上記2次元見え方モデル上の特徴点とをマッチング
    させることを特徴とする請求項6に記載の物品の位置検
    出方法。
  12. 【請求項12】 上記2次元見え方モデル上の上記多角
    形の任意の頂点を原点候補点として選定し、上記画像上
    の上記多角形の頂点から第1候補点を選定し、該第1候
    補点が上記原点候補点に重なり合い、かつ双方の内角の
    2等分線ベクトルが重なり合うように上記2次元見え方
    モデルを上記画像上に重ね合わせ、次いで、上記画像お
    よび上記2次元見え方モデルの上記第1候補点および上
    記原点候補点を除く他の頂点から、第2候補点をそれぞ
    れ選定し、双方の第2候補点が互いに一致するようにス
    ケール合わせを行なうことにより、上記画像上の各頂点
    と上記2次元見え方モデル上の各頂点とをマッチングさ
    せることを特徴とする請求項11に記載の物品の位置検
    出方法。
  13. 【請求項13】 上記特徴部が上記物品上に見える線分
    よりなり、上記画像から抽出した線分と上記2次元見え
    方モデル上の線分とを用いて、上記画像と上記2次元見
    え方モデルとをマッチングさせることを特徴とする請求
    項1ないし3の1つに記載の物品の位置検出方法。
  14. 【請求項14】 上記線分によって形成される多角形の
    各辺の長さと方向に対応する複数のベクトルを作成し、
    該複数のベクトルから任意に選定した基準ベクトルに対
    する他のベクトルのなす角度およびスケール情報に基づ
    いて、上記画像データと上記2次元見え方モデルとをマ
    ッチングさせることを特徴とする請求項13に記載の物
    品の位置検出方法。
  15. 【請求項15】 上記2次元見え方モデル上の複数の線
    分から代表線分を選定し、かつ上記画像の上の複数の線
    分から候補線分を選定して、両線分間の角度誤差を求
    め、該角度誤差に基づき上記2次元見え方モデル上の全
    ての線分の角度を補正し、次いで上記画像上の全ての線
    分が所定の基準線に対してなす角度について、該角度の
    近傍角度に対して当該線分の長さにより重み付けられた
    角度誤差評価値を与える評価値曲線を設定し、上記2次
    元見え方モデル上の全ての線分の上記基準線に対する角
    度の評価値を上記評価値曲線に基づいて算出し、該算出
    された評価値に基づいて、上記画像データと上記2次元
    見え方モデルとをマッチングさせることを特徴とする請
    求項13に記載の物品の位置検出方法。
  16. 【請求項16】 ステレオ視法により物品を撮像する第
    1および第2の撮像手段と、 上記ステレオ視法により撮像された1対の画像から特徴
    部をそれぞれ抽出する特徴抽出手段と、 上記1対の画像からそれぞれ抽出された特徴部と上記物
    品の2次元見え方モデルの特徴部とをそれぞれマッチン
    グさせることにより、上記1対の画像間の対応付けを行
    なう2次元見え方モデルマッチング手段と、 該2次元見え方モデルマッチング手段による対応付け結
    果を用いて、上記画像上の各特徴部の3次元位置を計測
    する3次元位置計測手段と、 上記3次元位置が計測された上記画像上の特徴部と上記
    物品の3次元構造モデルの特徴部とをマッチングさせる
    ことにより、上記物品の3次元位置を算出する3次元構
    造モデルマッチング手段と、を備えていることを特徴と
    する物品の位置検出装置。
  17. 【請求項17】 上記物品の設計データを用いて上記3
    次元構造モデルを設定し、かつ該3次元構造モデルを変
    換することにより、上記2次元見え方モデルを設定する
    モデル生成手段を備えていることを特徴とする請求項1
    6に記載の物品の位置検出装置。
  18. 【請求項18】 上記2次元見え方モデルマッチング手
    段が、上記2次元見え方モデルと、相対的配置算出部
    と、対応付け部と、データ統合部とを備えていることを
    特徴とする請求項16に記載の物品の位置検出装置。
JP27928194A 1994-11-14 1994-11-14 物品の位置検出方法およびその装置 Expired - Fee Related JP3738456B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27928194A JP3738456B2 (ja) 1994-11-14 1994-11-14 物品の位置検出方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27928194A JP3738456B2 (ja) 1994-11-14 1994-11-14 物品の位置検出方法およびその装置

Publications (2)

Publication Number Publication Date
JPH08136220A true JPH08136220A (ja) 1996-05-31
JP3738456B2 JP3738456B2 (ja) 2006-01-25

Family

ID=17608986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27928194A Expired - Fee Related JP3738456B2 (ja) 1994-11-14 1994-11-14 物品の位置検出方法およびその装置

Country Status (1)

Country Link
JP (1) JP3738456B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266159A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 物体領域情報生成方法及び物体領域情報生成装置並びに近似多角形生成方法及び近似多角形生成装置
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP2002323301A (ja) * 2001-04-26 2002-11-08 Fujitsu Ltd 物体位置計測装置
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
JP2006527434A (ja) * 2003-06-10 2006-11-30 バイオスペース インスツルメンツ 3次元再構成のための放射線画像法並びにその方法を実施するコンピュータプログラムおよび装置
JP2007502473A (ja) * 2003-08-15 2007-02-08 スカーペ アクティーゼルスカブ 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
US7280687B2 (en) 2002-09-02 2007-10-09 Fanuc Ltd Device for detecting position/orientation of object
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010060494A (ja) * 2008-09-05 2010-03-18 Fujitsu Ltd 姿勢計測装置
JP2011017611A (ja) * 2009-07-09 2011-01-27 National Institute Of Advanced Industrial Science & Technology 3次元曲面認識方法及びマニピュレーションシステム
JP2011099864A (ja) * 2010-12-03 2011-05-19 Hitachi High-Technologies Corp パターンマッチング装置およびそれを用いた半導体検査システム
JP2011112400A (ja) * 2009-11-24 2011-06-09 Omron Corp 3次元視覚センサ
JP2012068062A (ja) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 位置合わせ装置、位置合わせシステム及び位置合わせプログラム
WO2012160611A1 (ja) * 2011-05-26 2012-11-29 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP2014519043A (ja) * 2011-06-07 2014-08-07 クレアフォーム・インコーポレイテッド 3d走査用のセンサ位置決め
JP2014161937A (ja) * 2013-02-22 2014-09-08 Seiko Epson Corp 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム
JP2015007639A (ja) * 2014-08-20 2015-01-15 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2015515655A (ja) * 2012-06-29 2015-05-28 三菱電機株式会社 データを位置合わせする方法
US9747524B2 (en) 2014-02-28 2017-08-29 Ricoh Company, Ltd. Disparity value deriving device, equipment control system, movable apparatus, and robot
US9816809B2 (en) 2012-07-04 2017-11-14 Creaform Inc. 3-D scanning and positioning system
US10401142B2 (en) 2012-07-18 2019-09-03 Creaform Inc. 3-D scanning and positioning interface
US11185697B2 (en) 2016-08-08 2021-11-30 Deep Brain Stimulation Technologies Pty. Ltd. Systems and methods for monitoring neural activity
US11298070B2 (en) 2017-05-22 2022-04-12 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP2001266159A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 物体領域情報生成方法及び物体領域情報生成装置並びに近似多角形生成方法及び近似多角形生成装置
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP4588914B2 (ja) * 2001-04-26 2010-12-01 富士通株式会社 物体位置計測装置
JP2002323301A (ja) * 2001-04-26 2002-11-08 Fujitsu Ltd 物体位置計測装置
US7280687B2 (en) 2002-09-02 2007-10-09 Fanuc Ltd Device for detecting position/orientation of object
JP2006527434A (ja) * 2003-06-10 2006-11-30 バイオスペース インスツルメンツ 3次元再構成のための放射線画像法並びにその方法を実施するコンピュータプログラムおよび装置
JP2007502473A (ja) * 2003-08-15 2007-02-08 スカーペ アクティーゼルスカブ 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
US7822264B2 (en) 2003-08-15 2010-10-26 Scape A/S Computer-vision system for classification and spatial localization of bounded 3D-objects
JP4865557B2 (ja) * 2003-08-15 2012-02-01 スカーペ テクノロジーズ アクティーゼルスカブ 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010060494A (ja) * 2008-09-05 2010-03-18 Fujitsu Ltd 姿勢計測装置
JP2011017611A (ja) * 2009-07-09 2011-01-27 National Institute Of Advanced Industrial Science & Technology 3次元曲面認識方法及びマニピュレーションシステム
JP2011112400A (ja) * 2009-11-24 2011-06-09 Omron Corp 3次元視覚センサ
JP2012068062A (ja) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 位置合わせ装置、位置合わせシステム及び位置合わせプログラム
JP2011099864A (ja) * 2010-12-03 2011-05-19 Hitachi High-Technologies Corp パターンマッチング装置およびそれを用いた半導体検査システム
WO2012160611A1 (ja) * 2011-05-26 2012-11-29 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP5671135B2 (ja) * 2011-05-26 2015-02-18 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP2014519043A (ja) * 2011-06-07 2014-08-07 クレアフォーム・インコーポレイテッド 3d走査用のセンサ位置決め
US9325974B2 (en) 2011-06-07 2016-04-26 Creaform Inc. Sensor positioning for 3D scanning
JP2015515655A (ja) * 2012-06-29 2015-05-28 三菱電機株式会社 データを位置合わせする方法
US9816809B2 (en) 2012-07-04 2017-11-14 Creaform Inc. 3-D scanning and positioning system
US10928183B2 (en) 2012-07-18 2021-02-23 Creaform Inc. 3-D scanning and positioning interface
US10401142B2 (en) 2012-07-18 2019-09-03 Creaform Inc. 3-D scanning and positioning interface
JP2014161937A (ja) * 2013-02-22 2014-09-08 Seiko Epson Corp 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム
US9747524B2 (en) 2014-02-28 2017-08-29 Ricoh Company, Ltd. Disparity value deriving device, equipment control system, movable apparatus, and robot
JP2015007639A (ja) * 2014-08-20 2015-01-15 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11185697B2 (en) 2016-08-08 2021-11-30 Deep Brain Stimulation Technologies Pty. Ltd. Systems and methods for monitoring neural activity
US11278726B2 (en) 2016-08-08 2022-03-22 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity
US11890478B2 (en) 2016-08-08 2024-02-06 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity
US11298070B2 (en) 2017-05-22 2022-04-12 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity

Also Published As

Publication number Publication date
JP3738456B2 (ja) 2006-01-25

Similar Documents

Publication Publication Date Title
JPH08136220A (ja) 物品の位置検出方法およびその装置
US6690841B2 (en) Method and apparatus for image registration
Mohr et al. Relative 3D reconstruction using multiple uncalibrated images
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN103678754B (zh) 信息处理装置及信息处理方法
JP2919284B2 (ja) 物体認識方法
JP4865557B2 (ja) 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
US20040170315A1 (en) Calibration apparatus, calibration method, program for calibration, and calibration jig
US20050031167A1 (en) Method of three dimensional positioning using feature matching
CN115345822A (zh) 一种面向航空复杂零件的面结构光自动化三维检测方法
CN105574812B (zh) 多角度三维数据配准方法及装置
KR900002509B1 (ko) 화상 처리 장치
CN109766903B (zh) 一种基于曲面特征的点云模型曲面匹配方法
CN113393524A (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
Fan et al. A shape-based stereo matching algorithm for binocular vision
JP2001143073A (ja) 物体の位置姿勢決定の方法
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
Jiang et al. A ball-shaped target development and pose estimation strategy for a tracking-based scanning system
JPH09212643A (ja) 三次元物体認識方法及びその装置
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
CN115112098B (zh) 一种单目视觉的一维二维测量方法
JP4793109B2 (ja) 物体検出法およびロボット
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
Moron et al. Automatic inspection of industrial parts using 3D optical range sensor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees