JPH08136220A - 物品の位置検出方法およびその装置 - Google Patents
物品の位置検出方法およびその装置Info
- Publication number
- JPH08136220A JPH08136220A JP6279281A JP27928194A JPH08136220A JP H08136220 A JPH08136220 A JP H08136220A JP 6279281 A JP6279281 A JP 6279281A JP 27928194 A JP27928194 A JP 27928194A JP H08136220 A JPH08136220 A JP H08136220A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- article
- model
- dimensional appearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
対応できる、ステレオ視法による物品の位置検出装置を
提供する。 【構成】 2台のカメラから構成された撮像装置1によ
り対象物品のステレオ画像を撮像し、撮像された画像か
ら特徴抽出装置2を用いて線分・円弧等の特徴部を抽出
し、これら特徴部と物品の2次元見え方モデル上の特徴
部とを2次元見え方モデルマッチング装置3を用いてマ
ッチングさせることにより、ステレオ視法における左右
画像間の対応付けを行ない、該対応付けの結果を用い
て、3次元位置計測装置4が各特徴部の3次元位置を計
測し、これら3次元位置を計測した特徴部と3次元構造
モデルとを3次元構造モデルマッチング装置5によりマ
ッチングさせることにより、物品の3次元位置を算出す
る。
Description
手段を用いて、物品をステレオ視することにより物品の
3次元位置を検出する物品の位置検出方法およびその装
置に関し、特に、物品の2次元見え方モデルを介して2
つの撮像画面の特徴部の対応付けを行なう物品の位置検
出方法およびその装置に関する。
自動化のためには部品のハンドリングが非常に重要な問
題である。特に、組立て領域の自動化において必要とさ
れているようなロボットによる多機能で正確な自動ハン
ドリングを実現するためには、多種類の部品の3次元位
置を計測する技術が必要となる。
は、所定の平面上に置かれた計測対象物品の2次元位置
を画像により計測するもの(特開平1−305303号
公報参照)や、対象物品に認識用のマーカを設置し、こ
のマーカを計測することにより対象物品の3次元位置を
計測するもの(特開平3−281130号公報参照)、
あるいはスリット光により物品の高さを検出するもの
(特開昭62−32582号公報参照)である。
する方法として、2台のCCDカメラを用いるステレオ
視法が知られている。
装置は、個々の物品専用に開発されているため、汎用性
がなく、多種類の物品に対応させようとすると、すべて
の物品についてアルゴリズムを開発しなければならず、
開発・投資効率が悪くなる。
で、高い計測精度が得られる特長がある一方で、左右画
像間で特徴部の対応付けに問題がある。とくに、多種類
物品の3次元位置をステレオ視法を用いて計測する場合
には、下記のような問題がある。
する際に、物品の構造的情報を用いずに行なおうとする
と、処理に長い時間を要する。そこで従来の手法では、
対象物品の構造的情報をアルゴリズムに組み込むことに
より対応付けを行なっているが、この場合、同じアルゴ
リズムを用いて他の物品の対応付けを行なうことはでき
ないから、多種類物品に対応できる3次元計測装置に
は、従来の手法を適用することは不可能である。
されたもので、対象物品が変わっても共通のアルゴリズ
ムで対応できるステレオ視法による物品の位置検出方法
およびその装置を提供することを目的とする。
検出方法は、請求項1に記載されているように、第1お
よび第2の撮像手段を用いたステレオ視により物品を撮
像した1対の画像から上記物品の3次元位置を検出する
方法であって、上記物品の2次元上の特徴部を有する2
次元見え方モデルを設定し、上記1対の画像のそれぞれ
から抽出した特徴部を、上記2次元見え方モデルを介し
て対応付けを行なうことを特徴とする。
方法では、請求項2に記載されているように、上記1対
の画像からそれぞれ抽出した特徴部と上記2次元見え方
モデル上の特徴部とをそれぞれマッチングさせることに
より、上記1対の画像間の対応付けを行なって、各特徴
部の3次元位置を計測し、かつ上記物品の3次元構造モ
デルを設定して、上記3次元位置が計測された上記画像
上の特徴部と上記3次元構造モデル上の特徴部とをマッ
チングさせることにより、上記物品の3次元位置を算出
することができる。
上記物品の設計データを用いて上記3次元構造モデルを
設定し、該3次元構造モデルを変換することにより、上
記2次元見え方モデルを設定することができる。
態様によれば、請求項4に記載されているように、上記
画像から抽出した特徴点と上記2次元見え方モデル上の
特徴点とを用いて、上記画像データと上記2次元見え方
モデルとをマッチングさせている。
には、請求項5ないし7に記載されているように、上記
物品上に見える穴の中心、多角形の頂点、あるいは、穴
の中心と多角形の頂点との双方を特徴点として用いるこ
とができる。
う場合には、請求項8に記載されているように、上記画
像上および上記2次元見え方モデル上の双方において、
多数の特徴点の中から第1候補点と第2候補点とを任意
に選定するとともに、該第1候補点と第2候補点とを通
る基準線をそれぞれ設定し、該基準線と、上記第1およ
び第2候補点を除く他のすべての特徴点と上記第1候補
点とをそれぞれ結ぶ直線とのなす角度の計測に基づい
て、上記画像上の特徴点と上記2次元見え方モデル上の
特徴点とをマッチングさせる方法を採用することができ
る。
う場合には、請求項9に記載されているように、上記画
像上および上記2次元見え方モデル上の双方において、
多数の特徴点の中から第1候補点と第2候補点とを任意
に選定するとともに、該第1候補点と第2候補点とを通
る基準線をそれぞれ設定し、双方の第1候補点が互いに
一致するように両基準線を重ね合わせる態様で、上記画
像と上記2次元見え方モデルとを重ね合わせ、かつ双方
の第2候補点が互いに一致するように、上記画像と上記
2次元見え方モデルとのスケール合わせを行なうことに
より、上記画像上の特徴点と上記2次元見え方モデル上
の特徴点とをマッチングさせる方法を採用することがで
きる。
ように、上記重ね合わせおよびスケール合わせのなされ
た後の上記画像上の上記第1および第2候補点を除く特
徴点と、これにそれぞれ対応する上記2次元見え方モデ
ル上の特徴点との間の距離の計測に基づいて、上記画像
上の特徴点と上記2次元見え方モデル上の特徴点とをマ
ッチングさせることができる。
特徴点に選定する場合、請求項11に記載されているよ
うに、上記多角形の頂点における内角の2等分線ベクト
ルと内角度とに基づいて、上記画像上の特徴点と上記2
次元見え方モデル上の特徴点とをマッチングさせること
ができる。
ように、上記2次元見え方モデル上の上記多角形の任意
の頂点を原点候補点として選定し、上記画像上の上記多
角形の頂点のうちから第1候補点を選定し、該第1候補
点が上記原点候補点に重なり合い、かつ双方の内角の2
等分線ベクトルが重なり合うように上記2次元見え方モ
デルを上記画像上に重ね合わせ、次いで、上記画像およ
び上記2次元見え方モデルの上記第1候補点および上記
原点候補点を除く他の頂点から第2候補点をそれぞれ選
定し、双方の第2候補点が互いに一致するようにスケー
ル合わせを行なうことにより、上記画像上の各頂点と上
記2次元見え方モデル上の各頂点とをマッチングさせる
ことができる。
様によれば、請求項13に記載されているように、上記
画像から抽出した線分と上記2次元見え方モデル上の線
分とを用いて、上記画像と上記2次元見え方モデルとを
マッチングさせることができる。
ように、上記線分によって形成される多角形の各辺の長
さと方向に対応する複数のベクトルを作成し、該複数の
ベクトルから任意に選定した基準ベクトルに対する他の
ベクトルのなす角度およびスケール情報に基づいて、上
記画像データと上記2次元見え方モデルとをマッチング
させることができる。
うに、上記2次元見え方モデル上の複数の線分から代表
線分を選定し、かつ上記画像上の複数の線分から候補線
分を選定して、両線分間の角度誤差を求め、該角度誤差
に基づき上記2次元見え方モデル上の全ての線分の角度
を補正し、次いで上記画像の上の全ての線分が所定の基
準線に対してなす角度について、該角度の近傍角度に対
して当該線分の長さにより重み付けられた角度誤差評価
値を与える評価値曲線を設定し、上記2次元見え方モデ
ル上の全ての線分の上記基準線に対する角度の評価値を
上記評価値曲線に基づいて算出し、該算出された評価値
に基づいて、上記画像データと上記2次元見え方モデル
とをマッチングさせることもできる。
項16に記載されているように、ステレオ視法により物
品を撮像する第1および第2の撮像手段と、上記ステレ
オ視法により撮像された1対の画像から特徴部をそれぞ
れ抽出する特徴抽出手段と、上記1対の画像からそれぞ
れ抽出された特徴部と上記物品の2次元見え方モデルの
特徴部とをそれぞれマッチングさせることにより、上記
1対の画像間の対応付けを行なう2次元見え方モデルマ
ッチング手段と、該2次元見え方モデルマッチング手段
による対応付け結果を用いて、上記画像上の各特徴部の
3次元位置を計測する3次元位置計測手段と、上記3次
元位置が計測された上記画像上の特徴部と上記物品の3
次元構造モデルとをマッチングさせることにより、上記
物品の3次元位置を算出する3次元構造モデルマッチン
グ手段とを備えていることを特徴とする。
は、請求項17に記載されているように、上記物品の設
計データを用いて上記3次元構造モデルを設定し、かつ
該3次元構造モデルを変換することにより、上記2次元
見え方モデルを設定するモデル生成手段を備えることが
できる。
は、請求項18に記載されているように、上記2次元見
え方モデルと、相対的配置算出部と、対応付け部と、デ
ータ統合部とによって構成することができる。
テレオ視法によって物品を撮像した1対の画像にの特徴
部に対して、上記物品の2次元上の特徴部を有する「2
次元見え方モデル」を用いて対応付けを行なっているこ
とにより、左画像と右画像とを「2次元見え方モデル」
を介して対応付けることができ、ステレオ視法における
左右画像間の対応付けが可能になる。
リズムを変更することなく、その物品に応じた2次元見
え方モデルを用意するだけでステレオ視の対応付けがで
きるから、多種類の物品の3次元位置の検出に適用でき
る利点がある。
測された上記画像上の特徴部と上記3次元構造モデル上
の特徴部とをマッチングさせることにより、上記物品の
3次元位置を算出しているから、該物品の3次元位置の
検出が容易になる。
の設計データを用いて、「2次元見え方モデル」と「3
次元構造モデル」とを生成してマッチングを行なってい
るから、高速な処理が可能になる。
する物品や、輪郭が直線で構成されている物品に関し
て、物品の画像データと2次元見え方モデルとのマッチ
ングを行ない、対象物の画像中での位置および回転角度
を求めることができる。
候補点を通る同一直線状の点を区別してマッチングさせ
ることは不可能であるが、請求項9の発明のように、ス
ケール合わせを行なうことにより、物品の画像データと
2次元見え方モデルとのマッチング確度が高くなり、さ
らに請求項10の発明のように、距離情報を用いること
により、適用範囲が広がり、マッチング確度をより高め
ることができる。
の内角情報を利用するため、多角形の頂点の位置情報の
みを用いる場合に比較して組合わせ可能な数を大幅に削
減することができ、処理の高速化が達成できる。その場
合にも、請求項12の発明のように、スケール合わせを
行なうことにより、確実性が向上する。
れるモデルと計測画像から検出した線分とを比較し、最
適なマッチングを判定することにより、モデルと計測画
像との高速で確実なマッチングを行なうことができる。
多角形をマッチングの対象とし、見え方モデルおよび画
像の特徴として各辺の線分の長さと方向とを表すベクト
ルを用いることにより、回転対称性のないモデルに関し
て、回転移動量と線分の対応とを同時に検出できるとと
もに、請求項8の発明ような点集合のマッチング手法を
用いて線分のマッチングを容易に行なうことができる。
また、回転の中心が固定されているので、マッチング評
価の回数が少なくて済む利点がある。
の全ての線分が所定の基準線に対してなす角度につい
て、該角度の近傍角度に対して当該線分の長さにより重
み付けられた角度誤差評価値を与える評価値曲線を設定
し、上記2次元見え方モデル上の全ての線分の上記基準
線に対する角度の評価値を上記評価値曲線に基づいて算
出し、該算出された評価値に基づいて、上記画像データ
と上記2次元見え方モデルとをマッチングさせているこ
とにより、マッチングのための角度パラメータ、位置補
正パラメータおよびスケールパラメータの決定を高速か
つ高精度をもって行なうことができる。すなわち、線分
に関する少ない情報でマッチング判定を行なうことがで
きるため、高速処理が可能である。
項16に記載されているように、ステレオ視法により撮
影された画像からそれぞれ抽出された特徴部と上記物品
の2次元見え方モデルの特徴部とをそれぞれマッチング
させることにより、上記1対の画像間の対応付けを行な
う2次元見え方モデルマッチング手段と、該2次元見え
方モデルマッチング手段による対応付け結果を用いて、
上記画像上の各特徴部の3次元位置を計測する3次元位
置計測手段と、上記3次元位置が計測された上記画像上
の特徴部と上記物品の3次元構造モデルとをマッチング
させることにより、上記物品の3次元位置を算出する3
次元構造モデルマッチング手段とを備えていることによ
り、ステレオ視法における左右画像間の対応付けが可能
になり、また、計測対象物品が変わっても、アルゴリズ
ムを変更することなく、その物品に応じた2次元見え方
モデルを用意するだけでステレオ視の対応付けができる
から、多種類の物品の3次元位置の検出が容易になる。
に、上記構成に加え、上記物品の設計データを用いて、
「2次元見え方モデル」と「3次元構造モデル」とを生
成するモデル生成手段を備えている場合、高速な処理が
可能になる。
の2次元見え方モデルマッチング手段置が、請求項18
に記載されているように、2次元見え方モデルと、相対
的配置算出部と、対応付け部と、データ統合部とによっ
て構成されている場合、上記1対の画像間の対応付けを
極めて容易に行なうことができる。
て説明する。
物品の位置検出装置の全体構成図である。この物品の位
置検出装置は、対象部品のステレオ画像を撮像する2台
のCCDカメラから構成された撮像装置1と、この撮像
装置1により撮像された画像に対して前処理(微分、2
値化、ノイズ除去、細線化、ラベル付け)を施すととも
に、前処理された画像から、線分、円弧あるいは点等の
特徴部を抽出する特徴抽出装置2と、画像から抽出され
た線分、円弧あるいは点等の特徴部と該特徴部に対応す
る2次元見え方モデル上の特徴部とをマッチングさせる
ことにより、ステレオ視法における左右画像間の対応付
けを行なう2次元見え方モデルマッチング装置3と、こ
の対応付けの結果を用いて各特徴部の3次元位置を計測
する3次元位置計測装置4と、3次元位置が計測された
特徴部と3次元構造モデルとをマッチングさせることに
より、物品の3次元位置を算出し、物品の把持位置をロ
ボット制御装置6に出力する3次元構造モデルマッチン
グ装置5と、物品の設計データとセンサデータとより、
物品の3次元構造モデルと2次元見え方モデルとを生成
するモデル生成装置7とによって構成されている。
フローチャートを示す。
ズ除去、細線化、ラベル付け)し、前処理された画像か
ら線分、円弧あるいは点等の特徴部を抽出する。
と、オフラインで生成された2次元見え方モデルの特徴
部とをマッチングさせる。2次元見え方モデルは、線分
と円弧とで記述されており、各線分および円弧にはそれ
ぞれ識別番号が付されている(図3参照)。また、特徴
抽出装置2によって抽出された線分、円弧等の特徴部に
もそれぞれ識別番号が付されている。2次元見え方モデ
ルマッチング装置3では、左(右)画像のどの特徴部が
2次元見え方モデルのどの特徴部とマッチングするかを
求める。その結果として、下記の表1に示すような対応
付け結果を出力する。すなわち、2次元見え方モデル上
の線分S12に対して左画像の線分Ls2が対応し、右
画像の線分Rs8が対応するから、左画像の線分Ls2
と右画像の線分Rs8が対応することになる。このよう
にして、2次元見え方モデルを介して左右画像間の特徴
部の対応付けがなされている。
レオ視法により3次元位置を計測する(図4参照)。
てはめることにより部品の3次元位置を求め、ハンドリ
ングのための部品の把持位置を出力する。
見え方モデルとがオフラインで生成される。3次元構造
モデルは、部品の設計データを用いて生成され、線分と
円弧とで記述されている。2次元見え方モデルは、既知
であるセンサデータ(カメラパラメータ)を用いて3次
元構造モデルを変換させることにより生成され、線分と
円弧とで記述されている。
構成)図5は、2次元見え方モデルマッチング装置3の
基本的構成図である。
次元見え方モデルが用意されているが、カメラに対する
物品の置かれ方が予め特定されていることにより、物品
の見え方も特定されており、これに対応した見え方を表
す2次元見え方モデル31がオフラインで用意される。
相対配置算出部32L,32Rは、画像データ座標系と
見え方モデル座標系との間の回転・平行移動量およびス
ケール係数を算出する。対応付け部33L,33Rは、
算出された回転・平行移動量およびスケール係数を用い
て、画像より抽出された線分、円弧あるいは点等の特徴
部と2次元見え方モデル31における線分、円弧あるい
は点等の特徴部とを対応付ける。データ統合部34は、
左右画像の各対応付け結果を統合して、左右画像データ
間の対応付け結果を出力する。
おける処理の流れ)図6に、処理の流れを表すフローチ
ャートを示す。
特徴部の画像中での位置を読み込み、(2) 2次元見え方
モデルデータを読み込み、(3) 相対配置算出部32Lに
おいて、画像座標系とモデル座標系との回転・移動およ
びスケールを算出し、(4) 左画像中の特徴部とモデルに
記述されている特徴部とを対応付け、(5) 右画像につい
て、上記処理(1) 〜(4) を同様に行ない、(6) 左画像の
特徴部と右画像の特徴部とを対応付け、(7) 対応付け結
果を出力する。
成)3次元構造モデルマッチング装置5では、計測され
た画像の特徴部の3次元座標値から、把持のための部品
の位置姿勢データを算出する。このため、画像の特徴部
の計測データを移動回転させ、対応する3次元構造モデ
ルに合わせる。
Z)は図7に示すように定義する。すなわち、座標系原
点Oは把持中心に、X軸は把持軸(ロボットハンド座標
系のXh 軸)に沿うように、Z軸はロボットハンドの進
入方向(ロボットハンド座標系のZh 軸)に沿うように
定義する。このように定義することにより、計測データ
をモデルに合わせる手順を逆方向にたどることで、把持
の位置姿勢を合わせることができる。
ける処理の流れ)3次元構造モデルマッチング装置3の
処理の手順を図8に示す。
の特徴点(円弧中心または多角形の頂点)を含む平面を
選び、これを基準平面とする。
て、これら特徴点に対応する画像上の特徴点の3次元座
標値に基づいて、これら画像上の特徴点を平面を最小二
乗法を適用することにより算出する。
それぞれの法線ベクトルを一致させることにより、計測
データ座標系のZ軸を3次元構造モデルの座標系のZ軸
に合わせる。
点の対応付け(後述)と同様な手法に基づいて、基準平
面に沿った平行移動量とZ軸まわりの回転量とを決定す
る。ただし、2次元見え方モデルマッチングで既に特徴
点の対応が判明しているので、本ステップでは対応点の
探索を行なう必要はない。
算出することができ、計測データを3次元構造モデルに
合わせる上記手順を逆方向にたどることで、ロボットハ
ンドの位置姿勢を物品位置姿勢に合わせることができ
る。
に、左カメラの座標系(OL −XL ,YL ,ZL )を定
義する。ただし、原点OL は左カメラの焦点にあり、x
軸は水平右向き、y軸は垂直上向き、z軸はカメラの視
線方向とする。同様に、右カメラの座標系(OR −
XR,YR ,ZR )を定義する。左カメラ座標系と右カ
メラ座標系の間の回転行列をR、平行移動ベクトルをh
とすると、同座標系の関係式は式(1)で表すことがで
きる。
次元位置(XC ,YC ,ZC )は左カメラ座標系を用い
て表す。左画像の特徴点をcL 、右画像の特徴点をcR
とし、点cL の座標を(cxL,cyL,fL )(左カメラ
座標系)、点cR の座標を(cxR,cyR,fR )(右カ
メラ座標系)とする。ここで、fL ,fR はそれぞれ左
カメラ、右カメラの焦点距離を表す。
を見たときの視線と、右カメラで特徴点を見たときの視
線との交点である。原点oL と特徴点cL とを通る直線
の方程式は式(2)となる。
直線の方程式は式(3)となる。
式(3)′となる。
と式(3)′の連立方程式を解くことによって式(4)
のようになる。
実施例の説明)次に2次元見え方モデルマッチング装置
3の実施例について説明する。これら実施例は、図5に
示す相対配置算出部32L,32Rにおける処理手法の
差異に応じて下記のように分類される。
の評価式を用いて算出した評価値が最小となったとき対
応がついたものとするもの (1-2) 任意の点と原点とを結ぶ線のなす角を用いて、回
転角とスケールとを求めるもの (2) 内角2等分線ベクトルによるマッチング (2-1) 各頂点の内角2等分線ベクトルを求め、第1、第
2候補点による一致度評価によりマッチングを行なうも
の (3) 線分によるマッチング (3-1) モデル各辺に角度情報と長さ情報とを持たせたベ
クトルを設け、撮像画像データの各辺にも上記ベクトル
を設けた後、両ベクトル群の中心を一致させるとともに
スケールを合わせ、回転角とスケール情報とを求めるも
の (3-2) モデルに評価線分を設定し、基準点合わせ処理
(2線の交点合わせ)とスケール合わせ処理(モデルと
画像との一致)とによりマッチングを行なうもの。
方モデルに記述されている特徴点とを用いて、画像デー
タと見え方モデルとのマッチングをとるようにしたもの
である。画像中の特徴点とモデルの特徴点との対応付け
は、原点を通るように適当に選んだ基準線と、任意の点
と原点とを結ぶ直線とがなす角度を比較することにより
行なう。特徴点の生成の方法は、(1) 穴の中心を用い
る、(2) 多角形の頂点を用いる、(3) 円の中心と多角形
の頂点とを用いる、等があるが、本実施例では特徴点と
して、穴の中心を用いる。
図11はその機能ブロック図、図12は処理の流れを表
すフローチャートをそれぞれ示す。
1,2,…,m}、モデルに記述された特徴点を
{Mj :j=1,2,…,n}とする。
穴の中心を抽出する「円中心抽出装置」を本装置に接続
することにより、特徴点の位置を本装置に入力する。ま
た、穴の中心位置情報を有するモデルをオフラインで用
意する。
を選び、画像データの第1候補点IC1とする。また、特
徴点Mj の中から任意の1点を選び、モデルの第1候補
点MC1とする。
1)個の画像中の点の中から任意の1点を選び、第2候
補点IC2とし、第1候補点IC1と第2候補点IC2とを結
ぶ直線を基準線LI とする。同様に、第1候補点MC1を
除く(n−1)個のモデルの点の中から任意の1点を選
び、第2候補点MC2とし、第1候補点MC1と第2候補点
MC2とを結ぶ直線を基準線LM とする(図13参照)。
C2とがそれぞれ対応すると仮定し、残りの点{Ik :k
=1,2,…,m−2}と{Mh :h=1,2,…,n
−2}との対応付けを以下の処理(4) 〜(5) で行なう。
1,2,…,m−2}について、点Ik と第1候補点I
C1とを結ぶ直線と基準線LI とのなす角度を求め、{θ
k :k=1,2,…,m−2}とする。同様に、残りの
モデルの点{Mh :h=1,2,…,n−2}につい
て、点Mh と第1候補点MC1とを結ぶ直線と基準線LM
とのなす角度を求め、{φh :h=1,2,…,n−
2}とする(図14参照)。
2}の中からθ1 に最も近い値φθ1を探し、I1 とM
θ1とが対応するものとする。以下同様にして、Ik に
対応するMh を見つけ出す。例えば、図15の場合、φ
θ1=φ2 ,φθ2=φ3 ,φθ3=φ5 であるので、点
I1 と点M2 、点I2 と点M3 、点I3 と点M5 がそれ
ぞれ対応する。
値を計算する。
θ2 −φ3 |+|θ3 −φ5 |となる。
方のすべての組み合わせについて(m(m-1)n(n-1)通
り)、上記処理(1) 〜(6) を行ない、評価値Et を計算
する。
が最適なIi とMj の対応であると判断し、このときの
回転・平行移動のパラメータを出力する。画面座標系に
おける基準線LI の傾きαI 、モデル座標系における基
準線LM の傾きをαM とし、また、最適な対応結果を得
るときの第1候補点の位置ベクトルをTI ,TM とする
と、回転・平行移動のパラメータはそれぞれα=αI −
αM ,T=TI −TMとなる。
多角形となる。この多角形の頂点を抽出すれば、特徴点
として利用できる。この場合の装置の概略構成図および
機能ブロック図は、それぞれ図16および図17に示す
ようになる。ここで、図16、図17は、実施例1にお
ける図10、図11にそれぞれ対応する。そして、処理
(0) は次のようになる。
「線分抽出装置」を本装置に接続することにより、線分
の位置を本装置に入力する。入力された線分の位置から
多角形を抽出し、多角形の頂点を求める。また、多角形
の頂点情報を有するモデルをオフラインで用意する。
施例1における処理 (1)〜(8) と同様の処理を実行す
る。
する。この場合、実施例1の処理(5) において穴の中心
と多角形の頂点とが対応付けられないように、穴の中心
と頂点とを区別して処理を行なう。画像より抽出された
穴の中心と角度を{Ici :i=1,2,…,m},
{θci :i=1,2,…,m}、頂点と角度を{Iν
j :j=1,2,…,n},{θνj :j=1,2,
…,n}、モデルに記述されている穴の中心と角度を
{Mck :k=1,2,…,p},{φck :k=1,
2,…,p}、頂点と角度を{Mνh :h=1,2,
…,q},{φνh :h=1,2,…,q}とする。θ
ci とφck とを用いてIci とMck との対応付けを
行ない、θνj とφνh とを用いてIνj とMνh との
対応付けを行なう。評価式は下記のようになる。
する物品や、輪郭が直線で構成されている物品に関し
て、物品の画像データと2次元見え方モデルとのマッチ
ングを行ない、対象物の画像中での位置および回転角度
を求めることができる。
ッチング、および右画像データと見え方モデルとのマッ
チングを行なうことにより、見え方モデルを仲介して左
画像と右画像とを対応付けることができる。
えて、スケール合わせを行なって距離情報を用いること
で、適用範囲を広げ、さらにマッチングの確度を高めた
ものである。
合、候補点を通る同一直線状の点を区別してマッチング
させることは不可能であるが、本実施例のように、スケ
ール合わせを行なって距離情報を用いることにより、適
用範囲が広がり、さらにマッチング確度が高くなる。
19は処理の流れを表すフローチャートをそれぞれ示
す。
1,2,…,m}、モデルに記述された特徴点を
{Mj :j=1,2,…,n}とする。特徴点として、
例えば穴の中心を用いる。
像から穴の中心を抽出する「円中心抽出装置」を本装置
に接続することにより、特徴点の位置を入力する。ま
た、穴の中心位置情報を有するモデルをオフラインで準
備する。
を選び、画像データの第1候補点IC1とする。また、特
徴点Mj の中から任意の1点を選び、モデルの第1候補
点MC1とする。
1)個の画像中の点の中から任意の1点を選び、第2候
補点IC2とし、第1候補点IC1と第2候補点IC2とを結
ぶ直線を基準線LI とする。同様に、第1候補点MC1を
除く(n−1)個のモデルの点の中から任意の1点を選
び、第2候補点MC2とし、第1候補点MC1と第2候補点
MC2とを結ぶ直線を基準線LM とする(図20参照)。
にモデルを平行移動させる。このときの移動ベクトルを
Tとする(図21参照)。
ように、点MC1(IC1)を中心にモデルを回転させる。
このときの回転角をθとする(図22参照)。
に、点MC1(IC1)を中心にモデルを拡大・縮小する。
このときのスケールをSとする(図23参照)。
C2とが対応すると仮定し、残りの点{Ik :k=1,
2,…,m−2}および{Mh :h=1,2,…,n−
2}について以下の処理 (7)〜(8) を実行する。
の点Mh を見つけ、2点間の距離d=d(Ik )を記憶
する。
(Ik )が求まれば、評価値Et を下記に示す評価式を
用いてを計算し記憶する。
び方のすべての組み合わせについて(m(m-1)n(n-1)通
り)、上記の処理 (1)〜(8) を行ない、評価値Eを計算
する。 処理(10):評価値Eが最小となったときの点Ik とMh
が最適の対応であるとし、このときの回転角度θ、移動
ベクトルT、スケールSのパラメータと、画像データ点
Ik とモデル点Mh の対応付けとを出力する。
るモデルマッチング(2-1) ) 計測画像とモデルデータとの比較により対象物品の2次
元位置を決定する場合、一般に行なわれているように、
モデルデータをイメージ画像として持つ場合には2次元
のパターンマッチングが必要になり、計算コストが増大
する。そこで、2次元のモデルデータを直線や円弧で構
成し、計測画像から得られた直線や円弧とのマッチング
により対象物品の2次元位置を推定できれば、高速なモ
デルマッチングが可能となるが、特徴の選択とマッチン
グ判断とを適切に行なわなければ誤マッチングが発生す
る可能性がある。
が、2つの直線の交点情報として内角の2等分線方向ベ
クトルと内角度に関する情報を有し(図27参照)、ま
た、計測画像から同様の情報を生成し、これらを比較す
ることにより、高速かつ確実なマッチングを行なうもの
である。
よび図26は処理のフローチャートをそれぞれ示す。
に、対象物品の計測入力画像に対する画像処理により線
分検出を行ない、その線分の交点情報をを求めている。
また、対象物品と比較するために、モデルデータベース
を備えており、このモデルデータと計測画像の交点情報
との比較を行なって、最終的に対象物品の確度、位置お
よびスケール情報を得るものである。
トに基づいて、本実施例の全体処理を説明する。
直線の各交点M1 〜M5 について、その位置座標と2直
線の内角2等分線の方向ベクトルと内角の角度値とを情
報として準備しておく(図27参照)。
色階調画像のエッジ抽出処理と線分セグメント抽出処理
等により、画像から線分抽出を行なう。一般に計測画像
から検出される線分は端点まで検出されずに短めの線分
として抽出されるため、検出された線分については延長
処理を行ない、その結果について交点を求めることがで
きる。この交点については、モデルと同様に、その位置
座標と2直線の内角2等分線の方向ベクトルと内角の角
度値とを決定することができる(図28参照)。
から得られた交点のマッチングを行なう。
に、モデルから原点候補点Mn(例えばM1 )を1点選
択し、これに適合する計測画像の候補点In(例えばI
1 )を選定する。この選定には内角度情報を用い、予め
設定した一定角度誤差以内で同じ内角度を有する点を原
点用の第1候補点として選定する。
と計測画像の原点候補点I1 との位置誤差を補正するた
めの平行移動量Tqを求める。さらに、内角の2等分線
の方向ベクトル情報を用いて、2点の内角方向が一致す
るような回転移動量Rqを求める(図29参照)。
いて、モデルの全交点を平行移動および回転移動させ
る。この変換により、モデルの原点候補点M1 は計測画
像の原点候補点I1 に位置と方向を一致させることがで
きる。その他の点について角度の補正とスケーリングの
補正とを行うために第2候補点を選択する。
で、計測画像の中である一定位置誤差以内に位置し、内
角度がある一定角度誤差以内の点、例えばM2 ,I2 を
選択する(図30参照)。
と計測画像の第2候補点M2 ,I2と原点候補点
M1 ,I1 とを用いて、2点同士の位置が一致するよ
うな平行移動、回転移動、拡大縮小の各係数を求め、再
度全モデル点に対してこの変換を行なう。
画像の各点とを比較して一致度を計算し、一致度評価得
点を求める。このとき、点の一致判定には、点位置の誤
差と併せて内角2等分線の方向ベクトルの方向誤差を用
いることにより確実な一致判定ができる。一致度評価得
点には一致点の個数と位置誤差の累積量とを用いること
ができる。
(原点候補点)と第2候補点とによる一致度評価得点が
得られる。この処理を全ての、第1候補点と第2候補点
の組み合わせについて実行し、最も一致度評価得点の高
い組み合わせを選べば、最適なマッチングを行なうこと
ができる。
補点の選定については、点の内角情報を利用するため、
点の位置情報のみで選定する場合に比較して組合わせ可
能な数を大幅に削減することができ、処理の高速化と確
実性の向上とを達成できる。なお、対象物品が長方形で
構成されている場合には、隣接しない対角の内角2等分
線は互いに向きが逆になっている。また、一般的にある
特徴的な角度関係を持った複数の点を特徴点として前も
ってモデル情報に含ませることは容易である。これら複
数の点の内角情報の特徴を用いれば、前述の第1候補点
(原点候補点)と第2候補点の選定を1点ずつ全ての組
合わせを判定する必要がなくなる(図31参照)。
徴点として対角上の2点を選ぶと、計測画像から互いに
反対方向の内角2等分線の方向ベクトルを有する2点の
組合わせについてのみを評価対象として選択すれば良
い。同様に、三角形の3頂点を特徴点として選べば、計
測画像の各点の角度情報から、モデルと同じ角度構成を
有する3点の組を選択し、その組についてのみ一致評価
を実行すれば良い。そして、これらの処理は点の位置情
報が不要であるため、角度のリストから処理を行なうこ
とができ、処理の簡単化、高速化が可能である。
-1) ) 本実施例は、多角形をマッチングの対象とし、見え方モ
デルおよび画像の特徴として各辺の線分の長さと方向と
を用いる。各線分の長さと方向とをベクトルで表し、ベ
クトルの始点を合わせた図形を、モデルと画像双方で構
成する。これらを、ベクトルの始点を中心にして、ベク
トル終点の点集合のマッチングで回転とスケール合わせ
とを行なう。最後に、対応付けられたいずれかの線分を
基準に平行移動することで、線分特徴のマッチングを行
なう。
2(a)に示すように、多角形の線分集合に対して、各
線分に垂直で多角形の外に向かう、線分の長さに比例し
たベクトルを設定し、始点を合わせる。あるいは、図3
2(b)に示すように、一定方向回りに(例えば左回り
に)、各辺の方向をとってベクトルとし、始点を合わせ
る。
徴を抽出し、これを中心を含めて点集合マッチングを行
なうことにより、前述の第1実施例の図15に示した手
法と同様の手法で回転角情報を求めて、式(5)に示す
評価式を用いて評価値を計算する。これによって、各辺
の対応と回転角とが検出できるので、対応付けされたい
ずれかの辺で平行移動することで、モデルを計測画像に
合わせるための、平行移動情報および回転移動情報を得
ることができる。そして評価値が最小となった最適な線
分の対応についてスケール情報を求める。したがって、
本実施例で用いる評価式は下記の式に示すようになる。
定数、gθk,gφθk は、基準線に対してそれぞれ角
度θk,φθkをなす線分の長さである。
ルに関して、回転移動量と線分の対応とを同時に検出で
きるとともに、点集合のマッチング手法(図15参照)
を用いて線分のマッチングを容易に行なうことができ
る。また、回転の中心が固定されているので、マッチン
グ評価の回数が少なくて済む利点がある。
-2) ) 本実施例では、線分で構成されるモデルと計測画像から
検出した線分とを比較し、最適なマッチングを判定する
ことにより、モデルと計測画像との高速で確実なマッチ
ングを行なうものである。
測入力画像に対して画像処理により線分検出を行ない、
線分で構成されたモデルデータと計測画像の線分情報と
の比較により回転角度を決定し、次いで位置とスケール
を決定し、最終的に対象物品の角度情報、位置情報およ
びスケール情報を得るものである。
情報、位置情報およびスケール情報を得る処理のフロー
チャートを図34および図35に示す。
数の線分から代表線分を選定し、かつ上記画像の上の複
数の線分から候補線分を選定して、両線分間の角度誤差
を求め、該角度誤差に基づき上記2次元見え方モデル上
の全ての線分の角度を補正し、次いで上記画像上の全て
の線分が所定の基準線に対してなす角度について、該角
度の近傍角度に対して当該線分の長さにより重み付けら
れた角度誤差評価値を与える評価値曲線を設定し、上記
2次元見え方モデル上の全ての線分の上記基準線に対す
る角度の評価値を上記評価値曲線に基づいて算出し、該
算出された評価値に基づいて、上記画像データと上記2
次元見え方モデルとをマッチングさせている。
データを準備する。また、物品の計測画像については、
例えば単色階調画像のエッジ抽出処理と線分セグメント
抽出処理等により、画像から線分抽出を行なう(図36
参照)。
とから得られた線分の角度のマッチングを行なう。
に、モデルから代表線分Lmを1本選択する。これは、
最も特徴的な線分として、最も長い線分、もしくは最も
計測が確実な線分を選ぶ。次に計測画像からこれに適合
する線分Liを選定する。
との角度誤差Rq、すなわち、例えば図36ではモデル
線分Lm2 と計測線分Li2 との角度誤差を計算し、こ
の補正角度Rqに基づきモデルの全ての線分Lm1 〜L
m5 の角度を補正する。
デル上の全ての線分Lm1 〜Lm5について、計測線分
Li1 〜Li5 の角度分布との一致度評価を行ない、評
価値の総和を線分Lmと線分Liとの角度補正により得
られた評価値とする(図37参照)。
と、図36に示す画像の上の全ての線分Li1 〜Li5
が所定の基準線、例えばX軸に対してなす角度θi1〜θ
i5を図37に示す所定の直交座標軸の横軸上にプロット
し、各プロット点からの当該線分Li1 〜Li5 の長さ
に応じた縦軸方向の高さをそれぞれ有する点Pi1〜Pi5
を求め、次いで各点Pi1〜Pi5をそれぞれ頂点とするガ
ウス分布(正規分布)曲線を作成する。そして、上記処
理(3) で角度補正された2次元見え方モデル上の各線分
Lm1 〜Lm5 の上記基準線(例えば図36のX軸)に
対してなす角度θm1〜θm5をガウス分布曲線上にプロッ
トして、各プロット点Pm1〜Pm5の横軸からの高さ
(「線分一致の確からしさ」を表している)をそれぞれ
求め、各プロット点Pm1〜Pm5の横軸からの高さの総和
を求める。
線分Li1 とLi3 の角度θi1,θi3が近接しているこ
とにより、これら線分Li1 ,Li3 にそれぞれ対応す
る2つのガウス分布曲線が互いに交わっている場合は、
これら2つのガウス分布曲線の高さの和の値を高さとす
る新たな曲線kを作成し、線分Li1 ,Li3 にそれぞ
れ対応する2次元見え方モデル上の線分Lm1 ,Lm3
の角度θm1,θm3を上記曲線k上にプロットして、各プ
ロット点Pm1 ,Pm3 の横軸からの高さをそれぞれ求
める。
分の組合わせに対して行ない、最も評価の高い角度Rq
をモデルと計測画像のとのマッチング角度として採用す
る。
qの決定を行なう。先ず、位置を決定するために角度と
同様にモデルの中で最も代表的な線分Lm1 ,Lm2 を
選定し、計測画像線分Li1 ,Li2 との位置補正量T
qを求め、2次元見え方モデルを平行移動させ、線分L
m1 とLm2 との交点を線分Li1 とLi2 との交点に
一致させる。このように、2本の線分を用いることで、
不正確な端点情報を使用せずにエッジ方向誤差v1 ,v
2 のみを用いて、その合成ベクトルとしての位置補正量
Tqを求めることができる(図38参照)。
めにモデルから線分Lm4 を選定し、計測画像の線分L
i4 とのスケール係数Sqを求める。基準点として、線
分Lm1 とLm2 との交点を選ぶが、この点は線分Li
1 とLi2 との交点に等しいので、これを原点として線
分Lm4 とLi4 とを一致させる拡大縮小率Sqを決定
する。これも線分Lm4 とLi4 のエッジ方向移動量S
m,Siで決定できる(図39参照)。
分は、最も特徴的な組合わせを1組か2組程度用意して
おけば十分である。また計測データの角度は補正済みで
あるため、計測データから選定する候補線分Li1 ,L
i2 ,Li4 も角度情報を基準に選定することで候補の
絞り込みは容易に行える。
角度パラメータRq、位置補正パラメータTqおよびス
ケールパラメータSqの決定を高速かつ高精度をもって
行なうことができる。
る少ない情報でマッチング判定を行なうため、イメージ
画像でのマッチングに比較して、高速処理が可能であ
る。また、計測画像からの線分抽出では一般に端点を正
確に検出することは困難であるが、本実施例では、角度
と併せて、最も計測精度が高い線分のエッジ方向(線分
に直交する方向)の位置を用いてマッチングを行うた
め、高精度の処理が可能になる。
成図
理の流れを表すフローチャート
の流れを表すフローチャート
置の説明図
施例の概略構成図
図
施例の概略構成図
施例の機能ブロック図
施例の全体構成図
部分
部分
説明図
図
徴点の組を示す説明図
施例における多角形の線分集合に対するベクトルの設定
手法の説明図
施例の全体構成図
部分
部分
Claims (18)
- 【請求項1】 第1および第2の撮像手段を用いたステ
レオ視により物品を撮像した1対の画像から上記物品の
3次元位置を検出する方法であって、上記物品の2次元
上の特徴部を有する2次元見え方モデルを設定し、上記
1対の画像のそれぞれから抽出した特徴部を、上記2次
元見え方モデルを介して対応付けを行なうことを特徴と
する物品の位置検出方法。 - 【請求項2】 上記1対の画像からそれぞれ抽出した特
徴部と上記2次元見え方モデル上の特徴部とをそれぞれ
マッチングさせることにより、上記1対の画像間の対応
付けを行なって、各特徴部の3次元位置を計測し、かつ
上記物品の3次元構造モデルを設定して、上記3次元位
置が計測された上記画像上の特徴部と上記3次元構造モ
デル上の特徴部とをマッチングさせることにより、上記
物品の3次元位置を算出することを特徴とする請求項1
に記載の物品の位置検出方法。 - 【請求項3】 上記物品の設計データを用いて上記3次
元構造モデルを設定し、該3次元構造モデルを変換する
ことにより、上記2次元見え方モデルを設定することを
特徴とする請求項2に記載の物品の位置検出方法。 - 【請求項4】 上記特徴部が特徴点よりなり、上記画像
から抽出した特徴点と上記2次元見え方モデル上の特徴
点とをマッチングさせることを特徴とする請求項1ない
し3の1つに記載の物品の位置検出方法。 - 【請求項5】 上記物品上に見える穴の中心を上記特徴
点として選定することを特徴とする請求項4に記載の物
品の位置検出方法。 - 【請求項6】 上記物品上に見える多角形の頂点を上記
特徴点として選定することを特徴とする請求項4に記載
の物品の位置検出方法。 - 【請求項7】 上記物品上に見える穴の中心と多角形の
頂点との双方を上記特徴点として選定することを特徴と
する請求項4に記載の物品の位置検出方法。 - 【請求項8】 上記画像上および上記2次元見え方モデ
ル上の双方において、多数の特徴点の中から第1候補点
と第2候補点とを任意に選定するとともに、該第1候補
点と第2候補点とを通る基準線をそれぞれ設定し、該基
準線と、上記第1および第2候補点を除く他のすべての
特徴点と上記第1候補点とをそれぞれ結ぶ直線とのなす
角度の計測に基づいて、上記画像上の特徴点と上記2次
元見え方モデル上の特徴点とをマッチングさせることを
特徴とする請求項4ないし7の1つに記載の物品の位置
検出方法。 - 【請求項9】 上記画像上および上記2次元見え方モデ
ル上の双方において、多数の特徴点の中から第1候補点
と第2候補点とを任意に選定するとともに、該第1候補
点と第2候補点とを通る基準線をそれぞれ設定し、双方
の第1候補点が互いに一致するように両基準線を重ね合
わせる態様で、上記画像と上記2次元見え方モデルとを
重ね合わせ、かつ双方の第2候補点が互いに一致するよ
うに、上記画像と上記2次元見え方モデルとのスケール
合わせを行なうことにより、上記b画像上の特徴点と上
記2次元見え方モデル上の特徴点とをマッチングさせる
ことを特徴とする請求項4ないし7の1つに記載の物品
の位置検出方法。 - 【請求項10】 上記重ね合わせおよびスケール合わせ
のなされた後の上記画像上の上記第1および第2候補点
を除く特徴点と、これにそれぞれ対応する上記2次元見
え方モデル上の特徴点との間の距離の計測に基づいて、
上記画像上の特徴点と上記2次元見え方モデル上の特徴
点とをマッチングさせることを特徴とする請求項9に記
載の物品の位置検出方法。 - 【請求項11】 上記多角形の頂点における内角の2等
分線ベクトルと内角度とに基づいて、上記画像上の特徴
点と上記2次元見え方モデル上の特徴点とをマッチング
させることを特徴とする請求項6に記載の物品の位置検
出方法。 - 【請求項12】 上記2次元見え方モデル上の上記多角
形の任意の頂点を原点候補点として選定し、上記画像上
の上記多角形の頂点から第1候補点を選定し、該第1候
補点が上記原点候補点に重なり合い、かつ双方の内角の
2等分線ベクトルが重なり合うように上記2次元見え方
モデルを上記画像上に重ね合わせ、次いで、上記画像お
よび上記2次元見え方モデルの上記第1候補点および上
記原点候補点を除く他の頂点から、第2候補点をそれぞ
れ選定し、双方の第2候補点が互いに一致するようにス
ケール合わせを行なうことにより、上記画像上の各頂点
と上記2次元見え方モデル上の各頂点とをマッチングさ
せることを特徴とする請求項11に記載の物品の位置検
出方法。 - 【請求項13】 上記特徴部が上記物品上に見える線分
よりなり、上記画像から抽出した線分と上記2次元見え
方モデル上の線分とを用いて、上記画像と上記2次元見
え方モデルとをマッチングさせることを特徴とする請求
項1ないし3の1つに記載の物品の位置検出方法。 - 【請求項14】 上記線分によって形成される多角形の
各辺の長さと方向に対応する複数のベクトルを作成し、
該複数のベクトルから任意に選定した基準ベクトルに対
する他のベクトルのなす角度およびスケール情報に基づ
いて、上記画像データと上記2次元見え方モデルとをマ
ッチングさせることを特徴とする請求項13に記載の物
品の位置検出方法。 - 【請求項15】 上記2次元見え方モデル上の複数の線
分から代表線分を選定し、かつ上記画像の上の複数の線
分から候補線分を選定して、両線分間の角度誤差を求
め、該角度誤差に基づき上記2次元見え方モデル上の全
ての線分の角度を補正し、次いで上記画像上の全ての線
分が所定の基準線に対してなす角度について、該角度の
近傍角度に対して当該線分の長さにより重み付けられた
角度誤差評価値を与える評価値曲線を設定し、上記2次
元見え方モデル上の全ての線分の上記基準線に対する角
度の評価値を上記評価値曲線に基づいて算出し、該算出
された評価値に基づいて、上記画像データと上記2次元
見え方モデルとをマッチングさせることを特徴とする請
求項13に記載の物品の位置検出方法。 - 【請求項16】 ステレオ視法により物品を撮像する第
1および第2の撮像手段と、 上記ステレオ視法により撮像された1対の画像から特徴
部をそれぞれ抽出する特徴抽出手段と、 上記1対の画像からそれぞれ抽出された特徴部と上記物
品の2次元見え方モデルの特徴部とをそれぞれマッチン
グさせることにより、上記1対の画像間の対応付けを行
なう2次元見え方モデルマッチング手段と、 該2次元見え方モデルマッチング手段による対応付け結
果を用いて、上記画像上の各特徴部の3次元位置を計測
する3次元位置計測手段と、 上記3次元位置が計測された上記画像上の特徴部と上記
物品の3次元構造モデルの特徴部とをマッチングさせる
ことにより、上記物品の3次元位置を算出する3次元構
造モデルマッチング手段と、を備えていることを特徴と
する物品の位置検出装置。 - 【請求項17】 上記物品の設計データを用いて上記3
次元構造モデルを設定し、かつ該3次元構造モデルを変
換することにより、上記2次元見え方モデルを設定する
モデル生成手段を備えていることを特徴とする請求項1
6に記載の物品の位置検出装置。 - 【請求項18】 上記2次元見え方モデルマッチング手
段が、上記2次元見え方モデルと、相対的配置算出部
と、対応付け部と、データ統合部とを備えていることを
特徴とする請求項16に記載の物品の位置検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27928194A JP3738456B2 (ja) | 1994-11-14 | 1994-11-14 | 物品の位置検出方法およびその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27928194A JP3738456B2 (ja) | 1994-11-14 | 1994-11-14 | 物品の位置検出方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08136220A true JPH08136220A (ja) | 1996-05-31 |
JP3738456B2 JP3738456B2 (ja) | 2006-01-25 |
Family
ID=17608986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27928194A Expired - Fee Related JP3738456B2 (ja) | 1994-11-14 | 1994-11-14 | 物品の位置検出方法およびその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3738456B2 (ja) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001266159A (ja) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | 物体領域情報生成方法及び物体領域情報生成装置並びに近似多角形生成方法及び近似多角形生成装置 |
JP2002288670A (ja) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | 顔画像を使用した個人認証装置 |
JP2002323301A (ja) * | 2001-04-26 | 2002-11-08 | Fujitsu Ltd | 物体位置計測装置 |
US6721444B1 (en) | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
JP2006527434A (ja) * | 2003-06-10 | 2006-11-30 | バイオスペース インスツルメンツ | 3次元再構成のための放射線画像法並びにその方法を実施するコンピュータプログラムおよび装置 |
JP2007502473A (ja) * | 2003-08-15 | 2007-02-08 | スカーペ アクティーゼルスカブ | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム |
US7280687B2 (en) | 2002-09-02 | 2007-10-09 | Fanuc Ltd | Device for detecting position/orientation of object |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010060494A (ja) * | 2008-09-05 | 2010-03-18 | Fujitsu Ltd | 姿勢計測装置 |
JP2011017611A (ja) * | 2009-07-09 | 2011-01-27 | National Institute Of Advanced Industrial Science & Technology | 3次元曲面認識方法及びマニピュレーションシステム |
JP2011099864A (ja) * | 2010-12-03 | 2011-05-19 | Hitachi High-Technologies Corp | パターンマッチング装置およびそれを用いた半導体検査システム |
JP2011112400A (ja) * | 2009-11-24 | 2011-06-09 | Omron Corp | 3次元視覚センサ |
JP2012068062A (ja) * | 2010-09-21 | 2012-04-05 | Fuji Xerox Co Ltd | 位置合わせ装置、位置合わせシステム及び位置合わせプログラム |
WO2012160611A1 (ja) * | 2011-05-26 | 2012-11-29 | 富士通テレコムネットワークス株式会社 | 位置検出装置およびそれを搭載した外観検査装置 |
JP2014519043A (ja) * | 2011-06-07 | 2014-08-07 | クレアフォーム・インコーポレイテッド | 3d走査用のセンサ位置決め |
JP2014161937A (ja) * | 2013-02-22 | 2014-09-08 | Seiko Epson Corp | 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム |
JP2015007639A (ja) * | 2014-08-20 | 2015-01-15 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015515655A (ja) * | 2012-06-29 | 2015-05-28 | 三菱電機株式会社 | データを位置合わせする方法 |
US9747524B2 (en) | 2014-02-28 | 2017-08-29 | Ricoh Company, Ltd. | Disparity value deriving device, equipment control system, movable apparatus, and robot |
US9816809B2 (en) | 2012-07-04 | 2017-11-14 | Creaform Inc. | 3-D scanning and positioning system |
US10401142B2 (en) | 2012-07-18 | 2019-09-03 | Creaform Inc. | 3-D scanning and positioning interface |
US11185697B2 (en) | 2016-08-08 | 2021-11-30 | Deep Brain Stimulation Technologies Pty. Ltd. | Systems and methods for monitoring neural activity |
US11298070B2 (en) | 2017-05-22 | 2022-04-12 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
-
1994
- 1994-11-14 JP JP27928194A patent/JP3738456B2/ja not_active Expired - Fee Related
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6721444B1 (en) | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
DE10080012B4 (de) * | 1999-03-19 | 2005-04-14 | Matsushita Electric Works, Ltd., Kadoma | Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens |
JP2001266159A (ja) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | 物体領域情報生成方法及び物体領域情報生成装置並びに近似多角形生成方法及び近似多角形生成装置 |
JP2002288670A (ja) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | 顔画像を使用した個人認証装置 |
JP4588914B2 (ja) * | 2001-04-26 | 2010-12-01 | 富士通株式会社 | 物体位置計測装置 |
JP2002323301A (ja) * | 2001-04-26 | 2002-11-08 | Fujitsu Ltd | 物体位置計測装置 |
US7280687B2 (en) | 2002-09-02 | 2007-10-09 | Fanuc Ltd | Device for detecting position/orientation of object |
JP2006527434A (ja) * | 2003-06-10 | 2006-11-30 | バイオスペース インスツルメンツ | 3次元再構成のための放射線画像法並びにその方法を実施するコンピュータプログラムおよび装置 |
JP2007502473A (ja) * | 2003-08-15 | 2007-02-08 | スカーペ アクティーゼルスカブ | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム |
US7822264B2 (en) | 2003-08-15 | 2010-10-26 | Scape A/S | Computer-vision system for classification and spatial localization of bounded 3D-objects |
JP4865557B2 (ja) * | 2003-08-15 | 2012-02-01 | スカーペ テクノロジーズ アクティーゼルスカブ | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010060494A (ja) * | 2008-09-05 | 2010-03-18 | Fujitsu Ltd | 姿勢計測装置 |
JP2011017611A (ja) * | 2009-07-09 | 2011-01-27 | National Institute Of Advanced Industrial Science & Technology | 3次元曲面認識方法及びマニピュレーションシステム |
JP2011112400A (ja) * | 2009-11-24 | 2011-06-09 | Omron Corp | 3次元視覚センサ |
JP2012068062A (ja) * | 2010-09-21 | 2012-04-05 | Fuji Xerox Co Ltd | 位置合わせ装置、位置合わせシステム及び位置合わせプログラム |
JP2011099864A (ja) * | 2010-12-03 | 2011-05-19 | Hitachi High-Technologies Corp | パターンマッチング装置およびそれを用いた半導体検査システム |
WO2012160611A1 (ja) * | 2011-05-26 | 2012-11-29 | 富士通テレコムネットワークス株式会社 | 位置検出装置およびそれを搭載した外観検査装置 |
JP5671135B2 (ja) * | 2011-05-26 | 2015-02-18 | 富士通テレコムネットワークス株式会社 | 位置検出装置およびそれを搭載した外観検査装置 |
JP2014519043A (ja) * | 2011-06-07 | 2014-08-07 | クレアフォーム・インコーポレイテッド | 3d走査用のセンサ位置決め |
US9325974B2 (en) | 2011-06-07 | 2016-04-26 | Creaform Inc. | Sensor positioning for 3D scanning |
JP2015515655A (ja) * | 2012-06-29 | 2015-05-28 | 三菱電機株式会社 | データを位置合わせする方法 |
US9816809B2 (en) | 2012-07-04 | 2017-11-14 | Creaform Inc. | 3-D scanning and positioning system |
US10928183B2 (en) | 2012-07-18 | 2021-02-23 | Creaform Inc. | 3-D scanning and positioning interface |
US10401142B2 (en) | 2012-07-18 | 2019-09-03 | Creaform Inc. | 3-D scanning and positioning interface |
JP2014161937A (ja) * | 2013-02-22 | 2014-09-08 | Seiko Epson Corp | 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム |
US9747524B2 (en) | 2014-02-28 | 2017-08-29 | Ricoh Company, Ltd. | Disparity value deriving device, equipment control system, movable apparatus, and robot |
JP2015007639A (ja) * | 2014-08-20 | 2015-01-15 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11185697B2 (en) | 2016-08-08 | 2021-11-30 | Deep Brain Stimulation Technologies Pty. Ltd. | Systems and methods for monitoring neural activity |
US11278726B2 (en) | 2016-08-08 | 2022-03-22 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
US11890478B2 (en) | 2016-08-08 | 2024-02-06 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
US11298070B2 (en) | 2017-05-22 | 2022-04-12 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
Also Published As
Publication number | Publication date |
---|---|
JP3738456B2 (ja) | 2006-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH08136220A (ja) | 物品の位置検出方法およびその装置 | |
US6690841B2 (en) | Method and apparatus for image registration | |
Mohr et al. | Relative 3D reconstruction using multiple uncalibrated images | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN103678754B (zh) | 信息处理装置及信息处理方法 | |
JP2919284B2 (ja) | 物体認識方法 | |
JP4865557B2 (ja) | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
US20040170315A1 (en) | Calibration apparatus, calibration method, program for calibration, and calibration jig | |
US20050031167A1 (en) | Method of three dimensional positioning using feature matching | |
CN115345822A (zh) | 一种面向航空复杂零件的面结构光自动化三维检测方法 | |
CN105574812B (zh) | 多角度三维数据配准方法及装置 | |
KR900002509B1 (ko) | 화상 처리 장치 | |
CN109766903B (zh) | 一种基于曲面特征的点云模型曲面匹配方法 | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
Fan et al. | A shape-based stereo matching algorithm for binocular vision | |
JP2001143073A (ja) | 物体の位置姿勢決定の方法 | |
JPH07103715A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
Jiang et al. | A ball-shaped target development and pose estimation strategy for a tracking-based scanning system | |
JPH09212643A (ja) | 三次元物体認識方法及びその装置 | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
CN115112098B (zh) | 一种单目视觉的一维二维测量方法 | |
JP4793109B2 (ja) | 物体検出法およびロボット | |
JP3516668B2 (ja) | 3次元形状認識方法、装置およびプログラム | |
Moron et al. | Automatic inspection of industrial parts using 3D optical range sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051024 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091111 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |