JP3426002B2 - 物体認識装置 - Google Patents

物体認識装置

Info

Publication number
JP3426002B2
JP3426002B2 JP23378493A JP23378493A JP3426002B2 JP 3426002 B2 JP3426002 B2 JP 3426002B2 JP 23378493 A JP23378493 A JP 23378493A JP 23378493 A JP23378493 A JP 23378493A JP 3426002 B2 JP3426002 B2 JP 3426002B2
Authority
JP
Japan
Prior art keywords
image
reference example
recognition
edge
voting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23378493A
Other languages
English (en)
Other versions
JPH0788791A (ja
Inventor
橋本  学
和彦 鷲見
美和子 広岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP23378493A priority Critical patent/JP3426002B2/ja
Publication of JPH0788791A publication Critical patent/JPH0788791A/ja
Application granted granted Critical
Publication of JP3426002B2 publication Critical patent/JP3426002B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 【産業上の利用分野】 【0001】この発明は、ロボット装置におけるワーク
の認識などのための物体認識装置に関するものである。【0002】 【従来の技術】従来の技術1. 図39 は例えば「画像解析ハンドブック」(監修;高木
幹雄、下田 陽久発行;1991年1月17日 東京
大学出版会)の第572〜573頁に示された、従来の
物体認識装置におけるハフ(Hough )変換による画像処
理の内容を示す説明図であり、図40はそのハフ変換処
理の流れを示すフローチャートである。以下、それらを
もとにハフ変換による画像処理について説明する。ハフ
変換を行うためには、まず原画像のエッジ検出を行う
(ステップST41)。検出されたハフ変換すべきエッ
ジ画像のエッジ点A〜Gをx−y平面上に示したものが
図39(a)である。次に、ハフ平面としてρ−θ平面
(画像)を用意し、以下の手順でハフ変換を実行する。
即ち、図39(a)に示したエッジ画像中の各エッジ点
(i,j)について次の式(2)に従ってρとθの関係
を求め、対応するハフ平面であるρ−θ平面上の画素に
投票する(ステップST42)。【0003】 ρ=i・cos(θ)+j・sin(θ) ‥‥‥‥‥(2)【0004】 ここで、図39(b)は図39(a)にA
〜Gで示された各エッジ点に対応するハフ平面上の投票
軌跡を描いたものである。このステップST42による
投票操作はエッジ画像中の全てのエッジ点画素A〜Gに
ついてそれぞれ実行される。次にハフ平面上を操作して
ピーク点を検出する(ステップST43)。そのピーク
位置に対応するρとθの値から、上記式(2)によって
iとjとの関係、即ち、エッジ画像平面における直線の
方程式が求められる(ステップST44)。【0005】 【発明が解決しようとする課題】【0006】 従来の 物体認識装置は、前述のようにハフ
変換による画像処理を行っているので、エッジ画像上の
全ての点それぞれについて、ハフ平面での曲線に対応し
て投票を行うことが必要となり、投票に時間がかかり、
しかもピーク点が探索しにくいという問題点があった。【0007】 この発明は上記のような従来の問題点を
消するためになされたもので、エッジ画像上のエッジ点
をハフ平面に投票するための時間が短く、ピーク点も探
索しやすい物体認識装置を得ることを目的とする。【0008】 【課題を解決するための手段】この発明に係る物体認識
装置は、エッジ検出手段、水平線投票手段、垂直線投票
手段、および水平・垂直線以外投票手段を有し、エッジ
画像を水平および垂直に走査して得られたエッジ点が水
平線分であるかどうかを判定して水平線分であれば、そ
れを点としてハフ投票平面に投票する水平線投票手段
と、前記エッジ画像を垂直に走査して得られたエッジ点
が垂直線分であるかどうかを判定して垂直線分であれ
ば、それを点としてハフ投票平面に投票する垂直線投票
手段と、前記判定において水平線分でもなくかつ垂直線
分でもないと判定されたエッジ点を、曲線として前記ハ
フ投票平面に投票するものである。【0009】 【作用】 この 発明における物体認識装置は、原画像より
検出されたエッジ画像を水平に走査して得られた水平線
分を水平線投票手段により、また、垂直に走査して得ら
れた垂直線分を垂直線投票手段により、それぞれハフ投
票平面に点として投票するとともに、水平線分でもなく
かつ垂直線分でもないと判定されたエッジ画像上のエッ
ジ点については従来のハフ変換操作により前記ハフ投票
平面に曲線として投票し、最後にそのハフ投票平面を探
索して局所的ピークを検出し、対応する原画像上の直線
を検出するように作用する。【0010】 【実施例】参考例1 . 以下、この発明の参考例1を図について説明する。図1
は参考例1を示す構成図である。図において、50は例
えばパレット(図示省略)上に積載された複数のワーク
であり、51はこのワーク50の移載作業を実行するロ
ボット、52はこのロボット51のロボットハンドであ
る。53はワーク50の上面の画像を撮像する撮像手段
としてのテレビカメラであり、54はこのテレビカメラ
53によって撮像されたワーク50の2次元的な配置を
認識する画像認識手段である。55はこの画像認識手段
54によって認識されたワーク50の配置に基づいて、
ワーク50の高さを測定するための最適な測定点を算出
し、距離計測プランの作成を行う距離計測プラン部であ
り、56はこの距離計測プラン部55が作成した距離計
測プランに従って、1つのワーク50に対して少なくと
も1点のワーク高さ測定点の高さを計測する距離計測手
段、57はこの距離計測手段56の距離センサ(超音波
センサ)である。58は画像認識手段54の認識結果と
距離計測手段56の計測結果より、ワーク50の3次元
的な配置を認識するワーク配置認識手段であり、59は
このワーク配置認識手段58の認識結果に基づいて、ワ
ーク50を移載するためのロボット51の動作プランを
算出するロボット動作プラン部である。【0011】 次に動作について説明する。ここで、図2
はこのように構成されたロボット装置の動作の流れを示
すフローチャートであり、以下、例えばパレット上に積
載された複数のワーク50が、テレビカメラ53の視野
内にあるという前提で動作を説明する。処理の最初の段
階で、鉛直下向きに設置されたテレビカメラ53によっ
て、パレット上のワーク50の画像が撮像される(ステ
ップST71)。次に、画像認識手段54によってワー
ク50の2次元的な配置が認識される(ステップST7
2)。図3はこの参考例1における入力原画像の一例で
ある。画像視野内に#1から#6までの6個の箱状のワ
ーク50が映っている。ワーク50の高さは、図1にあ
るように、#2のワーク50のみが他の5つのワーク5
0より1段高い位置にある。この図3に示した画像を処
理した結果得られたワーク50の位置と姿勢の関係を次
の表1に示す。【0012】 【表1】 【0013】つまり、画像認識手段54による処理の結
果を示している。例えば、#1のワーク50は、位置が
(x1,y1)、姿勢(向き)が2次元的に角度a1で
あることを示している。このx1,y1,a1などの変
数には認識データが格納されている。この表1のデータ
では各ワーク50の高さ情報のみが未計測である。【0014】 次に、距離計測プラン部55はワーク50
の高さを計測をすべき距離計測点と計測シーケンスを決
定する(ステップST73)。図4における点P1,P
2,P3,P4,P5,P6の各点は決定された距離計
測点であり、認識された各ワーク50の重心として計算
される。また、計測シーケンスとしてはP1から順にP
6まで順次計測する。距離センサ57はロボットハンド
52に取り付けられており、レーザビームにより三角測
量の原理で距離を計測する。そのため、ロボット動作を
行わせて(ステップST74)、各計測点の真上に距離
センサ57を移動させ、距離の計測を行う(ステップS
T75)。距離計測はこの場合P1からP6まで6回行
われる。全ての距離計測点の計測が完了したことを検出
すると(ステップST76)この距離計測を終了し、ワ
ーク配置認識手段58によって各ワーク50の高さが計
算される。最終的な配置認識結果を示したものが次の表
2であり、位置・姿勢の他に、高さ情報が格納されてい
る。【0015】 【表2】 【0016】このような一連の処理により、視野内の全
てのワーク50に対する3次元情報が計算され(ステッ
プST79)、ロボット動作プラン部59でロボット5
1がワーク50を移載作業するのに必要なロボット動作
が決定され、それに従ってロボット51が動作する(ス
テップST78)。【0017】 なお、上記参考例1では、距離計測のため
の距離センサ57としてレーザビーム型のものを使用し
たが、超音波式のものであっても、あるいはまた、複数
のテレビカメラを使用してステレオ視の距離を計測する
ものであってもよく、上記参考例と同様の効果を奏す
る。【0018】 また、上記参考例1では距離計測点を各ワ
ーク50の重心としたが、それ以外の複数の点を計測点
として決定してもよく、その場合はより高さ計測の信頼
性が向上する。【0019】参考例2 . 次に、この発明の参考例2を図について説明する。図5
参考例2を示す構成図であり、相当部分には図1と同
一符号を付してその説明を省略する。図において、60
は撮像手段としてのテレビカメラ53がワーク50の画
像を撮像した後に、撮像されたワーク50の画像データ
の処理と平行して、予め定められている標準的な計測コ
ースに従って距離計測手段56と共用される距離センサ
57を移動させながらワーク50の高さを計測する標準
距離計測手段である。【0020】 次に動作について説明する。ここで、図6
はこのように構成されたロボット装置の動作の流れを示
すフローチャートであり、以下、参考例1の場合と同様
に各ワーク50がテレビカメラ53の視野内にあるとい
う前提で動作を説明する。処理の最初の段階で、鉛直下
向きに設置されたテレビカメラ53によりワーク50の
画像が撮像される(ステップST81)。次に、画像認
識手段54によってワーク50の2次元的な配置の認識
が開始されるが(ステップST82)、この画像認識処
理が開始されると同時に、標準距離計測手段60によっ
て標準距離計測が実行される(ステップST83)。こ
の標準距離計測とは、予め決められた複数の固定距離計
測点を、これも予め決められた距離計測シーケンスに従
って計測するものである。図7は標準距離計測点とその
シーケンスの例を示している。即ち、画像上のワーク5
0の位置や姿勢、ワーク50の個数などに依存せず、標
準距離計測点P1からP16までの全16点について番
号順にワーク50の高さを計測する。距離計測センサ5
7は参考例1の場合と同様に、ロボットハンド52に取
り付けられたレーザ式距離センサであり、三角測量の原
理で距離を計測する。図7によれば、この場合にはワー
ク50が#1のワークから#6のワークまで6個存在
し、例えば#1のワークについては標準距離計測点P1
およびP8の2点が計測され、#2のワークについては
標準距離計測点P2,P3,P6,P7の4点が計測さ
れることになる。標準距離計測点の位置やピッチは、認
識対象とするワーク50の寸法や位置ずれ許容量などか
ら予め決定しておく。【0021】 ここで、2次元配置認識とこの標準距離計
測にかかる処理時間のどちらが長いかについては視野内
の物体の個数や距離計測点数などによって異なるが、こ
参考例2では標準距離計測が先に終了する。画像認識
手段54は標準距離計測によって得られた距離情報を使
って粗い3次元認識を行う。【0022】 画像認識が終了すると、より精密な認識を
行うために、先の標準距離計測で計測した標準距離計測
点が不足していればさらに距離計測を行う距離計測点を
距離計測プラン部55により決定する。ここでは、例え
ば各ワークの重心に相当する位置を距離計測点として追
加する。この場合もロボットハンド52に取り付けられ
た距離センサ57により、各距離計測点の距離が追加計
測され(ステップST84)、ワーク配置認識手段58
により、前述した粗い認識結果と統合されて最終的にワ
ーク50の精密で信頼性の高い3次元配置が認識される
(ステップST85)。この3次元配置の認識結果はロ
ボット動作プラン部59に送られて移載のためのロボッ
ト動作シーケンスが自動的に計算され、ロボット51は
当該動作シーケンスのデータを受け取って所定の移載作
業を行う(ステップST86)。【0023】 ここで、図8は図6に示した各処理の実際
の時間関係を示すタイミング図である。同図で時刻t1
において画像撮像が開始され、時刻t2に撮像が終了す
る。時刻t2では撮像された画像を使って2次元の粗い
配置認識が開始されると同時に、標準距離計測プランに
よる標準距離計測も開始される。前述のように、2次元
の配置認識と標準距離計測にかかる処理時間のどちらが
長いかについては視野内の物体の個数や距離計測点数な
どによって異なるが、この参考例2では時刻t3でまず
標準距離計測が完了する。画像認識手段54ではその標
準距離計測結果を使って認識処理を続行し、時刻t4で
粗い配置認識を完了する。この時刻t4では追加距離計
測が開始され、この追加距離計測が時刻t5で終了する
と、信頼性の高いワーク50の3次元配置認識が開始さ
れ、前記粗い配置認識の認識結果と追加距離計測結果と
が統合される。時刻t6においてこの3次元配置認識が
終了すると、最後にロボット動作のための制御信号生成
とロボット動作が開始され、時刻t7で移載作業を完了
する。【0024】 なお、上記参考例2では標準距離計測点の
選び方として格子状に計測点を設定し、また計測シーケ
ンスも波状に設定したが、必ずしも規則的でなくてもよ
く、例えば中心部ほど計測ピッチを狭く、かつ中心部か
ら順次周辺部へと螺旋状に計測するシーケンスを設定し
てもよい。計測点が多いほど計測の信頼性が向上するこ
とはいうまでもないが、ロボット動作による計測時間を
短縮するために、ロボット軌跡が最短になるようなシー
ケンスを自動的に算出する方式でも効果がある。【0025】 また、上記参考例2では追加距離計測とし
て、各ワーク50について、ワーク50の重心部分1点
のみを計測するものとしたが、その他にワーク50の輪
郭部分やコーナー部分を複数箇所計測するようにしても
よく、それによってより正確な認識が可能となる。【0026】参考例3 . 次に、この発明の参考例3を図について説明する。図9
参考例3を示す構成図であり、相当部分には図1と同
一符号を付してその説明を省略する。図において、61
は距離計測手段56にて計測した、1つのワーク50あ
たり3点以上設定した距離計測点における高さの計測結
果から、ワーク50の法線方向を計算する法線方向認識
手段である。なお、このワーク配置認識手段58は、法
線方向認識部61の計算した法線方向と画像認識手段5
4の認識結果とを用いてワーク50の3次元的な配置の
認識を行うものである点で、参考例1のものとは異なっ
ている。【0027】 次に動作について説明する。ここで、図1
0はこのように構成されたロボット装置の動作の流れを
示すフローチャートで、以下、参考例1の場合と同様に
各ワーク50がテレビカメラ53の視野内にあるという
前提で動作を説明する。最初の段階で、鉛直下向きに設
置されたテレビカメラ53によりワーク50の画像が撮
像される(ステップST91)。次に、画像認識手段5
4によって、ワーク50の2次元的な配置が認識される
(ステップST92)。この2次元配置認識の認識結果
ではワーク50の位置と姿勢(向き)が計測されてい
る。次に、各ワーク50ごとに距離計測プラン部55に
よりワーク50の高さを計測すべき距離計測点が決定さ
れる(ステップST93)。図11は、この距離計測点
が決定される様子を示す説明図である。同図において、
画像中の点Pcは、画像認識手段54によって計測され
たワーク50の位置、即ち物体の重心に相当する位置で
ある。距離計測プラン部55では、この点Pcと矢印A
で示した物体の向きとから、ワーク50のコーナー近傍
の2点P1およびP2の位置を計算し、Pcと併せた合
計3点を距離計測点として出力する。【0028】 次に、距離計測手段56により各ワーク5
0についてそれぞれ上記距離計測プラン部55で決定さ
れた3点づつの距離計測点において距離計測が行われる
(ステップST94)。さらに、各ワーク50の上面の
法線方向が法線方向認識手段61によって計算される
(ステップST95)。なお、この法線方向の決定は次
のように行われる。ここで、距離計測点の2次元的な位
置は画像処理で行われている。即ち、点Pc,P1,P
2の3点の2次元位置は既知である。また、距離計測手
段56による計測結果から、前記3点の高さも既知とな
る。今、Pc,P1,P2の各点をそれぞれ3次元空間
上の点であるとし、3次元のベクトルで表現すると、法
線ベクトルnは次の式(3)で表される。【0029】 【数1】 【0030】処理はさらに続き、ワーク配置認識手段5
8によって前記2次元配置の認識結果と距離計測結果が
統合され、ワーク50の3次元的配置パターンが認識さ
れる(ステップST96)。次いで、ロボット動作プラ
ン部59によって、ワーク50をロボット51がハンド
リングするための位置、向きおよび移載シーケンスロボ
ット動作プランが決定される(ステップST97)。こ
のとき、すでに求めた各ワーク50上面の法線方向を使
用して、ロボットハンド52のワーク50との接触面を
計算する。例えば、段ボール箱のような上面が平面に近
いワーク50でも、梱包時の失敗などの理由で、上面が
水平でないことがある。しかも、段ボール箱の移載装置
では、ロボットハンド52としてよく真空式の吸着ハン
ドが使用される。これらのことから、ロボットハンド5
2のワーク50の上面との位置関係は、ワーク50のハ
ンドリングの信頼性に大きな影響を与えるものである
が、この参考例3によれば、ワーク50の上面の傾きが
既知となるので、うまく吸着ハンドをワーク50に接近
させることが可能である。最後に、ロボット51が作動
してワーク50の移載作業を行い(ステップST9
8)、一連の動作を完了する。【0031】 なお、上記参考例3では、ワーク50上面
の法線を決定するのに、図11におけるPc,P1,P
2の3点を用いたが、同図におけるP3,P4を含めた
5点を使用、または直線上に並ばない任意の3点を選ん
で使用してもよい。ワーク50の2次元的配置が既知で
あるから、同一ワーク50、即ち同一平面上に存在する
ことが明らかな直線上にない3点以上の計測点であれ
ば、法線を決定することが可能であることはいうまでも
ない。【0032】 また、上記参考例3では、あるワーク50
の上面は完全に平面であるものとして法線を求めている
が、ワーク50によっては上面をさらにいくつかの部分
領域に分割し、各部分領域毎に法線を算出する方が合理
的な場合もあり、ワーク50の形状によって法線の算出
方法を適宜選択する方式をとっても、上記参考例と同様
に効果を奏する。【0033】参考例4 . 次に、この発明の参考例4を図について説明する。図1
2は参考例4を示す構成図であり、相当部分には図1と
同一符号を付してその説明を省略する。図において、6
2はロボット動作プラン部59にて決定されたロボット
の動作プランに従ってロボットを制御するロボット制御
部で、参考例1〜3ではその図示が省略されている。ま
た、63はワークの2次元的な認識に用られる複数の基
準モデルが格納されているワークモデル格納手段であ
る。なお、画像認識手段54は、距離計測手段56で計
測されたワーク50の高さの情報を使用して、撮像手段
53で撮像された画像におけるワーク50の大きさを推
測し、それによりワークモデル格納手段63に格納され
た標準モデルのデータを切り換えて、ワークの精密な2
次元配置認識を行うものである点で、参考例1のものと
は異なっている。【0034】 次に動作について説明する。ここで、図1
3はこのように構成されたロボット装置の動作の流れを
示すフローチャートで、以下、参考例1の場合と同様に
各ワークがテレビカメラ53の視野内にあるという前提
で動作を説明する。最初の段階で、鉛直下向きに設置さ
れたテレビカメラ53によって、パレット上のワーク画
像が撮像される(ステップST100)。次に、画像認
識手段54によって、ワーク50の2次元的な配置が認
識される(ステップST101)。このとき、ワークモ
デル格納手段63に格納されているのは、複数の標準モ
デルのデータである。ここで、テレビカメラ53のパレ
ットからの距離は既知であるが、パレットに積載された
ワーク50の配列やそれぞれのパレットからの高さは未
知である。ただし、ワーク50の寸法は既知であるの
で、ワーク50それぞれのパレットからの高さについて
は、ワーク高さ寸法の整数倍であることは利用できる。
このことから、ワークモデル格納手段63に格納されて
いる標準モデルとしては、各々のワーク50の高さに応
じたモデルを合わせ持っている。【0035】 以下、図14を用いてこの標準モデルの説
明を行う図14ではパレット上に積載された同一種類の
#1〜#3の3つのワーク50が示されている。つま
り、情景を真横からみた様子を模式的に示している。上
部にはテレビカメラ53を代表させて、レンズ中心の位
置を示している。また、撮像された画像に対応する仮想
撮像面の位置を説明が容易なのでパレット上面と同一と
しているが、これはカメラ光軸に垂直でさえあれば何等
説明の内容に変わりはない。ワーク50の個々の寸法に
ついては、長さL、高さHである。このとき、撮像され
るワーク50の仮想撮像面上でのサイズは、#1のワー
クに対応するものがLa、#2のワークに対応するもの
がLb、#3のワークに対応するものがLcとなる。こ
のように、ワーク上面のパレットからの高さによって撮
像面上のサイズは異なる。そこで、ワークモデル格納手
段63内の標準モデルとしては、この場合、寸法Laに
対応するもの、Lbに対応するもの、Lcに対応するも
のの3種類を合わせ持つ。【0036】 画像認識手段54による粗い2次元配置認
識では、まず上記のようにワークモデル格納手段63に
複数格納されている標準モデルの中の1種類を代表させ
て用いる。撮像された画像を領域分割し、面積と主軸方
向といった特徴を抽出して標準モデルの同じ特徴と比較
することで認識する。そのため、物体の2次元的な位置
と向きについては概略を知ることが可能であるが、標準
モデルの寸法と実際に撮像されているワーク50の寸法
とが異なる可能性があるために信頼性は低い。また、ワ
ーク50の高さについては計算することはできない。【0037】 次に、距離計測プラン部55ではこの狙い
2次元配置認識の結果を使って距離計測のための計測点
の位置や計測順序を決定する(ステップST102)。
この参考例4では粗い2次元配置認識で得られた各ワー
ク50の重心位置に対応するワーク50上の位置を計測
点とし、計測順序は複数の計測点を結ぶ一連の順序経路
が最短になるように決定する。距離計測は距離計測手段
56によってロボットハンド52に取り付けられた光ビ
ームセンサなどの距離センサを用いて、三角測量の原理
で計測される(ステップST103)。【0038】 この距離計測が完了すると各々のワーク5
0の高さが決定し、再び画像認識手段54によって精密
な2次元配置認識が行われる。このとき、まずワークモ
デル格納手段63に格納された標準モデルのなかから、
各ワーク50の高さをもとに選択されたモデル1つを選
択し(ステップST104)、それを用いて精密な2次
元配置認識を実行する(ステップST105)。図15
はこのワーク50の形状に合った標準モデルを用いて行
われる信頼性の高い2次元配置認識の概念を示す説明図
である。【0039】 前記精密な2次元配置認識結果は、距離計
測手段56によって得られた各ワーク50の距離(高
さ)情報と統合され、ワーク配置認識手段58によって
ワークの3次元配置認識が行われる(ステップST10
6)。ロボット動作プラン部59ではこの3次元配置認
識結果を使ってワーク移載動作のためのロボット動作制
御信号を自動的に生成し、それをロボット制御部62に
転送する。ロボット制御部62はこの信号を受け取って
ロボットを制御し、所定のワーク移載作業を実行する
(ステップST107)。【0040】 なお、上記参考例4では距離計測手段56
の距離センサ57として光りビーム利用したものについ
て説明したが、超音波センサによるものや、複数のテレ
ビカメラを用いたステレオ視の原理によるものなどであ
ってもよく、上記参考例と同様の効果を奏する。【0041】 また、上記参考例4では、ワークの標準モ
デルとして同一種類のワークに対して3つのモデルを使
用したが、異なるワークそれぞれに対して複数の標準モ
デルを用意しておくようにしてもよい。【0042】 また、この参考例4では、距離計測点とし
てワークの重心に対応する1点のみを計測したが、必ず
しも重心でなくてもよく、2点以上計測してもよい。さ
らに、計測シーケンスについては、ロボット動作時間短
縮の観点から、ロボット動作時間が最短になる経路を計
算することとしたが、その他のシーケンスを採用しても
同様であることはいうまでもない。【0043】参考例5 . 次に、この発明の参考例5を図について説明する。図1
6はこの参考例5を示す構成図であり、相当部分には図
1および図12と同一符号を付してその説明を省略す
る。図において、64は距離センサ57として使用され
ている超音波センサの発生する計測ビームと平行で、テ
レビカメラ53で撮像可能なポインタビームを投光する
光ビーム投光手段であり、65はテレビカメラ53にて
撮像された画像の中からこの光ビーム投光手段64にて
投光されたポインタビームを検出するポインタビーム検
出手段である。なお、ワーク配置認識手段58は、画像
認識手段54の認識結果および距離計測手段56の計測
結果とともに、このポインタビーム検出手段65の検出
結果も用いてワークの3次元配置認識を行うものである
点で、参考例1のものとは異なっている。【0044】 次に動作について説明する。ここで、図1
7はこのように構成されたロボット装置の動作の流れを
示すフローチャートで、以下、参考例1の場合と同様に
各ワークがテレビカメラ53の視野内にあるという前提
で動作を説明する。最初の段階で、鉛直下向きに設置さ
れたテレビカメラ53によって、パレット上のワーク画
像が撮像される(ステップST110)。次に、画像認
識手段54によってワーク50の2次元的な配置が認識
される(ステップST111)。【0045】 次に、この認識された2次元配置パターン
をもとに、距離計測プラン部55によって距離計測プラ
ンが決定される(ステップST112)。ここでは、距
離計測を行う点と、複数の距離計測点の計測順序を決定
する。各ワーク50の2次元位置と向きが認識されてい
るので、ここでは距離計測点として各ワークの重心に相
当する位置が決定される。また、計測の順序について
は、計測精度や計測時間の観点から決定される。【0046】 次に各距離計測点について距離計測手段5
6によって距離を計測する(ステップST113)。こ
参考例5で使用される距離センサ57には前述のよう
に超音波センサが用いられている。この超音波センサ5
7はロボットハンド52に取り付けられた、送信モジュ
ールと受信モジュールからなる送受一体型となってお
り、送信モジュールから発射された音波が対象物に反射
して戻ってくる信号(エコー)を観測してその時間差か
ら距離を計測するものである。また、光ビーム投光手段
64によって超音波センサ57の発射する超音波ビーム
と平行なポインタビームを投光する(ステップST11
4)。図18はこの超音波センサ57より発射された超
音波ビームによる距離計測ビームと、この距離計測ビー
ムと平行なレーザビームによるポインタビームとの関係
を示す説明図である。ロボットハンド52にこの超音波
センサ57と光ビーム投光手段64の両方が一体的に取
り付けられており、ロボットハンド52の移動にともな
って両手段57,64は同時に移動する。図示のよう
に、計測対象のワーク50には超音波ビームによる距離
計測ビームがあたって反射されるとともに、レーザビー
ムによるポインタビームもまたその距離計測点に投光さ
れる。【0047】 この光ビーム投光手段64によって投光さ
れたポインタビームは、テレビカメラ53により撮像さ
れた画像を処理することで、ポインタビーム検出手段6
5によって検出される(ステップST115)。このポ
インタビームは超音波センサ57の発する距離計測ビー
ムの到達範囲にあるため、検出されたポインタビームの
位置を調べることにより、超音波センサ57によって計
測されている被計測平面上の点を知ることが可能であ
る。これら一連の処理は、決定された距離計測プランに
従って、必要な全てのワーク50上の計測点が計測され
るまで繰り返される。【0048】 次に、画像認識手段54による2次元配置
認識情報と、ポインタビームによってその位置が確認さ
れた距離計測点における距離計測手段56の測定したワ
ーク50の高さ情報は、ワーク配置認識手段58によっ
て統合され、最終的にワークの3次元配置認識が行われ
る(ステップST116)。【0049】 ロボット動作プラン部59では前記ワーク
50の3次元配置認識情報を使ってワーク50を移載す
るためのロボットの動作プランを決定し(ステップST
117)、それに必要なロボット動作制御信号を生成し
てロボット制御部62に送信する。ロボット制御部62
では受け取った信号に基づいてロボット制御し、ワーク
の移載作業を実行する(ステップST118)。以上で
この参考例5の一連の動作が完了する。【0050】 なお、上記参考例5では、距離センサ57
として超音波センサを用いたが、光学的手法によらない
テレビカメラで映像化が困難な他の計測手段であっても
よく、またポインタビームとしてレーザビームを用いた
が、これも同様の光ビームであれば他のものであっても
よく上記参考例と同様の効果を奏する。【0051】 また、上記参考例5では、距離計測は超音
波ビームだけで行い、光ビームは超音波ビームによって
計測されている点を確認するための手段として用いた
が、光ビームを距離計測に併用することにより、計測の
信頼性および精度を向上させることもできる。【0052】 また、上記参考例5では、距離計測に超音
波ビームを用いていることから、計測点がそれほど精度
よく決定されないことが想像されるため、距離計測点の
位置を決定する際に各ワークの重心位置に相当する位置
としたが、指向性の強い超音波センサ57を使用できる
状況では、例えば、ワーク50のコーナー付近など複数
の点を計測するようにしてもよい。【0053】 参考例6. 次に、この発明の参考例6を図について説明する。図1
9は参考例6を示す構成図である。図において、70は
この参考例6による物体認識装置にて認識される認識対
象物体としての箱状物体であり、71はこの箱状物体7
0の画像を入力する画像入力手段としてのテレビカメラ
である。72はこのテレビカメラ71より入力された原
画像のエッジを抽出するエッジ検出手段であり、73は
このエッジ検出手段72によって得られたエッジ画像上
の各エッジ点について座標変換操作を行い、順次投票平
面上に投票する座標変換手段である。74はその投票平
面から情報を読み出して複数の認識対象の物体候補を抽
出する物体候補抽出手段、75は抽出された物体候補の
それぞれについての信頼度を計算する信頼度計算手段で
あり、76は算出された信頼度に基づいて原画像中の物
体の位置、およびその配列パターンを認識する画像認識
手段である。【0054】 次に動作について説明する。なお、図20
はこのように構成された物体認識装置の動作の流れを示
すフローチャートである。ここで、この参考例6におけ
る認識の対象は、図19に示すような、パレット上に複
数の段にわたって積載された箱状物体70である。処理
の最初の段階で、箱状物体70に対して鉛直下向きに設
置されたテレビカメラ71により箱状物体70の画像が
撮像される(ステップST120)。次に、エッジ検出
手段72によってその撮像された原画像に対しエッジ検
出が行われる(ステップST121)。当該エッジ検出
のアルゴリズムはこの参考例6では、例えば空間フィル
タの一種であるラプラシアン・オブ・ガウシアンフィル
タを用いたゼロクロス輪郭検出アルゴリズムを用いてい
るが、他のエッジ検出アルゴリズムでも本発明の作用を
説明する上では何等問題はない。【0055】 座標変換手段73はこのエッジ検出によっ
て得られたエッジ画像をもとに、ハフ変換によりハフ平
面への投票を行う(ステップST122)。図21はこ
のハフ変換処理を模式的に表現した説明図であり、同図
(a)はエッジ画像の画像平面を同図(b)はハフ投票
平面をそれぞれ表している。ハフ変換処理は、エッジ画
像中の全てのエッジ点(i,j)についてそれぞれ、従
来の技術5において説明した式(2)で表される座標変
換をおこない、対応する全てのハフ平面(ρ−θ平面)
上の点に投票することで行われる。【0056】 ここで、図21(a)中のエッジ点P1,
P2,P3はそれぞれ、同図(b)に示したハフ平面で
は曲線L1,L2,L3に対応する。ハフ平面では、例
えば図21(b)における点Pk(θk,ρk)のよう
に、局所的に周囲より投票値の高い点が生じる。この点
は、即ちエッジ画像(図21(a))では直線Lkに対
応する。この直線Lkの方程式は、式(2)にPkの座
標(θk,ρk)を代入することで求められる。このよ
うに、単純な投票操作によって、エッジ画像中に含まれ
る直線成分が検出される。【0057】 次に物体候補抽出手段74によりハフ平面
から認識対象の物体候補の抽出が行われる(ステップS
T123)。図22はこの物体候補の抽出の様子を示す
説明図である。いま、抽出したい物体は箱状であり、原
画像上では矩形パターンである。したがって、ハフ平面
では、例えば同図の点P1,P2,P3,P4のような
相互関係にある4点を探索することが、エッジ画像にお
ける矩形パターンを囲む4つの輪郭直線を見つけること
に相当するのである。図22では点P1,P2がまず検
出される。これは同じθの値θ1をもつことから平行線
を意味する。また、点P1,P2のρの値はそれぞれρ
1,ρ2であり、その差(ρ1−ρ2)は平行線の間隔
(距離)を表している。見つけたい矩形パターンの寸法
を予め格納しておくことで、ハフ平面上でこのような2
点を見つけることが可能である。また、同様に、点P
3,P4についても物体のモデルを利用してみつけるこ
とができる。さらに、ここで点P1とP3のθの値の差
(θ2−θ1)=90(度)であることを利用してい
る。即ち、これはエッジ画像上では2組の平行線が互い
に直行することを意味し、矩形パターンを検出すること
になる。以上の処理を繰り返すことで、ハフ平面から箱
状物体70の候補を物体候補として抽出することができ
る。【0058】 次に、このようにして抽出された各物体候
補の信頼度が信頼度計算手段75によって計算される
(ステップST124)。この参考例6では、物体候補
である矩形パターンを構成する4つの直線、即ちハフ平
面では4点の投票値の合計をもって信頼度とする。【0059】 次に、画像認識手段76により、複数の物
体候補の合理的な組み合わせによる画像記述を解釈し、
画像認識を行う(ステップST125)。即ち、複数の
物体候補からどれを選択してシーンを構成すべきかを判
断する。図23はこの画像認識手段76によるシーン解
釈の流れを示すフローチャートである。以下、この図2
3を用いてシーン解釈の動作について説明する。【0060】 まず最初に各物体候補について信頼度テー
ブルCf〔n〕が生成される(ステップST130)。
この信頼度テーブルの引数nは、物体候補の番号を示し
ている。なお、上記のように信頼度はハフ平面での投票
値であり、図24(a)にこの信頼度テーブルCfの一
例を示す。図示のように、候補1の信頼度は265、候
補2の信頼度は199,……となる。この信頼度テーブ
ルCfはその内容によって降順にソートされる。ソート
されたテーブルを図24(b)に示す。また、その際同
時に候補テーブルCt〔n〕を生成する(ステップST
131)。この候補テーブルCtは図24(c)に示す
ような1次元テーブルであり、ソートされた信頼度テー
ブルCfのインデックスを格納している。例えば、候補
3は信頼度309であるが、ソートした結果、順位が2
番目であったため、Ct〔2〕=3がセットされる。次
にカウンタ変数nが初期値“1”にセットされ(ステッ
プST132)。物体Ct〔1〕は無条件に認識リスト
に登録される(ステップST133)。これは、最大信
頼度をもつ物体候補は無条件に認識結果として採用され
るということである。【0061】 次にnは“1”だけ増加され(ステップS
T134)、続いて物体Ct〔n〕がそれ以前に認識リ
ストに登録されている物体と干渉しないかどうか検査さ
れる(ステップST135)。認識リストに登録されて
いる物体の中に一つでもCt〔n〕と干渉するものがあ
れば、物体Ct〔n〕は認識結果として採用されないの
で、nをさらに1だけインクリメントして処理を続け
る。また、認識リストの中に物体Ct〔n〕と干渉する
ものが全くない場合は、新しく物体Ct〔n〕を認識リ
ストに追加登録する(ステップST136)。この操作
を全ての物体候補について行うことにより(ステップS
T137)、最終的に相互干渉しない信頼度の高い物体
候補の組み合わせからなるシーンの解釈結果が得られ
る。なお、ここで、干渉とはたとえば2つの異なる物体
候補が空間内に存在するときに、物体の一部が同じ空間
を占有することを言う。【0062】 以上のような動作により、箱状物体70の
組み合わせからなる画像シーンが解釈され、動作は終了
する。【0063】 なお、上記参考例6では、エッジ検出アル
ゴリズムとしてラプラシアン・オブ・ガウシアンフィル
タによるゼロクロス輪郭検出を用いたが、他のエッジ検
出方を使用してもよく、上記参考例と同様の効果を奏す
る。【0064】 また、上記参考例6では、物体候補を抽出
するためにハフ変換を用いたが、座標変換・投票による
手法としてスポークフィルタによるパターン検出を用い
てもよく、この場合も上記参考例と同様の効果が得られ
ることはいうまでもない。【0065】参考例7 . 次に、この発明の参考例7を図について説明する。図2
5はこの参考例7を示す構成図で、相当部分には図19
と同一符号を付してその説明を省略する。図において、
77はハフ変換によるパターン検出に際して、物体検出
に必要な物体の寸法が格納される物体モデル情報格納手
段であり、78はテンプレートマッチングによるパター
ン検出に際して、テンプレートマッチングに必要なモデ
ルを格納するテンプレート格納手段、79は入力された
原画像について、このテンプレート格納手段78に格納
されたモデルを使用したテンプレートマッチングにより
物体の位置と姿勢を検出し、認識対象の物体候補を抽出
するパターン検出手段である。なお、信頼度計算手段7
5は、物体候補抽出手段74とパターン検出手段79と
によって抽出された物体候補について、それぞれ信頼度
の計算を行う点で参考例6のものとは異なっている。【0066】 次に動作について説明する。なお、図26
はこのように構成された物体認識装置の動作の流れを示
すフローチャートであり、認識の対象は参考例6のもの
と同様である。処理の最初の段階で、ユーザが認識の対
象を当該物体認識装置に登録するが、その際にハフ変換
によるパターン検出をするか、テンプレートマッチング
によるパターン検出をするかを選択する(ステップST
140)。【0067】 ハフ変換によるパターン検出を選択した場
合は、前記参考例6に記載した方法により物体候補が抽
出される。即ち、物体モデルとして、ハフ平面での物体
検出に必要な、物体の寸法を物体モデル情報格納手段7
7に格納する(ステップST141)。さらに、原画像
からエッジ検出手段72によりエッジを検出し(ステッ
プST142)、ハフ変換式にそって、座標変換手段7
3により座標変換およびハフ平面への投票を行い、(ス
テップST143)、物体候補抽出手段74によりハフ
平面を操作して矩形パターンとして物体候補を抽出する
(ステップST144)。【0068】 一方、テンプレートマッチングによるパタ
ーン検出を選択した場合は、テンプレートマッチングに
必要なモデルをパターン検出用テンプレート格納手段7
8により登録する(ステップST145)。図27は認
識対象物体の一例(ダンボール箱)と、物体を認識する
ために必要な複数の2次元テンプレート群の一部を示し
た説明図である。図27(a)は、箱状物体70として
の段ボール箱を模式的に描いたものである。梱包に使用
される段ボール箱は例えば図示のように中央付近にテー
プが貼付される。テンプレート群は図27(b)に示さ
れており、ちょうど物体のコーナー部に対応するような
パターンになっている。図示の例ではテンプレート群の
一部のみを示したが、テンプレートは少しづつ回転させ
た複数個が用意される。【0069】 認識対象物体の画像が入力されると、テン
プレートマッチングが行われる(ステップST14
6)。このテンプレートマッチングは、まずテンプレー
ト#1から順に原画像上を探索され、2次元の相互相関
値を求めてもっとも高い位置で検出とみなす。この探索
を#2以降のテンプレートについても同様におこない、
用意した全てのテンプレートとの相関係数をもとめ、原
画像中の段ボール箱のコーナーを検出する。このテンプ
レートマッチングの処理はパターン検出手段79によっ
て行われ、得られたコーナー部の相互関係や各々に対応
するテンプレートの種類から、認識対象となる段ボール
箱の候補を検出する。【0070】 続いて、抽出された各物体候補の信頼度が
信頼度計算手段75により計算される(ステップST1
47)。この参考例7では、ハフ変換によるパターン検
出の場合は物体候補を構成する4つの輪郭直線に対応す
るハフ平面での投票値の平均として信頼度を計算する。
また、テンプレートマッチングによるパターン検出の場
合は4ヵ所のコーナー部にマッチしたテンプレートマッ
チングのスコアである相互相関値の合計値として計算す
る。【0071】 最後に、画像認識手段76において、前記
参考例6において説明した方法と同様の手法で、上記物
体候補の最適な組み合わせを求めて、画像解釈・認識を
行う(ステップST148)。即ち、信頼度の高い物体
から順に認識結果リストに登録してゆき、もしある物体
候補がそれ以前に認識結果リストに登録されているどれ
かの物体候補と位置的に干渉する場合は登録を中断する
というものである。以上の一連の処理によりこの参考例
の動作は終了する。【0072】 なお、上記参考例7では、座標変換・投票
によるパターン検出手法としてハフ変換を用いたが、ス
ポークフィルタによるパターン検出手法を用いてもよ
く、上記参考例と同様の効果が期待できる。【0073】 また、この参考例7では、処理の最初の段
階でユーザがハフ変換またはテンプレートマッチングに
よるパターン検出のどちらかを選択する場合について説
明したが、これは認識対象物体の形状や属性によって装
置が自動的に判断するようにしてもよい。【0074】 また、上記参考例7では、テンプレートマ
ッチングによるパターン検出として、物体のコーナー部
分にマッチする複数のテンプレートを用意したが、コー
ナー部分以外、例えば物体表面に描かれた特徴ある模様
にマッチするテンプレートであってもよく、上記参考例
と同様の効果を奏する。【0075】 さらに、上記参考例7では、複数の回転し
ながら生成したテンプレートを用いたものを示したが、
例えば円形のテンプレートを一つ使用して物体の円形パ
ターンを検出するようにしても物体候補の抽出が可能で
あることはいうまでもない。【0076】参考例8 . 次に、この発明の参考例8を図について説明する。図2
8は参考例8を示す構成図で、相当部分には図19と同
一符号を付してその説明を省略する。図において、80
は認識対象物体である箱状物体70のモデルとして登録
されている、当該箱状物体70の輪郭点をもとにした輪
郭テンプレートである。なお、信頼度計算手段75は、
認識対象の物体候補の原画像上の輪郭点とこの輪郭テン
プレート80を輪郭マッチングして得られた類似度よ
り、その物体候補の信頼度を算出する点で参考例6のも
のとは異なっている。【0077】 次に動作について説明する。なお、図29
はこのように構成された物体認識装置の動作の流れを示
すフローチャートであり、認識の対象は図28に示すよ
うに参考例6のものと同様である。当該物体認識装置を
起動するのに先立って、認識対象物体のモデルを登録し
ておく必要がある。モデルは、図30に示したような輪
郭テンプレート80として格納する(ステップST15
0)。同図においては、(a)に原画像の一例が、
(b)にテンプレート画像としての段ボール箱の輪郭画
像が模式的に示されている。輪郭テンプレート80は、
前記輪郭画像の輪郭部分の点列の座標を同図(c)のよ
うな1次元のアレイに格納したものである。即ち、輪郭
テンプレート80には、輪郭の存在する部分を表現した
点列の座標(i,j)が格納される。【0078】 処理の最初の段階で、箱状物体70に対し
て鉛直下向きに設置されたテレビカメラ71により、箱
状物体70の画像が撮像される(ステップST15
1)。次に、撮像された画像に対して、前記参考例6
て説明した手法で、エッジ検出と座標変換・投票処理が
なされ(ステップST152,ST153)、認識対象
の物体候補が抽出される(ステップST154)。この
物体候補のデータは、各箱状物体70の2次元的位置と
姿勢(向き)とからなる。【0079】 次に、信頼度計算手段75で、EPTMに
よる各物体候補の信頼度が計算される(ステップST1
55)。この信頼度計算の流れを図31に示すフローチ
ャートにそって、図30を使って以下に説明する。図3
0(a)に示されているのは、画像C(i,j)上に存
在する物体候補の一例である。実際には複数の物体候補
が存在することが多いが、ここでは説明が簡単になるよ
うに画像中にひとつだけ候補があるとしている。前記認
識対象候補の物体について、位置と姿勢が計測されてい
るので、図30(b)のようなテンプレートを画像C上
の物体候補に重ね合わせるために、まず、位置と姿勢の
補正量を計算し(ステップST160)、それに基づい
てテンプレートの位置と姿勢の補正を行い(ステップS
T161)、画像C上の物体候補にテンプレートを重ね
合わせる(ステップST162)。ここで、物体候補の
位置として物体の重心をPc(Pcx,Pcy)、ま
た、姿勢として段ボール箱の長手方向の軸方向A(θ
A)とする。また、テンプレート画像についても同様に
位置としての重心Pt(Ptx,Pty)、軸方向B
(θB)とする。なお、図30(c)に示すように、輪
郭テンプレート80は1次元であるが、ここでは説明が
容易なように2次元であるかのように記述することにす
る。重ね合わせは、重心PcとPtを一致させ、かつ姿
勢AとBを一致させるように行われる。信頼度計算手段
75は次に次の式(4)に従って類似度、即ち信頼度M
計算する(ステップST163)。【0080】 【数2】 【0081】ここで、C(i,j)は認識対象画像、X
(k),Y(k)は図30に示した1次元テンプレー
ト、Adは物体候補と輪郭テンプレート80の姿勢を補
正する角度、関数Ri,Rjはそれぞれテンプレートに
格納された座標列をAdだけ補正する回転補正関数であ
る。【0082】 なお、画像C(i,j)は2値(1/0)
で表現されている。信頼度Mは上記式(4)のまま使用
してもよいが、テンプレート点数Nで割ることで正規化
も可能である。以上のようにして信頼度の計算が完了す
る。【0083】 続いて、画像認識手段76により前記参考
例6で説明した方法により、複数の物体候補の組み合わ
せを最適化して画像認識を行う(ステップST15
6)。即ち、信頼度の高い物体から順に認識結果リスト
に登録していき、もしある物体候補がそれ以前に認識結
果リストに登録されているどれかの物体候補と位置的に
干渉する場合は登録を中断するというものである。以上
の処理により、本参考例における一連の動作を全て終了
する。【0084】 なお、上記参考例8では、EPTMによる
マッチングの際に、認識対象画像Cを、原画像から得ら
れたエッジ画像として生成したが、マッチングに先立っ
てエッジ画像を2回以上膨張させておくこともできる。
膨張とは画像中の輪郭の部分の太さを太める処理であ
り、このようにすることで物体候補の位置Pcと姿勢A
に多少の計測誤差があっても安定に信頼度を求めること
が可能になる。【0085】 また、上記参考例8では、EPTMによる
マッチングの際に、テンプレートとして物体の外形を示
す輪郭部分の他、上面に現れた輪郭画素も登録している
が、さらに物体に幾何学的にユニークな模様が存在する
場合には、その模様部分の輪郭もテンプレートに追加す
ることでより信頼度の信頼性が向上する。また、逆に連
続する輪郭画素を全てテンプレートとして登録するので
はなく、間引き処理を施すことによりテンプレートの長
さを短縮でき、マッチングに要する時間を短縮すること
も可能である。【0086】参考例9 . 次に、この発明の参考例9を図について説明する。図3
2は参考例9を示す構成図で、相当部分には図28と同
一符号を付してその説明を省略する。図において、81
は輪郭テンプレート80が認識対象物体に関する輪郭点
をもとにした物体輪郭の存在する部分を表現するもので
あるのに対して、物体輪郭の存在しない部分を表現する
テンプレートである。なお、信頼度計算手段75は、こ
の輪郭テンプレート80とテンプレート81の両方を使
用した輪郭マッチングによって類似度を得ている点で、
参考例8のものとは異なっている。【0087】 次に動作について説明する。なお、図33
はこのように構成された物体認識装置の動作の流れを示
すフローチャートであり、認識の対象は参考例6の場合
と同様である。当該物体認識装置を起動するのに先立っ
て、EPTMのための認識対象物体のモデルを登録する
(ステップST170,ST171)。このモデルはテ
ンプレートとして登録され、そのテンプレートには物体
輪郭の存在する部分を表現する輪郭テンプレート80
と、物体輪郭の存在しない部分を表現するテンプレート
81の2種類がある。図34はこれら輪郭テンプレート
80およびテンプレート81を説明する説明図であり、
同図(a)には認識対象となる段ボール箱の原画像が、
同図(b)には輪郭テンプレート80の概念が、同図
(c)にはテンプレート81の概念が、同図(d)には
テンプレートの格納形式がそれぞれ示されている。この
図34(b)に示すように、輪郭テンプレート80は認
識対象物体の輪郭画素集合としての点列であり、実際に
当該物体認識装置に格納される形式は図34(d)のよ
うな1次元形式である。また、図34(c)のように、
テンプレート81は物体の輪郭が存在しない部分を表現
した画素集合としての点列であり、同様に図34(d)
のような1次元形式で格納されている。【0088】 次に、鉛直下向きに設置されたテレビカメ
ラ71により、認識対象物体の画像が撮像される(ステ
ップST172)。次に、この撮像された画像に対して
参考例6で説明した手法により、エッジ検出と座標変換
・投票処理がなされ(ステップST173,ST17
4)、認識対象の物体の候補が抽出される(ステップS
T175)。この物体候補のデータは、各物体候補の2
次元的位置と姿勢(向き)とからなる。【0089】 次に信頼度計算手段75で、EPTMによ
る各物体候補の信頼度が計算される(ステップST17
6)。この信頼度計算の流れを、図35に示すフローチ
ャートにそって、図34を併用して以下に説明する。信
頼度計算が開始されるとまず、すでに計測された物体候
補の位置と姿勢データから、マッチングのための位置と
姿勢の補正量を計算する(ステップST180)。図3
4(a)に示されているのは、画像C(i,j)上に存
在する物体候補の一例である。図中、点C1と方向θ1
は候補#1を表している。同様に点C2と方向θ2は候
補#2を表している。候補#1は正しいが、候補#2は
誤った候補である。マッチングのための補正量が計算さ
れるとその値に基づいて輪郭テンプレート80およびテ
ンプレート81の座標が補正されて位置と姿勢が補正さ
れ(ステップST181)、画像Cに重ね合わされる
(ステップST182)。次に、次の式(5)にそっ
て、類似度Maと、非類似度Mbが計算される(ステッ
プST183,ST184)。【0090】 【数3】 【0091】類似度Maは画像上のパターンがテンプレ
ートと類似している度合いを表したもので、非類似度M
bは同じく類似していない度合いを表したものである。
まず候補#1の信頼度を求める過程を説明する。候補#
1の重心C1(Pc1x,Pc2x)および姿勢として
の物体の長手方向の軸の傾きθ1は既知である。また、
輪郭テンプレート80に示された物体の重心SA(PS
Ax,PSAy)および軸方向θAも既知である。【0092】 ここで、C(i,j)は認識対象画像、X
(k)、Y(k)は図34に示した1次元テンプレー
ト、Adは物体候補と輪郭テンプレート80の姿勢を補
正する角度、Bdは物体候補とテンプレート81の姿勢
を補正する角度、関数Ri,Rjはそれぞれテンプレー
トに格納された座標列をAdまたはBdだけ補正する回
転補正関数である。次に、これら類似度Maと非類似度
Mbは統合され(ステップST185)、次の式により
信頼度Mが求められる。なお、Na,Nbはそれぞれ輪
郭テンプレート80およびテンプレート81に登録され
たエッジ点数である。【0093】 M = Ma/Na − Mb/Nb【0094】 候補#1の場合には、輪郭テンプレート8
0に登録された輪郭点が全て画像Cに存在し、かつテン
プレート81に登録された画素点列に相当する画像C上
の点は全く存在しないため、信頼度MはM=1となる。【0095】 次に候補#2に対して同様のマッチングを
行うと、テンプレート81に対応する画像C上の輪郭点
が主に候補#1と候補#2の境界や、それらの上に書か
れた文字(“ABC”)などによって多数存在するため
に、非類似度Mbが高まり、信頼度Mは低く評価される
ことになる。なお、画像C(i,j)は2値(1/0)
で表現されている。以上のようにして信頼度の計算が完
了する。【0096】 続いて、画像認識手段76により参考例6
で説明した方法により、複数の物体候補の組み合わせを
最適化して画像認識を行う(ステップST177)。即
ち、信頼度の高い物体から順に認識結果リストに登録し
ていき、もしある物体候補がそれ以前に認識結果リスト
に登録されているどれかの物体候補と位置的に干渉する
場合は登録を中断するというものである。以上の処理に
より、本参考例における一連の動作を全て終了する。【0097】 なお、上記参考例9では、EPTMによる
マッチングの際に、認識対象画像Cを、原画像から得ら
れたエッシ画像として生成したが、マッチングに先立っ
てエッジ画像を2回以上膨張させておくこともできる。【0098】 また、上記参考例9では、EPTMによる
マッチングの際に、輪郭テンプレート81として物体の
外形を示す輪郭部分の他、上面に現れた輪郭画素も登録
しているが、さらに物体に幾何学的にユニークな模様が
存在する場合には、その模様部分の輪郭も輪郭テンプレ
ート81に追加することでより信頼度の信頼性が向上す
る。また、逆に連続する輪郭画素を全てテンプレートと
して登録するのではなく、間引き処理を施すことにより
テンプレートの長さを短縮でき、マッチングに要する時
間を短縮することも可能である。【0099】 また、上記参考例9では、テンプレート8
1として物体の中央部に集中して「輪郭の存在しない部
分を表現する画素」を登録しているが、輪郭テンプレー
ト80に登録された輪郭に密着して平行した画素列を用
いてもよい。【0100】実施例1. 次に、この発明の実施例1を図について説明する。図3
6は請求項に記載した発明の実施例1を示す構成図で
ある。図において、90は入力された原画像のエッジを
抽出するエッジ検出手段である。91はこのエッジ検出
手段90によって抽出されたエッジ画像の水平走査を行
って、水平線分である可能性の高い点列を検出するとそ
れを点としてハフ投票平面に投票する水平線投票手段、
92は前記エッジ画像の垂直走査を行って、垂直線分で
ある可能性の高い点列を検出するとそれを点としてハフ
投票平面に投票する垂直線投票手段であり、93は残っ
た水平線分または垂直線分である可能性の低い点列を、
曲線としてハフ投票平面に投票する水平・垂直線以外投
票手段である。94は前記ハフ変換された点や曲線が投
票されたハフ投票平面が格納されたハフ平面格納メモリ
である。【0101】 次に動作について説明する。ここで、図3
7はこのように構成された物体認識装置の動作の流れを
示すフローチャートである。処理の最初の段階で、原画
像がエッジ検出手段90に入力される(ステップST1
90)。エッジ検出手段90は入力された原画像に対し
てエッジ検出処理を実行し、画像中のエッジ部分を抽出
する(ステップST191)。ハフ変換はこのエッジ検
出されたエッジ画像に対して行われる。【0102】 次に、水平線投票手段91によってそのエ
ッジ画像が水平に走査され(ステップST192)、水
平線セグメントが抽出される(ステップST193)。
図38(a)にはこのエッジ画像の一例を示す。このエ
ッジ画像中で水平走査により、水平線分である水平線セ
グメントH1がまず検出される。この水平線セグメント
H1は従来の技術5において説明した式(2)に基づく
ハフ変換によりρ−θが計算され(ステップST19
4)、図38(b)に示したハフ平面上に点P1(ρ
1,θ1)として投票される(ステップST195)。
この実施例では、水平セグメントH1の方程式がj=
−jc(jc>0)となるので、式(2)がいかなる
i,jをとってもj=−jsに等しくなるためには、θ
=90度、ρ=−js、またはθ=270度、ρ=js
のどちらかでなければならない。従ってハフ平面上の点
P1(θ1=90,ρ1=−js)および点P1’(θ
1’=270,ρ1’=js)に投票する。なお、図3
8(b)では点P1のみを表示した。さらに、投票直後
に、投票に関与したエッジ画像上のエッジ点列、即ち水
平線セグメントH1を構成する点列をエッジ画像中から
削除する(ステップST196)。同様にして、図38
(a)の水平線セグメントH2に対応するハフ平面上の
点のひとつはP2であるので、この水平線セグメントH
2を点P2に投票し、水平線セグメントH2に属する点
列を全て削除する。上記一連の処理を、エッジ画像全体
の水平走査が終了するまで続ける(ステップST19
7)。【0103】 次に、垂直線投票手段92によってエッジ
画像が垂直に走査され(ステップST198)、垂直線
セグメントが抽出される(ステップST199)。この
エッジ画像の垂直走査により、垂直線分である垂直線セ
グメントV1が検出される。この垂直線セグメントV1
についても同様にハフ変換されてρ−θが計算され(ス
テップST200)、図38(b)に示したハフ平面上
に点P3として投票される(ステップST201)。そ
のとき同時に、エッジ画像上の垂直線セグメントV1に
属する点列は削除される(ステップST202)。上記
一連の処理を、エッジ画像全体の垂直走査が終了するま
で続ける(ステップST203)。【0104】 次に、前記水平線投票手段91による処
理、および垂直線投票手段92による処理の終了後にエ
ッジ画像上に残っているエッジ点に関して、水平・垂直
線以外投票手段93によりハフ平面に投票する(ステッ
プST204)。これは、前記参考例6において説明し
た方法による。即ち、エッジ点をひとつづつハフ変換式
によって変換してゆく。図38(a)におけるエッジ点
列PLに対応する同図(b)のハフ平面上の投票軌跡は
Sである。【0105】 上述の水平線投票手段91、垂直線投票手
段92、および水平・垂直線以外投票手段93によるハ
フ平面への投票処理は、すべて同一のハフ平面に対して
おこなわれ、その結果がハフ平面格納メモリ94に格納
される。この実施例においては、以上の投票操作によ
って生成されたハフ平面に対し、局所的ピークを持つ位
置を求めることで、該ピーク位置に対応する直線の方程
式が求められることになり、当該参考例6の動作を完了
する。【0106】 なお、上記実施例では、ハフ平面におい
て、θ>180度の範囲にも投票したが、ρの正負を考
えることでθ<180度の範囲でのみ投票することが可
能である。【0107】 また、上記実施例では、投票に使用した
エッジ点を画像から逐次削除してゆくものについて説明
したが、削除せずに再び投票に使用してもよく、また削
除する場合でも別途用意したエッジ画像と同じサイズの
フラグ画像を用いて削除フラグを付加することも可能で
ある。【0108】 また、上記実施例では、完全に水平の線
セグメントと完全に垂直の線セグメントを検出して投票
するものを示したが、幅2画素または3画素の線セグメ
ントを検出して投票に使用してもよく、上記参考例と同
様の効果を奏することはいうまでもない。 【0109】 【発明の効果】以上のように、この発明によれば、エッ
ジ画像を水平および垂直に走査して得られたエッジ点が
水平線分であるかどうかを判定して水平線分であれば、
それを点としてハフ投票平面に投票し、前記エッジ画像
を垂直に走査して得られたエッジ点が垂直線分であるか
どうかを判定して垂直線分であれば、それを点としてハ
フ投票平面に投票し、前記判定において水平線分でもな
くかつ垂直線分でもないと判定されたエッジ点を、曲線
として前記ハフ投票平面に投票するように構成したの
で、画像中に水平または垂直な線分要素が存在する場合
に、高速かつ高信頼度の投票を行うことができ、投票平
面からのパターン抽出の信頼性が高い、ハフ変換技術を
利用した物体認識装置が得られる効果がある。
【図面の簡単な説明】 【図1】この発明の参考例1によるロボット装置を示す
構成図である。 【図2】上記参考例の動作の流れを示すフローチャート
である。 【図3】上記参考例における認識対象物体の画像を示す
説明図である。 【図4】上記参考例における距離測定点を示す説明図で
ある。 【図5】この発明の参考例2によるロボット装置を示す
構成図である。 【図6】上記参考例の動作の流れを示すフローチャート
である。 【図7】上記参考例における基準距離計測経路を示す説
明図である。 【図8】上記参考例における各処理の時間関係を示すタ
イミング図である。 【図9】この発明の参考例3によるロボット装置を示す
構成図である。 【図10】上記参考例の動作の流れを示すフローチャー
トである。 【図11】上記参考例における距離測定点を示す説明図
である。 【図12】この発明の参考例4によるロボット装置を示
す構成図である。 【図13】上記参考例の動作の流れを示すフローチャー
トである。 【図14】上記参考例における撮像手段と対象物との位
置関係を示す説明図である。 【図15】上記参考例における距離計測の概念を示す説
明図である。 【図16】この発明の参考例5によるロボット装置を示
す構成図である。 【図17】上記参考例の動作の流れを示すフローチャー
トである。 【図18】上記参考例における距離計測の概念を示す説
明図である。 【図19】この発明の参考例6による物体認識装置を示
す構成図である。 【図20】上記参考例の動作の流れを示すフローチャー
トである。 【図21】上記参考例におけるハフ変換を示す説明図で
ある。 【図22】上記参考例における矩形抽出を示す説明図で
ある。 【図23】上記参考例における画像解釈処理の流れを示
すフローチャートである。 【図24】上記参考例における信頼度および候補テーブ
ルの一例を示す説明図である。 【図25】この発明の参考例7による物体認識装置を示
す構成図である。 【図26】上記参考例の動作の流れを示すフローチャー
トである。 【図27】上記参考例におけるテンプレートマッチング
の説明図である。 【図28】この発明の参考例8による物体認識装置を示
す構成図である。 【図29】上記参考例の動作の流れを示すフローチャー
トである。 【図30】上記参考例におけるEPTMの説明図であ
る。 【図31】上記参考例におけるEPTMの流れを示すフ
ローチャートである。 【図32】この発明の参考例9による物体認識装置を示
す構成図である。 【図33】上記参考例の動作の流れを示すフローチャー
トである。 【図34】上記参考例におけるEPTMの説明図であ
る。 【図35】上記参考例におけるEPTMの流れを示すフ
ローチャートである。 【図36】この発明の実施例による物体認識装置を示
す構成図である。 【図37】上記実施例の動作の流れを示すフローチャ
ートである。 【図38】上記実施例におけるハフ変換を説明するた
めの説明図である。【図39】 従来の技術による物体認識装置によるハフ
変換を示す説明図である。【図40】 その動作の流れを示すフローチャートであ
る。 【符号の説明】 50 ワーク 51 ロボット 52 ロボットハンド 53 撮像手段(テレビカメラ) 54 画像認識手段 55 距離計測プラン部 56 距離計測手段 57 距離センサ(超音波センサ) 58 ワーク配置認識手段 59 ロボット動作プラン部 60 標準距離計測手段 61 法線方向認識手段 63 ワークモデル格納手段 64 光ビーム投光手段 65 ポインタビーム検出手段 70 認識対象物体(箱状物体) 71 画像入力手段(テレビカメラ) 72 エッジ検出手段 73 座標変換手段 74 物体候補抽出手段 75 信頼度計算手段 76 画像認識手段 78 テンプレート格納手段 79 パターン検出手段 80 輪郭テンプレート 81 テンプレート 90 エッジ検出手段 91 水平線投票手段 92 垂直線投票手段 93 水平・垂直線以外投票手段
フロントページの続き (56)参考文献 特開 平4−364403(JP,A) 特開 昭63−225881(JP,A) 特開 昭64−31188(JP,A) 特開 平5−127724(JP,A) 特開 昭62−282882(JP,A) 特開 昭63−238414(JP,A) 特開 昭61−190680(JP,A) 特開 平1−155202(JP,A) 特開 昭63−75984(JP,A) 特開 昭62−25385(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/60 G01B 11/00 B25J 13/08 B25J 19/04

Claims (1)

  1. (57)【特許請求の範囲】 【請求項1】 入力された原画像のエッジを抽出するエ
    ッジ抽出手段と、前記エッジ抽出手段にて抽出されたエ
    ッジ画像を水平に走査して得られたエッジ点が水平線分
    であるかどうかを判定して水平線分であれば、それを点
    としてハフ投票平面に投票する水平線投票手段と、前記
    エッジ画像を垂直に走査して得られたエッジ点が垂直線
    分であるかどうかを判定して垂直線分であれば、それを
    点としてハフ投票平面に投票する垂直線投票手段と、前
    記判定において水平線分でもなくかつ垂直線分でもない
    と判定されたエッジ点を、曲線として前記ハフ投票平面
    に投票する水平・垂直線以外投影手段とを備えた物体認
    識装置。
JP23378493A 1993-09-20 1993-09-20 物体認識装置 Expired - Fee Related JP3426002B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23378493A JP3426002B2 (ja) 1993-09-20 1993-09-20 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23378493A JP3426002B2 (ja) 1993-09-20 1993-09-20 物体認識装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000166588A Division JP2001034765A (ja) 2000-01-01 2000-06-02 物体認識装置および情報処理装置

Publications (2)

Publication Number Publication Date
JPH0788791A JPH0788791A (ja) 1995-04-04
JP3426002B2 true JP3426002B2 (ja) 2003-07-14

Family

ID=16960520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23378493A Expired - Fee Related JP3426002B2 (ja) 1993-09-20 1993-09-20 物体認識装置

Country Status (1)

Country Link
JP (1) JP3426002B2 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3543442B2 (ja) * 1995-09-26 2004-07-14 松下電工株式会社 物品の干渉検出方法
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置
JPH11126254A (ja) * 1997-10-24 1999-05-11 Pfu Ltd 画像処理装置及びプログラム記憶媒体
JP3601272B2 (ja) * 1997-11-10 2004-12-15 富士ゼロックス株式会社 画像撮像装置
JP3444171B2 (ja) * 1997-12-17 2003-09-08 三菱電機株式会社 物品認識装置
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
JP2000221037A (ja) * 1999-01-29 2000-08-11 Topcon Corp 自動測量機と3次元測定方法
JP3482938B2 (ja) * 2000-05-02 2004-01-06 株式会社ダイフク 物品位置認識装置
JP2003131683A (ja) 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4305161B2 (ja) * 2003-12-18 2009-07-29 パナソニック株式会社 電子部品装着装置
JP4634868B2 (ja) * 2005-06-03 2011-02-16 株式会社ミツトヨ 画像測定方法及びシステム
JP4793109B2 (ja) * 2005-12-05 2011-10-12 株式会社安川電機 物体検出法およびロボット
JP2007241304A (ja) * 2007-04-20 2007-09-20 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4951591B2 (ja) * 2008-06-30 2012-06-13 株式会社日立ハイテクノロジーズ パターンの消失に対応したマッチング方式及びそれを用いた検査装置
JP5263501B2 (ja) * 2008-07-25 2013-08-14 株式会社Ihi デパレタイズ用のワーク位置認識装置および方法
JP5088278B2 (ja) * 2008-09-17 2012-12-05 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
JP5206499B2 (ja) * 2009-03-02 2013-06-12 富士通株式会社 測定方法、測定装置、測定制御プログラム
JP5332873B2 (ja) * 2009-04-27 2013-11-06 株式会社Ihi 袋状ワーク認識装置および方法
JP5206620B2 (ja) * 2009-08-05 2013-06-12 三菱電機株式会社 部材の位置認識装置、位置決め装置、接合装置および部材の接合方法
JP2012212323A (ja) 2011-03-31 2012-11-01 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9067744B2 (en) 2011-10-17 2015-06-30 Kabushiki Kaisha Yaskawa Denki Robot system, robot, and sorted article manufacturing method
JP5366031B2 (ja) * 2011-10-17 2013-12-11 株式会社安川電機 ロボット仕分けシステム、ロボット装置、及び仕分け済み物品の製造方法
JP5429650B2 (ja) * 2011-10-17 2014-02-26 株式会社安川電機 ロボット仕分けシステム及び仕分け済み物品の製造方法
JP5433027B2 (ja) * 2012-01-12 2014-03-05 本田技研工業株式会社 画像認識装置およびこれを用いたワークの移載方法
JP2013191163A (ja) 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
WO2014091543A1 (ja) 2012-12-10 2014-06-19 三菱電機株式会社 Ncプログラム検索方法、ncプログラム検索装置、ncプログラム作成方法およびncプログラム作成装置
JP6031368B2 (ja) * 2013-01-31 2016-11-24 本田技研工業株式会社 ワークとの相関位置決め方法
JP6548789B2 (ja) * 2013-02-07 2019-07-24 キヤノン株式会社 位置姿勢計測装置及び方法
JP6465682B2 (ja) * 2014-03-20 2019-02-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6466297B2 (ja) * 2015-09-14 2019-02-06 株式会社東芝 対象物検出装置、方法及びデパレタイズ自動化装置並びに梱包箱
US10124489B2 (en) * 2016-02-26 2018-11-13 Kinema Systems Inc. Locating, separating, and picking boxes with a sensor-guided robot
JP6640060B2 (ja) * 2016-09-27 2020-02-05 株式会社日立製作所 ロボットシステム
JP7197971B2 (ja) * 2017-08-31 2022-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
EP3895855A4 (en) * 2018-12-11 2022-05-11 Fuji Corporation ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD
EP3943880A4 (en) * 2019-03-19 2022-05-11 Kabushiki Kaisha Toyota Jidoshokki ARTICLE DETECTING DEVICE, ARTICLE DETECTING METHOD AND INDUSTRIAL VEHICLE
JP6984633B2 (ja) * 2019-04-26 2021-12-22 オムロン株式会社 対象物の位置姿勢を検出する装置、方法およびプログラム
US10614340B1 (en) 2019-09-23 2020-04-07 Mujin, Inc. Method and computing system for object identification
US11772271B2 (en) 2020-01-10 2023-10-03 Mujin, Inc. Method and computing system for object recognition or object registration based on image classification
CN113111899A (zh) * 2020-01-10 2021-07-13 牧今科技 基于图像分类的物体识别或物体注册的方法及计算系统
WO2022102533A1 (ja) * 2020-11-10 2022-05-19 ファナック株式会社 マスク設定装置
WO2022137509A1 (ja) * 2020-12-25 2022-06-30 日本電気株式会社 物体認識装置、物体認識方法、非一時的なコンピュータ可読媒体及び物体認識システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0827837B2 (ja) * 1985-02-19 1996-03-21 富士通株式会社 ハフ変換演算回路
DE3578241D1 (de) * 1985-06-19 1990-07-19 Ibm Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder.
JPH0645111B2 (ja) * 1986-05-31 1994-06-15 株式会社東芝 三次元位置計測装置
JPH077445B2 (ja) * 1986-09-19 1995-01-30 株式会社日立製作所 画像認識装置
JP2907215B2 (ja) * 1987-03-16 1999-06-21 富士通株式会社 線分抽出装置
JPS63238414A (ja) * 1987-03-27 1988-10-04 Toshiba Corp 三次元位置計測装置
JPH0738223B2 (ja) * 1987-07-28 1995-04-26 工業技術院長 移動ロボット用画像認識装置
JP2686754B2 (ja) * 1987-12-14 1997-12-08 ヤマハ発動機株式会社 部品取付装置
JPH04364403A (ja) * 1991-06-12 1992-12-16 Matsushita Electric Ind Co Ltd 物体位置ステレオ計測装置
JP2555824B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置

Also Published As

Publication number Publication date
JPH0788791A (ja) 1995-04-04

Similar Documents

Publication Publication Date Title
JP3426002B2 (ja) 物体認識装置
US7822264B2 (en) Computer-vision system for classification and spatial localization of bounded 3D-objects
JP2919284B2 (ja) 物体認識方法
JP5328979B2 (ja) 物体認識方法、物体認識装置、自律移動ロボット
US7471809B2 (en) Method, apparatus, and program for processing stereo image
JP2835274B2 (ja) 画像認識装置
JP3525896B2 (ja) 3次元物体認識方法および同方法を使用したビンピッキングシステム
JPH0676062A (ja) 画像処理装置
JPH0685183B2 (ja) 2次元像による3次元物体の同定方法
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP2012002683A (ja) ステレオ画像処理方法およびステレオ画像処理装置
US5231678A (en) Configuration recognition system calculating a three-dimensional distance to an object by detecting cross points projected on the object
US6804380B1 (en) System and method for acquiring tie-point location information on a structure
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP3524826B2 (ja) 三次元画像処理方法、装置、および三次元画像処理プログラムを記録した記録媒体
JPH05157518A (ja) 物体認識装置
JPH0644282B2 (ja) 物体検索方式
Carmichael et al. Unconstrained registration of large 3D point sets for complex model building
JPH0953915A (ja) 重なり状態認識方法
JP3253328B2 (ja) 距離動画像入力処理方法
JP3437141B2 (ja) パターン認識方法および装置
JPH0737106A (ja) エッジ認識方法
JPH024028B2 (ja)
Ribas et al. Line extraction from mechanically scanned imaging sonar
JPH1196378A (ja) 積荷位置姿勢認識装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080509

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100509

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees