JP2885823B2 - 視覚認識装置 - Google Patents

視覚認識装置

Info

Publication number
JP2885823B2
JP2885823B2 JP1091077A JP9107789A JP2885823B2 JP 2885823 B2 JP2885823 B2 JP 2885823B2 JP 1091077 A JP1091077 A JP 1091077A JP 9107789 A JP9107789 A JP 9107789A JP 2885823 B2 JP2885823 B2 JP 2885823B2
Authority
JP
Japan
Prior art keywords
shape
model
circuit
target object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1091077A
Other languages
English (en)
Other versions
JPH02268380A (ja
Inventor
冠 中野
和俊 鋤柄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP1091077A priority Critical patent/JP2885823B2/ja
Priority to US07/507,406 priority patent/US5111516A/en
Publication of JPH02268380A publication Critical patent/JPH02268380A/ja
Application granted granted Critical
Publication of JP2885823B2 publication Critical patent/JP2885823B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Description

【発明の詳細な説明】
【産業上の利用分野】 本発明は、検出物体を含む画像の中から所望の物体を
抽出することによって物体の位置・姿勢を同定したり、
異品・欠品などの検査をする装置に関する。本装置はロ
ボットの視覚認識装置に応用できる。
【従来技術】
従来、検証の対象となっている物体を撮像し、得られ
た画像データからの物体の角部、円部又は直線部などの
物体の形状に関する特徴的な形状要素を抽出し、前もっ
て与えられたモデル物体の形状を構成する形状要素(以
下、モデルの形状要素を単に「モデル要素」という)の
集合から成る形状モデルと一致する検出物体の形状要素
の組合せを探索することによって、所望の物体を認識す
る方法が知られている(たとえば、特開昭59−111575,
特開昭60−204086,特開昭62−269287号公報)。 又、物体の角部,円部を用いて同様に対象物体の位置
・姿勢を検出した後、対象物体の輪郭線を所定の距離間
隔で追跡し、その輪郭線の存在有無を単純加算し、一定
のしきい値と比較することによってまさしく対象物体か
否かを検証する方法が知られている。
【発明が解決しようとする課題】
ところが、上記第1の方法は、顕著な形状特徴である
形状要素をモデル物体のモデル要素と対比するという手
法であるため、対象物体とモデル物体とが誤対応すると
いう問題がある。 なぜなら、円・コーナー・長い直線などの顕著な形状
特徴が対象物体のエッジ画像のなかに豊富に存在する場
合は少ない。たとえ顕著な形状特徴を豊富に持つ対象で
あっても、現在のエッジ検出技術では、正確なエッジ検
出が難しく、したがって、対象物体からモデルと照合さ
れ得る適性な形状要素を抽出することに困難性がある。 このため、これらの形状特徴のみを使ってモデルのそ
れらと照合を行うと照合できないケースや誤対応を起こ
す場合が多い。 又、上記第2の方法は、誤対応の問題の解決には次の
点で充分ではない。 学習手段を有していないため、しきい値の与え方が自
動的でない。 工場自動化等の画像認識においては、陰や照明ノイズ
や背景の物体の影響で所望の対象物体の輪郭線以外の擬
似輪郭線が抽出されることが多い。この擬似輪郭線のた
め誤対応が起こり、工学的実用上の信頼性の面で問題が
ある。又、対象物体の輪郭線だけでなく対象物体の内部
又は外部の部位も検証対象とすべきであるし、輪郭線が
存在すべきでないところの輪郭線の有無も検証すべきで
ある。又、陰の出やすいところを注視する機構も必要で
ある。 ロボットの視覚装置としての応用分野では、対象物体
の位置・姿勢を同定するだけでなく異品検査、傷検査、
重畳して積載された部品の上下位置の判定などの種々の
検査も合わせて行う必要がある。第2の方法ではどの部
位を注視するかを学習し検証する汎用的手法を実現して
いない。
【発明の目的】
本発明は、上記の問題点を解決するためになされたも
のであり、その目的とするところは、物体の画像から抽
出された顕著な形状特徴とモデル物体のそれらとを順
次、照合して、即ち、探索してモデル物体と一致する対
象物体を同定し、その対象物体の位置・姿勢を用いて、
誤対応検出、異品,傷検査、重畳部品の上下判定などを
行うための汎用的な検証機構並びに検証機構パラメータ
を簡便に学習する学習機構によって、高信頼性且つ簡便
且つ多機能な実用的視覚認識を行うことにある。
【課題を解決するための手段】
上記課題を解決するための発明の構成は、第1図にそ
の概要を示すように、原始画像抽出手段Aと形状特徴抽
出手段Bと形状モデリング手段Eと探索手段Cと検証手
段Dと学習手段Fとから成る。 原始画像抽出手段Aは、物体の2次元画像より該物体
の原始画像を抽出する手段である。 ここで、原始画像とは、2次元撮像手段によりラスタ
走査をして得られる映像信号の濃淡レベルを画素毎にサ
ンプリングした濃淡画像や、濃淡レベルを画素毎に2値
化した2値画像や、画素毎に色情報を数値化した色画像
や、濃淡画像、2値画像又は色画像から対象物体の輪郭
線を抽出した線画像や、濃淡画像を平面座標で微分した
微分画像や、距離画像や、θ画像等である。即ち、物体
の映像信号の最初の加工画像であって、物体の形状に関
する情報を含み、後述する物体の形状要素の抽出に適し
た画像である。 形状特徴抽出手段Bは、抽出された原始画像より物体
の形状に関する特徴的な形状要素を抽出する手段であ
る。 ここで、物体の形状に関する特徴的な形状要素とは、
物体の画像において認識される直線、円弧、コーナー、
楕円曲線、双曲線、放物線、四角形などの幾何学的図形
である。この形状要素を特定する情報としては、たとえ
ば、直線であれば両端の位置座標の他、一端又は中点の
位置座標と長さ及び傾斜角の組等が考えられる。又、曲
線であれば曲線の種類と両端の位置座標と曲線上の任意
の位置座標の組等が考えられる。 形状モデリング手段Eは、モデルの形状要素、即ち、
モデル要素を組合わせて認識すべき対象物体の照合の対
象となる形状モデルを生成する手段である。 ここで、形状モデルとは、モデル物体の鮮明な理想画
像を想定した場合に抽出される得る形状要素の組合せで
あり、対象物体において抽出された形状要素の照合の対
象となる要素の集合である。 係る手段は、CADシステムによってモデル物体を作図
したり、モデル物体を撮像して得られる画像をコンピュ
ータ処理によって修正して理想的なモデル物体の形状を
作成したりした上で、画面上でモデル要素を特定して、
そのモデル要素に関する情報をコンピュータ処理により
得るような装置として実現できる。たとえば、コンピュ
ータ制御されるディスプレイ上で、カーソルを移動する
ことによって、直線なら両端点、円なら円周上の三点を
教示することでモデル要素を特定する。そして、そのモ
デル要素を特定する情報を形状特徴抽出手段により抽出
される形状要素を特定する情報と同一の形式で作成し、
又、同一モデル内でのモデル要素間の構造的又は相対的
位置関係に関する情報を作成し、それらの情報を記憶す
る手段である。 探索手段Cは、生成された形状モデルと一致する対象
物体に関して抽出された形状要素の組合せを探索し、形
状モデルと形状要素との対応関係から求められる認識対
象物体の位置・姿勢候補情報により、対象物体を同定す
る手段である。 この手段は、形状モデルと照合する対象物体に関して
抽出された形状要素の組を生成し、照合の程度の高い形
状要素の組を決定して、認識対象物体を一次的に同定す
る手段である。形状モデルと形状要素の集合で構成され
る対象物体とを関連付ける写像行列で、対象物体の位置
・姿勢候補情報とすることができる。 検証手段Dは、形状モデルに固定した領域のメッシュ
セルを対象物体の位置・姿勢候補情報に基づき原始画像
に写像し、各メッシュセルに含まれる原始画像に基づく
値を入力値としてニューラルネットワークにより位置・
姿勢候補情報が認識対象物体と正しく対応するか否かを
検証する手段である。 即ち、原始画像上において、対象物体の存在し得る位
置ととり得る姿勢に形状モデルを写像した時に、その形
状モデルに固定されたメッシュセルの各セルに対応する
原始画像から得られる情報をニューラルネットワークの
入力とし、そのニューラルネットワークによって、正確
に対象物体が認識されたか否かが判定される。 原始画像から得られる情報としては、例えば、線画像
であればセル内におけるエッジ線の有無、色画像であれ
ばセル中心画素の色値、濃淡画像であればセル内の画素
の濃淡値の平均値、2値画像であればセル内の黒色画素
の数、距離画像であればセル中心画素の3次元値等であ
る。又、このニューラルネットワークの入力情報となる
原始画像は、物体の形状要素を抽出するための原始画像
の種類と一致する必要はない。 又、セル内に複数の原始画像における複数の画素が存
在しても良いし、1セルを1画素に対応させても良い。 学習手段Fは、検証結果とその検証結果の真実性の評
価値を与える教師信号とに基づきニューラルネットワー
クの結合係数を修正し検証手段に出力する手段である。 この学習手段Fにより、検証手段Dのニューラルネッ
トワークの検証結果がより真実なものとなるように、そ
のネットワークの結合係数が、学習により逐次補正され
る。 他の発明では、この学習手段Fは、探索手段Cの出力
する位置・姿勢候補情報を別に評価する正誤値を教師信
号とし、その正誤値とニューラルネットワークの出力値
との変化に応じてニューラルネットワークの結合係数を
修正し、その偏差が零に収束するまで、多くの認識事例
について、結合係数の修正を繰り返して学習させてい
る。
【作用】
原始画像抽出手段Aにより物体の2次元画像から原始
画像が抽出され、形状特徴抽出手段Bによりその原始画
像から物体の形状に関する特徴的な形状要素が抽出され
る。 一方、形状モデリング手段Eによりモデル物体に関し
て同様な形状に関する特徴であるモデル要素の集合から
成る形状モデルが予め生成されている。 そして、探索手段Cにより、対象物体の形状要素と形
状モデルとの照合を順次行い、形状モデルの各モデル要
素と一致する形状要素の組を探索して、その結果から認
識対象物体の候補を同定するための位置・姿勢候補情報
が得られる。 次に、検証手段Dにより、形状モデルを位置・姿勢候
補情報にしたがって原始画像上に写像して、その形状モ
デルに固定されたメッシュセルの各セルに対応して得ら
れる原始画像の情報をニューラルネットワークの入力と
して、その認識対象物体の候補が正式に認識されるべき
物体であるか否かの検証が行われる。 一方、ニューラルネットワークの結合係数は、学習手
段Fにより、上記のようにして得られるニューラルネッ
トワークの出力である検証結果と、その検証結果の真実
性の評価値を別に与える教師信号とに基づき、修正され
る。多くの認識事例で係る結合係数の学習が実行される
ことで、ニューラルネットワークによる検証結果は、よ
り真実性の高いものとなる。 尚、教師信号は、実際に認識物体の位置及び姿勢をモ
デルの既知の位置及び姿勢に等しく整合させた上で各手
段を作動させ、探索手段Cの出力する位置・姿勢候補情
報とモデルの既知の位置及び姿勢との一致の程度を示し
た正誤値とすれば、教師信号を自動生成することが可能
である。
【実施例】
以下、本発明を具体的な一実施例に基づいて説明す
る。 第2図に示すように、本装置は、大きく分けて、原始
画像抽出装置1、形状特徴抽出装置2、探索装置3、検
証装置4、形状モデリング装置5、学習装置6で構成さ
れている。 1.原始画像抽出装置 原始画像抽出装置1は、カメラ14、画像入力回路10、
濃淡画像メモリ11、線画抽出回路12、線画メモリ13とで
構成されている。 (1)画像入力回路および濃淡画像メモリ カメラ14により撮像した物体の電子像を走査して映像
信号を取り出し、受光面の画素座標に対応してサンプリ
ングし、256の明度レベルにディジタル化して、濃淡画
像メモリ11の画素座標に対応したアドレスに記憶して濃
淡画像を作成する装置である。 (2)線画抽出回路 線画抽出回路12は、図示しない微分回路と微分画像メ
モリと輪郭線抽出回路とで構成されている。 微分回路は、濃淡画像メモリ11に記憶されている濃淡
画像の各画素座標における明度勾配(グラディエント)
を演算し、その結果を微分画像メモリに記憶して微分画
像を作成する回路である。 明度勾配の演算方法は、画素座標上の動点Pを含む3
×3のメッシュ状に分割された各画素の明度を用いて、
ソーベルオペレータによって演算している。ここでソー
ベルオペレータとは、3×3の各画素の明度をa〜iと
した時、動転Pにおける明度勾配(fx,fy)を次のよう
に演算するものである。 fx=c+2f+i−(a+2d+g) …(1) fy=g+2h+i−(a+2b+c) …(2) このような、ソーベルオペレータによる微分演算は、
積和演算器で構成される。 輪郭線抽出回路は、微分画像メモリから微分画像を入
力して、輪郭線を抽出しその輪郭線を線画像メモリ13に
形成する回路である。 輪郭線上の点は明度勾配の絶対値がその周りの点のそ
れに比べて大きくなることが知られている。したがっ
て、輪郭線を構成する点列は、画素座標上の動点Pにお
ける明度勾配の絶対値が所定値よりも大きく且つその周
りの点のそれよりも小さくない点を検出し、その点から
出発し、明度勾配の方向に垂直な方向の隣接画素をその
点に隣接した輪郭線上の点として選択し、選択された点
を基準にその点の明度勾配から次の輪郭線上の点を選択
するという操作を逐次実行することにより求めることが
できる。 輪郭点では256階級の濃淡レベルとし、他の点では0
レベルとしたのが線画であり、その線画は、線画メモリ
13に記憶される。 2.形状特徴抽出装置 形状特徴抽出装置2は、円検出回路20と円メモリ23と
直線検出回路21と直線モリ24とコーナー検出回路22とコ
ーナーメモリ25とで構成されている。 (1)円検出回路 円検出回路20は、線画像メモリ13から連続した輪郭点
列を取り出し、一定間隔ごとに点位置間のベクトル方向
がほとんど同量変化している時、この輪郭点列は円を形
成すると見なし、その円の中心座標と半径で円を特定
し、円毎にそのデータを円メモリ23に格納する回路であ
る。 (2)直線検出回路 直線検出回路21は、線画像メモリ13から連続した輪郭
点列を取り出し、一定間隔ごとの点位置間を結ぶベクト
ルの方向がほぼ同一である時、この輪郭点列は直線部を
形成すると見なし、その両端点の位置座標で直線を特定
し、直線毎にそのデータを直線メモリ24に格納する回路
である。 (3)コーナー検出回路 コーナー検出回路22は、2直線の端点が近い位置にあ
る時、この2直線はコーナーを形成すると見なし、その
2直線の交わる点の位置座標とその2直線の成す角度と
その角の2等分線の方向とで、コーナーを特定し、その
データをコーナー毎にコーナーメモリ25に格納する回路
である。 3.形状モデリング装置 形状モデリング装置5は、形状入力回路50、円メモリ
51、直線メモリ52、コーナーメモリ53とで構成される。 (1)形状入力回路 コンピュータ画面においてカーソルを移動することに
よって、モデル要素を作成又は指定して、形状モデルの
データを作成する装置である。モデル要素が直線の場合
には両端点の位置、円の場合には円周上の3点位置、コ
ーナーの場合にはコーナーを形成する2直線を指定する
ことによってモデル要素を作成又は指定して、形状特徴
抽出装置2で生成される形状要素のデータ形式の同一の
形式にて、モデル要素のデータが生成される。そして、
そのデータは、円、直線、コーナーに応じて、円メモリ
51、直線メモリ52、コーナーメモリ53にそれぞれ、記憶
される。 4.探索装置 探索装置3は、対応リスト生成回路30、対応リストメ
モリ31、対応組生成回路32、判定回路33、位置・姿勢演
算回路34とで構成されている。 (1)対応リスト生成回路 照合ステージでは、まず、各モデル要素に対して照合
する可能性のある形状要素を選び全1次対応組L1を作
る。 1次対応組L1は次式で定義される。 L1={(mi,ej;ρ1i,j|mi∈M,ej∈E, i=1…p,j=1…q} …(3) 但し、pはモデル要素の数、qは抽出された形状要素
の数、Mはモデル要素の集合、Eは形状要素の集合であ
る。 次に、形状要素の種類(円、コーナー、直線の3種)
が同一で且つ一致度ρ1があるしきい値以上の組合せが
残される。 一致度ρ1は、直線の場合にはその長さ、円であれば
その半径、コーナーであればその角度を用いて計算され
る。 直線では、次式で求められる。 ただし、Len(mk),Len(ek)はモデル要素と形状要
素の直線の長さである。 要素が円及びコーナーの場合には、一致度は(4)式
においてLenをRad(円の半径)及びAng(コーナーの角
度)にそれぞれ変え、更に最後の定数項を円では0.5、
コーナーでは0.2と置いて算出する。 このようにして、一致度ρ1が所定のしきい値を越え
る一次対応組が選択され、それは、対応リストメモリ31
に形状要素とモデル要素との対及び各一致度(mi,ej
ρ1i,j)の形式で記憶される。 (2)対応組生成回路 対応組生成回路32は、対応リストメモリ31から1次対
応組(mi,ej)を入力しながら、所定の論理にしたがっ
て、高次の対応組を生成する。 現在時点で探索が成功したk−1次対応組を C=(#m1,…,#mk-1,#e1,…,#ek-1)…(5) とする。 但し、記号#m1,…,#mk-1 #e1,…,#ek-1はモ
デル要素と形状要素とを対応させて、探索レベルの順に
整列させた時の要素の並びに改めて付けられた記号であ
る。 k−1次対応組で探索が成功した場合には、判定回路
33により、(5)式のk−1次対応組の一致度ρk-1
所定の第1しきい値αL以上と判定され、判定結果とし
て「NEXT」が、対応組生成回路32に出力される。対応組
生成回路32はその出力に応答して、次の新しい一次対応
組が対応リストメモリ31から選択され、その選択された
一次対応組を(%mk,%ek)とする。但し、(%mk,%
ek)はk次対応組を生成するために、選択された一次対
応組に改めて付けられた一般記号である。そして、その
一次対応組を組み込んだ、次の探索対象のk次対応組 C=(#m1,…,#mk-1,%mk,#e1,…,#ek-1,%
ek) …(6) が生成される。 (6)式の現k次対応組に対して、判定回路33によ
り、一致度ρkが演算され、その一致度ρkが所定の第1
しきい値ρLより小さい場合には、「false」信号が対応
組生成回路32に出力される。対応組生成回路32は、その
「false」信号に応答して、次の他の一次対応組(%
mk,%ek)を選択し、(6)式と同様な次の探索対象の
対応組を生成する。判定回路33から「false」信号が出
力される場合には、上記の処理が繰り返され、探索対象
の対応組が順次更新される。ここで、新しい一次対応組
(%mk,%ek)は、先ず、モデル要素%mkを固定して、
対応する形状要素%ekが一次対応組から順次選択され
る。そして、対応する形状要素%ekが最後になると、次
の別のモデル要素%mkの選択が行われ、そのモデル要素
%mkに対応する形状要素%ekが一次対応組から選択され
る。 一方、上記のようにして生成されたある(6)式で定
義されるk次対応組に対して、判定回路33により、その
対応組の一致度ρkが所定の第1しきい値ρL以上と判定
されると、判定回路33からは「NEXT」信号が対応組生成
回路32に出力される。「NEXT」信号が出力されると、対
応組生成回路32は、対応リストメモリ31から、次の新し
い一次対応組(%mk+1,%ek+1)を抽出し、次のk+1
次対応組 C=(#m1,…,#mk,%mk+1,#e1,…,#ek,%m
k+1 …(7) を生成する。 このようにして、順次、高次の対応組が生成されてモ
デル要素に対応する形状要素が探索されて行く。 そして、判定回路33により、現探索対応組の一致度ρ
kが演算され、その一致度ρkが第1しきい値ρLより大
きな第2しきい値ρHより大きいと判定されると、形状
モデルとの照合が成功したと判定され、「true」信号が
対応組生成回路32に出力され、対応組生成回路32はその
「true」信号に応答して、対応組の生成を中止する。 (3)判定回路 対応組生成回路32によって生成される現k次の探索対
応組に関して、形状モデルとの照合一致度ρkを演算
し、その一致度ρkが第1しきい値ρLを下回ると「fals
e」信号を対応組生成回路32に出力し、第2しきい値ρH
を上回る時、形状モデルとの照合成功として、「true」
信号を対応組生成回路32及び位置・姿勢演算回路34へ出
力する。それ以外の時、即ち、一致度ρkがρL≦ρk
ρHを満たす時は、「next」信号を対応組生成回路32に
出力する。 尚、本実施例では、経験的にρL=0.1、ρH=0.6と設
定されている。 一致度ρkの演算においては一次対応組の一致度ρ1
一次対応組の各要素間の相対位置関係の評価結果が使用
される。相対位置関係とは例えば、要素が共に円であれ
ば円の中心間の距離で表され、円と直線の場合には、円
の中心と直線の両端点の距離及び円の中心から直線に降
した垂線の長さが使われる。 k次対応組の一致度ρkは次式で定義される。 但し、Pはモデル要素の数、ρ1(#mi,#ei)は一
次対応組(#mi,#ei)の一致度、 ρr(#mi,#mj,#ei,#ej)は、モデル要素(#
mi,#mj)の相対関係と形状要素(#ei,#ej)の相対
関係との一致度を示す。以下、この一致度を相対一致度
といい、単にρrと記す。 相対一致度ρrは次式で求められる。 (a)#mi,#mjが共に円のとき 円の中心間の距離をモデルと対象物体とにおいて、d
(#mi,#mj),d(#ei,#ej)とすると 即ち、相対一致度ρrは2つのモデル要素の中心距離
と2つの形状要素の中心距離が等しい時に一致度が最大
値0.5となる値であり、それらの中心距離が異なる程0
に近くなる。 但し、ρr<ρLのとき、ρr=−∞とする。 (b)#mi,#mjが共にコーナーのとき コーナー点間の距離をモデルと対象物体とにおいて、
d(#mi,#mj),d(#ei,#ej)として、(9)式と
同様に求められる。 (c)#mi,#mjが共に直線のとき 第3図に示すように、モデル要素#miと#mjとの成す
角をθmi,jとし、形状要素#eiの平面座標x軸との成す
角をθeiとしたとき、モデル要素#mjに照合すべき形状
要素#ejのx軸との成す角の期待値をとする。する
と、期待値と次式で求められる。 ただし、−π/2≦≦π/2を満たすように、(10)又
は(11)式が選択される。 =θei+θmi,j …(10) =θei+θmi,j±π …(11) 次に、形状要素#ejが実際にx軸となす角θejを求
め、その値と期待値とから、次式により、姿勢照合度
U1が算定される。 U1={1−2|−θj|/π}×0.2 …(12) 又、モデル要素#miに形状要素#eiを対応させた時
に、モデル要素#miと#mjの相対関係から形状要素#ej
の存在可能性領域Ajが求められる。Ajは次のようにして
求められる。 第4図(a)に示すように、モデル要素#miと形状要
素#eiとを対応させる場合、長さの相異により不確定性
ΔLが存在する。そして、その要素間の対応関係は、第
4図(b)に示すように端点AとCとを一致させる方法
と、第4図(c)に示すように端点BとDとを一致させ
る方法とがある。すると、その不確定性ΔLにより、モ
デル要素#mjに照合させるべき形状要素#ejの存在可能
性領域は、モデル要素#mjをΔLだけ移動させたときの
移動領域となる。この領域は180度の回転の任意性から
形状要素#eiの両側に存在する。 形状要素#ejが存在可能性領域Ajに含まれるかどうか
を検証し、含まれる程度により領域照合度U2が次式によ
り算定される。 そして、相対一致度ρrは ρr=U1+U2 …(14) として演算される。 (d)#mi,#mjの一方が円、他方がコーナーのとき 円中心とコーナー点の距離をモデルと対象物体とにお
いて、d(#mi,#mj),d(#ei,#ej)として
(9)式により求められる。 (e)#mi,#mjの一方が円、他方が直線のとき 第5図に示すように、円の中心と直線の端点との距離
AC,BCをd1,d2とおき、円の中心と直線の垂線の足との
距離HCをd3とおき、 もし、d1(#mi,#mj)<d1(#ei,#ej)又は、 d2(#mi,#mj)<d2(#ei,#ej)のとき ρr=−∞とおく。 上記以外の時、ρrは、(9)式でdをd3と置いた式
で与えられる。 (f)#mi,#mjの一方がコーナー、他方が直線のと
き、 (e)において、円の中心をコーナー点とした場合と
同じである。 (4)位置・姿勢演算回路 位置・姿勢演算回路34は、判定回路33から出力された
探索に成功した対応組のn個のモデル要素と抽出された
形状要素の組から、対象物体の位置・姿勢を計算する回
路である。 アルゴリズムは次の通りである。 stepl:並進量の計算。 モデルおよび対象物体の基準点を各要素の配置から求
める。モデルおよび対象物体の基準点Rは、第6図に示
すように、その位置ベクトルXに対する各要素の基準点
(直線では垂線の足H1、コーナーでは直線の交差点H2、
円では円の中心H3)の変異ベクトルV1,V2,V3,…の絶対
値の和が最小となる位置として求められる。 min(|V1|2+|V2|2+|V3|2+…)なる位置ベクトルXを
モデル及び対象物体の両方から最小2乗法により求め、
それらをXm,Xeとする。モデルと対象物体間の並進量は
Xm−Xeとなる。 step2:回転量の計算。 位置ベクトルXmとXeが一致するように平行移動させた
後、モデルと対象物体における上記各変異ベクトルの成
す角、ang(V1m,V1e),ang(V2m,V2e),ang(V3m,V3
e),…を平均化する。 このθがモデルに対する対象物体の回転角である。 但し、n=1の場合やn=2で要素が平行直線や同心
円の場合には、対象物体の位置・姿勢が決まらないので
特別なエラー処理が必要である。 位置・姿勢演算回路34の出力は、モデルの姿勢および
位置を基準とする対象物体の姿勢および位置を表した2
×3の行列である。 5.検証装置 検証装置4は、探索装置3の位置・姿勢演算回路34の
出力である姿勢・位置行列を用いて、線画メモリ13上に
モデルを写像し、それより得られた情報を処理して、対
象物体が真に認識すべき対象物体であるか否かを判定す
る内であり、ネットワーク入力値演算回路40とネットワ
ーク演算回路41とネットワーク生成回路42とネットワー
クメッシュセル位置メモリ43とネットワーク係数メモリ
44とで構成される。 (1)ネットワーク生成回路 ネットワーク生成回路42は、第7図に示すように、形
状モデルに固定された所定領域内で、対象物体上に写像
されるウインドウを設定する回路である。そして、本回
路により、所定の幅でウインドウが分割されメッシュが
作成される。分割されたメッシュセルのうち検証に不必
要なモデルの外側に存在するセルは削除される。残った
メッシュセルを検証装置4のネットワーク入力値演算回
路40の入力素子に対応させるために、ネットワークメッ
シュセル位置メモリ43にその対応関係が記憶される。 又、外部から与えられたネットワーク演算回路41の層
数を用いて、ネットワーク演算回路41の素子及びリンク
重み係数(積和係数又は結合係数)を各出力素子および
各入力素子に対応して記憶する領域がネットワーク係数
メモリ44に設定される。 (2)ネットワーク入力値演算回路 ネットワーク入力値演算回路40は、位置・姿勢演算回
路34から出力される対象物体の位置・姿勢行列を入力
し、ネットワークメッシュセル位置メモリ43に記憶され
ているモデルに固定されたメッシュを、第8図に示すよ
うに、位置・姿勢行列で対象物体に対応するように線画
メモリ13上に写像し、そのメッシュの各セルに対応して
線画メモリ13から入力値を決定する回路である。ネット
ワーク演算回路41は、ニューラルネットワークであり、
入力数はメッシュの有効なセル数に対応する。 本実施例では、ネットワーク演算回路41への出力は各
メッシュセルの中に対象物体のエッジ稜線があれば+1,
なければ−1としている。 尚、エッジ稜線の有無の判定について演算量を少なく
するため、各セルにおいて、第9図に示すように、線画
メモリ13のアドレスに対応する画素に対して+字パター
ンを想定し、そのパターン上の画素に対象物体のエッジ
稜線が存在すれば、そのセルにはエッジ稜線が存在する
と判定するようにしている。 (3)ネットワーク演算回路 ネットワーク演算回路41は、一般的には第10図に示す
ような、ニューラルネットワークであり、第i層の第j
番目の素子の出力▲0i j▼は、次式で計算される。 ▲0i j▼=f(▲neti j▼) …(17) ▲neti j▼=Σ▲Wi-1 k,j▼・▲0i-1 k▼+▲Vi j▼ …(18) f(x)=1/{1+exp(−x)} …(19) 但し、▲Vi j▼は第i層の第j番目の演算素子のバイ
アス、▲Wi-1 k,j▼は、第i−1層の第j番目の素子と
第i層の第k番目の素子間のリンク重み係数、▲0i j
は第1層の第J番目の素子の入力値、即ち、ネットワー
ク演算回路41の第j番目のセルから出力される値であ
る。 本実施例では、ニューラルネットワークは第11図に示
すように3層で構成されており、出力層の素子数は1で
ある。ネットワーク演算回路41の出力は、検証結果であ
る照合の確信度(CF)である。確信度CFが予め与えられ
たしきい値(net−thresh)以上のとき、正対応の
「1」、しきい値より小さいとき、誤対応の「0」を、
ロボット制御装置80に出力する。 尚、しきい値(net−thresh)は0.5に設定されてい
る。 ニューラルネットワークは、ネットワークの層数が3
以上であれば、理論的に一般の非線形問題の解が得られ
るようにネットワークの結合係数を与えることができる
ことが知られている。層数が少ない程学習能力(汎化能
力)が高く、演算量も少ない。実験では3層以上のいく
つかの場合について、学習能力や演算量を調べたが、3
層が学習能力や演算量の点で最も良い結果が得られた。 (4)ネットワーク係数メモリ ネットワーク係数メモリ44は、上記のネットワーク演
算回路41の各層の係合係数Wを層別に記憶するメモリで
ある。このメモリに記憶された結合係数Wは、ネットワ
ーク演算回路41から参照されて、上記の演算に使用され
ると共に、学習装置6のネットワークパラメータ修正回
路61からも参照され、学習に応じて、その結合係数が修
正される。 6.学習装置 学習装置6はネットワーク演算回路41のリンク重み係
数を学習により変化させる装置である。学習装置6は、
学習制御回路60、ネットワークパラメータ修正回路61、
誤差検出回路62、学習用検証回路63で構成されている。 (1)学習制御回路 学習制御回路60は、誤差検出回路62より出力される誤
差Δ(=T−CF)信号を入力し、 |Δ|>net−thresh …(20) のとき、画像入力回路10及び学習用検証回路63を作動さ
せる回路である。しきい値net−threshは、外部から与
えられる値でありネットワーク演算回路41における出力
層のしきい値に等しい。 (2)ネットワークパラメータ修正回路 ネットワークパラメータ修正回路61は、次の手法で結
合係数を修正する回路である。 第i層の第j番目の素子の第i+1層の第k番目の素
子に対する出力の誤差を、誤差に関して再帰的に ▲Δi k,j▼=f′(▲neti j▼)・▲δi+1 k▼/▲Wi-1
k,j▼ …(21) ▲Wi-1 k,j▼=μ・▲δi k,j▼)・▲f(neti j▼) …(22) ▲Δi j▼=μ・▲δi k▼ …(23) ▲f(net0 j▼)=Pj(入力値) …(24) f(x)が(19)式のとき f′(x)=f(X)(1−f(x)) …(25) として求められる。 式(21)〜(25)によってWおよびVを更新していけ
ば、出力の2乗誤差を最小にするようなニューラルネッ
トワークを構成できる。 尚、μは学習のステップサイズであり、外部から与え
られる。通常0.1〜0.5の範囲にとる。 ステップサイズμが大きい時、学習速度は速いが、良
くない解に収束する(結合係数やバイアスのいくつかが
非常に大きな値となり、ノイズに弱いネットワークが構
成される)ことがある。経験的に0.1〜0.5の範囲が良い
が、メッシュセルの数が多い程μはより小さな値になる
ように初期設定するのが良い。更に学習が進むにつれ、
順次μを大きな値に更新すれば高速学習ができる。 (3)誤差検出回路 誤差検出回路62は、ネットワーク演算回路41の出力を
CF、学習用検証回路63の出力、即ち、教師信号をTとす
る時、T−CFをネットワーク演算回路41の出力誤差とし
て、学習制御回路60及びネットワークパラメータ修正回
路61に出力する回路である。実際には、この出力誤差と
ネットワーク入力値演算回路40の出力を一時メモリ上に
蓄え、ネットワークパラメータ修正回路61に順次転送し
ている。 (4)学習用検証回路 学習用検証回路63は、次のステップを実行する回路で
ある。 (a)実際の対象物体の位置・姿勢を形状モデルの位置
・姿勢と同一にした状態で、学習制御回路60により、画
像入力回路10を起動する。そして、上記のように照合操
作を実行した後、学習用検証回路63は位置・姿勢演算回
路34から出力される位置・姿勢行列を入力し、抽出され
た対象物体の位置・姿勢候補が単位行列であれば、即
ち、形状モデルと位置・姿勢が一致すれば肯定「1」、
一致しなければ、否定「0」の教師信号Tを出力する。 又、必要により、次のステップでも実行される。 (b)対象物体の位置を固定せず、外部力(人間など)
によってその位置を移動させて、学習制御回路60によ
り、画像入力回路10を起動する。そして、上記の照合操
作を実行し、学習用検証回路63は、位置・姿勢演算回路
34の出力する位置・姿勢行列を入力し、その行列によっ
て示される対象物体の位置・姿勢の正否を外部(例えば
人間)に問い、その正誤に応じて教師信号Tを出力す
る。 (a)によって検出され学習される誤対応や異品の例
を、第12図に示す。 位置・姿勢演算回路34の出力する位置・姿勢行列が単
位行列、 ならば、真の「1」の教師信号を出力し、単位行列でな
いならば、偽の「0」教師信号を出力する。そして、学
習(a)を重ねることにより誤対応がなくなる。 (b)では、人間が形状モデルとの対応を判断して、
真偽の教師信号を出力して、学習させることができる。 7.装置の作用 次に、本装置全体の作用を説明する。 本装置は学習によりニューラルネットワークの結合係
数を修正するティーチングモードと、対象物体を実際に
認識する実行モードとの2モードがある。 (1)ティーチングモード(モデリングモード) Step1:形状入力 形状入力回路50によって、円,直線,コーナーからな
る形状モデルを生成する。第13図では、2個の円(0,
1)と3本の直線(2,3,4)で形状モデルが作られてい
る。 この形状モデルは、それぞれ、円メモリ51、直線メモ
リ52、コーナーメモリ53に記憶され、探索装置3におい
て、形状特徴抽出装置2の円メモリ23、直線メモリ24、
コーナーメモリ25に記憶されている形状要素と照合する
のに用いられる。 実際には本ステップでは、原始画像抽出装置1、形状
特徴抽出装置2、探索装置3、或いは、カメラ座標系の
キャリブレーション等が行われる。 Step2:学習 ネットワーク生成回路42によって検証装置4で使用さ
れる検証用ネットワークが初期設定される。 この段階で、ネットワークは未学習である。次に学習
制御回路60が学習プロセスを制御しながら第11図に示す
ニューラルネットワークの結合係数(積和係数)を更新
していく。即ち、誤差検出回路62の出力によってネット
ワークの学習が終了したと判断されるまで、画像抽出装
置1、形状特徴抽出装置2、探索装置3、検証装置4、
学習装置6が駆動される。 誤差検出回路62は、学習用検証回路63の出力である教
師信号Tと検証装置4の出力である未学習ネットワーク
の出力の差を演算する。この差を用いて、ネットワーク
の結合係数(積和係数)がネットワークパラメータ修正
回路61によって更新される。 (2)実行モード(識別モード) Step1:原始特徴抽出 画像入力回路10は、CCDカメラから対象を撮像し、濃
淡画像をメモリ11に格納する。線画抽出回路12は濃淡画
像を入力し、線画を抽出し、線画メモリ13に格納する。 線画は第14図に示すようにノイズを含んでいたり、検
出できない部位があるのが一般的である。線画データ
は、形状特徴抽出装置2および検証装置4の入力データ
として使用される。 Step2:形状特徴抽出 円検出回路20、直線検出回路21、コーナー検出回路22
により、それぞれ、円,直線、コーナーが検出され、そ
れらは、円メモリ23、直線メモリ24、コーナーメモリ25
に記憶される。 但し、形状モデルに含まれな形状タイプは抽出されな
い。 Step3:探索 対応リスト生成回路30では、メモリ51,52,53に記憶さ
れているモデル要素と、メモリ23,24,25に記憶されてい
る形状要素との組合せを生成して、対応組を対応リスト
メモリ31に記憶する。 たとえば、第15図において、 (m1,e2;0.9),(m1,e5;0.3),(m1,e6;0.5) (m2,e2;0.9),(m2,e5;0.2),(m2,e6;0.3) (m3,e1;0.5),(m3,e3;0.9),……… (m4,e8;0.6),……… (m5,e7;0.4),……… ここで実数は、組合せの照合の一致度である。この対
応リストは、対応リストメモリ31に格納される。 対応組生成回路32,判定回路33では、一次対応組を用
いて複合した高次の対応組を順位生成しながら形状要素
間の相対位置関係が形状モデルのそれと一致するか否か
を調べる。 例えば、 (m1,m3,m4,e2,e3,e8;0.7) (m1,m3,e6,e7;0.0) 実数は、組合せの照合一致度である。照合一致度があ
るしきい値を越えると、判定回路33から対象物体の位置
・姿勢候補が検証装置4に出力される。 このように、一致度が所定の第2しきい値ρHより、
大きくなると、探索成功とみなされる。即ち、モデルと
対象物体が一次的に対応すると判断される。そして、認
識対象物体の位置及び姿勢は、形状モデルに対する写像
行列で与えられる。 Step4:検証 ネットワーク入力値演算回路40は、探索装置3から入
力された位置・姿勢行列を用いてメッシュを、第8図に
示すように、線画上に写像する。そして、その各セル内
における対象物体の輪郭線の有無を入力データとして、
ネットワーク演算回路41に出力する。 ネットワーク演算回路41は、第11図の入力層の各素子
にに上記エッジ有無データを入力し、第11図のニューラ
ルネットワークによる演算を実行して、その結果を出力
する。その結果は検証結果を示しており、モデルと対象
物体が正反対と判定されれば、探索装置3より得られた
対象物体の位置・姿勢行列をロボット制御装置80に出力
する。そして、ロボット制御装置80はその位置・姿勢行
列により対象物体の位置及び姿勢を判読して、その物体
の把持動作をロボットに行わせることができる。 以上説明してきたように、本実施例では、対象物体と
モデルとの照合により、一時的に対象物体を認識した上
で、さらに、元の原始画像から得られる情報をニューラ
ルネットワークで処理して、その対象物体の認識の真実
性を評価するようにしている。したがって、対象物体の
輪郭に係る形状要素の抽出が困難な場合でも、ニューラ
ルネットワークにより、形状要素と形状モデルとの誤対
応を排除し、対象物体の認識を精度良く行うことが可能
となる。 又、メッシュセル内において、対象物体のエッジの有
無を検出する場合に、正品について、エッジの存在する
セルに対応する演算素子の出力に関する結合係数を
「1」とし、異品について、エッジの存在するセルに対
応する演算素子の出力に関する結合係数を「−1」とす
れば、一次的な対象物体の認識に誤対応があっても、正
品と異品との区別を精度良く行うことが出来る。 又、メッシュセル内の画素の濃淡平均値をニューラル
ネットワークに入力値とすることで、対象物体に傷が存
在するか否かの判定を行うことも可能である。即ち、対
象物体内の反射光量が異なることで、傷の有無を判定す
ることができる。 又、上下に重畳している物品の内、最上部の物品のみ
を認識したい場合にも、精度良く認識することができ
る。即ち、下部の物品とモデルとの対応がとれたとして
も、下部物品に関するニューラルネットワークの入力値
が重畳部では、上部物品に対する値となるため、検証装
置の出力により、下部物品を認識対象物から排除するこ
とが可能となる。 又、学習装置は、実際に認識対象物を認識する認識モ
ードで使用して、誤認識が発生した場合に、教示するよ
うにすることもできるので、学習効率が良い。 又、認識対象物体をモデルの位置及び姿勢に整合させ
て、本装置を起動し、位置・姿勢演算回路34の出力する
位置・姿勢行列が単位行列となった場合に真の「1」、
単位行列でない場合には偽の「0」とする教師信号を自
動発生させた場合には、学習が自動的に行われ、学習を
行うための作業者の負担を軽減させることができる。
【発明の効果】 以上述べてきたように、本発明では、対象物体の形状
要素を抽出し、それをモデルの形状要素と比較し、照合
性の高い形状要素の組を探索することで、認識すべき対
象物体の候補を選択し、その後、モデルを得られた情報
に応じて、対象物体の原始画像上に写像し、そこから得
られる情報に基づいてニューラルネットワークにより、
モデルとの対応の真実性を評価するようにしている。 したがって、形状要素の抽出がノイズにより影響を受
けたり、形状モデルとの誤対応が生じても、真にモデル
と対応する対象物体を確定することができ、対象物体の
認識精度を向上させることができる。 又、ニューラルネットワークの結合係数は、学習手段
による学習効果によって、決定されるので、誤認識事例
を学習させることで、認識精度を向上させることができ
る。又、従来のような検証アルゴリズム等が不要とな
り、作業者の負担を軽減させることができる。 更に、実際の認識対象物体の位置及び姿勢をモデルの
既知の位置及び姿勢と等しく整合させた上で、探索手段
の出力する位置・姿勢候補情報とモデルの既知の位置・
姿勢との位置の程度、即ち、位置・姿勢候補情報の正誤
値により教師信号を与えた場合には、教師信号が自動生
成させるため、学習効率が向上するという効果もある。
【図面の簡単な説明】
第1図は本発明の概念を示したブロックダイヤグラム、
第2図は本発明の具体的な一実施例に係る視覚認識装置
の構成を示したブロックダイヤグラム、第3図、第4図
は形状要素が直線である場合の相対一致度の演算方法を
示した説明図、第5図は形状要素が直線と円である場合
の相対一致度の演算方法を示した説明図、第6図は位置
・姿勢の演算方法を示した説明図、第7図はモデルに固
定されたメッシュセルを示した説明図、第8図はそのメ
ッシュセルの線画上への写像を示した説明図、第9図は
セッシュセル内の輪郭線の有無を検出する方法を示した
説明図、第10図は一般的なニューラルネットワークを示
した構造図、第11図は本実施例の具体的なニューラルネ
ットワークを示した構造図、第12図は探索結果における
誤対応又は異品との対応の例を示した説明図、第13図は
形状モデルを示した説明図、第14図は抽出された線画を
示した説明図、第15図は抽出された形状要素を示した説
明図である。 1……原始画像抽出装置 2……形状特徴抽出装置、3……探索装置 4……検証装置、5……モデリング装置 6……学習装置 40……ネットワーク入力値演算回路 41……ネットワーク演算回路 42……ネットワーク生成回路

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】物体の2次元画像より該物体の原始画像を
    抽出する原始画像抽出手段と、 前記抽出された原始画像より前記物体の形状に関する特
    徴的な形状要素を抽出する形状特徴抽出手段と、 モデル物体の形状要素を組合わせて認識すべき対象物体
    の照合の対象となる形状モデルを生成する形状モデリン
    グ手段と、 前記生成された形状モデルと一致する前記抽出された形
    状要素の組合せを探索し、形状要素と形状モデルとの対
    応関係から求められる前記認識対象物体の位置・姿勢候
    補情報により、前記対象物体を同定する探索手段と、 前記形状モデルに固定した領域のメッシュセルを前記位
    置・姿勢候補情報に基づき前記原始画像に写像し、各メ
    ッシュセルに含まれる前記原始画像に基づく値を入力値
    としてニューラルネットワークにより前記位置・姿勢候
    補情報が前記認識対象物体と正しく対応するか否かを検
    証する検証手段と、 前記検証結果とその検証結果の真実性の評価値を与える
    教師信号とに基づき前記ニューラルネットワークの結合
    係数を修正し前記検証手段に出力する学習手段と を有することを特徴とする視覚認識装置。
  2. 【請求項2】前記学習手段は、前記教師信号としての前
    記位置・姿勢候補情報の正誤値と前記ニューラルネット
    ワークの出力値との偏差に応じて前記ニューラルネット
    ワークの各結合係数を修正演算するとともに、前記偏差
    が零になるまで前記修正演算を行うことを特徴とする請
    求項(1)記載の視覚認識装置。
JP1091077A 1989-04-11 1989-04-11 視覚認識装置 Expired - Fee Related JP2885823B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1091077A JP2885823B2 (ja) 1989-04-11 1989-04-11 視覚認識装置
US07/507,406 US5111516A (en) 1989-04-11 1990-04-11 Apparatus for visual recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1091077A JP2885823B2 (ja) 1989-04-11 1989-04-11 視覚認識装置

Publications (2)

Publication Number Publication Date
JPH02268380A JPH02268380A (ja) 1990-11-02
JP2885823B2 true JP2885823B2 (ja) 1999-04-26

Family

ID=14016446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1091077A Expired - Fee Related JP2885823B2 (ja) 1989-04-11 1989-04-11 視覚認識装置

Country Status (2)

Country Link
US (1) US5111516A (ja)
JP (1) JP2885823B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501595A (ja) * 2018-09-20 2022-01-06 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0151235B1 (ko) * 1963-07-14 1998-10-15 모리시타 요이찌 형상검출방법
JPH0695192A (ja) * 1991-05-01 1994-04-08 Matsushita Electric Ind Co Ltd 画像認識装置及び画像入力方法
GB9103349D0 (en) * 1991-02-18 1991-04-03 King Reginald A Artificial neural network systems
US5253307A (en) * 1991-07-30 1993-10-12 Xerox Corporation Image analysis to obtain typeface information
JP3242950B2 (ja) * 1991-08-14 2001-12-25 株式会社東芝 予測制御方法
US5852817A (en) * 1991-08-14 1998-12-22 Kabushiki Kaisha Toshiba Intelligent control apparatus
US6728404B1 (en) 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
EP0532052B1 (en) * 1991-09-12 2008-02-13 FUJIFILM Corporation Method for extracting object images and method for detecting movements thereof
US5740274A (en) 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
EP0573656B1 (en) * 1991-11-22 2002-02-20 Kabushiki Kaisha Toyota Jidoshokki Control device in loom
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
JP3226641B2 (ja) * 1992-02-04 2001-11-05 富士写真フイルム株式会社 パターン学習方法
US5405015A (en) * 1993-08-11 1995-04-11 Videojet Systems International, Inc. System and method for seeking and presenting an area for reading with a vision system
JPH07112383A (ja) * 1993-08-23 1995-05-02 Mazda Motor Corp 物品の位置認識方法並びに物品の移載制御方法及び移載制御装置
US5600733A (en) * 1993-11-01 1997-02-04 Kulicke And Soffa Investments, Inc Method for locating eye points on objects subject to size variations
US5459636A (en) * 1994-01-14 1995-10-17 Hughes Aircraft Company Position and orientation estimation neural network system and method
IT1268059B1 (it) * 1994-05-20 1997-02-20 Mini Ricerca Scient Tecnolog Procedimento di estrazione caratteristiche di un'immagine digitale binaria.
EP0697679A3 (en) * 1994-08-12 1998-07-01 Dassault Systemes of America Computerized drawing method
JP3560670B2 (ja) * 1995-02-06 2004-09-02 富士通株式会社 適応的認識システム
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
CA2150432A1 (en) * 1995-05-30 1996-12-01 Bert Van Den Berg Models for computer integrated manufacturing
JP3764773B2 (ja) * 1996-02-29 2006-04-12 富士通株式会社 注視点を用いた頑健な認識装置
JP3372014B2 (ja) * 1996-08-29 2003-01-27 ダイハツ工業株式会社 エンジン外付け部品の誤欠品検査装置
US6094508A (en) * 1997-12-08 2000-07-25 Intel Corporation Perceptual thresholding for gradient-based local edge detection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6574565B1 (en) 1998-09-15 2003-06-03 Ronald R. Bush System and method for enhanced hydrocarbon recovery
US6236942B1 (en) 1998-09-15 2001-05-22 Scientific Prediction Incorporated System and method for delineating spatially dependent objects, such as hydrocarbon accumulations from seismic data
US6239804B1 (en) * 1998-11-09 2001-05-29 Marlene Rayner Device and method for accurately obtaining measurement data for pool covers and other objects
JP3748172B2 (ja) * 1998-12-09 2006-02-22 富士通株式会社 画像処理装置
JP4392886B2 (ja) * 1999-01-22 2010-01-06 キヤノン株式会社 画像抽出方法及び装置
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7225153B2 (en) * 1999-07-21 2007-05-29 Longitude Llc Digital options having demand-based, adjustable returns, and trading exchange therefor
US7167583B1 (en) * 2000-06-28 2007-01-23 Landrex Technologies Co., Ltd. Image processing system for use with inspection systems
US20020094134A1 (en) * 2001-01-12 2002-07-18 Nafis Christopher Allen Method and system for placing three-dimensional models
JP4007762B2 (ja) * 2001-01-25 2007-11-14 株式会社リコー 画像認識装置
US6804416B1 (en) * 2001-03-16 2004-10-12 Cognex Corporation Method and system for aligning geometric object models with images
US7991717B1 (en) 2001-09-10 2011-08-02 Bush Ronald R Optimal cessation of training and assessment of accuracy in a given class of neural networks
US7190834B2 (en) * 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
JP4785598B2 (ja) * 2006-04-07 2011-10-05 株式会社日立製作所 類似形状検索装置
US8483431B2 (en) 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
US8792728B2 (en) * 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
US8861816B2 (en) * 2011-12-05 2014-10-14 Illinois Tool Works Inc. Method and apparatus for prescription medication verification
US20140355849A1 (en) * 2013-06-04 2014-12-04 Medsnap, Llc System and method of using imprint analysis in pill identification
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
TWI526949B (zh) * 2014-08-25 2016-03-21 財團法人資訊工業策進會 影像處理裝置及其影像處理方法
JP6879938B2 (ja) * 2015-05-11 2021-06-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. ニューラルネットワークを利用するバイオメトリックユーザ認識のためのデバイス、方法、およびシステム
EP3427192A4 (en) 2016-03-11 2019-03-27 Magic Leap, Inc. STRUCTURAL LEARNING IN NEURAL FOLDING NETWORKS
CN107273106B (zh) * 2016-04-08 2021-07-06 北京三星通信技术研究有限公司 物体信息翻译、以及衍生信息获取方法和装置
JP6792842B2 (ja) * 2017-06-06 2020-12-02 株式会社デンソー 外観検査装置、変換データ生成装置、及びプログラム
US10937243B2 (en) * 2018-08-29 2021-03-02 Dell Products, L.P. Real-world object interface for virtual, augmented, and mixed reality (xR) applications
US10659848B1 (en) 2019-03-21 2020-05-19 International Business Machines Corporation Display overlays for prioritization of video subjects
CN110070097B (zh) * 2019-04-19 2023-07-25 戴文跃 一种图形对象比对方法
EP3973468A4 (en) 2019-05-21 2022-09-14 Magic Leap, Inc. HANDPOSITION ESTIMATING
CN110180186B (zh) * 2019-05-28 2022-08-19 北京奇思妙想信息技术有限公司 一种地形图转换方法及系统
CN110717395A (zh) * 2019-09-06 2020-01-21 平安城市建设科技(深圳)有限公司 图片物体处理方法、装置及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59111575A (ja) * 1982-12-16 1984-06-27 Omron Tateisi Electronics Co 重畳物体における特徴点の分割認識方式
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
JPS60204086A (ja) * 1984-03-28 1985-10-15 Fuji Electric Co Ltd 物体識別装置
US4876728A (en) * 1985-06-04 1989-10-24 Adept Technology, Inc. Vision system for distinguishing touching parts
FR2597636B1 (fr) * 1986-04-18 1988-06-17 Commissariat Energie Atomique Procede de reconnaissance automatique d'objets susceptibles de se chevaucher
JPH0614361B2 (ja) * 1986-05-16 1994-02-23 株式会社豊田中央研究所 視覚認識装置
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4914708A (en) * 1987-06-19 1990-04-03 Boston University System for self-organization of stable category recognition codes for analog input patterns
US4906940A (en) * 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501595A (ja) * 2018-09-20 2022-01-06 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法
JP7203206B2 (ja) 2018-09-20 2023-01-12 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法

Also Published As

Publication number Publication date
JPH02268380A (ja) 1990-11-02
US5111516A (en) 1992-05-05

Similar Documents

Publication Publication Date Title
JP2885823B2 (ja) 視覚認識装置
David et al. Softposit: Simultaneous pose and correspondence determination
CN109615611B (zh) 一种基于巡检影像的绝缘子自爆缺陷检测方法
David et al. SoftPOSIT: Simultaneous pose and correspondence determination
US7340089B2 (en) Geometric pattern matching using dynamic feature combinations
JP4825253B2 (ja) 可変形オブジェクト認識のためのシステムおよび方法
Steder et al. Robust on-line model-based object detection from range images
CN113537208A (zh) 一种基于语义orb-slam技术的视觉定位方法及系统
CN113496525A (zh) 通过2d相机的3d姿态估计
CN111507908A (zh) 图像矫正处理方法、装置、存储介质及计算机设备
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US7027637B2 (en) Adaptive threshold determination for ball grid array component modeling
CN113313725B (zh) 含能材料药桶的桶口识别方法及系统
Mecocci et al. Outdoor scenes interpretation suitable for blind people navigation
Ibelaiden et al. Scene description from depth images for visually positioning
CN113850167A (zh) 一种基于边缘计算与机器深度学习的商品识别方法及系统
CN113496526A (zh) 通过多个2d相机的3d姿态检测
CN114972495A (zh) 针对纯平面结构的物体的抓取方法、装置及计算设备
JPH0624018B2 (ja) 楕円検出装置
Śluzek A local algorithm for real-time junction detection in contour images
Huang et al. Change detection in laser-scanned data of industrial sites
Svensson et al. 6DOF object recognition and positioning for robotics using next best view heuristics
US20240046659A1 (en) Method for detecting an environment by means of images from at least two image sensors
Yeh et al. Model quality aware ransac: A robust camera motion estimator
Ganslandt et al. 6DOF Object Recognition and Positioning for Robotics Using Next Best View Heuristics

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees