JP2520397B2 - 接触部品を区別するための視覚システム - Google Patents

接触部品を区別するための視覚システム

Info

Publication number
JP2520397B2
JP2520397B2 JP61129990A JP12999086A JP2520397B2 JP 2520397 B2 JP2520397 B2 JP 2520397B2 JP 61129990 A JP61129990 A JP 61129990A JP 12999086 A JP12999086 A JP 12999086A JP 2520397 B2 JP2520397 B2 JP 2520397B2
Authority
JP
Japan
Prior art keywords
image
prototype
arc
feature
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61129990A
Other languages
English (en)
Other versions
JPS6263383A (ja
Inventor
ディー ロス スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADEPUTO TEKUNOROJII Inc
Original Assignee
ADEPUTO TEKUNOROJII Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADEPUTO TEKUNOROJII Inc filed Critical ADEPUTO TEKUNOROJII Inc
Publication of JPS6263383A publication Critical patent/JPS6263383A/ja
Application granted granted Critical
Publication of JP2520397B2 publication Critical patent/JP2520397B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/66Trinkets, e.g. shirt buttons or jewellery items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】 本発明は、一般的にはロボット制御システムの分野に
係り、より特定的にはコンベヤ上でシステムを通過して
移動する部品を、たとえ接触し合ったり重なっていて
も、正確に識別できるロボット視覚システムに係る。
無作為に位置ぎめされている部品を所在探知するロボ
ットのための大部分の市販視覚システムは、G.グリーソ
ン及びG.エージンのSRI視覚モジュールに基いている。
第9回産業用ロボットに関する国際シンポジウム(1979
年3月)議事録57〜70ページに所載の「センサ制御操作
及び検査のためのモジュラー視覚システム」を参照され
たい。使用される技術は公知である。これらのシステム
は、接続生解析を介してバイナリ像から「小滴」を抽出
し、次でそれらを認識するためにこれらの小滴と予め教
えられたモデルとを比較する。使用者は、単にシステム
に物体の例を示すことによってシステムを訓練する。
SRI視覚モジュールのようなシステムは有能ではある
が、応用範囲は制限される。2つの主要な技術的制限が
存在する。即ち、1)物体は背景に対して高いコントラ
ストを呈していなればならず、そして2)物体は、それ
らの像が単一の小滴内に併合されないように、空間的に
分離していなければならない。多くの応用に対して、高
いコントラスト要求は体系的な光を用いて満足させるこ
とができる。体系的な光技術の優れた例は、1979年にニ
ューヨークのプレナムプレスから発刊されたG.ドッド及
びL.ロッソル編コンピュータ視覚及びセンサを基とする
ロボットの81〜97ページに所載のS.ホーランド、L.ロッ
ソル及びM.ワードの「コンサイト1:ベルトコンベヤから
部品を転送するための視覚制御ロボットシステム」に記
述されているコンベヤベルトと共に用いられるコンサイ
ト(Consight)システムであり、本明細書でも参照して
いる。しかし、第2の制限は容易に解消されない。SRI
法は、物体を認識しそれらの向きを決定するために、面
積、最良に一致する長円、周縁及び慣性の第2モーメン
トの組合せを用いて形状を表わす。これらの物体記述子
は、物体の像が単一の小滴内に併合される程物体が互に
接近している時には役立たない。
本発明の目的は、高いコントラスト及び非接触部品の
制限を大巾に緩和するロボット視覚システムを提供する
ことである。
本発明の別の目的は、ロボット腕に呈示される部品を
認識する新らしい、且つ非公知のシステムを提供するこ
とである。
本発明の別の目的は、どのような部品或は部品の組が
呈示されても認識するように「訓練」できる視角システ
ムを提供することである。
本発明の別の目的は、部品の向きには拘わりなく、或
は部品が重なり合っていてさえも、部品を認識する視覚
システムを提供することである。
概して言えば、本システムは、総面積特性の代りに物
体の特徴的な角及び縁(局部特色)によって物体を特徴
づけるようにして部品を認識する新らしい方法を用い
る。
システムの設計は以下のような仮定条件に基いている
が、システムはこれらの仮定条件の全てを満足する部品
を認識することに制限されてはいない。
* 大部分の部品は回転及び角柱形状のみからなってい
る。これらの部品は線及び長円(通常は円、遠近による
若干の歪は無視する)からなる像シルエットを有してい
る。
* 殆んど全ての部品は剛直であるか、或は最悪でも僅
かな可撓性である。多分ワイヤは最も一般的な免除され
るものである。ワイヤが存在すると、ワイヤは特別な複
雑化要因である。ワイヤは標準カメラ解像力においては
部分的に不可視であることが屡々である。
* 殆んどの部品は孔を有しており、ほぼ半数の部品は
それらを完全に貫通する孔を有している。これらの孔は
通常に直交しているので与えられた逆光照明に可視であ
る。
* 殆んどの部品は、それらが載っている面においてそ
れらの向きを独特に決定するシルエットを有している。
多くの部品は、シルエットだけが与えられる倒立したあ
いまいさを有している。しかし、部品呈示は通常は完全
に無作為ではなく、また全ての部品が安定に倒立してい
るのではない。
* 部品の深さ(載っている表面上の高さ)は製造のモ
ードに依存する。鋳造し、成形し、そして旋削した部品
は、典型的には薄板金部品よりも大きい高さを有してい
る。ロボットによって取扱われそうな、調査した殆んど
の部品はかなりの深さを有していた。
* 均一な反射率及び背景との高いコントラストは一般
的ではない。薄板金属部品及び加工済部品(多分これが
大部分であろう)は、鏡のように反射する。これらの反
射の位置は、部品表面及び光源の両者の位置及び向きに
依存する。
視覚システムの所望の能力を決定する上で、輸送機構
もまた重要な要因である。出現の順に、部品はピン、パ
レット、コンベヤ、及び雑手段(例えば人手によって)
内に輸送される。しかし現行の、及び終極に近いロボッ
ト応用は、コンベヤ及びパレットを包含している。
本発明は「特色に基づく」認識方法を採用している。
この方法は、視覚的にモデル物体に対する線、弧、角
(かど)及び孔のような空間的に相互に関係している境
界特色を用いる。像の特色と予め教えられたモデル(模
範、プロトタイプ)の特色とを比較することによって像
内の物体が認識される。認識は境界セグメント(決まっ
た両端の間の区分)に基いていて、「境界全体」に基い
ていないから、物体の境界が低コントラスト或は重なり
によって不完全に現われた時でも物体を認識することが
できる。
特色に基づく方法に関するSRIインターナショナルの
R.ボールス、及びジェネラルモータース研究所のW.パー
キンスの研究を列挙する。
1982年3月、SRIインターナショナル、人工頭脳セン
ター、テクニカルノート262、R.ボールス「部分的に可
視の物体の認識及び所在探知:局部的特色集束方法」、 1979年4月、ワシントンDC、自動化された産業用検査
及び組立のためのイメージング応用に関するSPIE技術シ
ンポジウム、R.ボールス「最も効果的な閥による確固た
る特色整合」、 1978年2月、IEEEコンピュータ会報、C−27巻2号、
126〜143ページ、W.パーキンス「産業部品のためのモデ
ルに基づく視覚システム」、 1980年6月、ミシガン州ワーレン、GM研究所報GMR-33
03、W.パーキンス「簡易化されたモデルに基づく部品探
知機」。
これらは完全且つ実用的な視覚システムを提供してい
ない。
ボールスのシステムにおいては、特色とは単に角及び
円形の孔に過ぎない。本システムにおいては、特色とは
線、弧、孔及び角である。ボールスのシステムは「最大
派閥」を介して特色を整合させているが、本システムで
は行っていない。またボールスのシステムは極めてゆっ
くりと(10×或はそれ以上)実行される。最後に、ボー
ルスが確言する方法では整合は完全に困難である(彼は
像の縁に対して枠づかみ(フレームグラブ)メモリを検
索したが、本システムは像領域の線及び弧境界表現と模
範のそれらとを比較する)。結論として、類似技術とは
より多くの差異が存在するのである。
本発明の視覚システムが通常の実行モードにある時、
像データに関する動作は順次に遂行される。カメラが知
覚データを線毎の基準で供給すると、接続性解析が遂行
された順次(スクロール)表示される像が更新される。
領域が閉塞する(物体の後縁がカメラの下を通過する)
と、視覚システムは領域の境界を処理する。この処理は
複数の段階を含み、複数の境界表現を発生し、これら表
現の最後は線及び弧の接続されたシーケンスである。最
後に、認識は境界特色と模範モデルの特色とを比較する
ことによって遂行される。
詳述すれば、像処理には7段階が存在する。
1.接続性解析、 2.境界線(周縁)のチェーンエンコード、 3.原縁をチェーンに適合させる(もっとも良く一致させ
る)、 4.線及び弧を縁に適合させる、 5.線及び弧の特色を分類する、 6.模範と像との整合を調査する、 7.整合を照合する。
7段階の全てが成功裏に完了した時、物体は所在探知
され適切に識別される。その時点で、物体の識別、位
置、二次元的配向、及び「外観の良さ」の尺度がロボッ
トに対して利用可能になる。
以下に添附図面を参照して本発明を詳細に説明する。
本発明が特に有用なマニピュレータシステムは1985年
1月24日付米国特許出願第694,585号「直接駆動ロボッ
トシステム」に記載され、本明細書においてはこれを参
照する。この出願には、主として軽材料処理、部品キッ
ティング、組立、及び包装の生産応用に設計された4軸
ロボットが記載されている。基本システムは制御器及び
ロボットとからなる。ロボットは、腕或はマニピュレー
タとも呼ばれる。第1図は制御器及びロボットを示す。
また、基本システムは視覚システムの付加によって拡張
することができる。2種類の視覚システムが存在する。
即ち、コンベヤに基づくシステムと面システムである。
第2図及び第3図は視覚システムを示すものであって、
これらに関しては後述する。
マニピュレータは鋳造アルミニウム構造を有し、電動
機によって種々の継手(即ち軸)を制御する。若干の場
合には、軸は自由度と呼ばれる。基本マニピュレータ
は、第1図に示すように4つの自由度を有している。
継手J1は垂直コラムを中心として回転する。継手J2は
腕の中央で回転する。継手J1及びJ2は共働してマニピュ
レータの水平位置ぎめを行う。
継手J3は線形継手であって、腕の端において垂直方向
に伸縮する。典型的な動作では、継手J3は物体を持上
げ、それらを戻して配置する軸である。
継手J4は手(或は端実行器)取付け用フランジにおい
て回転する。これは、(方形孔の中に方形ブロックを取
付けてライニングするような)動作中に部品を半径方向
に配向するのに用いられる軸である。
腕の端には端実行器フランジがあり、これは種々の手
或は工具を腕に取付けるのに用いられる。半恒久的に工
具を腕に取付けるのに加えて、迅速交換機構を設けるこ
とができる。この装置を用いると、マニピュレータはプ
ログラム指令によって1つの手或は工具から別の手或は
工具へ自動的に交換するようにプログラムすることがで
きる。これは、きりもみ及びさらもみのような2つ或は
それ以上の動作を含む応用を遂行する時極めて有用であ
る。
マニピュレータの若干の特性は、その位置及び工具に
加えて制御することができる。最も一般的に制御される
特性は、マニピュレータ速度、その通路輪郭(位置間を
移動する際)、及び教えられた位置に到達する精度であ
る。
第4図は基本マニピュレータシステムのブロック線図
である。制御器シャシ10は電源、プロクラミング言語、
マニピュレータサーボ電子回路、及び制御電子回路を収
納する。コンピュータ端末器12はマニピュレータシステ
ム14をプログラムし、制御するのに用いられる。端末器
12は、マニピュレータをプログラムした後に、或は予め
書かれた応用プログラムが使用されつつあれば、システ
ムから取外すことができる。手動制御ペンダント16はマ
ニピュレータ14を制御する別の手段である。手動(コン
ピュータプログラムではなく)が望まれる時には、手動
制御ペンダント16が使用される。また全ての応用プログ
ラムは手動制御ペンダント16を使用するように設計され
る。これらのペンダントはロボット技術では公知であ
り、従ってこのペンダントに関するこれ以上の説明は省
略する。コンピュータ端末器12がシステムから取外され
ている時は、操作員は手動制御ペンダント16を用いてマ
ニピュレータを制御する。マニピュレータは制御ケーブ
ルを介して制御器に接続される。
以下に説明する新規な視覚システムは、特色に基づく
物体認識アルゴリズムを使用する。これはマイクロプロ
セッサを基とし、極めて高速で動作して毎秒複数の物体
を認識する。これは現在では、1984年6月のロボットVI
II会議議事録に所載のB.シマノ、C.ゲシュケ、C.スポー
ルディング及びP.スミスの「実時間及び管理制御を組入
れたロボットプログラミングシステム」に記載されてい
るVAL-IIロボット制御システムを伴なうアデプトテクノ
ロジーのロボットに統合されている。
このシステムは、ソリッドステートカメラによって供
給されるバイナリ像を処理する。入力像はバイナリに過
ぎないが、システムは縁形の処理を行って線、弧、角及
び孔のような物体の境界特色を抽出する。これらの特色
の特性及びそれらの相対的空間関係は、像の有効視覚表
現を提供する。
本視覚システムは、像内の境界断片(特色分類(FC)
に集群される特色)と既知の模範またはプロトタイプの
特色とを比較する。これらの模範は、システムが見本部
品を呈示される訓練期間中に発生される。1つ或はそれ
以上の特色の比較が肯定である時にその模範を像内の特
定の位置と向きとに配置する提議がなされる。次で模範
対象整合が、模範の全境界を横切って像内のその存在の
それ以上の証拠を探すことによって認識される。使用者
によって予め指定されたしきい値パラメータは、整合容
認のために如何に多くの境界を視認できなければならな
いかを決定する。
本視覚システムは、コンベヤベルト22(第2図)上の
線形アレーカメラ20か、或はパレット26或は類似の作業
表面(第3図)上の面アレーカメラ24の何れかと共に動
作する。種々の理由から、コンベヤ応用は面応用よりも
複雑である。即ち、コンベヤ像データは、ある時点にお
いて可変レートの線でしか到着せず、像は「無限に」長
く、またコンベヤに沿う像座標はマニピュレータの追尾
座標との同時に維持しなければならない。
線形アレーカメラのインターフェイスは面アレーのイ
ンターフェイスの諸問題を包含しているから、以下にコ
ンベヤ応用のみを説明する。
本視覚システムは、種々のハードウェア及びソフトウ
ェア源が分配されている統合されたロボット制御器の一
部である。視覚システムの心臓部は、モトローラ68000
10MHzプロセッサである。これは背面を他のプロセッサ
(それらの1つが上述のVAL-IIロボット制御システムを
実行する)と共有している。VAL-IIは、全ての使用者入
力及び出力が視覚システムへ通過する主プロセスであ
る。
プロセッサ及びメモリに加えて、視覚システムはソリ
ッドステート線形アレーアメラ20(256×1要素)、高
解像力単色ディスプレイ、グラフィクディスプレイイン
ターフェイス基板、及びカメラインターフェイス基板30
からなる。ロボットのコンベヤ追尾ハードウェアは、カ
メラデータ取得をコンベヤ運動に同期させるのに用いら
れる。カメラはコンベヤがベルトエンコーダ32によって
指示される固定された距離単位運動するとストローブさ
れるので、コンベヤは可変速度で運動してもよく、また
限定されない時間停止しても像データ或は同期が失われ
ることはない。
ベルトが運動するにつれてカラメは連続的に線像を視
覚プロセッサに送る。従ってベルトが運動するにつれて
視覚プロセッサはコンベヤベルトの画像を形成すること
ができる。この像処理は連続的であり、「画像オフ」指
令或は命令が発せられるまで停止することはない。
線視覚システムには前述のコンサイト照明が推奨され
る。この体系的照明技術は極めて効果的であり、如何な
る物体/背景コントライトに対する要求も排除する。し
かし若干の応用においては、普通の頭上照明が最良であ
るかも知れない。
カメラ積分時間は制御されなければならないことに注
目されたい。例えば、もし積分時間を4ミリ秒に設定す
れば、カメラは毎秒1000/4.6即ち222線までの像データ
を処理する。他の積分時間を選択しても差支えない。時
間を短かくすればベルトを速く走行させることができる
が、カメラが検知する光は少なくなる。
線カメラを位置ぎめする時、カメラの視線は「正確
に」ベルトの走行に直角である。この拘束の理由は、模
範の縮尺が一定であるとしているからである。即ち、同
一物体は、それが画面内の何処にあっても常に同一寸法
で現われるべきである。従ってカメラの視界の方向は、
物体が置かれる表面に対して直角にすべきである。その
ようにしてなければ、カメラに近い表面の側に載ってい
る物体は他方の側上よりも大きく見える。視差を原因と
する若干の縮尺変化を避けることは不可能である。一般
に、作業表面からカメラが遠去から程物体は短かく認識
され、視差による幾何学的ひずみは小さく現われる。
システムの較正は、2つの理由から必要である。視覚
システムは画素長対画素巾の比を知る必要がある。この
比を知って視覚システムは、画素の巾を縮尺してそれら
を方形にする。この方法で円は円形に見え、楕(長)円
には見えない。
較正の他の理由は、視覚対ロボットの関係を限定する
ことである。この関係は基本的には視覚位置を像空間か
ら腕空間へ変換する変換である。像空間は、画素を距離
単位として用いる二次元である。ロボット空間はミリメ
ートルを距離単位とする三次元である。通常は変換は、
並進、回転及び縮尺を含む。
カメラはコンベヤベルト上に取付けられ、通常はベル
トを直下に見ている。カメラインターフェイス基板は像
データが到着するにつれてそれを限界し、データを実行
長(黒から白への或は白から黒への移行が発生するコラ
ム数)として視覚プロセッサへ呈示する。包含された物
体境界はビデオモニタに同時に表示され、モニタ像はコ
ンベヤの運動を反映するように移動する。それ以後の全
ての像処理はソフトウェアを介して行われる。
ロボット視覚システムは、画面内に無作為に位置ぎめ
された物体を認識し、ロボットがそれらを拾い上げ得る
ように位置探知する。物体はコンベヤベルト、パレッ
ト、或は類似の作業表面上にあってよい。視覚を用いる
と、部品は特別な機構によってロボットに精密に供給し
なければならないことがなくなる。得られた作業セルは
より順応性があり、より容易に設定される。更に、ロボ
ット視覚システムは、部品を視覚的に検査するのに、或
は作業セル内の予期された存在を単に認識するのに用い
ることができる。
本システムは、特色に基づくロボット視覚システムで
あり、これらの特色は像境界の片々である。即ち、シス
テムはカメラ像を黒及び白領域に限界する。次でシステ
ムは領域の境界を直線及び円弧の接続されたシーケンス
として特徴づける。線、弧、角及び孔が認識の基となる
特色である。
より詳細に言えば、像処理には7つの段階がある。
1.接続性解析、 2.境界線(周縁)のチェーンエンコード、 3.原縁をチェーンに適合させる、 4.線/弧を縁に適合させる、 5.線及び弧の特色を分類する、 6.模範と像との整合を提議もしくは調査する; 7.整合を照合する。
視覚認識システムの基本的流れ図を第10図に示す。カ
メラインターフェイス30から発生する割込みは、ベルト
の運動に依存し、該運動に同期する。典型的には、もし
ベルトの巾がxであれば割込みはx/256分毎に発生す
る。これは、データの線をプロセッサに転送する。割込
み50に続いて、新らしいデータ線に関する接続性解析段
階52が遂行される。
この解析は本質的には先行技術において遂行されてい
た型の小滴解析であり、像を黒及び白領域に分ける。こ
の接続性解析段階54は7段階の基本的解析プロセスの最
初の段階であり、この基本的解析プロセスはコンベヤ上
を通過して行く物体を識別するのに用いられる。
1.接続性解析(段階54) これは閉じた領域を背景から分離するための共通のSR
I技術である。処理は、「無限に長い」コンベヤベルト
像に適切な、バイナリ像の全域に亘って単一の試みで遂
行される。接続性解析への入力は、カメラインターフェ
イスハードウェアの出力、即ち線毎を基準とする実行長
エンコーディングである。この緻密な像表現は単に黒か
ら白への、或は白から黒への「色」移行が存在するコラ
ム番号の表である。カメラインターフェイスハードウェ
アは同色の同一限界内の水平画素を実行長に集群しする
が、接続性解析は同色の連続垂直実行長に集群するの
で、像は黒及び白領域に完全に分けられる。実行長エン
コーディングを処理する一方で、アルゴリズムは各領域
の面積及び周縁も計算する。最後に、領域が閉鎖する
と、それらは親、子、兄弟関係を介して相関される。領
域内の孔は外側領域の子であり、外側領域は内側領域の
親である。領域内の2つの孔は相互に兄弟である。実行
長エンコーディングに基づく接続性解析を行う刊行され
たパスカルプログラムを以下に挙げる。
1979年3月、第9回作業用ロボットに関する国際シン
ポジウム、議事録、57〜70ページ、G.グリーソン及びG.
エージン「センサ制御操作及び検査のためのモジュラー
視覚システム」、 1981年7、8月、ロボットエイジ、4〜19ページ、R.
カニンガム「バイナリ像の区分け」。
接続性解析は、カメラインターフェイス基板からの割
込みに応答して、線毎を基準として遂行される。それ以
後の全ての処理、即ち段階2〜7は完全な領域基準で、
背景内で(即ち割込み駆動でなく)遂行される。この段
階の結果を第5図に示す。
2.境界線のチェーンエンコード(段階56)。
処理は最も外側の領域、即ち親が背景である領域が閉
塞した後に、この段階を用いて進行する。この段階は領
域の周縁のチェーンエンコーディング表現を発生する。
記憶された実行長エンコーディングを段階1の接続性解
析によって与えられたそれらの領域の集群と共に用い
て、領域の周縁を横切る一連の右、上、左及び下運動が
発生される(第6図に示す)。チェーンエンコーディン
グの基本は、1970年にニューヨークのアカデミックプレ
スから発刊されたB.リプキン及びA.ローゼンフェルト編
画像処理及び心霊描写」の241〜266ページにH.フリー
マンが「境界エンコーディング及び処理」で説明してい
る。
3.原縁をチェーンに適合させる(段階58)。
この段階は、領域の周縁のより簡明な表現を発生する
ために直接セグメントをチェーンエンコーディングに適
合させる。使用されるアルゴリズムは効率的であり、発
生される縁はチェーンエンコーディングへの正確な近似
である。このアルゴリズムの利益は、チェーンエンコー
ディングによって表わされるぎざぎざの(量子化され
た)縁が滑らかなことである。この段階の後、チェーン
エンコーディングデータは破棄される。第7図は、第6
図のチェーンエンコーディングに適合された縁を示す。
角は、縁上の節として描かれている。エンコーディング
の基本は、1983年のコンピュータ視覚、グラフィック
ス、及び像処理22の277〜286ページに所載のシュリー
ン、セイモアの「言語的技術を用いたディジタル曲線の
区分化」に説明されている。
4.線及び弧を縁に適合させる(段階60)。
この処理段階は、直線及び円弧セグメントを段階3に
おいて発生した縁に適合させる。この段階はプロセッサ
時間が比較的高価であるが、この費用は充分に正当化さ
れる。先ず線及び弧が使用者の特定する許容範囲内に適
合され、それによって像の滑らかさが制御される。第2
に、その結果は一層のデータ縮少であり、特に部品が円
形であるか或は円形の孔を有している時がそうである。
産業用部品を検討した結果、殆んどの部品は形状が角柱
及び回転体であることが分り、従ってそれらの二次元像
は本質的に線及び弧によって表わされる。線のみの適合
に対抗して、線及び弧を適合させる最終的な正当性は、
それらが種々の縁及び角の型を提供し、それによって認
識が容易となることである。第8図は、第7図の縁に適
合された線及び縁を示す(注:線及び弧適合が常にこの
ように綺麗にするとは限らない)。これら2つの段階の
より詳細な流れ図が第11図及び第12図に示されており、
後に説明する。
5.特色の分類(段階62)。
この段階は、接続された全ての線及び弧を分類する。
ここで縁は段階4からの線及び弧であり、既知の模範の
特色の級が関連している。特色分類は、使用者が視覚シ
ステムに認識させたい物体に基づいて、訓練中に選択さ
れる。一般に、角分類は少しの型しか存在しない。即
ち、線・線、線・弧、弧・線、弧・弧、及び円である。
更に、未知要因変化(即ち縁分類)が存在している。即
ち、線・何等か、何等か、線、弧・何等か、及び何等か
・弧である。ここに「何等か」とは、2つの物体が接触
或は重なっているために、異なる物体に属しているかも
知れない縁を言う。
特色の一般的な型は僅かしか存在しないが、模範の各
特色分類は特定のパラメータ表示された定義を有してい
る。各角分類に関連しているのは、受入れ可能な最小及
び最大包含角(2つの縁によって形成される角度)であ
る。ある縁分類に対しては、この角度は0°〜360°で
ある。また特色分類の各線縁に関連しているのは受入れ
可能な最小/最大長である。弧に対しては、受入れ可能
な最小/最大角度範囲、最小/最大半径、及び凸/凹指
示が存在する。
像内の各縁は、全ての特色分類と比較される。型が一
致し、縁の尺度が分類の受入れ可能範囲内にある時は、
その縁はその特色分類の関連表内に置かれる。像内の若
干の縁は、どの分類にも関連しないかも知れず、また他
の縁は複数の分類に関連するかも知れない。
この段階のより詳細な流れ図を第13図に示す。
6.模範と像との整合の提議もしくは調査(段階64)。
この段階は、像内の特定の位置及び向きに模範が存在
することを提議もしくは調査する。これらの模範・像整
合の提議もしくは調査は、先行段階において行われた特
色分類に基づいている。訓練中、特色分類は独自性及び
「明瞭度」に従って順序づけられる。この順序の実行時
間に、各分類は、全ての像縁が判断されてしまうまで、
或は全ての考え得る整合が調査されてしまうまで考究さ
れる。各像縁及びある分類に関連する模範縁は考え得る
整合である。しかし、これらの整合は公的な調査を行う
ことができるようになる前に、また段階7が開始される
前に確認されなければならない。
確認(段階66)は、1つ以上の模範角がある特色分類
に関連している時に必要な部分的照合(以下の段階7参
照)である。ある分類に関連している角が1つだけであ
ったとしても、もし模範が複雑で多くの縁を有していて
高価な照合段階よりも前に不整合が検出されれば、確認
が用いられる。確認の必要は、特色分類が選択される時
の訓練中に決定される。各模範に関連しているのは、も
し像内の同一相対位置に存在すれば、他からそれを区別
する確認用角の表である。適切である時には、近くの角
は確認さるべき角と共に認識できそうである(妨げられ
ていない)ために、これらの角が確認用角として選択さ
れる。
7.整合の照合(段階68)。
単一の模範と像との整合調査が行われた後に、この段
階は像内の模範の存在を照合する。模範の境界表現は段
階6において調査された二次現並進及び回転を介して像
に変換され、模範縁と整列した像縁の探索が行われる。
「充分に近い」試験は、使用者が特定する許容範囲内で
行われる。もし充分な模範境界が像内に存在すれば、整
合が受入れられる。「充分な」とは、訓練中に使用者に
よって特定される重み付きしきい値である。
第9図は、3つの整合照合の結果を示す。調査された
各整合に対して像が重なった模範が描かれている。照合
された縁は実線で示されている。照合されなかった縁は
破線で示されている。この図、並びに第5図乃至第8図
は、本視覚システムにおける随意表示である。
この段階の流れ図は第14図に示し、後に説明する。
操作員は、物体のシステム例を示すことによって物体
を認識することを視覚システムに教示する。このプロセ
スは認識訓練と呼ばれ、教えられた物体は模範(プロト
タイプ)と呼ばれる。模範モデルは、認識プロセス中に
使用するためにコンピュータメモリ内に記憶される。し
かし、これらの模範をディスクに記憶させ、別の時点に
回収してもよい。
特定部品を認識するように視覚システムを訓練するこ
とは、システムが縁(外部及び内部)を線及び弧に分解
することに基づいているので、必要である。しかし、若
干の応用に対しては臨界的であるような若干の訓練指針
及び認識パラメータが存在する。
訓練を介してシステムは部品の寸法に関する平均及び
標準偏差統計値を収集する。より多くの部品例が与えら
れる程良好になる。一般には、操作員は1ダースの例に
よってシステムを訓練すべきである。僅かな実験を含
め、1ダース例によるシステムを訓練することは容易で
ある。
システムは、同時に複数の物体を認識するように訓練
することができる。模範の数に固定された最大値は存在
しないが、メモリは制限されており、システムがより多
くの模範を知る程それらを区別する時間が長くなる。従
って、実際的な制限が存在する。指標として、システム
に10個の極めて簡単な物体、或は1個の極めて複雑な物
体を教えることができる。しかし無制限数の模範をディ
スクに記憶させることができる。
システムは、前述の境界解析によって模範の像を処理
する。線及び弧の適合の結果は視覚モニタ上に表示され
るので、操作員はそれを編集することができる。この点
から、全ての訓練はロボット手動制御ペンダントを用い
て遂行される。
模範の境界表現は、部品の「トポロジー」のシステム
モデルをきれいにするように編集しなければならな
い。ここにトポロジーとは個々の縁の型(線或は弧の何
れか)、及び角の数を云う。部品の各訓練される事例は
同一のトポロジーを有していなければならない。
操作員は、スクリーンを廻ってカーソルを移動させ、
手動制御ペンダント上の編集キーを押すことによってモ
デルを編集する。編集指令の効果は瞬時に表示される。
手動制御ペンダントの頂部の5つの「ソフトキー」によ
って制御される5つの編集機能が存在する。ペンダント
上の2行表示はキーに次の如き名称をつけている。
要約すれば、キーは次の効果を有している。「角削
除」キーは、カーソル位置に最も近い角を削除する。逆
に、「角復活」キーは、新しい角を造る。「弧/線」キ
ーは、カーソルに最も近い縁の型をトグルする。線は弧
となり、弧は線となる。「孔削除」キーは、カーソルを
含む領域を削除する。このキーは、像内の不要の孔を削
除するためのものである。このキーの効果は取消すこと
ができないから、手動制御ペンダントは確認のために注
意を与える。それに応答して諾或は否キーを押さなけれ
ばならない。最後に、「特色を示せ」キーは、システム
に角を明滅させ、境界モデル内の線及び弧を別々に示
す。この特別な表示モードを終了させて編集を再開させ
るためには、「特色を示せ」或は再中心/完了キーを押
さなければならない。
カーソルは、キー及び数字キーパッドを介してスクリ
ーン上を移動する。手動制御ペンダント上の速度スライ
ドは、カーソル運動の速度を制御するのに用いられる。
再中心/完了キーは編集を終了させる。押した時、操
作員はペンダント上の2行表示の次の選択を呈示され
る。
「編集再開」ソフトキーは、使用者を上述の編集モー
ドに戻す。「例廃棄」キーは模範事例の編集を打切らせ
る。「参照縁を選択せよ」キーは、通常の退出キーであ
る。この最後のキーを押す前に、操作員はカーソルを模
範のある縁上に位置決めしなければならない。選択され
た縁は、今後の部品の例のための参照縁となる。新らし
い部品事例毎に、システムがこの例と古い例とがどのよ
うに相関しているかを知るために、同一の参照縁を選択
しなければならない。
操作員がある例の編集を完了し、その例が模範の第1
の事例でない時には、システムはその例のトポロジーと
以前に教えられたものとを比較して1対1で対応を確認
する。もし差が存在していれば、システムはその新事例
に次で以前に教えられた模範を表示し、異なっている縁
を明滅させる。これによって操作員は新事例を再編集す
ることができる。
各模範は、それに関連する「努力レベル」を有してい
る。4つのレベルの中の1つ、1、2、3或は4を選択
することができる。努力レベルは、模範が最初に限定さ
れる時に割当てられなければならないが、任意の後刻に
変更することができる。これは、その模範を用いてどれ
程の認識努力を払うべきかを決定する。努力レベルが増
すにつれて認識速度が低下しより多くのメモリを必要と
するが、認識成功率は増加する。努力レベルは、物体の
複雑さ(及び均一性)、及び物体が分離、接触、或は重
なっているか否かの関数として選択すべきである。努力
レベルは物体の複雑さに逆比例する。部品が簡単な程多
くの努力が必要である。部品が接触してはいるが重なっ
ていないものとすれば、次の如き努力レベルを用いるべ
きである。
一般に、視覚システムを「キーオン」させるための特
色が少ない時に高い努力レベルを使用しなければならな
い。1つの特色は角或は孔である。視覚システムは、像
内に物体の存在を明白に指示する接近した特色対を探す
ことによって物体を認識する。独特で明確な特色対が僅
かしか存在しない時には、上述のレベルよりも高い努力
レベルが必要となろう。状況例は 大きく重なり合った物体(妨害された特色)、 殆どあいまいな特色(局部的/全体的に対称) 低いコントラスト(像間の大きい特色変化)。
模範の縁には重みが割当てられ、模範には照合(百
分)率が割当てられる。操作員は、模範が最初に限定さ
れる時に値を与え、任意の後刻にそれらを変更すること
ができる。縁の重み及び照合率は、認識プロセスの最終
段階の照合中に主として用いられる。
照合段階は、整合調査を確かめる。単一の模範・像整
合調査が終ると、この段階は像内の模範の存在を照合す
る。模範境界表現は像に変換され、模範縁と整列する像
縁の探索が行われる。もし充分な模範境界が像内に存在
すれば、整合が受入れられる。「充分な」の尺度は、縁
の重み及び照合率に基づく重み付きしきい値である。
もし全ての縁に同一の重みが割当てられていれば、照
合率は単に、整合を受入れられるものとするために像内
の縁と整列していなければならない模範境界の百分率と
なる。例えば、もし模範照合率が70であれば、模範境界
の70%は像縁によって照合されなければならない。
若干の縁は他とは異なる重みが割当てられていれば、
それらは単位長当り異なる量を与える。例えば、長さが
Loで割当てられた重みが50の外側境界を有する模範を考
えよう。また長さがLhで割当てられた重みが100の1つ
の孔を有しているものとする。模範の合計重み付き境界
は(50×Lo+100×Lh)である。もし照合率が90%であ
れば、受入れられるために照合しなければならない境界
の合計重み付き長は0.9×(50×Lo+100×Lh)である。
照合プロセス中に照合する外側境界の部分が長さで測定
され、照合合計内に累積される前に50が乗ぜられること
に注目されたい。また照合される内側孔境界の部分は2
倍の重みで計算される。
操作員は照合率に精通していなければならないが、縁
の重みは特別な認識作業にとってのみ重要である。選択
的な縁重み及び百分率の使用を例示すれば、 もし物体が接触或は重なっていないようであれば、
全ての縁は同一の重みを持つべきであり、照合率は高く
すべきである。
もし物体が接触しそうではあるが重なってはいなけ
れば、外側縁の重みは内側縁の重みよりも小さくすべき
である(例えば1:2の比)。もし重なっているようであ
れば、この差を小さくする(例えば3:4の比)。
もし1つの孔を除いて2つの異なる模範が類似して
いれば、この孔には残余の境界に対して極めて大きい重
みを与えるべきである。
もし物体が、重要でない常に存在するとは限らない
孔を有していれば、孔の境界の重みはゼロにすべきであ
る。(実際には、始めに模範モデルから削除されている
べきである。) もし応用が検査であって、境界の一部だけが検査さ
れるのであれば、その部分に大きい重みを与えるべきで
ある。
使用者が視覚システム(システムが認識すると考えら
れる物体の例をシステムに示すことによって)訓練した
後、システムは自動的に「認識計画」を遂行する。シス
テムが計画する時、システムは模範を解析し認識戦略表
に書込む。認識戦略を自動的に決定するために、部品間
の部分対称性及びあいまいな類似性が検出され、特色分
類が選択され、整合を明確にする認識用特色が選択さ
れ、処理速度を適正化するために全ての表(例えば全て
の特色分類表)が整えられる。
認識計画は、順番に実行される以下の諸処理段階から
なる。
1.主要特色分類の作成 2.類似主要特色分類の併合 3.小分類の作成 4.類似特色分類の併合 5.模擬模範像の作成 6.模擬模範の境界特色の分類 7.各特色毎に、確認のために近い特色の発見 8.処理速度の最適化のために全表の整理。
1.各模範の各角及び孔毎に特色分類が作成される。各特
色分類は縁対の型、即ち線・線、線・弧、弧・線、弧・
弧或は円を特定する。特定分類は、受入れ可能な最小及
び最大包含角をも特定する。更に、各線縁に関連してい
るのは受入れ可能な最小/最大長である。各弧縁に関連
しているのは受け入れ可能な角度範囲、最小/最大半
径、及び凹凸指示である。最小/最大値は、平均から±
2標準偏差である。
2.類似の特色分類が併合される。例えば、もし模範が方
形物体としてモデルされていれば、その4つの特色分類
が1つの特色分類に併合される。詳述すれば、特色分類
FCa及びFCbを併合する併合基準は以下の通りである。
FCa及びFCbが「等しく」(それらの型が同一であ
り、それらの平均値は他の受入れ可能値の範囲内にあ
る)、 FCbが「等しい」全てのFCはFCaにも「等しい」。
この第2条件はイプシロン近傍(平均値附近の標準偏
差範囲)が滑るのを防ぐ。表現を変えれば、もしAはB
に「等しく」、BはCに「等しい」が、AはCに「等し
く」なくてもAはCと同じ群内にある。
3.主要特色分類の小分類が次に作成される。ある意味で
は小分類は、それらが屡々それらの関連主要分類を包含
しているので、超分類と呼ぶべきである。小分類は、シ
ステム内に恒久的にプログラムされているテンプレート
に基づいている。主な各角型、線・線、線・弧、弧・
線、弧・弧及び円は約1ダースの小分類テンプレートを
有している。テンプレートに基づき、約1ダースまでの
小分類が各大分類毎に作成される。作成される実際の数
は、その模範に関連する努力レベルに依存する。(4つ
の努力レベルが存在する。努力レベル1では小分類は使
用されない。レベル2では若干が用いられ、レベル3で
はそれ以上が用いられる。レベル4では全ての小分類が
使用される。) 小分類テンプレートは、高いレベルにおいて特色分類
が広い範囲の特色を包含するように順序づけられる。例
えば、円特色は、努力レベル2において、弧・弧、弧・
線及び線・弧対からなる小分類を有している。レベル4
においては、線・線、線・何れか、及び弧・何れか型小
分類が存在し、広く受入れられる範囲の長さ、半径等が
伴なう。
4.段階2と全く同じく、類似の特色分類が併合される。
5.段階6及び7の準備として、模範の像が模擬される。
弧及び線からなる像境界表現が作成される。
6.次に、前段階で作成された模擬模範像の特色が、段階
1〜4において作成された特色分類に関して分類され
る。実行されるソウトウェアは通常の実行時中に実行さ
れるものと同一である。これは、像処理の「特色分類」
段階である。
7.この段階においては、確認用特色が各模範角毎に選択
される。確認用角は、もし模範が複雑であれば(整合照
合が高価であるので効率のために)、もし模範角があい
まいであれば(模範角の特色分類と他の何等かの角との
連合によって指示される)、或はもし模範角が円であり
模範が円形に対称でなければ(円特色は並進を与える
が、整合調査が行われる時の変換の回転部分は与えな
い)選択される。
もし確認が必要であれば、近くの角が選択れさあいま
いさに関して試験される。近い角が確認用角として明確
であるか否かを決定するために、確認される模範角と、
模範角の特色分類と関連(分類)された全ての模擬され
た像の角との間の整合調査が試みられる。もし予期され
た確認用角が、正当なものを除いて何等かの調査された
整合を確認するのに成功裏に使用されていれば、予期さ
れた確認用角はあいまいさの理由から破棄される。整合
の調査及び確認のこの模擬は、通常の実行時中に遂行さ
れるものと同一ソフトウェアを実行することによって遂
行されることに注目されたい。
最後に、全ての表は処理速度を最適化するように整理
される。この段階に到達するまでに、全ての特色分類が
選択され、全ての確認用角が選択され、模範の模擬像は
必要としなくなっている。整理された表は、全ての特色
分類の表、各模範特色に関連する特色分類の表、及び各
特色分類に関連する模範分類の表である。全ての特色分
類の表は、最低先ず認識費用に従って整理される。
計画が完了してしまうと、第10図の流れ図に従って部
品認識を開始することができる。
物体を認識するために、整合を調査し、確認し、照合
しなければならない。しかし調査された整合の若干は確
認を必要としない。物体毎の照合は、種を提供する或は
確認を与える特色分類に拘わりなく、同じ費用がかか
る。しかし、もし整合が悪いか、或は結果として生ずる
変換が不正確であれば、余分の照合が必要となる。余分
な照合は価格評価において計算される。
目的は、表の頂部附近のものが整合調査者として最も
見込みある候補者であるように特色分類を順序づける
(整理する)ことである。即ち唯一の或は極めて僅かな
模範特色が分類に関連し、確認を必要とせず(或はは僅
かな確認でよく)、関連する特色は使用者が割当てた照
合重みが大きく、この分類からの像・模範特色整合が比
較的正確な模範・像変換を与え、そして僅かな「偽像特
色」が分類に関連し始めるものを頂部に整理する。この
最後の項目、即ち偽像特色の数は、直接的に予測するの
が最も困難である。これらは、特色分類の会員要求は満
足する模範内の何等かの真の特色には一致しない像特色
である。偽特色の量は、極めてゆるい会員要求を有する
特色分類にのみ見出されるべきであり、これらの分類は
通常は連合して多くの模範特色を有しているので偽特色
は間接的に取扱われる。
費用の基本単位はCNFである。CNFで表わされる価格は
以下の通りである。
1整合調査=1CNF 1確認=1CNF 1照合=VC×物体内の角数×CNF VCは定乗数(現在では3)であり、整合の調査及び確
認と整合の照合とに費やされるCPU時の若干の古いタイ
ミングを比較することによって経験的に選択されるもの
である。以下の説明では、「角」という語は、角及び縁
の両者(即ち特色)を意味するのに用いられる。
特色分類(FC)当りの費用は、 費用(FC)= (F(FC)+A(FC))×I(FC)+D(FC)+W(F
C) ここに、 F(CC)は整合調査及び整合確認の費用であり、 A(CC)はあいまいさの量に照合費を乗じたものであ
り、 D(CC)は位置のずれに照合費を乗じたものであり、 W(CC)は使用者が割当てた重みに照合費を乗じたも
のであり、 I(CC)は努力レベルの不均衡のためにF( )及び
A( )を増加させる。
詳述すれば、 F(CC)=(和〔C費(c)+CNF費(Ccnf)〕×(1
+1/CC内のcの数)〕/2 FC内のc ここに、 CNF費(Ccnf)=和〔C費(p)×和〔FC内のq〕/p内
のCCの数〕 Ccnf内のp p内のFC 「和〔 〕」は加算記号(大文字のイプシロン)を表
わす。最初の和の下の「FC内のc」は、特色分類内の各
模範角を意味する。「Ccnf内のp」はCの確認表内の
各模範を意味し、「pのCC」は角pの各特色分類を意味
する。要約すれば、F(CC)は与えられた単一像角にお
ける整合調査及びそれらの1つを成功裏に確認する費用
である。整合は、成功裏に整合が行われる前に模範角の
1/2で調査され、その時点まで全ての確認が失敗してい
るものとしている。CNF費は、確認表上の全ての確認用
角の試験費に確認用角の特色分類上の像角の数を乗じた
ものである(模範角の数と同一であるものとしてい
る)。
費用(c)は、(Lを線、Aを弧として) (L−L、L−他、及び円角型に対して1CNF)或は
(L−A及びA−他型に対して2CNF)或は(A−A型に
対して4CNF)×努力レベルである。
弧を含む角の整合或は確認の付加費用は、弧を再中心
ぎめする付加費用を償う。従って、線・他対と線・線で
ある確認用角との整合に対して、調査及び確認費は1+
1=2CNFである。円と、弧・弧である確認用角との整合
には1+4=5CNFの費用がかかる。照合費は線/弧型と
無関係である。
W(CC)=(和〔1/最大(.0001、WT(c))×物体内
のcの数×CNF〕/CC内のcの数 FC内のc W(CC)は、模範縁間の不等の重みを考慮している。
WT(c)の値の範囲は0乃至1である。「最大(.000
1、x)」は0による除算を防ぐ。「物体内のcの数」
は物体内の角の数である。この積VC×CNFは照合費であ
る。ここでの概念は、もし縁或は角が臨界的であれば部
品の間をある重要な方法で明確にしなければならないと
いうことである。使用者が縁に特別な重みを与えないも
のとすれば、W(CC)は単に1つの照合費に過ぎない。
A(CC)=和〔あいまいな(c)×VC×物体内のc×CN
F×(CC内のcの数)/2 FC内のc A(CC)はあいまいさ(多分対称性)に起因する余分
な照合を考慮する。もし角cが独特な確認用角を有して
いなければ、あいまいな(c)は1である。そうでなけ
れば、あいまいな(c)は0である。A(CC)は通常0
であろう。しかし0ではない場合の例として簡単な物
体、即ち円形物体を考える。もし認識される別の模範が
認識される円形物体に類似の円形孔を有していれば、あ
いまいさが存在する。円形物体は確認用角を有しておら
ず、しかも他の物体の円形孔と混同される(照合が企画
される)。この場合、円形物体の色は他の物体の孔の色
と同一でなければならないことに注目されたい。しか
し、付加的な費用をモデル化しなければならない対称性
或はあいまいさの他の場合が存在する。
I(CC)は、模範間の努力レベルの不均衡のためにF
( )及びA( )を増加させる要因である。もし全て
の模範が同一の努力レベルを有していれば、I(CC)は
全てのCCに対して1.0である。そうでなければI(CC)
は、努力レベルが他の模範の「最大」努力レベルよりも
大きいCCに対して1.0よりも大きい。これは、例えばレ
ベル1の70の角を有する複雑な部分とレベル4の5つの
角を有する簡単な部分が存在するような状況を補償す
る。そうでなければ簡単な部分の第4レベルCCは複雑な
部分のレベル1CCよりも低い費用を有するようになり、
多分認識注意を支配する。複雑な部分は通常、簡単な部
分のレベル4CC上にある多くの余分な小さい縁を形成す
る多くの余分な角を有している。縁の存在はCCORDER計
算の他の何処においても補償されない。詳述すれば計算
は以下の様である。
I(CC)=(CC内のcの数+和(P内のcの数×ifact
(P)))/cc内のcの数 模範P ここでd=努力レベル(CC)−努力レベル(P)または
ifact(P)=0、もしd=0 =2d/32、そうでない場合。
最後に、最も複雑な要因D(CC)はつぎのように定義
される。これは模範・像変換の不正確さに起因する余分
な照合の予測費である。
D(CC)=(和〔最大(6、偏差(c)/最大距離)×
VC×物体内のcの数×CNF〕/CC内の数 FC内のc 最大距離は照合(VERIFY)によって用いられる受入れ
可能な距離誤差余裕であり、偏差(c)は、特定の特色
分類「CC」内の角「c」の整合が提供する変換内の「予
測される」偏差である。再び、「VC×物体内のcの数×
CNF」は1照合費である。この説明の残余は偏差( )
に関してである。
偏差(c)は、cの特色分類FCに属する像角の範囲、
角cを調べ、どれ程良い変換が提供されたかを評価す
る。つけることができる明白な区別が存在する。例え
ば、90°で交わる2つの長い線で作られる角は135°の
包含角度を有する短い線の対よりも正確な変換を提供す
る。しかし、偏差の計算モデルは繊細な区別さえもつけ
ようと試みる。
偏差(c)を評価するために、模範・像変換の並進及
び回転成分は別々に計算される。先ず、並進(通常は角
座標)の予測される不確実性が評価される。次で、回転
角の不確実性が評価される。次に前駆模範のこの不確実
性の角度だけの回転が仮説として取り上げられ、得られ
た平均偏位が評価されて以前に計算された変換内の予測
される不確実性に加えられる。偏差(c)の計算は、PC
ORNのCOORD SD(座標位置の標準偏差)、PRINEのDIR SD
(方向ベクトル角の標準偏差)、及びPARCのCENT SD
(中心位置の標準偏差)を使用する。
各特色分類は、最小及び最大線長及び半径のような値
の受入れ範囲を特定する。特定の偏差計算に依存して、
模範角の平均値と特色分類の「最悪」値との中間の特定
値が選択される。線長の最悪値は最短の受入れ可能長で
ある。角の角度範囲に対して受入れ可能な角度は180°
に最も近い。偏差(c)の計算は、模範の縁対型に従う
場合によって遂行される。偏差t(c)は並進に起因す
る偏差であり、偏差r(c)は回転に起因する偏差であ
る。
線・線。
この場合、並進は角だけの関数であり、配向は長さに
よって重みをつけられた2つの線の方向ベクトルの関数
である。偏差(c)の定義及び計算は、 AP=0〜180°の範囲内の模範角の包含角度 AC=0〜180°の範囲内のFC展開された包含角度 SD座標=模範角位置の1標準偏差 SD偏差=模範の線の方向(角度)の1標準偏差 LP=模範線の長さ(即ち、102+112の平方根) Lc=FC換算された線の長さ D=角から物体内の他の点までの平均距離 偏差t(c)=SD座標×cos(最大(0、Ap-90))/cos
(最大 (0、Ac-90)) 偏差r(c)=sin(SD偏差)×Lp×D/Lc 偏差(c)=偏差t(c)+偏差r(c) 線・他。
この場合は、1つの線が用いられることを除けば線・
線に類似している。角位置が特に推測される。
Lp=模範の線の長さ Lc=FC展開された線の長さ SD座標=模範角位置の1標準偏差 SD偏差=模範の線の方向(角度)の1標準偏差 D=角から物体内の他の点までの平均距離 偏差t(c)=SD座標+最大(0、Lp-Lc) 偏差r(c)=sin(SD偏差)×Lp×D/Lc 偏差(c)=偏差t(c)+偏差r(c) 残余の場合は弧を含む。整合調査に用いられる全ての
弧は再中心ぎめされる。弧は、弧の半径(模範弧の半径
と同一)を知って、弧の中心の知覚された位置の不確実
性を減少させるために再中心ぎめされる。再中心ぎめア
ルゴリズムの悲観的な位置誤差は 再中心誤差(a)=平方根(M×M+(M/2tan(a/
2)))2) ここに、aはFC展開された弧の角度範囲であり、Mは
弧の中心位置の標準偏差である。もし角度範囲が180°
より大きいか或は等しいと、M/tan(a/2)は0となり従
って誤差は単にMである。
円。
円に対しては、並進は円の中心に依存し、回転は確認
用角の相対方向に依存する(物体が円形に対称である場
合を除く)。注:円の小分類(例えば線・何等か)も、
それらが非円分類であったとしても、次のように処理さ
れる。
Ac=円縁のFC展開された角度範囲 D=中心から物体内の他の点までの平均距離 L(cf)=円中心と確認用角cfとの間の距離 偏差t(c)=再中心誤差(Ac) 偏差r(c)=(和〔偏差t(cf)/L(cf)/確認cfの
数×D 確認内のcf 偏差(c)=偏差t(c)+偏差r(c) 弧・他。
弧は再中心ぎめされるが並進情報の半分は角位置にあ
る。線・他のように、角位置が推測される。しかし、こ
の場合角の向きは弧の中心及び角の位置、せいぜい片々
たる特色に依存する。
Ap=模範角の角度範囲 Ac=円縁のFC展開された角度範囲 R=弧の円の半径 D=中心から物体内の他の点までの平均距離 SD座標=模範角の位置の1標準偏差 偏差t(c)=(再中心誤差(AC)+(Ap−Ac)×R+
SD座標)/2 偏差r(c)=偏差t(c)×D/(R/2) 偏差(c)=偏差t(c)+偏差r(c) 弧・弧。
両弧は再中心ぎめされ、並進(2つの中心の中点を用
いて)及び回転(2つの中心を結ぶ線を方向ベクトルと
して用いて)を決定するために新らしい中心が用いられ
る。
Ac1、Ac2=弧1及び弧2のFC展開された角度範囲 L=弧中心間の距離 D=中心から物体内の他の点までの平均距離 偏差t(c)=(再中心誤差(Ac1)+再中心誤差(Ac
2))/2 偏差r(c)=偏差t(c)×D/L 偏差(c)=偏差t(c)+偏差r(c) 線・弧。
線の方向は向きを決定し、弧は再中心ぎめされ、次で
弧の新しい中心はそれらの分離が正確に1半径となるよ
うに角に向って、或は角から遠去かるように移動され
る。
Aip=模範角の包含角度 Aic=0〜180°の範囲内のFC展開された包含角度 Ac=弧のFC展開された角度範囲 Lp=模範線の長さ Lc=FC展開された線の長さ SD偏差=模範の線の方向(角度)の1標準偏差 SD座標=模範角の位置の1標準偏差 D=中心から物体内の他の点までの平均距離 偏差t(c)=(再中心誤差(Ac)+SD座標×cos(最
大(0、Aip-90)/cos(最大(0、Aic-90))/2 偏差r(c)=sin(SD偏差)×Lp×D/Lc 偏差(c)=偏差t(c)+偏差r(c) 計画が完了してしまうと、次に部分認識を第10図の流
れ図に従って開始することができる。
【図面の簡単な説明】
第1図は、本発明が特に有用となるロボット即ちマニピ
ュレータを示し、 第2図及び第3図は視覚照明の2つの潜在的な型及び視
覚システムを示し、 第4図は基本ロボットシステムのブロック線図であり、 第5図はコンベヤ上に現われ、本発明によって識別され
所在探知された物体を示し、 第6図は領域のチェーンエンコードされた境界のプロッ
トを示し、 第7図はチェーンエンコーディングに原縁を適合させる
段階を示し、 第8図は段階3において発生させた縁に直線及び円弧状
を適合させる段階を示し、 第9図は像への模範の整合を照合する段階を示し、 第10図は実行時システムの流れ図であり、 第11図は線を発生した像に適合させる段階の流れ図であ
り、 第12図は弧を発生した像に適合させる段階の流れ図であ
り、 第13図は識別される物体上の特色を分類する段階の流れ
図であり、そして 第14図は整合調査及び照合の段階の流れ図である。 10……制御器シャシ、12……コンピュータ端末器、14…
…マニピュレータシステム(ロボット)、16……手動制
御ペンダント、20……線形アレーカメラ、22……コンベ
ヤベルト、24……面アレーカメラ、26……パレット、30
……インターフェイス基板、32……ベルトエンコーダ。
フロントページの続き (56)参考文献 特開 昭59−790(JP,A) AZriel Rosenfeld 外一名著,長尾真監訳「デジタル画像処 理」昭和53−12−10,近代科学社,p. 385−390

Claims (15)

    (57)【特許請求の範囲】
  1. 【請求項1】接触している部品を識別する視覚システム
    で物体をそれの配向とは関係なく識別する方法におい
    て、 a) 前記の物体の像を構成する知覚データを発生し、 b) 前記の像を表すデータの接続性解析によって背景
    から閉じた領域を分離し、 c) 前記の像の前記の閉じた領域の各々の境界を表す
    チェーンエンコードされた表現を発生し、 d) 各領域境界のチェーンエンコードされた表現に対
    する縁セグメントの最良の一致を求めて前記の像の前記
    の閉じた領域の各々の境界の簡潔な表現をつくり、 e) 前記の像の特色を表している縁と角とをつくって
    いる縁セグメントに対する直線セグメントと円弧セグメ
    ントの最良の一致を求め、 f) 前記の視覚システムのメモリに記憶されている各
    プロトタイプと前記の像との整合を容易とするためプロ
    トタイプと関連しており、特定範囲の長さ、半径、内角
    及び又は角度範囲を有する一群の特色を記述している特
    色クラスによって前記の直線セグメントと円弧セグメン
    トを分類し、 g) 前記のプロトタイプと関連した特色クラスに分類
    され、前記の物体に存在する前記の像の特色に基づいて
    前記のプロトタイプに対する前記の物体の像の整合を調
    査し、そして h) プロトタイプの領域境界を並進させ、回転させて
    物体の像と揃えて像の特色をプロトタイプの特色と一致
    させることによりプロトタイプと物体との一致を照合し
    て、別の部品に重なっていてもその物体を認識するよう
    にしたことを特徴とする識別方法。
  2. 【請求項2】特色によって特徴づけられているサンプル
    部品を認識するよう視覚システムを訓練する段階を含
    み、物体を認識する段階は、 物体の特色をプロトタイプの特色と比較する段階、 プロトタイプの一つもしくはそれ以上の特色についての
    比較が物体の一つもしくはそれ以上の特色と一致すると
    き整合を調査する段階、そして 物体の同一性を確認するため像に対して特定の位置と向
    きにプロトタイプを配置してその整合を確認する段階 を含む請求項1に記載の識別方法。
  3. 【請求項3】物体の全境界を辿って、識別されたセグメ
    ントに基づいて同一性を求め、そしてこれらの識別され
    たセグメントを集計し、その集計を許容スレッショール
    ドと比較して物体の位置と配向とを確かめる段階を含む
    請求項2に記載の識別方法。
  4. 【請求項4】コンベヤベルトにのって動いていく物体の
    像を表す知覚データを線に基づいて発生するようにカメ
    ラを配置し、このカメラはコンベヤベルトの走行に対し
    て直角となっていて、スケーリングは訓練と物体認識と
    に使用されているプロトタイプに対して不変であるよう
    にした請求項2に記載の識別方法。
  5. 【請求項5】訓練段階において、認識計画段階中に特色
    クラスを決定し、固有の縁のタイプを有し、そして前記
    の特定範囲内の大きさを有している像の特色を特色クラ
    スと関連させて像を識別する請求項2に記載の識別方
    法。
  6. 【請求項6】特色クラスは像の角の特色を識別するクラ
    スを備え、直線セグメントと円弧セグメントの直線−直
    線、直線−円弧、円弧−直線そして円弧−円弧の隣接セ
    グメントによって前記の角の特色は決定され、比較段階
    では前記の像の一致した直線セグメントと円弧セグメン
    トによって決定された角の特徴の境界をプロトタイプの
    一群の同じような角を決定している特色クラスと比較す
    る請求項5に記載の識別方法。
  7. 【請求項7】像の角の特色のそれぞれと角を決定してい
    る特色クラスとの間での比較は、像の角の境界が角を決
    めている特色クラスの境界と同じでなければならないと
    いうことに基づいてなされる請求項6に記載の識別方
    法。
  8. 【請求項8】像の角の特色の各々の境界はその内角を決
    定し、角を決めている特色のクラスの各々はその内角の
    範囲を決め、像の角の内角が角を決めている特色のクラ
    スの角度範囲内にあるときだけ同じタイプのものとして
    前記の角を決めている特色の一つへ像の角を割りつける
    請求項7に記載の識別方法。
  9. 【請求項9】プロトタイプの角決定特色クラスの各々と
    許容可能の最大/最小の内角とを関連させることを計画
    している際、特色クラスの各線要素と許容可能の最大/
    最小の長さとを関連させ、そして特色クラスの円弧要素
    の各々と最大/最小の角度範囲、最大/最小の半径そし
    て凹凸状態を関連させる段階を備える請求項8に記載の
    識別方法。
  10. 【請求項10】訓練段階がプロトタイプの各縁へ重みを
    割り当てる段階を含み、像とプロトタイプとの間の一致
    を照合する段階中、像の縁の一部もしくは全部が失われ
    ていることを考慮に入れることができるようにした請求
    項7に記載の識別方法。
  11. 【請求項11】訓練段階中に、各プロトタイプへ努力レ
    ベルを割り当てる段階を含み、この段階はプロトタイプ
    の縁へ重みを割当て、そしてプロトタイプへ照合百分率
    を割り当てる段階を含み、充分な百分率のプロトタイプ
    の境界が像内の縁と一致するとそのプロトタイプと一致
    したものとして照合がなされるようにした請求項7に記
    載の識別方法。
  12. 【請求項12】縁セグメントが角で接続されており、像
    へ線セグメントをできるだけぴったり当てていく段階
    は、線セグメントの開始点として角の一つを選び、その
    境界に沿って次に隣接している角である第2の角を最初
    の線評価として使用し、そして次々の角を通して線を続
    けていって線の最初の方向から最大の角度変動内に入る
    線の連続方向を確立する請求項1に記載の識別方法。
  13. 【請求項13】前の点から許容できる角度的変動内に線
    の連続方向があり、且つそれらの続けていく方向線の長
    さが増大していくということを満足させるようにして一
    連の点について線セグメントを連続的に当てはめてい
    き、そのプロセスはその続けていく方向線へ加えられる
    点毎に許容角度変動を厳しくしていく段階を含む請求項
    12に記載の識別方法。
  14. 【請求項14】像へ円弧セグメントをできるだけぴった
    り当てはめていく段階を含み、この段階は縁セグメント
    の内の順次の3つの縁セグメントの最小4つの角に基づ
    いて弧を提議し、この弧について中心と半径とを調査
    し、そして前記の順次の縁セグメントにより決定される
    境界がその提議された弧に当てはまることを照合する段
    階を備えている請求項12に記載の識別方法。
  15. 【請求項15】物体の像の認識の計画段階が、プロトタ
    イプの縁の各対に対して、そしてプロトタイプの縁に対
    して特色クラスを構成し、これらの特色クラスの内の同
    じようなものを合体させ、特色クラスに当てはまる縁の
    対の潜在的なものを決定するサブ・クラスを構成し、弧
    と線とから成るプロトタイプの境界表示の像を構成し、
    プロトタイプの特色を特色クラスとサブ・クラスとに割
    当て、そしてプロトタイプの特色が像の特色と一致する
    ことを確認するのに使用する確認特色を選択する段階を
    備えている請求項2に記載の識別方法。
JP61129990A 1985-06-04 1986-06-04 接触部品を区別するための視覚システム Expired - Fee Related JP2520397B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US74131385A 1985-06-04 1985-06-04
US741313 1985-06-04

Publications (2)

Publication Number Publication Date
JPS6263383A JPS6263383A (ja) 1987-03-20
JP2520397B2 true JP2520397B2 (ja) 1996-07-31

Family

ID=24980212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61129990A Expired - Fee Related JP2520397B2 (ja) 1985-06-04 1986-06-04 接触部品を区別するための視覚システム

Country Status (2)

Country Link
EP (1) EP0204516A3 (ja)
JP (1) JP2520397B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103802107A (zh) * 2013-12-30 2014-05-21 苏州亚安智能科技有限公司 一种实现可视觉的工业机械手臂的方法
CN104626150A (zh) * 2014-12-29 2015-05-20 苏州亚安智能科技有限公司 集成高精度识别功能的机械手
CN104626170A (zh) * 2014-12-29 2015-05-20 苏州亚安智能科技有限公司 一种集成高精度识别功能的机械手的方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4941182A (en) * 1987-07-29 1990-07-10 Phoenix Software Development Co. Vision system and method for automated painting equipment
AUPN599495A0 (en) * 1995-10-16 1995-11-09 Scientific Industrial Automation Pty Limited Method and apparatus for sizing particulate material
JP3421608B2 (ja) 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
EP2026249B1 (de) 2007-08-10 2010-02-10 Sick Ag Aufnahme entzerrter Bilder bewegter Objekte mit gleichmässiger Auflösung durch Zeilensensor
DE102007048679A1 (de) 2007-10-10 2009-04-16 Sick Ag Vorrichtung und Verfahren zum Aufnehmen von Bildern von auf einer Fördereinrichtung bewegten Objekten
AT507339B1 (de) * 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
FR2946035B1 (fr) * 2009-06-02 2015-09-25 Capeo Systeme de distribution de pieces en vrac
CN101936918B (zh) * 2010-09-02 2012-10-10 东信和平智能卡股份有限公司 Bga芯片视觉检测系统的检测方法
CN104842362B (zh) * 2015-06-18 2017-04-05 厦门理工学院 一种机器人抓取物料包的方法和机器人抓取装置
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6669713B2 (ja) 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
CN109397291A (zh) * 2018-11-19 2019-03-01 广东技术师范学院 一种用于示教工业机器人拾取的方法
CN113386138B (zh) * 2021-07-01 2022-06-03 上海宜硕网络科技有限公司 一种机器人开门控制方法、装置和电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59790A (ja) * 1982-06-28 1984-01-05 Fuji Electric Co Ltd パタ−ン識別装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AZrielRosenfeld外一名著,長尾真監訳「デジタル画像処理」昭和53−12−10,近代科学社,p.385−390

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103802107A (zh) * 2013-12-30 2014-05-21 苏州亚安智能科技有限公司 一种实现可视觉的工业机械手臂的方法
CN104626150A (zh) * 2014-12-29 2015-05-20 苏州亚安智能科技有限公司 集成高精度识别功能的机械手
CN104626170A (zh) * 2014-12-29 2015-05-20 苏州亚安智能科技有限公司 一种集成高精度识别功能的机械手的方法

Also Published As

Publication number Publication date
JPS6263383A (ja) 1987-03-20
EP0204516A3 (en) 1990-01-31
EP0204516A2 (en) 1986-12-10

Similar Documents

Publication Publication Date Title
JP2520397B2 (ja) 接触部品を区別するための視覚システム
Fan et al. Recognizing 3-D objects using surface descriptions
US5579444A (en) Adaptive vision-based controller
Marapane et al. Region-based stereo analysis for robotic applications
US20230125022A1 (en) Picking system and method
Semeniuta et al. Vision-based robotic system for picking and inspection of small automotive components
EP0380513B1 (en) An adaptive vision-based controller
EP0637001A2 (en) Solid model synthesizer and synthesizing method
Porrill et al. TINA: The Sheffeild AIVRU Vision System.
JP3101674B2 (ja) Cad情報を用いた3次元認識手法及び装置
EP1178436A2 (en) Image measurement method, image measurement apparatus and image measurement program storage medium
JPH0644282B2 (ja) 物体検索方式
Batchelor et al. Commercial vision systems
CN113436293B (zh) 一种基于条件生成式对抗网络的智能抓取图像生成方法
Shirai Three-dimensional computer vision
Wong et al. Robotic vision: 3D object recognition and pose determination
CN115284279A (zh) 一种基于混叠工件的机械臂抓取方法、装置及可读介质
Vámos Industrial objects and machine parts recognition
JPH05141930A (ja) 3次元形状計測装置
Affes et al. Detection and Location of Sheet Metal Parts for Industrial Robots
Park CAVIS: CAD-based automated visual inspection system
CN117260003B (zh) 一种汽车座椅骨架自动摆件打钢刻码方法及系统
Sileo Collaborative and Cooperative Robotics Applications using Visual Perception
JP2522277B2 (ja) 画像認識装置
Becker et al. Multiple Object Detection and Segmentation for Automated Removal in Additive Manufacturing with Service Robots

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees