JP2008502918A - 物体の視覚検出および検査のための方法および装置 - Google Patents
物体の視覚検出および検査のための方法および装置 Download PDFInfo
- Publication number
- JP2008502918A JP2008502918A JP2007527620A JP2007527620A JP2008502918A JP 2008502918 A JP2008502918 A JP 2008502918A JP 2007527620 A JP2007527620 A JP 2007527620A JP 2007527620 A JP2007527620 A JP 2007527620A JP 2008502918 A JP2008502918 A JP 2008502918A
- Authority
- JP
- Japan
- Prior art keywords
- frames
- analysis
- series
- view
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 197
- 238000000034 method Methods 0.000 title claims abstract description 178
- 238000007689 inspection Methods 0.000 title claims abstract description 81
- 230000000007 visual effect Effects 0.000 title description 93
- 238000004458 analytical method Methods 0.000 claims description 143
- 238000005259 measurement Methods 0.000 claims description 50
- 230000004044 response Effects 0.000 claims description 44
- 230000033001 locomotion Effects 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 230000003111 delayed effect Effects 0.000 claims description 3
- 230000008054 signal transmission Effects 0.000 claims 3
- 230000011664 signaling Effects 0.000 claims 2
- 238000000926 separation method Methods 0.000 claims 1
- 230000004438 eyesight Effects 0.000 description 54
- 238000004519 manufacturing process Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 30
- 238000010191 image analysis Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 21
- 238000005286 illumination Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 14
- 230000001360 synchronised effect Effects 0.000 description 14
- 230000035945 sensitivity Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 10
- 238000005452 bending Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000630 rising effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000003703 image analysis method Methods 0.000 description 3
- 230000005693 optoelectronics Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000011496 digital image analysis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001408627 Agriopis marginaria Species 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- 241001085205 Prenanthella exigua Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000036211 photosensitivity Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、生産ライン上で製造されている物体の自動検出および検査に関するものであって、より具体的には、工業用マシンビジョンおよび自動画像解析に関する。
工業生産は、製造されている物体の自動検出に依存している。数十年間にわたり広く用いられてきた自動検出の形式の1つは、通常赤外線もしくは可視光線、光電センサー、および何らかの形式の電子的な判断を行う、電磁エネルギーを用いた光電子技術に基づいている。
・しばしば光検出器の配列よりも10倍費用がかかり、比較的高価である。
・しばしば特定の技術訓練を受けた人を必要とし、設定するのが難しい。
・典型的に、決定に何十、何百ミリ秒を必要とするので、光検出器の配列よりもさらにゆっくり操作される。さらに、決定時間は、物体により著しく、予期できないほど変わる可能性がある。
・物体が現れたときに検出する方法は、多くの場合十分ではない。
・ビジョンシステムは、通常はトリガの役割をする光検出器が発し、PLCまたは処理装置がビジョンシステムの判断に基づいて機能するために必要とする、特定の反復可能な生産ライン上の物体の位置と同調した有用な出力信号を提供しない。
本発明は、検出および検査される物体が配置される可能性がある、二次元視野のデジタル画像を取得し、画像の分析と決定を行うことに基く、物体の自動光電子検出および検査のためのシステムおよび方法を提供する。これらのシステムおよび方法は、広大なエリアから反射した光の明度のパターン分析をし、物体における多くの目立った特徴を扱い、ソフトウェア手段によって生産ラインの転換に対応し、そして不明確でさまざまな物体の位置を扱う。これらは従来の技術を用いたマシンビジョンシステムに比べて安価で、設定しやすく、はるかに高速で作動する。これらのシステムと方法はさらに、動く物体に対し複数の視点を使用でき、トリガなしで作動し、正しく同調した出力信号を発信し、当業者にとっては明確な、その他の注目すべき有用な能力を提供する。
[従来技術の説明]
図1は、生産ライン上の物体を検査するのに使われる従来の機械視覚システムを示す。物体110、112、114、116および118は、コンベヤ100上で左から右へ移動する。それぞれの物体は、たとえば、レベル120とホール124のように、一定の特徴を含むことが期待される。不正確に製造された物体は、1つまたは、それ以上の特徴を損なっている場合があり、たとえば、物体116は、穴がないというように、意図的でない特徴を持つかもしれない。多くの生産ラインでは、コンベヤの動作は、回転エンコーダ180により探知され、それは、プログラマブル論理制御装置(PLC)140へと信号168を送る。
図4は、生産ラインで物体を検査するための、本発明による、視覚検出器の実施態様を示す。コンベヤ100は、物体と視覚検出器400の視野間で、相対動作を起こす物体を輸送する。物体110、112、114、116、118とラベル120、ホール124、エンコーダ180、拒否作動装置170は、図1に説明されている。ビーム325を用いた第一光検出器320は、物体の存在を検出するために使われる。視覚検出器400は、外観より物体の存在を検出し、適切な検査基準に基づき、検査する。もし、物体が検出された場合、視覚検出器は、コンベヤストリームから物体を取り除くために、作動装置170を拒否するために信号420を送る。エンコーダ180は、視覚検出器へ信号410を送り、物体は、記録点と呼ばれる、いくつかの固定の架空の基準点430を通り、エンコーダカウントから信号420の正常の遅れを防ぐ手段を取るために使われる。エンコーダが使われない場合、遅れは、そのかわりに時間に基づく。
図8は、製造環境における、視覚検出器のためのハイレベル・ブロック図を示す。視覚検出器800は、適切な自動装置810に接続され、それは、信号820を用いて、PLC、拒否作動装置、および/または、光検出器を含んでいてもよい。また、視覚検出器は、信号840を用いて、PCや携帯端末のようなヒューマン・マシン・インターフェース(HMI)830に接続してもよい。通常の生産使用中、HMIは、設定と監視のために使われ、取り除かれる可能性がある。信号は、いかなる条件に合ったフォーマット、および/または、プロトコルで実行され、有線または、無線形式で転送される。
eは、誤差の票差として使われるFOVの割合、
nは、それぞれの物体が典型的に見られるフレームの好ましい最小数、
sは、一般に製造条件による、FOVの積としての物体間でのスペース、
pは、一般に製造条件により決定される、物体の提示率、
mは、上記の値に基づき選ばれた、連続のフレーム間で物体が移動するであろうFOV の最大比、
rは、上記の値に基づき選ばれた、最小のフレームレートである。
図11は、物体が、存在するかどうか、および、検査を通過するかどうかを判断することを含む、証拠を比較検討し、判断するための実施態様で使われるファジー論理要素を示す。
図12は、実施態様において証拠がどのように動的画像解析に値されるのかを示すものである。本実施例においては、基本決定と呼ばれる以下の2つが決定されなければならない。1.物体または物体の目に見える機能は目で見ることができる範囲に位置しているか。2.その場合、該目的物の状態はどのようなものか。
加重パーセンタイル法は、合格点が少なくともpである場合、分数Q(p)に基づく。
図14は、フレーム解析、判断、入力感知、および出力信号調節のために、実施態様により使用される一連のソフトウェア要素の編成(例えば、コンピュータ可読媒体のプログラムインストラクション)を示す。各要素がそれぞれクラスに対応するように、C++等従来のオブジェクト指向プログラミング言語のクラス階層を使用して要素が実行されてもよい。しかしながら、ここで記載されるプロセスを実行するには、基準を満たすいかなるプログラミング技術および/または言語をも使用することができる。
1.ユーザーが選択することのできる名前を有し、
2.他のガジェットが判断および出力信号を制御するために、論理入力として使用することができる論理出力(ファジー理論値)を有し、
3.ユーザーが操作を特定するために構成することができる一連のパラメータを有し、
4.論理出力(すなわちファジーNOT)を反転するのに使用可能な、そのようなパラメータをひとつ有し、
5.実行可能であり、そのパラメータ、該当する場合は論理入力、ある種のガジェットについては現行フレームのコンテンツに基づいて論理出力が更新され、また出力信号の設定のような副作用を引き起こすことがある。
ユーザーは、既知のHMI技術を使用して、画像表示内で写真の操作をすることができる。写真はマウスをクリックすることにより選択可能であり、またドラッグすることにより、そのROIは移動、サイズ変更、および回転が可能である。ロケータに関する付加的な操作は、下記で説明される。
図17は、輝度検出器とコントラスト検出器で使われる方法を説明する。輝度検出器の一つ実施態様では、アナログ出力は、ROI内の平均中間レベルである。実施態様では、正の加重カーネル1700は、ROIのサイズと形に対応して作成され、アナログ出力Aは、加重付けされた平均中間レベルである。
る。
図25は、実施態様に従い、探知器の操作を説明するために使用される1組の画像表示である。第一の画像表示2500および第二の画像表示2502には、1台の検出器2510と1台の探知器2512がある。読み手は、検出器2510と探知器2512の以下の説明は、任意の検出器および探知器に一般的に適用されることを理解する。さらに、読み手は、本発明の範囲内において、探知器を構成するための代替方法が多数派生することを理解する。
図30は、広く使用されている工業プログラム言語である梯子図を基本とする論理表示の別の表現を示す。図30の梯子図は、実質的には図16で示された配線図と同じであり、図中に同じセットの機器と論理相互接続を表す。実施態様では、ユーザーは、配線図と梯子図の間で論理表示を随意に切り替えることができ、いずれかの図を操作および編集できる。
図31は、ビジョン検出器の出力信号が記録時間とどのように同期化できるかを説明するために使用されるタイミング図を示す。信号同期は、ダウンストリーム拒否作動装置などのようなさまざまな工業検査目的で望ましい。これらの信号に対する要件は、物体がどのように提示されるか、どのように検出されるかに応じて異なる。
図34は、物体検出判定のユーザー設定のパラメータ表示を示す。第一のパラメータ表示3490は、可視事象検出モードのために使用され、第二のパラメータ表示3492は外部トリガモードのために使用される。
図41は、連続ウェブ上でフローの検出のために連続分析モードで操作するように本発明を構成する1つのやり方を図説する。画像表示4110は、ビジョン検出器を通過して移動している連続ウェブ4100の一部を示す。
最大フレームカウントは指定されていないので、不良ウェブの伸びは永遠に連続することができ、1つの不良と考えることができる。ウェブが常に検査されているように、アイドル時間はゼロに設定されることがある。
図44は、アクティブフレームを決定するために物体検出判定への入力として、探知器を使用しない視覚事象検出モードで操作するよう日本発明を構成する1つのやり方を図説する。特徴4410を含む物体4400は、ビジョン検出器の視野を左から右に移動する。コントラスト検出器ROI4420は、特徴4410の存在を検出するように配置される。左の輝度検出器ROI4430と右の輝度検出器ROI4432は、距離により定義される視野の範囲で物体を検出するように配置される。
図45は、ユーザーにより示される例を基本とする適切なパラメータ設定を学習するための、ビジョン検出器の実施態様により使用されることがあるルールを図説する。この図は、学習方法例を説明するために、図22と合わせて使用される。
図47は、およそ一定の速度で物体を提示する生産ラインにおいて、物体の提示速度を測定し、紛失および余分な物体を検出するために位相ロックループ(PLL)の使用を図説する。パルス列に同期し、紛失および余分なパルスを検出するPLLの実装は、当業者には明確である。
次の追加値が必要であり、フィルタパラメータfから派生する。
Claims (153)
- 物体の検査のための方法であって、
2次元の視野に対して相対的に物体を継続的に移動するステップであって、前記物体は一連の可視特性を含み、さらに、前記一連の可視特性は少なくとも1つの可視特性を含むステップと、
複数のフレームを取得するステップであって、前記複数のフレームの各フレームは、前記一連の可視特性のすべての可視特性が、前記複数のフレームの各フレームの前記視野に位置するように、および、前記複数のフレームが、前記視野の前記一連の可視特性の複数の場所を含むように、前記視野の画像を含むステップと、
前記複数のフレームの第一の分析に応じて、前記物体の前記ステータスに関する情報を含む結果を決定するステップと、
前記結果を報告するステップと、
を含む方法。 - 前記第一の分析は、前記複数のフレームにそれぞれ対応する複数の物体合格スコアを計算することを含み、前記複数の物体合格スコアの各物体合格スコアは、前記物体が少なくとも1つの検査条件を満足したことを示す証拠を含む、請求項1に記載の方法。
- 前記複数の物体合格スコアの各物体合格スコアは、前記フレームの少なくとも1つの関心領域の第二の分析に応じて計算される、請求項2に記載の方法。
- 前記第二の分析は、前記複数の物体合格スコアの各物体合格スコアについて、
少なくとも1つの関心領域に対してそれぞれ対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は、前記物体の前記一連の可視特性の1つの特性に対応するステップと、
前記一連の測定値に対応して、前記物体合格スコアを計算するステップと、
を含む、請求項3に記載の方法。 - 前記物体合格スコアを計算する前記ステップは、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体の合格スコアを生成するために前記一連の論理値を組み合わせるステップと、
を含む、請求項4に記載の方法。 - 前記一連の論理値の各論理値は、ファジー論理値である、請求項5に記載の方法。
- 前記第一の分析は、さらに、前記複数のフレームの各フレームに対し、前記一連の目にみえる特徴のすべての可視特性は前記フレームのための前記視野に位置することを示す証拠を含む、物体検出加重を決定するステップをさらに含む、請求項2に記載の方法。
- 前記第一の分析は、対応する物体検出加重により加重される前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項7に記載の方法。
- 前記第一の分析は、前記物体検出加重の対応するパーセンタイルにより加重される前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項7に記載の方法。
- 前記移動するステップは、前記物体を前記複数のフレームの連続フレーム間で前記視野の4分の1以下移動することを含む、請求項1に記載の方法。
- 前記移動するステップは、前記物体を連続フレームの間で前記視野の5パーセント以下移動することを含む、請求項1に記載の方法。
- 前記複数のフレームの取得と、前記フレームの第一の分析は、毎秒200フレーム以上の速度で実施される、請求項1に記載の方法。
- 前記結果を報告するステップは、出力パルスを生成するステップと、拒否作動装置に前記出力パルスの信号を送るステップとを含む、請求項1に記載の方法。
- 前記結果を報告するステップは、固定基準点を横切る前記物体との同期して出力パルスを生成することをさらに含む、請求項1に記載の方法。
- 前記一連の可視特性が前記視野にあるときを示すトリガ信号を生成するステップと、
前記トリガ信号に応じて前記取得を開始するステップと、
をさらに含む、請求項1に記載の方法。 - 前記結果を報告するステップは、前記トリガ信号と同期して出力パルスを生成することを含む、請求項15に記載の方法。
- 物体の検査のための方法であって、
複数のフレームを取得するステップであって、前記複数のフレームの各フレームは、2次元視野の画像を含むステップと、
前記複数のフレームの第一の分析に応じて、複数の物体検出加重を決定するステップであって、前記複数の物体検出加重の書く物体検出加重は、対応するフレームの視野にあることを示す証拠を含み、前記複数の物体検出加重の各物体検出加重は、前記複数のフレームの各フレームにそれぞれに対応するステップと、
前記複数のフレームから複数のアクティブフレームを選択するステップであって、前記複数のアクティブフレームの各フレームに対する各物体検出加重は、物体が視野にあることを示す十分な証拠を示すステップと、
前記複数のアクティブフレームの第二の分析に応じて、前記複数のアクティブフレームの各フレームにそれぞれ対応する複数の物体合格スコアを計算するステップであって、前記複数の物体合格スコアの各物体合格スコアは、前記物体が少なくとも1つの検査条件を満足させるという証拠を含むステップと、
前記複数の物体合格スコアに応じて、前記物体が前記少なくとも1つの検査条件を満足させるかどうかに関する情報を含む結果を決定するステップと、
前記結果を報告するステップと、
を含む方法。 - 前記物体検出加重を決定する前記ステップは、前記フレームにおける少なくとも1つの関心領域の第三の分析に応じて、各物体検出加重を決定することを含む、請求項17に記載の方法。
- 前記第三の分析は、前記複数の物体検出加重の各物体検出加重について、
前記少なくとも1つの関心領域にそれぞれ対応する一連の測定値を決定するステップであって、前記一連の測定値の各測定値は、前記物体の目にみえる特徴の特性に対応するステップと、
前記一連の測定値に対応して、前記物体検出加重を計算するステップと、
を含む、請求項18に記載の方法。 - 前記第三の分析は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体検出加重を生成するために前記一連の論理値を組み合わせるステップと、
をさらに含む、請求項19に記載の方法。 - 前記一連の論理値の各論理値はファジー論理値である、請求項20に記載の方法。
- 前記複数の物体合格スコアの各物体合格スコアは、前記フレームにおける少なくとも1つの関心領域の第三の分析に応じて決定される、請求項17に記載の方法。
- 前記第三の分析は、前記複数の物体合格スコアの各物体合格スコアについて、
前記少なくとも1つの関心領域にそれぞれ対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は、前記物体の可視特性の特性に対応するステップと、
前記一連の測定値に対応して、前記物体合格スコアを計算するステップと、
を含む、請求項22に記載の方法。 - 前記第三の分析は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体合格スコアを生成するために前記一連の論理値を組み合わせるステップと、
をさらに含む、請求項23に記載の方法。 - 前記一連の論理値の各論理値はファジー論理値である、請求項24に記載の方法。
- 前記複数のアクティブフレームにそれぞれ対応する前記複数の物体検出加重から複数のアクティブ物体検出加重を選択するステップをさらに含み、
前記結果を決定する前記ステップはさらに、前記複数のアクティブ物体検出加重にさらに応じる、請求項17に記載の方法。 - 前記第二の分析は、前記対応するアクティブ物体検出加重により加重される前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項26に記載の方法。
- 前記第二の分析は、前記アクティブ物体検出加重のパーセンタイルにより加重される物体合格スコアの加重平均を計算するステップをさらに含む、請求項26に記載の方法。
- 前記複数のフレームが取得されて、前記第一と第二の分析が毎秒200フレーム以上の速度で実施される、請求項17に記載の方法。
- 前記結果を報告するステップは、出力パルスを生成することを含む、請求項17に記載の方法。
- 前記結果を報告するステップは、前記出力パルスで拒否作動装置に信号を送ることをさらに含む、請求項30に記載の方法。
- 前記結果を報告する前記ステップは、固定基準点を横切る前記物体と同期して前記出力パルスを生成することをさらに含む、請求項30に記載の方法。
- 物体を検出するための方法であって、
複数のフレームを取得するステップであって、前記複数のフレームの各フレームは2次元視野の画像を含むステップと、
前記複数のフレームの第一の分析に応じて、複数の物体検出加重を決定するステップであって、前記複数の物体検出加重の各物体検出加重は、前記物体が前記対応するフレームの前記視野にあることを示す証拠を含み、前記複数の物体検出加重の各物体検出加重は前記複数のフレームの各フレームにそれぞれ対応するステップと、
前記複数の物体検出加重から複数のアクティブ物体検出加重を選択するステップであって、このような各アクティブ物体検出加重は前記物体が前記対応するフレームの前記視野にあることを示す十分な証拠を示唆するようなステップと、
前記複数のアクティブ物体検出加重の第二の分析に応じて結果を決定するステップであって、前記結果は前記物体が検出されたかどうかに関する情報を含むステップと、
前記結果を報告するステップと、
を含む方法。 - 前記複数の物体検出加重の各物体検出加重は、前記フレームの少なくとも1つの関心領域の第三の分析に応じて決定される、請求項33に記載の方法。
- 前記第三の分析は、前記複数の物体検出加重の各物体検出加重について、
少なくとも1つの関心領域にそれぞれ対応して一連の測定値を計算するステップにおいて、前記一連の測定値の各測定値は前記物体の可視特性の特性に対応するステップと、
前記一連の測定値に応じて、前記物体検出加重を計算するステップと、
を含む、請求項34に記載の方法。 - 前記物体検出加重の計算は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体検出加重を作成するために前記一連の論理値を組み合わせるステップと、
を含む、請求項35に記載の方法。 - 前記一連の論理値の各論理値はファジー論理値である、請求項36に記載の方法。
- 前記複数のアクティブ物体検出加重を選択するステップは、連続物体検出加重の決定済み数字がアクティブ物体検出加重になるように選択されていないときに終了する、請求項33に記載の方法。
- 前記複数のフレームが取得されて、前記第一と第二の分析が毎秒200フレーム以上の速度で実施される、請求項33に記載の方法。
- 前記結果を報告するステップは、前記物体が検出される場合にのみ、出力パルスの生成を含む、請求項33に記載の方法。
- 前記結果を報告する前記ステップは、前記出力パルスを固定基準点を横切っている前記物体と同期して生成することをさらに含む、請求項40に記載の方法。
- 物体の検査のためのシステムであって、
前記物体を2次元視野に対して相対的に連続して移動させるコンベヤであって、前記物体は一連の可視特性を含み、前記一連の可視特性は少なくとも1つの可視特性を含むコンベヤと、
複数のフレームを取得する画像取得装置であって、前記複数のフレームの各フレームは前記視野の画像を含み、前記一連の可視特性のすべての可視特性は前記複数のフレームの各フレームのための前記視野にあり、前記複数のフレームは前記視野において前記一連の可視特性の複数の場所を含むような画像取得装置と、
前記複数のフレームの第一の分析に応じて、前記物体の状態に関する情報を含む結果を決定する分析装置と、
前記結果を報告する出力信号発信装置と、
を含むシステム。 - 前記第一の分析は前記複数のフレームにそれぞれ対応する複数の物体合格スコアを計算するステップを含み、前記複数の物体合格スコアの各物体合格スコアは前記物体が少なくとも1つの検査条件を満たすことを示す証拠を含む、請求項42に記載のシステム。
- 前記複数の物体合格スコアの各物体合格スコアは、前記フレームの少なくとも1つの関心領域の2番目の分析に応じて計算される、請求項43に記載のシステム。
- 前記第二の分析は、前記複数の物体合格スコアの各物体合格スコアについて、
前記少なくとも1つの関心領域にそれぞれ対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は前記物体の前記一連の目にみえる特徴のうちの1つの特性に対応するステップと、
前記一連の測定値に応じて、前記物体合格スコアを計算するステップと
を含む、請求項44に記載のシステム。 - 前記物体合格スコアの計算は、前記一連の測定値を対応する一連の論理値に変換するステップと、前記物体合格スコアを作成するために前記一連の論理値を組み合わせるステップとを含む、請求項45に記載のシステム。
- 前記一連の論理値の各論理値はファジー論理値である、請求項46に記載のシステム。
- 前記第一の分析は、前記複数のフレームの各フレームのために、前記一連の可視特性のすべての可視特性は前記フレームのための前記視野にあることを示す証拠を含む物体検出加重を決定するステップをさらに含む、請求項43に記載のシステム。
- 前記第一の分析は、前記対応する物体検出加重により加重される前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項48に記載のシステム。
- 前記第一の分析は、前記物体検出加重の前記対応するパーセンタイルにより加重される前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項48に記載のシステム。
- 前記コンベヤは、前記複数のフレームの連続するフレームの間で、前記視野の4分の1未満物体を移動させる、請求項42に記載のシステム。
- 前記コンベヤは、連続するフレームの間で、前記視野の5パーセント未満物体を移動させる、請求項42に記載のシステム。
- 前記画像取得装置と前記分析装置は、毎秒200フレーム未満の速度で動作する、請求項42に記載のシステム。
- 前記画像取得装置は約40,000ピクセル未満の配列を含む、請求項42に記載のシステム。
- 拒否作動装置をさらに含み、
前記出力信号発信装置は、前記拒否作動装置に発信する出力パルスを生成することにより前記結果を報告する、請求項42に記載のシステム。 - 前記出力信号発信装置は、固定基準点を横切る前記物体と同期して出力パルスを生成する、請求項55に記載のシステム。
- 前記一連の可視特性が前記視野にある時間を示すトリガ信号をさらに含み、
前記画像取得装置は、前記トリガ信号に応じて前記複数のフレームを取得する、請求項42に記載のシステム。 - 前記出力信号発信装置は前記トリガ信号と同期して出力パルスを生成する、請求項57に記載のシステム。
- 物体の検査のためのシステムであって、
複数のフレームを取得する画像取得装置であって、前記複数のフレームの各フレームは2次元視野の画像を含む画像取得装置と、
分析装置であって、前記複数のフレームの第一の分析に応じて、複数の物体検出加重を決定し、前記複数の物体検出加重の各物体検出加重は前記物体が前記対応するフレームの前記視野にあることを示す証拠を含み、前記複数の物体検出加重の各物体検出加重は前記複数のフレームの各フレームにそれぞれ対応し、前記複数のフレームから複数のアクティブフレームを選択し、前記複数のアクティブフレームの各フレームのための各物体検出加重は前記物体が前記視野にあったことを示す十分な証拠を示唆し、前記複数のアクティブフレームの第二の分析に対応して、前記複数のアクティブフレームの各フレームにそれぞれ対応する複数の物体合格スコアを計算し、前記複数の物体合格スコアの各物体合格スコアは前記物体が少なくとも1つの検査条件を満たすことを示す証拠を含み、前記複数の物体合格スコアに応じて、前記物体が前記少なくとも1つの検査条件を満たすかどうかに関する情報を含む結果を決定する分析装置と、
前記結果を報告する出力信号発信装置と、
を含むシステム。 - 前記分析装置は、前記フレームの少なくとも1つの関心領域の第三の分析に応じて、各物体検出加重を決定する、請求項59に記載のシステム。
- 前記第三の分析は、前記複数の物体検出加重の各物体検出加重について、
前記少なくとも1つの関心領域にそれぞれ対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は前記物体の可視特性の特性に対応するステップと、
前記一連の測定値に応じて、前記物体の検出加重を計算するステップと、
を含む、請求項60に記載のシステム。 - 前記第三の分析は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体検出加重を作成するために前記一連の論理値を組み合わせるステップと
をさらに含む、請求項61に記載のシステム。 - 前記一連の論理値の各論理値はファジー論理値である、請求項62に記載のシステム。
- 前記分析装置は、前記フレームの少なくとも1つの関心領域の第三の分析に応じて、前記複数の物体合格スコアの各物体合格スコアを計算する、請求項59に記載のシステム。
- 前記第三の分析は、前記複数の物体合格スコアの各物体合格スコアについて、
前記少なくとも1つの関心領域それぞれに対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は前記物体の可視特性の特性に対応するステップと、
前記一連の測定値に応じて、前記物体合格スコアを計算するステップと、
を含む、請求項64に記載のシステム。 - 前記第三の分析は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体合格スコアを作成するために前記一連の論理値を組み合わせるステップと
をさらに含む、請求項65に記載のシステム。 - 前記一連の論理値の各論理値はファジー論理値である、請求項66に記載のシステム。
- 前記分析装置は、さらに、前記複数のアクティブフレームにそれぞれ対応する前記物体の検出加重から複数のアクティブ物体検出加重を選択し、
前記分析装置は、さらに、前記複数のアクティブ物体検出加重に応じて、前記結果を決定する、請求項59に記載のシステム。 - 前記第二の分析は、前記対応するアクティブ物体検出加重により加重された前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項68に記載のシステム。
- 前記第二の分析は、前記アクティブ物体検出加重の前記パーセンタイルにより加重された前記物体合格スコアの加重平均を計算するステップをさらに含む、請求項68に記載のシステム。
- 前記画像取得装置と前記分析装置が、毎秒200フレーム以上の速度で動作する、請求項59に記載のシステム。
- 前記画像取得装置が約40,000ピクセル未満の配列を含む、請求項59に記載のシステム。
- 前記出力信号発信装置は、出力パルスを生成することにより前記結果を報告する、請求項59に記載のシステム。
- 拒否作動装置をさらに含み、前記出力パルスは前記拒否作動装置に信号を発信する、請求項73に記載のシステム。
- 前記出力信号発信装置は、固定基準点を横切る前記物体と同期して出力パルスを生成する、請求項73に記載のシステム。
- 物体検出のシステムであって、
複数のフレームを取得する画像取得装置であって、前記複数のフレームの各フレームは二次元視野の画像を含む画像取得装置と、
分析装置であって、前記複数のフレームの第一の分析に応じて、複数の物体検出加重を決定し、前記複数の物体検出加重の各物体検出加重は前記物体が前記対応するフレームの前記視野にあることを示す証拠を含み、前記複数の物体検出加重の各物体検出加重は前記複数のフレームの各フレームにそれぞれ対応し、前記複数の物体検出加重から複数のアクテイブ物体検出加重を選択し、このような各アクティブ物体検出加重は、前記物体が前記視野にあったことを示す十分な証拠を示唆し、前記複数のアクティブ物体検出加重の第二の分析に対応する結果を決定し、前記結果は前記物体が検出されたかどうかに関する情報を含む分析装置と、
前記結果を報告する出力信号発信装置と、
を含むシステム。 - 前記分析装置は、前記フレームの少なくとも1つの関心領域の第三の分析に応じて、前記複数の物体検出加重の各物体検出加重を決定する、請求項76に記載のシステム。
- 前記第三の分析は、前記複数の物体検出加重の各物体検出加重について、
前記すくなくとも1つの関心領域それぞれに対応する一連の測定値を計算するステップであって、前記一連の測定値の各測定値は前記物体の可視特性の特性に対応するステップと、
前記一連の測定値に応じて前記物体検出加重を計算するステップと、
を含む、請求項77に記載のシステム。 - 前記物体検出加重の計算は、
前記一連の測定値を対応する一連の論理値に変換するステップと、
前記物体検出加重を作成するために前記一連の論理値を組み合わせるステップとを含む、請求項78に記載のシステム。 - 前記一連の論理値の各論理値はファジー論理値である、請求項79に記載のシステム。
- 前記分析装置は、連続する物体検出加重の決定済み数がアクティブ検出加重となるように選択されていないときに前記結果を決定する、請求項76に記載のシステム。
- 前記画像取得装置と前記分析装置は毎秒200フレーム以上の速度で動作する、請求項76に記載のシステム。
- 前記画像取得装置は約40,000ピクセル未満の配列を含む、請求項76に記載のシステム。
- 前記出力信号発信装置は、前記物体が検出される場合にのみ、出力パルスを生成することにより、前記結果を報告する、請求項76に記載のシステム。
- 前記出力信号発信装置は、固定基準点を交差する前記物体と同期して前記出力パルスを再生する、請求項84に記載のシステム。
- 物体を検出し、前記物体の特徴を決定するための方法であって、
複数のフレームを取得するステップであって、前記複数のフレームの各フレームは2次元の視野の画像を含むステップと、
前記複数のフレームの第一の分析に応じて、前記複数のフレームから複数のアクティブフレームを選択するステップであって、前記第一の分析は前記物体が前記複数のアクティブフレームの各フレームのための前記視野にあることを示す十分な証拠を示唆するようなステップと、
前記複数のアクティブフレームに対応する複数の取得時間を取得するステップであって、前記複数の取得時間の各取得時間は前記対応するアクティブフレームが取得された時間に対応するステップと、
前記複数のアクティブフレームの第二の分析に対応して、複数の位置の値を計算するステップであって、前記複数の場所の値の各場所の値は前記第二の分析により計算されたように、関連づけられたアクティブフレームの前記視野の前記物体の位置に対応するステップと、
前記複数の場所の値と前記複数の取得時間を使用して、前記物体の前記特徴を決定するステップと、
を含む方法。 - 前記特徴は、前記物体が固定された記録点にあったときを示す記録時間を含み、さらに、遅れ間隔により記録時間に従う報告時間で信号を作成するステップと、前記信号の前記報告時間を使用して前記物体の位置を示すステップとを含む、請求項86に記載の方法。
- 前記記録時間を決定するステップは少なくとも3つの取得時間で直線を最適化して、位置の値に対応するステップをさらに含む、請求項87に記載の方法。
- FIFO(先入れ先出し)バッファを使用して、前記報告時間に前記信号を生成するために必要な情報を保持するステップをさらに含む、請求項87に記載の方法。
- 前記物体を実質的に一定速度で前記二次元視野に対して相対的に移動させるステップをさらに含み、
前記物体の前記場所は、前記報告時間に、前記一定速度と前記遅れ間隔により決定される距離により、記録点から分離されるダウンストリーム位置である、
請求項87に記載の方法。 - 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れ間隔を調節するステップをさらに含む、請求項90に記載の方法。
- 前記望ましい場所は作動装置の場所に対応する、請求項91に記載の方法。
- 前記複数のアクティブフレームの再三の分析に応じて、前記物体が検査条件を満足すかどうかを決定するステップをさらに含み、
信号の生成は、前記第三の分析が、前記物体が前記検査条件を満たさない場合にのみ前記信号を生成することをさらに含み、
前記作動装置は拒否作動装置であり、
前記拒否作動装置を制御するために前記信号を使用することをさらに含む、請求項92に記載の方法。 - 前記特徴は、物体速度をさらに含み、前記物体速度は前記一定速度の測定値であり、
前記遅れ間隔を調節するステップは、前記物体速度に対応する、
請求項91に記載の方法。 - 前記物体を実質的に一定速度で前記二次元の視野に対して相対的に移動するステップをさらに含み、
前記特徴は、物体速度を含み、前記物体速度は前記一定速度の測定値である、
請求項86に記載の方法。 - 前記特徴は物体距離をさらに含み、前記物体を決定するために前記物体速度を使用することをさらに含む、請求項95に記載の方法。
- 前記特徴は、ピクセルサイズキャリブレーションをさらに含み、前記ピクセルサイズキャリブレーションを決定するために前記物体速度を使用することをさらに含む、請求項95に記載の方法。
- 前記物体を実質的に一定速度で前記二次元視野に対して相対的に移動させるステップをさらに含み、
前記特徴は、前記視野における複数の分離場所に対応する複数の物体速度と、空間における物体の回転を含む方法であって、前記方法は、前記物体を回転するために前記複数の物体速度を使用することをさらに含む、請求項86に記載の方法。 - 物体の検出、および、前記物体の特徴を決定するための方法であって、
前記物体を運搬するために、二次元の視野に対して相対的に運動するコンベヤを使用するステップと、
前記コンベヤの相対的場所を示す対応するエンコーダカウントを望ましい時間に取得できる、前記コンベヤの前記運動に応じて、エンコードする信号を入力するステップと、
複数のフレームを取得するステップであって、前記複数のフレームの各フレームは前記二次元視野の画像を含むステップと、
前記複数のフレームの第一の分析に応じて、前記複数のフレームから複数のアクティブフレームを選択するステップであって、前記第一の分析は前記物体が前記複数のアクティブフレームの各フレームの前記視野にあることを示す十分な証拠を示唆するステップと、
前記複数のアクティブフレームに対応する複数の取得カウントを取得するステップであって、前記複数の取得カウントの各取得カウントは前記対応するアクティブフレームが取得されたときに対応する前記エンコーダカウントに応じるステップと、
前記複数のアクティブフレームの第二の分析に応じて、複数の位置の値を計算するステップであって、前記複数の位置の値の各位置の値は、前記第二の分析により計算されるように、関連づけられたアクティブフレームの視野における前記物体の位置に応じるステップと、
前記複数の場所の値と前記複数の取得カウントを使用して、前記物体の前記特徴を決定するステップと、
を含む方法。 - 前記特徴は、前記物体が固定された記録点にあったときに対応するエンコーダカウントを示す記録カウントを含み、
前記対応するエンコーダカウントが前記記録カウントと遅れのカウントだけ異なる場合に発生する報告時間で信号を生成するステップと、
前記物体の場所を示すために前記信号の前記報告時間を使用するステップと、をさらに含む、請求項99に記載の方法。 - 前記記録カウントを決定するステップは、少なくとも3つの取得カウントと対応する位置の場所値に直線を最適化することを含む、請求項100に記載の方法。
- 前記報告時間に前記信号を生成するために必要な情報を保持するためにFIFOバッファを使用することをさらに含む、請求項100に記載の方法。
- 前記物体の前記場所は、前記報告時間で、前記遅れのカウントにより決定される距離だけ前記記録点から離れたダウンストリーム位置である、請求項100に記載の方法。
- 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れのカウントを調整するステップをさらに含む、請求項103に記載の方法。
- 前記望ましい場所は作動装置の場所に対応する、請求項104に記載の方法。
- 前記複数のアクティブフレームの第三の分析に応じて、前記物体が検査条件を満たしているかどうかを判定するステップをさらに含み、
前記信号を生成するステップは、前記第三の分析が前記物体は前記検査条件を満たしていないと判定する場合にのみ、前記信号を生成するステップをさらに含み、
前記作動装置は拒否作動装置であり、
前記拒否作動装置を制御するために前記信号を使用するステップをさらに含む、請求項105に記載の方法。 - 前記特徴はピクセルサイズキャリブレーションを含む、請求項99に記載の方法。
- 前記特徴は、物体距離をさらに含み、前記物体距離を決定するために前記ピクセルサイズキャリブレーションを使用することをさらに含む、請求項107に記載の方法。
- 前記特徴は、前記視野の複数の分離された場所に対応する複数のピクセルサイズキャリブレーションと、空間の物体回転とを含み、
前記物体回転を決定するために前記複数のピクセルサイズキャリブレーションを使用するステップをさらに含む、請求項99に記載の方法。 - 物体を検出し、前記物体の特徴を決定するためのシステムであって、
複数のフレームを取得する画像取得装置であって、前記複数のフレームの各フレームは二次元視野の画像を含む画像取得装置と、
分析装置であって、前記複数のフレームの第一の分析に応じて、前記複数のフレームから複数のアクティブフレームを選択し、第一の分析は前記物体が、前記複数のアクティブフレームの各フレームの前記視野にあることを示す十分な証拠を示唆し、前記複数のアクティブフレームに対応する複数の取得時間を取得し、前記複数の取得時間の各取得時間は前記対応するアクティブフレームが取得された時間に対応し、前記複数のアクティブフレームの第二の分析に応じて、複数の位置の値を計算し、前記複数の位置の値の各位置の値は前記第二の分析により計算されるように、関連づけられたアクティブフレームの前記視野の前記物体の位置に対応し、前記複数の場所の値と前記複数の取得時間を使用して、前記物体の特徴を決定する分析装置と
を含むシステム。 - 前記特徴は、前記物体が固定された記録点にあったときを示す記録時間を含み、
遅れの間隔だけ前記記録時間に遅れる報告時間で信号を生成することにより、前記物体の場所を示す出力信号発信装置をさらに含む、請求項110に記載のシステム。 - 前記分析装置は、少なくとも3つの取得時間と対応する場所の値に直線を最適化することにより、前記記録時間を決定する、請求項111に記載のシステム。
- 前記信号を前記報告時間に生成するための出力信号発信装置により必要な情報を保持するFIFOバッファをさらに含む、請求項111に記載のシステム。
- 前記物体を実質的に一定速度で前記二次元の視野に相対的に前記物体を運搬するコンベヤをさらに含み、
前記報告時間の前記物体の前記場所は、前記一定速度と前記遅れ間隔により決定される距離だけ、前記記録点から離れたダウンストリームの位置である、請求項111に記載のシステム。 - 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れの間隔を調節する制御装置をさらに含む、請求項114に記載のシステム。
- 前記物体から作動する場所を持つ作動装置をさらに含み、
前記望ましい位置は前記作動装置の前記場所に対応する、請求項115に記載のシステム。 - 前記分析装置は、前記複数のアクティブフレームの第三の分析に応じて、前記物体が検査条件を満たすかどうかを判定し、
前記出力信号発信装置は、前記分析装置が前記物体は前記検査条件を満たさないと判断する場合にのみ、前記信号を生成し、
前記作動装置は拒否作動装置であり、
前記信号は前記拒否作動装置を制御するために使用される、請求項116に記載のシステム。 - 前記特徴は、物体速度をさらに含み、前記物体速度は一定速度の測定値であり、
前記制御装置は前記物体速度に応じて前記遅れの間隔を調節する、請求項115に記載のシステム。 - 前記物体を前記二次元の視野に対して相対的に実質的に一定速度で移動させるコンベヤをさらに含み、
前記特徴は物体速度を含み、前記物体速度は前記一定速度の測定値である、請求項110に記載のシステム。 - 前記特徴は物体距離をさらに含み、
前記分析装置は前記物体速度に応じて前記物体距離を決定する、請求項119に記載のシステム。 - 前記特徴は、ピクセルサイズキャリブレーションをさらに含み、
前記分析装置が、前記物体速度に応じて、前記ピクセルサイズキャリブレーションを決定する、請求項119に記載のシステム。 - 前記物体を前記二次元視野に対して相対的に実質的に一定速度で運搬するコンベヤをさらに含み、
前記特徴は、前記視野の複数の離れた場所に対応する複数の物体速度と、空間の物体回転とを含み、
前記分析装置は、前記複数の物体速度に応じて、前記物体回転を決定する、請求項11 0に記載のシステム。 - 物体を検出し、前記物体の特徴を決定するためのシステムであって、
前記物体を運搬する、2次元の視野に相対的な運動をしているコンベヤと、
前記コンベヤの運動に応じて、前記コンベヤの相対的位置を示している対応するエンコーダカウントを望ましい時間に取得できる、エンコードしている信号を受信する入力装置と、
複数のフレームを取得する画像取得装置であって、前記複数のフレームは前記2次元視野の画像を含む画像取得装置と、
分析装置であって、前記複数のフレームの第一の分析に応じて、前記複数のフレームから複数のアクティブフレームを選択し、前記第一の分析は、前記物体が前記複数のアクティブフレームの各フレームで前記視野にあることを示す十分な証拠を示唆し、前記複数のアクティブフレームに対応する複数の取得カウントを取得し、前記複数の取得カウントの各取得カウントは、前記対応するアクティブフレームが取得された時間に対応する前記エンコーダカウントに対応し、前記複数のアクティブフレームの第二の分析に応じて、複数の場所の値を計算し、前記複数の場所の値の各場所の値は、前記第二の分析により計算されるように、関連づけられたアクティブフレームの前記視野の前記物体の位置に対応し、前記複数の場所の値と前記複数の取得カウントを使用して、前記物体の前記特徴を決定する、分析装置と
を含むシステム。 - 前記特徴は、前記物体が固定記録点にあったときに対応する前記エンコーダカウントを示す記録カウントを含み、
前記対応するエンコーダカウントが遅れのカウントにより前記記録カウントとはことなるときに発生する報告時間に、信号を生成することにより、前記物体の場所を示す出力信号発信装置をさらに含む、請求項123に記載のシステム。 - 前記分析装置は、少なくとも3つの取得カウントと対応する場所の値に直線を最適化することにより、記録カウントを決定する、請求項124に記載のシステム。
- 前記報告時間で前記信号を生成するための出力信号発信装置により必要な情報を保持するFIFOバッファをさらに含む、請求項124のシステム。
- 前記物体の前記場所は、前記報告時間で、前記遅れのカウントにより決定される距離だけ、前記記録点から離れたダウンストリームの位置である、請求項124に記載のシステム。
- 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れのカウントを調整する制御装置をさらに含む、請求項127に記載のシステム。
- 前記物体上に作動する場所を持つ作動装置をさらに含み、
前記望ましい場所は前記作動装置の前記場所に対応する、請求項128に記載のシステム。 - 前記分析装置は、前記複数のアクティブフレームの第三の分析に応じて、前記物体が検査条件を満たすかどうかを判定し、
前記出力信号発信装置は、前記分析装置が前記物体が前記検査条件を満たさないと判定する場合にのみ、前記信号を生成し、
前記作動装置は拒否作動装置であり、
前記拒否作動装置を制御するために前記信号が使用される、請求項129に記載のシステム。 - 前記特徴はピクセルサイズキャリブレーションを含む、請求項123に記載のシステム。
- 前記特徴は物体距離をさらに含み、
前記分析装置は、前記ピクセルサイズキャリブレーションに応じて、前記物体距離を決定する、請求項131に記載のシステム。 - 前記特徴は、前記視野の複数の離れた場所に対応する複数のピクセルサイズキャリブレーションと、
空間の物体回転とを含み、
前記分析装置は、前記複数のピクセルサイズキャリブレーションに応じて、前記物体回転を決定する、請求項123に記載のシステム。 - 複数の物体を探知するための方法であって、
前記複数の物体の各物体が、固定記録点を通過するように、前記物体を移動させるステップと、
前記複数の物体の各物体のために、前記物体が前記固定記録点を通過するときを示す対応する記録時間を決定するステップであって、前記対応する記録時間の決定は、対応する決定の遅れにより前記対応する記録時間から異なる対応する決定点で発生し、前記複数の物体に対応する前記決定の遅れは可変であり、前記複数の物体の各物体のために、遅れの間隔により前記対応する記録時間に従う対応する報告時間で対応する信号を生成するステップと、
前記複数の物体の各物体に、前記物体の場所を示すために前記対応する信号の前記対応する報告時間を使用するステップと、
を含む方法。 - 各対応する報告時間で各対応する信号を生成するために必要な情報を保持するためにFIFOバッファを使用するステップをさらに含む、請求項134に記載の方法。
- 前記複数の物体の各物体を移動させるステップは、前記物体を実質的に一定速度で移動させるステップをさらに含み、
前記物体の前記場所は、前記対応する報告時間で、前記一定速度と前記遅れの間隔により決定される距離だけ、前記記録点から離れたダウンストリームの位置である、
請求項134に記載の方法。 - 前記ダウンストリームの位置は前記物体の望ましい場所に対応するように、前記遅れの間隔を調節するステップをさらに含む、請求項136に記載の方法。
- 前記望ましい場所は作動装置の場所に対応する、請求項137に記載の方法。
- 複数の物体を探知するための方法であって、
前記複数の物体の各物体を運搬するために、前記物体が固定記録点を通過するように、前記固定記録点に対して相対的な運動を持つコンベヤを使用するステップと、
前記コンベヤの前記運動に応じて、前記コンベヤの相対的場所を示す対応するエンコーダカウントを望む時間で取得できる、エンコード信号を入力するステップと、
前記複数の物体の各物体のために、前記物体が前記固定記録点を通過するときに対応するエンコーダカウントを示す対応する記録カウントを決定するステップであって、前記対応する記録カウントの決定は、対応する決定の遅れにより、前記物体が前記固定記録点を通過するときから異なる対応する決定点で発生し、前記複数の物体に対応する前記決定の遅れは可変であるステップと、
前記複数の物体の各物体について、前記対応するエンコーダカウントが遅れカウントにより前記記録カウントから異なるときに発生する対応する方向時間で、対応する信号を生成するステップと、
前記複数の物体の各物体について、前記物体の場所を示すために前記対応する信号の前記対応する報告時間を使用するステップと、
を含む方法。 - 各対応する報告時間で、各対応する信号を生成するために必要な情報を保持するためにFIFOバッファを使用するステップをさらに含む、請求項139に記載の方法。
- 前記物体の前記場所は、対応する報告時間で、前記遅れのカウントにより決定される距離だけ、記録点から離れたダウンストリームの位置である、請求項139に記載の方法。
- 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れのカウントを調整するステップをさらに含む、請求項141に記載の方法。
- 前記望ましい場所は作動装置の場所に対応する、請求項142に記載のシステム。
- 複数の物体を探知するためのシステムであって、
前記複数の物体の各物体が、固定記録点を通過するように、運搬するコンベヤと、
前記複数の物体の各物体について、前記物体が前記記録点を通過するときを示す対応する記録時間を決定する分析装置であって、前記対応する記録時間は、対応する決定の遅れにより、前記対応する記録時間から異なる対応する決定点で決定され、前記複数の物体に対応する前記決定の遅れは可変である、分析装置と、
前記複数の物体の各物体のために、遅れ間隔により前記対応する記録時間に従う対応する報告時間で、対応する信号を生成することにより、前記物体の場所を示す出力信号発信装置と、
を含むシステム。 - 各対応する報告時間で、各対応する信号を生成するための出力信号発信装置により必要な情報を保持するFIFOバッファをさらに含む、請求項144に記載のシステム。
- 前記コンベヤは、前記複数の物体の各物体を実質的に一定速度で運搬し、
前記物体の前記場所は、前記対応する報告時間で、前記一定速度と前記遅れの間隔により決定される距離だけ、前記記録点から離れているダウンストリーム位置である、請求項144に記載のシステム。 - 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、前記遅れの間隔を調整する制御装置をさらに含む、請求項146に記載のシステム。
- 各物体上で作動する位置を持つ作動装置をさらに含み、
前記望ましい場所は前記作動装置の前記場所に対応する、請求項147に記載のシステム。 - 複数の物体を探知するためのシステムであって、
前記複数の物体の各物体を運搬する、固定記録点に相対的な運動を持つコンベヤであって、前記物体が前記固定記録点を通過するようなコンベヤと、
前記コンベヤの前記運動に応じて、エンコード信号を受信する入力装置であって、前記コンベヤの相対的位置を示す対応するエンコーダカウントを望ましい時間で取得できる入力装置と、
前記複数の物体の各物体について、前記物体が前記固定記録点を通過するときに対応するエンコーダカウントを示す対応する記録カウントを決定する分析装置において、前記対応する記録カウントは、前記物体が前記固定記録点を通過するときから対応する決定の遅れにより異なる対応する決定点で発生することを決定し、前記複数の物体に対応する前記決定の遅れは可変である、分析装置と、
前記複数の物体の各物体のために、前記対応するエンコーダカウントが遅れのカウントにより前記記録化ウンとから異なる場合に発生する、対応する報告時間で対応する信号を生成することにより、前記物体の場所を示す出力信号発信装置と、
を含むシステム。 - 各対応する報告時間に各対応する信号を生成するための出力信号発信装置により必要な情報を保持するFIFOバッファをさらに含む、請求項149に記載のシステム。
- 前記物体の前記場所は、前記対応する報告時間に、前記遅れのカウントにより決定される距離だけ、前記記録点から離れたダウンストリーム位置である、請求項149に記載のシステム。
- 前記ダウンストリームの位置が前記物体の望ましい場所に対応するように、遅れのカウントを調節する制御装置をさらに含む、請求項151に記載のシステム。
- 各物体で動作する場所を持つ作動装置をさらに含み、
前記望ましい場所は前記作動装置の前記場所に対応する、請求項152に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/865,155 US9092841B2 (en) | 2004-06-09 | 2004-06-09 | Method and apparatus for visual detection and inspection of objects |
US10/865,155 | 2004-06-09 | ||
US11/136,019 | 2005-05-24 | ||
US11/136,103 US8290238B2 (en) | 2004-06-09 | 2005-05-24 | Method and apparatus for locating objects |
US11/136,019 US8249329B2 (en) | 2004-06-09 | 2005-05-24 | Method and apparatus for detecting and characterizing an object |
US11/136,103 | 2005-05-24 | ||
PCT/US2005/019793 WO2005124317A2 (en) | 2004-06-09 | 2005-06-06 | Method and apparatus for visual detection and inspection of objects |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011158126A Division JP5784397B2 (ja) | 2004-06-09 | 2011-07-19 | 物体の視覚検出および検査のための方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008502918A true JP2008502918A (ja) | 2008-01-31 |
JP5175549B2 JP5175549B2 (ja) | 2013-04-03 |
Family
ID=35355513
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007527620A Active JP5175549B2 (ja) | 2004-06-09 | 2005-06-06 | 物体の視覚検出および検査のための方法および装置 |
JP2011158126A Active JP5784397B2 (ja) | 2004-06-09 | 2011-07-19 | 物体の視覚検出および検査のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011158126A Active JP5784397B2 (ja) | 2004-06-09 | 2011-07-19 | 物体の視覚検出および検査のための方法および装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1766364B1 (ja) |
JP (2) | JP5175549B2 (ja) |
KR (1) | KR20070040786A (ja) |
WO (1) | WO2005124317A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014222235A (ja) * | 2007-06-15 | 2014-11-27 | コグネックス・コーポレイション | 物体の光電子工学的検知、及び位置特定のための方法、及びシステム |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9092841B2 (en) | 2004-06-09 | 2015-07-28 | Cognex Technology And Investment Llc | Method and apparatus for visual detection and inspection of objects |
US8127247B2 (en) | 2004-06-09 | 2012-02-28 | Cognex Corporation | Human-machine-interface and method for manipulating data in a machine vision system |
US8891852B2 (en) | 2004-06-09 | 2014-11-18 | Cognex Technology And Investment Corporation | Method and apparatus for configuring and testing a machine vision detector |
US9292187B2 (en) | 2004-11-12 | 2016-03-22 | Cognex Corporation | System, method and graphical user interface for displaying and controlling vision system operating parameters |
US8238639B2 (en) | 2008-04-09 | 2012-08-07 | Cognex Corporation | Method and system for dynamic feature detection |
JP2011211678A (ja) * | 2010-03-12 | 2011-10-20 | Omron Corp | 画像処理装置および画像処理プログラム |
US9651499B2 (en) | 2011-12-20 | 2017-05-16 | Cognex Corporation | Configurable image trigger for a vision system and method for using the same |
EP2913148B8 (en) * | 2014-02-28 | 2020-03-25 | Hexagon Metrology (Israel) Ltd. | Method and system for analyzing process monitoring data |
KR101825687B1 (ko) * | 2015-04-24 | 2018-02-05 | 한국전자통신연구원 | 차영상을 이용한 장애물 검출장치 및 그 방법 |
CN108765376B (zh) * | 2018-05-03 | 2022-03-22 | 武汉光谷卓越科技股份有限公司 | 一种线扫描三维路面数据成分分析方法 |
TWI677680B (zh) * | 2018-08-24 | 2019-11-21 | 菱光科技股份有限公司 | 外部觸發之線性相機檢測系統及其影像均勻度處理方法 |
CN110876055B (zh) * | 2018-08-30 | 2021-04-09 | 菱光科技股份有限公司 | 外部触发的线性相机检测系统及其影像均匀度处理方法 |
JP7313310B2 (ja) * | 2020-03-31 | 2023-07-24 | 日本碍子株式会社 | セラミックス製の柱状ハニカム構造体の検査方法及び検査装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185710A (ja) * | 1995-12-28 | 1997-07-15 | Kobe Steel Ltd | ごみ滞留検知装置 |
JPH09288060A (ja) * | 1996-04-19 | 1997-11-04 | Nireco Corp | 移動体画像の取込方法と装置 |
JPH11101689A (ja) * | 1997-09-25 | 1999-04-13 | Sofuto Waaku Su Kk | 果菜類の検査装置 |
JP2000084495A (ja) * | 1998-09-08 | 2000-03-28 | Kubota Corp | 農産物の検査装置 |
JP2000298103A (ja) * | 1999-04-15 | 2000-10-24 | Nittetsu Mining Co Ltd | 透明容器内粉末の異物検査装置 |
JP2002148205A (ja) * | 2000-11-08 | 2002-05-22 | Japan Tobacco Inc | 棒状体の表面検査装置 |
JP2002214153A (ja) * | 2001-01-19 | 2002-07-31 | Hitachi Eng Co Ltd | 液体充填容器内の異物検査装置及びその方法 |
JP2002318202A (ja) * | 2001-04-23 | 2002-10-31 | Hitachi Eng Co Ltd | 透明容器内充填液体中の異物検査装置及びシステム |
JP2003270166A (ja) * | 2002-03-13 | 2003-09-25 | Nec Robotics Eng Ltd | 物品検査装置 |
JP2004145504A (ja) * | 2002-10-23 | 2004-05-20 | Keyence Corp | 画像処理システム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08313454A (ja) * | 1995-05-24 | 1996-11-29 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
JPH09178670A (ja) * | 1995-12-26 | 1997-07-11 | M I L:Kk | 物品の検査方法 |
-
2005
- 2005-06-06 EP EP05758780.0A patent/EP1766364B1/en active Active
- 2005-06-06 JP JP2007527620A patent/JP5175549B2/ja active Active
- 2005-06-06 KR KR1020077000587A patent/KR20070040786A/ko not_active Application Discontinuation
- 2005-06-06 WO PCT/US2005/019793 patent/WO2005124317A2/en active Application Filing
-
2011
- 2011-07-19 JP JP2011158126A patent/JP5784397B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185710A (ja) * | 1995-12-28 | 1997-07-15 | Kobe Steel Ltd | ごみ滞留検知装置 |
JPH09288060A (ja) * | 1996-04-19 | 1997-11-04 | Nireco Corp | 移動体画像の取込方法と装置 |
JPH11101689A (ja) * | 1997-09-25 | 1999-04-13 | Sofuto Waaku Su Kk | 果菜類の検査装置 |
JP2000084495A (ja) * | 1998-09-08 | 2000-03-28 | Kubota Corp | 農産物の検査装置 |
JP2000298103A (ja) * | 1999-04-15 | 2000-10-24 | Nittetsu Mining Co Ltd | 透明容器内粉末の異物検査装置 |
JP2002148205A (ja) * | 2000-11-08 | 2002-05-22 | Japan Tobacco Inc | 棒状体の表面検査装置 |
JP2002214153A (ja) * | 2001-01-19 | 2002-07-31 | Hitachi Eng Co Ltd | 液体充填容器内の異物検査装置及びその方法 |
JP2002318202A (ja) * | 2001-04-23 | 2002-10-31 | Hitachi Eng Co Ltd | 透明容器内充填液体中の異物検査装置及びシステム |
JP2003270166A (ja) * | 2002-03-13 | 2003-09-25 | Nec Robotics Eng Ltd | 物品検査装置 |
JP2004145504A (ja) * | 2002-10-23 | 2004-05-20 | Keyence Corp | 画像処理システム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014222235A (ja) * | 2007-06-15 | 2014-11-27 | コグネックス・コーポレイション | 物体の光電子工学的検知、及び位置特定のための方法、及びシステム |
Also Published As
Publication number | Publication date |
---|---|
EP1766364A2 (en) | 2007-03-28 |
KR20070040786A (ko) | 2007-04-17 |
WO2005124317A2 (en) | 2005-12-29 |
WO2005124317A8 (en) | 2006-04-27 |
EP1766364B1 (en) | 2018-12-19 |
JP5175549B2 (ja) | 2013-04-03 |
JP2011247898A (ja) | 2011-12-08 |
JP5784397B2 (ja) | 2015-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5175549B2 (ja) | 物体の視覚検出および検査のための方法および装置 | |
US9092841B2 (en) | Method and apparatus for visual detection and inspection of objects | |
JP5469811B2 (ja) | マシンビジョン検出器の設定および試験の方法と装置 | |
USRE44353E1 (en) | System and method for assigning analysis parameters to vision detector using a graphical interface | |
JP5575867B2 (ja) | 自動視覚事象検出の方法と装置 | |
US8582925B2 (en) | System and method for displaying and using non-numeric graphic elements to control and monitor a vision system | |
US8249297B2 (en) | Method and apparatus for automatic visual event detection | |
US20050275728A1 (en) | Method for setting parameters of a vision detector using production line information | |
JP5350444B2 (ja) | 自動視覚事象検出の方法と装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110418 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120703 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5175549 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |