JP5350444B2 - Method and apparatus for automatic visual event detection - Google Patents

Method and apparatus for automatic visual event detection Download PDF

Info

Publication number
JP5350444B2
JP5350444B2 JP2011168412A JP2011168412A JP5350444B2 JP 5350444 B2 JP5350444 B2 JP 5350444B2 JP 2011168412 A JP2011168412 A JP 2011168412A JP 2011168412 A JP2011168412 A JP 2011168412A JP 5350444 B2 JP5350444 B2 JP 5350444B2
Authority
JP
Japan
Prior art keywords
event
time
recording
frame
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011168412A
Other languages
Japanese (ja)
Other versions
JP2011258220A (en
Inventor
シルバー,ウィリアム,エム
フィリップス,ブライアン,エス
Original Assignee
コグネックス・テクノロジー・アンド・インベストメント・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/865,155 external-priority patent/US9092841B2/en
Priority claimed from US11/059,512 external-priority patent/US20050276445A1/en
Priority claimed from US11/138,025 external-priority patent/US8243986B2/en
Application filed by コグネックス・テクノロジー・アンド・インベストメント・コーポレーション filed Critical コグネックス・テクノロジー・アンド・インベストメント・コーポレーション
Publication of JP2011258220A publication Critical patent/JP2011258220A/en
Application granted granted Critical
Publication of JP5350444B2 publication Critical patent/JP5350444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems

Abstract

Disclosed are methods and apparatus for automatic visual detection of events, for recording images of those events and retrieving them for display and human or automated analysis, and for sending synchronized signals to external equipment when events are detected. An event corresponds to a specific condition, among some time-varying conditions within the field of view of an imaging device, that can be detected by visual means based on capturing and analyzing digital images of a two-dimensional field of view in which the event may occur. Events may correspond to rare, short duration mechanical failures for which obtaining images for analysis is desirable. Events are detected by considering evidence obtained from an analysis of multiple images of the field of view, during which time moving mechanical components can be seen from multiple viewing perspectives.

Description

[発明の背景]
本発明は、高速ビデオ事象検出、動作分析、画像記録、自動画像分析に関係するものである。
[Background of the invention]
The present invention relates to high-speed video event detection, motion analysis, image recording, and automatic image analysis.

[関連技術の説明]
人の目では速すぎて見ることが難しい機械システムの分析動作のために、高速画像記録装置を使うことは、当技術分野で周知である。これらの装置は、スローモーションまたは、スチール画像としての画像を表示し、人間のユーザーのために高速機械動作を見て、分析するために、機械処理の毎秒数百または数千の画像を取得し、録画するものである。
[Description of related technology]
It is well known in the art to use high-speed image recording devices for analytical operations in mechanical systems that are too fast for the human eye to see. These devices display images as slow motion or still images and acquire hundreds or thousands of images per second of machine processing to view and analyze high-speed machine operations for human users , To record.

特に関心があるものに、機械処理において故障を引き起こす場合がある、まれな、短時間の機械的事象の記録である。事象がまれで短時間であるという事実は、特別な課題を生む。たとえば、画像記録装置が毎秒1000画像を録音するとすれば、事象は、3ミリ秒続き、平均一時間に一度起こる。追加の装置なしに、人間のユーザーが事象を含む2または3の事象を見つけるために平均360万の写真を見る必要があるであろう。   Of particular interest is the recording of rare, short-term mechanical events that can cause failures in machine processing. The fact that events are rare and short-lived creates special challenges. For example, if the image recording device records 1000 images per second, the event lasts 3 milliseconds and occurs once per average hour. Without additional equipment, an average user would need to view 3.6 million photos to find 2 or 3 events including events.

事象が起こる場合、示す画像記録装置のトリガ信号を供給することにより、この課題に対応することは、当技術分野で周知のことである。画像記録装置は、最新の画像の限られた数を保存し、トリガ信号が事象が起こったことを示す場合、録画の最後の一秒であると言い、簡単な追加時間を記録し、終了する。これは、事象の前後の両方で見る、各画像の少数をユーザーに与える。更に、各画像がトリガ信号により示された事象の時間に関連して取得された場合、ユーザーは、確実に分かる。   It is well known in the art to address this challenge by providing an image recording device trigger signal to indicate when an event occurs. The image recorder saves a limited number of the latest images, and if the trigger signal indicates that an event has occurred, it says it is the last second of the recording, records a simple additional time, and exits . This gives the user a small number of each image to see both before and after the event. Furthermore, the user knows reliably if each image was acquired in relation to the time of the event indicated by the trigger signal.

明らかに、この方法の成功は、的確なトリガ信号を生成することができるかどうかによる。この目的のために光検出器を使うことは、当技術分野で周知のことである。例示的な光検出器は、物体の表面の点により反映される、または、物体が通過する可能性のある経路沿いに送信される光の強度に対応する光源と単一光電子センサーを持つ。ユーザーの調整可能な感度閾値は、光検出器の出力信号に電圧を加える上の(または、下の)光強度を確立する。   Obviously, the success of this method depends on whether an accurate trigger signal can be generated. The use of photodetectors for this purpose is well known in the art. An exemplary photodetector has a light source and a single optoelectronic sensor that correspond to the intensity of light reflected by a point on the surface of the object or transmitted along a path through which the object may pass. The user adjustable sensitivity threshold establishes the upper (or lower) light intensity that applies a voltage to the output signal of the photodetector.

それは、しばしば、複数の光検出器がトリガ信号を供給する必要がある例である。たとえば、機械処理が製造ラインの生産離散物体である場合、事象は、部品不足で物体の生産に対応し、一つは、物体が存在する時に検出するもの、もう一つは、部品不足を検出するためのものとして、少なくとも2つの光検出器が必要である。時々、複雑な事象を検出するために2つ以上の検出器が必要である。   That is often the case when multiple photodetectors need to provide a trigger signal. For example, if the machine process is a production discrete object on the production line, the event corresponds to the production of the object due to the lack of parts, one to detect when the object is present, and another to detect the part shortage To do so, at least two photodetectors are required. Sometimes more than one detector is needed to detect complex events.

しかし、トリガ信号の供給に光検出器を使うことには、次のような幾つかの欠点がある。
・一つ以上の点で送信または、反射される光の強度の単純な測定は、事象を検出するためには不十分である場合がある。
・確実に正確な点を見るように、各光検出器の位置を調整するのは難しい。
・測定された点は、機械的な処理の通常操作の間、あちこち移動させてはならない。
・複数の光検出器の必要性は、導入、設定を難しくさせる。
However, the use of the photodetector for supplying the trigger signal has several drawbacks as follows.
A simple measurement of the intensity of light transmitted or reflected at one or more points may not be sufficient to detect an event.
• It is difficult to adjust the position of each photodetector so that you can see exactly the points.
• Measured points should not be moved around during normal operation of mechanical processing.
• The need for multiple photodetectors makes installation and configuration difficult.

トリガ信号の供給に機械視覚システムを使うことは、当技術分野で周知のことである。機械視覚システムは、二次元の視野のデジタル画像を取得でき、画像を分析し、決定することができる装置である。画像は、積分時間、または、シャッター時間と呼ばれる、短時間に、レンズにより配置に焦点される光に対して、感光部材の二次元配置を感光させることにより取得する。その配置は、撮像装置と呼ばれ、個々の要素は、ピクセルと呼ばれる。各ピクセルは、シャッター時間でそれに向かって行く光の強度を測定する。測定された強度値は、デジタル数に変換され、画像形成のための視覚システムのメモリで保存され、それは、決定のための当技術分野で周知の方法を用いて、コンピュータのようなデジタル処理要素で分析される。   The use of machine vision systems to provide trigger signals is well known in the art. A machine vision system is a device that can acquire a digital image of a two-dimensional field of view and analyze and determine the image. The image is acquired by exposing the two-dimensional arrangement of the photosensitive member to light focused on the arrangement by the lens in a short period of time called integration time or shutter time. The arrangement is called an imaging device and the individual elements are called pixels. Each pixel measures the intensity of light going towards it at the shutter time. The measured intensity value is converted to a digital number and stored in the memory of a vision system for imaging, which is a digital processing element such as a computer using methods well known in the art for determination. Is analyzed.

機械視覚システムは、光検出器の限度を避けることができる。一つの機械視覚システムが、多くの光検出器に交換でき、単一点強度測定の代わりに、広範な明るさのパターンの高度な測定を行う。見る位置を調整するには、スクリュードライバーやレンチの代わりにグラフィカル・ユーザー・インターフェイスを使ってすることができ、それらの位置は、それ自身の画像の内容に基づき、各画像を移動させることができる。   Machine vision systems can avoid the limitations of photodetectors. A single machine vision system can be replaced with many photodetectors, making advanced measurements of a wide range of brightness patterns instead of single point intensity measurements. The viewing position can be adjusted using a graphical user interface instead of a screwdriver or wrench, and their position can be moved based on the contents of its own image .

しかし、機械視覚システムには、下記のような固有の欠点がある。
・機械視覚システムは一般に、事象が個々の物体の検査に関係するものであるときにしか一般に適しない。
・機械視覚システムは、遅すぎて短時間しか持続しない事象を検出できないため、不良品のような事象により発生する長期間持続する状態を探さなければいけない。
However, the machine vision system has the following inherent disadvantages.
Machine vision systems are generally only suitable when events are related to the inspection of individual objects.
• Machine vision systems cannot detect events that are too slow and last only for a short time, so we must look for long-lasting conditions caused by events such as defective products.

ここで留意すべきは、機械視覚システムが、トリガ信号を供給するのに使われたとき、それは、高速画像記録装置とは別々のものであることである。それは、検出された事象を含む画像は、見れないし、その装置より取得された画像を分析できない。たとえ、それらの画像が機械視覚システムで利用できるとしても、とてつもなく割合が高く、生産されるので、従来の設計の機械視覚システムより分析されない。   Note that when the machine vision system is used to provide a trigger signal, it is separate from the high speed image recording device. It is not possible to see images containing detected events and to analyze images acquired from the device. Even if those images are available in a machine vision system, they are incredibly high and are produced and are not analyzed by a machine vision system of a conventional design.

視覚検出器の方法と装置は、トリガ事象が起こったことを検出するための従来の技術の光検出器と機械視覚システムの上記に説明される限度を克服することができる、新規の方法とシステムを教える。また、これらの教えは、原型の教えの範囲の下で、改善を導く発明のための材料を提供する。以下の章では、視覚検出器の方法と装置を簡単に要約し、それに続く章では、本発明により扱われた問題を提示する。   A visual detector method and apparatus are novel methods and systems that can overcome the above-described limitations of prior art photodetectors and machine vision systems for detecting when a trigger event has occurred. teach. These teachings also provide materials for inventions that lead to improvements within the scope of the original teachings. The following section briefly summarizes the method and apparatus of the visual detector, and the following sections present the problems addressed by the present invention.

[視覚検出器の方法と装置]
視覚検出器の方法と装置は、検出され、検査された物体が位置し得る二次元の視野のデジタル画像を取得し、画像を分析し、決定することに基づいて、物体の自動光電子工学の検出と検査のためのシステムと方法を供給する。これらのシステムと方法は、広範なエリアから反映した明るさのパターンを分析し、物体の多くの区別できる特徴に対処し、ソフトウェア手段を通して、ライン切り替えを供給し、不確かな利用できる物体の位置に対応する。それらは、従来の技術の機械視覚システムよりもあまり高価ではなく、設定するのがより簡単で、はるかに高速で操作できる。これらのシステムと方法は、更に、物体が動くことの多くの見通しを活用し、トリガなしに操作でき、適切な同期化される出力信号を供給し、当業者に明らかであるほかの重要で役に立つ能力を供給する。
[Visual detector method and apparatus]
A visual detector method and apparatus is based on acquiring a digital image of a two-dimensional field of view where an object to be detected and inspected can be located, analyzing and determining the image, and automatic optoelectronic detection of the object. And supply systems and methods for inspection. These systems and methods analyze brightness patterns reflected from a wide area, address many of the distinguishable features of the object, provide line switching through software means, and place uncertain available object locations. Correspond. They are less expensive than prior art machine vision systems, are easier to set up and can be operated at much faster speeds. These systems and methods also take advantage of the many perspectives of moving objects, operate without triggers, provide appropriate synchronized output signals, and other important and useful features that will be apparent to those skilled in the art. Supply ability.

視覚検出器の方法と装置の一つの態様は、従来の技術の視覚システムよりも高速で一連の画像をを取得し、分析できる、視覚検出器と呼ばれる、装置である。取得され、分析されたこのような一連の画像が、フレームと呼ばれる。動いているものが視野(FOV)を通過した場合、フレームレートと呼ばれる、フレームが取得され、分析される割合が、それが多数の連続フレーム内に見られることが十分に高いと言われる。物体が連続するフレーム間で動いているので、視野で多くの位置に置かれ、それゆえに、照明に関連した多数の視覚の視点と位置から見られる。   One aspect of a visual detector method and apparatus is an apparatus, called a visual detector, that can acquire and analyze a series of images faster than prior art visual systems. Such a series of images acquired and analyzed is called a frame. If what is moving passes through the field of view (FOV), the rate at which a frame is acquired and analyzed, called the frame rate, is said to be high enough that it is seen in a number of consecutive frames. Since the object is moving between successive frames, it is placed in many positions in the field of view, and is therefore seen from a number of visual viewpoints and positions associated with illumination.

視覚検出器の方法と装置のもう一つの態様は、動的画像分析と呼ばれる、物体が視野に位置し、多数のフレームを取得し、分析することにより、フレームのそれぞれから得られる証拠の合成結果を基にすることにより、物体を検査するための方法である。その方法は、単一のフレームを基づいて、決定する従来の技術の機会視覚システムを超える重要な利点を供給する。   Another aspect of the visual detector method and apparatus is called dynamic image analysis, where the object is in the field of view and multiple frames are acquired and analyzed, resulting in a composite of evidence obtained from each of the frames. Is a method for inspecting an object based on The method provides significant advantages over prior art opportunity visual systems that determine based on a single frame.

更に、視覚検出器の方法と装置のもう一つの態様は、視覚事象検出と呼ばれる、視野で起こる可能性のある事象を検出するための方法である。事象は、視野を通過する物体であり、視覚事象検出を使うことにより、トリガ信号の必要なしに、物体を検出する。   Further, another aspect of the visual detector method and apparatus is a method for detecting an event that may occur in the field of view, called visual event detection. An event is an object that passes through the field of view and uses visual event detection to detect the object without the need for a trigger signal.

視覚検出器の方法と装置の追加の態様は、そこに示される図の研究と詳細な説明で明らかになるだろう。   Additional aspects of the visual detector method and apparatus will become apparent in the study and detailed description of the figures presented therein.

多数の視点から画像を得るために、検出され、検査される物体が、連続のフレーム間で少なくとも視野の少数の割合で、少なくとも2、3ピクセルで動くことが好ましい。視覚検出器の方法と装置によれば、物体の動きは、フレームにつき、FOVの約1/ 4以下であることが一般に好ましく、例示的な具体例では、たったFOVの5%もしくはそれ以下であることが好ましい。これは、製造処理を遅くするだけでなく、十分な高フレームレートを供給することにより、達成することが好ましい。例のシステムでは、フレームレートは、少なくとも毎秒200フレームで、もう一つの例では、フレームレートは、物体が視覚検出器に出現する平均の割合の少なくとも40倍である。   In order to obtain images from multiple viewpoints, it is preferred that the object to be detected and inspected move at least a few pixels, at least a small fraction of the field of view, between successive frames. According to the method and apparatus of the visual detector, it is generally preferred that the motion of the object be no more than about 1/4 of the FOV per frame, and in an exemplary embodiment is only 5% or less of the FOV. It is preferable. This is preferably achieved not only by slowing down the manufacturing process, but also by providing a sufficiently high frame rate. In the example system, the frame rate is at least 200 frames per second, and in another example, the frame rate is at least 40 times the average rate at which objects appear in the visual detector.

例示的なシステムは、毎秒500フレームまで取得し、分析できるように教えられている。このシステムは、従来の技術の視覚システムよりもはるかに少ないピクセルを持つ、超敏感な撮像装置を利用している。高感度は、低価なLEDを用いて、とても短いシャッター時間を可能にし、それは、それぞれ少数のピクセルの合成でとても短い取得時間を可能にする。撮像装置は、分析操作で動的にピクセルデータを受取り、保存できる、デジタル・シグナル・プロセッサ(DSP)へ接続する。そこで教えられ、DSPのための適応するソフトウェアを用い、実行された方法を使い、一般に各フレームを分析する時間は、次のフレームを取得するのに必要とされる時間内で保持することができる。取得と分析の方法と装置は、好ましい高フレームレートを供給するために合成される。本発明の物体を用い、撮像装置、DSPと照明のの能力を注意深く一致させることにより、例示的なシステムは、従来の技術の機械視覚システムよりも著しく低価にすることができる。   The exemplary system is taught to acquire and analyze up to 500 frames per second. This system utilizes an ultra-sensitive imaging device with much fewer pixels than prior art vision systems. High sensitivity allows for very short shutter times using low cost LEDs, which in turn allows very short acquisition times with the synthesis of a small number of pixels. The imaging device connects to a digital signal processor (DSP) that can receive and store pixel data dynamically in analytical operations. The time to analyze each frame is taught within the time required to acquire the next frame, generally using the method implemented using the adapted software for the DSP and executed. . Acquisition and analysis methods and devices are combined to provide the preferred high frame rate. Using the objects of the present invention and carefully matching the capabilities of the imaging device, DSP and illumination, the exemplary system can be significantly less expensive than prior art machine vision systems.

視覚事象検出の方法は、連続フレームを取得し、事象が起こっている、もしくは、起こった証拠を決定するために各フレームを分析することを含む。視覚事象検出がトリガ信号の必要なしに、物体を検出するのに使われた場合、分析は、物体が視野に位置している証拠を決定する。   The method of visual event detection involves taking successive frames and analyzing each frame to determine the evidence that an event has occurred or has occurred. If visual event detection is used to detect an object without the need for a trigger signal, the analysis determines evidence that the object is located in the field of view.

例示的な方法では、証拠は、物体検出加重と称する、物体が視野に位置している信頼度のレベルを示す値の形式である。その値は、信頼度のレベルの範囲、または、証拠を導く情報のいくつかの項目を示す数で、高いまたは、低い信頼度を示す、単にはい/いいえの選択であってもよい。このような数の例の一つとして、そこに更に説明された、いわゆるファジー論理値である。ここで留意すべきは、機械は、画像から完璧な決定をすることができないので、不完全な証拠に基づいて判断をすることになる。   In the exemplary method, the evidence is in the form of a value that indicates the level of confidence that the object is located in the field of view, referred to as object detection weight. The value may be a range of confidence levels, or a number indicating some item of information leading to evidence, simply a yes / no choice indicating high or low confidence. One example of such a number is the so-called fuzzy logic value further described there. It should be noted that the machine cannot make a perfect decision from the image and will make a judgment based on incomplete evidence.

物体検出を実行する場合、各フレームは、物体が視野に位置しているということを十分に示す証拠があるかどうかを決定するために試験される。単にはい/いいえの値が使われた場合、その値が「はい」であれば、証拠は、十分であると見なされ得る。数が使われた場合、充足は、閾値までの数を比較することにより決定されてよい。証拠が十分であるフレームは、有効フレームと称する。ここで留意すべきは、手元にある特定のアプリケーションの理解に基づいて、視覚検出器を設定する人間のユーザーによって結局のところは定義されたもので十分な証拠は、構成されていることである。視覚検出器は、自動的にその決定をする定義に適応する。   When performing object detection, each frame is tested to determine if there is sufficient evidence that the object is in the field of view. If simply a yes / no value is used, the evidence can be considered sufficient if the value is “yes”. If numbers are used, sufficiency may be determined by comparing numbers up to a threshold. A frame with sufficient evidence is called a valid frame. It should be noted here that, based on an understanding of the specific application at hand, what is ultimately defined by the human user setting up the visual detector is sufficient evidence to be composed. . The visual detector adapts to the definition to make that decision automatically.

物体検出を実行する場合、視野を通過した各物体は、視覚検出器の高フレームレートによって、多数の有効フレームを生成する。しかし、いくつかの視点または、ほかの状態であり得る、視野を物体が通過するために、これらのフレームは、事象が視野に位置している証拠は十分でないので、正確には連続ではない場合がある。したがって、有効フレームが見つかった場合、物体の検出を始め、多くの連続する無効フレームが見つかるまで終了しないことが好ましい。この数は、ユーザーにより適切に選択される。   When performing object detection, each object that passes through the field of view generates a number of useful frames due to the high frame rate of the visual detector. However, if an object passes through the field of view, which may be in several viewpoints or other states, these frames are not exactly continuous because there is not enough evidence that the event is in the field of view. There is. Therefore, when a valid frame is found, it is preferable not to end the object detection until many consecutive invalid frames are found. This number is appropriately selected by the user.

有効フレームのセットが視野を通過する物体に対応することができるということがわかると、物体が実際に検出されたかどうかを決定するためにさらなる分析を実行することが好ましい。このさらなる分析は、有効フレームの数、物体検出加重の合計、平均物体検出加重、および、同等のものを含む、有効フレームの統計を考慮することができる。   Once it is found that the set of valid frames can correspond to an object passing through the field of view, it is preferable to perform further analysis to determine whether the object was actually detected. This further analysis can take into account valid frame statistics, including the number of valid frames, the sum of object detection weights, average object detection weights, and the like.

動的画像分析の方法は、物体を検査するための多数のフレームを取得し、分析することを含み、「検査」は、物体の状態についての情報を決定することを意味する。この方法の一つの例では、物体の状態は、ユーザーにより必要に応じて選ばれた検査基準をその物体が満たすかどうかを含む。   The method of dynamic image analysis includes acquiring and analyzing multiple frames for inspecting an object, and “inspecting” means determining information about the state of the object. In one example of this method, the condition of the object includes whether the object meets the inspection criteria selected as needed by the user.

視覚検出器の方法と装置の態様では、視覚事象検出方法により選ばれた有効フレームは、物体を検査するために動的画像分析方法により使われたものであるので、動的画像分析は、視覚事象検出と組み合わされる。視覚検出器の方法と装置のその他の態様では、動的画像分析により使われたフレームは、トリガ信号に応答することで取得することができる。   In an aspect of the visual detector method and apparatus, the effective frame selected by the visual event detection method is that used by the dynamic image analysis method to inspect the object, so dynamic image analysis is visual. Combined with event detection. In other aspects of the visual detector method and apparatus, the frame used by dynamic image analysis can be obtained in response to a trigger signal.

このような各フレームは、物体が検査基準を満たす証拠を決定するために分析される。一つの例示的な方法では、物体合格スコアと称する、物体が検査基準を満たす信頼のレベルを示す値の形式である。物体の検出加重と同様に、その値は、高い、または、低い信頼度や、信頼度のレベルの範囲や証拠を導く情報のいくつかの項目を示すファジー論理値のような数を示す、単にはい/いいえの選択であってよい。   Each such frame is analyzed to determine evidence that the object meets the inspection criteria. In one exemplary method, in the form of a value that indicates the level of confidence that the object meets the inspection criteria, referred to as the object pass score. Like object detection weights, its value simply indicates a number such as a high or low confidence, a range of confidence levels, or a fuzzy logic value indicating some item of information leading to evidence, Yes / no choice.

物体の状態は、物体合格スコアの平均または、百分率のような、物体合格スコアの統計から決定されてよい。また、状態は、物体決定加重を用い、加重平均または、加重百分率のような、加重統計により決定されてもよい。加重統計は、その信頼が、物体が実際にそのフレームの視野に位置していることが高いことを特徴とする、フレームから更に重要な証拠として重きをおく。   The state of the object may be determined from an object pass score statistic, such as an average or percentage of the object pass score. The state may also be determined by weighted statistics, such as weighted average or weighted percentage, using object determination weights. Weighted statistics weight as more important evidence from the frame, characterized by its confidence being high that the object is actually located in the field of view of the frame.

物体の検出と検査の証拠は、物体の一つ以上の可視特徴についての情報のためのフレームを検査することによって得られる。可視特徴は、放射光の量、パターン、または、その他の特徴が、物体の出現、独自性、状態についての情報を伝達する、その物体の一部分である。光は、物体の外部または内部の情報源の反映、伝達、または、屈折、または、物体の内部の情報源であることを含むが、それらに限らない、いくつかの処理または、処理の組み合わせにより、放射される。   Evidence for object detection and inspection is obtained by inspecting a frame for information about one or more visible features of the object. A visible feature is a portion of an object where the amount, pattern, or other feature of the emitted light conveys information about the appearance, uniqueness, and state of the object. The light may be reflected, transmitted, or refracted from a source outside or inside the object, or may be a source inside the object, but not limited to some process or combination of processes. Radiated.

視覚検出器の方法と操作の一つの態様は、物体検出加重と物体合格スコアを含み、それに対し、証拠が必要とされる各フレームの一つ以上の関心領域で画像分析操作により、証拠を得る方法である。この方法の一つの例では、画像分析操作は、関心領域でピクセル値に基づいて測定を算定し、その測定は、物体の可視特徴の適切な特徴に応答するものである。測定は、閾値操作による論理値に転換され、関心領域から得られた論理値は、フレームの証拠を形成するために組み合わされる。論理値は、必要に応じて、二元またはファジーの閾値と論理結合を使う、二元、またはファジー論理値である。   One aspect of the method and operation of the visual detector includes object detection weights and object pass scores, whereas the evidence is obtained by image analysis operations in one or more regions of interest in each frame where evidence is required. Is the method. In one example of this method, the image analysis operation calculates a measurement based on pixel values in the region of interest, and the measurement is responsive to an appropriate feature of the visible feature of the object. The measurements are converted to logical values by threshold manipulation, and the logical values obtained from the region of interest are combined to form frame evidence. A logical value is a binary or fuzzy logical value that uses a binary or fuzzy threshold and logical combination as required.

視覚事象検出のため、物体が視野に位置していることの証拠が関心領域、測定、閾値、論理合成、および、他のここに更に説明されたパラメータにより、有効に定義され、それは、まとめて視覚検出器の設定と呼ばれ、本発明の与えられたアプリケーションのために必要に応じて、ユーザーにより選ばれる。同様に、視覚検出器の設定は、十分な証拠を構成するものとして定義される。   For visual event detection, evidence that the object is located in the field of view is effectively defined by the region of interest, measurement, threshold, logic synthesis, and other parameters further described herein, which are collectively This is called the vision detector setting and is chosen by the user as needed for a given application of the present invention. Similarly, visual detector settings are defined as constituting sufficient evidence.

動的画像分析のために、物体が検査基準を満たす証拠はまた、視覚検出器の設定により、有効に定義される。   For dynamic image analysis, evidence that an object meets the inspection criteria is also effectively defined by the settings of the visual detector.

[問題点の検討]
高速事象検出、動作分析、画像記録のためのトリガを供給する光検出器と機械視覚システムの与えられた限度は、高速視覚事象検出を供給することにより、および、それを高速画像記録と統合することにより、トリガ信号の必要性を避ける方法とシステムの改善が必要である。
[Examination of problems]
The given limits of photodetectors and machine vision systems that provide triggers for fast event detection, motion analysis, and image recording integrate it with fast image recording by providing fast visual event detection Thus, there is a need for improved methods and systems that avoid the need for trigger signals.

視覚検出器の方法と装置は、動作分析で使うための画像記録で統合を学ばせないで、ほかの利点で、高速視覚事象検出を供給する新規の画像分析の方法とシステムを学ばせる。従って、事象の自動視覚検出、記録、検索のための新規の役に立つ方法とシステムを達成するための好ましい画像記録と表示能力を用い、好ましい要素と視覚検出器の方法と装置の設定を組み合わせた方法とシステムの改善が必要である。   The visual detector method and apparatus do not learn integration with image recording for use in motion analysis, but with other advantages, new image analysis methods and systems that provide fast visual event detection. Thus, using preferred image recording and display capabilities to achieve a new and useful method and system for automatic visual detection, recording and retrieval of events, a method combining preferred elements and visual detector methods and device settings. And the system needs to be improved.

更に、視覚検出器の方法と装置は、視野を通過する個々の物体に対応する事象を検出することを主として、視覚事象検出の実例となる具体例を供給する。これらの教授は、ほかの事象タイプを検出するのに使用できることは当業者には明らかであろうが、そこに教えられない改善はまた、このような事象を検出するのに役立つことができる。従って、さまざまな事象を検出するのにその実用性を改善するために視覚事象検出の教授を広げる必要がある。   In addition, the visual detector methods and apparatus provide illustrative examples of visual event detection primarily for detecting events corresponding to individual objects passing through the field of view. It will be apparent to those skilled in the art that these professors can be used to detect other event types, but improvements not taught therein can also help detect such events. Therefore, there is a need to broaden the visual event detection professor to improve its utility for detecting various events.

[発明の概要]
本発明により、事象の自動視覚検出、記録および検索のための方法およびシステムが提供される。本明細書では、
・「事象」とは、視覚手段により検出できる、撮像装置の視野内の一部の時間変化条件の中の特定条件を指す。
・「自動視覚検出」とは、前記撮像装置により取得された画像の内容を基本にして、人間の介入または外部のトリガ信号を必要とせずに事象が検出されることを意味する。
・「記録」とは、前記事象がメモリに保管される前、保管される間、および/または保管された後に対応する画像を意味する。
・「検索」とは、これらの画像が、人間のユーザーのための表示などの目的のために検索され、さらに、画像分析システムによりさらに自動分析されることを意味する。
[Summary of Invention]
The present invention provides a method and system for automatic visual detection, recording and retrieval of events. In this specification:
“Event” refers to a specific condition among some time-varying conditions within the field of view of the imaging device that can be detected by visual means.
“Automatic visual detection” means that an event is detected based on the content of the image acquired by the imaging device without requiring human intervention or an external trigger signal.
“Recording” means the corresponding image before, during and / or after the event is stored in memory.
“Search” means that these images are searched for purposes such as display for human users and further automatically analyzed by an image analysis system.

本明細書において開示される方法およびシステムは、事象が発生したことを外部機器に発信する、および事象がいつ発生したかを示す同期出力パルスを提供するなど、しかしこれらに限定されない任意の目的のために、事象の自動視覚検出に有用である。機械的処理の高速運動分析にさらに有用であり、短時間のまれな事象の画像用のその他任意の応用が望ましい。   The methods and systems disclosed herein may be used for any purpose such as, but not limited to, sending an external device that an event has occurred, and providing a synchronized output pulse that indicates when the event has occurred. Therefore, it is useful for automatic visual detection of events. It is more useful for high speed motion analysis of mechanical processing, and any other application for short rare event imaging is desirable.

本発明の開示に従い、ビジョン検出器またはその他の適切なデバイスは、一部の特別な条件に対応するイベントが発生することのある機械的処理などのように、その視野が一部の時間変化条件を含むように配置され、事象を検出するように構成される。前記ビジョン検出器は、各フレームが視野の画像である、一連のフレームを取得する。さらに、視覚検出器の方法と装置で開示された方法およびシステムなど、しかしこれらに限定されない任意のさまざまな方法およびシステムを使用して、以下でさらに詳細が明らかになるように、視野で事象が発生したという証拠を取得するために前記フレームを分析する。   In accordance with the disclosure of the present invention, a vision detector or other suitable device may have a time-varying condition that has a field of view such as a mechanical process in which an event corresponding to some special condition may occur. And configured to detect an event. The vision detector acquires a series of frames, each frame being an image of the field of view. Further, using any of a variety of methods and systems, such as, but not limited to, those disclosed in the methods and apparatus of visual detectors, events in the field of view can be seen in more detail below. The frame is analyzed to obtain evidence that it has occurred.

事象が発生すると、分析は、事象が発生したという十分な証拠を明らかにする「事象フレーム」のセットを識別する。セットは、事象フレームを1個だけ含むこともあるが、複数の事象フレームを含むこともある。本明細書で開示される例示的実施形態では、事象フレームは一連のフレームで連続しているが、事象フレームが完全に連続していない場合も、本発明の範囲内において実施例を考案することは容易である。   When an event occurs, the analysis identifies a set of “event frames” that reveal sufficient evidence that the event has occurred. A set may contain only one event frame, but may also contain multiple event frames. In the exemplary embodiment disclosed herein, an event frame is continuous in a series of frames, but an embodiment may be devised within the scope of the present invention even if the event frames are not completely continuous. Is easy.

次の例を考慮する。検出される事象は、許容範囲外で移動している運動機械構成要素に対応する。ビジョン検出器は、許容範囲外の視野の領域である、誤差範囲の構成要素を検出するように構成される。一部の機械サイクルでは、構成要素は3個の連続フレームの間、誤差範囲を通過運動すると想定する。さらに、フレームの分析により、構成要素が第一番目と第三番目のフレームで誤差範囲にあることを示す証拠は強く、構成要素が第二番目のフレームで誤差範囲にあることを示す証拠は弱いことが明らかになると想定する。これは、第二番目のフレームの照明に対する構成要素の視点または位置が、構成要素が見えにくい視点または位置であるために発生することがある。また、分析により、構成要素は、3個の重要なフレームの前後で、多数のフレームがその範囲にあったとは考えにくいことも明らかにする。   Consider the following example: The detected event corresponds to a kinematic machine component moving out of tolerance. The vision detector is configured to detect an error range component, which is an area of the field of view outside the acceptable range. In some machine cycles, it is assumed that the component moves through the error range for three consecutive frames. In addition, analysis of the frame shows strong evidence that the component is in error range in the first and third frames, and weak evidence that the component is in error range in the second frame. I assume that it becomes clear. This may occur because the viewpoint or position of the component relative to the illumination of the second frame is a viewpoint or position where the component is difficult to see. The analysis also reveals that the component is unlikely to have many frames in its range before and after three important frames.

事象フレームのセットは、第一番目のフレームが前記事象が発生していることを強く示す証拠を明らかにしたときに開始し、以降のフレームが前記事象が継続していることを示す証拠がないときに第三番目のフレームで終了した。第一番目と第三番目のフレームを合わせた肯定的な証拠と、第二番目のフレームの弱い証拠は、事象が発生したと結論づけるに十分であると判断される。この例では、3個のフレームが事象フレームである。   The set of event frames begins when the first frame reveals evidence that the event has occurred, and subsequent frames show evidence that the event continues Finished in the third frame when there is no. The positive evidence that combines the first and third frames and the weak evidence of the second frame are considered sufficient to conclude that the event has occurred. In this example, three frames are event frames.

一部の実施例では、第二番目のフレームは事象フレームとは見なされない。第二番目のフレームを事象フレームであると考えるかどうかの選択は、本発明の範囲内ではどちらにも考えることができる。本明細書に開示された例示的実施形態では、事象フレームは連続的であり、第二番目のフレームを含むと考える。   In some embodiments, the second frame is not considered an event frame. The choice of whether to consider the second frame as an event frame can be considered either within the scope of the present invention. In the exemplary embodiment disclosed herein, an event frame is considered continuous and includes a second frame.

証拠が事象が発生したと決定するために十分であると判断されると、複数の選択されたフレームが一連のフレームから選ばれて、メモリに記録される。フレームは、事象フレーム、または、後述するように計算される記録時間に対する一連のフレームの中の位置に応じて、記録されるために選択される。事象フレーム自体が記録されることもあるが、一連のフレームの中の事象フレームの前のフレームが記録されることもある。また、一連のフレームの中の事象フレームの後のフレームが記録されることもある。例示的実施形態では、記録時間に対してユーザーが指定した時間間隔内で取得されたフレームが記録される。別の例示的実施形態では、事象フレームと事象フレームの直前および直後の連続フレームなど、予め決定された数のフレームが記録される。   If the evidence is determined to be sufficient to determine that an event has occurred, a plurality of selected frames are selected from a series of frames and recorded in memory. The frame is selected for recording depending on the event frame or the position in the series of frames relative to the recording time calculated as described below. The event frame itself may be recorded, but the frame before the event frame in the series of frames may be recorded. In addition, a frame after an event frame in a series of frames may be recorded. In an exemplary embodiment, frames acquired within a time interval specified by the user for the recording time are recorded. In another exemplary embodiment, a predetermined number of frames are recorded, such as an event frame and consecutive frames immediately before and immediately after the event frame.

これらの保管された選択フレームからのフレームが、コマンドに応答して検索され、コマンドを発行するために、グラフィカルユーザーインターフェイスを使用している人間のユーザーのための表示、さらに、コマンドを発行している画像分析システムによりさらに自動化された画像分析など、さまざまな目的のために使用される。   Frames from these stored selection frames are retrieved in response to commands, display for human users using a graphical user interface to issue commands, and even issue commands Used for various purposes, such as further automated image analysis by existing image analysis systems.

フレームが人間のユーザーのために表示される実施例では、一般的には一度にいくつかのフレームを表示することが望ましいが、典型的にはユーザーが各画像で有用な詳細を見るために十分なディスプレイ解像度で記録した画像を一度にすべて表示することは実用的ではない。本発明に従い、記録されたフレームの一部が一度に表示される。ユーザーは、表示される部分を前後に移動するスクロールコマンドを発行することにより、表示される部分を選択する。一度に表示される部分は、数個のフレームを含むことが好ましいが、最低1つのフレームを含むことができる。   In embodiments where frames are displayed for a human user, it is generally desirable to display several frames at a time, but typically enough for the user to see useful details in each image. It is impractical to display all images recorded at a different display resolution at once. In accordance with the present invention, a portion of the recorded frame is displayed at once. The user selects a displayed part by issuing a scroll command for moving the displayed part back and forth. The portion displayed at a time preferably includes several frames, but can include at least one frame.

例示的実施形態として、フレームはグラフィカルユーザーインターフェイス(GUI)を使用して表示される。一度に表示されるフレーム部分は、GUIの「映写スライドウィンドウ」に含まれており、低解像度の連続した「サムネイル」画像としてフレーム部分を表示する。サムネイル画像の解像度は、有用な数の画像を一度に見ることができるに十分な低解像度にも、各画像の詳細を見ることができる高解像度にも選択される。スクロールコマンドは、従来のGUI要素により提供される。   In an exemplary embodiment, the frame is displayed using a graphical user interface (GUI). The frame portion displayed at once is included in the “projection slide window” of the GUI, and the frame portion is displayed as a continuous “thumbnail” image with low resolution. The resolution of the thumbnail images is chosen to be low enough to see a useful number of images at once, or high enough to see the details of each image. The scroll command is provided by a conventional GUI element.

この例示的実施例は、さらに、画像表示ウィンドウにおいて、完全な解像度で前記フレーム部分の1個のフレームを表示する。スクロールコマンドにより映写スライドを前後に移動すると、画像表示ウィンドウに表示されるフレームも前後に移動する。   This exemplary embodiment further displays one frame of the frame portion at full resolution in an image display window. When the projection slide is moved back and forth by the scroll command, the frame displayed in the image display window is also moved back and forth.

例示的実施例では、視野において事象が発生したという証拠は、事象が発生しているまたは発生した信用レベルを示す、「事象検出加重」と呼ばれる値の形で各フレームに取得される。前記値は、信用レベルの高低を示す簡単なはい/いいえの選択、信用レベルの範囲を示す数字、または証拠を伝達する情報の任意の項目のことがある。このような数の一例は、ファジー論理値と呼ばれるもので、詳細は後述される。画像から完璧な決定を下すことができる機械はないので、不完全な証拠を基本にして決定することになる。   In an exemplary embodiment, evidence that an event has occurred in the field of view is obtained in each frame in the form of a value called “event detection weight” that indicates the level of confidence that the event has occurred or has occurred. The value may be a simple yes / no selection indicating a high or low trust level, a number indicating a range of trust levels, or any item of information conveying evidence. An example of such a number is called a fuzzy logic value and will be described in detail later. There is no machine that can make perfect decisions from images, so decisions are based on incomplete evidence.

事象検出加重は、フレームの1つ以上の対象領域上の画像分析演算により、各フレームに対して取得される。例示的実施形態では、各画像分析演算は、対象領域のピクセル値を基本にして測定を計算するが、測定は領域の光量、パターン、またはその他の特徴に対応する。測定は、閾値演算により論理値に変換され、対象領域から取得された論理値は、フレームの事象検出加重を計算するために組み合わされる。論理値は、バイナリまたはファジー論理値で、閾値と論理の組み合わせは必要に応じてバイナリまたはファジーである。   Event detection weights are obtained for each frame by image analysis operations on one or more target regions of the frame. In an exemplary embodiment, each image analysis operation calculates a measurement based on the pixel value of the region of interest, where the measurement corresponds to the amount of light, pattern, or other feature of the region. The measurement is converted to a logical value by a threshold operation, and the logical value obtained from the target region is combined to calculate the event detection weight of the frame. The logical value is a binary or fuzzy logical value, and the combination of threshold and logic is binary or fuzzy as required.

例示的実施例では、以下の場合の事象フレームは連続フレームのセットである。
・セットの最初と最後のフレームの事象検出加重が閾値を超える場合。
・最後のフレームの後に、事象検出加重が閾値を超えないフレームが少なくとも一部の決定済みの個数だけある場合。
・フレームセットの事象検出加重が一部の決定済み条件を満足する場合。
In the exemplary embodiment, the event frame in the following cases is a set of consecutive frames.
-The event detection weight of the first and last frame of the set exceeds the threshold.
-After the last frame, there are at least some determined number of frames whose event detection weight does not exceed the threshold.
-The event detection weight of the frame set satisfies some determined conditions.

この目的のために、任意の適切な条件を定義してもよいが、条件は下記のものに限定される:
・セットにあるフレームの個数、
・平均事象検出加重、
・事象検出加重合計、
・事象検出加重の中央値、
・事象検出加重が閾値を超える、セットにあるフレームの個数またはフレームの割合。
For this purpose, any suitable conditions may be defined, but the conditions are limited to:
The number of frames in the set,
・ Average event detection weight,
-Event detection weighted sum,
Median event detection weight,
The number of frames or the percentage of frames in the set whose event detection weight exceeds the threshold.

本発明により記録されるフレームは、取得された時間でスタンプされることが望ましい。事象の詳細調査を可能にするために、タイムスタンプは、例えば、時刻ではなく、事象自体の発生時間に相対的にタイムスタンプすることが最も有用である。事象フレームは事象の全体的な時間範囲を定義するが、特定時間は定義しない。事象の特定の有効な時間を取得するには、視覚検出器の方法と装置で開示されたようにマークタイプを使用することがある。開示されているように、記録時間は、物体が一部の架空の固定基準点を交差する時間であり、開示に従い正確に計算できる。   The frame recorded according to the present invention is preferably stamped at the acquired time. In order to allow detailed investigation of the event, it is most useful, for example, to time stamp relative to the time of occurrence of the event itself, rather than the time of day. An event frame defines the overall time range of an event, but not a specific time. To obtain a specific effective time of an event, a mark type may be used as disclosed in the visual detector method and apparatus. As disclosed, the recording time is the time at which the object crosses some imaginary fixed reference point and can be accurately calculated according to the disclosure.

しかしながら、すべての事象が基準点を交差する物体に対応するわけではない。例えば、事象は、視野で機械構成要素が前後に移動するストローク動作に対応することがある。このような場合、記録時間は、通常、基準点の交差ではなく、ストロークの頂点として定義することがより有用になる。基準点の周囲の動作は、フロー事象と呼ばれ、前後の動作はストローク事象と呼ばれる。本発明は、フローとストローク事象のいずれかを選択するための方法およびシステム、および、ストローク事象の記録時間を計算するための方法およびシステムを含む(フロー事象のための記録時間は視覚検出器の方法と装置で開示された)。   However, not all events correspond to objects that cross a reference point. For example, an event may correspond to a stroke motion in which a machine component moves back and forth in the field of view. In such a case, it is usually more useful to define the recording time as a stroke vertex rather than an intersection of reference points. The movement around the reference point is called a flow event, and the previous and subsequent movements are called stroke events. The present invention includes a method and system for selecting either a flow or stroke event, and a method and system for calculating the recording time of a stroke event (the recording time for a flow event is determined by a visual detector). Disclosed in the method and apparatus).

本発明による事象検出は、視覚検出器の方法と装置で開示された視覚事象検出の例であり、「視覚事象検出の方法は連続したフレームの取得と事象が発生するまたは発生した証拠を決定するための各フレームの分析に関与する」と説明される。本明細書で開示されるように、視覚事象検出は、主に、検出される事象が視野を通過する別々の物体に対応して、一般的に物体を点検することが好ましい実施例に対して向けられる。読み手は、本明細書に開示される物体検出加重と物体通過スコア、および、本発明で使用される事象検出加重の間に非常な類似性があることに気づくであろう。確かに、物体検出加重または物体通過スコアを取得するために本明細書に開示された任意の方法または装置は、事象検出加重を取得するために使用できる。唯一の違いは、これらの加重やスコアが取得されるやり方ではなく、使用される目的である。   Event detection according to the present invention is an example of visual event detection disclosed in the method and apparatus of a visual detector. “The method of visual event detection determines the acquisition of successive frames and the evidence that an event has occurred or has occurred. To be involved in the analysis of each frame for ". As disclosed herein, visual event detection is primarily for embodiments in which it is generally preferred to inspect an object, with the detected event corresponding to a separate object passing through the field of view. Directed. The reader will notice that there is a great similarity between the object detection weight and object passage score disclosed herein and the event detection weight used in the present invention. Indeed, any method or apparatus disclosed herein for obtaining object detection weights or object passage scores can be used to obtain event detection weights. The only difference is the way in which these weights and scores are used, not how they are obtained.

さらに、物体が視野を通過したことを検出、またはさらに具体的には、不良物体が視野を通過したことを検出することは、本発明に従い事象を検出、記録および検索するために望ましいことがある事象の例である。確かに、視野を通過する物体を検出することと、上記の例のように誤差範囲に入る機械構成要素を検出することにはほとんど違いはない。このように、視覚検出器の方法と装置の開示は、一般的に本発明の例示的実施形態と考えることができ、記録および検索方法およびシステム、および改善された事象検出方法およびシステムは本明細書の開示により追加される。   Furthermore, detecting that an object has passed through the field of view, or more specifically, detecting that a bad object has passed through the field of view, may be desirable for detecting, recording and retrieving events in accordance with the present invention. It is an example of an event. Certainly, there is little difference between detecting an object passing through the field of view and detecting a machine component that falls within the error range as in the above example. Thus, the disclosure of a visual detector method and apparatus can generally be considered an exemplary embodiment of the present invention, and a recording and retrieval method and system, and an improved event detection method and system are described herein. Added by disclosure of the certificate.

本発明は、添付の図面と併せて詳細な説明を読むことで明らかになるであろう。   The present invention will become apparent upon reading the detailed description in conjunction with the accompanying drawings.

本発明による視覚事象の検出、記録および検索のためのシステムの説明的実施例を示す。この場合、事象は製造ラインを移動する物体の不良ラベルの適用に相当する。1 illustrates an illustrative embodiment of a system for detection, recording and retrieval of visual events according to the present invention. In this case, the event corresponds to the application of a defective label of an object moving on the production line. 本発明による事象を検出するシステムのための典型的な操作サイクルを説明するタイムラインを示す。2 shows a timeline illustrating a typical operating cycle for a system for detecting events according to the present invention. 例示的実施形態により実施される分析手順を説明するフローチャートを示す。6 shows a flowchart illustrating an analysis procedure performed by an exemplary embodiment. 例示的実施形態において、視覚事象検出のために証拠がどのように加重されるかを示す。In an exemplary embodiment, it is shown how evidence is weighted for visual event detection. 例示的実施形態において事象検出のために収集されて使用されるデータを示す。Fig. 4 illustrates data collected and used for event detection in an exemplary embodiment. 本発明によるシステムの概要図を示す。1 shows a schematic diagram of a system according to the invention. 本発明によるシステムの一部として使用できるビジョン検出器の説明的実施例のブロック図を示す。FIG. 2 shows a block diagram of an illustrative embodiment of a vision detector that can be used as part of a system according to the present invention. 例示的実施形態において、物体が存在するかどうか、検査に合格するかどうかの判断など、証拠を加重して決定するために使用されるファジー論理要素を示す。In an exemplary embodiment, fuzzy logic elements used to weight and determine evidence, such as determining whether an object is present and whether to pass an inspection, are shown. 例示的実施形態により、フレームを分析し、決定し、入力を感知し、出力信号を制御するために使用されるソフトウェア要素(例えば、コンピュータ読み込み可能媒体のプログラム命令)のセットの組織を示す。FIG. 4 illustrates an organization of a set of software elements (eg, computer readable medium program instructions) used to analyze, determine, sense input, and control output signals, according to an exemplary embodiment. 視覚事象検出の例示的実施形態をさらに説明するために使用される、事象検出パラメータのユーザー設定のためのHMI部分を示す。FIG. 6 illustrates an HMI portion for user settings of event detection parameters used to further describe an exemplary embodiment of visual event detection. FIG. ある物体例に誤って適用されたラベルを検出するために使用されることがある、ビジョン検出器の設定例の一部を示す。FIG. 5 shows a portion of an example vision detector setup that may be used to detect a label that is incorrectly applied to an example object. 図11の例のセットアップに対応する設定の別の部分を示す。FIG. 12 shows another part of the setting corresponding to the setup of the example of FIG. ラベル適用アームに対して誤った位置にある物体例を検出するために使用されることがある、ビジョン検出器の設定例の一部を示す。Fig. 4 illustrates a portion of an example vision detector setup that may be used to detect an example object in the wrong position relative to a label application arm. 図13のセットアップ例に対応する設定の別の部分を示す。14 shows another part of the setting corresponding to the setup example of FIG. 製造サイクルで、伸び不足または伸び過ぎのラベル適用アームを検出するために使用されることがある、ビジョン検出器の設定例の一部を示す。FIG. 6 illustrates a portion of an example vision detector configuration that may be used to detect under-stretched or over-stretched label application arms in a manufacturing cycle. 図15のセットアップ例の伸び不足または伸び過ぎのアームを検出するためにどのように証拠を加重するかを示す。FIG. 16 illustrates how evidence is weighted to detect under-extended or over-extended arms in the example setup of FIG. 連続ウェブの欠陥に対応する事象を検出するために本発明を設定する1つの方法を示す。1 illustrates one way to set up the present invention to detect events corresponding to continuous web defects. 出力信号を事象の発生時間にどのように同期するかを説明するために使用されるタイミング図を示す。FIG. 4 shows a timing diagram used to describe how the output signal is synchronized to the time of occurrence of an event. ストローク事象の場合に記録時間がどのように計算されるかを示す。It shows how the recording time is calculated in the case of a stroke event. 出力信号のユーザー設定のためのHMIの部分を示す。An HMI part for user setting of an output signal is shown. 検出された事象の画像を記録するためのメモリ配列を示す。Fig. 4 shows a memory array for recording an image of detected events. 映写スライドウィンドウと画像表示ウィンドウを含み、事象に対応して記録され検索された画像を表示するグラフィカルユーザーインターフェイスの一部を示す。FIG. 2 shows a portion of a graphical user interface that includes a projected slide window and an image display window and displays images recorded and retrieved in response to an event.

[本発明の基本動作]
図1は、生産ラインで発生することがある一定の事象を検出して、事象の画像を記録および検索するように設定されるビジョン検出器の例示的実施形態を示す。コンベア1 00は、物体例110、112、114、116および118などの物体を運搬し、物体112のラベル120のように、各物体にラベルを貼る動作をするラベル貼り機械160を左から右に通過する。ラベル貼り機械160は、各ラベルを各物体に貼り付けるように動作する運動アーム162を含む。ラベル貼り機械160とアーム16 2は、本発明を説明する目的で示されており、必ずしも工業生産においてラベルを貼るために使用される任意の特定の機械を示すものではない。
[Basic operation of the present invention]
FIG. 1 illustrates an exemplary embodiment of a vision detector configured to detect certain events that may occur on a production line and to record and retrieve an image of the events. The conveyor 100 conveys objects such as the object examples 110, 112, 114, 116 and 118, and from the left to the right, a labeling machine 160 which operates to apply a label to each object, such as the label 120 of the object 112. pass. The labeling machine 160 includes a motion arm 162 that operates to apply each label to each object. The labeling machine 160 and arm 162 are shown for purposes of illustrating the present invention and do not necessarily represent any particular machine used for labeling in industrial production.

ラベル貼り機械160は、ときには誤動作することがあり、例えば、物体116の表面で右下角が曲がっているように、誤って貼られたラベル122が発生する。多くの工業生産ラインは、光検出器、マシンビジョンシステム、またはビジョン検出器のように、不良品116を検出して不合格にするために、ある形式の自動光電気検出を使用する。このような検査は、不良品が消費者に届けられることを防ぐことにおいて価値があるが、そもそも不良品が製造されることを防ぐためには役立たない。本発明の1つの目的は、不良品が実際に作成されていることを示す画像を提供することにより、製造技術者が不良品の原因を診断して修正することを支援することである。   The labeling machine 160 sometimes malfunctions, and for example, the label 122 incorrectly attached is generated so that the lower right corner is bent on the surface of the object 116. Many industrial production lines use some form of automatic photoelectric detection to detect and reject defective products 116, such as photodetectors, machine vision systems, or vision detectors. Such inspection is valuable in preventing defective products from being delivered to consumers, but in the first place does not help prevent defective products from being manufactured. One object of the present invention is to assist a manufacturing engineer in diagnosing and correcting the cause of a defective product by providing an image showing that the defective product has actually been created.

コンベア100は、物体を製造目的で運搬することに加えて、物体とビジョン検出器130の視野の間に相対的運動を発生させる。ほとんどの製造ラインでは、コンベアの動きは、ビジョン検出器130により受信でき、視覚検出器の方法と装置および本明細書で開示されるさまざまな目的で使用される、信号140を発生するシャフトエンコーダ132により追跡される。例えば、信号140は、ビジョン検出器130により、記録点と呼ばれる、物体112が架空の基準点150を交差する時点への基準として使用できる。   In addition to transporting objects for manufacturing purposes, the conveyor 100 generates relative motion between the objects and the vision detector 130 field of view. In most production lines, conveyor motion can be received by the vision detector 130 and used in the vision detector method and apparatus and various purposes disclosed herein, the shaft encoder 132 that generates the signal 140. Tracked by For example, the signal 140 can be used by the vision detector 130 as a reference to the point in time at which the object 112 crosses the fictitious reference point 150, referred to as a recording point.

ビジョン検出器130は、適切な視覚条件を基本にして、視野において発生することがある一定の事象を検出する。図1の例示的実施形態では、事象は、アーム162によりラベルを誤って貼ることに相当し、以下でさらに説明されるようにさまざまなやり方で検出できる。画像は、事象前、事象中、および事象後に記録される。製造技術者のような人間のユーザーは、ラベルが誤って貼られてしまう機械の問題を診断できるように、記録された画像を検索するために、信号142を経由して、ヒト−マシンインターフェイス134と相互にやり取りする。   The vision detector 130 detects certain events that may occur in the field of view based on appropriate visual conditions. In the exemplary embodiment of FIG. 1, the event corresponds to an accidental labeling by arm 162 and can be detected in a variety of ways as further described below. Images are recorded before, during, and after the event. A human user, such as a manufacturing engineer, can retrieve a recorded image via signal 142 to retrieve a recorded image so that a machine problem with an accidental labeling can be diagnosed. Interact with each other.

別の実施例では、ビジョン検出器を通過するのは、個別の物体ではなく、材料が連続して流れる。例えば、ウェブ上には、以下に提供される例がある。事象検出、記録および検索の目的では、個別の物体と材料の連続した流れではほとんど違いはない。   In another embodiment, the material flows continuously through the vision detector rather than individual objects. For example, on the web, there are examples provided below. For the purposes of event detection, recording and retrieval, there is little difference in the continuous flow of individual objects and materials.

図2は、事象を検出して画像を記録するように構成されるビジョン検出器の典型的な操作サイクルを説明するタイムラインを示す。ボックス220のような「c」のラベルが付けられたボックスは、画像の取得を表す。ボックス230のような「a」のラベルが付けられたボックスは分析を表す(分析ステップは以下でさらに分割され説明される)。例えば、分析ステップ230が取得ステップ220で取得される画像を分析するように、次の画像の取得「c」が現在の画像の分析「a」とオーバーラップすることが好ましい。このタイムラインでは、分析にかかる時間は、取得より短いように示されているが、一般的に、アプリケーションの詳細により、分析にかかる時間は取得より短いことも長いこともある。   FIG. 2 shows a timeline illustrating a typical operating cycle of a vision detector configured to detect events and record images. A box labeled “c”, such as box 220, represents an image acquisition. A box labeled “a”, such as box 230, represents an analysis (the analysis step is further divided and described below). For example, the next image acquisition “c” preferably overlaps the current image analysis “a” so that the analysis step 230 analyzes the image acquired in the acquisition step 220. In this timeline, the time taken for the analysis is shown to be shorter than the acquisition, but in general, depending on the details of the application, the time taken for the analysis may be shorter or longer than the acquisition.

取得と分析が重複していれば、ビジョン検出器が画像を分析して分析する速度は、取得時間と分析時間のうち長くかかる時間により決定される。これが「フレームレート」である。   If acquisition and analysis overlap, the speed at which the vision detector analyzes and analyzes the image is determined by the time it takes longer between acquisition time and analysis time. This is the “frame rate”.

タイムラインの部分220は第一の事象に相当し、5個の事象フレームの取得と分析を含む。第二の部分202は、第二の事象に相当し、3つの事象フレームを含む。   The portion 220 of the timeline corresponds to the first event and includes the acquisition and analysis of five event frames. The second portion 202 corresponds to the second event and includes three event frames.

本明細書に記載する例示的実施形態において、事象検出のための取得画像の分析は、次のような3つの主な下位ステップを含む。
・ある1つのフレームにおいて事象が発生している、または発生したことを示す証拠を評価するための視覚分析ステップ
・検出される事象が発生している可能性のある、「候補フレーム」と呼ばれる連続したフレームのセットを識別するためのアクティビティ分析ステップ
・検出される事象が候補フレームのセットで発生したかどうかを決定するための事象分析ステップ。
In the exemplary embodiment described herein, analysis of acquired images for event detection includes three main sub-steps as follows.
A visual analysis step to evaluate evidence that an event has occurred or has occurred in one frame. A sequence called a “candidate frame” where the detected event may have occurred. An activity analysis step for identifying the set of frames that have been detected, an event analysis step for determining whether the detected event has occurred in the set of candidate frames.

各視覚分析ステップは、個別のフレームで事象が発生していることを示す証拠を検討する。証拠が明らかなフレームは「アクティブ」と呼ばれる。アクティブフレームの分析ステップは、例えば、分析ステップ240のように、太い枠線で示される。本明細書で検討される例示的実施形態において、この証拠は、以下および視覚検出器の方法と装置において開示されたように、フレームの1個以上の対象領域の画像分析演算により計算される、事象検出加重(以下でさらに説明される)と呼ばれるファジー論理値により表される。   Each visual analysis step examines evidence indicating that an event has occurred in a separate frame. Frames with obvious evidence are called “active”. The analysis step of the active frame is indicated by a thick frame line as in the analysis step 240, for example. In the exemplary embodiments discussed herein, this evidence is calculated by image analysis operations of one or more regions of interest of the frame, as disclosed below and in the visual detector methods and apparatus. It is represented by a fuzzy logic value called event detection weight (discussed further below).

各アクティビティ分析ステップは、直近のフレームセット内で事象が発生しているまたは発生したことを示す証拠を検討する。本明細書で検討される例示的実施形態においては、事象検出は、事象が発生していることを示すなんらかの証拠があるということが明らかな「アクティブ状態」、またはそのような証拠はほとんどないことを示す「非アクティブ状態」にあることが検討される。アクティビティステップの1つの機能は、この状態を決定することである。例示的実施形態において、非アクティブ状態からアクティブ状態への移行は、アクティブフレームが発見されるときに行われる。アクティブ状態から非アクティブ状態への移行は、ある数の連続的な非アクティブフレームが発見されるときに行われる。候補フレームは、最初のアクティブフレームから始まり、最後のアクティブフレームで終わる連続的なフレームのセットを含み、その間に非アクティブなフレームを含む場合がある。アクティビティ分析ステップの別の機能は、候補フレームのセットを記述するデータを収集することである。   Each activity analysis step considers evidence that an event has occurred or has occurred within the most recent frameset. In the exemplary embodiments discussed herein, event detection is clearly “active” or there is little such evidence that there is some evidence that an event is occurring It is considered to be in the “inactive state” indicating One function of the activity step is to determine this state. In the exemplary embodiment, the transition from the inactive state to the active state occurs when an active frame is discovered. The transition from the active state to the inactive state occurs when a certain number of consecutive inactive frames are found. Candidate frames include a continuous set of frames starting with the first active frame and ending with the last active frame, and may include inactive frames in between. Another function of the activity analysis step is to collect data describing a set of candidate frames.

その後、各事象分析ステップは、先行のアクティビティ分析ステップにより収集された証拠を確認することにより、候補フレームの間に事象が発生したことを示す証拠を検討する。本明細書で検討される例示的実施形態では、アクティブ状態から非アクティブ状態への移行が行われるたびに、事象分析ステップが実施される。候補フレームを記述するデータが確認され、事象が発生したと結論付けるに十分な証拠が明らかになれば、候補フレームは事象フレームと見なされる。記録およびその他の適切なアクションが、後述のように実施される。   Each event analysis step then examines evidence indicating that an event occurred during the candidate frame by reviewing the evidence collected by the previous activity analysis step. In the exemplary embodiment discussed herein, an event analysis step is performed each time a transition from an active state to an inactive state occurs. A candidate frame is considered an event frame if data describing the candidate frame is confirmed and sufficient evidence is found to conclude that an event has occurred. Recording and other appropriate actions are performed as described below.

本発明の範囲内では、視覚、アクティビティ、および事象分析を実施するために、さまざまな方法が使用される。一部は以下および視覚検出器の方法と装置で説明されるが、その他の多くは当業者に明らかである。   Within the scope of the present invention, various methods are used to perform visual, activity and event analysis. Some are described below and in the visual detector methods and apparatus, but many others will be apparent to those skilled in the art.

図2の例では、第一の事象200の事象検出は、分析ステップ240に対応する第一のアクティブなフレームでアクティブ状態に入り、分析ステップ246と248に対応する2つの連続する非アクティブフレームで終わる。分析ステップ242に対応する第一の事象である単独の非アクティブフレームは、非アクティブ状態に入るには十分ではない。   In the example of FIG. 2, event detection for the first event 200 enters an active state with a first active frame corresponding to analysis step 240 and with two consecutive inactive frames corresponding to analysis steps 246 and 248. End. The single inactive frame that is the first event corresponding to the analysis step 242 is not sufficient to enter the inactive state.

非アクティブ状態に入るとき、例えば、分析ステップ248の終わりで、事象分析ステップが実施される。候補フレームは、分析ステップ240で始まり、分析ステップ241で終わる5個の事象フレームである。この例では、事象分析ステップは、事象が発生したという結果を出しており、第一番目のセットの記録フレーム210の記録を生じさせる。第二番目の事象202の同様な分析の結果、第二番目のセットの記録フレーム212を記録する。   When entering the inactive state, for example, at the end of the analysis step 248, an event analysis step is performed. The candidate frames are five event frames that begin at analysis step 240 and end at analysis step 241. In this example, the event analysis step produces a result that an event has occurred, resulting in the recording of the first set of recording frames 210. As a result of a similar analysis of the second event 202, a second set of recording frames 212 is recorded.

以下で説明されるように、視野を通過するときのアクティブフレームの物体の位置を検討することにより、ビジョン検出器は、事象が発生した正確な時間を表す記録時間250と252を推算する。タイムスタンプは、それぞれの記録されたフレームのために保管され、記録時間とこのようなそれぞれの記録されたフレームに対応するシャッタータイムの間の相対時間を示す。   As discussed below, by examining the position of the object in the active frame as it passes through the field of view, the vision detector estimates recording times 250 and 252 that represent the exact time that the event occurred. The time stamp is stored for each recorded frame and indicates the relative time between the recording time and the shutter time corresponding to each such recorded frame.

非アクティブ状態への移行が行われると、ビジョン検出器は、例えば、第一のアイドルステップ260と第二のアイドルステップ262のような、アイドルステップに入ることがある。このようなステップはオプションであるが、いくつかの理由により好ましいことがある。事象間の最低時間が知られている場合は、新しい事象が発生し得る直前まで、事象を探す必要はない。アイドルステップは、事象が発生できないときに、誤った事象検出の機会を削除し、アイドルステップの間、ライトをオフにできるので、照明システムの寿命を延ばすことになる。   When the transition to the inactive state occurs, the vision detector may enter an idle step, such as the first idle step 260 and the second idle step 262, for example. Such a step is optional but may be preferred for several reasons. If the minimum time between events is known, there is no need to look for events until just before a new event can occur. The idle step eliminates false event detection opportunities when an event cannot occur and extends the life of the lighting system because the light can be turned off during the idle step.

図3は、事象検出の分析ステップの詳細を提供するフローチャートを示す。破線枠のボックスは、フローチャートにより使用されるデータを表す。フローチャートブロックを囲む角が丸い四角は、視覚分析ステップ310、アクティビティ分析ステップ312および事象分析314などの分析の区画を示す。   FIG. 3 shows a flowchart that provides details of the event detection analysis steps. A box with a broken line frame represents data used by the flowchart. Squares with rounded corners surrounding the flow chart blocks indicate analysis partitions such as visual analysis step 310, activity analysis step 312 and event analysis 314.

アクティブフラグ300は、アクティビティ分析ステップにより使用されるアクティブ/非アクティブ状態を保存する。アクティビティ分析ステップにより収集されたデータは、アクティブデータ302と非アクティブデータ304に保存される。アクティブフレームの値は、アクティブデータ302に直接追加される。非アクティブフレームの場合は、アクティブ分析ステップは、フレームが候補フレームのセットの一部であるかどうかは、後のフレームの状態によるので、まだ不明である。このため、非アクティブフレームの値は非アクティブデータ304に追加される。非アクティブ状態への移行が行われる前にアクティブフレームが続いて発見されれば、非アクティブデータ304はアクティブデータ302に追加されて、クリアされる。非アクティブ状態への移行の時点で残っている非アクティブデータ304は、廃棄される。両方のデータは、追加されたフレームの個数を含む。   The active flag 300 stores the active / inactive state used by the activity analysis step. Data collected by the activity analysis step is stored in active data 302 and inactive data 304. The value of the active frame is added directly to the active data 302. In the case of inactive frames, the active analysis step is still unknown because whether the frame is part of the set of candidate frames depends on the state of the later frame. For this reason, the value of the inactive frame is added to the inactive data 304. If an active frame is subsequently found before the transition to the inactive state occurs, the inactive data 304 is added to the active data 302 and cleared. Inactive data 304 remaining at the time of transition to the inactive state is discarded. Both data contain the number of frames added.

図3の例示的実施形態では、フローチャートは、各フレームで一度、取得ブロック320から連続ブロック324まで、何度も実行される。取得ブロック320は、フレーム取得により分析を同期化して、次のフレームの取得を現在のフレームの分析と重複させる。視覚分析ブロック322は、視覚分析ステップを実施し、取得された画像の分析から、事象検出加重dを計算する。   In the exemplary embodiment of FIG. 3, the flowchart is executed many times, from acquisition block 320 to continuous block 324, once in each frame. The acquisition block 320 synchronizes the analysis by frame acquisition and duplicates the acquisition of the next frame with the analysis of the current frame. The visual analysis block 322 performs a visual analysis step and calculates an event detection weight d from the analysis of the acquired image.

次に、アクティビティ分析ステップ312が実施される。アクティブブロック330は、アクティブフラグ300をテストして、事象検出の現在の状態を決定する。事象検出が非アクティブであれば、第一の閾値ブロック340は、閾値tに対してdを比較することにより、現在のフレームのアクティブ/非アクティブ状況を決定する。事象検出加重dが閾値tより大きくなければ、フレームは非アクティブで、アクティブ分析は現在のフレームで終了する。事象検出加重dが閾値tより大きければ、フレームはアクティブで、アクティブ移行ブロック342はアクティブフラグ300を設定し、初期化ブロック344は、現在のフレームの値を使用してアクティブデータ302を初期化し、非アクティブデータ304をクリアする。 Next, an activity analysis step 312 is performed. Active block 330 tests active flag 300 to determine the current state of event detection. If event detection is inactive, the first threshold block 340 determines the active / inactive status of the current frame by comparing d against the threshold td. Be greater than the threshold t d event detection weight d, the frame is inactive, active analysis ends at the current frame. If event detection weight d is greater than threshold t d , the frame is active, active transition block 342 sets active flag 300, and initialization block 344 initializes active data 302 using the value of the current frame. Inactive data 304 is cleared.

アクティブブロック330が現在の状態がアクティブであると決定すれば、第二の閾値ブロック346が、dを閾値tに比較することにより、現在のフレームのアクティブ/非アクティブ状態を決定する。dが閾値より大きくなければ、フレームは非アクティブであり、カウントテストブロック350は非アクティブデータ304のフレームカウントを参照して、連続の非アクティブフレームのパラメータk以上が発見されたかどうかを決定する。発見されていなければ、非アクティブ更新ブロック354は、現在のフレームからの値を追加することにより(フレームカウントを1つ大きくすることも含む)、非アクティブデータ304を更新する。発見されていれば、非アクティブ移行ブロック352はアクティブフラグ300をクリアして、実行は事象分析ステップ314に続く。 If determined that the active block 330 is active the current state, the second threshold block 346, by comparing the d threshold t d, to determine the active / inactive state of the current frame. If d is not greater than the threshold, the frame is inactive and the count test block 350 refers to the frame count of the inactive data 304 to determine if more than the parameter k of consecutive inactive frames has been found. If not found, the inactive update block 354 updates the inactive data 304 by adding a value from the current frame (including increasing the frame count by one). If so, the inactive transition block 352 clears the active flag 300 and execution continues to the event analysis step 314.

第二の閾値ブロック346が、現在のフレームがアクティブであると決定すれば、アクティブ更新ブロック360は、現在のフレームと非アクティブデータ304両方からの値を追加することにより、アクティブデータ302を更新する。そして、クリアブロック362は、非アクティブデータ304をクリアする。   If second threshold block 346 determines that the current frame is active, active update block 360 updates active data 302 by adding values from both the current frame and inactive data 304. . Then, the clear block 362 clears the inactive data 304.

アクティビティ分析ステップ312が、アクティブ状態から非アクティブ状態への移行を行えば、事象分析ステップ314が実施される。条件ブロック370は、アクティブデータ302をテストして、事象が発生したかどうかを決定する。発生していなければ、収集データは無視されて、実行が継続する。発生していれば、事象ブロック372は、以下でさらに説明するように、記録のためのフレームを記録する。アイドルブロック374は、継続前のアイドル間、待機する。   If the activity analysis step 312 transitions from an active state to an inactive state, an event analysis step 314 is performed. Condition block 370 tests active data 302 to determine if an event has occurred. If not, the collected data is ignored and execution continues. If so, event block 372 records a frame for recording, as further described below. The idle block 374 waits for the idle period before continuing.

図4は、例示的実施形態の分析ステップをさらに説明しており、本発明の基本的操作を理解するために、図2のタイムラインと図3のフローチャートと合わせて使用する。   FIG. 4 further illustrates the analysis steps of the exemplary embodiment and is used in conjunction with the timeline of FIG. 2 and the flowchart of FIG. 3 to understand the basic operation of the present invention.

図4は、例示的実施形態において、事象検出のために証拠がどのように加重されるかを説明する。上記のように、視野において事象が発生している、または発生したことを示す証拠を構成する情報は、「事象検出加重」と呼ばれる。図は、縦軸400の事象検出加重dと水平軸402のフレームカウントiの座標を示す。各フレームは、直線426のような縦線により表される。フレームカウントは、任意の整数である。 FIG. 4 illustrates how evidence is weighted for event detection in an exemplary embodiment. As described above, information that constitutes evidence that an event has occurred or has occurred in the visual field is called “event detection weight”. The figure shows the coordinates of the event detection weight d i on the vertical axis 400 and the frame count i on the horizontal axis 402. Each frame is represented by a vertical line such as a straight line 426. The frame count is an arbitrary integer.

この実施例では、dは、事象がフレームiで発生していることを示す証拠を表すファジー論理値であり、以下でさらに説明され、視覚検出器の方法と装置で説明された方法を使用して、各フレームのビジョン検出器により計算される。 In this example, d i is a fuzzy logic value representing evidence that an event is occurring in frame i and uses the method described further below and in the method and apparatus of the visual detector. And calculated by the vision detector of each frame.

図4の例示的実施形態では、事象検出閾値tは、0.5であるので、dが0.5以上であるフレームはアクティブフレームと見なされる。参考のため、d=0.5の線430が描かれた。アクティブフレームの事象検出加重は、点410のように、黒丸として描かれ、非アクティブフレームの事象検出加重は、点416のように、白丸として描かれる。 In the exemplary embodiment of FIG. 4, the event detection threshold t d is 0.5, so frames with d i greater than or equal to 0.5 are considered active frames. For reference, a line 430 with d i = 0.5 is drawn. The event detection weight for the active frame is drawn as a black circle, as at point 410, and the event detection weight for the inactive frame is drawn as a white circle, as at point 416.

図4の例では、事象検出は、フレーム422でアクティブ状態に入り、4つの連続した非アクティブフレームが見られる(この例では、非アクティブフレームカウント閾値k=3)フレーム424の後、非アクティブ状態に入る。候補フレームのセットは、フレーム422で始まり、フレーム426で終わる。隔離された非アクティブフレーム420は、非アクティブ状態への移行を発生させない。   In the example of FIG. 4, event detection enters the active state at frame 422 and four consecutive inactive frames are seen (in this example, the inactive frame count threshold k = 3) after frame 424, the inactive state. to go into. The set of candidate frames begins at frame 422 and ends at frame 426. The isolated inactive frame 420 does not cause a transition to the inactive state.

図5は、例示的実施形態において、アクティビティ分析ステップ312により収集され、事象分析ステップ314により使用されるデータの詳細を示すとともに、図4の例も示す。この実施例の場合、アクティブデータ302と非アクティブデータ304は、非アクティブ状態への移行がおこなわれるとき、これらのデータを計算するために十分な情報を含む。図5のそれぞれのデータは、記号500、以下でさらに説明される、値を定義する機能の記述510、および、図4の例の値が何であるかを示す例520を含む。   FIG. 5 shows details of the data collected by activity analysis step 312 and used by event analysis step 314 in the exemplary embodiment, as well as the example of FIG. In this embodiment, active data 302 and inactive data 304 contain sufficient information to calculate these data when a transition to the inactive state occurs. Each of the data in FIG. 5 includes a symbol 500, a description 510 of the function that defines the value, described further below, and an example 520 that indicates what the example values of FIG. 4 are.

事象が検出されたかどうかを決定するための証拠を加重するための方法の上記の説明は、有用な実施例の一例として意図されているが、本発明の範囲内で使用できる方法に限定されない。例えば、上記で使用された例の定数t=0.5は、任意の適した値で置換されることがある。当業者により視覚事象検出の多くの方法が追加される。 The above description of a method for weighting evidence to determine whether an event has been detected is intended as an example of a useful embodiment, but is not limited to a method that can be used within the scope of the present invention. For example, the example constant t d = 0.5 used above may be replaced with any suitable value. Many methods of visual event detection are added by those skilled in the art.

[装置の例]
図6は、事象の視覚検出、記録、検索に使われる視覚検出器のためのハイレベル・ブロック図を示す。視覚検出器600は、適切な自動機器610に接続されることができ、そして、それは、信号620を用いて、PLC、拒否作動装置、回転符号器、および/または光検出器を含むことができる。これらの接続は、事象の検出、記録、検索の必要はないが、たとえば、視覚検出の方法と装置で教授された、追加の目的のために視覚検出器を使うことが好ましい事例に役に立つことができる。たとえば、事象が検出されたことを示すのに出力パルスを供給するのに特に好ましい場足がある。たとえば、パルスは、視覚検出器の方法と装置に教授されたように、記録時間に遅滞し、同期化し、PLC、作動装置、または、他の装置によって使われる。
[Example of equipment]
FIG. 6 shows a high level block diagram for a visual detector used for visual detection, recording and retrieval of events. The visual detector 600 can be connected to a suitable automated instrument 610 and it can include a PLC, a reject actuator, a rotary encoder, and / or a photodetector using the signal 620. . These connections do not require the detection, recording, and retrieval of events, but can be useful, for example, in cases where it is preferable to use a visual detector for additional purposes, as taught in visual detection methods and devices. it can. For example, there is a particularly preferred way to provide an output pulse to indicate that an event has been detected. For example, the pulses are delayed and synchronized in recording time, as taught in the visual detector methods and devices, and used by PLCs, actuators, or other devices.

検出された事象の画像表示の検索のために、視覚検出器は、信号640を用いて、PCや携帯装置のような、ヒューマン・マシン・インターフェイス(HMI)630に接続する。HMI630は、また、設定として使われる。HMI630は、事象の検出と記録のために接続しないようにする必要があるが、もちろん、検索や表示のためには接続しなければならない。信号640は、条件に合ったフォーマット、および/ または、プロトコルで、実行され、有線または無線型で変換することができる。   For retrieval of an image display of detected events, the vision detector uses signal 640 to connect to a human machine interface (HMI) 630, such as a PC or portable device. The HMI 630 is also used as a setting. The HMI 630 needs to be disconnected for event detection and recording, but of course it must be connected for searching and display. Signal 640 can be implemented in a format and / or protocol that meets conditions and converted in a wired or wireless manner.

視覚検出器600により記録された事象画像は、また、自動画像分析システム650 により検索され、従来の機械視覚システムを含むが、それらに限定されない。このようなシステムは、HMI630の使用に固有の人間の分析を必要なしに、超高フレームレートで操作するために設計された視覚検出器で可能であり、更に画像の最新分析するために使われ得る。   Event images recorded by the vision detector 600 are also retrieved by the automated image analysis system 650 and include, but are not limited to, conventional machine vision systems. Such a system is possible with visual detectors designed to operate at ultra-high frame rates without the need for human analysis inherent in the use of HMI 630, and is also used for modern analysis of images. obtain.

図7は、本発明の実行に使用できる視覚検出器の実例となる具体例のブロック図を示す。デジタル・シグナル・プロセッサ(DSP)700は、取得、分析、記録、HMI交信、視覚検出器により必要とされるいくつかの適切な機能を制御するためのソフトウェアを起動する。DSP700は、電源が取り除かれた場合、プログラムと設定情報を保持するためのプログラム、データ、および、不揮発性メモリのための高速ランダムアクセスメモリを含む、メモリ710に接続される。また、メモリ710は、それに続く検索のための記録画像を保持する。DSPは、また、自動機器、HMIインターフェイス730、照明モジュール740、撮像装置760への信号を供給するI/Oモジュール720に接続されている。レンズ750は、撮像装置760の光に敏感な要素へ画像を焦点を合わせている。   FIG. 7 shows a block diagram of an illustrative example of a visual detector that can be used to practice the present invention. The digital signal processor (DSP) 700 launches software to control acquisition, analysis, recording, HMI communication, and some appropriate functions required by the visual detector. The DSP 700 is connected to a memory 710 that includes a program, data for holding programs and configuration information, and a high-speed random access memory for non-volatile memory when the power is removed. The memory 710 holds a recorded image for subsequent retrieval. The DSP is also connected to an I / O module 720 that supplies signals to the automatic equipment, the HMI interface 730, the illumination module 740, and the imaging device 760. The lens 750 focuses the image on the light sensitive elements of the imaging device 760.

DSP700は、デジタル計算、情報保存、ほかのデジタル要素に接続ができる装置であり、汎用コンピュータ、PLC、または、マイクロプロセッサを含むが、それらに限定されない。DSP700は、安価であるが、高フレームレートを操作するには十分な速さがあるので、好ましい。画像分析を持ち、同時に撮像装置からピクセルデータを受取り、保存ができるので、更に好ましい。   The DSP 700 is a device capable of digital computation, information storage, and connection to other digital elements, including but not limited to a general purpose computer, PLC, or microprocessor. DSP 700 is inexpensive but is preferred because it is fast enough to operate at high frame rates. It is more preferable because it has image analysis and can simultaneously receive and store pixel data from the imaging device.

図7の実例となる具体例では、DSP700は、マサチューセッツ州のマサチューセッツ州のノーウッドのAnalog Devicesで生産された、ADSP−BF531である。ADSP−BF531DSP700の並列周辺インターフェイス(PPI)770は、撮像装置760からのピクセルデータを受取り、メモリ710の保存のためのダイレクトメモリアクセス(DMA)チャンネル772を通して、メモリ・コントローラー774へデータを送る。適切なソフトウェア制御の下で、PPI770とDMA772の使用は、DSP700により実行されたその他の分析で同時に画像取得させる。PPI770とDMA772で制御するためのソフトウェア命令は、ADSP−BF533 Blackfin Processor Hardware Reference(品番82−002005−01)とBlackfin Processor Instruction Set Reference(品番82−000410−14)に含まれる、プログラム取扱い説明書に従い、当業者により実行され、ここにある双方を参照することにより組み込まれる。ここで留意すべきは、ADSP−BF531、競合のADSP−BF532とADSP−BF533の装置が、同一のプログラム取扱い説明書を持っていて、適切な価格/実行取引を得るためにこの実例となる具体例で交互に用いられることである。   In the illustrative example of FIG. 7, DSP 700 is ADSP-BF531, produced at Analog Devices, Norwood, Massachusetts. The parallel peripheral interface (PPI) 770 of the ADSP-BF531 DSP 700 receives pixel data from the imaging device 760 and sends the data to the memory controller 774 through a direct memory access (DMA) channel 772 for storage of the memory 710. Under appropriate software control, the use of PPI 770 and DMA 772 allows images to be acquired simultaneously with other analyzes performed by DSP 700. Software instructions for controlling with PPI 770 and DMA 772 are included in the ADSP-BF533 Blackfin Processor Hardware Reference (Part No. 82-002005-01) and Blackfin Processor Instruction Reference (Part No. 82-000410-14) Implemented by those of ordinary skill in the art and incorporated by reference to both herein. It should be noted here that the ADSP-BF531, competing ADSP-BF532 and ADSP-BF533 devices have the same program instructions and are illustrative of this in order to obtain the appropriate price / execution transaction. It is used alternately in the example.

視覚検出器による好ましい高フレームレートは、従来の技術の視覚システムで使われている撮像装置でない、撮像装置の使用を勧めている。撮像装置は、高価でない照明を用い、非常に短いシャッター時間で、操作できるように、異常に光に敏感であることが好ましい。従来の技術視覚システムよりも更に速いDSPでのピクセルデータのデジタル化、転送することができることが更に好ましい。それが、高価でなく、グローバルシャッターを持っていることがなお好ましい。   The preferred high frame rate by the visual detector encourages the use of an imaging device that is not the imaging device used in prior art vision systems. The imaging device is preferably unusually sensitive to light so that it can be operated with inexpensive illumination and with very short shutter times. More preferably, the pixel data can be digitized and transferred in a DSP that is even faster than prior art vision systems. It is still preferred that it is not expensive and has a global shutter.

これらの物体は、従来の技術の視覚システムで使われた撮像装置よりも、さらに高い感光性で、低い解像度を持つ撮像装置を選ぶことにより、対応することができる。図7の実例となる具体例では、撮像装置760は、カリフォルニア州サンタクララのナショナル・セミコンダクターにより製造されたLM9630である。LM9630は、典型的な従来の技術システムよりも約24倍少ない、128×100個、総計で12800個のピクセルの配列を持っている。ピクセルは、それぞれ、高い光感受性を持つ、20平方ミクロンの広さである。LM9630は、300マイクロ秒のシャッター時間でのセットが、LED照明を用い、300マイクロ秒にさせるために十分(ほとんどの場合)敏感である場合、毎秒500フレームを供給できる。この解像度は、視覚システムにははるかに低すぎると考えられるが、視覚検出器の方法と装置の物体である検出の特徴には十分である。LM9630の電気的インターフェイスとソフトウェア制御は、2004年の1月のRev 1.0のLM9630データシートに含まれる取扱い説明書に従い、当業者により実行され、それは、ここにある双方を参照することにより組み込まれる。   These objects can be accommodated by choosing an imaging device that is more sensitive and has a lower resolution than the imaging devices used in prior art vision systems. In the illustrative example of FIG. 7, imaging device 760 is an LM9630 manufactured by National Semiconductor of Santa Clara, California. The LM9630 has an array of 128 × 100, total 12800 pixels, approximately 24 times less than typical prior art systems. Each pixel is 20 square microns wide with high photosensitivity. The LM9630 can deliver 500 frames per second if the set with a shutter time of 300 microseconds is sensitive enough (in most cases) to use LED illumination and bring it to 300 microseconds. This resolution is considered much too low for the vision system, but is sufficient for the detection features that are objects of the method and apparatus of the vision detector. The electrical interface and software control of the LM9630 is performed by those skilled in the art according to the instructions included in the January 2004 Rev 1.0 LM9630 data sheet, which is incorporated by reference to both here. It is.

照明740は、高価でないが、短くシャッター時間をするのに十分な明るさがあることが好ましい。実例となる具体例では、630ナノメートルで動作している高輝度の赤いLEDの列は、たとえば、Agilent Technologiesにより製造されたHLMP−ED25を使用している。もう一つの具体例では、高輝度の白いLEDは、好ましい照明を実行するのに使われている。   The illumination 740 is not expensive, but preferably has sufficient brightness for a short shutter time. In an illustrative embodiment, a string of bright red LEDs operating at 630 nanometers uses, for example, HLMP-ED25 manufactured by Agilent Technologies. In another embodiment, bright white LEDs are used to perform the preferred illumination.

図7の実例となる具体例では、I/Oモジュール720は、出力信号722と724、入力信号726を供給する。入力信号726は、視覚検出器の方法と装置で教授されたように、論理的な観点で適切な接続により、事象検出のために使われる。   In the illustrative example of FIG. 7, I / O module 720 provides output signals 722 and 724 and input signal 726. The input signal 726 is used for event detection with a logical connection appropriate as taught in the visual detector method and apparatus.

次の用語の画像取得装置は、デジタル画像を取得し、保存することを意味する。図7 の実例となる具体例では、画像取得装置780は、DSP700、撮像装置760、メモリ710と、関連した電気的インターフェイスとソフトウェア命令を備える。   The next term image acquisition device means acquiring and storing a digital image. In the illustrative example of FIG. 7, the image acquisition device 780 comprises a DSP 700, an imaging device 760, a memory 710, and associated electrical interfaces and software instructions.

次の用語の分析器は、デジタル画像に限定されないものを含む、デジタルデータの分析の手段を供給する。図7の実例となる具体例では、分析器は、DSP700、メモリ710と、関連した電気的インターフェイスとソフトウェア命令を備える。   The next term analyzer provides a means of analysis of digital data, including but not limited to digital images. In the illustrative embodiment of FIG. 7, the analyzer comprises a DSP 700, a memory 710, and associated electrical interfaces and software instructions.

次の用語の出力信号器は、分析器に応対する出力信号を生産するための手段を供給する。図7の実例となる具体例では、出力信号器784は、I/Oモジュール720と出力信号器722を備える。   The next term output signal provides a means for producing an output signal corresponding to the analyzer. In the illustrative example of FIG. 7, the output signal device 784 includes an I / O module 720 and an output signal device 722.

次の用語の処理は、いくつかの目的を対象にし、好ましい装置により実行された動作の組織的なセットに参照され、メカニズム、装置、部品、ソフトウェア、または、ファームウェア、対象とする動作を実行するために一つの場所またはいろいろな場所で連携するいかなる合成を含むが、それらに限定されない。   The following terminology is directed to several purposes and is referenced to an organized set of operations performed by the preferred device to perform the operations targeted by the mechanism, device, component, software, or firmware. This includes, but is not limited to, any composition that works together in one place or at various places.

実例となる具体例では、本発明で使われている様々な処理は、デジタルハードウェア要素とコンピュータソフトウェア命令の相互作用の収集により実行される。ハードウェア要素には例えば下記のようなものがある。
・好ましいコンピュータソフトウェア命令の制御の下で、汎用情報処理動作を行うDSP700
・画像、データ、コンピュータソフトウェア命令のための保存と検索動作を供給するメモリ710
・本明細書で説明する画像取得動作のような、ほかの要素と組み合わせて供給する撮像装置760
・インターフェイスと信号動作を供給するI/Oモジュール720
・ヒューマン・マシン・インターフェイスとして機能するHMIインターフェイス730。
In the illustrative embodiment, the various processes used in the present invention are performed by collecting interactions between digital hardware elements and computer software instructions. Examples of hardware elements include the following.
A DSP 700 that performs general information processing operations under the control of preferred computer software instructions
Memory 710 that provides storage and retrieval operations for images, data, and computer software instructions
An imaging device 760 that is supplied in combination with other elements, such as the image acquisition operation described herein.
I / O module 720 that provides interface and signal operations
An HMI interface 730 that functions as a human machine interface.

一実施形態において、本明細書に記載する動作を実施するためのコンピュータソフトウェア命令には例えば、下記のようなソフトウェア命令がある。
・実例となる取得と分析処理の部分を説明する、図3のフローチャートステップ
・実例となる決定論理を説明する図8のファジー論理要素
・発明を実行するのに使われるソフトウェア要素のセットを示す図9のソフトウェア要素
・いかに人間のユーザーが操作するパラメータを選択できるかを示す図10と20のグラフィカル制御。
In one embodiment, computer software instructions for performing the operations described herein include, for example, the following software instructions.
The flowchart steps of FIG. 3 illustrating the illustrative acquisition and analysis process portion. The fuzzy logic elements of FIG. 8 illustrating the example decision logic. The diagram illustrating the set of software elements used to implement the invention. Graphical controls of FIGS. 10 and 20 showing nine software elements and how a human user can select parameters for operation.

更に、上記に示したものは、例の一覧のみであることは、当業者により、理解されるであろう。それは、完全ではなく、好ましいコンピュータソフトウェア命令は、ここに説明されたいかなる図のために使われた処理を実行するために実例となる具体例で使われ得る。   Furthermore, it will be appreciated by those skilled in the art that the above is only a list of examples. It is not complete, and preferred computer software instructions can be used in an illustrative embodiment to perform the processing used for any of the diagrams described herein.

本明細書に記載する処理の例には、次のようなものがある。
・画像取得装置780によって実行される、取得ブロック320(図3)や本明細書に記載されているような他の動作を含む獲得処理
・図9に示されている分析器782及び好ましいソフトウェア要素により実行される、図3の部分や、視覚分析ステップ310、活動分析ステップ312、及び事象分析ステップ314のような本明細書に記載される他の動作を含む種々の分析処理
・図9に示されている分析器782及び適当なソフトウェア要素により実行される、事象ブロック372や本明細書に記載される他の動作を含む種々の選択処理
・図9に示されている分析器782及び適当なソフトウェア要素により実行される、条件ブロック370及び本明細書に記載された他の動作を含む種々の判断処理。
Examples of processing described in this specification include the following.
An acquisition process performed by the image acquisition device 780, including the acquisition block 320 (FIG. 3) and other operations as described herein. The analyzer 782 and preferred software elements shown in FIG. 3 and various analysis processes, including the portions of FIG. 3, and other operations described herein, such as visual analysis step 310, activity analysis step 312, and event analysis step 314, shown in FIG. 9. Various selection processes, including event block 372 and other operations described herein, performed by analyzer 782 and the appropriate software elements, analyzer 782 shown in FIG. Various decision processes, including condition block 370 and other operations described herein, performed by software elements.

当業者には明らかなように、画像取得装置780、分析器782、出力信号器784を実施するために本発明の範囲内で使用可能な、多数の代替の構成、装置、ソフトウェア命令が存在する。同様に、本明細書に記載の処理を実施するために本発明の範囲内で使用可能な多数のソフトウェア命令が存在する。   As will be apparent to those skilled in the art, there are numerous alternative configurations, devices, and software instructions that can be used within the scope of the present invention to implement image acquisition device 780, analyzer 782, and output signaler 784. . Similarly, there are a number of software instructions that can be used within the scope of the present invention to perform the processes described herein.

[ファジー論理意思決定]
図8は、事象が起こっているかどうか、または、起こったかどうかを判断することを含む、証拠を検討し、判断するために、具体例で使われるファジー論理要素を示す。
[Fuzzy logic decision making]
FIG. 8 illustrates the fuzzy logic elements used in the illustrative example to review and determine evidence, including determining whether an event is occurring or has occurred.

ファジー論理値は、ある特定の状態が真であるという信頼度の推定値を示す0〜1の間の数である。1の数値は、状態が真である信頼度が高いことを示し、0は状態が偽であるという高い信頼度を示し、中間値は、信頼の中間レベルを示す。   A fuzzy logic value is a number between 0 and 1 that indicates an estimate of the confidence that a particular state is true. A value of 1 indicates a high confidence that the state is true, 0 indicates a high confidence that the state is false, and an intermediate value indicates an intermediate level of confidence.

もっと馴染みのあるニ値論理は、信頼値は、0から1に制限される、ファジー論理のサブセットである。ゆえに、ファジー論理を使うここに記載した具体例は、同等のニ値論理方法または装置で置換されるこれらの値を使い、ファジー論理方法または装置で、別のニ値論理値として使うことができる。   The more familiar binary logic is a subset of fuzzy logic where the confidence value is limited from 0 to 1. Thus, the embodiments described herein that use fuzzy logic can use those values that are replaced by an equivalent binary logic method or device and can be used as another binary logic value in a fuzzy logic method or device. .

ニ値論理値は、閾値を使うことにより、原測定値から得られるものであるように、ファジー論理値は、ファジー閾値を使うことにより得られる。図8を参照すると、グラフ800は、ファジー閾値を示す。X軸810は、原測定を示し、f軸814は、ファジー論理値を示し、そのxの範囲は、全ての可能な原測定で、fの値域は、0≦f≦1である機能である。   A fuzzy logic value is obtained by using a fuzzy threshold, as a binary logic value is obtained from an original measurement value by using a threshold value. Referring to FIG. 8, a graph 800 shows a fuzzy threshold. The X-axis 810 shows the original measurement, the f-axis 814 shows the fuzzy logic value, the range of x is a function where all possible original measurements and the range of f is 0 ≦ f ≦ 1. .

実例となる具体例では、ファジー閾値は、機能824と826上の点に対応して、x軸、低閾値t820、高閾値t822で示される、2つの数を備える。ファジー閾値は、次の式で、定義することができる。 In the illustrative embodiment, the fuzzy threshold comprises two numbers, indicated by the x-axis, low threshold t 0 820, and high threshold t 1 822, corresponding to points on functions 824 and 826. The fuzzy threshold can be defined by the following equation.

Figure 0005350444
Figure 0005350444

ここで留意すべきは、この機能が、t<tである場合、よく機能することである。他の機能は、また、シグモイドのような、ファジー閾値として使うことができる。 It should be noted here that this function works well when t 1 <t 0 . Other functions can also be used as fuzzy thresholds, such as sigmoids.

Figure 0005350444
Figure 0005350444

ここで、tとσは、閾値パラメータである。簡素であることが目標である具体例では、従来型ニ値閾値は、ニ値論理値を結果として、使うことができる。   Here, t and σ are threshold parameters. In a specific example where the goal is simplicity, a conventional binary threshold can use a binary logical value as a result.

ファジー意思決定は、AND840、OR850、NOT860のファジーバージョンに基づいている。2つまたはそれ以上のファジー論理値のファジーANDは、最小値であり、ファジーORは、最大値である。fのファジーNOTは、1−fである。ファジー論理値が0か1に制限されている場合、ファジー論理値は、二進論理値に等しい。   Fuzzy decision making is based on fuzzy versions of AND840, OR850, NOT860. The fuzzy AND of two or more fuzzy logic values is the minimum value and the fuzzy OR is the maximum value. The fuzzy NOT of f is 1-f. If the fuzzy logic value is limited to 0 or 1, the fuzzy logic value is equal to the binary logic value.

実例となる具体例では、真偽の決定が必要である時はいつでも、ファジー論理値は、それが少なくとも0.5である場合は、真として見なされ、0.5以下であれば、偽であると考えられる。   In an illustrative example, whenever a true / false decision is required, a fuzzy logic value is considered true if it is at least 0.5, and false if it is 0.5 or less. It is believed that there is.

当業者には明らかなように、本明細書に記載するファジー論理に関係して使用されるような値0および1に関し、臨界は存在しない。信頼の中間レベルを示す中間値として用い、いかなる数が、状態が真であることを高信頼を示すのに使い、それとは違う数が状態を偽であることを高信頼を示すのに使うことができる。   As will be apparent to those skilled in the art, there is no criticality for the values 0 and 1 as used in connection with the fuzzy logic described herein. Use as an intermediate value to indicate an intermediate level of trust, use any number to indicate that the state is true to indicate confidence, and use a different number to indicate confidence that the state is false. Can do.

[本発明のソフトウェア要素]
図9は、フレーム分析、判断、入力感知、および出力信号調節のために、具体例により使用される一連のソフトウェア要素の編成(例えば、コンピュータ可読媒体のプログラムインストラクション)を示す。各要素がそれぞれクラスに対応するように、C+ +等従来のオブジェクト指向プログラミング言語のクラス階層を使用して要素が実行されてもよい。しかしながら、ここで記載されるプロセスを実行するには、基準を満たすいかなるプログラミング技術および/または言語をも使用することができる。
[Software elements of the present invention]
FIG. 9 shows the organization of a series of software elements (eg, program instructions on a computer readable medium) used by an example for frame analysis, determination, input sensing, and output signal conditioning. Elements may be implemented using a class hierarchy of a conventional object-oriented programming language such as C ++ so that each element corresponds to a class. However, any programming technique and / or language that meets the criteria can be used to perform the processes described herein.

図示のように、ガジェットクラス900のように点線の境界線付きのクラスは、独立しては存在せず、ロケータクラス920のような具体派生クラスを構築するのに使用される抽象基本クラスである。実線で境界されたクラスは、ユーザーがアプリケーションを設定する必要がある時に、HMI630を使用して作成および破壊することができる動的オブジェクトを表す。入力950などの破線で境界されたクラスは、特定のハードウェアやソフトウェアリソースと関連する静的オブジェクトを表す。静的オブジェクトは常に存在するものであり、ユーザーによって作成または破壊されることは不可能である。   As shown, a class with a dotted border, such as the gadget class 900, does not exist independently, but is an abstract base class used to construct concrete derived classes, such as the locator class 920. . A solid bordered class represents a dynamic object that can be created and destroyed using the HMI 630 when the user needs to set up an application. Classes bounded by dashed lines, such as input 950, represent static objects associated with specific hardware and software resources. Static objects are always present and cannot be created or destroyed by the user.

すべてのクラスは、ガジェットクラス900から派生しているため、図9に示すクラスのインスタンスであるすべてのオブジェクトはガジェットの一種である。具体例においては、各ガジェットは、1.ユーザーが選択することのできる名前を有し、2.他のガジェットが判断および出力信号を制御するために、論理入力として使用することができる論理出力(ファジー理論値)を有し、3.ユーザーが操作を特定するために構成することができる一連のパラメータを有し、4.論理出力(すなわちファジーNOT)を反転するのに使用可能な、そのようなパラメータをひとつ有し、5.実行可能であり、そのパラメータ、該当する場合は論理入力、ある種のガジェットについては現行フレームのコンテンツに基づいて論理出力が更新され、また出力信号の設定のような副作用を引き起こすことがある。   Since all classes are derived from the gadget class 900, all objects that are instances of the class shown in FIG. 9 are a kind of gadget. In a specific example, each gadget is: 1. has a name that the user can select; 2. Other gadgets have a logic output (fuzzy logic) that can be used as a logic input to control decision and output signals; 3. has a set of parameters that can be configured by the user to specify the operation; 4. has one such parameter that can be used to invert the logic output (ie fuzzy NOT); It can be executed and its parameters, logic input if applicable, and for certain gadgets the logic output is updated based on the contents of the current frame, and can cause side effects such as setting the output signal.

フレーム分析作業には、ガジェット実行前に、ガジェットへのすべての論理入力が更新されたことを保証するために確定された順序で、各ガジェットを一度実行することが含まれる。ある実施例においては、その論理出力が必要ではないフレームの間はガジェットが実行されない。   The frame analysis task includes executing each gadget once in a fixed order to ensure that all logical inputs to the gadget have been updated prior to gadget execution. In some embodiments, the gadget is not executed during a frame whose logic output is not required.

写真クラス910は、論理出力が現行フレームのコンテンツに依存するすべてのガジェットの基本クラスである。これらのクラスは実際に画像分析を行うクラスである。各写真は現行フレームの関心領域(ROI)のある特徴を測定する。ROIは、検査される物体の可視機能に対応する。この測定は写真のアナログ出力と呼ばれる。写真の論理出力は、感度閾値と呼ばれる、ユーザーによって構成されることができる一連のパラメータ中に存在するファジー閾値を用いて、アナログ出力から計算される。写真の論理出力は、判断を下す際に使われる証拠を提供するのに使用可能である。   The photo class 910 is the base class for all gadgets whose logic output depends on the content of the current frame. These classes are classes that actually perform image analysis. Each picture measures certain features of the region of interest (ROI) of the current frame. The ROI corresponds to the visual function of the object being inspected. This measurement is called the analog output of the photograph. The logical output of the photograph is calculated from the analog output using a fuzzy threshold that exists in a series of parameters that can be configured by the user, called the sensitivity threshold. The logical output of the photo can be used to provide evidence that is used in making decisions.

検出器クラス930は、ROIにおける測定および判断を下す際の証拠を提供することを主目的とする写真の基本クラスである。具体例においては、すべての検出器ROIは円型である。円形のROIは、回転を処理する必要がないため実行を簡素化し、またROIの形が1つしかないことで、ユーザーが学習すべきことを簡素化する。検出器パラメータにはポジションおよびROIの直径が含まれる。   Detector class 930 is a basic class of photographs whose primary purpose is to provide evidence in making ROI measurements and decisions. In a specific example, all detectors ROI are circular. A circular ROI simplifies execution because there is no need to handle rotation, and only one ROI shape simplifies what the user has to learn. Detector parameters include position and ROI diameter.

輝度検出器940はROIにおける加重平均やパーセンタイル輝度を測定する。コントラスト検出器942はROIにおけるコントラストを測定する。エッジ検出器944は、特定方向において、ROIがエッジのように見える領域を測定する。スポット検出器946は、ROIが穴のような丸い特徴に見える領域を測定する。テンプレート検出器948は、ROIがユーザーが選択した、事前にトレインされたパターンのように見える領域を測定する。検出器の操作については、視覚検出器の方法および装置においてさらに記述する。   The luminance detector 940 measures the weighted average and percentile luminance in the ROI. A contrast detector 942 measures the contrast at the ROI. The edge detector 944 measures the region where the ROI looks like an edge in a particular direction. Spot detector 946 measures the area where the ROI appears to be a round feature such as a hole. Template detector 948 measures the region where the ROI looks like a pre-trained pattern selected by the user. The operation of the detector is further described in the visual detector method and apparatus.

ロケータクラス920は、2つの主目的を持つ写真を表す。1つ目は、判断を下す際の証拠を提供することが可能な論理出力を生成することであり、これにより、他のいかなる検出器のようにも使用することができる。2つ目は、視覚検出器の視野にあるオブジェクトの位置を決定することにより、他の写真のROIのポジションを、オブジェクトのポジションを追跡するように移動することができることである。どのロケータも、1つのまたは両方の目的に使用することができる。   Locator class 920 represents a photograph with two main purposes. The first is to generate a logic output that can provide evidence in making a decision, which can be used like any other detector. Secondly, by determining the position of the object in the field of view of the visual detector, the position of the ROI of the other photo can be moved to track the position of the object. Any locator can be used for one or both purposes.

具体例においては、ロケータは、フレーム内における一次元領域でエッジを検索する。検索方向は、エッジに向かって垂直であり、ユーザーによって設定されるパラメータの中にある。ロケータのアナログ出力はエッジ検出器のアナログ出力と似ている。ロケータについては視覚検出器の方法および装置においてさらに記載される。   In a specific example, the locator searches for an edge in a one-dimensional region within the frame. The search direction is perpendicular to the edge and is among the parameters set by the user. The analog output of the locator is similar to the analog output of the edge detector. The locator is further described in the visual detector method and apparatus.

他の実施形態において、ロケータは、転換、回転、および、自由度のサイズを含む既知の方法を用いて、多次元検索範囲を検索する。適切な方法には、多年にわたり市販のものである既知の技術であるすべてである、正規化相関関係、汎用のハフ変換、幾何学模様補修に基づいたものを含む。多次元ロケータの具体例は、2004年11月2日に出願された、Brian Mirtich氏とWilliam M. Silver氏による、参照することにより本書にはっきりと組み込まれる教授法である、「製造ライン情報を用いた視覚検出器のパラメータの設定のための方法」と題する、同時係属の米国特許出願番号10/979,535に記載されている。   In other embodiments, the locator searches the multi-dimensional search range using known methods including transformation, rotation, and size of freedom. Suitable methods include those based on normalized correlations, generalized Hough transforms, geometric pattern repairs, all known techniques that have been commercially available for many years. Specific examples of multidimensional locators can be found in Brian Mirtic and William M., filed on Nov. 2, 2004. A co-pending US Patent Application No. 10 / entitled “Method for Setting Visual Detector Parameters Using Production Line Information”, a teaching method by Silver that is specifically incorporated herein by reference. 979,535.

入力クラス950は、事象検出に影響を与えるものとして使われる、視覚検出器に送られる入力信号を表す。出力クラス952は、事象が検出されるPLCまたは、作動装置を通知するために使われる可能性のあるような、視覚検出器からの出力信号を表す。実例となる具体例では、各物理的入力に対して、典型的入力信号726(図7)のような、入力クラスの静的インスタンスが1つ、および、各物理的出力に対して、典型的出力信号722および724のような、出力クラスの静的インスタンスが1つ存在する。視覚検出の方法と装置で教えられているように、外部自動装置は、事象が起こった場合、いつ、遅延時間を利用し、または、どこで、エンコーダカウントを用いるか、決定することができるので、出力は、記録時間を同期化する遅延パルスを形成することができる。   Input class 950 represents an input signal sent to a visual detector that is used to influence event detection. The output class 952 represents an output signal from a visual detector that may be used to notify a PLC or actuator that an event is detected. In an illustrative implementation, for each physical input, there is one static instance of the input class, such as a typical input signal 726 (FIG. 7), and a typical for each physical output. There is one static instance of the output class, such as output signals 722 and 724. As taught in visual detection methods and devices, external automated devices can determine when to use the delay time or where to use the encoder count when an event occurs. The output can form a delayed pulse that synchronizes the recording time.

ゲートベースクラス960はファジー論理の意思決定を実行する。各ゲートは、他のガジェットの論理出力に接続可能な論理入力を1つ以上有する。各論理入力は、ユーザーが設定可能なパラメータを用いて、反転(ファジーNOT)することが可能である。ANDゲート962は、ファジーAND操作を実行し、ORゲート964は、ファジーOR演算を実行する。   The gate base class 960 performs fuzzy logic decision making. Each gate has one or more logic inputs that can be connected to logic outputs of other gadgets. Each logic input can be inverted (fuzzy NOT) using a user-configurable parameter. The AND gate 962 performs a fuzzy AND operation, and the OR gate 964 performs a fuzzy OR operation.

判断クラス970は、意思決定するために連続フレーム上の証拠を検討するオブジェクトの基本クラスである。本発明の実例である具体例では、活動分析ステップ312 と事象分析ステップ314(視覚分析ステップ310は、下記に与えられた例に用いた、写真、入力、および/または、ゲートの合成により実行される)を実施する目的を持つ事象検出判断972を含む。判断のほかのタイプは、そこに与えられた機能と、ここに与えられたように事象検出を組み合わせるために好ましい具体例に存在することにより、視覚検出の方法と装置で教授されている。   Decision class 970 is the base class for objects that consider evidence on successive frames to make decisions. In an illustrative example of the present invention, activity analysis step 312 and event analysis step 314 (visual analysis step 310 is performed by composition of photographs, inputs, and / or gates used in the examples given below. Event detection judgment 972 having the purpose of implementing Other types of judgments are taught in visual detection methods and devices by being present in preferred embodiments for combining the functions given therein and event detection as given herein.

それぞれの判断は、ユーザーが写真、または、たいてい写真とほかのゲートである、ガジェットの論理結合を与える、さらに典型的なゲートの論理出力を接続するために論理入力を持つ。事象検出判断の論理入力は、各フレームに事象検出加重を与える。本発明の具体例は、下記に与えられた一例で、事象検出判断よりも使う可能性のあることが明らかに考えられる。   Each decision has a logic input to connect the logic output of a typical gate, giving the user a logic combination of gadgets, which are photos, or mostly photos and other gates. The event detection decision logic input provides an event detection weight to each frame. The specific example of the present invention is an example given below, and it is clearly conceivable that it may be used rather than event detection judgment.

事象検出判断の論理出力は、いつ事象が検出されたのかを示すパルスを提供する。パルス立ち上がりは、例えば図2の分析ステップ248の終了時などの、事象分析ステップ314が事象を検出する時に発生し、立ち下がりは、例えばアイドルステップ260の終了時などの後に発生する。   The logic output of the event detection decision provides a pulse that indicates when an event has been detected. A pulse rise occurs when event analysis step 314 detects an event, such as at the end of analysis step 248 of FIG. 2, and a fall occurs after, for example, the end of idle step 260.

図10は、事象検索判断のためのパラメータを設定するために、ユーザーが見て操作するようにHMIに表示されるグラフィカル制御を示す。ガジェットパラメータを設定するためのHMI630に表示されているグラフィカル制御のセットは、パラメータビューと称する。   FIG. 10 shows a graphical control displayed on the HMI for the user to see and manipulate to set parameters for event search decisions. The set of graphical controls displayed on the HMI 630 for setting gadget parameters is referred to as a parameter view.

ネームテキストボックス1000は、ユーザーにこの事象検出判断のための名前の閲覧と入力を可能にする。時間表示1002は、この事象検出判断の最新起動でかかった時間を示す。論理出力ラベル1004は、この事象検出判断の現在の論理出力値を示し、真(≧0.5)と偽(<0.5)であるかを見分けるための色、形、または、ほかの指標に変えるかもしれない。反転チェックボックス1006は、反転させるためにこの事象検出判断の論理出力をさせる。ここで留意すべきは、ネームテキストボックス1000、時間表示1002、論理出力ラベル1004、反転チェックボックス1006は、視覚検出の方法と装置でさらに説明したように、全てのガジェットタイプのためのパラメータビューでは、一般的であることである。   The name text box 1000 allows the user to browse and input a name for this event detection determination. The time display 1002 indicates the time taken for the latest activation of this event detection determination. The logical output label 1004 indicates the current logical output value of this event detection determination, and is a color, shape, or other indicator for distinguishing whether it is true (≧ 0.5) or false (<0.5). May change. An inversion check box 1006 causes a logic output of this event detection judgment to be inverted. It should be noted that the name text box 1000, time display 1002, logic output label 1004, and inversion check box 1006 are displayed in the parameter view for all gadget types, as further described in the visual detection method and apparatus. Is to be general.

アイドルタイムスピナー1020は、アイドルステップ260(図2)や図3のアイドルブロック374で示されているように、ユーザーに時間間隔を特定させる。消失フレームスピナー1030は、無効状態へ転換させる活動分析ステップ312なしに受け入れる連続無効フレームの最大数をユーザーに特定させる。消失フレームスピナー1030により特定された値は、図3のカウントテストブロック350にあるパラメータkとして使われる。   The idle time spinner 1020 allows the user to specify a time interval, as indicated by the idle step 260 (FIG. 2) and the idle block 374 of FIG. The erasure frame spinner 1030 allows the user to specify the maximum number of consecutive invalid frames that will be accepted without the activity analysis step 312 converting to an invalid state. The value specified by erasure frame spinner 1030 is used as parameter k in count test block 350 of FIG.

マーキング制御1040は、更に個々に説明されているように、記録時間を計算するためにフローとストローク事象間でユーザーに選択させる。記録時間を計算するために、ユーザーは、ロケータリストコントロール1042を使ってロケータを特定しなければならない。   Marking control 1040 allows the user to select between flow and stroke events to calculate the recording time, as further described individually. In order to calculate the recording time, the user must identify the locator using the locator list control 1042.

記録間隔制御1050は、事象が検出された場合、記録時間に関係して画像が記録された時間間隔をユーザーに特定させる。示されていない、代替実施例においては、ユーザーは、事象フレームが記録されたかどうか、事象フレームが記録される前後のフレーム数を特定する。   When an event is detected, the recording interval control 1050 allows the user to specify the time interval at which the image is recorded in relation to the recording time. In an alternative embodiment, not shown, the user specifies whether an event frame has been recorded and the number of frames before and after the event frame is recorded.

状態テキスト1010は、状態ブロック370によりテストされ、事象が起こったかどうか決定するための事象分析ステップ314により使われた事象状態をユーザーに特定させる。図10の具体例では、状態テキスト1010は、Cのように従来のプログラミング言語により使われ、似ている構文で論理表現を示すテキスト文字列を含む。活動統計302からの真偽値の算出を特定するために、その表現は活動統計302の要素に表し、数値定数、論理、比較、算術演算子、丸括弧のような句読法を用いて、図5からシンボル500を組み合わせる。このようなテキスト文字列に基づいて真偽値を計算する方法は、既知の技術である。   The state text 1010 is tested by the state block 370 and allows the user to identify the event state that was used by the event analysis step 314 to determine if an event occurred. In the example of FIG. 10, the state text 1010 is used by a conventional programming language such as C, and includes a text string indicating a logical expression with a similar syntax. In order to specify the calculation of the truth value from the activity statistics 302, the representation is expressed in the elements of the activity statistics 302, using numerical constants, logic, comparisons, arithmetic operators, punctuation such as parentheses, 5 to the symbol 500 are combined. A method of calculating a true / false value based on such a text character string is a known technique.

図10の実例となる例では、少なくとも2つの候補フレームがあり、平均事象検出加重は0.50以下または、0.75以上である場合、事象は起こる。このような状態が役立つ例は、下記で説明された図15と16に示されている。   In the illustrative example of FIG. 10, an event occurs if there are at least two candidate frames and the average event detection weight is 0.50 or less, or 0.75 or more. An example where this is useful is shown in FIGS. 15 and 16 described below.

[具体例の有用な例]
図11は、いかに写真が不適用ラベル122(図1)のような、不適用ラベルを用いて、物体に対応する事象を検出するのに使われるかの例を示す。図11は図1より物体116に対応する、物体1100のイメージを表しており、ラベル機構1110とともに、写真を表す重畳グラフィックスを有し、それはユーザーが見て操作できるようにHMI630に表示される。HMI上での画像および重畳グラフィックスの表示は画像表示と呼ばれる。
[Useful examples]
FIG. 11 shows an example of how a photo is used to detect an event corresponding to an object using a non-applied label, such as the non-applied label 122 (FIG. 1). FIG. 11 shows an image of the object 1100 corresponding to the object 116 from FIG. 1 and has a superimposing graphic representing a photograph together with a label mechanism 1110, which is displayed on the HMI 630 so that the user can see and manipulate it. . Display of images and superimposed graphics on the HMI is called image display.

ロケータ1120は、物体の上端を検出して位置を確認するために使用され、別のロケータ1122は右端を検出して位置を確認するために使用される。輝度検出器1130は、物体の存在を検出する助けとなるように使用される。この例では、背景は物体より明るく、感度閾値が2つの明るさのレベルを区別するように設定されており、より明るい背景ではなく、より暗い物体を検出するために論理出力が反転されている。   The locator 1120 is used to detect the upper end of the object and confirm the position, and another locator 1122 is used to detect the right end and confirm the position. A luminance detector 1130 is used to help detect the presence of an object. In this example, the background is brighter than the object and the sensitivity threshold is set to distinguish between the two brightness levels, and the logic output is inverted to detect darker objects rather than brighter backgrounds. .

後にさらに記載されるように、ロケータ1120および1122、そして輝度検出器1130は、ともに物体が存在することを判断するのに必要な証拠提供する。明らかに、「不適用ラベルを持つ物体」に対応する事象は、事象が存在しない場合、起こらない。   As described further below, locators 1120 and 1122 and luminance detector 1130 together provide the necessary evidence to determine the presence of an object. Clearly, the event corresponding to “object with non-applied label” does not occur if no event exists.

エッジ検出器1160は、ラベル1110の存在および位置を検出するのに使用される。ラベルが存在しなかったり、水平に間違った位置にあったり、著しく回転し、示されたような曲がったカマーがあり、または、さまざまなほかの方法で不適用になった場合は、エッジ検出器のアナログ出力は非常に低くなる。もちろん、ラベル1110が、エッジ検出器1160により検出されない、不適用であることが多々あるので、ほかの写真は、いかなる与えられた生産状況で故障を検出する必要があるときに使われる可能性がある。   Edge detector 1160 is used to detect the presence and position of label 1110. An edge detector if the label is not present, is misplaced horizontally, rotates significantly, has a bent cammer as shown, or is otherwise not applicable The analog output is very low. Of course, the label 1110 is often unapplied, not detected by the edge detector 1160, so other photos may be used when a failure needs to be detected in any given production situation. is there.

たとえば、輝度検出器1150は、正しいラベルが貼られたかどうかを確認するために使用される。この例では、正しいラベルは白であり、誤ったラベルは暗い色をしている。   For example, the luminance detector 1150 is used to check whether the correct label has been applied. In this example, the correct label is white and the wrong label is dark.

物体が視覚検出器の視野を通って左から右に移動すると、ロケータ1122が物体の右端を追跡し、物体に対して正しい位置になるよう、輝度検出器1130、輝度検出器1150、およびエッジ検出器1160を再配置する。ロケータ1120は、検出器を物体の上端の位置に基づいて再配置し、視野内の物体のいかなる垂直位置の変動をも修正する。一般的に、ロケータはどのような位置にでも配置することができる。   As the object moves from left to right through the visual detector field of view, the locator 1122 tracks the right edge of the object and is in the correct position with respect to the object. Reposition instrument 1160. The locator 1120 repositions the detector based on the position of the top edge of the object and corrects for any vertical position variations of the object in the field of view. In general, the locator can be placed at any position.

ユーザーは、既知のHMI技術を使用して、画像表示内で写真の操作をすることができる。写真はマウスをクリックすることにより選択可能であり、またドラッグすることにより、そのROIは移動、サイズ変更、および回転が可能である。ロケータに関する付加的な操作は、視覚検出器の方法および装置で記載される。   The user can manipulate the photos within the image display using known HMI techniques. A photo can be selected by clicking the mouse, and by dragging, the ROI can be moved, resized, and rotated. Additional operations on the locator are described in the visual detector method and apparatus.

図12は、図11の設定例に対応する配線図を含む、論理ビューを示す。配線図は、自動装置への事象とインターフェイスを検出するのに使用されるすべてのガジェット、およびガジェットの論理入力・出力間の接続を示す。配線図は、ユーザーが見て操作するようにHMI630に表示される。ガジェットの表示およびそれらのHMIにおける論理的相互接続は論理ビューと呼ばれる。   FIG. 12 shows a logical view including a wiring diagram corresponding to the setting example of FIG. The wiring diagram shows all the gadgets used to detect events and interfaces to automated equipment and the connections between the gadget's logic inputs and outputs. The wiring diagram is displayed on the HMI 630 for the user to see and operate. The display of gadgets and their logical interconnections in the HMI are called logical views.

さらに図12の配線図について言及すると、「トップ」という名前のロケータ1220は、図11の画像表示内のロケータ1120に対応して、ワイヤー1224によりANDゲート1210に接続される。同様に、「サイド」ロケータ1222は、ロケータ1122に対応して、「ボックス」検出器1230は、輝度検出器1130に対応して、またANDゲート1210に配線される。小円1232で示されるように、および上記の通り、明るい背景に対してより暗い物体を検出するために、「ボックス」検出器1230は反転されている。   Still referring to the wiring diagram of FIG. 12, locator 1220 named “top” is connected to AND gate 1210 by wire 1224 corresponding to locator 1120 in the image display of FIG. Similarly, “side” locator 1222 corresponds to locator 1122 and “box” detector 1230 corresponds to luminance detector 1130 and is wired to AND gate 1210. As indicated by the small circle 1232 and as described above, the “box” detector 1230 is inverted to detect darker objects against a light background.

配線図において、輝度検出器「ラベル」1250は輝度検出器1150に対応して、そしてエッジ検出器「ラベルエッジ」1260はエッジ検出器1160に対応して、ANDゲート1212に配線される。ANDゲート1212の論理出力は、ラベル1210が不適用であることを信頼性のレベルで表すように転換され、ANDゲート1210に配線される。   In the wiring diagram, the luminance detector “label” 1250 corresponds to the luminance detector 1150 and the edge detector “label edge” 1260 corresponds to the edge detector 1160 and is wired to the AND gate 1212. The logic output of the AND gate 1212 is converted and wired to the AND gate 1210 to represent the level of reliability that the label 1210 is not applicable.

ANDゲート1210の論理出力は、物体が存在することを信頼性のレベルで表し、そのレベル、すなわち、事象が起こる信頼性のレベルが不適用であることを表す。ANDゲート1210の論理出力は、各フレームに対する事象検出の加重として使用されるため、事象検出判断1200に配線される。多くの代替事象状態は、また、アプリケーションの状況により適切であるが、この構成で適切な事象検出判断1200の事象状態は、「n>=3 かつ m>=0.5」である。   The logic output of AND gate 1210 represents the presence of an object with a level of confidence, indicating that level, ie, the level of confidence that the event occurs, is not applicable. The logic output of AND gate 1210 is wired to event detection decision 1200 because it is used as an event detection weight for each frame. Many alternative event states are also more appropriate depending on the situation of the application, but the event states of the appropriate event detection decision 1200 in this configuration are “n> = 3 and m> = 0.5”.

事象検出判断に配線するガジェットの選択は、アプリケーションの知識に基づきユーザーによって行われる。図11および12の例においては、ユーザーは上および右だけを検出するのでは、物体の存在を確認するのに分ではないと決定したかもしれない。ここで留意するべきなのは、ロケータ1122は、物体の右端に反応するのと同じように、ラベルの左端にも反応するかもしれないこと、そしておそらくこの時点で、プロダクションサイクルにおいて、ロケータ1120が背景で他のエッジを発見したかもしれないということである。検出器1130を加えること、またANDゲート1210を用いて3つすべての条件を満たすことで、事象の検出は信頼性の高いものになる。   Selection of a gadget to be wired for event detection determination is performed by a user based on application knowledge. In the example of FIGS. 11 and 12, the user may have determined that detecting only top and right is not enough to confirm the presence of an object. Note that the locator 1122 may react to the left edge of the label in the same way that it reacts to the right edge of the object, and perhaps at this point in the production cycle, the locator 1120 is in the background. This means that you may have found another edge. By adding the detector 1130 and satisfying all three conditions using the AND gate 1210, the detection of the event is reliable.

事象が検出された場合、画像は更に下記に説明されたように記録されるかもしれない。明らかに、事象フレームより前に時間に対応する画像は、いかにラベルが不適用であるかを正確に示す可能性が最も高い。視覚検出器がラベルが貼られる場所が実用的である限り近くで、物体を見ることができるように置くことがこの例では明らかに好ましい。   If an event is detected, the image may be further recorded as described below. Obviously, an image corresponding to time before the event frame is most likely to show exactly how the label is unapplied. It is clearly preferred in this example that the visual detector be placed as close as practical to where the label is applied so that the object can be seen.

事象検出判断1200の論理出力は、「シグナル」という名前の出力ガジェット1280に配線され、それは、PLCまたは、作動装置のような、自動装置に接続された場合、必要に応じて、視覚検出器から出力信号を制御する。出力ガジェット1280は、さらに視覚検出器の方法と装置に説明されたように、適切にユーザーにより構成される。自動装置は、事象が起こった場合、いつ、時間を利用し、どこで、エンコーダカウントを用いるか、決定することができるので、視覚検出器の方法と装置で教授されたように、出力ガジェット1280は、記録時間を同期化する遅延パルスを形成することができる。   The logic output of the event detection decision 1200 is wired to an output gadget 1280 named “Signal” that, when connected to an automatic device, such as a PLC or actuator, optionally from a visual detector. Control the output signal. The output gadget 1280 is further appropriately configured by the user as described in the visual detector methods and apparatus. Since the automatic device can determine when, when an event occurs, when to use time and where to use the encoder count, the output gadget 1280, as taught in the visual detector method and apparatus, A delay pulse for synchronizing the recording time can be formed.

ユーザーは既知のHMI技術を使うことにより、論理ビュー内でガジェットを操作することができる。ガジェットはマウスをクリックすることにより選択可能であり、そのポジションはドラッグによって移動可能、そしてワイヤーはドラッグ・ドロップ操作により作成が可能である。   The user can manipulate the gadget within the logical view by using known HMI techniques. Gadgets can be selected by clicking the mouse, their positions can be moved by dragging, and wires can be created by dragging and dropping.

当業者は、ガジェットの適切な選択、設定、および配線により、様々な事象が検出可能であるということを認識するであろう。当業者はまた、ガジェットクラス階層が本発明を実行するのに使われる多くのソフトウェア技術のなかの唯一のものであることを認識するであろう。   Those skilled in the art will recognize that various events can be detected by appropriate selection, configuration, and wiring of gadgets. Those skilled in the art will also recognize that the gadget class hierarchy is the only of many software technologies used to implement the present invention.

図13は、図1で示される生産設定に有用である可能性のある事象を検出するための視覚検出器のもう一つの構成に対応する画像表示を示す。この例では、表示アーム162が十分に延長されたが(そのストロークの先端)、物体1300は、ラベル1310を受取るために不正確な配置である場合、事象が起こる。アームエッジ検出器1340は、表示アーム162のストロークの先端に対応して視野内の位置に配置される。ここで留意するのは、この位置が視野に関連するように固定され、それが、製造ラインで動かないので、ロケータを使用する必要がないことである。トップエッジ検出器1320とサイドエッジ検出器1330は、物体1300がストロークの先端で好ましい位置にあることを確認するために使われる。   FIG. 13 shows an image display corresponding to another configuration of a visual detector for detecting events that may be useful in the production setup shown in FIG. In this example, the event occurs when the display arm 162 is fully extended (the tip of its stroke), but the object 1300 is in an incorrect placement to receive the label 1310. The arm edge detector 1340 is disposed at a position in the field of view corresponding to the tip of the stroke of the display arm 162. Note that this position is fixed relative to the field of view, and it does not move on the production line, so there is no need to use a locator. Top edge detector 1320 and side edge detector 1330 are used to confirm that object 1300 is in a preferred position at the tip of the stroke.

図14は、表示アーム162のストロークの先端で間違った位置に物体が対応して、事象を検出するために、図13の画像表示に対応してガジェットの構成を示す論理図である。「アーム」1440は、アームエッジ検出器1340に対応し、「トップ」1420はトップエッジ検出器1320に対応し、「サイド」1430は、サイドエッジ検出器1330に対応する。   FIG. 14 is a logic diagram showing the configuration of the gadget corresponding to the image display of FIG. 13 in order to detect an event in which an object corresponds to the wrong position at the tip of the stroke of the display arm 162. The “arm” 1440 corresponds to the arm edge detector 1340, the “top” 1420 corresponds to the top edge detector 1320, and the “side” 1430 corresponds to the side edge detector 1330.

図14に示されるように、変換されたANDゲート1412と配線されたANDゲート1410を用いて、事象検出判断1400は、物体1300がアーム162がストロークの先端であるときに、トップエッジ検出器1320とサイドエッジ検出器1330の少なくとも一つにより特定された位置でないことを信頼性のレベルで表す事象検出加重を受取る。この構成の場合、適切な事象検出判断1400の事象状態は、「n>=2」である。   Using the AND gate 1410 wired with the converted AND gate 1412, as shown in FIG. 14, the event detection decision 1400 determines that the object 1300 has a top edge detector 1320 when the arm 162 is at the tip of a stroke. And an event detection weight representing a level of confidence that the position is not specified by at least one of the side edge detectors 1330. In the case of this configuration, the event state of the appropriate event detection determination 1400 is “n> = 2”.

事象が検出された場合、画像は更に下記に説明されたように記録されるかもしれない。さらに、事象検出判断1400の論理出力は、「シグナル」という名前の出力ガジェット1480に配線され、それは、PLCまたは、作動装置のような、自動装置に接続された場合、必要に応じて、視覚検出器から出力信号を制御する。出力ガジェット1280は、さらに視覚検出器の方法と装置に説明されたように、適切にユーザーにより構成される。   If an event is detected, the image may be further recorded as described below. In addition, the logic output of event detection decision 1400 is wired to an output gadget 1480 named “Signal”, which, when connected to an automated device, such as a PLC or actuator, detects visual detection as needed. Control the output signal from the instrument. The output gadget 1280 is further appropriately configured by the user as described in the visual detector methods and apparatus.

図15は、図1で示される生産設定に有用である可能性のある事象を検出するための視覚検出器のさらにもう一つの構成を形成する画像表示と対応する論理表示を示す。この例では、表示アーム162事象が拡張されない、または、拡張しすぎる表示アーム162が、ストロークの先端が間違った場所にある場合、または、それが正しい位置に延長してあるが、正しいラベルアプリケーションのために短すぎたり長すぎたりしてそこにある場合、事象が起こる。   FIG. 15 shows a logical display corresponding to an image display that forms yet another configuration of a visual detector for detecting events that may be useful in the production setup shown in FIG. In this example, the display arm 162 event is not expanded or the display arm 162 is overextended if the stroke tip is in the wrong place, or it has been extended to the correct position but the correct label application. If it is too short or too long to be there, an event occurs.

過剰外延化は検出するのが易しい。エッジ検出器1512は、表示アーム162の下方ストロークの予期された先端の下に配置されている。対応する論理表示エッジ検出器「ハイパー」1540は、「ハイパー事象」事象検出判断1570に配線され、それは、拡張しすぎるアームを検出するために事象状態「w>=0.95」を使う可能性がある。ここに留意すべきは、総計事象検出加重wを使い、この事象状態は、そのフレームの事象検出加重がとても高い信頼性を示す場合、十分な証拠として単一フレームを受入れ、事象検出加重が低い信頼性を示す場合、少なくとも2つのフレームを必要とすることである。   Excessive extension is easy to detect. The edge detector 1512 is located below the expected tip of the display arm 162 downward stroke. The corresponding logical display edge detector “Hyper” 1540 is wired to the “Hyper Event” event detection decision 1570, which may use the event state “w> = 0.95” to detect an arm that is overextended. There is. Note that using the aggregate event detection weight w, this event state accepts a single frame as sufficient evidence if the event detection weight for that frame is very reliable, and the event detection weight is low When showing reliability, it requires at least two frames.

そのほかの状態では、ロケータ1500は、表示アーム162が先端付近の位置の範囲内であることを検出するために配置され、エッジ検出器1510は、表示アーム162が先端であることを検出するために配置される。対応する論理表示ロケータ「ストロ−ク」1520と反転したエッジ検出器「アペックス」1530は、ANDゲート1550に示されているように配線され、それは、事象検出判断「ストローク事象」1560に次々に配線される。この構成で事象検出加重は、表示アーム162が近くにあるが、そのストロークの先端ではないことを信頼性のレベルで表す。   In other states, the locator 1500 is arranged to detect that the display arm 162 is within the range of the position near the tip, and the edge detector 1510 is used to detect that the display arm 162 is the tip. Be placed. Corresponding logical display locator “Stroke” 1520 and inverted edge detector “Apex” 1530 are wired as shown in AND gate 1550, which in turn is routed to event detection decision “Stroke Event” 1560. Is done. In this configuration, the event detection weight represents the level of reliability that the display arm 162 is near but not the tip of the stroke.

ここに留意すべきは、図15の論理表示は、2つの事象検出判断の使用を含むことである。判断のいずれかが十分な証拠を見つけた場合、事象は検出されるので、一つ以上の事象検出判断が使われた場合、それぞれは、独立して操作される。各判断は、活動フラッグ300、有効統計302、無効統計304のコピーを用い、それ自身の有効分析ステップ312と事象分析ステップ314を操作する。ここに留意すべきは、視覚分析ステップ310は、写真やゲートのようなほかのガジェットにより操作されることである。   Note that the logical representation of FIG. 15 includes the use of two event detection decisions. If any of the decisions finds sufficient evidence, the event is detected, so if more than one event detection decision is used, each is operated independently. Each decision uses a copy of the activity flag 300, valid statistics 302, invalid statistics 304 and manipulates its own valid analysis step 312 and event analysis step 314. It should be noted that the visual analysis step 310 is operated by other gadgets such as photographs and gates.

図16は、たとえば、図15の適切な構造である事象検出判断「ストローク事象」1560のために、いかに事象が明確に示されているかを示す。上記に説明された図4に示されるプロットに似ている事象検出加重d対フレームカウントIの4つのプロットが示されている。 FIG. 16 shows how events are clearly shown, for example, for the event detection decision “stroke event” 1560, which is the appropriate structure of FIG. Four plots of event detection weights d i vs. frame count I, similar to the plot shown in FIG. 4 described above, are shown.

第一プロット1600は、拡張されていないアームを示す。アームは、約12のフレームで要求先端に近づくように動いたが、実際は先端に到達しなかった。第二プロット1610は、正しいラベルアプリケーションのために、要求先端に延長したが、唯一つだけフレームをそこに短すぎて残った、アームを示す。第三プロット1620 は、正しく延長され、要求先端に到達し、約3つのフレームのためにそこに残った、アームを示す。第四プロット1630は、長く延長され、要求先端に到達し、約7つのフレームのためにそこに残った、アームを示す。   The first plot 1600 shows an unexpanded arm. The arm moved closer to the required tip in about 12 frames but did not actually reach the tip. The second plot 1610 shows an arm that has extended to the required tip for the correct label application, but only one frame has remained too short there. The third plot 1620 shows the arm extended correctly, reaching the required tip and remaining there for about three frames. Fourth plot 1630 shows the arm extended longer, reaching the required tip and remaining there for about seven frames.

図10の事象状態「n>=2 かつ (a<.50|a>.75)」は、第一プロット1600、第二プロット1610、第四プロット1630の検出には適しているが、正しいアームの延長に対応する第三プロット1620では検出されない。「a<.50」の項は、第一プロット1600と第二プロット1610で検出される。「a>.75」の項は、第四プロット1630で検出される。「n>=2」の項は、単一フレームの偽の事象が検出されないことを約束する。   The event state “n> = 2 and (a <.50 | a> .75)” in FIG. 10 is suitable for detection of the first plot 1600, the second plot 1610, and the fourth plot 1630, but the correct arm Is not detected in the third plot 1620 corresponding to the extension of. The term “a <.50” is detected in the first plot 1600 and the second plot 1610. The term “a> .75” is detected in the fourth plot 1630. The term “n> = 2” promises that no single frame false event will be detected.

明らかに、表示アーム162のような、機械機器の誤った延長を検出するのに好ましく、当業者に起こるであろう、多くのほかの構成と事象状態がある。図17は、継続のウェブ上に欠陥の画像を検出し、記録するための発明を構成する一つの方法を示す。画像表示1710は、視覚検出器を通過している継続ウェブ1700の一部を示す。   Obviously, there are many other configurations and event conditions that are preferred for detecting erroneous extension of mechanical equipment, such as display arm 162, and would occur to those skilled in the art. FIG. 17 illustrates one method of constructing the invention for detecting and recording an image of a defect on a continuous web. Image display 1710 shows a portion of continuation web 1700 passing through a visual detector.

ロケータ1720とエッジ検出器1722は、ウェブを検査するために構成されている。ウェブが壊れたり、折り重なったり、どちらかの端に実質的に擦り切れている場合、ロケータ1720、および/または、エッジ検出器1722は、偽の出力(論理値<0.5)を形成するであろう。ウェブが、上下に移動する場合、ロケータ1720は、トップエッジを追跡したり、下端を検出するために関連する右の位置にエッジ検出器1722を備え付けるだろう。しかし、ウェブの幅が実質的に変わる場合、エッジ検出器1722は、偽の出力を形成するだろう。   Locator 1720 and edge detector 1722 are configured to inspect the web. If the web is broken, folded, or substantially frayed at either end, the locator 1720 and / or edge detector 1722 will produce a false output (logic <0.5). Let's go. If the web moves up and down, the locator 1720 will include an edge detector 1722 in the relevant right position to track the top edge or detect the bottom edge. However, if the width of the web changes substantially, the edge detector 1722 will produce a false output.

論理表示では、「トップ」ロケータ1740は、ロケータ1720を表し、「ボトム」ロケータ1750は、エッジ検出器1722を表す。これらは、ANDゲート1760に接続され、その論理出力は、事象検出判断1770で反転され、配線される。   In the logical representation, “top” locator 1740 represents locator 1720 and “bottom” locator 1750 represents edge detector 1722. These are connected to an AND gate 1760 and its logic output is inverted and wired in event detection decision 1770.

[マーキング、ストローク事象、同期化出力]
図18は、ビジョン検出器の出力信号が記録時間とどのように同期化されることがあるかを説明するために使用するタイミング図を示す。信号の同期化は、ダウンストリーム作動装置の制御など、さまざまな工業検査の目的において望ましい。
[Marking, stroke event, synchronized output]
FIG. 18 shows a timing diagram used to explain how the output signal of the vision detector may be synchronized with the recording time. Signal synchronization is desirable for various industrial inspection purposes, such as control of downstream actuators.

視覚事象検出は、新しい機能であるので、新しい出力信号制御を提案する。ビジョン検出器は、直接的に、または、PLCへの入力として機能することにより、一部の外部作動装置を制御できることが望ましい。これは、出力信号のタイミングが、物体が生産フローにおいて特定の固定点を通過するとき(フロー事象)、または、機械構成要素がストロークの頂点に到達するとき(ストローク事象)など、何らかの物理的手段によってある時間に一定の正確さで関係付けられることを示唆する。図1の例では、固定点は記録点150が可能であり、図2のタイムラインでは、時間は記録時間250と252である。図15の例では、エッジ検出器1510は、ラベル貼り付けアーム162のストロークの頂点に位置する。図18では、時間は記録時間1800である。エンコーダのカウントが時間の代わりに使用されることがある。   Since visual event detection is a new function, a new output signal control is proposed. The vision detector should be able to control some external actuators either directly or by functioning as an input to the PLC. This is because the timing of the output signal is some physical means, such as when the object passes a certain fixed point in the production flow (flow event) or when the machine component reaches the top of the stroke (stroke event). Suggests that it can be related to a certain time with a certain degree of accuracy. In the example of FIG. 1, the fixed point can be the recording point 150, and in the timeline of FIG. 2, the times are the recording times 250 and 252. In the example of FIG. 15, the edge detector 1510 is located at the apex of the stroke of the label attaching arm 162. In FIG. 18, the time is the recording time 1800. Encoder count may be used instead of time.

本発明は、作動装置を直接制御している場合でも、PLCまたはその他任意の外部装置により使用されている場合でも、記録時間と一定の正確さで同期化された出力を提供できる。しかしながら、1つの問題は、本発明は、発生してから何ミリ秒かの後、つまり、記録時間のミリ秒後に事象を検出することである。さらに、遅れは、それほどではないにしても、取得/分析サイクルにおいて記録時間がいつ発生するかは、何個のフレームが分析されるかに応じて非常に変化することがある。   The present invention can provide an output that is synchronized with recording time with a certain degree of accuracy, whether directly controlling the actuator or being used by a PLC or any other external device. One problem, however, is that the present invention detects an event several milliseconds after it occurs, that is, milliseconds after the recording time. Moreover, the delay, if not so, when recording time occurs in the acquisition / analysis cycle can vary greatly depending on how many frames are analyzed.

図18は、事象検出論理出力1840を示す。検出パルス1870は、決定が決定点1810で行われるとき、事象検出論理出力1840に表示される。決定点1810は、図3のフローチャートの事象ブロック372が実行される時点に対応する。記録時間1800から決定点1810までの決定の遅れ1830は、それほどではないにしても、分析されるフレームの個数に応じて、取得/分析サイクルにおいて記録時間がいつ発生するかは、変化することがある。従って、検出パルス1870のタイミングは、事象がいつ発生したかに関する正確な情報を伝達しない。   FIG. 18 shows the event detection logic output 1840. Detection pulse 1870 is displayed on event detection logic output 1840 when a decision is made at decision point 1810. Decision point 1810 corresponds to the point in time when event block 372 in the flowchart of FIG. 3 is executed. The decision delay 1830 from the recording time 1800 to the decision point 1810, if not so, can vary when the recording time occurs in the acquisition / analysis cycle, depending on the number of frames analyzed. is there. Thus, the timing of the detection pulse 1870 does not convey accurate information about when the event occurred.

可変する決定の遅れ1830の問題は、画像を取得して分析することにより、事象を検出しようとするすべての装置に適用される。また、事象がいつ発生したかを示す信号を、フレーム周期(フレームレートの逆数)よりも高い正確度で提供することが好ましい場合に適用する。本発明は、記録時間1800を測定してから、出力信号1860の出力パルス1880を記録時間に同期化することにより、この問題を解決する。   The problem of variable decision delay 1830 applies to all devices that attempt to detect events by acquiring and analyzing images. Further, the present invention is applied to a case where it is preferable to provide a signal indicating when an event has occurred with an accuracy higher than the frame period (the reciprocal of the frame rate). The present invention solves this problem by measuring the recording time 1800 and then synchronizing the output pulse 1880 of the output signal 1860 to the recording time.

出力パルス1880は、記録時間1800から固定された出力の遅れ1820で発生する。記録時間の測定動作は「マーキング」と呼ばれる。記録時間は、適切な探知器により決定されると、画像、物体の知られている位置、機械構成要素または視野で運動している物体が取得されると知られている時間(またはエンコーダのカウント)を使用して、線形補間、最小二乗フィット、またはその他のよく知られている方法よりもはるかに高い正確度で決定できる。正確度は、シャッタータイム、取得/分析サイクルの全体時間、移動速度、およびその他の要素により異なる。   The output pulse 1880 is generated with a fixed output delay 1820 from the recording time 1800. The recording time measurement operation is called “marking”. The recording time, when determined by an appropriate detector, is the time known to acquire an image, a known position of the object, a machine component or an object moving in the field of view (or an encoder count). ) Can be determined with much higher accuracy than linear interpolation, least squares fit, or other well known methods. The accuracy depends on the shutter time, the total time of the acquisition / analysis cycle, the speed of movement, and other factors.

例示的実施形態では、ユーザーは、検索範囲がマーキングのために使用される移動方向と実質的に同じ1つの探知器を選択する。フロー事象の場合は、マークポイントは、上記のように、探知器の範囲の中央になる点が任意に選択されるが、記録点は、固定されている限り正確な位置が問題にならない架空の基準点である。ユーザーは、この任意の時間からの遅れを調節することにより、出力信号の好ましい同期を実現できる。   In the exemplary embodiment, the user selects one detector whose search range is substantially the same as the direction of travel used for marking. In the case of a flow event, the mark point is arbitrarily selected as the center point of the detector range as described above. However, as long as the recording point is fixed, the fictitious position does not matter. Reference point. The user can achieve a favorable synchronization of the output signal by adjusting the delay from this arbitrary time.

事象が検出されてもアクティブフレームの間に運動が記録点を交差しなければ、記録時間は、推定が基本になるので、正確度は低くなることがある。ストローク事象の場合、記録点は、ストロークの頂点であり、以下で説明されるように測定される。記録点のその他の定義は、本発明を実践するために使用できることが明らかである。   If an event is detected but the motion does not cross a recording point during an active frame, the recording time may be less accurate because the estimation is based on estimation. In the case of a stroke event, the recorded point is the apex of the stroke and is measured as described below. It will be apparent that other definitions of recording points can be used to practice the present invention.

出力信号は、出力の遅れ1820が決定予想の最大の遅れ1830よりも長ければ、記録時間とだけ同期できることに注意する。このように、出力パルス1880の結果としてとられるすべての動作は、例えば、作動装置の操作のように、記録点の十分なダウンストリームになければならず、ほとんどすべてのアプリケーションの場合に想定される。   Note that the output signal can only be synchronized with the recording time if the output delay 1820 is longer than the maximum expected delay 1830. Thus, all actions taken as a result of the output pulse 1880 must be well downstream of the recording point, eg, operation of the actuator, and is assumed for almost all applications. .

図19は、ストローク事象の場合の時間関数としての探知器の結果のグラフを示す。探知器は、例えば、図15の探知器1500のように、ストローク方向と実質的に並行な方向で検索するように構成されなければならない。検索される次元がストローク方向と実質的に並行な方向を含む限り、多次元の探知器も使用できることに注意する。任意の基準点から測定される時間が水平軸1900に描かれる。探知器の論理出力は、白抜きの点1920および塗りつぶされた点1922など、四角いポイントの連続として描かれ、探知器位置曲線1950により結ばれる。フレームに対応する四角い点が描かれた別々の時間だけで、探知器は位置を測定する。従って、探知器の位置曲線1950は、読み手の任意に描かれると理解され、探知器による連続的な測定を表さない。四角い点の縦の位置に対応する論理出力値は、第一の縦軸1910に描かれる。白抜きの点1920などの白抜きの四角い点は、探知器が対象の画像の特徴を見つけたという確信がほとんどない場合の低い論理出力値(0.5未満、例示的実施形態の基準線1914に相当する)を表す。塗りつぶされた点1922などの黒い四角い点は、探知器が対象画像の極超を見つけたという強い確信がある場合の高い論理出力値(例示的実施形態では0.5以上)であり、従って、測定位置が有効であることを示す。   FIG. 19 shows a graph of detector results as a function of time for stroke events. The detector must be configured to search in a direction substantially parallel to the stroke direction, such as, for example, detector 1500 in FIG. Note that multi-dimensional detectors can also be used as long as the searched dimension includes a direction substantially parallel to the stroke direction. The time measured from any reference point is depicted on the horizontal axis 1900. The logic output of the detector is drawn as a series of square points, such as white points 1920 and filled points 1922, connected by a detector position curve 1950. Only at different times when the square points corresponding to the frames are drawn, the detector measures the position. Accordingly, the detector position curve 1950 is understood to be arbitrarily drawn by the reader and does not represent a continuous measurement by the detector. The logical output value corresponding to the vertical position of the square point is drawn on the first vertical axis 1910. White square points, such as white dots 1920, indicate low logic output values (less than 0.5, baseline 1914 in the exemplary embodiment) when the detector has little confidence that it has found the feature of the subject image. Is equivalent). A black square point, such as a filled point 1922, is a high logical output value (greater than 0.5 in the exemplary embodiment) when there is a strong confidence that the detector has found the extreme of the target image, and thus Indicates that the measurement position is valid.

測定された探知器の位置は、位置ポイント例1930など、黒丸として描かれた位置点の連続として描かれる。位置点の縦の位置に対応する位置の値は、第二の縦軸1912に描かれて、探知器の中央からのピクセルで測定される。位置点は、探知器の論理出力が0.5以上の場合のフレームだけ、つまり、探知器が対象画像の特徴を発見したという強い確信があるフレームだけに、表示されることに注意する。   The measured position of the detector is drawn as a series of position points drawn as black circles, such as position point example 1930. A position value corresponding to the vertical position of the position point is plotted on the second vertical axis 1912 and measured in pixels from the center of the detector. Note that the position points are displayed only in frames where the detector's logic output is greater than or equal to 0.5, i.e., frames where there is a strong confidence that the detector has found a feature of the target image.

視野の機械的構成要素が、探知器の検索範囲を、頂点に向かって、約+6ピクセルで、約4個のフレーム分前進し、約6個のフレーム分、その頂点で維持されてから、検索範囲を超える前に別の4個のフレーム分後退した位置ポイントを確認することによりわかる。このストローク事象の特定の記録時間を計算するために、例示的実施形態は、位置ポイントを使用して、最適な放物線1940を計算すると、放物線1960の頂点が容易に決定される。説明的例では、記録時間(最適放物線の頂点)は、19.2ミリ秒で発生する。   The mechanical component of the field of view advances the detector's search range by about +6 pixels toward the vertex, about 4 frames, and is maintained at that vertex for about 6 frames before searching. This can be seen by checking a position point that has been retracted by another four frames before the range is exceeded. To calculate a specific recording time for this stroke event, the exemplary embodiment uses the position points to calculate the optimal parabola 1940, and the vertex of the parabola 1960 is easily determined. In the illustrative example, the recording time (the peak of the optimal parabola) occurs at 19.2 milliseconds.

ポイントのセットから最適放物線を計算するための方法は、技術的によく知られている。当業者には、本発明の範囲内において、ストローク事象の頂点を決定するためのその他の方法を使用できることが明らかである。さらに、本明細書で説明される方法を使用して、本明細書で検討されるフローおよびストローク事象以外の運動が追跡できること、さらに、このような運動の場合の記録時間を決定するために、適切な曲線がフィットできること、また、その他の技術を使用できることが明らかである。   Methods for calculating an optimal parabola from a set of points are well known in the art. It will be apparent to those skilled in the art that other methods for determining the apex of a stroke event can be used within the scope of the present invention. In addition, in order to determine that the methods described herein can be used to track movements other than the flow and stroke events discussed herein, and to determine the recording time for such movements, It is clear that the appropriate curve can be fitted and other techniques can be used.

図20は、出力の遅れ1820(図18)を設定する制御などの、出力機器のユーザー設定のためのパラメータ表示を示す。モード制御2000により、ユーザーは、出力信号をどのように制御するかを選択できる。「直線」モードでは、論理入力は、遅れまたは同期が全くなく、出力信号に直接渡される。「遅延」モードでは、論理入力の上昇部分上で、出力パルスは、遅延制御2010により指定された量だけ、最も直近に測定された記録時間(またはエンコーダカウント)から遅れた時間で、および、パルス制御2020により指定された期間の間、発生するようにスケジュールされる。スケジュールされたパルスは、出力機器に関連づけられたFIFOに配置されることもある。   FIG. 20 shows a parameter display for user setting of the output device, such as control for setting the output delay 1820 (FIG. 18). The mode control 2000 allows the user to select how to control the output signal. In “Linear” mode, the logic input is passed directly to the output signal with no delay or synchronization. In “delay” mode, on the rising portion of the logic input, the output pulse is delayed by the amount specified by the delay control 2010 by a time delayed from the most recently measured recording time (or encoder count) and Scheduled to occur for the period specified by control 2020. Scheduled pulses may be placed in a FIFO associated with the output device.

[画像の記録と検索]
図21は、例示的実施形態で使用されるメモリ710(図7)の一部の組織の詳細を示す。フレームバッファプール2100は、さまざまな目的で使用される、フレームバッファ2130、2132、2134、2136および2138のようないくつかの個別のフレームバッファを含む。フリープール2110は、リングバッファとして組織されて、事象決定のためのフレームを取得して分析するために使用される。書き込みポインタ2120は、次のフレームが取得される、次に使用可能なフレームバッファ2130を示す。フレームバッファ2130への画像取得と同時に、フレームバッファ2132にある以前の画像が分析されている。ある時点で、リングバッファはいっぱいになることがあり、その時点で、古いフレームは上書きされる。
[Recording and searching images]
FIG. 21 shows organizational details of some of the memory 710 (FIG. 7) used in the exemplary embodiment. Frame buffer pool 2100 includes a number of individual frame buffers, such as frame buffers 2130, 2132, 2134, 2136, and 2138, that are used for various purposes. The free pool 2110 is organized as a ring buffer and is used to acquire and analyze frames for event determination. The write pointer 2120 indicates the next available frame buffer 2130 from which the next frame is obtained. Simultaneously with the image acquisition to the frame buffer 2130, the previous image in the frame buffer 2132 is analyzed. At some point, the ring buffer may fill up, at which point old frames are overwritten.

撮像装置760がLM9630である場合の例示的実施形態では、例えば、各フレームバッファは、128x100個の8ビットピクセルを含む。図では、フレームバッファプール2100は、明確化のために、数十の要素だけを含むように示されているが、実際には、さらに多いほうが望ましい。ある実施例では、160個の要素が使用されているが、2メガバイトをやや下回るストレージが必要であり、200フレーム/秒の実行速度で約0.8秒、または、500フレーム/秒の実行速度で約0.32秒で保管する能力である。明らかに、フレームレートが低くなると、画像を保管できる時間は増加する。   In an exemplary embodiment where the imaging device 760 is an LM9630, for example, each frame buffer includes 128 × 100 8-bit pixels. In the figure, the frame buffer pool 2100 is shown to include only a few dozen elements for clarity, but in practice it is desirable to have more. In one embodiment, 160 elements are used, but storage slightly less than 2 megabytes is required, with an execution speed of 200 frames / second, approximately 0.8 seconds, or an execution speed of 500 frames / second. The ability to store in about 0.32 seconds. Obviously, the lower the frame rate, the more time an image can be stored.

事象が検出されると、事象が発生してから多くのフレームが発生することがあるが、取得された画像の最近の履歴は、フリープール2110にある。例示的実施形態では、フリープール2110は、事象フレーム、および、アプリケーションの目的のために十分な数の事象フレームの前後のフレームを保持する十分な大きさである。事象が検出されるとき、最近の履歴は、記録制御1050のようなユーザーの選択により、記録されるフレームがない、一部、または全部を含むことがある。最近の履歴がフレームのすべてを含む場合は、以下で説明されるように、直ちに記録できる。すべてを含まない場合は、記録は、記録されるフレームのすべてが利用可能である将来の時点で発生する。   When an event is detected, many frames may occur since the event occurred, but the recent history of acquired images is in the free pool 2110. In the exemplary embodiment, free pool 2110 is large enough to hold event frames and frames before and after a sufficient number of event frames for application purposes. When an event is detected, the recent history may include some or all of the frames that are not recorded, depending on the user's choice, such as recording control 1050. If the recent history includes all of the frames, it can be recorded immediately, as explained below. If not all, recording will occur at a future time when all of the recorded frames are available.

例示的実施形態において、例2134など、「R」とマークされたフレームバッファは、記録される画像を保持し、例2136などの「E」は事象フレーム(記録される)を保持する。事象は記録時間2160で発生し、バッファ2134のフレームの分析中に検出される。事象が検出されたとき、記録されるフレームの全部ではないが、一部が最近の履歴にある。バッファ2132のフレームを後で分析中に、最近の履歴はこれで記録されるフレームすべてを含むと決定される。   In an exemplary embodiment, a frame buffer marked “R”, such as Example 2134, holds the image to be recorded, and “E”, such as Example 2136, holds the event frame (recorded). The event occurs at recording time 2160 and is detected during analysis of the buffer 2134 frame. When an event is detected, some but not all of the recorded frames are in the recent history. During later analysis of the buffer 2132 frames, it is determined that the recent history now contains all the frames recorded.

フレームを記録するために、フレームバッファはフリープール2110から削除されて、保管された事象2112、2114および2116を含む、保管された事象プール2104に追加される。新しく保管された事象を削除後にフリープール2110のフレームバッファの数が小さくなりすぎる場合は、さまざまなアクションが可能である。ある実施例では、事象検出は、バッファがフリープール2110に戻ることができるように、HMI630(図6)がフレームを保管された事象プール2104にアップロードするまで、中断する。別の実施例では、1つ以上の保管された古い事象は保管された事象プール2104から取り出されて、フリープール2104に戻されることがある。これらの古い事象は、表示することはできなくなる。   To record the frame, the frame buffer is deleted from the free pool 2110 and added to the stored event pool 2104, including stored events 2112, 2114 and 2116. If the number of frame buffers in the free pool 2110 becomes too small after deleting a newly stored event, various actions are possible. In one embodiment, event detection suspends until HMI 630 (FIG. 6) uploads the frame to stored event pool 2104 so that the buffer can return to free pool 2110. In another embodiment, one or more stored old events may be retrieved from the stored event pool 2104 and returned to the free pool 2104. These old events can no longer be displayed.

例示的実施形態では、フレームバッファは決してコピーされない。その代わりに、フレームバッファは、技術的によく知られた技術を使用するポインタ操作により、フリープール2110と保管された事象プール2104の間を移動する。   In the exemplary embodiment, the frame buffer is never copied. Instead, the frame buffer moves between the free pool 2110 and the stored event pool 2104 by pointer manipulation using techniques well known in the art.

リスト要素2140、2142および2144など、保管された事象のリスト210 2が維持される。リスト要素2140は、例えば、次の要素ポインタ2150、フレームバッファカウント2152、結果情報2154、および保管された事象ポインタ2156を含む。結果情報2154は、図にあるようにタイムスタンプ、または、表示されていないがアクティブデータ302のような他の情報を含むことがある。   A list of stored events 2102, such as list elements 2140, 2142 and 2144, is maintained. The list element 2140 includes, for example, a next element pointer 2150, a frame buffer count 2152, result information 2154, and a stored event pointer 2156. Result information 2154 may include a time stamp, as shown, or other information such as active data 302 that is not displayed.

結果情報2154は、事象全体に適用される情報を含む。保管された事象プール2104のフレームバッファで表示されている例のように、各記録されたフレームの情報を提供することがさらに好ましい。例示的実施形態では、保管された情報は、記録時間に想定的なフレームの取得時間をミリ秒単位で記録するタイムスタンプを含む。事象検出加重や個別の機器の結果のようなその他の情報(表示されていない)も記録されることがある。   Result information 2154 includes information that applies to the entire event. It is further preferred to provide information for each recorded frame, as in the example displayed in the frame buffer of the stored event pool 2104. In the exemplary embodiment, the stored information includes a time stamp that records the acquisition time of the frame assumed for the recording time in milliseconds. Other information (not displayed) may also be recorded, such as event detection weights and individual device results.

図6に戻って参照すると、ビジョン検出器は、設定を目的として、信号640を経由して人−マシンインターフェイス(HMI)630に接続されることがある。また、HMIがビジョン検出器600の一部であることも可能であるが、これは、HMIは一般的に事象検出には必要ではないため、あまり好まれない。したがって、1台のHMIは多数のビジョン検出器の間で共有できる。HMIは、図22に示される図説部分の従来の設計のグラフィカルユーザーインターフェイス(GUI)を実行することがある。   Referring back to FIG. 6, the vision detector may be connected to a human-machine interface (HMI) 630 via signal 640 for configuration purposes. It is also possible for the HMI to be part of the vision detector 600, but this is less preferred because the HMI is generally not needed for event detection. Thus, one HMI can be shared among multiple vision detectors. The HMI may implement a conventional design graphical user interface (GUI) of the illustrated portion shown in FIG.

GUIにより、ビジョン検出器のメモリ710に保管された記録された画像の一部が、人間のユーザーに表示されることが可能である。図22の例示的実施形態では、映写スライドウィンドウ2202は、8個までのサムネイル画像2210、2212、2214、2216、2220、2230、2232および2234を表示する。それぞれのサムネイル画像は、保管された事象プール2104に対応する記録された画像の低解像度バージョンである。一般的に、サムネイル画像は、記録の単独事象の連続画像に対応するが、対応するサムネイルの間の画像の何個かを省略するなど、その他の処理も有用なことがある。   The GUI allows a portion of the recorded image stored in the vision detector memory 710 to be displayed to a human user. In the exemplary embodiment of FIG. 22, projection slide window 2202 displays up to eight thumbnail images 2210, 2212, 2214, 2216, 2220, 2230, 2232 and 2234. Each thumbnail image is a low resolution version of the recorded image corresponding to the stored event pool 2104. In general, a thumbnail image corresponds to a continuous image of recorded single events, but other processes may be useful, such as omitting some of the images between corresponding thumbnails.

スクロール制御のセット2250は、事象の記録された画像内、または事象間で前後してサムネイル画像を移動するために映写スライドウィンドウ2202に提供される。次の画像制御2260は、画像を1つずつ進めて、以前の画像制御2262は画像を1つずつ逆に進む。次の事象制御2264と以前の事象制御2266は、事象を1つずつ前後に表示する。   A set of scroll controls 2250 is provided to the projection slide window 2202 for moving thumbnail images back and forth within the recorded images of events or between events. The next image control 2260 advances the image one by one, and the previous image control 2262 advances the image one by one in reverse. The next event control 2264 and the previous event control 2266 display events one after the other.

サムネイル2220は、物体116(図1)の例に対応することがある、物体224 2の低解像度画像を表示する。また、物体2242は、サムネイル2210の物体例2240のように、わずかに異なる表示視点(視野内の位置)およびアーム2272によるラベル2270の貼り付けの間異なる時間で、その他のすべてのサムネイルも表示する。スクロール制御2250を使用してスクロールコマンドを発行することにより、ユーザーは、任意の望ましい時間間隔を見るために記録された画像を前後に移動できる。特に、サムネイル2212、2214および2216にある図説の画像例を検討すると、ラベル2270は、貼られているように、物体の上端で引っかかっているように見える。   Thumbnail 2220 displays a low-resolution image of object 2242 that may correspond to the example of object 116 (FIG. 1). The object 2242 also displays all other thumbnails at slightly different display viewpoints (positions within the field of view) and at different times during the application of the label 2270 by the arm 2272, as in the example object 2240 of the thumbnail 2210. . By issuing scroll commands using the scroll control 2250, the user can move the recorded image back and forth to view any desired time interval. In particular, considering the illustrative images in thumbnails 2212, 2214, and 2216, label 2270 appears to be stuck at the top of the object as it is pasted.

図22の例示的実施形態では、太線で囲まれて「選択された画像」として参照されている、サムネイル2220に対応する画像も、画像表示ウィンドウ2200で最高解像度で表示される。スクロールコマンドが表示部分を前後に進むにつれて、別の選択された画像がサムネイル2220に移動して、画像表示ウィンドウ2200で最高解像度で表示される。記録時間に想定的に選択された画像の取得時間(この例のミリ秒)を示すタイムスタンプ2280のような選択された画像についてのその他の情報も表示される。   In the exemplary embodiment of FIG. 22, the image corresponding to the thumbnail 2220 that is surrounded by a thick line and referred to as the “selected image” is also displayed in the image display window 2200 at the highest resolution. As the scroll command advances forward and backward through the display portion, another selected image moves to thumbnail 2220 and is displayed at the highest resolution in image display window 2200. Other information about the selected image is also displayed, such as a time stamp 2280 indicating the acquisition time (milliseconds in this example) of the image that was supposedly selected for the recording time.

以上は、本発明のさまざまな実施例の詳細説明である。本発明の製品および範囲から逸脱することなく、本発明にさまざまな範囲の修正や追加を行えることが明らかである。例えば、本明細書のプロセッサと計算デバイスは例であって、スタンドアロンと分散両方のさまざまなプロセッサおよびコンピュータが、開示された計算を実施するために採用できる。同様に、本明細書で記述された撮像装置やその他のビジョン構成要素は、例であって、改善されたまたは別の構成要素が本発明の開示内で採用できる。ソフトウェア要素、GUI設計およびレイアウト、パラメータ値、および数式は、すべて本発明の特定のアプリケーションに適するように同等に修正または置換できる。従って、本記述は一例を意味するものであって、本発明の範囲を限定するものではない。   The above is a detailed description of various embodiments of the invention. It will be apparent that various modifications and additions can be made to the invention without departing from the product and scope of the invention. For example, the processors and computing devices herein are examples and various processors and computers, both stand-alone and distributed, can be employed to perform the disclosed calculations. Similarly, the imaging devices and other vision components described herein are examples, and improved or alternative components can be employed within the present disclosure. Software elements, GUI design and layout, parameter values, and mathematical expressions can all be equally modified or replaced to suit the particular application of the present invention. Accordingly, this description is meant to be exemplary, and is not intended to limit the scope of the present invention.

Claims (8)

記録時間を検出、及び報告するための方法であって、
少なくとも1つの物体を含む一組の物体と、グローバルシャッターを有するセンサーの二次元視野との間に相対的運動を生成するステップと、
前記センサーに対する固定位置に記録点を設けるステップと、
複数の取得時間において、前記センサーを使用して、前記二次元視野の複数のアクティブフレームを取得するステップと、
前記複数のアクティブフレームの分析を実施し、複数のロケーション値を得るステップであって、前記複数のロケーション値のうちの1つのロケーション値は、対応するアクティブフレームが取得された前記取得時間における前記一組の物体のうちの1つの物体の前記記録点に対する位置に対応する、前記複数のアクティブフレームの分析を実施し、複数のロケーション値を得るステップと、
前記一組の物体のうちの1つの物体による前記記録点の少なくとも一部の交差について、前記取得時間、及びロケーション値を使用して、対応する記録時間を決定するステップであって、前記対応する記録時間の決定が、前記対応する記録時間から対応する決定遅延だけ異なる対応する決定点において行われ、前記決定遅延が、実質的に可変である、前記一組の物体のうちの1つの物体による前記記録点の少なくとも一部の交差について、前記取得時間、及びロケーション値を使用して、対応する記録時間を決定するステップと、
前記記録時間の少なくとも一部について、前記対応する記録時間から遅延時間間隔だけ後のレポートタイムにおいて、信号を生成するステップと、
前記信号の前記レポートタイムを使用して、前記対応する記録時間を示すステップと
からなる方法。
A method for detecting and reporting a recording time,
Generating a relative motion between a set of objects including at least one object and a two-dimensional field of view of a sensor having a global shutter;
Providing a recording point at a fixed position relative to the sensor;
Acquiring a plurality of active frames of the two-dimensional field of view using the sensor at a plurality of acquisition times;
Performing an analysis of the plurality of active frames to obtain a plurality of location values, wherein one location value of the plurality of location values is the one at the acquisition time at which the corresponding active frame was acquired; Performing an analysis of the plurality of active frames corresponding to a position of one object of the set with respect to the recording point to obtain a plurality of location values;
Determining a corresponding recording time for the intersection of at least a portion of the recording points by one object of the set of objects using the acquisition time and a location value; A recording time determination is made at a corresponding decision point that differs from the corresponding recording time by a corresponding decision delay, and the decision delay is substantially variable, according to one object of the set of objects. Determining a corresponding recording time using the acquisition time and a location value for at least some intersections of the recording points;
Generating a signal at a report time after a delay time interval from the corresponding recording time for at least a portion of the recording time;
Using the reporting time of the signal to indicate the corresponding recording time.
前記記録時間を決定するステップは、少なくとも3つの取得時間、及び対応するロケーション値に曲線をフィットさせることをさらに含む、請求項1に記載の方法。   The method of claim 1, wherein determining the recording time further comprises fitting a curve to at least three acquisition times and corresponding location values. 前記曲線は線を含む、請求項2に記載の方法。   The method of claim 2, wherein the curve comprises a line. FIFOバッファを使用して、前記レポートタイムに前記信号を生成するために必要な情報を保持するステップをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising using a FIFO buffer to hold information necessary to generate the signal at the report time. 記録時間を検出、及び報告するためのシステムであって、
少なくとも1つの物体を含む一組の物体と、グローバルシャッターを有するセンサーの二次元視野との間に相対的運動を生成する手段と、
前記センサーに対する固定位置に記録点を設ける手段と、
複数の取得時間において、前記センサーを使用して、前記二次元視野の複数のアクティブフレームを取得する手段と、
前記複数のアクティブフレームの分析を実施し、複数のロケーション値を得る手段であって、前記複数のロケーション値のうちの1つのロケーション値は、対応するアクティブフレームが取得された前記取得時間における前記一組の物体のうちの1つの物体の前記記録点に対する位置に対応する、前記複数のアクティブフレームの分析を実施し、複数のロケーション値を得る手段と、
前記一組の物体のうちの1つの物体による前記記録点の少なくとも一部の交差について、前記取得時間、及びロケーション値を使用して、対応する記録時間を決定する手段であって、前記対応する記録時間の決定が、前記対応する記録時間から対応する決定遅延だけ異なる対応する決定点において行われ、前記決定遅延が、実質的に可変である、前記一組の物体のうちの1つの物体による前記記録点の少なくとも一部の交差について、前記取得時間、及びロケーション値を使用して、対応する記録時間を決定する手段と、
前記記録時間の少なくとも一部について、前記対応する記録時間から遅延時間間隔だけ後のレポートタイムにおいて、信号を生成する手段と、
前記信号の前記レポートタイムを使用して、前記対応する記録時間を示す手段と
からなるシステム
A system for detecting and reporting recording time,
Means for generating relative motion between a set of objects including at least one object and a two-dimensional field of view of a sensor having a global shutter;
Means for providing a recording point at a fixed position relative to the sensor;
Means for acquiring a plurality of active frames of the two-dimensional field of view using the sensor at a plurality of acquisition times;
Means for performing an analysis of the plurality of active frames to obtain a plurality of location values, wherein one location value of the plurality of location values is the one at the acquisition time at which the corresponding active frame was acquired; Means for performing an analysis of the plurality of active frames corresponding to a position of one object of the set relative to the recording point to obtain a plurality of location values;
Means for determining a corresponding recording time using the acquisition time and a location value for an intersection of at least some of the recording points by one object of the set of objects, A recording time determination is made at a corresponding decision point that differs from the corresponding recording time by a corresponding decision delay, and the decision delay is substantially variable, according to one object of the set of objects. Means for determining a corresponding recording time using the acquisition time and location value for at least some intersections of the recording points;
Means for generating a signal at a report time after a delay time interval from the corresponding recording time for at least a portion of the recording time;
Using said reporting time of the signal, the system comprising a means for indicating the recording time said corresponding.
前記記録時間を決定する手段は、少なくとも3つの取得時間、及び対応するロケーション値に曲線をフィットさせる手段をさらに含む、請求項5に記載のシステム。   6. The system of claim 5, wherein the means for determining the recording time further comprises means for fitting a curve to at least three acquisition times and corresponding location values. 前記曲線は線を含む、請求項6に記載のシステム。   The system of claim 6, wherein the curve comprises a line. FIFOバッファを使用して、前記レポートタイムに前記信号を生成するために必要な情報を保持する手段をさらに含む、請求項5に記載のシステム。   6. The system of claim 5, further comprising means for holding information necessary to generate the signal at the report time using a FIFO buffer.
JP2011168412A 2004-06-09 2011-08-01 Method and apparatus for automatic visual event detection Active JP5350444B2 (en)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US10/865,155 2004-06-09
US10/865,155 US9092841B2 (en) 2004-06-09 2004-06-09 Method and apparatus for visual detection and inspection of objects
US11/059,512 US20050276445A1 (en) 2004-06-09 2005-02-16 Method and apparatus for automatic visual detection, recording, and retrieval of events
US11/059,512 2005-02-16
US11/138,033 US8249297B2 (en) 2004-06-09 2005-05-26 Method and apparatus for automatic visual event detection
US11/138,023 US8249296B2 (en) 2004-06-09 2005-05-26 Method and apparatus for automatic visual event detection
US11/138,033 2005-05-26
US11/138,025 2005-05-26
US11/138,025 US8243986B2 (en) 2004-06-09 2005-05-26 Method and apparatus for automatic visual event detection
US11/138,023 2005-05-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007527637A Division JP4980907B2 (en) 2004-06-09 2005-06-06 Method and apparatus for automatic visual event detection

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012271013A Division JP5575867B2 (en) 2004-06-09 2012-12-12 Method and apparatus for automatic visual event detection

Publications (2)

Publication Number Publication Date
JP2011258220A JP2011258220A (en) 2011-12-22
JP5350444B2 true JP5350444B2 (en) 2013-11-27

Family

ID=35431300

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007527637A Active JP4980907B2 (en) 2004-06-09 2005-06-06 Method and apparatus for automatic visual event detection
JP2011168412A Active JP5350444B2 (en) 2004-06-09 2011-08-01 Method and apparatus for automatic visual event detection

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007527637A Active JP4980907B2 (en) 2004-06-09 2005-06-06 Method and apparatus for automatic visual event detection

Country Status (4)

Country Link
EP (1) EP1763844A2 (en)
JP (2) JP4980907B2 (en)
KR (1) KR20070036123A (en)
WO (1) WO2005124709A2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US8891852B2 (en) 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US8238639B2 (en) 2008-04-09 2012-08-07 Cognex Corporation Method and system for dynamic feature detection
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
US11533428B2 (en) 2020-01-23 2022-12-20 Samsung Electronics Co., Ltd. Electronic device and method for controlling electronic device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293694A (en) * 1999-04-07 2000-10-20 Toyota Motor Corp Scene recognizing device
JP3732366B2 (en) * 1999-10-05 2006-01-05 財団法人電力中央研究所 Image database apparatus and image database creation / retrieval method
JP3658326B2 (en) * 2001-01-19 2005-06-08 日立エンジニアリング株式会社 Foreign object inspection apparatus and method in liquid-filled container
US7139979B2 (en) * 2002-06-10 2006-11-21 National Instruments Corporation Displaying operations in an application using a graphical programming representation
JP2004145504A (en) * 2002-10-23 2004-05-20 Keyence Corp Image processing system

Also Published As

Publication number Publication date
KR20070036123A (en) 2007-04-02
JP2011258220A (en) 2011-12-22
EP1763844A2 (en) 2007-03-21
WO2005124709A2 (en) 2005-12-29
JP4980907B2 (en) 2012-07-18
WO2005124709A3 (en) 2006-03-23
JP2008510250A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP5575867B2 (en) Method and apparatus for automatic visual event detection
JP5469811B2 (en) Machine vision detector setting and testing methods and equipment
US8249297B2 (en) Method and apparatus for automatic visual event detection
JP5350444B2 (en) Method and apparatus for automatic visual event detection
JP5784397B2 (en) Method and apparatus for visual detection and inspection of objects
US9094588B2 (en) Human machine-interface and method for manipulating data in a machine vision system
US8290238B2 (en) Method and apparatus for locating objects
US7545949B2 (en) Method for setting parameters of a vision detector using production line information

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120918

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130821

R150 Certificate of patent or registration of utility model

Ref document number: 5350444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250