JP2712887B2 - Work front / back identification method and apparatus - Google Patents
Work front / back identification method and apparatusInfo
- Publication number
- JP2712887B2 JP2712887B2 JP15068991A JP15068991A JP2712887B2 JP 2712887 B2 JP2712887 B2 JP 2712887B2 JP 15068991 A JP15068991 A JP 15068991A JP 15068991 A JP15068991 A JP 15068991A JP 2712887 B2 JP2712887 B2 JP 2712887B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- value
- image
- window
- feature value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Machine Tool Sensing Apparatuses (AREA)
- Automatic Assembly (AREA)
- Multi-Process Working Machines And Systems (AREA)
- Sorting Of Articles (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明はワークの表裏識別方法
およびその装置に関し、さらに詳細にいえば、ボウルフ
ィーダ等の部品供給装置により順次送り出されるワーク
に表と裏の安定状態が存在する場合にワークが表向きで
あるか裏向きであるかを識別するためのワークの表裏識
別方法およびその装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for discriminating the front and back of a work, and more particularly, to a method in which the front and back of a work sequentially fed by a component feeder such as a bowl feeder exist. The present invention relates to a method for identifying the front and back of a work for identifying whether the work is facing up or down and a device therefor.
【0002】[0002]
【従来の技術】従来から産業用ロボットを用いて部品等
のワークを把持するシステムにおいて、ワークの位置決
めを不要にできるという利点に着目して画像検出装置お
よび画像処理装置からなる視覚システムを組み込み、視
覚システムにより得られたワークの位置、姿勢等に基づ
いて産業用ロボットを制御するようにしたシステムが提
案されている(「ビジョンを用いた部品供給システム」
日立製作所生産技術研究所 高橋道郎 昭和63年1
月29日 精密工学会自動組立専門委員会第62回研究
発表会参照)。2. Description of the Related Art Conventionally, in a system for gripping a work such as a part using an industrial robot, a visual system including an image detection device and an image processing device is incorporated by paying attention to an advantage that positioning of the work can be made unnecessary. A system has been proposed that controls an industrial robot based on the position, posture, and the like of a workpiece obtained by a vision system ("Part supply system using vision").
Hitachi, Ltd. Production Technology Laboratory Michio Takahashi 1988
29th, Japan Society of Precision Engineering, Automatic Assembly Special Committee, 62nd Research Presentation).
【0003】このシステムにおいては、2値画像領域の
輪郭を多角形で近似し、その頂点列のデータを用いて、
重心、面積、周囲長等の10数項目の図形的特徴量を算
出し、これら多数の図形的特徴量をユーザー・プログラ
ムにより組み合せ、ワークの種別、向き、位置等を決定
するようにしている。したがって、図形的特徴量をどの
ように組み合せるかを指示するユーザー・プログラムを
作成すれば、その後は何ら特別な作業を必要とせずワー
クの種別の判定、向き、把持位置の決定等を行なうこと
ができる。In this system, the outline of a binary image area is approximated by a polygon, and data of a series of vertices is used to calculate the approximate value.
The graphic features of ten or more items such as the center of gravity, the area, the perimeter, and the like are calculated, and these many graphical features are combined by a user program to determine the type, orientation, position, and the like of the work. Therefore, if a user program is created to indicate how to combine the graphical features, then it is possible to determine the type of work, determine the orientation, and determine the gripping position without any special work. Can be.
【0004】[0004]
【発明が解決しようとする課題】しかし、上述のように
ユーザー・プログラムの作成が必須であり、しかもユー
ザー・プログラムはワークの種類に応じて作成しておく
ことが必要になるのであるから、多品種少量生産が一般
化しつつある現状においてユーザー・プログラムを作成
するための作業量が著しく大きくなるのみならず、モデ
ル・チェンジ等に伴なうワークの形状変化等に対応して
ユーザー・プログラムの変更が必要になり、ユーザー・
プログラム変更のための作業量も大きくなるという不都
合がある。However, as described above, it is necessary to create a user program, and it is necessary to create a user program according to the type of work. In the current situation where small-lot production is becoming common, not only does the amount of work required to create a user program significantly increase, but also the user program changes in response to changes in the shape of the work accompanying model changes, etc. Is required and the user
There is a disadvantage that the amount of work for changing the program is increased.
【0005】さらに、ワークに表と裏の安定状態が存在
している場合であって、表面または裏面に複数の突出部
が存在している場合、または図10(A)(B)に示す
ように湾曲している場合に、突出部同士が離れていれ
ば、各突出部による反射画像に基づいて複数のワークが
存在していると認識することになり、また、後者の場合
には図10(C)に示すように両端のみが反射画像とし
て得られ、各反射画像に基づいて複数のワークが存在し
ていると認識することになり、ワークの表裏を正確に識
別することが不可能になってしまうという不都合があ
る。特に、図11に示すようにワークがかなり大きな凹
入部を有している場合には、他のワークがこの凹入部に
侵入した状態になることが考えられ、このような場合に
は、単純な方形のウィンドウ(図11中破線参照)の領
域内に存在する反射画像のうち、どの反射画像が1のワ
ークに属し、どの反射画像が他のワークに属するかを識
別することが不可能になってしまい、ひいてはワークの
表裏の識別も不可能になってしまうという不都合があ
る。尚、図11には方形のウィンドウに基づく場合を示
しているが、円形のウィンドウを設定する場合にも同様
の不都合が生じる。[0005] Furthermore, when the work has a stable state of front and back, and there are a plurality of protrusions on the front or back surface, or as shown in FIGS. 10 (A) and 10 (B). If the projections are separated from each other when the projections are curved, it will be recognized that a plurality of workpieces exist based on the reflection images of the projections. In the latter case, FIG. As shown in (C), only both ends are obtained as reflection images, and it is recognized that a plurality of works exist based on each reflection image, so that it is impossible to accurately identify the front and back of the work. There is a disadvantage that it becomes. In particular, as shown in FIG. 11, when the work has a considerably large concave portion, it is conceivable that another work enters the concave portion. Of the reflection images existing in the area of the rectangular window (see the broken line in FIG. 11), it is impossible to identify which reflection image belongs to one work and which reflection image belongs to another work. As a result, there is a disadvantage that it is impossible to distinguish between the front and back of the work. Although FIG. 11 shows a case based on a rectangular window, a similar inconvenience occurs when a circular window is set.
【0006】[0006]
【発明の目的】この発明は上記の問題点に鑑みてなされ
たものであり、ワーク毎のユーザー・プログラムの作成
を不要とし、しかもワークの形状の如何に拘らず表裏を
正確に識別することができる新規なワークの表裏識別方
法およびその装置を提供することを目的としている。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and eliminates the need for creating a user program for each work, and is capable of accurately identifying the front and back surfaces regardless of the shape of the work. It is an object of the present invention to provide a novel method of identifying the front and back of a work and a device therefor.
【0007】[0007]
【課題を解決するための手段】上記の目的を達成するた
めの、請求項1のワークの表裏識別方法は、透過光に基
づいて教示用ワークのシルエット画像を得、シルエット
画像の外郭線と等しい外郭線を有するウィンドウを生成
し、ウィンドウ内における教示用ワークからの反射光に
基づいて複数個の教示用ワークの特徴値を抽出し、抽出
した特徴値に基づいて対象ワークの表裏を識別する方法
である。According to a first aspect of the present invention, there is provided a method for identifying the front and back of a work, wherein the silhouette image of a teaching work is obtained based on transmitted light, and is equal to the outline of the silhouette image. A method of generating a window having an outline, extracting feature values of a plurality of teaching works based on reflected light from the teaching work in the window, and identifying front and back of the target work based on the extracted feature values It is.
【0008】この場合に、面積値を初期特徴値として選
択することにより表裏識別を行ない、面積値では十分な
識別精度が得られない場合に他の特徴値を選択して表裏
識別を行なうことが好ましい。請求項2のワークの表裏
識別装置は、ワークの画像を検出する画像検出手段と、
ワークに関して画像検出手段と反対側に配置された第1
照明手段と、ワークに関して画像検出手段と同じ側に配
置された第2照明手段と、第1照明手段からの光によっ
て画像検出手段により得られる教示用ワークのシルエッ
ト画像に基づいて、シルエット画像の外郭線と等しい外
郭線を有するウィンドウを生成するウィンドウ生成手段
と、ウィンドウ内における教示用ワークからの反射光に
基づいて複数個の教示用ワークの特徴値を抽出する特徴
値抽出手段と、抽出した特徴値に基づいて対象ワークの
表裏を識別する対象ワーク表裏識別手段とを含んでい
る。In this case, discrimination between front and back is performed by selecting an area value as an initial feature value. If sufficient discrimination accuracy cannot be obtained with the area value, another feature value is selected to perform front and back discrimination. preferable. An apparatus for identifying the front and back of a work according to claim 2, wherein the image detecting means detects an image of the work.
A first work piece disposed on the opposite side of the image detection means with respect to the work;
An illumination unit, a second illumination unit disposed on the same side as the image detection unit with respect to the workpiece, and an outline of the silhouette image based on a silhouette image of the teaching work obtained by the image detection unit by light from the first illumination unit. Window generating means for generating a window having a contour line equal to the line; feature value extracting means for extracting feature values of a plurality of teaching works based on reflected light from the teaching work in the window; Target work front and back identification means for identifying the front and back of the target work based on the value.
【0009】[0009]
【作用】請求項1のワークの表裏識別方法であれば、先
ず、透過光を照射することにより教示用ワークのシルエ
ット画像を得、シルエット画像の外郭線と等しい外郭線
を有するウィンドウを生成する。そして、透過光と逆向
きの光を照射して、ウィンドウ内における教示用ワーク
からの反射光に基づいて複数個の教示用ワークの特徴値
を抽出する。その後は、抽出した特徴値に基づいて対象
ワークの表裏を識別することができる。According to the first aspect of the present invention, a silhouette image of a teaching work is first obtained by irradiating transmitted light, and a window having a contour line equal to the contour line of the silhouette image is generated. Then, light having a direction opposite to that of the transmitted light is applied, and feature values of the plurality of teaching works are extracted based on the reflected light from the teaching work in the window. Thereafter, the front and back of the target work can be identified based on the extracted feature values.
【0010】請求項2のワークの表裏識別装置であれ
ば、先ず、第1照明手段により教示用ワークに透過光を
照射し、透過光を画像検出手段により受光することによ
り教示用ワークのシルエット画像を得、ウィンドウ生成
手段によりシルエット画像の外郭線と等しい外郭線を有
するウィンドウを生成する。そして、第2照明手段によ
り教示用ワークに透過光と逆向きの光を照射して、画像
検出手段により込まれた画像等のうち、ウィンドウ内に
位置する画像等に基づいて特徴値抽出手段に複数個の教
示用ワークの特徴値を抽出する。そして、特徴値抽出手
段により抽出した特徴値に基づいて対象ワーク表裏識別
手段により対象ワークの表裏を識別することができる。According to a second aspect of the present invention, the teaching work is first irradiated with transmitted light by the first illuminating means, and the transmitted light is received by the image detecting means. And a window having a contour line equal to the contour line of the silhouette image is generated by the window generating means. The second illuminating means irradiates the teaching work with light in a direction opposite to the transmitted light, and transmits the light to the feature value extracting means based on an image or the like positioned in the window among the images and the like input by the image detecting means. The feature values of a plurality of teaching works are extracted. Then, the front and back of the target work can be identified by the target work front / back identification means based on the characteristic value extracted by the characteristic value extraction means.
【0011】[0011]
【実施例】以下、実施例を示す添付図面によって詳細に
説明する。図8はこの発明のワークの表裏識別方法が適
用される部品供給装置の構成を概略的に示す図であり、
循環式ボウルフィーダ1の部品搬送トラック1aの一部
を透光性のある板1bで構成しているとともに、透光性
のある板1bの上方および下方に照明装置2,3を配置
している。そして、透光性のある板1bと下方の照明装
置3との間にハーフミラー3aを配置し、ハーフミラー
3aにより反射される光を受光できる所定位置にCCD
カメラ等からなる画像検出部4を配置している。さら
に、ワークを吸着するための吸着ヘッド5aを産業用ロ
ボット5に装着している。また、画像検出部4から取り
込まれた画像信号を入力として2値化処理等を行なう画
像処理部4aと、画像処理部4aからの処理結果信号を
受け取って産業用ロボット5に動作指令を与えるロボッ
ト・コントローラ4bとを有している。BRIEF DESCRIPTION OF THE DRAWINGS FIG. FIG. 8 is a view schematically showing a configuration of a component supply apparatus to which the method for identifying the front and back of a work according to the present invention is applied.
A part of the component transport truck 1a of the circulation type bowl feeder 1 is constituted by a translucent plate 1b, and the lighting devices 2 and 3 are arranged above and below the translucent plate 1b. . Then, a half mirror 3a is arranged between the translucent plate 1b and the lower illumination device 3, and a CCD is provided at a predetermined position where the light reflected by the half mirror 3a can be received.
An image detection unit 4 including a camera and the like is arranged. Further, the industrial robot 5 is provided with a suction head 5a for sucking a work. Further, an image processing unit 4a that performs a binarization process or the like by using an image signal captured from the image detection unit 4 as an input, and a robot that receives a processing result signal from the image processing unit 4a and gives an operation command to the industrial robot 5 And a controller 4b.
【0012】図9は部品供給装置の要部を示す正面図で
あり、部品搬送トラック1a上を部品が順次搬送され、
透光性のある板1bの上に位置する状態で照明装置2に
より光を照射し、ハーフミラー3aを介して画像検出部
4に導くことによりシルエット画像を得る。その後、照
明装置3により光を照射し、部品からの反射光をハーフ
ミラー3aを介して画像検出部4に導くことにより反射
画像を得る。そして、シルエット画像および反射画像に
基づいて取出し可能であると識別された部品については
透光性のある板1bの上から産業用ロボット5により取
り出し、取出し不可能であると識別された部品について
は、透光性のある板1bに続く段部を転落し、そのまま
循環される。尚、照明装置2は二点鎖線で示すように移
動可能であることが好ましく、産業用ロボット5による
部品の取出し作業を妨害しない状態となる。FIG. 9 is a front view showing a main part of the component supply device, in which components are sequentially transported on a component transport truck 1a.
Light is emitted from the illumination device 2 while being positioned on the translucent plate 1b, and guided to the image detection unit 4 via the half mirror 3a to obtain a silhouette image. Thereafter, light is emitted from the illumination device 3, and the reflected light from the component is guided to the image detecting unit 4 via the half mirror 3a to obtain a reflected image. The parts identified as being removable based on the silhouette image and the reflection image are removed by the industrial robot 5 from the translucent plate 1b, and the parts identified as being unremovable are determined. Then, it falls down the step portion following the plate 1b having translucency and is circulated as it is. It is preferable that the lighting device 2 be movable as indicated by a two-dot chain line, so that the operation of taking out parts by the industrial robot 5 is not hindered.
【0013】図1から図4はこの発明のワーク識別方法
の一実施例を示すフローチャートであり、図1が識別対
象ワークの教示処理を、図2がワーク識別のための特徴
値選択処理を、図3が選択された特徴値に基づくワーク
識別処理を、図4がウィンドウ作成に伴なう処理をそれ
ぞれ示している。図1のフローチャートにおいては、ス
テップSP11においてサンプル数n個の同一安定状態
のワークの画像をCCDカメラ等の画像検出装置により
取込み、ステップSP12において特徴値として面積値
を選択し、ステップSP13においてそれぞれの分散
(例えば、標準偏差σ)および平均値xavを算出し、
ステップSP14においてTHup=xav+kσおよ
びTHdn=xav−kσ(但し、kは1〜3程度の定
数)の演算を行なって面積値の上限閾値THupおよび
下限閾値THdnを算出する。FIGS. 1 to 4 are flowcharts showing an embodiment of a work identification method according to the present invention. FIG. 1 shows a teaching process for a work to be identified, FIG. 2 shows a feature value selection process for work identification, and FIG. FIG. 3 shows a work identification process based on the selected feature value, and FIG. 4 shows a process associated with window creation. In the flowchart of FIG. 1, in step SP11, an image of a work in the same stable state with n samples is captured by an image detecting device such as a CCD camera, and an area value is selected as a feature value in step SP12. Calculating the variance (eg, standard deviation σ) and the average value xav,
In step SP14, THup = xav + kσ and THdn = xav-kσ (where k is a constant of about 1 to 3) are calculated to calculate the upper threshold THup and the lower threshold THdn of the area value.
【0014】尚、ステップSP11からステップSP1
4までの一連の処理はワークの種類毎に行なう。図2の
フローチャートにおいては、ステップSP21において
表状態のワークおよび裏状態のワークに関して各特徴値
の分散比F0を算出し、ステップSP22において面積
値の分散比が所定値よりも小さいか否かを判別し、分散
比が所定値よりも小さいと判別された場合にステップS
P23において分散比が最大である特徴値を選択し、ス
テップSP24において選択した特徴値の分散および平
均値を算出し、ステップSP25において図1のステッ
プSP14と同様にして上限閾値THupおよび下限閾
値THdnを算出する。逆に、ステップSP22におい
て分散比が所定値よりも小さくないと判別された場合に
は、特徴値として面積値を採用すればよいのであるか
ら、ステップSP23からステップSP25の処理を省
略する。Note that, from step SP11 to step SP1
A series of processes up to 4 are performed for each type of work. In the flowchart of FIG. 2, in step SP21, the variance ratio F0 of each characteristic value is calculated for the front work and the back work, and in step SP22, it is determined whether the variance ratio of the area value is smaller than a predetermined value. If it is determined that the variance ratio is smaller than the predetermined value, step S
In P23, the characteristic value having the maximum variance ratio is selected, and in step SP24, the variance and average value of the selected characteristic value are calculated. In step SP25, the upper threshold THup and the lower threshold THdn are set in the same manner as in step SP14 of FIG. calculate. Conversely, if it is determined in step SP22 that the variance ratio is not smaller than the predetermined value, the process from step SP23 to step SP25 is omitted because the area value may be adopted as the feature value.
【0015】図3のフローチャートにおいては、ステッ
プSP31において表裏識別対象となるワークの画像等
を取込み、ステップSP32において、図2の処理によ
り選択された特徴値を得る。そして、ステップSP33
において面積値が上限閾値と下限閾値との間の値である
か否かを判別し、ステップSP33において上限閾値と
下限閾値との間であると判別された場合には、ステップ
SP34において面積以外に上限閾値および下限閾値が
算出されている特徴値があるか否かを判別し、特徴値が
あると判別された場合にはステップSP35において該
当する特徴値が算出されている上限閾値と下限閾値との
間の値であるか否かを判別する。In the flowchart of FIG. 3, in step SP31, an image of the work to be identified as the front / back side is fetched, and in step SP32, the characteristic value selected by the processing of FIG. 2 is obtained. And step SP33
In step SP33, it is determined whether or not the area value is between the upper threshold value and the lower threshold value. If it is determined in step SP33 that the area value is between the upper threshold value and the lower threshold value, the area other than the area is determined in step SP34. It is determined whether there is a feature value for which the upper threshold value and the lower threshold value have been calculated. If it is determined that there is a feature value, the upper and lower threshold values for which the corresponding feature value has been calculated are determined in step SP35. It is determined whether or not the value is between.
【0016】そして、ステップSP34において特徴値
がないと判別された場合、またはステップSP35にお
いて該当する特徴値が算出されている上限閾値と下限閾
値との間の値であると判別された場合にはステップSP
36において該当するワークを処理対象ワーク、即ち、
表向きのワークであると識別する。逆に、ステップSP
33またはステップSP35において上限閾値と下限閾
値との間の値でないと判別された場合には、ステップS
P37において該当するワークを外乱ワーク、即ち、裏
向きのワークであると識別する。If it is determined in step SP34 that there is no characteristic value, or if it is determined in step SP35 that the characteristic value is a value between the calculated upper threshold and lower threshold, Step SP
In 36, the corresponding work is processed, that is,
Identify the work as ostensible. Conversely, step SP
If it is determined in step SP35 or step SP35 that the value is not between the upper threshold and the lower threshold, the process proceeds to step S35.
In P37, the corresponding work is identified as a disturbance work, that is, a work facing down.
【0017】図4のフローチャートは図1のフローチャ
ートのステップSP11およびステップSP12と図3
のフローチャートのステップSP31およびステップS
P32との処理を詳細に説明するものであり、ステップ
SP41において照明装置2からの光に基づいて画像検
出部4によりワークのシルエット画像を取り込み、ステ
ップSP42においてシルエット画像に基づいて連結性
解析を行なって外郭線を構成する点の座標を得、ステッ
プSP43において外郭線を構成する点の座標に基づい
てウィンドウを作成し、ステップSP44において照明
装置3からの光に基づいて画像検出部4により反射画像
を取り込み、ステップSP45においてウィンドウの内
部に存在する反射画像のみを抽出し、ステップSP46
において、抽出された反射画像に基づいて特徴値を抽出
する。尚、図4の処理を行なった結果、例えばシルエッ
ト画像が穴を含んでいても、穴の輪郭を構成する点の座
標は得られない。FIG. 4 is a flowchart showing steps SP11 and SP12 of the flowchart of FIG.
Step SP31 and Step S in the flowchart of FIG.
The process with P32 will be described in detail. In step SP41, a silhouette image of a work is fetched by the image detection unit 4 based on the light from the lighting device 2, and in step SP42, connectivity analysis is performed based on the silhouette image. In step SP43, a window is created based on the coordinates of the points forming the outline, and in step SP44, the reflected image is obtained by the image detection unit 4 based on the light from the lighting device 3. And in step SP45, only the reflection image existing inside the window is extracted, and step SP46 is performed.
In, feature values are extracted based on the extracted reflection images. As a result of performing the processing in FIG. 4, even if the silhouette image includes a hole, for example, the coordinates of the points constituting the contour of the hole cannot be obtained.
【0018】さらに詳細に説明すると、図1のフローチ
ャートに基づく処理を行なった結果、表向きのワークお
よび裏向きのワークについてそれぞれ図5(A)に示す
分布が得られた場合には、両分布がオーバーラップする
部分が全く存在していないのであるから、例えば表向き
のワークについて図6に示すように上限閾値THupお
よび下限閾値THdnを設定し、図3のフローチャート
において処理対象となるワークについて得た特徴値が上
限閾値THupおよび下限閾値THdnの範囲内である
か否かを判別することにより高精度のワークの表裏識別
を達成できる。逆に、図1のフローチャートに基づく処
理を行なった結果、表向きのワークおよび裏向きのワー
クについてそれぞれ図5(B)に示す分布が得られた場
合(図5(A)の分散比をFA、図5(B)の分散比を
FBとすれば、FA>FB)には、両分布のオーバーラ
ップ部分がかなり存在しているのであるから図3のフロ
ーチャートの処理を行なっても高精度のワーク識別を達
成できない。したがって、この場合には、図2のフロー
チャートの処理を行なうことにより分散比が最も大きい
特徴値を選択することにより高精度のワークの表裏識別
を達成できる。More specifically, as a result of performing the processing based on the flowchart of FIG. 1, when the distribution shown in FIG. Since there is no overlapping portion, for example, the upper threshold THup and the lower threshold THdn are set as shown in FIG. 6 for a work facing up, and the features obtained for the work to be processed in the flowchart of FIG. By determining whether or not the value is within the range between the upper threshold value THup and the lower threshold value THdn, it is possible to achieve high-precision identification of the front and back of the work. Conversely, as a result of performing the processing based on the flowchart of FIG. 1, the distribution shown in FIG. 5B is obtained for each of the front-facing work and the back-facing work (the dispersion ratio in FIG. 5A is FA, If the variance ratio in FIG. 5B is FB and FA> FB), there is a considerable overlap between the two distributions. Therefore, even if the processing in the flowchart of FIG. Identification cannot be achieved. Therefore, in this case, by performing the processing of the flowchart of FIG. 2 and selecting the characteristic value having the largest dispersion ratio, it is possible to achieve high-precision identification of the front and back of the work.
【0019】即ち、ワークの表裏識別が必要な場合に
は、シルエット画像に基づく識別は不可能であるから反
射画像に基づく識別を行なわなければならないのである
が、1つのワークについて複数の反射画像が存在する場
合があり、そのままでは各反射画像毎に特徴値を抽出し
てしまうことになる。しかし、この実施例においては、
シルエット画像に基づくウィンドウの内部に存在する反
射画像を1つのワークの反射画像として把握するのであ
るから、ウィンドウの内部に存在する全ての反射画像に
基づいて抽出された特徴値を用いて高精度のワークの表
裏識別を達成できる。また、特徴値のうち、面積値に基
づいて高精度のワークの表裏識別を達成できる場合が多
いのであるから、図2のフローチャートに基づいて別の
特徴値を選択する必要がない場合が多く、一部のワーク
についてのみ図2のフローチャートに基づいて別の特徴
値を選択すればよいのであるから全体として処理負荷を
低減でき、しかも高精度のワーク識別を達成できる。That is, when it is necessary to identify the front and back of a work, identification based on a reflection image must be performed because identification based on a silhouette image is impossible. It may exist, and if it is, the feature value will be extracted for each reflection image. However, in this example,
Since the reflection image existing inside the window based on the silhouette image is grasped as a reflection image of one work, a highly accurate feature value extracted based on all the reflection images existing inside the window is used. The front and back of the work can be identified. In addition, since it is often possible to achieve high-precision identification of the front and back of the work based on the area value among the characteristic values, it is often unnecessary to select another characteristic value based on the flowchart of FIG. Since it is only necessary to select another characteristic value based on the flowchart of FIG. 2 for only some of the workpieces, it is possible to reduce the processing load as a whole and achieve highly accurate workpiece identification.
【0020】尚、ワークの安定状態が3種類以上である
場合には、ワークの各安定状態相互について図2のフロ
ーチャートの処理を行なえばよく、また、図2のフロー
チャートのステップSP22において分散比に基づく判
別を行なう代わりに一方のワークについての上限閾値T
Hupおよび下限閾値THdnの範囲内に他のワークの
上限閾値THupまたは下限閾値THdnが存在してい
るか否かの判別を行なうことが可能であるほか、この発
明の要旨を変更しない範囲内において種々の設計変更を
施すことが可能である。When there are three or more types of stable states of the work, the processing of the flowchart of FIG. 2 may be performed for each of the stable states of the work. In addition, in step SP22 of the flowchart of FIG. Upper threshold T for one of the workpieces
It is possible to determine whether or not the upper threshold value THup or the lower threshold value THdn of another work exists within the range of the Hup and the lower threshold value THdn. It is possible to make design changes.
【0021】[0021]
【実施例2】図7はこの発明のワークの表裏識別装置の
一実施例を示すブロック図であり、画像検出部4から取
り込まれたワークのシルエット像に基づいて連結性解析
を行なって外郭線を構成する点の座標を得る連結性解析
部8と、連結性解析部8により得られた点の座標に基づ
いてウィンドウを生成するウィンドウ生成部9と、画像
検出部4から取り込まれたワークの反射画像のうち、ウ
ィンドウ内に存在する画像を抽出するワーク画像抽出部
10と、抽出されたワークの画像に基づいてワークの特
徴値を得て出力する特徴値出力部11と、サンプル数n
個の全てのワークについて、抽出された特徴値のうち面
積値を選択して標準偏差σおよび平均値xavを算出す
る第1算出部12と、第1算出部12により算出された
標準偏差σおよび平均値xavに基づいてTHup=x
av+kσおよびTHdn=xav−kσ(但し、kは
1〜3程度の定数)の演算を行なって上限閾値THup
および下限閾値THdnを算出する第1閾値算出部13
と、面積値が特徴値として適当であるか否かを判別する
特徴値判別部14と、面積値が特徴値として不適当であ
ると判別されたことを条件として分散比が最大である特
徴値を選択する特徴値選択部15と、選択された特徴値
に関する標準偏差σおよび平均値xavを算出する第2
算出部16と、第2算出部16により算出された標準偏
差σおよび平均値xavに基づいてTHup=xav+
kσおよびTHdn=xav−kσの演算を行なって上
限閾値THupおよび下限閾値THdnを算出する第2
閾値算出部17と、画像検出部4により取込んだ反射画
像に基づいて面積値および該当する場合には選択された
特徴値を得て出力する特徴値出力部18と、出力された
特徴値と第1閾値算出部13、第2閾値算出部17によ
り算出された上限閾値、下限閾値のうち、該当する特徴
値に対応する上限閾値、下限閾値との大小を判別して処
理対象ワークが表向きであることを示す信号または処理
対象ワークが裏向きであることを示す信号を出力するワ
ーク表裏判別部19とを有している。Embodiment 2 FIG. 7 is a block diagram showing an embodiment of a work front / rear discriminating apparatus according to the present invention. , A window generation unit 9 that generates a window based on the coordinates of the points obtained by the connectivity analysis unit 8, and a work A work image extraction unit 10 for extracting an image present in the window from the reflection image, a feature value output unit 11 for obtaining and outputting a feature value of the work based on the extracted work image, and a sample number n
For all of the workpieces, a first calculation unit 12 that selects an area value among the extracted feature values to calculate a standard deviation σ and an average value xav, and a standard deviation σ calculated by the first calculation unit 12 and THup = x based on the average value xav
av + kσ and THdn = xav−kσ (where k is a constant of about 1 to 3) to calculate an upper threshold THup
And first threshold value calculating unit 13 for calculating lower threshold value THdn
A feature value determining unit 14 for determining whether or not the area value is appropriate as a feature value; and a feature value having a maximum variance ratio on condition that the area value is determined to be inappropriate as the feature value. And a second value for calculating a standard deviation σ and an average value xav of the selected feature value.
THup = xav + based on the calculation unit 16 and the standard deviation σ and the average value xav calculated by the second calculation unit 16.
kσ and THdn = xav−kσ are calculated to calculate an upper threshold THup and a lower threshold THdn.
A threshold value calculation unit 17, a feature value output unit 18 that obtains and outputs an area value and a selected feature value when appropriate based on the reflection image captured by the image detection unit 4, Among the upper threshold and the lower threshold calculated by the first threshold calculator 13 and the second threshold calculator 17, the magnitude of the upper threshold and the lower threshold corresponding to the corresponding feature value is determined, and the work to be processed is turned face up. A work front / back discriminating unit 19 that outputs a signal indicating that the work is present or a signal indicating that the work to be processed is facing backward.
【0022】上記特徴値判別部14は、分散比と所定値
との大小を判別して面積値が特徴値として適当であるか
否かを判別するものであるが、例えば、一方のワークの
上限閾値、下限閾値の少なくとも一方が他方のワークの
上限閾値と下限閾値との範囲内に位置しているか否かを
判別するものであってもよく、これら以外の値に基づく
判別を行なうものであってもよい。The feature value discriminating unit 14 discriminates whether the area value is appropriate as a feature value by discriminating the magnitude of the variance ratio and the predetermined value. The determination may be made as to whether at least one of the threshold and the lower threshold is located within the range between the upper threshold and the lower threshold of the other work, and the determination is performed based on other values. You may.
【0023】また、第1算出部12と第2算出部16と
を兼用するとともに、第1閾値算出部13と第2閾値算
出部17とを兼用してもよいことはもちろんである。上
記構成のワークの表裏識別装置の作用は次のとおりであ
る。先ず、表向きのワークおよび裏向きのワーク毎にサ
ンプル数n個のワークのシルエット画像および反射画像
を画像検出部4により取込み、シルエット像に基づいて
連結性解析部8により連結性解析を行なって外郭線を構
成する点の座標を得、連結性解析部8により得られた点
の座標に基づいてウィンドウ生成部9によりウィンドウ
を生成する。そして、画像検出部4から取り込まれたワ
ークの反射画像のうち、ウィンドウ内に存在する画像を
ワーク画像抽出部10により抽出し、抽出された反射画
像に基づいて特徴値出力部11によりワークの特徴値を
得て出力する。その後、第1算出部12によりワークの
種類毎に面積値について標準偏差σおよび平均値xav
を算出し、算出された標準偏差σおよび平均値xavに
基づいて第1閾値算出部13においてTHup=xav
+kσおよびTHdn=xav−kσの演算を行なって
上限閾値THupおよび下限閾値THdnを算出する。
そして、特徴値判別部14により面積値が特徴値として
適当であるか否かを判別する。Further, it is needless to say that the first calculation unit 12 and the second calculation unit 16 may be used in combination, and the first threshold value calculation unit 13 and the second threshold value calculation unit 17 may be used in combination. The operation of the front / back identification device for a work having the above configuration is as follows. First, a silhouette image and a reflection image of a work of number n of samples are taken in by the image detection unit 4 for each of the front-facing work and the back-facing work, and the connectivity analysis is performed by the connectivity analysis unit 8 based on the silhouette image, and the outline is obtained. The coordinates of points constituting the line are obtained, and a window is generated by the window generating unit 9 based on the coordinates of the points obtained by the connectivity analyzing unit 8. Then, among the reflection images of the work taken in from the image detection unit 4, an image existing in the window is extracted by the work image extraction unit 10, and the feature value output unit 11 outputs the characteristic of the work based on the extracted reflection image. Obtain and output the value. Thereafter, the first calculator 12 calculates the standard deviation σ and the average value xav for the area value for each type of work.
Is calculated, and based on the calculated standard deviation σ and the average value xav, the first threshold value calculation unit 13 calculates THup = xav
The calculation of + kσ and THdn = xav-kσ is performed to calculate the upper threshold THup and the lower threshold THdn.
Then, the feature value determination unit 14 determines whether the area value is appropriate as the feature value.
【0024】特徴値判別部14により面積値が特徴値と
して適当であると判別された場合には、画像検出部4に
より識別対象ワークの反射画像を取込み、特徴値出力部
11によりウィンドウ内に存在する反射画像に基づいて
面積値を得て出力し、ワーク判別部19において、特徴
値出力部18から出力された特徴値と第1閾値算出部1
3により算出された上限閾値、下限閾値との大小を判別
して処理対象ワークが表向きであることを示す信号また
は処理対象ワークが裏向きであることを示す信号を出力
する。即ち、出力された特徴値がそれぞれ該当する上限
閾値と下限閾値との範囲内である場合に処理対象ワーク
が表向きであることを示す信号を出力し、特徴値が上記
範囲外である場合に処理対象ワークが裏向きであること
を示す信号を出力する。When the characteristic value judging section 14 judges that the area value is appropriate as the characteristic value, the image detecting section 4 takes in the reflection image of the work to be identified, and the characteristic value output section 11 presents the reflected image in the window. The work determination unit 19 obtains and outputs an area value based on the reflected image, and outputs the characteristic value output from the characteristic value output unit 18 to the first threshold value calculation unit 1.
Then, a signal indicating that the workpiece to be processed is facing up or a signal indicating that the workpiece to be processed is facing down is output by determining the magnitude of the upper threshold and the lower threshold calculated in step 3. That is, when the output feature value is within the range of the corresponding upper threshold value and lower limit threshold value, a signal indicating that the processing target work is facing up is output, and when the feature value is outside the above range, the processing is performed. A signal indicating that the target work is facing down is output.
【0025】逆に、特徴値判別部14により面積値が特
徴値として適当でないと判別された場合には、特徴値選
択部15により分散比が最大である特徴値を選択し、第
2算出部16により、選択された特徴値に関する標準偏
差σおよび平均値xavを算出し、第2閾値算出部17
により、第2算出部16により算出された標準偏差σお
よび平均値xavに基づいてTHup=xav+kσお
よびTHdn=xav−kσの演算を行なって上限閾値
THupおよび下限閾値THdnを算出する。その後、
画像検出部4により識別対象ワークの画像を取込み、特
徴値出力部18により面積値および特徴値選択部15に
おいて選択された特徴値の値を得て出力し、ワーク判別
部19において、特徴値出力部18から出力された特徴
値と第1閾値算出部13により算出された上限閾値、下
限閾値および第2閾値算出部17により算出された上限
閾値、下限閾値との大小を判別して処理対象ワークが表
向きであることを示す信号または処理対象ワークが裏向
きであることを示す信号を出力する。即ち、出力された
特徴値がそれぞれ該当する上限閾値と下限閾値との範囲
内である場合に処理対象ワークが表向きであることを示
す信号を出力し、特徴値が上記範囲外である場合に処理
対象ワークが裏向きであることを示す信号を出力する。Conversely, if the characteristic value discriminating section 14 determines that the area value is not appropriate as the characteristic value, the characteristic value selecting section 15 selects the characteristic value having the maximum variance ratio and the second calculating section. 16 to calculate the standard deviation σ and the average value xav for the selected feature value,
The calculation of THup = xav + kσ and THdn = xav-kσ is performed based on the standard deviation σ and the average value xav calculated by the second calculation unit 16 to calculate the upper threshold THup and the lower threshold THdn. afterwards,
The image of the work to be identified is captured by the image detection unit 4, the area value and the value of the feature value selected by the feature value selection unit 15 are obtained and output by the feature value output unit 18, and the feature value output is performed by the work determination unit 19. The size of the feature value output from the unit 18 and the upper and lower thresholds calculated by the first threshold calculator 13 and the upper and lower thresholds calculated by the second threshold calculator 17 are determined to determine the size of the work to be processed. Outputs a signal indicating that the workpiece is facing up or a signal indicating that the workpiece to be processed is facing down. That is, when the output feature value is within the range of the corresponding upper threshold value and lower limit threshold value, a signal indicating that the processing target work is facing up is output, and when the feature value is outside the above range, the processing is performed. A signal indicating that the target work is facing down is output.
【0026】さらに詳細に説明すると、サンプル数n個
のワークに基づいて表向きワークおよび裏向きワークに
ついてそれぞれ図5(A)に示す分布が得られた場合に
は、両分布がオーバーラップする部分が全く存在してい
ないのであるから、例えば表向きワークについて面積値
に関して図6に示すように上限閾値THupおよび下限
閾値THdnを設定し、処理対象となるワークについて
得た特徴値が上限閾値THupおよび下限閾値THdn
の範囲内であるか否かを判別することにより高精度のワ
ークの表裏識別を達成できる。逆に、表向きワークおよ
び裏向きワークについてそれぞれ図5(B)に示す分布
が得られた場合には、両分布のオーバーラップ部分がか
なり存在しているのであるからそのままでは高精度のワ
ークの表裏識別を達成できない。したがって、この場合
には、分散比が最も大きい特徴値を選択することにより
高精度のワークの表裏識別を達成できる。More specifically, when the distributions shown in FIG. 5A are obtained for the front-facing work and the back-facing work based on the n number of samples, a portion where the two distributions overlap each other is obtained. Since there is no existing work, for example, the upper limit threshold THup and the lower limit threshold THdn are set as shown in FIG. 6 with respect to the area value of the work facing up, and the characteristic values obtained for the work to be processed are the upper threshold THup and the lower limit threshold. THdn
By discriminating whether it is within the range, it is possible to achieve high-precision identification of the front and back of the work. Conversely, when the distribution shown in FIG. 5B is obtained for each of the front-facing work and the back-facing work, there is a considerable overlap between the two distributions. Identification cannot be achieved. Therefore, in this case, by selecting the feature value having the largest variance ratio, it is possible to achieve high-precision identification of the front and back of the work.
【0027】即ち、ワークの表裏識別を行なう場合に
は、シルエット画像に基づく識別は不可能であるから反
射画像に基づく識別を行なわなければならないのである
が、1つのワークについて複数の反射画像が存在する場
合があり、そのままでは各反射画像毎に特徴値を抽出し
てしまうことになる。しかし、この実施例においては、
シルエット画像に基づくウィンドウの内部に存在する反
射画像を1つのワークの反射画像として把握するのであ
るから、ウィンドウの内部に存在する全ての反射画像に
基づいて抽出された特徴値を用いて高精度のワークの表
裏識別を達成できる。また、特徴値のうち、面積値に基
づいて高精度のワークの表裏識別を達成できる場合が多
いのであるから、面積値以外の特徴値を選択する必要が
ない場合が多く、一部のワークについてのみ面積値以外
の特徴値を選択すればよいのであるから全体として処理
負荷を低減でき、しかも高精度のワーク識別を達成でき
る。That is, in order to identify the front and back of a work, since identification based on a silhouette image is impossible, identification based on a reflection image must be performed. However, a plurality of reflection images exist for one work. In such a case, the feature value is extracted for each reflection image as it is. However, in this example,
Since the reflection image existing inside the window based on the silhouette image is grasped as a reflection image of one work, a highly accurate feature value extracted based on all the reflection images existing inside the window is used. The front and back of the work can be identified. Also, among the feature values, it is often possible to achieve high-precision discrimination of the front and back of the work based on the area value. Therefore, it is often unnecessary to select a feature value other than the area value. Only the characteristic value other than the area value needs to be selected, so that the processing load can be reduced as a whole, and highly accurate workpiece identification can be achieved.
【0028】[0028]
【発明の効果】以上のように請求項1の発明は、ワーク
の種別毎にユーザー・プログラムを作成する必要がなく
なり、プログラム作成、変更のための作業量を大巾に低
減でき、しかも全てのワークについて高精度の表裏識別
を達成できるという特有の効果を奏する。As described above, according to the first aspect of the present invention, there is no need to create a user program for each type of work, and the amount of work for creating and changing the program can be greatly reduced. This has a specific effect that a high-precision front / back discrimination can be achieved for a work.
【0029】請求項2の発明も、ワークの種別毎にユー
ザー・プログラムを作成する必要がなくなり、プログラ
ム作成、変更のための作業量を大巾に低減でき、しかも
全てのワークについて高精度の表裏識別を達成できると
いう特有の効果を奏する。According to the second aspect of the present invention, there is no need to create a user program for each type of work, so that the amount of work for creating and changing the program can be greatly reduced, and all the works have high-precision front and back surfaces. This has a specific effect that identification can be achieved.
【図1】この発明のワークの表裏識別方法の一実施例の
うち、サンプル・ワークに基づく教示処理を示すフロー
チャートである。FIG. 1 is a flowchart showing a teaching process based on a sample work in one embodiment of a method for identifying the front and back of a work according to the present invention.
【図2】この発明のワークの表裏識別方法のうち、ワー
クの表裏識別のための特徴値選択処理を示すフローチャ
ートである。FIG. 2 is a flowchart illustrating a feature value selection process for identifying the front and back of a work in the method of identifying front and back of a work according to the present invention;
【図3】この発明のワークの表裏識別方法のうち、選択
された特徴値に基づくワーク識別処理を示すフローチャ
ートである。FIG. 3 is a flowchart illustrating a work identification process based on a selected feature value in the work identification method according to the present invention.
【図4】この発明のワークの表裏識別方法のうち、ウィ
ンドウ作成に伴なう処理を示すフローチャートである。FIG. 4 is a flowchart showing a process associated with window creation in the work front / back identification method of the present invention.
【図5】特徴値の適否を概略的に示す図である。FIG. 5 is a diagram schematically showing propriety of a feature value;
【図6】特徴値の上限閾値および下限閾値を示す概略図
である。FIG. 6 is a schematic diagram showing an upper threshold and a lower threshold of a feature value.
【図7】この発明のワークの表裏識別装置の一実施例を
示すブロック図である。FIG. 7 is a block diagram showing an embodiment of a work front / back identification apparatus according to the present invention;
【図8】この発明のワークの表裏識別方法が適用される
部品供給システムの構成を概略的に示す図である。FIG. 8 is a diagram schematically showing a configuration of a component supply system to which a method for identifying front and back of a work according to the present invention is applied.
【図9】部品供給装置の要部を示す正面図である。FIG. 9 is a front view showing a main part of the component supply device.
【図10】湾曲したワークに基づいて得られる反射画像
を説明する図である。FIG. 10 is a diagram illustrating a reflection image obtained based on a curved work.
【図11】凹入した形状を有するワークに対応して方形
のウィンドウを設定した場合の不都合を説明する図であ
る。FIG. 11 is a diagram illustrating a disadvantage when a rectangular window is set corresponding to a work having a concave shape.
2,3 照明装置 4 画像検出部 8 連結性解
析部 9 ウィンドウ生成部 10 ワーク画像抽出部
11 特徴値出力部 12 第1算出部 13 第1閾値算出部 14
特徴値判別部 15 特徴値選択部 16 第2算出部 17 第
2閾値算出部 18 特徴値出力部 19 ワーク表裏判別部2, 3 lighting device 4 image detection unit 8 connectivity analysis unit 9 window generation unit 10 work image extraction unit
11 feature value output unit 12 first calculation unit 13 first threshold value calculation unit 14
Feature value determination unit 15 Feature value selection unit 16 Second calculation unit 17 Second threshold value calculation unit 18 Feature value output unit 19 Work front / back determination unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G01B 11/00 G01B 11/00 Z 11/26 11/26 H ──────────────────────────────────────────────────続 き Continuation of the front page (51) Int.Cl. 6 Identification number Agency reference number FI Technical display location G01B 11/00 G01B 11/00 Z 11/26 11/26 H
Claims (2)
ット画像を得、シルエット画像の外郭線と等しい外郭線
を有するウィンドウを生成し、ウィンドウ内における教
示用ワークからの反射光に基づいて複数個の教示用ワー
クの特徴値を抽出し、抽出した特徴値に基づいて対象ワ
ークの表裏を識別することを特徴とするワークの表裏識
別方法。A silhouette image of a teaching work is obtained based on transmitted light, a window having an outline equal to the outline of the silhouette image is generated, and a plurality of windows are generated based on reflected light from the teaching work in the window. A feature value of the teaching work, and identifying the front and back of the target work based on the extracted feature value.
(4)と、ワークに関して画像検出手段(4)と反対側
に配置された第1照明手段(2)と、ワークに関して画
像検出手段(4)と同じ側に配置された第2照明手段
(3)と、第1照明手段(2)からの光によって画像検
出手段(4)により得られる教示用ワークのシルエット
画像に基づいて、シルエット画像の外郭線と等しい外郭
線を有するウィンドウを生成するウィンドウ生成手段
(8,9)と、ウィンドウ内における教示用ワークから
の反射光に基づいて複数個の教示用ワークの特徴値を抽
出する特徴値抽出手段(10,11)と、抽出した特徴
値に基づいて対象ワークの表裏を識別する対象ワーク表
裏識別手段(12,13,14,15,16,17,1
8,19)とを含むことを特徴とするワークの表裏識別
装置。2. An image detecting means (4) for detecting an image of a work, a first lighting means (2) arranged on the opposite side of the image detecting means (4) with respect to the work, and an image detecting means (4) with respect to the work. ), And a silhouette image based on the silhouette image of the teaching work obtained by the image detecting means (4) obtained by the light from the second illuminating means (3) and the first illuminating means (2). Window generating means (8, 9) for generating a window having a contour line equal to the contour line; and feature value extraction for extracting feature values of a plurality of teaching works based on reflected light from the teaching work in the window. Means (10, 11) and means (12, 13, 14, 15, 16, 17, 17, 1) for identifying the front and back of the target work based on the extracted characteristic values.
8, 19).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15068991A JP2712887B2 (en) | 1991-06-21 | 1991-06-21 | Work front / back identification method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15068991A JP2712887B2 (en) | 1991-06-21 | 1991-06-21 | Work front / back identification method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04372337A JPH04372337A (en) | 1992-12-25 |
JP2712887B2 true JP2712887B2 (en) | 1998-02-16 |
Family
ID=15502309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15068991A Expired - Lifetime JP2712887B2 (en) | 1991-06-21 | 1991-06-21 | Work front / back identification method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2712887B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5073597B2 (en) * | 2008-07-02 | 2012-11-14 | Juki株式会社 | Button recognition device and button recognition method |
JP2010091298A (en) * | 2008-10-03 | 2010-04-22 | Daishinku Corp | Method and apparatus for determining inside and outside of article |
-
1991
- 1991-06-21 JP JP15068991A patent/JP2712887B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH04372337A (en) | 1992-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4309439B2 (en) | Object take-out device | |
US7394926B2 (en) | Magnified machine vision user interface | |
US6775403B1 (en) | Device for and method of processing 3-D shape data | |
EP1814083A1 (en) | Photometric measurements using at least three light sources | |
US20170352148A1 (en) | Controller, forming machine, and control method | |
JP2712887B2 (en) | Work front / back identification method and apparatus | |
US7106896B2 (en) | ID recognition apparatus and ID recognition sorter system for semiconductor wafer | |
JP3774495B2 (en) | Image information extracting apparatus and method | |
CN111389750B (en) | Vision measurement system and measurement method | |
JPH06243236A (en) | Setting device for coordinate system correction parameter of visual recognizer | |
KR20050052657A (en) | Vision-based humanbeing detection method and apparatus | |
JP2712884B2 (en) | Work identification method and device | |
JP7207948B2 (en) | Appearance inspection method and program | |
JP3523764B2 (en) | Foreign object detection device in nonmetallic inclusion measurement | |
JP3099273B2 (en) | Appearance inspection device | |
JP3054165B2 (en) | Appearance inspection device | |
JP2001291105A (en) | Method and device for recognizing pattern | |
JP2712885B2 (en) | Work direction identification method and device | |
JP6864722B2 (en) | Inspection equipment, inspection methods and programs | |
JP2712962B2 (en) | Work identification method and device | |
US10685450B2 (en) | Controller, forming machine, and control method | |
JP7063764B2 (en) | 3D model creation device | |
JPH0991425A (en) | Image processor | |
JP3853500B2 (en) | Edge detection method and image measuring apparatus | |
JP4480350B2 (en) | Image detection processing device |