JPH07181011A - Method for recognizing hole through visual sensor - Google Patents

Method for recognizing hole through visual sensor

Info

Publication number
JPH07181011A
JPH07181011A JP5345663A JP34566393A JPH07181011A JP H07181011 A JPH07181011 A JP H07181011A JP 5345663 A JP5345663 A JP 5345663A JP 34566393 A JP34566393 A JP 34566393A JP H07181011 A JPH07181011 A JP H07181011A
Authority
JP
Japan
Prior art keywords
image
hole
visual sensor
image signal
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5345663A
Other languages
Japanese (ja)
Inventor
Atsushi Watanabe
淳 渡辺
Taro Arimatsu
太郎 有松
Keiichiro Monno
啓一郎 門野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP5345663A priority Critical patent/JPH07181011A/en
Publication of JPH07181011A publication Critical patent/JPH07181011A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To recognize a hole accurately using a visual sensor. CONSTITUTION:A hole 3 having an outline 3' is made in a work 2 mounted on a work table 1. When the image thereof is picked up by means of a CCD camera 4, the work 2 is illuminated from different directions by lighting the light sources 5A, 5B sequentially thus picking up the image twice. The intensity of each image signal is then normalized and the lower image signal value is selected for each pixel thus forming an image where the shaded parts are collected and emphasized. In general, the images of objective holes are picked up sequentially under a plurality of illumination geometry conditions for shading the different positions thus acquiring the image signal under each illumination geometry condition. An image signal representative of minimum brightness is then selected for each pixel and the hole is recognized based on the selected image signals.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本願発明は、視覚センサを用いて
穴(凹部あるいは貫通孔の意、以下同様)を認識する方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for recognizing a hole (meaning a concave portion or a through hole, the same applies hereinafter) using a visual sensor.

【0002】[0002]

【従来の技術】近年、工場における作業の自動化等の目
的で、CCDカメラ等のカメラ手段を備えた視覚センサ
が広く用いられている。このような視覚センサの使用態
様の1つとして、穴の位置、大きさ、形などを検出する
使用法がある。例えば、嵌め合い作業の自動化にロボッ
トを利用する場合には、視覚センサによって穴の位置を
検出し、その結果に基づいてロボット位置を補正するこ
とが行なわれる。このように、穴に関する正確な情報を
必要とする場合には、当然、穴の輪郭を明瞭に認識しな
ければならない。ところが、従来は、視覚センサによる
穴の認識を行なう為の特別の手法は確立されておらず、
通常の照明条件の下でカメラによる通常の撮像を行い、
得られた画像情報を解析して穴の輪郭を認識するという
やり方が採用されていた。
2. Description of the Related Art In recent years, a visual sensor having a camera means such as a CCD camera has been widely used for the purpose of automating work in a factory. As one of the usage modes of such a visual sensor, there is a usage method of detecting the position, size, shape, and the like of a hole. For example, when the robot is used for automating the fitting operation, the position of the hole is detected by the visual sensor and the robot position is corrected based on the result. Thus, when accurate information about a hole is needed, the contour of the hole must of course be clearly recognized. However, conventionally, no special method has been established for recognizing holes by a visual sensor,
Under normal lighting conditions, take a normal image with the camera,
A method of analyzing the obtained image information and recognizing the contour of the hole has been adopted.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記従来のや
り方では、穴を通してその下に見える物体が穴の輪郭の
正確な認識を妨げたり、穴の側面が照明によって光るこ
とによって穴の輪郭を認識することが困難になるという
問題があった。
However, in the above-mentioned conventional method, the object seen through the hole interferes with the accurate recognition of the contour of the hole, or the side surface of the hole is illuminated by the illumination to recognize the contour of the hole. There was a problem that it would be difficult to do.

【0004】本願発明は、このような問題点を克服し、
穴を通してその下に見える物体の影響や穴の側面の高輝
度化による認識不全を起こさない視覚センサによる穴の
認識方法を提供することにある。
The present invention overcomes such problems and
It is an object of the present invention to provide a method of recognizing a hole by a visual sensor that does not cause recognition failure due to the effect of an object seen through the hole and the brightness of the side surface of the hole.

【0005】[0005]

【問題点を解決するための手段】本願発明は、「視覚セ
ンサのカメラ手段を用い、互いに異なる部位に陰影を形
成する複数の照明ジオメトリ条件下で順次対象とする穴
の撮像を行い、前記各照明ジオメトリ条件下における画
像信号を獲得する段階と、前記蓄積された画像信号から
各画素毎に最小の明るさを表すものを選択し、それら選
択された画像信号に基づいて前記互いに異なる部位に形
成された陰影を集合・強調した画像を構成する段階を含
むことを特徴とする視覚センサによる穴の認識方法」に
よって上記技術課題を解決したものである。
According to the invention of the present application, "a camera means of a visual sensor is used to sequentially image a target hole under a plurality of illumination geometry conditions that form shadows on different portions, and Obtaining an image signal under illumination geometry conditions, selecting one of the stored image signals that exhibits the minimum brightness for each pixel, and forming the different image parts on the basis of the selected image signal. The above technical problem is solved by a method of recognizing a hole by a visual sensor, characterized in that it includes a step of forming an image in which the formed shadows are collected and emphasized.

【0006】[0006]

【作用】本願発明の原理について、ワークテーブル上に
載置された穴あきワークの穴のをCCDカメラを含む視
覚センサによって認識する場合を例にとり、図1及び図
2を参照して説明する。図1において、1はワークテー
ブルで、その上に穴あきワーク2が載置されており、ワ
ーク2の中央部に形成された穴3をCCDカメラ4で撮
像する。4’はその視野を表している。5A及び5Bは
ワーク2を異なる方向から照明する照明光源である。穴
3は、ここでは3’を輪郭とする円形の凹部として描か
れているが、輪郭が多角形、ワーク2を貫通するもので
あっても構わない。また、穴の底あるいは穴を通して別
の物体が見えても良い。
The principle of the present invention will be described with reference to FIGS. 1 and 2, taking as an example the case of recognizing a hole of a perforated work placed on a work table by a visual sensor including a CCD camera. In FIG. 1, reference numeral 1 denotes a work table, on which a perforated work 2 is placed, and a hole 3 formed in the central portion of the work 2 is imaged by a CCD camera 4. 4'represents the field of view. 5A and 5B are illumination light sources that illuminate the work 2 from different directions. The hole 3 is drawn here as a circular recess having a contour 3 ', but the contour may be polygonal and may penetrate the work 2. Also, another object may be visible through the bottom of the hole or through the hole.

【0007】このような配置の下で、各照明光源を単独
で点灯してカメラ4による撮像を行った場合に得られる
画像は、図2(1),(2)に示したようなものとな
る。即ち、照明光源5Aのみを点灯した場合には、図上
で穴の右側のほぼ半周に亙って穴の輪郭線3’Cが映
り、左側のほぼ半周に亙ってはコントラストが明瞭で幅
のある陰影部3A’が映った画像が得られる一方、照明
光源5Bのみを点灯した場合には、穴の左側のほぼ半周
に亙って穴の輪郭線3’Cが映り、右側のほぼ半周に亙
ってコントラストが明瞭で幅のある陰影部3B’が映っ
た画像を得ることが出来る。そして、各陰影部3A’,
3B’の外縁は穴の輪郭3’に対応しているという特徴
がある。
Under such an arrangement, the images obtained when the illumination light sources are individually turned on and the image is taken by the camera 4 are as shown in FIGS. 2 (1) and 2 (2). Become. That is, when only the illuminating light source 5A is turned on, the outline 3'C of the hole is reflected over almost the right half of the hole in the figure, and the contrast is clear and the width is substantially wide over the left half of the hole. While the image in which the shaded portion 3A ′ with a shadow is reflected is obtained, when only the illumination light source 5B is turned on, the contour line 3′C of the hole is reflected over almost the half circumference on the left side of the hole, and about half the circumference on the right side. Therefore, it is possible to obtain an image in which the shadow portion 3B ′ having a clear contrast and a wide width is reflected. Then, each shaded portion 3A ′,
The outer edge of 3B 'is characterized in that it corresponds to the contour 3'of the hole.

【0008】図2(1),(2)のいずれの画像におい
ても、穴の映像が幅のある陰影線と細く明暗コントラス
トも弱い輪郭線から構成されているので、これらの画像
をそのまま解析したのでは視覚センサに正確に穴3を認
識させることが難かしい。特に、穴の底あるいは穴を通
して別の物体が見える場合には、穴を誤認する可能性が
高くなる。
2 (1) and 2 (2), since the image of the hole is composed of a wide shadow line and a thin contour line with a light and dark contrast, these images were analyzed as they were. It is difficult for the visual sensor to accurately recognize the hole 3. Especially when another object is visible at the bottom of the hole or through the hole, the possibility of misidentifying the hole increases.

【0009】そこで、本願発明は、上記の例のように認
識対象の穴に対して異なる方向から光があたるように照
明条件を変えれば異なる部位に幅のある明瞭な陰影が形
成され、しかも、この陰影の外縁は穴の輪郭に一致して
いることに着目し、各照明条件下で得られる画像から陰
影部を抽出して重ね合わせることに相当する処理を行う
ことによって陰影部を集合させた画像を獲得し、該画像
に基づいて穴を認識するようにしたものである。
Therefore, according to the present invention, if the illumination conditions are changed so that the holes to be recognized are irradiated with light from different directions as in the above example, clear shadows having a wide width are formed in different portions, and Paying attention to the fact that the outer edge of this shadow matches the contour of the hole, the shadow parts were gathered by performing a process equivalent to extracting the shadow parts from the images obtained under each lighting condition and overlapping them. An image is acquired and a hole is recognized based on the image.

【0010】上記の例で言えば、図2(1),(2)の
画像から、穴3の輪郭3’に対応した外縁を有する図2
(3)の画像3D’が得られ、この画像3D’を解析す
ることによって穴3が容易に認識されることになる。図
2(1),(2)の画像から図2(3)の画像3D’を
得る為には、画素単位で図2(1)と図2(2)の内の
暗い方を選択し、選択された画素の集合からなる画像を
構成すれば良い。
In the above example, from the images of FIGS. 2 (1) and 2 (2), FIG. 2 having an outer edge corresponding to the contour 3'of the hole 3 is obtained.
The image 3D 'of (3) is obtained, and the hole 3 can be easily recognized by analyzing the image 3D'. In order to obtain the image 3D ′ of FIG. 2 (3) from the images of FIG. 2 (1) and (2), the darker one of FIG. 2 (1) and FIG. 2 (2) is selected for each pixel, An image composed of a set of selected pixels may be constructed.

【0011】なお、照明ジオメトリ条件を変えたことに
より撮像画像間の明るさレベルに全体的な変動が生じる
恐れがある場合には、必要に応じて画像間の規格化処理
を行なえば良い。図2(1)〜(3)において破線で示
した領域Sは、この規格化処理の為の基準領域である
(基準領域Sを利用した規格化処理の例については実施
例を参照。)。
If there is a possibility that the brightness level between the picked-up images may be totally changed by changing the illumination geometry condition, the standardization process between the images may be performed as necessary. A region S indicated by a broken line in FIGS. 2A to 2C is a reference region for this standardization process (for an example of the standardization process using the reference region S, see the embodiment).

【0012】このような規格化を含む陰影部集合強調処
理は、通常の視覚センサシステムが有している画像処理
機能を利用した簡単なソフトウェア処理によって実行で
きる簡便なものであるから、特に高価で複雑な装置を新
しく準備する必要もない。
Since the shadow part set emphasizing process including such standardization is a simple process that can be executed by a simple software process utilizing the image processing function of a normal visual sensor system, it is particularly expensive. There is no need to newly prepare a complicated device.

【0013】[0013]

【実施例】図3は、本願発明の方法を実施する際に使用
される視覚センサシステムの一例を示した要部ブロック
図である。これを説明すると、10は画像処理装置であ
り、中央演算処理装置(以下、CPUという。)11を
有し、該CPU11には、図1におけるカメラ4に接続
されたカメラインターフェイス12、該カメラインター
フェイス12を介して取り込まれた画像信号を記憶する
フレームメモリ13、画像処理プロセッサ14、CPU
11を介して画像処理システム各部の動作を制御する為
のプログラムを格納したプログラムメモリ15、画像処
理前あるいは画像処理後の画像を表示するモニタ30
(例えばモニタCRT)に接続されたモニタインターフ
ェイス16、各種設定値等のデータが格納され、また、
CPU11による演算実行時のデータ一時記憶手段とし
ても使用されるデータメモリ17及び図1に示した照明
光源装置5A,5BのON/OFFの切換を行なう照明
光源切換装置20及びプロセスコントローラ等の外部信
号源に接続された汎用信号インターフェイス18が、各
々バス19を介して接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 3 is a block diagram showing the essential parts of an example of a visual sensor system used in carrying out the method of the present invention. To explain this, 10 is an image processing apparatus, which has a central processing unit (hereinafter referred to as CPU) 11, and the CPU 11 has a camera interface 12 connected to the camera 4 in FIG. A frame memory 13, an image processor 14, and a CPU, which store the image signal captured via 12
A program memory 15 storing a program for controlling the operation of each part of the image processing system via 11, and a monitor 30 for displaying an image before or after image processing.
A monitor interface 16 connected to (for example, a monitor CRT) stores data such as various setting values, and
External data such as a data memory 17, which is also used as a data temporary storage means when the CPU 11 executes an operation, and an illumination light source switching device 20 for switching ON / OFF of the illumination light source devices 5A and 5B shown in FIG. 1 and a process controller. General purpose signal interfaces 18 connected to the sources are each connected via a bus 19.

【0014】以上の述べた構成は、従来の視覚センサシ
ステムに照明光源切換装置20を加えたものに相当して
いるが、本実施例では更に、下記に述べる画像処理を実
行する画像処理プログラム及び関連設定値がプログラム
メモリ15及びデータメモリ17に格納されている。
The configuration described above corresponds to a conventional visual sensor system to which the illumination light source switching device 20 is added. In the present embodiment, an image processing program for executing the image processing described below and Related setting values are stored in the program memory 15 and the data memory 17.

【0015】以下、図4のフローチャートを参照図に加
えて本実施例における画像処理について説明する。図4
のフローチャートは、図1乃至図2に示した事例につい
て本願発明を適用する為に、画像処理装置10のCPU
11によって実行される陰影部を集合させて強調する画
像処理の内容の概略を記したものである。なお、本実施
例で使用するカメラの画素数は、512×512とし、
図2(1),(2)の各々におけるi行j列の画像信号
強度をZ(1)ij,Z(2)ij(i,j=1,2,・・
512)で表わすこととする。また、基準領域Sにおけ
る画像信号平均出力を等しくするような規格化を行なっ
た上で画素毎に最小信号値を選択して最終画像を構成す
る手法を採用するものとする。
Image processing in this embodiment will be described below with reference to the flow chart of FIG. Figure 4
The flowchart of FIG. 1 is a CPU of the image processing apparatus 10 in order to apply the present invention to the cases shown in FIGS.
The outline of the content of the image processing for emphasizing by gathering the shaded areas executed by 11 is described. The number of pixels of the camera used in this example is 512 × 512,
2 (1) and 2 (2), the image signal intensity at the i-th row and the j-th column is Z (1) ij, Z (2) ij (i, j = 1, 2, ...
512). Further, a method is adopted in which the final image is constructed by performing the standardization so that the average output of the image signals in the reference area S is made equal and then selecting the minimum signal value for each pixel.

【0016】図4のフローチャートに記した一連の処理
は、プロセスコントローラ等の外部信号源から処理開始
指令が画像処理装置10のCPUに伝達された時点から
開始される。
The series of processes described in the flowchart of FIG. 4 is started when a processing start command is transmitted from an external signal source such as a process controller to the CPU of the image processing apparatus 10.

【0017】処理が開始されると、先ず、汎用信号イン
ターフェイス18を介して照明光源切換装置20に指令
を送り、照明光源5Aを単独で点灯し(ステップS
1)、光源の光力が安定したタイミングでカメラインタ
ーフェイス12を介してワーク2の撮像を行い、画像
(1)をフレームメモリ13(#1)に取り込む(ステ
ップS2)。
When the process is started, first, a command is sent to the illumination light source switching device 20 via the general-purpose signal interface 18 to turn on the illumination light source 5A independently (step S).
1), the work 2 is imaged through the camera interface 12 at a timing when the light power of the light source is stable, and the image (1) is captured in the frame memory 13 (# 1) (step S2).

【0018】次いで同様に、照明光源5Bの単独点灯
(ステップS3)、画像(2)のフレームメモリ13
(#2)への取り込み(ステップS4)順次同様に実行
する。
Next, similarly, the illumination light source 5B is independently turned on (step S3), and the frame memory 13 for the image (2).
Import to (# 2) (step S4) Sequentially execute the same.

【0019】2種の画像(1),(2)が獲得されたな
らば、両画像における基準領域Sについての平均画像信
号強度の平均値Zav(S)1 及びZav(S)2 を計算す
る(ステップS5)。そして、補正係数γ12をγ12=Z
av(S)1 /Zav(S)2 によって計算する(ステップ
S6)。なお、画像信号の特性によって、γ12を補正係
数ではなくシフト補正量Zav(S)1 −Zav(S)2 と
して規格化を行なうことが適当な場合もある。
When the two types of images (1) and (2) are acquired, the average values Zav (S) 1 and Zav (S) 2 of the average image signal intensities for the reference area S in both images are calculated. (Step S5). Then, the correction coefficient γ12 is set to γ12 = Z
It is calculated by av (S) 1 / Zav (S) 2 (step S6). Depending on the characteristics of the image signal, it may be appropriate to normalize γ12 as the shift correction amount Zav (S) 1 -Zav (S) 2 instead of the correction coefficient.

【0020】次いで、画素位置指標i及びjを1にリセ
ットし(ステップS7)、ステップS8へ進む。ステッ
プS8では、i行j列の画素について規格化された映像
信号Z(1)ij,γ12Z(2)ijの最小値Min.Zij
を決定する。補正係数でなく補正シフト量とした場合に
は、Z(1)ijとZ(2)ij+γ12を比較して大きくな
い方の値を定める。決定されたMin.Zijの値はフレ
ームメモリ13(#3)の画素(i,j)対応アドレス
に書き込まれる。
Next, the pixel position indexes i and j are reset to 1 (step S7), and the process proceeds to step S8. In step S8, the minimum value Min. Of the video signals Z (1) ij and γ12Z (2) ij standardized with respect to the pixel in the i-th row and the j-th column. Zij
To decide. When a correction shift amount is used instead of a correction coefficient, Z (1) ij and Z (2) ij + γ12 are compared to determine a value that is not larger. Determined Min. The value of Zij is written in the address corresponding to pixel (i, j) in the frame memory 13 (# 3).

【0021】以上で1個分の画素についての処理が終了
するから、以後は各画素について全く同様の処理を繰り
返せば良い。即ち、ステップS9で列指標jに1を加算
し、jが512を越えていないことを確認した上でステ
ップS8へ戻るプロセスを511回繰り返すとステップ
S10でイエスの判断が出され、ステップS11へ進
む。ステップS11では行指標iに1を加算し、i=5
13でないことを確認した上で(ステップS12)、列
指標jのみを1にリセットし(ステップS13)、再度
ステップS8へ戻る。以下、同様のプロセスの繰り返し
によって512×512個の画素のすべてについて最小
値Min.Zijがフレームメモリ13(#3)の画素
(i,j)対応アドレスに書き込まれると、ステップS
9→ステップS10(イエス)→ステップS11→ステ
ップS12(イエス)を経て陰影部を集合させて強調す
る画像処理が終了する。
Since the processing for one pixel is completed as described above, the same processing may be repeated for each pixel thereafter. That is, in step S9, 1 is added to the column index j, and after confirming that j does not exceed 512, the process of returning to step S8 is repeated 511 times, a yes determination is made in step S10, and step S11 is performed. move on. In step S11, 1 is added to the row index i, i = 5
After confirming that it is not 13 (step S12), only the column index j is reset to 1 (step S13), and the process returns to step S8 again. Hereinafter, by repeating the same process, the minimum value Min. When Zij is written in the address corresponding to the pixel (i, j) of the frame memory 13 (# 3), step S
The image processing for assembling and emphasizing the shaded portions through 9 → step S10 (yes) → step S11 → step S12 (yes) ends.

【0022】フレームメモリ13(#3)に書き込まれ
た画像信号から得られる画像は、各照明条件下の陰影部
分を集合して強調したものであり、また、規格化によっ
て明るさのむらが抑制された画像となっている。このよ
うな画像が一旦獲得されたならば、例えば、エッジ強調
処理によって図5(1)に示されたような穴3の輪郭
3’に対応した線像3C’と陰影部内縁像3C”からな
る像を得て、更に、内側の線像3C”を除去する画像処
理を施すことによって、図5(2)に示されたように穴
3の輪郭3’に対応した線像3C’のみからなる像を得
ることは、周知のソフトウェア処理を利用して簡単に実
行することが出来る。そして、この線像3C’からは、
例えば3点P1 〜P3 の画素面上の座標値に基づいて円
形の穴3の中心位置Oや半径Rを求めることが出来るこ
とは言うまでもない。
The image obtained from the image signal written in the frame memory 13 (# 3) is an image in which the shaded parts under each illumination condition are gathered and emphasized, and the unevenness of brightness is suppressed by the standardization. It has become an image. Once such an image is acquired, for example, from the line image 3C 'and the shadow inner edge image 3C "corresponding to the contour 3'of the hole 3 as shown in FIG. Image is obtained, and image processing for removing the inner line image 3C ″ is performed to obtain only the line image 3C ′ corresponding to the contour 3 ′ of the hole 3 as shown in FIG. 5B. Obtaining the image can be easily performed using well-known software processing. And from this line image 3C ',
For example, it goes without saying that the center position O and the radius R of the circular hole 3 can be obtained based on the coordinate values of the three points P1 to P3 on the pixel surface.

【0023】なお、上記の各画像処理が的確に実行され
ていることを随意視認できるように、モニタ30の画面
にフレームメモリ13(#3)に格納された画像信号に
基づく画像を周期的に表示する処理を加えることも可能
である。
It should be noted that the image based on the image signal stored in the frame memory 13 (# 3) is periodically displayed on the screen of the monitor 30 so that it is possible to visually visually confirm that each of the above-mentioned image processing is being executed accurately. It is also possible to add processing for displaying.

【0024】以上、上記実施例は円形穴に対して2個の
照明装置を切り換える条件で説明を行なったが、穴の形
が四辺形、楕円等どのような形であっても、適宜、使用
する照明装置の数、切換回数等を選択することによっ
て、穴の認識を行なうことが出来る。例えば、3角穴に
対して6個の照明装置を3方向から2個づつ点灯し、3
種類の照明ジオメトリ条件の下で3種類の画像を獲得
し、上記説明したと同様の画像処理を行なうことが可能
である。
Although the above embodiments have been described under the condition that two illumination devices are switched for a circular hole, any shape such as a quadrangle or an ellipse can be used as appropriate. The holes can be recognized by selecting the number of lighting devices to be operated, the number of switching times, and the like. For example, 6 lighting devices are lit up from the 3 directions for each of the triangular holes, and 3 lighting devices are turned on.
It is possible to acquire three types of images under different types of illumination geometry conditions and perform the same image processing as described above.

【0025】[0025]

【発明の効果】本願発明によれば、視覚センサを利用し
た簡単なプロセスによって、穴を正確に認識することが
出来る。
According to the present invention, holes can be recognized accurately by a simple process using a visual sensor.

【0026】従って、嵌め合い作業の自動化等のアプリ
ケーションにおいて、穴の位置、大きさ、種類等の誤認
による誤動作を心配することなく視覚センサを利用した
システムを採用し、精度の高い作業を行わせることが可
能となる。
Therefore, in an application such as automation of fitting work, a system using a visual sensor is adopted without worrying about malfunction due to erroneous recognition of hole position, size, type, etc., and work with high accuracy can be performed. It becomes possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本願発明の原理について、ワークテーブル上に
載置された穴あきワークの穴のをCCDカメラを含む視
覚センサによって認識する場合を例にとって説明する図
である。
FIG. 1 is a diagram for explaining the principle of the present invention by exemplifying a case in which a hole of a perforated work placed on a work table is recognized by a visual sensor including a CCD camera.

【図2】図1に示した配置の下で、各照明光源を単独で
点灯してカメラ4による撮像を行った場合に得られる画
像(1),(2)と、これら画像の陰影部を集合・強調
させた画像(3)を例示した図である。
FIG. 2 shows images (1) and (2) obtained when the illumination light sources are individually turned on under the arrangement shown in FIG. It is the figure which illustrated the image (3) which was set and emphasized.

【図3】本願発明の方法を実施する際に使用される視覚
センサシステムの一例を示した要部ブロック図である。
FIG. 3 is a principal block diagram showing an example of a visual sensor system used when performing the method of the present invention.

【図4】図1及び図2に示した事例について本願発明を
適用する為に、図3に示した画像処理装置のCPUによ
って実行される処理の内容の概略を記したフローチャー
トである。
4 is a flowchart outlining the contents of processing executed by the CPU of the image processing apparatus shown in FIG. 3 in order to apply the present invention to the cases shown in FIGS. 1 and 2.

【図5】図4に記した処理によって得られた画像に更に
必要な処理を加えて、穴の輪郭画像を得ることを説明す
る図であり、(1)はエッジ強調処理、(2)は更に内
側の線像を除去する処理を施すことによって得られる画
像を表わしている。
5A and 5B are views for explaining that a contour image of a hole is obtained by further performing necessary processing on the image obtained by the processing shown in FIG. 4, where (1) is edge enhancement processing and (2) is Further, it represents an image obtained by performing a process of removing the inner line image.

【符号の説明】[Explanation of symbols]

1 ワークテーブル 2 ワーク 3 穴 3’ 穴の輪郭 4 CCDカメラ 4 CCDカメラの視野 5A,5B 照明装置 10 画像処理装置 11 中央演算処理装置(CPU) 12 カメラインターフェイス 13 フレームメモリ 14 画像処理プロセッサ 15 プログラムメモリ 16 モニタインターフェイス 17 データメモリ 18 汎用信号インターフェイス 19 バス 20 照明光源切換装置 30 モニタ 1 Work Table 2 Work 3 Hole 3'Hole Outline 4 CCD Camera 4 CCD Camera Field of View 5A, 5B Illumination Device 10 Image Processing Device 11 Central Processing Unit (CPU) 12 Camera Interface 13 Frame Memory 14 Image Processing Processor 15 Program Memory 16 Monitor Interface 17 Data Memory 18 General Purpose Signal Interface 19 Bus 20 Illumination Light Source Switching Device 30 Monitor

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 視覚センサのカメラ手段を用い、互いに
異なる部位に陰影を形成する複数の照明ジオメトリ条件
下で順次対象とする穴の撮像を行い、前記各照明ジオメ
トリ条件下における画像信号を獲得する段階と、前記蓄
積された画像信号から各画素毎に最小の明るさを表すも
のを選択し、それら選択された画像信号に基づいて前記
互いに異なる部位に形成された陰影を集合・強調した画
像を構成する段階を含むことを特徴とする視覚センサに
よる穴の認識方法。
1. A camera means of a visual sensor is used to sequentially image a target hole under a plurality of illumination geometry conditions that form shadows at different portions, and an image signal under each illumination geometry condition is acquired. And an image in which shadows formed in the different parts are aggregated / emphasized based on the selected image signal are selected based on the selected image signal. A method for recognizing a hole by a visual sensor, comprising the steps of configuring.
JP5345663A 1993-12-22 1993-12-22 Method for recognizing hole through visual sensor Pending JPH07181011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5345663A JPH07181011A (en) 1993-12-22 1993-12-22 Method for recognizing hole through visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5345663A JPH07181011A (en) 1993-12-22 1993-12-22 Method for recognizing hole through visual sensor

Publications (1)

Publication Number Publication Date
JPH07181011A true JPH07181011A (en) 1995-07-18

Family

ID=18378127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5345663A Pending JPH07181011A (en) 1993-12-22 1993-12-22 Method for recognizing hole through visual sensor

Country Status (1)

Country Link
JP (1) JPH07181011A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228417A (en) * 2001-02-01 2002-08-14 Shinei Denshi Keisokki Kk Crack measuring apparatus
JP2010271152A (en) * 2009-05-21 2010-12-02 Kyushu Institute Of Technology Shape estimating system, photographing device, shape estimation method, program and recording medium
JP2013015389A (en) * 2011-07-04 2013-01-24 Hitachi-Ge Nuclear Energy Ltd Inspection method of weld position and device for the method
US9905026B1 (en) 2016-09-14 2018-02-27 The Boeing Company Photogrammetric identification of locations for performing work
WO2018088552A1 (en) * 2016-11-14 2018-05-17 日本碍子株式会社 Ceramic body defect inspecting device and defect inspecting method
IT202000002656A1 (en) * 2020-02-11 2021-08-11 Utpvision S R L DEVICE FOR DETECTION OF SURFACE DEFECTS IN AN OBJECT

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228417A (en) * 2001-02-01 2002-08-14 Shinei Denshi Keisokki Kk Crack measuring apparatus
JP2010271152A (en) * 2009-05-21 2010-12-02 Kyushu Institute Of Technology Shape estimating system, photographing device, shape estimation method, program and recording medium
JP2013015389A (en) * 2011-07-04 2013-01-24 Hitachi-Ge Nuclear Energy Ltd Inspection method of weld position and device for the method
US9905026B1 (en) 2016-09-14 2018-02-27 The Boeing Company Photogrammetric identification of locations for performing work
CN107816941A (en) * 2016-09-14 2018-03-20 波音公司 Perform the photogrammetric identification in the place of work
EP3296690A1 (en) * 2016-09-14 2018-03-21 The Boeing Company Photogrammetric identification of orientations of holes for performing work
JP2018048997A (en) * 2016-09-14 2018-03-29 ザ・ボーイング・カンパニーThe Boeing Company Photogrammetric identification of locations for performing work
CN107816941B (en) * 2016-09-14 2021-12-03 波音公司 Photogrammetric identification of a place where work is performed
JPWO2018088552A1 (en) * 2016-11-14 2018-11-15 日本碍子株式会社 Defect inspection apparatus and defect inspection method for ceramic body
CN109923402A (en) * 2016-11-14 2019-06-21 日本碍子株式会社 The flaw detection apparatus and defect detecting method of ceramic body
JP2019148603A (en) * 2016-11-14 2019-09-05 日本碍子株式会社 Ceramic body defect inspection device and defect inspection method
WO2018088552A1 (en) * 2016-11-14 2018-05-17 日本碍子株式会社 Ceramic body defect inspecting device and defect inspecting method
US11226295B2 (en) 2016-11-14 2022-01-18 Ngk Insulators, Ltd. Ceramic body defect inspecting apparatus and defect inspecting method
IT202000002656A1 (en) * 2020-02-11 2021-08-11 Utpvision S R L DEVICE FOR DETECTION OF SURFACE DEFECTS IN AN OBJECT
EP3865863A1 (en) * 2020-02-11 2021-08-18 UTPVision S.r.l. Device for detecting surface defects in an object
WO2021160709A1 (en) * 2020-02-11 2021-08-19 Utpvision S.R.L Device for detecting surface defects in an object

Similar Documents

Publication Publication Date Title
JP4309926B2 (en) Facial feature point detection apparatus, facial feature point detection method, and program
US7995058B2 (en) Method and system for identifying illumination fields in an image
CN109697719B (en) Image quality evaluation method and device and computer readable storage medium
US20070176927A1 (en) Image Processing method and image processor
US20040076323A1 (en) Inspection data producing method and board inspection apparatus using the method
CN110514406B (en) Detection method of LED lamp panel, electronic equipment and storage medium
WO2019169821A1 (en) Intelligent detection method and system for led lamp, and storage medium
CN112730251B (en) Device and method for detecting screen color defects
CN111474177A (en) Liquid crystal screen backlight foreign matter defect detection method based on computer vision
JP2007285754A (en) Flaw detection method and flaw detector
CN110097510B (en) Pure-color flower identification method, device and storage medium
JP2893078B2 (en) Shading correction method and device
JPH07181011A (en) Method for recognizing hole through visual sensor
US20070009173A1 (en) Apparatus and method for shading correction and recording medium therefore
CN113920057A (en) Method, device and system for identifying color of product indicator light
JPH0793535A (en) Picture correction processing method
CN112801891A (en) Display screen picture detection method and display screen picture detection system
JPH0629707B2 (en) Optical cutting line measuring device
TWI760934B (en) Mura compensation method for display panel, system, electronic device, and storage medium
JPH05149728A (en) Visually recognizing device
CN105989587B (en) Automatic calibration method of multifunctional OCT system
JP7342616B2 (en) Image processing system, setting method and program
JP2021140270A (en) Image processing apparatus, control method of image processing apparatus, and program
JPH1010051A (en) Applying condition detecting device using vision sensor
JPH10213420A (en) Formation of reference image used in pattern matching