JP3935379B2 - 3D shape detection device for defects - Google Patents

3D shape detection device for defects Download PDF

Info

Publication number
JP3935379B2
JP3935379B2 JP2002068839A JP2002068839A JP3935379B2 JP 3935379 B2 JP3935379 B2 JP 3935379B2 JP 2002068839 A JP2002068839 A JP 2002068839A JP 2002068839 A JP2002068839 A JP 2002068839A JP 3935379 B2 JP3935379 B2 JP 3935379B2
Authority
JP
Japan
Prior art keywords
defect
plane
workpiece
camera
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002068839A
Other languages
Japanese (ja)
Other versions
JP2003269931A (en
Inventor
宗敏 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lossev Technology Corp
Original Assignee
Lossev Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lossev Technology Corp filed Critical Lossev Technology Corp
Priority to JP2002068839A priority Critical patent/JP3935379B2/en
Publication of JP2003269931A publication Critical patent/JP2003269931A/en
Application granted granted Critical
Publication of JP3935379B2 publication Critical patent/JP3935379B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

【0001】
【発明が属する技術分野】
本発明は、繰り出されるワークの平面上の立体的な欠陥の立体形状を画像処理技術により高速で検出する装置に関する。
【0002】
【従来の技術】
図1は、従来の技術による平面状のワークの欠陥形状計測装置を示す。その欠陥形状計測装置は、ワークの平面上の立体的な欠陥を検出するために、レーザスリット発射器、エリアTVカメラ、および画像処理装置を用いている。なお、ワークは、コンベア等のワーク送り出し手段により定速(一定の速度)で送り出されているものとする。
【0003】
ここでエリアTVカメラの視野内の画像サイズをH512×V480pixelとし、1画素(pixel)の分解能を0.1mmとする。レーザスリット光は、斜め上方から照射され、エリアTVカメラは、ワークの平面の法線方向から観察するとしたとき、ワークが完全な平面であれば、レーザスリット光は、エリアTVカメラから見て直線状に観察されるのに対して、ワークに窪み欠陥があるときには、エリアTVカメラの画像上のレーザスリット光は、エリアTVカメラで観察すると、ゆがんで見える。そこで、画像処理装置は、上記のゆがみ量、レーザスリット発射器の位置、エリアTVカメラの位置から、三角測量の原理を応用して、画像処理により、ワークの平面上の欠陥の立体形状を判別する。
【0004】
【発明が解決しようとする課題】
上記のケースでは、平面分解能を画素の分解能と同じに保つには、撮像サイクル毎に、ワークを0.1mmづつしか繰り出せない。H512×V480pixel程度のエリアTVカメラよると、撮像サイクルは、せいぜい1/120秒であるから、ワークの繰出し速度は、12mm/sec=720mm/minが限界である。このため、高速での処理が不可能である。
【0005】
したがって、本発明の目的は、繰り出されるワークの平面上の立体的な欠陥の立体形状を画像処理技術により高速で、具体的には1m/min〜200m/min程度の繰り出し速度で繰り出されるワークの平面上にある欠陥の立体形状を平面分解能0.1mm程度、高さ0.2mm程度の分解能のもとに検出できるようにすることである。
【0006】
【課題を解決するための手段】
上記目的のもとに、本発明は、ワーク送り出し機構により繰り出されるワークの平面上の立体的な欠陥を検査する装置において、互いに平行な棒状で三原色のうち異なる色の照明光を異なる角度からワークの検査対象の平面に向けて照射する一対の光源と、異なる色の照明光の下でワークの検査対象の平面をワークの上方から撮像するRGB対応のカラーラインTVカメラと、このカラーラインTVカメラからの異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の比からワークに対する観測点の傾斜角φyを求め、この傾斜角φyの正接値から求められる高さの増分をX軸方向に順次累積することによりワークの平面上の欠陥の立体形状を検出する画像処理装置と、により欠陥の立体形状検出装置を構成している
【0007】
特に、本発明は、基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和を事前に求めておき、それに対する観測点の画像データ間で同一対応点における明るさ(濃度値)の和を求め、すでに計算済みのy軸まわりの傾斜角φ y cos (φ y )を用いて、式φ x =± cos -1 [(観測点の画像データ間で同一対応点における明るさ(濃度値)の和)/{(基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和 ) cos (φ y )}]により、観測点のx軸まわりの傾斜角φ x の絶対値を求めている(請求項1)。
【0008】
そして、本発明は、一対の光源の異なる色の照明光をR(赤)とB(緑)との組み合わせ、R(赤)とG(青)と組み合わせ、およびG(青)とB(緑)と組み合わせのうち、いずれか1つの組み合わせとする(請求項2)。
【0009】
また、本発明は、予め切り出したワークのサンプルとしての資料片を順次傾けながら、その傾き角の正接値と観測点の明るさ(濃度値)との比(各色の画像と画像とのの同一点の濃度値の比)を事前に対応表として記録しておき、この対応表を参照して、傾斜角の正接値を求める(請求項3)。
【0010】
さらに、本発明は、ワーク送り出し機構にエンコーダを取り付け、そのエンコーダからの出力パルスを画像処理装置の同期制御部に入力し、この同期制御部からエンコーダからの出力パルスに同期してカラーラインTVカメラの撮像間隔を制御することにより、ワークの定速でない繰り出し速度に対応することを特徴とする請求項1記載の欠陥の立体形状検出装置(請求項)。
【0011】
【発明の実施の形態】
図2および図3は、本発明による欠陥の立体形状検出の原理を示している。図2および図3で、ワーク1の平面を基準面とし、この基準面に対し法線方向にカラーラインTVカメラ2を置き、基準面に対し傾き角θ1の点光源であるR(赤色)の光源3、基準面に対し傾き角θ2の点光源であるB(青)の光源4をカラーラインTVカメラ2の光軸を挟んで、互いに向かい合わせに設置するものとする。また、基準面の高さに完全拡散面の資料片5を、基準面に対して傾き角φで置く。
【0012】
カラーラインTVカメラ2は、3板式のRGB方式のTVカメラで、図4のような光の三原色の各R(赤色)、G(緑色)、B(青色)に関する相対感度特性を持つ。Rの光源3とBの光源4の各発光波長域(発光スペクトル)は、それぞれカラーラインTVカメラ2のR(赤色)受光部、B(青色)受光部のみに反応するような赤色、青色の光とする。それらの光源3、4は、たとえば高周波蛍光灯の前面にカラーフィルターを装着したもの、カラーネオン管または発光スペクトルの限られる高輝度カラーLEDを用いて構成する。
【0013】
また図4では、カラーラインTVカメラ2のR(赤色)受光部とG(緑色)受光部との相対感度周波数域、またB(青色)受光部とG(緑色)受光部との相対感度周波数域が一部交わっている。もし、照明光として、赤色点光源と緑色点光源、または青色点光源と緑色点光源を用いるとし、これを高周波蛍光灯の前面にカラーフィルターを装着したものや、カラーネオン管で構成したとすると、赤色の照明光がG(緑)受光部に感応したり、緑色の照明光がR(赤)受光部に感応したり、青色の照明光がG(緑)受光部に感応したり、緑色の照明光がB(緑)受光部に感応したりして、各色の受光部から得られる画像とそれに対応する色の照明光とが100%対応しなくなってしまうという問題がある。というのも、ある色の照明光が一定の傾き角度を持つ光源3、4と対応していなければならないからである。
【0014】
この問題を避けるため、光源3、4からの照明光およびカラーラインTVカメラ2の受光部の感応色は、R(赤色)とB(青色)との組み合わせとすると、得られた画像は、明確に一定方向からの光源3、4によるものであるという保証を得ている。なぜなら図4では、カラーラインTVカメラ2のR(赤色)受光部とB(青色)受光部との相対感度周波数域は、決して交わらないからである。
【0015】
ただし、光源3、4にLEDを用いる場合には、発光スペクトル幅が数十nmと狭く、たとえば赤色LEDと緑色LEDを用いたときに、得られたR受光部の画像は、明確に赤色LEDだけからの反射光となり、また、G受光部の画像は、明確に緑色LEDだけからの反射光となる。これは、青色LEDと緑色LEDを用いても同じである。
【0016】
ただ一般に高輝度カラーLEDは、高周波蛍光灯やネオン管と比べて光量が小さく、その照明光の下で、10m/min以上で高速に移動する物体をカラーラインTVカメラ2で高速に画像の取り込みを行おうとすると、絶対光量が不足する。このため、高輝度カラーLEDを用いる場合には、数十〜数百個を束ねて1ユニットとして用いるなど、光量確保が必要となる。また、高周波蛍光灯やネオン管でも同様な考え方で、それぞれ450nm、550nm、650nmにピーク波長を持つような帯域が数十nmのR,G,B色の帯域フィルターを置くことによって、同様に実現が可能である(請求項2)。
【0017】
さて図3で、Rの光源3からのサンプルとしての資料片5に対する入射光の輝度をI1、Bの光源4からの資料片5に対する入射光の輝度をI2、資料片5の反射率をρ、資料片5とRの光源3のなす角度をs1、資料片5とBの光源4のなす角度をs2とする。この時、カラーラインTVカメラ2に入射する入射光の輝度Iは、光学反射モデルのよく知られたLambertの余弦則またはランバートの法則を用いて、下記の式により表される。
【0018】
Ir= I1・ρ・cos(90°−s1)
= I1・ρ・sin(s1)
= I1・ρ・sin(θ1+φ)
Ib= I2・ρ・cos(90°−s2)
= I2・ρ・sin(s2)
= I2・ρ・sin(θ2−φ) (1)
【0019】
ここに輝度IrはカラーラインTVカメラ2に入射する入射光輝度Iのうち、Rの光源3による成分で、R受光部によるR画像の濃度値(明るさ)frに変換されるものである。輝度IbはTVカメラ2に入射する入射光輝度Iのうち、Bの光源4による成分で、B受光部によるB画像の濃度値(明るさ)fbに変換されるものである。
【0020】
さて、今度は点状の光源3、4ではなく、互いに平行な棒状(直線状)の光源3、4を用いる場合を考える。点状の光源3、4というのは光源から全方向に光を照射するので、ライン状の視野を持つカラーラインTVカメラ2を用いる場合には、絶対光量が不足し不向きである。棒状の光源3、4は、スリット状の開口部を通して照射光をカラーラインTVカメラ2の視野に向けて照射するようになっている。
【0021】
図5において、ワーク1の基準面をXY平面とし、カラーラインTVカメラ2の光軸をZ軸に平行に置くとする。Y軸方向から見た時のRの光源3とBの光源4とが基準面となす角度θ1、θ2および基準片5の基準面に対する傾きφは、図3と同一とする。
【0022】
ここで、カラーラインTVカメラ2の光軸が基準面と交わる点をPo、この点Poを含むXZ平面がRの光源3と交わる点をP1(0)とする。点P1(0)は、線状光源の微小要素であって点光源とみなせるから、ここからのカラーラインTVカメラ2に入射する入射光の輝度Ir(0)は、点光源P1(0)からの入射光の点P0における輝度をI1(0)として、(1)式より次式で与えられる。
Ir(0)=I1(0)・ρ・sin(θ1+φ) (2)
【0023】
同様にRの光源3上のある点と点Poを結ぶ線分がP1(0)と点Poを結ぶ線分となす角度をαとした時、このRの光源3上のある点をP1(α)とする。ここからのカラーラインTVカメラ2に入射する入射光の輝度Ir(α)は、点光源P1(α)からの入射光の点P0における輝度をI1(α)として、次式で与えられる。
Ir(α)=I1(α)・ρ・sin(θ1+φ)・cos(α) (3)
【0024】
さて、明るさは、光源からの距離の二乗に反比例する。このため、カラーラインTVカメラ2への入射光の輝度I1(0)とI1(α)との比は、点光源P1(0)と点Poとを結ぶ線分の長さと、点光源P1(α)と点Poとを結ぶ線分の長さとの比である1/cos(α)の二乗に反比例する。これより次式が得られる。
I1(α)= I1(0)・cos2(α) (4)
【0025】
よって、(4)式を(2)式に入れて、次式が得られる。
Ir(α)= I1(0)・cos2(α)・ρ・sin(θ1+φ)・cos(α)
= I1(0)・ρ・sin(θ1+φ)・cos3(α) (5)
【0026】
図5は、資料片5がY軸のまわりに傾き角φだけ傾いた場合であるが、これを傾斜角φyとする。またこれと同時に基準片がX軸まわりにも傾斜角φxだけ傾いた場合を考える。このとき、カラーラインTVカメラ2に入射する入射光の輝度は、傾斜角φxが0である場合に比べ、cos(φx)倍となるため、(2) 式および(5) 式の右辺にcos(φx)を掛けて、次式が得られる。
Ir(0)=I1(0)・ρ・sin(θ1+φy)・cos(φx) (6)
Ir(α)=I1(0)・ ρ・ sin(θ1+φy)・cos3(α)・cos(φx)
(7)
【0027】
よって、カラーラインTVカメラ2に入射するRの光源3による入射光の輝度Irは、点光源P1(α)によるカラーラインTVカメラ2への入射光I1(α)の積分値と考えて次式が得られる。
Ir=∫Ir(α)dα
=∫[ I1(0)・ρ・sin(θ1+φy)・cos3(α)・cos(φx)]dα =I1(0)・ρ・sin(θ1+φy)・cos(φx)・∫cos3(α)dα
【0028】
Rの光源3の長さと位置は一定であるから、上記式で∫cos3(α)dαは、一定値となる。それを定数C1とおけばつぎの式となる。
Ir= C1・I1(0)・ρ・sin(θ1+φy)・cos(φx) (8)
【0029】
同様にBの光源4についても、一定値の定数C2とおけばつぎの式となる。
Ib= C2・I2(0)・ρ・sin(θ2−φy)・cos(φx) (9)
【0030】
なお、Bの光源4の長さがRの光源3と等しく、カラーラインTVカメラ2の光軸に対し、線対称の位置にあるものとすれば、C2=C1、θ2=θ1となる。また光源3、4の光量が等しいとすれば、I2(0)= I1(0)となり、次の式が得られる。
Ib= C1・I1(0)・ρ・sin(θ1−φy)・cos(φx) (10)
【0031】
さて輝度Irや輝度Ibは、カラーラインTVカメラ2でのR受光部とB受光部での輝度値であり、カラーラインTVカメラ2の観測値frおよび観測値fbは、それぞれ対応の輝度Irおよび輝度Ibと比例関係にあから、この比例定数をC0として、つぎのように表せる。
fr=C0・Ir
fb=C0・Ib
【0032】
今度は逆に、これらの観測値から、資料片5の傾斜角φx、傾斜角φyを求めてみる。まず、入射光の観測値frと観測値fbとの比R0を計算する。(9)式と(10)式とから、次式が得られる。
R0=fr/fb=Ir/Ib
=sin(θ1+φy)/sin(θ1−φy) (11)
これより、φy=tan-1{tan(θ1)・( R0−1)/(R0+1)} (12)
また、 tan (φy)=tan(θ1)・(R0−1)/(R0+1) (12a)
傾き角θ1は、0°〜90°までの範囲内であるが、これは一定値であるから、tan(θ1)も一定値となるので、比R0が決まれば、傾斜角φyは、ただ一義的に(12)式によって決まる。
【0033】
さて、基準面としてφy=0°、φx=0°の時に、輝度IrをIr0とする。(8)式を用いて、それは次式となる。
Ir0= C1・I1(0)・ρ・sin(θ1) (13)
【0034】
また、φy=0°、φx=0°の時に、輝度IbをIb0とする。(10)式を用いて、それは次式となる。
Ib0=C1・I1(0)・ρ・sin(θ1) (14)
【0035】
ここで輝度Ir0のカラーラインTVカメラ2での観測値をfr0、Ib0の観測値をfb0として、
(fr+fb)/(fr0+fb0)
=(Ir+Ib)/(Ir0+Ib0)
=[ {sin(θ1+φy)+sin(θ1−φy)}/2sin(θ1)]
・cos(φx)
=cos(φy)・cos(φx) (15)
【0036】
観測値fr0と観測値fb0を事前に計測しておけば、(fr+fb)/(fr0+fb0)が求まり、また、すでに傾斜角φyも求まっているから、cos(φy)も算出でき、(15)式からcos(φx)が算出できる。故に
cos(φx)=(fr+fb)/{(fr0+fb0)・cos(φy)} (16)
であり、これから逆余弦関数を用いて、傾斜角φxの計算ができる。
φx =±cos-1[(fr+fb)/{(fr0+fb0) ・cos(φy)}](16a)
【0037】
この後で説明するように、欠陥の立体形状は、X軸に沿って、Z軸方向の増分値を順次積み重ねていくことにより算出できるが、その時に用いる傾斜角はφyだけでよい。もちろん同様に、Y軸に沿って、Z軸方向の増分値を順次積み重ねても欠陥の立体形状を算出できるが、この時に用いる傾斜角はφxである。
【0038】
ところで、(16a)式の逆余弦関数を用いて求まるX軸まわりの傾斜角φxの正負の符号(傾きの方向)は不明である。このためここでは、傾斜角φxを用いた欠陥の立体形状算出方法の詳細な説明を割愛する。ただ符号の判定は、カラーラインTVカメラ2の光軸に対し、Y軸まわりに傾いたところに緑色Gの点光源を置き、これからの光も同時にカラーラインTVカメラ2に取り込むことによって可能となる。なぜなら、同じcos(φx)をとる2つの角度+φxと角度−φxでも、緑色受光部の輝度値Igが大きく異なるためである。
【0039】
以上を整理すると、つぎのことが言える。
1)入射光の輝度値の観測値frと観測値fbとの比R0を求め、これから前記(12)式により傾斜角φyが算出できる。
2)また入射光の輝度値の観測値frと観測値fbとの和(fr+fb)と、資料片5が傾いていない場合の同和(fr0+fb0)との比を求めれば、(16)式と上記傾斜角φyとを用いて、これからcos(φx)が算出できる。
【0040】
本発明は、欠陥の立体形状を算出する手順(方法)を示している。それは、基準面のある基準高さに対して一定の高さの凹凸があるときに、それを欠陥と判断するためである。
【0041】
これに対して、高さZの変化の増分、すなわちX軸方向の高さの変化量△Zx=△x・tan(φy)や、Y軸方向の高さの変化量△Zy=△y・tan(φx)が一定の大きさ以上であれば、それを欠陥とみなすという簡単な欠陥の判定方法も考えられる。この場合に、△xや、△yは一定であるから、単に|tan(φy)|と|tan(φx)|を求めればよい。|tan(φy)|は、(12a)式から求めることができ、|tan(φx)|も前記の(16a)式から求めることができる。|tan(φx)|の計算においては、傾斜角φxの符号は関係ないので、それはただ一義的に求まる。
【0042】
それでは以上の原理を用いて、図6に基づいて具体的に欠陥の立体形状を再現する方法について述べる。図6は、本発明による欠陥の立体形状検出装置10を示している。欠陥の立体形状検出装置10は、ワーク送り出し機構6により一定の速度または一定しない速度により繰り出されるワーク1の平面上の立体的な欠陥を検査するために、一対の光源3、4、RGB対応のカラーラインTVカメラ2、画像処理装置7からなる。ここでは、ワーク1がX軸方向の向きに対して反対に一定速度で繰り出されているものとする。
【0043】
一対の光源3、4は、互いに平行な棒状で三原色のうち異なる色例えばRの照明光およびBの照明光を異なる角度からワーク1の検査対象の平面に向けて照射する。カラーラインTVカメラ2は、RGB対応のカラーラインTVカメラであり、異なる色の照明光の下でワーク1の検査対象の平面をワーク1の上方から撮像する。カラーラインTVカメラ2の光軸は、ワーク1の検査対象の平面つまり基準面に垂直であり、Rの光源3およびBの光源4は、カラーラインTVカメラ2の光軸を挟んで線対称に置かれているものとする。2つの光源3、4はY軸と平行であり、基準面に対する傾き角はともにθ1である。
【0044】
カラーラインTVカメラ2は、各R,G,Bのラインデータを画像処理装置7に順次送る。画像処理装置7は、各R,G,Bのラインデータを各R,G,Bのプレーン毎に順次ラインをつなぎ合わせて、2次元の画像データとして記録するものとする。また、画像処理装置7は、カラーラインTVカメラ2からの異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の比からワーク1に対する観測点の傾斜角φyを求め、この傾斜角φyの正接値から求められる高さの増分をX軸方向に順次累積することによって、ワーク1の平面上の欠陥の立体形状を検出する。なお、前記のように、傾斜角φyは、ワーク1の繰出し方向がX軸方向の向きと反対としたとき、このX軸に対する傾き角、すなわちy軸まわりの傾き角である。
【0045】
図7は、画像処理装置7の具体的な構成を示している。以下、画像処理装置7の各部の機能に沿って説明する。カラーラインTVカメラ2からのカラー映像信号は、画像処理装置7に送られる。これらのカラー映像信号は、各色毎にA/D変換器11、12、13を介して、各色毎のRプレーン14、Gプレーン15、Bプレーン16に記録される。
【0046】
Rプレーン14、Gプレーン15、Bプレーン16は、各色の1ライン(1ラインはn=512画素、1024画素、2048画素、5000画素などからなる。)のデータをmライン(mはハード的またはソフト的に決められる。)格納できる専用のメモリ領域であって、各色のRプレーン14、Gプレーン15、Bプレーン16は、No.1のバッファおよびNo.2のバッファ(ダブルバッファ)により構成されている。バッファサイズは、1画素を1バイト表現とすると、n×mバイトであり、各色のRプレーン14、Gプレーン15、Bプレーン16は2×n×mバイトのサイズである。
【0047】
各映像データは、No.1のバッファの先頭から順次1ラインづつ格納され、映像データがNo.1のバッファを満たすと、次に各映像データは、No.2のバッファの先頭から順次1ラインづつ格納される。そして、映像データがNo.2のバッファを満たすと、今度はNo.1のバッファの先頭から格納される。
【0048】
Rプレーン14の画像データをfr(i,j)、Gプレーン15の画像データをfg(i,j)Bプレーン16の画像データをfb(i,j)でそれぞれ表すものとする。例えばn=512画素の場合、ラインレート(撮像間隔△tの逆数)は、一般に40KHzが可能であるから、1秒間に40000ラインの取得が可能であり、ラインピッチが0.1mmとすれば4000mm、1分間に240mの処理が可能である。すなわちこれは240m/minの繰出し速度に対応する。
【0049】
演算LSI8は、Rプレーン14の1つのバッファと、Bプレーン16の同一No.のバッファとの間で画素間演算を行い、結果プレーン17にその結果を格納する。この画素間演算は、まず、R0=fr(i,j)/fb(i,j)を演算した上で、(12a)式で、tan(φy)を単精度実数で計算する。
tan(φy)=tan(θ1)・(R0−1)/(R0+1) (12a)
【0050】
(12a)式で計算したtan(φy)は、バス18を経由して、結果プレーン17のバッファαに格納される。バッファαの大きさは、各色のRプレーン14、Gプレーン15、Bプレーン16と同じで、1データあたり単精度実数長である4バイトなので、(n×m×4バイト)となる。
【0051】
なお、Y軸方向のカラーラインTVカメラ2の分解能△Yと、1ラインのスキャン時間△tあたりのX方向の繰出し量△Xとが等しくなるように、ワーク1の繰出し速度vを一定の速度(定速)に保つものとする。分解能△Yは、視野サイズを1ラインの画素数(ex. 512 画素)で割ったもの、繰出し量△Xは繰出し速度vにスキャン時間△tをかけたものである。
【0052】
さて図6の欠陥部は、図8のように1マス△x、△yの格子で位置を表現するものとする。図9は、図8のXY座標系の格子で表された欠陥イメージを取得した後、演算LSI8で演算したtan(φy)を結果プレーン17のαバッファに入れた図である。XY座標系で、x方向はi、y方向はjをカウンタとする。網かけ部は、欠陥のある部分(欠陥部)を重ね描きしたもので、これを含む該当セルのデータのtan(φy)は0以外の値を取る。網かけ部を含まないセルのデータtan(φy)は0である。
【0053】
ここで、あるi=m列において、欠陥の手前(x値が小さい点)にある点の配列データをg(m,1)=0とし、また欠陥の後ろ(x値が大きい点)にある点の配列データg(m,n)=0とする。これらの点は欠陥ではないため、高さが基準面高さ0である。g(m,1)とg(m,n)が基準面高さにあることを確かめるには、その点まわりの4近傍や8近傍の点の配列データが0であることを確かめればよい。
【0054】
さて、点(i,j)のZ方向の高さをZ(i,j)で表すとすると、高さの増分△Zx=Z(m,j)−Z(m,j−1)は、1ラインデータ送り量△Xに、−g(m,j)=−tan(φy)をかけたものに等しい。なぜなら、y軸まわりの傾斜角φyは、該当点のX軸に対する傾きだからである。よって、つぎの式が成り立つ。
Z(m,1)= Z(m,n)=0 (17)
Z(m,j)=Z(m,j−1)−△x・g(m,j) (18)
【0055】
(17)式と(18)式とを用いて、Z(m,j)を順次求めることができる。最後の点Z(m,n)は、次式により求められる。
Z(m,n)=Z(m,1)−△x・(g(m,2)+g(m,3)+…+g(m,n)) =−△x・Σ(g(m,j)) (19)
【0056】
ところで、(17)式から、Z(m,n)=0であるから、(19)式の右辺も0になるはずであり、本来は、−△x・Σ(g(m,j))=0になるべきであるが、tan(φy)を計算する基のデータであるfr(i,j)やfb(i,j)は、8bit=1バイトしかないデータであるため、tan(φy)も有効桁が不足している。特に、φyが90°または−90°に近い場合には、tan(φy)の誤差はかなり大きくなる。このため(19)式の右辺は一般に0にはならない。
【0057】
それゆえに、g(m,j)がもともと誤差を含むデータと考え、その誤差が点(m,2)から点(m,n)まで等しく、誤差△gだけあると考えて、Z(m,n)=−△x・Σ(g(m,j)+△g)=0とする。これよって、(nー1)・△g=−Σ(g(m,j))であり、よって、下記の式が得られる。
△g=−Σ(g(m,j))/(n−1) (20)
【0058】
この△gを用いて、最後の点Z(m,j)は次式で与えられる。
Z(m,j)=−△x・Σ(g(m,j)+△g) (21)
【0059】
これにより、i=mの時の欠陥の立体形状を再現すると、図10の点Px1から点Pxnまでを結んだ折れ線のようになる。同様にして、すべてのiにおいて立体形状を求めた結果が図10である。これらの処理は、バッファαを用いて上記手順によりCPU9によって計算され、計算されたデータは、βバッファにZ軸方向の高さとして記録される。
【0060】
なお、以上の説明では、検査対象のワーク1を光学特性として完全拡散面としたが、鏡面に近いつややかな反射率の高い面では、(12a)式は成立しない。ただこの場合でも、完全鏡面反射でない限り、観測点からの入射光の輝度値の明るさfrと明るさfb との比R0と、観測点のy軸まわりの傾斜角φyとは、一対一の対応である。すなわち比R0を求めれば、これに対応する傾斜角φyがわかる。
【0061】
これを求めるためには予め切り出したワーク1のサンプル(資料片5)を順次y軸まわりに傾けながら、その傾斜角φyの正接値tan(φy)と観測点の明るさ(濃度値)との比R0(2枚の画像RプレーンとBプレーンの同一点の濃度値の比)を事前に図7のパラメータテーブル19に記録しておき、検査時に前記の(12a)式を計算する代わりに、記録してあるパラメータテーブル19を参照すれば、観測点の明るさ(濃度値)の比R0から正接値tan(φy)が求まり、あとは完全拡散面と同様の計算手続きにより、立体形状を求めることができる(請求項3)。
【0062】
基準面において、R画像の撮像データとB画像の撮像データとの間で同一対応点における明るさ(濃度値)の和を事前に求めておき、それに対する観測点のR画像の撮像データとB画像の撮像データとの間で同一対応点における明るさ(濃度値)の和を求め、つぎにこれらの2つの和の比を計算し、すでに計算済みのy軸まわりの傾斜角φyとを用いて、(16a)式により、観測点のx軸まわりの傾斜角φxの絶対値を求める(請求項)。続いてこの傾斜角φxの正接値の絶対値を計算し、結果プレーン17のγプレーンに順次に格納する。
【0063】
これより、結果プレーン17のαプレーン、γプレーンを参照すれば、傾きの増分の絶対値|△Zx|および傾きの増分の絶対値|△Zy|が下記の式から求められる。
|△Zx|=△x・|tan(φy)|
|△Zy|=△y・|tan(φx)|
これにより傾きの増分の絶対値が規定値より大きい画素には、その観測点に欠陥ありとみなすような欠陥判別も行うことができる。
【0064】
また、以上の説明では、ワーク1が一定の速度(定速)であるという前提があった。これは、単位時間△tあたりのx軸方向の増分△xを一定とするためである。この場合(一定速)のカラーラインTVカメラ2の撮像タイミング(1ラインを取り込む間隔)△tは、画像処理装置7からの信号によらず、カラーラインTVカメラ2自体がもつ内部クロックによる内部同期信号を用いる。
【0065】
これに対し、ワーク1が一定の速度でない場合には、ワーク送り出し機構6にエンコーダ20を取り付け、そのエンコーダ20からの出力パルスを画像処理装置7の同期制御部21に入力し、同期制御部21からの出力パルスに同期してカラーラインTVカメラ2の撮像タイミング(スキャン時間)△tを制御すれば、やはりx軸方向の増分△xは一定となる(請求項)。
【0066】
ところで、カラーラインTVカメラ2で観測された観測点の明るさ(濃度値)は、輝度Iと同一とみなしたが、露光時間(スキャン時間)△tが変化するときに、それは一定ではない。なぜなら、カラーラインTVカメラ2で観測された観測点の明るさ(濃度)は、撮像時の露光時間に比例するからである。露光時間が長いと、カラーラインTVカメラ2で観測された観測点の明るさ(濃度値)は大きくなり、露光時間が短いと、カラーラインTVカメラ2で観測された観測点の明るさ(濃度値)は小さくなる。
【0067】
一般に露光時間は、カラーラインTVカメラ2の撮像タイミング(スキャン時間)△tと同一であるから、ワーク1が定速でない場合には、カラーラインTVカメラ2で観測される観測点の明るさ(濃度値)もカラーラインTVカメラ2の撮像タイミング(スキャン時間)△tの影響を受ける。ただ、R画像の撮像データおよびB画像の撮像データの同一対応点における明るさ(濃度値)の比からワーク1に対する観測点の傾斜角φy(繰出し方向がX軸方向とは反対とした時、このX軸に対する傾斜角、すなわちy軸まわりの傾斜角)を(12)式により計算する手段においては、明るさの比は、撮像タイミング△tによらず一定になるので、欠陥の立体形状検出の目的は達成できる。
【0068】
もちろん画像処理装置7の露光時間制御部26が一定の露光時間制御タイミングをカラーラインTVカメラ2に送るときには、カラーラインTVカメラ2で観測される観測点の明るさ(濃度値)は、ワーク1の繰り出し速度の変化の影響を受けないので、傾斜角φyや傾斜角φxも安定して求めることができる。
【0069】
なお、画像処理装置7のメモリ22は、プログラム、画像データや制御データなどを記憶しており、また、入出力部23は、外部機器に必要なデータを送る。さらに、ビデオメモリ24は、画像データをD/A変換器25を経てCRT 8(デイスプレイ)に送り、目視できるようにする。
【0070】
【発明の効果】
請求項1によれば、紙、プラスチック、石膏ボードなど完全拡散反射材料のワークに関し、その平面上の欠陥の立体形状の測定が高速で行える。具体的には、200m/min程度の速度で繰り出されるワークの平面上にある欠陥の立体形状が分解能0.1mm程度、高さ0.2mm程度の分解能のもとに高速で検出することができる。
【0071】
特に、請求項1において、基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和を事前に求めておけば、式( 16a )に対応する式φ x =± cos -1 [(観測点の画像データ間で同一対応点における明るさ(濃度値)の和)/{(基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和 ) cos (φ y )}]により、観測点のx軸まわりの傾斜角φ x の絶対値を求めることができ、傾きの増分の絶対値が規定値より大きい画素では、その観測点に欠陥ありとみなすような欠陥判別も行える。
【0072】
請求項2によれば、一対の光源の異なる色の照明光をR(赤)とB(緑)との組み合わせとすれば、受光部の相対感度周波数域が交わらないので、各色の画像の識別が確実となる。またカラーLEDや帯域フイルターを使用すれば、R(赤)とG(緑)の組み合わせや、G(緑)とB(青)と組み合わせでも、受光部の相対感度周波数域が交わらない状態として、各色の画像の識別が可能となる。
【0073】
請求項3によれば、予め切り出したワークのサンプル(資料片)を順次傾けながら、その傾き角の正接値と観測点の明るさ(濃度値)との比(2枚のR画像とB画像の同一点の濃度値の比)を事前に対応表として記録しておき、この対応表を参照して、傾斜角の正接値を求めから、式(12a)に対応する式の計算が省略でき、処理時間が一層高速化できる。
【0074】
請求項によれば、ワーク送り出し機構のエンコーダからの出力パルスを利用してカラーラインTVカメラの撮像間隔を制御することにより、ワークの定速でない繰り出し速度にも対応することができる。
【図面の簡単な説明】
【図1】 従来のレーザスリットを用い三角測量の原理による欠陥の形状計測装置の斜面図である。
【図2】 本発明による欠陥の形状検出装置の斜面図である。
【図3】 本発明による欠陥の形状検出装置で点光源を用いた原理の側面図である。
【図4】 カラーラインTVカメラの相対感度特性のグラフである。
【図5】 本発明による欠陥の形状検出装置の原理の斜面図である。
【図6】 本発明による欠陥の立体形状検出装置による欠陥の検出時の斜面図である。
【図7】 本発明による欠陥の立体形状検出装置における画像処理装置のブロック図である。
【図8】 欠陥をXY座標系の格子で表したときの説明図である。
【図9】 バップァα上で見た欠陥の説明図である。
【図10】 計算された立体形状の説明図である。
【符号の説明】
1 ワーク 2 カラーラインTVカメラ
3 光源 4 光源
5 資料片 6 ワーク送り機構
7 画像処理装置 8 演算LSI
9 CPU 10 欠陥の立体形状検出装置
11 A/D変換器 12 A/D変換器
13 A/D変換器 14 Rプレーン
15 Gプレーン 16 Bプレーン
17 結果プレーン 18 バス
19 パラメータテーブル 20 エンコーダ
21 同期制御部 22 メモリ
23 入出力部 24 ビデオメモリ
25 D/A変換器 26 露光時間制御部
[0001]
[Technical field to which the invention belongs]
  The present invention relates to an apparatus for detecting a three-dimensional shape of a three-dimensional defect on a plane of a work to be fed at high speed by an image processing technique.
[0002]
[Prior art]
  FIG. 1 shows a defect shape measuring apparatus for a planar workpiece according to the prior art. The defect shape measuring apparatus uses a laser slit projector, an area TV camera, and an image processing apparatus in order to detect a three-dimensional defect on the plane of the workpiece. It is assumed that the workpiece is fed at a constant speed (a constant speed) by a workpiece feeding means such as a conveyor.
[0003]
  Here, the image size within the field of view of the area TV camera is H512 × V480 pixels, and the resolution of one pixel is 0.1 mm. The laser slit light is irradiated obliquely from above, and when the area TV camera is observed from the normal direction of the plane of the workpiece, if the workpiece is a perfect plane, the laser slit light is a straight line as viewed from the area TV camera. When the workpiece has a dent defect, the laser slit light on the image of the area TV camera looks distorted when observed with the area TV camera. Therefore, the image processing device determines the three-dimensional shape of the defect on the plane of the workpiece by image processing by applying the principle of triangulation from the above-mentioned distortion amount, laser slit projector position, and area TV camera position. To do.
[0004]
[Problems to be solved by the invention]
  In the above case, in order to keep the plane resolution equal to the pixel resolution, the workpiece can be fed out by 0.1 mm for each imaging cycle. According to an area TV camera of about H512 × V480 pixels, the imaging cycle is at most 1/120 seconds, so the work feeding speed is limited to 12 mm / sec = 720 mm / min. For this reason, high-speed processing is impossible.
[0005]
  Therefore, an object of the present invention is to provide a three-dimensional shape of a three-dimensional defect on a plane of a workpiece to be fed at a high speed by an image processing technique, specifically, a workpiece fed at a feeding speed of about 1 m / min to 200 m / min. It is to enable detection of a three-dimensional shape of a defect on a plane with a resolution of about 0.1 mm and a resolution of about 0.2 mm.
[0006]
[Means for Solving the Problems]
  Based on the above object, the present invention provides an apparatus for inspecting a three-dimensional defect on a plane of a workpiece fed out by a workpiece feeding mechanism, and illuminating light of different colors among the three primary colors in a bar shape parallel to each other from different angles. A pair of light sources for irradiating the plane to be inspected, an RGB color line TV camera for imaging the plane to be inspected from above the workpiece under illumination light of different colors, and this color line TV camera The inclination angle φy of the observation point with respect to the work is obtained from the ratio of the brightness (density value) at the same corresponding point between the image data of different colors from, and the height increment obtained from the tangent value of the inclination angle φy is expressed as X A defect three-dimensional shape detection device is configured by an image processing device that detects a three-dimensional shape of a defect on the plane of the workpiece by sequentially accumulating in the axial direction..
[0007]
  In particular, according to the present invention, the sum of the brightness (density value) at the same corresponding point between the image data of different colors on the reference plane is obtained in advance, and the brightness at the same corresponding point between the image data of the observation points corresponding thereto. The sum of the thickness (concentration value) is calculated and the inclination angle φ around the y-axis has already been calculated y of cos y ) x = ± cos -1 [(Sum of brightness (density value) at the same corresponding point between image data of observation points) / {(sum of brightness (density value) at the same corresponding point between image data of different colors on the reference plane] ) cos y )}], The tilt angle φ around the x-axis of the observation point x Is obtained (Claim 1).
[0008]
  In the present invention, the illumination light of different colors from a pair of light sources is a combination of R (red) and B (green), a combination of R (red) and G (blue), and G (blue) and B (green). ) And combinations (claim 2).
[0009]
  Further, according to the present invention, a sample piece as a workpiece sample cut out in advance is sequentially tilted, and the ratio between the tangent value of the tilt angle and the brightness (density value) of the observation point (the same between the image of each color and the image). The ratio of density values at one point is recorded in advance as a correspondence table, and the tangent value of the inclination angle is obtained with reference to this correspondence table (claim 3).
[0010]
  Furthermore, the present invention provides an encoder attached to a workpiece feeding mechanism, and an output pulse from the encoder is input to a synchronization control unit of the image processing apparatus. The color line TV camera is synchronized with the output pulse from the encoder from the synchronization control unit. 2. The defect three-dimensional shape detection apparatus according to claim 1, which corresponds to a non-constant feeding speed of the workpiece by controlling the imaging interval.4).
[0011]
DETAILED DESCRIPTION OF THE INVENTION
  2 and 3 show the principle of detecting a three-dimensional shape of a defect according to the present invention. 2 and 3, the plane of the work 1 is used as a reference plane, the color line TV camera 2 is placed in the normal direction to the reference plane, and the point light source R (red) having an inclination angle θ1 with respect to the reference plane is used. It is assumed that the light source 3 and the B (blue) light source 4 that is a point light source with an inclination angle θ2 with respect to the reference plane are installed facing each other across the optical axis of the color line TV camera 2. Further, the completely diffusing surface piece 5 is placed at an inclination angle φ with respect to the reference surface at the height of the reference surface.
[0012]
  The color line TV camera 2 is a three-plate RGB TV camera, and has a relative sensitivity characteristic for each of R (red), G (green), and B (blue) of the three primary colors of light as shown in FIG. The emission wavelength ranges (emission spectra) of the R light source 3 and the B light source 4 are red and blue colors that react only to the R (red) light receiving part and the B (blue) light receiving part of the color line TV camera 2, respectively. Let it be light. The light sources 3 and 4 are configured using, for example, a high-frequency fluorescent lamp with a color filter mounted on the front surface, a color neon tube, or a high-luminance color LED with a limited emission spectrum.
[0013]
  In FIG. 4, the relative sensitivity frequency region between the R (red) light receiving portion and the G (green) light receiving portion of the color line TV camera 2 and the relative sensitivity frequency between the B (blue) light receiving portion and the G (green) light receiving portion. Part of the area intersects. If a red point light source and a green point light source, or a blue point light source and a green point light source are used as illumination light, and this is configured with a color filter attached to the front of a high frequency fluorescent lamp or a color neon tube Red illumination light is sensitive to the G (green) light receiving part, green illumination light is sensitive to the R (red) light receiving part, blue illumination light is sensitive to the G (green) light receiving part, green The illumination light is sensitive to the B (green) light receiving part, and there is a problem that the image obtained from the light receiving part of each color and the illumination light of the corresponding color are not 100% compatible. This is because the illumination light of a certain color must correspond to the light sources 3 and 4 having a certain tilt angle.
[0014]
  In order to avoid this problem, if the sensitive light of the illumination light from the light sources 3 and 4 and the light receiving part of the color line TV camera 2 is a combination of R (red) and B (blue), the obtained image is clear. It is guaranteed that the light sources 3 and 4 are from a certain direction. This is because, in FIG. 4, the relative sensitivity frequency ranges of the R (red) light receiving portion and the B (blue) light receiving portion of the color line TV camera 2 never intersect.
[0015]
  However, when LEDs are used for the light sources 3 and 4, the emission spectrum width is as narrow as several tens of nanometers. For example, when a red LED and a green LED are used, the obtained image of the R light receiving portion is clearly a red LED. The image of the G light receiving unit is clearly reflected light from only the green LED. This is the same even when a blue LED and a green LED are used.
[0016]
  In general, however, a high-intensity color LED has a smaller light intensity than high-frequency fluorescent lamps and neon tubes, and the color line TV camera 2 captures images at high speed under the illumination light at a speed of 10 m / min or higher. If you try to do, the absolute light quantity will be insufficient. For this reason, when a high-luminance color LED is used, it is necessary to secure a light quantity such as bundling several tens to several hundreds and using them as one unit. The same concept is applied to high-frequency fluorescent lamps and neon tubes, and the same is realized by placing R, G, B color band-pass filters with peak wavelengths of 450 nm, 550 nm, and 650 nm, respectively. (Claim 2).
[0017]
  In FIG. 3, the luminance of the incident light on the sample piece 5 as a sample from the R light source 3 is I1, the luminance of the incident light on the sample piece 5 from the B light source 4 is I2, and the reflectance of the sample piece 5 is ρ. The angle between the data piece 5 and the R light source 3 is s1, and the angle between the data piece 5 and the B light source 4 is s2. At this time, the luminance I of incident light incident on the color line TV camera 2 is expressed by the following equation using the well-known Lambert's cosine law or Lambert's law of the optical reflection model.
[0018]
Ir = I1, ρ, cos (90 ° -s1)
  = I1 ・ ρ ・ sin (s1)
  = I1 ・ ρ ・ sin (θ1 + φ)
Ib = I2, ρ, cos (90 ° -s2)
  = I2 ・ ρ ・ sin (s2)
  = I2 ・ ρ ・ sin (θ2−φ) (1)
[0019]
  Here, the luminance Ir is a component of the R light source 3 in the incident light luminance I incident on the color line TV camera 2 and is converted into a density value (brightness) fr of the R image by the R light receiving unit. The luminance Ib is a component of the B light source 4 in the incident light luminance I incident on the TV camera 2, and is converted into a B image density value (brightness) fb by the B light receiving unit.
[0020]
  Now consider the case of using rod-like (straight-line) light sources 3 and 4 that are parallel to each other, instead of the point-like light sources 3 and 4. The point light sources 3 and 4 irradiate light in all directions from the light source. Therefore, when the color line TV camera 2 having a line-shaped field of view is used, the absolute light quantity is insufficient and is not suitable. The rod-shaped light sources 3 and 4 are configured to irradiate irradiation light toward the visual field of the color line TV camera 2 through slit-shaped openings.
[0021]
  In FIG. 5, it is assumed that the reference plane of the work 1 is the XY plane and the optical axis of the color line TV camera 2 is placed parallel to the Z axis. The angles θ1 and θ2 formed by the R light source 3 and the B light source 4 when viewed from the Y-axis direction and the reference plane of the reference piece 5 are the same as those in FIG.
[0022]
  Here, Po is a point where the optical axis of the color line TV camera 2 intersects the reference plane, and P1 (0) is a point where the XZ plane including this point Po intersects the R light source 3. Since the point P1 (0) is a minute element of the linear light source and can be regarded as a point light source, the luminance Ir (0) of incident light incident on the color line TV camera 2 from here is determined from the point light source P1 (0). The luminance at the point P0 of the incident light is I1 (0) and is given by the following equation from the equation (1).
Ir (0) = I1 (0) · ρ · sin (θ1 + φ) (2)
[0023]
  Similarly, when an angle between a line segment connecting a point on the R light source 3 and the point Po and a line segment connecting P1 (0) and the point Po is α, this point on the R light source 3 is P1 ( α). The luminance Ir (α) of the incident light incident on the color line TV camera 2 from here is given by the following equation, where the luminance at the point P0 of the incident light from the point light source P1 (α) is I1 (α).
Ir (α) = I1 (α) · ρ · sin (θ1 + φ) · cos (α) (3)
[0024]
  Now, the brightness is inversely proportional to the square of the distance from the light source. For this reason, the ratio of the luminances I1 (0) and I1 (α) of the incident light to the color line TV camera 2 is the length of the line segment connecting the point light source P1 (0) and the point Po and the point light source P1 ( It is inversely proportional to the square of 1 / cos (α), which is the ratio of the line segment connecting α) to the point Po. From this, the following equation is obtained.
I1 (α) = I1 (0) ・ cos2(Α) (4)
[0025]
  Therefore, the following equation is obtained by putting equation (4) into equation (2).
Ir (α) = I1 (0) · cos2(Α) ・ ρ ・ sin (θ1 + φ) ・ cos (α)
        = I1 (0) · ρ · sin (θ1 + φ) · cosThree(Α) (5)
[0026]
  FIG. 5 shows a case where the data piece 5 is tilted about the Y axis by the tilt angle φ, which is set as the tilt angle φy. At the same time, consider the case where the reference piece is also tilted about the X axis by the tilt angle φx. At this time, the luminance of the incident light incident on the color line TV camera 2 is cos (φx) times that in the case where the tilt angle φx is 0, so that the cos on the right side of the equations (2) and (5) Multiplying (φx) yields:
Ir (0) = I1 (0) · ρ · sin (θ1 + φy) · cos (φx) (6)
Ir (α) = I1 (0) · ρ · sin (θ1 + φy) · cosThree(Α) ・ cos (φx)
                                                                  (7)
[0027]
  Therefore, the luminance Ir of the incident light from the R light source 3 incident on the color line TV camera 2 is considered as an integral value of the incident light I1 (α) to the color line TV camera 2 by the point light source P1 (α). Is obtained.
Ir = ∫Ir (α) dα
  = ∫ [I1 (0) ・ ρ ・ sin (θ1 + φy) ・ cosThree(Α) ・ cos (φx)] dα = I1 (0) ・ ρ ・ sin (θ1 + φy) ・ cos (φx) ・ ∫cosThree(Α) dα
[0028]
  Since the length and position of the R light source 3 are constant, ∫cosThree(Α) dα is a constant value. If we put it as constant C1, we get the following formula.
Ir = C1 · I1 (0) · ρ · sin (θ1 + φy) · cos (φx) (8)
[0029]
  Similarly, for the light source 4 of B, if a constant C2 having a constant value is used, the following equation is obtained.
Ib = C2 ・ I2 (0) ・ ρ ・ sin (θ2−φy) ・ cos (φx) (9)
[0030]
  If the length of the B light source 4 is equal to that of the R light source 3 and is in a line-symmetrical position with respect to the optical axis of the color line TV camera 2, then C2 = C1 and θ2 = θ1. If the light amounts of the light sources 3 and 4 are equal, I2 (0) = I1 (0), and the following equation is obtained.
Ib = C1 ・ I1 (0) ・ ρ ・ sin (θ1−φy) ・ cos (φx) (10)
[0031]
  The luminance Ir and the luminance Ib are luminance values at the R light receiving unit and the B light receiving unit in the color line TV camera 2, and the observed value fr and the observed value fb of the color line TV camera 2 are respectively the corresponding luminance Ir and Since it is proportional to the luminance Ib, this proportionality constant can be expressed as C0 as follows.
fr = C0 · Ir
fb = C0 · Ib
[0032]
  On the contrary, the inclination angle φx and the inclination angle φy of the sample piece 5 are obtained from these observation values. First, the ratio R0 between the observed value fr and the observed value fb of the incident light is calculated. From the equations (9) and (10), the following equation is obtained.
R0 = fr / fb = Ir / Ib
    = Sin (θ1 + φy) / sin (θ1-φy) (11)
From this, φy = tan-1{Tan (θ1) · (R0-1) / (R0 + 1)} (12)
Also, tan (φy) = tan (θ1) · (R0−1) / (R0 + 1) (12a)
The tilt angle θ1 is in the range from 0 ° to 90 °, but since this is a constant value, tan (θ1) is also a constant value. Therefore, if the ratio R0 is determined, the tilt angle φy is merely unique. Therefore, it is determined by equation (12).
[0033]
  Now,As a reference planeWhen φy = 0 ° and φx = 0 °, the luminance Ir is set to Ir0. Using equation (8), it becomes
Ir0 = C1 ・ I1 (0) ・ ρ ・ sin (θ1) (13)
[0034]
  Further, when φy = 0 ° and φx = 0 °, the luminance Ib is set to Ib0. Using equation (10), it becomes
Ib0 = C1 ・ I1 (0) ・ ρ ・ sin (θ1) (14)
[0035]
  Here, the observed value of the brightness Ir0 with the color line TV camera 2 is fr0, and the observed value of Ib0 is fb0.
(Fr + fb) / (fr0 + fb0)
= (Ir + Ib) / (Ir0 + Ib0)
= [{Sin (θ1 + φy) + sin (θ1−φy)} / 2sin (θ1)]
  ・ Cos (φx)
= Cos (φy) ・ cos (φx) (15)
[0036]
  If the observed value fr0 and the observed value fb0 are measured in advance, (fr + fb) / (fr0 + fb0) is obtained, and since the inclination angle φy is already obtained, cos (φy) can also be calculated. From which cos (φx) can be calculated. Therefore
cos (φx) = (fr + fb) / {(fr0 + fb0) · cos (φy)} (16)
From this, the inclination angle φx can be calculated using the inverse cosine function.
φx = ± cos-1[(Fr + fb) / {(fr0 + fb0) .cos (φy)}] (16a)
[0037]
  As will be described later, the three-dimensional shape of the defect can be calculated by sequentially stacking the increment values in the Z-axis direction along the X-axis, but the tilt angle used at that time is only φy. Of course, similarly, the three-dimensional shape of the defect can be calculated by sequentially stacking the increment values in the Z-axis direction along the Y-axis, but the inclination angle used at this time is φx.
[0038]
  By the way, the sign (inclination direction) of the inclination angle φx around the X axis obtained using the inverse cosine function of the equation (16a) is unknown. For this reason, a detailed description of the method for calculating the three-dimensional shape of the defect using the inclination angle φx is omitted here. However, it is possible to determine the sign by placing a green G point light source at a position inclined about the Y axis with respect to the optical axis of the color line TV camera 2 and capturing the light from this point in the color line TV camera 2 at the same time. . This is because the luminance value Ig of the green light receiving portion is greatly different even at two angles + φx and −φx that take the same cos (φx).
[0039]
  In summary, the following can be said.
  1) The ratio R0 between the observed value fr and the observed value fb of the luminance value of the incident light is obtained, and the tilt angle φy can be calculated from the above equation (12).
  2) If the ratio of the sum (fr + fb) of the observed value fr and the observed value fb of the luminance value of the incident light and the same sum (fr0 + fb0) when the sample piece 5 is not tilted is obtained, Cos (φx) can be calculated from this using the inclination angle φy.
[0040]
  The present invention shows a procedure (method) for calculating a three-dimensional shape of a defect. This is because when there is an unevenness with a certain height with respect to a certain reference height of the reference surface, it is judged as a defect.
[0041]
  In contrast, the increment of the change in height Z, that is, the amount of change in height in the X-axis direction ΔZx = Δx · tan (φy), or the amount of change in height in the Y-axis direction ΔZy = Δy · If tan (φx) is equal to or greater than a certain size, a simple defect determination method is considered in which it is regarded as a defect. In this case, since Δx and Δy are constant, | tan (φy) | and | tan (φx) | | Tan (φy) | can be obtained from equation (12a), and | tan (φx) | can also be obtained from equation (16a). In the calculation of | tan (φx) |, the sign of the inclination angle φx is irrelevant, so it can be obtained uniquely.
[0042]
  Now, a method for reproducing the three-dimensional shape of the defect will be specifically described based on FIG. 6 using the above principle. FIG. 6 shows a defect three-dimensional shape detection apparatus 10 according to the present invention. The defect three-dimensional shape detection apparatus 10 is used to detect a three-dimensional defect on the plane of the workpiece 1 fed out at a constant speed or a non-constant speed by the workpiece feeding mechanism 6. It consists of a color line TV camera 2 and an image processing device 7. Here, it is assumed that the workpiece 1 is fed out at a constant speed opposite to the direction in the X-axis direction.
[0043]
  The pair of light sources 3 and 4 radiate different colors of the three primary colors, for example, R illumination light and B illumination light from different angles toward the inspection target plane of the workpiece 1. The color line TV camera 2 is an RGB-compatible color line TV camera, and images the plane to be inspected of the work 1 from above the work 1 under illumination light of different colors. The optical axis of the color line TV camera 2 is perpendicular to the plane to be inspected of the workpiece 1, that is, the reference plane, and the R light source 3 and the B light source 4 are axisymmetric with respect to the optical axis of the color line TV camera 2. It shall be placed. The two light sources 3 and 4 are parallel to the Y axis, and the inclination angle with respect to the reference plane is both θ1.
[0044]
  The color line TV camera 2 sequentially sends the R, G, B line data to the image processing device 7. It is assumed that the image processing apparatus 7 records the R, G, and B line data as two-dimensional image data by sequentially connecting the lines for each R, G, and B plane. Further, the image processing device 7 obtains the inclination angle φy of the observation point with respect to the work 1 from the ratio of the brightness (density value) at the same corresponding point between the image data of different colors from the color line TV camera 2, and this inclination By successively accumulating height increments obtained from the tangent value of the angle φy in the X-axis direction, the three-dimensional shape of the defect on the plane of the workpiece 1 is detected. As described above, the inclination angle φy is an inclination angle with respect to the X axis, that is, an inclination angle about the y axis, when the feeding direction of the workpiece 1 is opposite to the direction in the X axis direction.
[0045]
  FIG. 7 shows a specific configuration of the image processing apparatus 7. Hereinafter, description will be given along the function of each unit of the image processing apparatus 7. The color video signal from the color line TV camera 2 is sent to the image processing device 7. These color video signals are recorded in the R plane 14, G plane 15, and B plane 16 for each color via the A / D converters 11, 12, and 13 for each color.
[0046]
  The R plane 14, the G plane 15, and the B plane 16 are data of one line of each color (one line includes n = 512 pixels, 1024 pixels, 2048 pixels, 5000 pixels, etc.). This is a dedicated memory area that can be stored. The R plane 14, G plane 15 and B plane 16 of each color are composed of a No. 1 buffer and a No. 2 buffer (double buffer). ing. The buffer size is n × m bytes when one pixel is expressed in 1 byte, and the R plane 14, G plane 15 and B plane 16 of each color have a size of 2 × n × m bytes.
[0047]
  Each video data is stored one line at a time starting from the top of the No. 1 buffer. When the video data fills the No. 1 buffer, each video data is next one line sequentially from the top of the No. 2 buffer. Stored one by one. When the video data fills the No. 2 buffer, it is stored from the top of the No. 1 buffer.
[0048]
  The image data of the R plane 14 is represented by fr (i, j), the image data of the G plane 15 is represented by fg (i, j), and the image data of the B plane 16 is represented by fb (i, j). For example, in the case of n = 512 pixels, the line rate (reciprocal of the imaging interval Δt) can generally be 40 KHz, so 40,000 lines can be acquired per second, and if the line pitch is 0.1 mm, 4000 mm, It is possible to process 240m per minute. This corresponds to a feed speed of 240 m / min.
[0049]
  The arithmetic LSI 8 performs an inter-pixel operation between one buffer of the R plane 14 and a buffer of the same No. of the B plane 16 and stores the result in the result plane 17. In this inter-pixel calculation, first, R0 = fr (i, j) / fb (i, j) is calculated, and then tan (φy) is calculated as a single-precision real number using equation (12a).
tan (φy) = tan (θ1) · (R0−1) / (R0 + 1) (12a)
[0050]
   The tan (φy) calculated by the equation (12a) is stored in the buffer α of the result plane 17 via the bus 18. The size of the buffer α is the same as that of the R plane 14, G plane 15 and B plane 16 of each color, and is 4 bytes, which is a single precision real number length per data, so (n × m × 4 bytes).
[0051]
  Note that the feeding speed v of the work 1 is a constant speed so that the resolution ΔY of the color line TV camera 2 in the Y-axis direction is equal to the feeding amount ΔX in the X direction per scanning time Δt for one line. (Constant speed) shall be maintained. The resolution ΔY is obtained by dividing the visual field size by the number of pixels per line (ex. 512 pixels), and the feed amount ΔX is obtained by multiplying the feed speed v by the scan time Δt.
[0052]
  Now, the position of the defective portion in FIG. 6 is represented by a grid of 1 square Δx and Δy as shown in FIG. FIG. 9 is a diagram in which tan (φy) calculated by the calculation LSI 8 is put in the α buffer of the result plane 17 after the defect image represented by the grid of the XY coordinate system of FIG. In the XY coordinate system, i is the counter in the x direction and j is the counter in the y direction. The shaded portion is an overlaid portion having a defect (defect portion), and tan (φy) of the data of the corresponding cell including this takes a value other than zero. Data tan (φy) of the cell not including the shaded part is 0.
[0053]
  Here, in a certain i = m column, the array data of a point in front of the defect (a point where the x value is small) is g (m, 1) = 0, and is behind the defect (a point where the x value is large). Point array data g (m, n) = 0. Since these points are not defects, the height is zero. In order to confirm that g (m, 1) and g (m, n) are at the reference plane height, it is only necessary to confirm that the array data of the points near 4 or 8 around the point is 0. .
[0054]
  When the height in the Z direction of the point (i, j) is expressed by Z (i, j), the height increment ΔZx = Z (m, j) −Z (m, j−1) is It is equal to one line data feed amount ΔX multiplied by −g (m, j) = − tan (φy). This is because the inclination angle φy about the y axis is the inclination of the corresponding point with respect to the X axis. Therefore, the following equation holds.
Z (m, 1) = Z (m, n) = 0 (17)
Z (m, j) = Z (m, j−1) −Δx · g (m, j) (18)
[0055]
  Using equations (17) and (18), Z (m, j) can be obtained sequentially. The last point Z (m, n) is obtained by the following equation.
Z (m, n) = Z (m, 1) −Δx · (g (m, 2) + g (m, 3) +... + G (m, n)) = − Δx · Σ (g (m, m, j)) (19)
[0056]
  By the way, from the equation (17), since Z (m, n) = 0, the right side of the equation (19) should also be zero, and originally −Δx · Σ (g (m, j)) Should be = 0, but fr (i, j) and fb (i, j), which are the basic data for calculating tan (φy), are data having only 8 bits = 1 byte, so tan (φy ) Also lacks significant digits. In particular, when φy is close to 90 ° or −90 °, the error of tan (φy) becomes considerably large. For this reason, the right side of equation (19) is generally not zero.
[0057]
  Therefore, g (m, j) is originally considered as data including an error, the error is equal from point (m, 2) to point (m, n), and there is an error Δg, and Z (m, j n) = − Δx · Σ (g (m, j) + Δg) = 0. Accordingly, (n−1) · Δg = −Σ (g (m, j)), and thus the following expression is obtained.
Δg = −Σ (g (m, j)) / (n−1) (20)
[0058]
  Using this Δg, the last point Z (m, j) is given by the following equation.
Z (m, j) = − Δx · Σ (g (m, j) + Δg) (21)
[0059]
  Thus, when the three-dimensional shape of the defect when i = m is reproduced, it becomes like a broken line connecting points Px1 to Pxn in FIG. Similarly, the result of obtaining the three-dimensional shape for all i is FIG. These processes are calculated by the CPU 9 according to the above procedure using the buffer α.The calculated data isAs the height of the Z buffer in the β bufferTo be recorded.
[0060]
  In the above description, the workpiece 1 to be inspected is a completely diffusing surface as an optical characteristic. However, the equation (12a) does not hold on a surface having a high glossy reflectance close to a mirror surface. Even in this case, however, the ratio R0 between the brightness fr and the brightness fb of the luminance value of the incident light from the observation point and the inclination angle φy around the y-axis of the observation point are one-to-one unless the specular reflection is complete. It is correspondence. That is, if the ratio R0 is obtained, the corresponding inclination angle φy can be found.
[0061]
  In order to obtain this, the workpiece 1 sample (material piece 5) cut out in advance is tilted around the y axis sequentially, and the tangent value tan (φy) of the tilt angle φy and the brightness (concentration value) of the observation point. Instead of recording the ratio R0 (ratio of density values at the same point of the two image R planes and the B plane) in the parameter table 19 of FIG. 7 in advance, and calculating the above equation (12a) at the time of inspection, Referring to the recorded parameter table 19, the tangent value tan (φy) can be obtained from the brightness (density value) ratio R0 of the observation point, and then the three-dimensional shape is obtained by the same calculation procedure as that for the complete diffusion surface. (Claim 3).
[0062]
  On the reference plane, the sum of the brightness (density value) at the same corresponding point is obtained in advance between the captured image data of the R image and the captured image data of the B image. Calculate the sum of the brightness (density value) at the same corresponding point with the image data of the image, then calculate the ratio of these two sums and use the already calculated inclination angle φy around the y axis Thus, the absolute value of the inclination angle φx around the x-axis of the observation point is obtained by the equation (16a) (claims)1). Subsequently, the absolute value of the tangent value of the inclination angle φx is calculated and sequentially stored in the γ plane of the result plane 17.
[0063]
  Accordingly, referring to the α plane and the γ plane of the result plane 17, the absolute value | ΔZx | of the slope increment and the absolute value | ΔZy | of the slope increment can be obtained from the following equations.
| △ Zx | = △ x ・ | tan (φy) |
| △ Zy | = △ y ・ | tan (φx) |
As a result, it is possible to perform defect determination such that a pixel at which the absolute value of the slope increment is larger than the specified value is regarded as defective at the observation point.
[0064]
  In the above description, there is a premise that the workpiece 1 has a constant speed (constant speed). This is to make the increment Δx in the x-axis direction per unit time Δt constant. In this case (imaging speed), the imaging timing of the color line TV camera 2 (interval for capturing one line) Δt is not synchronized with the signal from the image processing device 7, but is internally synchronized by the internal clock of the color line TV camera 2 itself. Use the signal.
[0065]
  On the other hand, when the workpiece 1 is not at a constant speed, an encoder 20 is attached to the workpiece feeding mechanism 6, and output pulses from the encoder 20 are input to the synchronization control unit 21 of the image processing apparatus 7. If the imaging timing (scanning time) Δt of the color line TV camera 2 is controlled in synchronization with the output pulse from, the increment Δx in the x-axis direction is also constant (claims).4).
[0066]
  By the way, although the brightness (density value) of the observation point observed by the color line TV camera 2 is considered to be the same as the luminance I, it is not constant when the exposure time (scan time) Δt changes. This is because the brightness (density) of the observation point observed by the color line TV camera 2 is proportional to the exposure time during imaging. When the exposure time is long, the brightness (density value) of the observation point observed by the color line TV camera 2 increases. When the exposure time is short, the brightness (density of the observation point observed by the color line TV camera 2). Value) becomes smaller.
[0067]
  In general, since the exposure time is the same as the imaging timing (scan time) Δt of the color line TV camera 2, when the work 1 is not at a constant speed, the brightness of the observation point observed by the color line TV camera 2 ( (Density value) is also affected by the imaging timing (scan time) Δt of the color line TV camera 2. However, from the ratio of the brightness (density value) at the same corresponding point of the image data of the R image and the image data of the B image, the inclination angle φy of the observation point with respect to the work 1 (when the feeding direction is opposite to the X-axis direction, In the means for calculating the tilt angle with respect to the X-axis, that is, the tilt angle around the y-axis, by the equation (12), the brightness ratio is constant regardless of the imaging timing Δt. The purpose of can be achieved.
[0068]
  Of course, when the exposure time control unit 26 of the image processing apparatus 7 sends a fixed exposure time control timing to the color line TV camera 2, the brightness (density value) of the observation point observed by the color line TV camera 2 is the work 1 Therefore, the inclination angle φy and the inclination angle φx can be obtained stably.
[0069]
  The memory 22 of the image processing apparatus 7 stores programs, image data, control data, and the like, and the input / output unit 23 sends necessary data to an external device. Further, the video memory 24 sends the image data to the CRT 8 (display) through the D / A converter 25 so that it can be visually observed.
[0070]
【The invention's effect】
  According to the first aspect of the present invention, it is possible to measure a three-dimensional shape of a defect on a plane at a high speed with respect to a work made of a completely diffuse reflection material such as paper, plastic and gypsum board. Specifically, the three-dimensional shape of the defect on the plane of the workpiece fed out at a speed of about 200 m / min can be detected at high speed with a resolution of about 0.1 mm and a height of about 0.2 mm.
[0071]
  In particular, in claim 1, if the sum of the brightness (density value) at the same corresponding point is obtained in advance between the image data of different colors on the reference plane, the formula ( 16a ) Corresponding to) x = ± cos -1 [(Sum of brightness (density value) at the same corresponding point between image data of observation points) / {(sum of brightness (density value) at the same corresponding point between image data of different colors on the reference plane] ) cos y )}], The tilt angle φ around the x-axis of the observation point x In the case of a pixel in which the absolute value of the slope increment is larger than the specified value, it is possible to perform defect determination such that the observation point is regarded as having a defect.
[0072]
  According to the second aspect of the present invention, if the illumination light of different colors of the pair of light sources is a combination of R (red) and B (green), the relative sensitivity frequency range of the light receiving unit does not intersect. Is certain. If a color LED or band filter is used, even if a combination of R (red) and G (green), or a combination of G (green) and B (blue), the relative sensitivity frequency range of the light receiving unit does not intersect. Each color image can be identified.
[0073]
  According to the third aspect of the present invention, the workpiece sample (material piece) cut out in advance is sequentially tilted, and the ratio between the tangent value of the tilt angle and the brightness (density value) of the observation point (two R images and B image) Is recorded in advance as a correspondence table, and the tangent value of the tilt angle is obtained with reference to this correspondence table. Equation (12a)Expression corresponding toCan be omitted, and the processing time can be further increased.
[0074]
  Claim4Therefore, by controlling the imaging interval of the color line TV camera using the output pulse from the encoder of the workpiece feeding mechanism, it is possible to cope with a feeding speed that is not constant.
[Brief description of the drawings]
FIG. 1 is a perspective view of a defect shape measuring apparatus based on the principle of triangulation using a conventional laser slit.
FIG. 2 is a perspective view of a defect shape detection apparatus according to the present invention.
FIG. 3 is a side view of the principle using a point light source in the defect shape detection apparatus according to the present invention.
FIG. 4 is a graph of relative sensitivity characteristics of a color line TV camera.
FIG. 5 is a perspective view of the principle of the defect shape detection apparatus according to the present invention.
FIG. 6 is a perspective view when a defect is detected by the defect three-dimensional shape detection apparatus according to the present invention.
FIG. 7 is a block diagram of an image processing apparatus in a defect three-dimensional shape detection apparatus according to the present invention.
FIG. 8 is an explanatory diagram when a defect is represented by a lattice in an XY coordinate system.
FIG. 9 is an explanatory diagram of defects as seen on the buff α.
FIG. 10 is an explanatory diagram of a calculated three-dimensional shape.
[Explanation of symbols]
  1 Work 2 Color line TV camera
  3 Light source 4 Light source
  5 Document piece 6 Work feed mechanism
  7 Image processing device 8 Arithmetic LSI
  9 CPU 10 Defect three-dimensional shape detection device
  11 A / D converter 12 A / D converter
  13 A / D converter 14 R plane
  15 G plane 16 B plane
  17 result plane 18 bus
  19 Parameter table 20 Encoder
  21 synchronization control unit 22 memory
  23 Input / output unit 24 Video memory
  25 D / A converter 26 Exposure time controller

Claims (4)

ワーク送り出し機構により繰り出されるワークの平面上の立体的な欠陥を検査する装置において、
互いに平行な棒状で三原色のうち異なる色の照明光を異なる角度からワークの検査対象の平面に向けて照射する一対の光源と、異なる色の照明光の下でワークの検査対象の平面をワークの上方から撮像するRGB対応のカラーラインTVカメラと、このカラーラインTVカメラからの異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の比からワークに対する観測点の傾斜角φyを求め、この傾斜角φyの正接値から求められる高さの増分をX軸方向に順次累積することによりワークの平面上の欠陥の立体形状を検出する画像処理装置と、を具備し、
基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和を事前に求めておき、それに対する観測点の画像データ間で同一対応点における明るさ(濃度値)の和を求め、すでに計算済みのy軸まわりの傾斜角φ y cos (φ y )を用いて、式φ x =± cos -1 [(観測点の画像データ間で同一対応点における明るさ(濃度値)の和)/{(基準面において異なる色毎の画像データ間で同一対応点における明るさ(濃度値)の和 ) cos (φ y )}]により、観測点のx軸まわりの傾斜角φ x の絶対値を求めることを特徴とする欠陥の立体形状検出装置。
In an apparatus for inspecting a three-dimensional defect on the plane of a workpiece fed out by a workpiece feeding mechanism,
A pair of light sources that illuminate illumination light of different colors among the three primary colors from different angles toward the plane to be inspected of the workpiece, and a plane to be inspected of the workpiece under the illumination light of different colors. The inclination angle φy of the observation point with respect to the workpiece is determined from the ratio of the brightness (density value) at the same corresponding point between the RGB color line TV camera picked up from above and the image data of different colors from this color line TV camera. An image processing device for detecting a three-dimensional shape of a defect on a plane of a workpiece by sequentially accumulating height increments obtained from the tangent value of the inclination angle φy in the X-axis direction,
The sum of the brightness (density value) at the same corresponding point between the image data of different colors on the reference plane is obtained in advance, and the brightness (density value) at the same corresponding point between the image data of the observation points corresponding thereto is calculated. Using the calculated cos y ) of the inclination angle φ y around the y-axis , the formula φ x = ± cos -1 [(brightness at the same corresponding point between the image data of the observation points ( (Sum of density values)) / {(sum of brightness (density values) at the same corresponding point between image data of different colors on the reference plane ) · cos y )}] around the x axis of the observation point An apparatus for detecting a three-dimensional shape of a defect, characterized in that an absolute value of an inclination angle φ x is obtained.
一対の光源の異なる色の照明光をR(赤)とB(緑)との組み合わせ、R(赤)とG(青)と組み合わせ、およびG(青)とB(緑)と組み合わせのうち、いずれか1つの組み合わせとすることを特徴とする請求項1記載の欠陥の立体形状検出装置。  Of the combination of R (red) and B (green), different combinations of illumination light of a pair of light sources, R (red) and G (blue), and G (blue) and B (green) The defect three-dimensional shape detection apparatus according to claim 1, wherein any one of the combinations is used. 予め切り出したワークのサンプルとしての資料片を順次傾けながら、その傾き角の正接値と観測点の明るさ(濃度値)との比(各色の画像と画像との同一点の濃度値の比)を事前に対応表として記録しておき、この対応表を参照して、傾斜角の正接値を求めることを特徴とする請求項1記載の欠陥の立体形状検出装置。While sequentially tilting the article piece as a sample advance cut workpiece, the brightness of the observation point and the tangent value of the inclination angle ratio (density value) (the ratio of the density values of the same points of each color of the image and the image) 2. The defect three-dimensional shape detection apparatus according to claim 1, wherein a tangent value of the inclination angle is obtained by referring to the correspondence table in advance. ワーク送り出し機構にエンコーダを取り付け、そのエンコーダからの出力パルスを画像処理装置の同期制御部に入力し、この同期制御部からエンコーダからの出力パルスに同期してカラーラインTVカメラの撮像間隔を制御することにより、ワークの定速でない繰り出し速度に対応することを特徴とする請求項1記載の欠陥の立体形状検出装置。  An encoder is attached to the workpiece feed mechanism, and output pulses from the encoder are input to the synchronization control unit of the image processing apparatus, and the imaging interval of the color line TV camera is controlled from the synchronization control unit in synchronization with the output pulses from the encoder. 3. The defect three-dimensional shape detection apparatus according to claim 1, wherein the defect three-dimensional shape detection apparatus corresponds to a feeding speed that is not constant.
JP2002068839A 2002-03-13 2002-03-13 3D shape detection device for defects Expired - Fee Related JP3935379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002068839A JP3935379B2 (en) 2002-03-13 2002-03-13 3D shape detection device for defects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002068839A JP3935379B2 (en) 2002-03-13 2002-03-13 3D shape detection device for defects

Publications (2)

Publication Number Publication Date
JP2003269931A JP2003269931A (en) 2003-09-25
JP3935379B2 true JP3935379B2 (en) 2007-06-20

Family

ID=29199843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002068839A Expired - Fee Related JP3935379B2 (en) 2002-03-13 2002-03-13 3D shape detection device for defects

Country Status (1)

Country Link
JP (1) JP3935379B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4735079B2 (en) * 2005-06-29 2011-07-27 横浜ゴム株式会社 Tire dynamic contact shape measurement method
FI20060331A0 (en) * 2006-04-05 2006-04-05 Kari Seppaelae Method and device for shape measurement / shape identification
JP5177489B2 (en) * 2006-10-31 2013-04-03 独立行政法人産業技術総合研究所 LED illumination light source device
FR2925706B1 (en) * 2007-12-19 2010-01-15 Soc Tech Michelin DEVICE FOR EVALUATING THE SURFACE OF A TIRE.
CN107076549B (en) * 2015-05-29 2019-05-10 新日铁住金株式会社 Shape inspection device for metal body and shape inspection method for metal body
US9903710B2 (en) 2015-06-05 2018-02-27 Nippon Steel & Sumitomo Metal Corporation Shape inspection apparatus for metallic body and shape inspection method for metallic body
JP7087533B2 (en) * 2018-03-26 2022-06-21 住友電気工業株式会社 Surface condition inspection device and surface condition inspection method
JP7516804B2 (en) * 2020-03-27 2024-07-17 富士フイルムビジネスイノベーション株式会社 Measurement device, information processing device, and program
WO2024116634A1 (en) * 2022-11-28 2024-06-06 パナソニックIpマネジメント株式会社 Inspection system
CN118558621A (en) * 2024-07-31 2024-08-30 钛玛科(北京)工业科技有限公司 Method and device for eliminating defective products based on product images and electronic equipment

Also Published As

Publication number Publication date
JP2003269931A (en) 2003-09-25

Similar Documents

Publication Publication Date Title
CN106596574B (en) Device and method for detecting surface defects of object
CN106248695B (en) Inspection system and method for defect analysis of wire connections
US8947660B2 (en) Method and device for carrying out an optical comparison between at least two samples, preferably by comparing sections that can be selected
JP3935379B2 (en) 3D shape detection device for defects
JP2010112941A (en) Surface inspection apparatus
RU2011139987A (en) METHOD AND DEVICE FOR OPTICAL SURFACE MEASUREMENT OF THE PRODUCT
JP2009115613A (en) Foreign matter inspecting apparatus
JP2004226319A (en) Visual inspection apparatus and image acquisition method
US7006210B2 (en) Glare-directed imaging
TWI495867B (en) Application of repeated exposure to multiple exposure image blending detection method
JP2001242091A (en) Device and method for inspecting surface
US20020085199A1 (en) LCC device inspection module
JPH11211673A (en) Apparatus and method for evaluation of surface property
TWI545314B (en) Method and method for checking unevenness of film thickness
JP3371668B2 (en) Surface direction detector
TWM527556U (en) Image capturing device of an object outer surface
JP2018500576A (en) Optical measurement configuration
KR100633798B1 (en) Apparatus for testing installation condition and outer shape of a semiconductor
JP7136064B2 (en) Apparatus for inspecting surface of object to be inspected and method for inspecting surface of object to be inspected
KR100710703B1 (en) Inspection system for a measuring plating line width of semiconductor reed frame and thereof method
KR101846949B1 (en) Intergrated Inspection Apparatus Using Multi Optical System
JP2003042971A (en) Pattern inspection device and inspection method
JPH0625713U (en) Soldering part inspection device
JP2996063B2 (en) Automatic inspection system for painted surface clarity
JP2005221400A (en) Film thickness measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160330

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees