JP6132126B2 - Translucent object inspection apparatus and translucent object inspection method - Google Patents

Translucent object inspection apparatus and translucent object inspection method Download PDF

Info

Publication number
JP6132126B2
JP6132126B2 JP2012110179A JP2012110179A JP6132126B2 JP 6132126 B2 JP6132126 B2 JP 6132126B2 JP 2012110179 A JP2012110179 A JP 2012110179A JP 2012110179 A JP2012110179 A JP 2012110179A JP 6132126 B2 JP6132126 B2 JP 6132126B2
Authority
JP
Japan
Prior art keywords
boundary
light
image data
translucent object
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012110179A
Other languages
Japanese (ja)
Other versions
JP2013238436A (en
Inventor
哲也 小杉
哲也 小杉
繁男 森下
繁男 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pulstec Industrial Co Ltd
Original Assignee
Pulstec Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pulstec Industrial Co Ltd filed Critical Pulstec Industrial Co Ltd
Priority to JP2012110179A priority Critical patent/JP6132126B2/en
Publication of JP2013238436A publication Critical patent/JP2013238436A/en
Application granted granted Critical
Publication of JP6132126B2 publication Critical patent/JP6132126B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、薄い板状物体を張り合わせて形成された透光性物体または複数の層から形成された板状の透光性物体の、板状物体間または層間に存在する凹凸状欠陥を検査する透光性物体検査装置または透光性物体検査方法に関する。   The present invention inspects uneven defects present between plate-like objects or between layers of a light-transmitting object formed by laminating thin plate-like objects or a plate-like light-transmitting object formed from a plurality of layers. The present invention relates to a translucent object inspection apparatus or a translucent object inspection method.

タッチパネルは、ディスプレイの上に薄い板状のガラス基板を密着させ、その上にITO電極が形成されたフィルム状の透明電極層を接着させ、その上に透明な導電性の層や表面層等、いくつかの層を形成させた構造になっている。人が指で表面を触ると、透明電極層の抵抗または静電容量が変化することで入力を検出し、ディスプレイに表示された画像を変化させることができる。このようにタッチパネルは板状のガラス基板の上に透明な層を複数形成させた構造になっているが、ガラス基板と透明電極層は透明な接着材で接着されており、この接着のさせ方が悪いと、ガラス基板と透明電極層との間の広い領域に、連続する微小な凹凸(以下、オレンジピール欠陥という)が形成される。このオレンジピール欠陥があるとディスプレイの表示が歪んで見えるという不具合がある。よって、ガラス基板と透明電極層とを接着させた後、接着させた箇所にオレンジピール欠陥が形成されていないか検査する必要がある。複数の層から形成された透光性物体を検査する方法としては、特許文献1に示されているように、光を透光性物体の表面に対して斜めから照射して反射光を目視で観察し、または反射光をカメラに入射させて反射光による画像を作成し、正常なものと比較する方法がある。この方法であれば、照射した光は透光性物体の表面で反射するだけでなく、層と層の境界でも反射するため、表面のみならず層間に凹凸があれば正常なものと見え方、または画像に差があり、異常を検出することができる。   The touch panel has a thin plate-like glass substrate in close contact with the display, a film-like transparent electrode layer on which an ITO electrode is formed, and a transparent conductive layer or surface layer. It has a structure in which several layers are formed. When a person touches the surface with a finger, the resistance or capacitance of the transparent electrode layer changes, so that an input can be detected and the image displayed on the display can be changed. As described above, the touch panel has a structure in which a plurality of transparent layers are formed on a plate-like glass substrate. However, the glass substrate and the transparent electrode layer are bonded with a transparent adhesive. Is poor, continuous minute irregularities (hereinafter referred to as orange peel defects) are formed in a wide region between the glass substrate and the transparent electrode layer. If there is this orange peel defect, there is a problem that the display on the display looks distorted. Therefore, after bonding a glass substrate and a transparent electrode layer, it is necessary to inspect whether an orange peel defect is formed at the bonded position. As a method for inspecting a translucent object formed from a plurality of layers, as shown in Patent Document 1, light is irradiated obliquely on the surface of the translucent object and the reflected light is visually observed. There is a method of observing or making an image by reflected light incident on a camera and comparing it with a normal one. With this method, the irradiated light is reflected not only at the surface of the translucent object, but also at the boundary between layers, so that if there are irregularities between the layers as well as the surface, it will look normal, Or, there is a difference in images, and abnormality can be detected.

特開2001−116925号公報JP 2001-116925 A

しかしながら、タッチパネルのガラス基板と透明電極層との間に発生するオレンジピール欠陥は、非常に凹凸の度合いが小さく、光を透光性物体の表面に対して斜めから照射して反射光を目視で観察しても、または反射光による画像を作成しても、正常なものと比較してほとんど差が見られない。よって、従来の方法ではオレンジピール欠陥を検出するのが困難である。このため、現状はタッチパネルを完成品まで作成した後の検査で不具合が見つかることが多く、製造コストがUPするという問題がある。   However, the orange peel defect that occurs between the glass substrate of the touch panel and the transparent electrode layer has a very small degree of unevenness, and the reflected light is visually observed by irradiating light obliquely to the surface of the translucent object. Even if it is observed or an image by reflected light is created, there is almost no difference compared to a normal one. Therefore, it is difficult to detect an orange peel defect with the conventional method. For this reason, at present, defects are often found in the inspection after the touch panel is made up to the finished product, and there is a problem that the manufacturing cost increases.

本発明は、上記問題を解消するためなされたもので、その目的は、薄い板状物体を張り合わせて形成された透光性物体、または複数の層から形成された板状の透光性物体において、板状物体間または層間に存在する凹凸状欠陥の凹凸の度合いが小さくても、精度よく凹凸状欠陥を検出することができる透光性物体検査装置または透光性物体検査方法を提供することにある。   The present invention has been made to solve the above-described problems, and the object thereof is to provide a translucent object formed by laminating thin plate-like objects or a plate-like translucent object formed of a plurality of layers. To provide a translucent object inspection apparatus or a translucent object inspection method capable of accurately detecting an uneven defect even if the unevenness degree of the uneven defect existing between plate-like objects or between layers is small. It is in.

上記目的を達成するために、本発明の特徴は、薄い板状物体を張り合わせて形成された透光性物体、または複数の層から形成された板状の透光性物体に、透光性物体の表面および内部から反射光が生じるように光を照射する光照射手段と、透光性物体からの反射光を受光器で受光して、それぞれの受光箇所の受光強度を明度にした受光画像データを作成する画像データ作成手段とを備え、画像データ作成手段により作成された受光画像データを解析処理することにより、透光性物体の薄い板状物体間、または層間に存在する欠陥の有無を検査する透光性物体の検査装置において、光照射手段から照射された光が透光性物体に照射される前に、光照射手段から照射された光を干渉させ、画像データ作成手段により作成された受光画像データにより画像を作成したとき、画像に干渉縞が生じるようにする干渉手段と、受光器のそれぞれの受光箇所における受光画像データを、それぞれの受光箇所の周囲の受光箇所における受光画像データを用いて微分した微分値を、それぞれの受光箇所ごとに計算する微分データ計算手段と、干渉縞のライン方向に予め設定した間隔で定めた干渉縞のラインに直角な複数のラインの受光箇所ごとに、微分データ計算手段により計算された微分値から作成した変化曲線において、予め設定した値のラインをクロスする箇所を境界点として検出し、検出した境界点を干渉縞のライン方向における同一の境界である群ごとにまとめ、まとめた群ごとに境界点の直線からのずれを境界変動度合として計算する境界変動度合計算手段と、境界変動度合計算手段により計算された群ごとの境界変動度合と予め設定されている許容値とを比較し、欠陥の有無を判定する第1の判定手段と、第1の判定手段により欠陥有りの判定がされたとき、境界変動度合計算手段により計算された群ごとの境界変動度合を変数として境界変動度合のばらつきを計算するばらつき計算手段と、ばらつき計算手段により計算された境界変動度合のばらつきと、予め設定されている設定値とを比較し、欠陥が所定の範囲以上に連続的に存在する凹凸の欠陥か否かを判定する第2の判定手段とを備えたことにある。
In order to achieve the above object, a feature of the present invention is that a translucent object formed by laminating thin plate-like objects or a plate-like translucent object formed of a plurality of layers is provided with a translucent object. Light receiving means that emits light so that reflected light is generated from the surface and inside of the light, and light receiving image data in which the reflected light from the translucent object is received by the light receiver, and the light receiving intensity at each light receiving point is lightened Inspecting the presence or absence of defects existing between thin plate-like objects or between layers of translucent objects by analyzing the received light image data created by the image data creation means In the translucent object inspection apparatus, the light emitted from the light irradiating means is made to interfere with the light emitted from the light irradiating means before the light irradiated from the light irradiating means is created by the image data creating means. According to received image data Interference means for creating interference fringes in the image when the image is created, and the received light image data at each light receiving location of the light receiver are differentiated using the received light image data at the light receiving locations around each light receiving location Differential data calculation means for calculating the differential value for each light receiving location, and differential data calculation for each light receiving location of a plurality of lines perpendicular to the interference fringe line defined at a predetermined interval in the interference fringe line direction In the change curve created from the differential value calculated by the means, a point that crosses the line of the preset value is detected as a boundary point, and the detected boundary point is detected for each group that is the same boundary in the line direction of the interference fringes. Conclusion, a boundary variation degree calculating means for calculating a deviation from a straight line of the boundary point as a boundary fluctuation degrees for each group are summarized, the boundary variation degree calculating means When the calculated boundary fluctuation degree for each group is compared with a preset allowable value, and the presence of a defect is determined by a first determination unit that determines the presence or absence of a defect, The variation calculation means for calculating the variation of the boundary fluctuation degree using the boundary fluctuation degree of each group calculated by the boundary fluctuation degree calculation means as a variable, and the variation of the boundary fluctuation degree calculated by the variation calculation means are preset. And a second determination means for comparing the set value and determining whether or not the defect is an uneven defect continuously present in a predetermined range or more .

これによれば、透光性物体に光照射手段により光を照射し、透光性物体からの反射光を受光して画像データ作成手段により作成した受光画像データを基に作成した画像には、干渉縞作成手段により光照射手段から照射された光を干渉させているため干渉縞が生じる。透光性物体の薄い板状物体間、または層間に存在する凹凸状欠陥の凹凸の度合いが小さいと、この干渉縞の画像は凹凸状欠陥が存在しない場合と比較して大きな差は現れない。しかし、発明者は、凹凸の度合いが小さくても干渉縞の画像の微分画像には大きな差が現れることを確認した。具体的には、明部と暗部の縞からなる微分画像における明部と暗部の境界は直線から大きくずれることを確認した。よって、微分データ計算手段により、受光画像データを用いて微分した微分値をそれぞれの受光箇所ごとに計算し、境界変動度合計算手段により、干渉縞のラインの直角方向における微分値の変化曲線において予め設定した値のラインをクロスする箇所を境界点として検出し、検出した境界点を干渉縞のライン方向における同一の境界である群ごとにまとめ、まとめた群ごとに境界点の直線からのずれを境界変動度合として計算すれば、計算した値が閾値を超えるか否かにより、凹凸の度合いが小さくても凹凸状欠陥を精度よく検出することができる。また、これによれば、透光性物体の薄い板状物体間または層間に所定の範囲以上に連続的に存在する凹凸状欠陥を、局在する欠陥および表面に付着している異物と区別したうえで検出することができる。具体的に説明すると、透光性物体の表面や透光性物体の薄い板状物体間または層間に局在する欠陥がある場合や、透光性物体の表面に異物の付着がある場合でも、境界変動度合計算手段により計算された境界変動度合の値は大きくなる可能性がある。しかし、局在する欠陥や異物の付着は連続していないため、群ごとの境界変動度合を変数とした境界変動度合のばらつきは、板状物体間または層間に所定の範囲以上に連続的に存在する凹凸状欠陥に対して差がでる。すなわち、板状物体間または層間に所定の範囲以上に連続的に存在する凹凸状欠陥の場合は境界変動度合のばらつきは小さく、局在する欠陥や異物の付着の場合は境界変動度合のばらつきは大きくなる。よって、境界変動度合計算手段に計算された境界変動度合から欠陥有りの判定がされたときは、ばらつき計算手段により境界変動度合のばらつきを計算して設定値と比較すれば、所定の範囲以上に連続的に存在する凹凸状欠陥を、局在する欠陥および表面に付着している異物と区別したうえで検出することができる。
According to this, the image created based on the received light image data created by the image data creating means by irradiating the light to the translucent object with the light irradiating means, receiving the reflected light from the translucent object, Since the light emitted from the light irradiation means is caused to interfere by the interference fringe creating means, an interference fringe is generated. When the unevenness degree of the uneven defect existing between thin plate-like objects or between layers of the light transmitting object is small, the image of the interference fringe does not show a large difference compared to the case where the uneven defect does not exist. However, the inventor has confirmed that even if the degree of unevenness is small, a large difference appears in the differential image of the interference fringe image. Specifically, it was confirmed that the boundary between the bright part and the dark part in the differential image composed of the stripes of the bright part and the dark part greatly deviated from the straight line. Therefore, the differential data calculation means calculates the differential value differentiated using the received light image data for each light receiving location, and the boundary fluctuation degree calculation means calculates in advance the differential value change curve in the direction perpendicular to the line of the interference fringes. The point where the set value line crosses is detected as a boundary point, the detected boundary point is grouped into groups that are the same boundary in the line direction of the interference fringes, and the deviation of the boundary point from the straight line is grouped for each group. If the degree of boundary fluctuation is calculated, it is possible to accurately detect uneven defects even if the degree of unevenness is small, depending on whether the calculated value exceeds a threshold value. In addition, according to this, uneven defects that exist continuously beyond a predetermined range between thin plate-like objects or layers between light-transmitting objects are distinguished from localized defects and foreign substances adhering to the surface. Can be detected above. Specifically, even when there is a defect localized between the thin plate-like objects or between the layers of the translucent object or between the layers of the translucent object, or when there is a foreign object attached to the surface of the translucent object, There is a possibility that the value of the boundary fluctuation degree calculated by the boundary fluctuation degree calculation means becomes large. However, since the adhesion of localized defects and foreign matters is not continuous, the variation in the boundary fluctuation degree with the boundary fluctuation degree for each group as a variable continuously exists within a predetermined range between plate-like objects or between layers. There is a difference with respect to the uneven defects. In other words, the variation in the boundary fluctuation degree is small in the case of uneven defects that are continuously present within a predetermined range between the plate-like objects or between the layers, and the variation in the boundary fluctuation degree is in the case of adhesion of localized defects or foreign matters. growing. Therefore, when it is determined that there is a defect from the boundary fluctuation degree calculated by the boundary fluctuation degree calculation means, if the variation of the boundary fluctuation degree is calculated by the fluctuation calculation means and compared with the set value, it will be more than a predetermined range. It is possible to detect the concavo-convex defects that exist continuously, while distinguishing them from localized defects and foreign matters adhering to the surface.

また、本発明の他の特徴は、上記本発明において、微分データ計算手段により計算されたそれぞれの受光箇所ごとの微分値を、明度に変換した微分画像データを作成し、微分画像データにより作成された画像を表示することにある。   Another feature of the present invention is that, in the above-described present invention, differential image data obtained by converting the differential value for each light receiving location calculated by the differential data calculation means into lightness is generated from the differential image data. It is to display the image.

これによれば、表示された画像を見ることでも凹凸状欠陥を検出することができる。また、所定の範囲以上に連続的に存在する凹凸状欠陥を、局在する欠陥および表面に付着している異物と区別したうえで検出することもできる。   According to this, it is possible to detect the irregular defect by looking at the displayed image. It is also possible to detect irregularities that are continuously present in a predetermined range or more after distinguishing them from localized defects and foreign matters adhering to the surface.

また、本発明は、少なくとも透明基板上に透明電極の層が形成されたタッチパネルにおいて、透明基板と透明電極の層の間に、所定の範囲以上に連続的に存在する凹凸を検査する透光性物体の検査装置に適用すると特に有用である。   Further, the present invention is a touch panel in which a transparent electrode layer is formed on at least a transparent substrate, and a light-transmitting property for inspecting unevenness continuously existing in a predetermined range or more between the transparent substrate and the transparent electrode layer. It is particularly useful when applied to an object inspection apparatus.

さらに、本発明の実施にあたっては、本発明は、透光性物体の検査装置の発明に限定されることなく、透光性物体の検査方法の発明としても実施し得るものである。   Furthermore, in carrying out the present invention, the present invention is not limited to the invention of the translucent object inspection apparatus, but can also be implemented as an invention of a translucent object inspection method.

本発明の透光性物体検査装置の全体構成図である。It is a whole block diagram of the translucent object inspection apparatus of this invention. (A)はカメラの受光画像データから作成した干渉縞の画像を簡略的に示した図であり、(B)は干渉縞のライン方向の垂直方向における受光画像データの変化を示した図であり、(C)はカメラの受光画像データの微分値を明度に変換した微分画像データから作成した画像を簡略的に示した図であり、(D)は干渉縞のライン方向の垂直方向における微分画像データの変化を示した図である。(A) is the figure which showed simply the image of the interference fringe created from the light reception image data of a camera, (B) is the figure which showed the change of the light reception image data in the orthogonal | vertical direction of the line direction of an interference fringe. (C) is the figure which showed simply the image produced from the differential image data which converted the differential value of the light reception image data of a camera into the brightness, (D) is the differential image in the orthogonal | vertical direction of the line direction of an interference fringe. It is the figure which showed the change of data. (A)はオレンジピール欠陥が存在しない場合の境界点を視覚的に示した図であり、(B)はオレンジピール欠陥が存在する場合の境界点を視覚的に示した図である。(A) is the figure which showed the boundary point when an orange peel defect does not exist visually, (B) is the figure which showed the boundary point when an orange peel defect exists visually. 検査対象物の検査箇所(カメラの撮影箇所)が移動する様子を視覚的に示した図である。It is the figure which showed visually a mode that the inspection location (photographing location of a camera) of a test subject moves. 干渉縞のライン方向の垂直方向における境界点を検出し、各境界点を変数p,qで識別する処理を視覚的に示した図である。It is the figure which showed visually the process which detects the boundary point in the orthogonal | vertical direction of the line direction of an interference fringe, and identifies each boundary point with the variables p and q. 干渉縞のラインの境界点において、変数qが同一でも干渉縞のラインが同一にならない理由を示した図である。It is the figure which showed the reason why the line of an interference fringe does not become the same in the boundary point of an interference fringe line, even if the variable q is the same. 図1のコントローラによって実行される欠陥検出プログラムにおけるカメラの移動と受光画像データの取り込み処理を示すフローチャートである。It is a flowchart which shows the movement of the camera in the defect detection program performed by the controller of FIG. 図1のコントローラによって実行される欠陥検出プログラムにおける受光画像データの解析処理と判定処理を示すフローチャートの前半部分である。It is the first half part of the flowchart which shows the analysis process and determination process of light reception image data in the defect detection program performed by the controller of FIG. 図1のコントローラによって実行される欠陥検出プログラムにおける受光画像データの解析処理と判定処理を示すフローチャートの後半部分である。FIG. 6 is a second half of a flowchart showing analysis processing and determination processing of received light image data in a defect detection program executed by the controller of FIG. 1.

以下、本発明の第1実施形態について図面を用いて説明する。図1は、本発明に係る透光性物体検査装置の全体構成図である。この透光性物体検査装置は、タッチパネルにおいて板状のガラス基板にフィルム状の透明電極層を接着させ、その上に導電層や表面層等のいくつかの層を形成させた板状の透光性物体(以下、タッチパネル用平板という)OBを検査する装置であり、特にガラス基板と透明電極層との間に発生する可能性のあるオレンジピール欠陥を検査する装置である。なお、以後の説明において、図1における紙面垂直方向をX方向といい、図1における左右方向をY方向ということにする。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an overall configuration diagram of a translucent object inspection apparatus according to the present invention. This translucent object inspection apparatus is a plate-like light-transmitting device in which a film-like transparent electrode layer is bonded to a plate-like glass substrate on a touch panel, and several layers such as a conductive layer and a surface layer are formed thereon. It is an apparatus for inspecting a natural object (hereinafter referred to as a flat plate for touch panel) OB, and in particular an apparatus for inspecting an orange peel defect that may occur between a glass substrate and a transparent electrode layer. In the following description, the direction perpendicular to the paper surface in FIG. 1 is referred to as the X direction, and the horizontal direction in FIG. 1 is referred to as the Y direction.

この透光性物体検査装置は、平板状の基台3にタッチパネル用平板OBをセットするステージ2と、ステージ2にセットされたタッチパネル用平板OBに光を照射し、反射光を受光して受光画像データを取得する測定部1が設けられている。また、測定部1に設けられたいくつかの回路およびカメラCに対して指令を出力するとともに、測定部1に設けられたいくつかの回路およびカメラCからデジタルデータを入力してプログラム処理するコントローラ50を備えている。コントローラ50は、CPU、ROM、RAMなどからなるマイクロコンピュータと、ハードディスクや不揮発性メモリなどの記憶装置と、入出力インタフェース等から構成される電子制御装置である。記憶装置には、後述する欠陥検出プログラムを含む各種プログラムが記憶されている。そして、コントローラ50には、コントローラ50に指令やデータを入力するキーボードやマウス等からなる入力装置52と、透光性物体検査装置の作動状況、検査結果を示すとともにカメラCからの受光画像データを基に作成した画像を表示する、液晶パネルやCRT等からなる表示装置54とが接続されている。   This translucent object inspection device irradiates light onto the stage 2 for setting the flat plate OB for touch panel on the flat base 3 and the flat plate for touch panel OB set on the stage 2, and receives the reflected light to receive light. A measurement unit 1 that acquires image data is provided. A controller that outputs commands to several circuits and camera C provided in the measurement unit 1 and inputs digital data from the several circuits and camera C provided in the measurement unit 1 to perform program processing. 50. The controller 50 is an electronic control device including a microcomputer including a CPU, ROM, RAM, and the like, a storage device such as a hard disk and a nonvolatile memory, an input / output interface, and the like. The storage device stores various programs including a defect detection program to be described later. Then, the controller 50 shows the input device 52 such as a keyboard and a mouse for inputting commands and data to the controller 50, the operating state of the translucent object inspection device, the inspection result, and the received image data from the camera C. A display device 54 composed of a liquid crystal panel, a CRT, or the like, which displays an image created based on the connection, is connected.

測定部1は、レーザ光源10、コリメーティングレンズ12、エキスパンダーレンズ14,16、レーザ径調整用リング18および干渉縞作成部20からなる照射光学系と、受光光学系であるカメラCと、カメラCを互いに直交する2方向に移動させるカメラ移動機構部30とを備えている。レーザ光源10は、レーザ駆動回路40から駆動信号が入力すると設定された強度のレーザ光を出射する。レーザ駆動回路40は、コントローラ50からレーザ照射開始の指令が入力するとレーザ光源10から設定された強度のレーザ光が出射するよう、レーザ光源10に設定された強度の電圧および電流を供給し、コントローラ50からレーザ照射停止の指令が入力すると、レーザ光源10への電圧および電流の供給を停止する。レーザ光源10から出射されるレーザ光は、コヒーレント性の高いものであり、後述する干渉縞作成部20で反射した後に光を受光した箇所には干渉縞が生じる。コリメーティングレンズ12はレーザ光源10から出射されたレーザ光を平行光にしてエキスパンダーレンズ14に入射させる。エキスパンダーレンズ14,16は、レーザ光の断面径を大きくして、径調整用リング18に入射させる。径調整用リング18は、レーザ断面の円中心から所定の半径内にあるレーザ光のみを通過させて、干渉縞作成部20に入射させる。レーザ光の断面における径方向のレーザ光強度は、ガウス型の分布になっており、これによりレーザ光の断面における周辺付近の強度の弱いレーザ光は除かれ、強度の強いレーザ光のみが干渉縞作成部20に入射する。   The measuring unit 1 includes an irradiation optical system including a laser light source 10, a collimating lens 12, expander lenses 14 and 16, a laser diameter adjusting ring 18 and an interference fringe creating unit 20, a camera C as a light receiving optical system, and a camera. And a camera moving mechanism 30 that moves C in two directions orthogonal to each other. The laser light source 10 emits laser light having a set intensity when a drive signal is input from the laser drive circuit 40. The laser drive circuit 40 supplies the laser light source 10 with a voltage and current with the intensity set so that the laser light with the intensity set from the laser light source 10 is emitted when a laser irradiation start command is input from the controller 50. When a laser irradiation stop command is input from 50, supply of voltage and current to the laser light source 10 is stopped. The laser light emitted from the laser light source 10 is highly coherent, and interference fringes are generated at locations where the light is received after being reflected by the interference fringe creating unit 20 described later. The collimating lens 12 makes the laser light emitted from the laser light source 10 parallel light and enters the expander lens 14. The expander lenses 14 and 16 increase the cross-sectional diameter of the laser light and make it incident on the diameter adjusting ring 18. The diameter adjusting ring 18 allows only laser light within a predetermined radius from the circle center of the laser cross section to pass through and enter the interference fringe creating unit 20. The laser light intensity in the radial direction in the cross section of the laser light has a Gaussian distribution, so that the weak laser light near the periphery in the cross section of the laser light is excluded, and only the strong laser light has interference fringes. The light enters the creation unit 20.

干渉縞作成部20は直角の角度をもつプリズム22と板状ガラス24の面を突起26,28を介して合わせたものである。突起26は紙面垂直方向に同じ高さのものが2つあり、突起28は突起26とは高さが微妙に異なり、紙面垂直方向の位置は2つある突起26の中間位置になっている。すなわち、板状ガラス24の表面の垂直方向から見ると、突起26,28は二等辺三角形の頂点の位置にある。このため、プリズム22の90度の角度に対向する面と板状ガラス24の表面とは平行からややずれており、レーザ光がプリズム22の90度の角度を成す面の1つに垂直に入射し、プリズム22の90度の角度に対向する面と板状ガラス24の表面とで反射すると、反射した2つの光は場所によって光路差が異なるため干渉することにより干渉縞が生じる。すなわち、プリズム22の90度の角度を成す面のもう1つから出射した光を受光した箇所には干渉縞が生じる。   The interference fringe creation unit 20 is a unit in which the prism 22 having a right angle and the surface of the sheet glass 24 are combined through the projections 26 and 28. There are two protrusions 26 having the same height in the direction perpendicular to the paper surface, and the protrusions 28 are slightly different in height from the protrusions 26, and the position in the direction perpendicular to the paper surface is an intermediate position between the two protrusions 26. That is, when viewed from the vertical direction of the surface of the sheet glass 24, the protrusions 26 and 28 are located at the vertices of the isosceles triangle. For this reason, the surface of the prism 22 facing the 90-degree angle and the surface of the glass sheet 24 are slightly deviated from being parallel, and the laser beam is incident on one of the 90-degree angles of the prism 22 perpendicularly. However, when the light is reflected by the surface of the prism 22 facing the 90-degree angle and the surface of the plate glass 24, the reflected two light beams have different optical path differences depending on the location, so that interference fringes are generated. That is, an interference fringe is generated at a location where light emitted from the other surface of the prism 22 forming an angle of 90 degrees is received.

ステージ2は基台3に取付けられた平板2bと、この平板2bと45度の角度を成す平板2aからなり、この平板2aにはタッチパネル用平板OBを載置したとき、タッチパネル用平板OBを支持するための突起2cが設けられている。突起2cはX方向の1つのラインに数個、Y方向の1つのラインに数個が形成され、タッチパネル用平板OBをこの突起に接触するよう載置すると、突起2cのX方向ラインとY方向ラインが交差した点に、タッチパネル用平板OBの角がくるようになっている。レーザ光源10から出射されたレーザ光は基台3に垂直になるように調整されており、プリズム22の90度の角度に対向する面は基台3と45度の角度になるよう調整されているため、干渉縞作成部20から出射された光は基台3と平行になり、タッチパネル用平板OBに45度の角度で入射する。このため、タッチパネル用平板OBで反射した光は基台3に対して垂直になり、カメラCに入射する。タッチパネル用平板OBでの光の反射は表面および内部の層間において起こる。そして、ステージ2は、干渉縞作成部20から出射された光が形成する干渉縞のラインが、ステージ2の平板2aの横方向(図1の紙面垂直方向、すなわちX方向)と平行になるよう調整されている。これにより、タッチパネル用平板OBの表面は平面かつ長方形であるので、タッチパネル用平板OBをステージ2の平板2aに載置したとき、干渉縞のラインはタッチパネル用平板OBの表面横方向と平行に生じることになる。   The stage 2 includes a flat plate 2b attached to the base 3 and a flat plate 2a that forms an angle of 45 degrees with the flat plate 2b. When the touch panel flat plate OB is mounted on the flat plate 2a, the stage 2 supports the touch panel flat plate OB. Protrusions 2c are provided for this purpose. Several protrusions 2c are formed in one line in the X direction and several in one line in the Y direction. When the touch panel flat plate OB is placed in contact with the protrusion, the X direction line and the Y direction of the protrusion 2c are arranged. The corner of the touch panel flat plate OB comes to the point where the lines intersect. The laser light emitted from the laser light source 10 is adjusted to be perpendicular to the base 3, and the surface of the prism 22 facing the 90 ° angle is adjusted to be 45 ° with the base 3. Therefore, the light emitted from the interference fringe creation unit 20 is parallel to the base 3 and enters the touch panel flat plate OB at an angle of 45 degrees. Therefore, the light reflected by the touch panel flat plate OB becomes perpendicular to the base 3 and enters the camera C. Reflection of light on the touch panel flat plate OB occurs between the surface and the inner layers. Then, the stage 2 is arranged so that the interference fringe line formed by the light emitted from the interference fringe creation unit 20 is parallel to the horizontal direction of the flat plate 2a of the stage 2 (the vertical direction in FIG. 1, ie, the X direction). It has been adjusted. Accordingly, since the surface of the touch panel flat plate OB is flat and rectangular, when the touch panel flat plate OB is placed on the flat plate 2a of the stage 2, the line of interference fringes is generated in parallel to the surface lateral direction of the touch panel flat plate OB. It will be.

カメラCは、集光レンズによりCCDまたはCMOS等からなる撮像素子により像が形成され、撮像素子の各画素が出力する信号の強度(各画素における明度に相当する)をデジタルデータに変換して出力するものである。カメラCの集光レンズの光軸は基台3に対して垂直になるよう調整されており、集光レンズの光軸に対して撮像素子は垂直になっている。また、カメラCの集光レンズの光軸方向位置は、被写界深度の中心がタッチパネル用平板OBの表面と集光レンズの光軸との交点付近なるように調整されているため、撮像素子で受光された光によりタッチパネル用平板OB表面の像が形成される。前述のように、干渉縞作成部20から出射した光を受光した箇所には干渉縞が生じるため、タッチパネル用平板OB表面には干渉縞が生じ、タッチパネル用平板OB表面の像が形成されるカメラCの撮像素子にも干渉縞が生じる。なお、干渉縞作成部20からの光は前述のようにタッチパネル用平板OBの表面と内部の層間において反射するため、カメラCの撮像素子に生じる干渉縞はタッチパネル用平板OBの表面と内部の層間からの反射光によるものである。カメラCの撮像素子における画素の縦と横の並び方向(撮影画像の縦方向と横方向に相当する)は、X方向およびY方向と平行になるように調整されており、これにより、撮像素子に生じる干渉縞のラインは、撮像素子の画素の横の並び方向とほぼ平行になる。すなわち、撮影画像の略横方向に干渉縞が観測される。カメラCは、後述するコントローラ50から指令が入力すると、各画素における明度に相当する値のデジタルデータをコントローラ50に出力することを開始する。コントローラ50はこのデジタルデータを基に画像データを作成し、表示装置54に出力して撮影画像を表示させる。   In the camera C, an image is formed by an imaging element such as a CCD or CMOS by a condensing lens, and the intensity (corresponding to the brightness at each pixel) output from each pixel of the imaging element is converted into digital data and output. To do. The optical axis of the condenser lens of the camera C is adjusted to be perpendicular to the base 3, and the imaging element is perpendicular to the optical axis of the condenser lens. Further, the optical axis direction position of the condenser lens of the camera C is adjusted so that the center of the depth of field is near the intersection of the surface of the touch panel flat plate OB and the optical axis of the condenser lens. An image of the surface of the touch panel flat plate OB is formed by the light received at. As described above, since the interference fringe is generated at the place where the light emitted from the interference fringe creation unit 20 is received, the interference fringe is generated on the surface of the touch panel flat plate OB, and an image of the surface of the touch panel flat plate OB is formed. Interference fringes also occur in the C image sensor. As described above, the light from the interference fringe creating unit 20 is reflected between the surface of the touch panel flat plate OB and the inner layer, and therefore, the interference fringe generated in the image sensor of the camera C is the surface of the touch panel flat plate OB and the inner layer. This is due to the reflected light from. The vertical and horizontal alignment directions (corresponding to the vertical and horizontal directions of the captured image) of the pixels in the image sensor of the camera C are adjusted to be parallel to the X direction and the Y direction. The line of interference fringes generated in is substantially parallel to the horizontal alignment direction of the pixels of the image sensor. That is, interference fringes are observed in a substantially horizontal direction of the captured image. When a command is input from the controller 50 to be described later, the camera C starts outputting digital data having a value corresponding to the brightness of each pixel to the controller 50. The controller 50 creates image data based on the digital data and outputs it to the display device 54 to display the captured image.

カメラ移動機構部30は、カメラCをX方向とY方向に移動させる。カメラCは移動体32に固定され、移動体32はY方向モータ34により一端にて軸線周りに回転駆動されるY方向スクリューロッド33が螺合している。Y方向スクリューロッド33の他端は支持台31に回転可能に支持され、支持台31はY方向モータ34を固定支持している。移動体32は、図示しないガイド部材によりY方向スクリューロッド33の軸線方向にのみ移動可能にガイドされており、移動体32及びY方向スクリューロッド33によってねじ送り機構が構成されている。したがって、Y方向モータ34によるY方向スクリューロッド33の軸線周りの回転により、移動体32およびカメラCはY方向に移動する。そして、支持台31はX方向モータ36により一端にて軸線周りに回転駆動されるX方向スクリューロッド(図示略)が螺合している。X方向スクリューロッドの他端は支持台35に回転可能に支持され、支持台35はX方向モータ36を固定支持している。支持台31は、図示しないガイド部材によりX方向スクリューロッドの軸線方向にのみ移動可能にガイドされており、支持台31及びX方向スクリューロッドによってねじ送り機構が構成されている。したがって、X方向モータ36によるX方向スクリューロッドの軸線周りの回転により、支持台31、移動体32およびカメラCはX方向に移動する。   The camera moving mechanism unit 30 moves the camera C in the X direction and the Y direction. The camera C is fixed to the moving body 32, and the moving body 32 is screwed with a Y-direction screw rod 33 that is driven to rotate around the axis at one end by a Y-direction motor 34. The other end of the Y direction screw rod 33 is rotatably supported by a support base 31, and the support base 31 fixedly supports a Y direction motor 34. The moving body 32 is guided by a guide member (not shown) so as to be movable only in the axial direction of the Y direction screw rod 33, and the moving body 32 and the Y direction screw rod 33 constitute a screw feed mechanism. Therefore, the moving body 32 and the camera C move in the Y direction by the rotation of the Y direction motor 34 around the axis of the Y direction screw rod 33. The support base 31 is screwed with an X-direction screw rod (not shown) that is driven to rotate around the axis at one end by the X-direction motor 36. The other end of the X direction screw rod is rotatably supported by a support base 35, and the support base 35 fixedly supports an X direction motor 36. The support base 31 is guided by a guide member (not shown) so as to be movable only in the axial direction of the X-direction screw rod, and the support base 31 and the X-direction screw rod constitute a screw feed mechanism. Accordingly, the support base 31, the moving body 32, and the camera C move in the X direction by the rotation of the X direction motor 36 around the axis of the X direction screw rod.

X方向モータ36は、X方向モータ駆動回路44から駆動信号が供給されると回転駆動し、Y方向モータ34は、Y方向モータ駆動回路48から駆動信号が供給されると回転駆動する。X方向モータ36およびY方向モータ34には、所定の微少角度だけ回転するたびに、ハイレベルとローレベルとを交互に切り替えるパルス列信号ΦA,ΦBを出力する、エンコーダ36aおよびエンコーダ34aがある。パルス列信号ΦA,ΦBは、回転方向を識別するために互いにπ/2だけ位相のずれた信号である。X方向モータ駆動回路44およびY方向モータ駆動回路48は、X方向モータ36およびY方向モータ34に駆動信号を供給する際、エンコーダ36aおよびエンコーダ34aが出力するパルス列信号を入力し、パルス列信号の単位時間あたりのパルス数が設定された値になるよう駆動信号を制御する。これにより、カメラCは設定された一定の速度で移動する。   The X direction motor 36 rotates when a drive signal is supplied from the X direction motor drive circuit 44, and the Y direction motor 34 rotates when a drive signal is supplied from the Y direction motor drive circuit 48. The X-direction motor 36 and the Y-direction motor 34 include an encoder 36a and an encoder 34a that output pulse train signals ΦA and ΦB that alternately switch between a high level and a low level each time they rotate by a predetermined minute angle. The pulse train signals ΦA and ΦB are signals that are out of phase with each other by π / 2 in order to identify the rotation direction. The X-direction motor drive circuit 44 and the Y-direction motor drive circuit 48 receive the pulse train signal output from the encoder 36a and the encoder 34a when supplying drive signals to the X-direction motor 36 and the Y-direction motor 34. The drive signal is controlled so that the number of pulses per time becomes a set value. Thereby, the camera C moves at the set constant speed.

X方向モータ駆動回路44は、コントローラ50からX方向位置が入力すると、後述するX方向移動位置検出回路42から入力するX方向移動位置が、コントローラ50から入力した移動位置になるまで、X方向モータ36に駆動信号を供給する。Y方向モータ駆動回路48も同様であり、コントローラ50からY方向位置が入力すると、後述するY方向移動位置検出回路46から入力するY方向移動位置が、コントローラ50から入力した移動位置になるまで、Y方向モータ34に駆動信号を供給する。これにより、カメラCはコントローラ50により指定された移動位置へ移動する。   When the X direction position is input from the controller 50, the X direction motor drive circuit 44 until the X direction movement position input from the X direction movement position detection circuit 42 described later becomes the movement position input from the controller 50. A drive signal is supplied to 36. The same applies to the Y-direction motor drive circuit 48. When the Y-direction position is input from the controller 50, the Y-direction movement position input from the Y-direction movement position detection circuit 46, which will be described later, becomes the movement position input from the controller 50. A drive signal is supplied to the Y direction motor 34. Thereby, the camera C moves to the movement position designated by the controller 50.

X方向移動位置検出回路42は、X方向モータ36にあるエンコーダ36aから入力するパルス列信号ΦA,ΦBのパルス数を、X方向モータ36の回転方向に応じてカウントアップ又はカウントダウンし、そのカウント値からX方向移動位置を算出し、X方向移動位置のデジタルデータをX方向モータ駆動回路44およびコントローラ50に出力する。X方向移動位置検出回路42が検出するX方向移動位置の原点位置(移動位置0の位置)は、電源投入時にコントローラ50の指示によって設定される。すなわち、コントローラ50は電源投入時に、X方向モータ駆動回路44にカメラC(支持台31)に原点位置への移動を指示し、X方向移動位置検出回路42に原点設定を指示する。この指示により、X方向モータ駆動回路44はX方向モータ36を回転駆動させて、カメラC(支持台31)を原点方向に移動させる。本実施形態では図1の紙面垂直方向の裏面方向が原点方向であるとする。この原点位置はカメラC(支持台31)の駆動限界位置であり、X方向移動位置検出回路42はカメラC(支持台31)の移動中、エンコーダ36aからのパルス列信号ΦA,ΦBを入力し続けている。そして、カメラC(支持台31)が駆動限界位置(すなわち原点位置)まで達してX方向モータ36の回転が停止すると、X方向移動位置検出回路42はエンコーダ36aからのパルス列信号ΦA,ΦBの入力停止を検出して、カウント値を0にセットする。すなわち、移動位置を0にセットする。そして、同時に、X方向モータ駆動回路44に出力停止のための信号を出力し、これにより、X方向モータ駆動回路44はX方向モータ36への駆動信号の供給を停止する。これ以降、X方向モータ36が駆動された際には、X方向移動位置検出回路42は、エンコーダ36aからのパルス列信号ΦA,ΦBのパルス数をX方向モータ36の回転方向に応じてカウントアップ又はカウントダウンし、そのカウント値に基づいてX方向移動位置を算出して、そのデジタルデータを出力する。   The X-direction movement position detection circuit 42 counts up or down the number of pulses of the pulse train signals ΦA and ΦB input from the encoder 36a in the X-direction motor 36 according to the rotation direction of the X-direction motor 36, and from the count value The X direction movement position is calculated, and the digital data of the X direction movement position is output to the X direction motor drive circuit 44 and the controller 50. The origin position (position of movement position 0) of the X direction movement position detected by the X direction movement position detection circuit 42 is set by an instruction from the controller 50 when the power is turned on. That is, when the power is turned on, the controller 50 instructs the X direction motor drive circuit 44 to move the camera C (support base 31) to the origin position, and instructs the X direction movement position detection circuit 42 to set the origin. In response to this instruction, the X direction motor drive circuit 44 rotates the X direction motor 36 to move the camera C (support base 31) in the direction of the origin. In the present embodiment, it is assumed that the back surface direction in the direction perpendicular to the paper surface of FIG. This origin position is the drive limit position of the camera C (support base 31), and the X-direction movement position detection circuit 42 continues to input the pulse train signals ΦA and ΦB from the encoder 36a while the camera C (support base 31) is moving. ing. When the camera C (support 31) reaches the drive limit position (that is, the origin position) and the rotation of the X-direction motor 36 stops, the X-direction movement position detection circuit 42 inputs the pulse train signals ΦA and ΦB from the encoder 36a. Stop is detected and the count value is set to zero. That is, the movement position is set to 0. At the same time, a signal for stopping the output is output to the X direction motor drive circuit 44, whereby the X direction motor drive circuit 44 stops supplying the drive signal to the X direction motor 36. Thereafter, when the X-direction motor 36 is driven, the X-direction movement position detection circuit 42 counts up the number of pulses of the pulse train signals ΦA and ΦB from the encoder 36 a according to the rotation direction of the X-direction motor 36. Count down, calculate the X-direction movement position based on the count value, and output the digital data.

Y方向移動位置検出回路46もX方向移動位置検出回路42と作動の仕方は同様である。すなわち、Y方向モータ34にあるエンコーダ34aから入力するパルス列信号ΦA,ΦBのパルス数を、Y方向モータ34の回転方向に応じてカウントアップ又はカウントダウンし、そのカウント値からY方向移動位置を算出し、Y方向移動位置のデジタルデータをY方向モータ駆動回路48およびコントローラ50に出力する。Y方向移動位置検出回路46が検出するY方向移動位置の原点位置(移動位置0の位置)の設定も、X方向移動位置検出回路42と同様である。すなわち、コントローラ50は電源投入時に、Y方向モータ駆動回路48にカメラC(移動体32)に原点位置への移動を指示し、Y方向移動位置検出回路46に原点設定を指示する。この指示により、Y方向モータ駆動回路48はY方向モータ34を回転駆動させて、カメラC(移動体32)を原点方向に移動させる。本実施形態では図1の左方向が原点方向であるとする。この原点位置はカメラC(移動体32)の駆動限界位置であり、Y方向移動位置検出回路46はカメラC(移動体32)の移動中、エンコーダ34aからのパルス列信号ΦA,ΦBを入力し続けている。そして、カメラC(移動体32)が駆動限界位置(すなわち原点位置)まで達してY方向モータ34の回転が停止すると、Y方向移動位置検出回路46はエンコーダ34aからのパルス列信号ΦA,ΦBの入力停止を検出して、カウント値を0にセットする。すなわち、移動位置を0にセットする。そして、同時に、Y方向モータ駆動回路48に出力停止のための信号を出力し、これにより、Y方向モータ駆動回路48はY方向モータ34への駆動信号の供給を停止する。これ以降、Y方向モータ34が駆動された際には、Y方向移動位置検出回路46は、エンコーダ34aからのパルス列信号ΦA,ΦBのパルス数をY方向モータ34の回転方向に応じてカウントアップ又はカウントダウンし、そのカウント値に基づいてY方向移動位置を算出して、そのデジタルデータを出力する。   The Y-direction movement position detection circuit 46 is operated in the same manner as the X-direction movement position detection circuit 42. That is, the number of pulses of the pulse train signals ΦA and ΦB input from the encoder 34a in the Y direction motor 34 is counted up or down according to the rotation direction of the Y direction motor 34, and the Y direction moving position is calculated from the count value. The digital data of the Y direction movement position is output to the Y direction motor drive circuit 48 and the controller 50. The setting of the origin position of the Y-direction movement position detected by the Y-direction movement position detection circuit 46 (the position of the movement position 0) is the same as that of the X-direction movement position detection circuit 42. That is, when the power is turned on, the controller 50 instructs the Y-direction motor drive circuit 48 to move the camera C (the moving body 32) to the origin position and instructs the Y-direction movement position detection circuit 46 to set the origin. In response to this instruction, the Y-direction motor drive circuit 48 rotates the Y-direction motor 34 to move the camera C (the moving body 32) in the origin direction. In the present embodiment, the left direction in FIG. 1 is the origin direction. This origin position is the drive limit position of the camera C (moving body 32), and the Y-direction moving position detection circuit 46 continues to input the pulse train signals ΦA and ΦB from the encoder 34a while the camera C (moving body 32) is moving. ing. When the camera C (the moving body 32) reaches the drive limit position (that is, the origin position) and the rotation of the Y-direction motor 34 stops, the Y-direction movement position detection circuit 46 inputs the pulse train signals ΦA and ΦB from the encoder 34a. Stop is detected and the count value is set to zero. That is, the movement position is set to 0. At the same time, a signal for stopping the output is output to the Y-direction motor drive circuit 48, whereby the Y-direction motor drive circuit 48 stops supplying the drive signal to the Y-direction motor 34. Thereafter, when the Y-direction motor 34 is driven, the Y-direction movement position detection circuit 46 counts up the number of pulses of the pulse train signals ΦA and ΦB from the encoder 34 a according to the rotation direction of the Y-direction motor 34. It counts down, calculates the Y-direction movement position based on the count value, and outputs the digital data.

上記のように構成した透光性物体検査装置において、入力装置52からの入力により、コントローラ50が後述する欠陥検出プログラムを実行すると、干渉縞作成部20から受光箇所に干渉縞が形成される光が照射され、カメラCが取得する撮影画像データが処理されて、タッチパネル用平板OBに欠陥があるか否かの判定結果が、表示装置54に表示される。検査における透光性物体検査装置の作動の説明を行う前に、カメラCの撮影画像データがどのように処理されて判定が行われるかを説明する。図2は、コントローラ50が行うカメラCの撮影画像データの処理の方法を、視覚的に示したものである。干渉縞がタッチパネル用平板OBに図2(a)のように生じていると、カメラCの撮像素子における干渉縞のラインの垂直方向のライン上の受光強度(すなわち、撮像素子のこのラインにある画素が出力する信号強度をデジタルデータにした画像データ)から明度曲線を作成すると図2(b)のようになる。この明度曲線を微分して微分値を絶対値にした曲線を作成すると図2(c)のようになる。干渉縞のラインの垂直方向のすべてのラインにおいて、この微分値の絶対値を計算し、明度に変換した画像を作成すると、図2(d)のようになる。実際は、干渉縞のラインの垂直方向を考慮する必要はなく、前述のように干渉縞はカメラCの撮像素子の画素の並びとほぼ平行に発生するので、撮像素子のそれぞれの画素において、画素の並び方向で等距離にある4つの画素の中で、最も明度(画像データ)に差があるものを選択し微分値を計算すればよい。このようにすれば、4つの画素の中で干渉縞のラインの垂直方向にある画素が最も明度に差があるので、図2(d)の画像を得ることができる。   In the translucent object inspection apparatus configured as described above, when the controller 50 executes a defect detection program, which will be described later, by input from the input device 52, light from which interference fringes are formed at the light receiving location from the interference fringe creating unit 20 , The captured image data acquired by the camera C is processed, and a determination result as to whether or not the touch panel flat plate OB is defective is displayed on the display device 54. Before explaining the operation of the translucent object inspection apparatus in the inspection, how the captured image data of the camera C is processed and determined will be described. FIG. 2 visually shows a method of processing the captured image data of the camera C performed by the controller 50. When the interference fringes are generated on the touch panel flat plate OB as shown in FIG. 2A, the received light intensity on the line in the vertical direction of the interference fringe lines in the image pickup device of the camera C (that is, in this line of the image pickup device). When a brightness curve is created from image data obtained by converting the signal intensity output from a pixel into digital data, the result is as shown in FIG. FIG. 2C shows a curve obtained by differentiating the lightness curve and making the differential value an absolute value. When the absolute value of this differential value is calculated for all lines in the vertical direction of the interference fringe lines and an image converted to lightness is created, the result is as shown in FIG. Actually, it is not necessary to consider the vertical direction of the line of the interference fringes, and the interference fringes are generated almost in parallel with the arrangement of the pixels of the image sensor of the camera C as described above. Of the four pixels that are equidistant in the arrangement direction, the pixel having the greatest difference in brightness (image data) may be selected to calculate the differential value. In this way, the pixel in the vertical direction of the interference fringe line among the four pixels has the most difference in brightness, so that the image of FIG. 2D can be obtained.

タッチパネル用平板OBにオレンジピール欠陥がなければ、干渉縞の明部と暗部の境界ラインは図2(a)のようにほぼ直線になり、微分画像である図2(d)においても明部と暗部の境界ラインはほぼ直線になる。一方、タッチパネル用平板OBにオレンジピール欠陥が存在すると、干渉縞の明部と暗部の境界ラインはやや直線からのずれが生じるが、このずれは微量であるため、これからオレンジピール欠陥の有無を判定するのは困難である。しかし、微分画像における明部と暗部の境界ラインは大きく直線からずれる。よって、図2(c)の明度曲線を干渉縞のラインの垂直方向における複数のラインにおいて作成し、それぞれの明度曲線において明度が所定値をクロスする箇所(明部と暗部の境界に相当する)の座標点(撮像素子の画素位置)を検出する。そして、この座標点を明部と暗部の境界ラインごとに群にし、各群ごとに最小2乗法により直線を引く。タッチパネル用平板OBにオレンジピール欠陥が存在しなければ図3(a)のように座標点は直線からのずれは小さいが、オレンジピール欠陥が存在すると図3(b)のように直線からのずれは大きくなるので、座標点の直線からのずれの度合いからオレンジピール欠陥を検出することができる。すなわち、座標点の直線からのずれの度合いを数値として求めれば、その数値が許容値以内か否かにより自動でオレンジピール欠陥を検出することができる。座標点の直線からのずれの度合いの数値としては、直線からの各座標点のずれを偏差とみなして計算した、標準偏差、分散、平均偏差、または最小2乗法により直線を計算した時に合わせて計算される、相関係数等を用いることができる。   If the touch panel flat plate OB has no orange peel defect, the boundary line between the bright part and the dark part of the interference fringe is almost a straight line as shown in FIG. 2A, and the bright part in FIG. The boundary line of the dark part is almost a straight line. On the other hand, if there is an orange peel defect in the touch panel flat plate OB, the boundary line between the bright and dark portions of the interference fringes is slightly deviated from the straight line. It is difficult to do. However, the boundary line between the bright part and the dark part in the differential image is greatly deviated from the straight line. Therefore, the lightness curve of FIG. 2C is created for a plurality of lines in the vertical direction of the interference fringe line, and the lightness curve crosses a predetermined value in each lightness curve (corresponding to the boundary between the light part and the dark part). The coordinate point (pixel position of the image sensor) is detected. The coordinate points are grouped for each boundary line between the bright part and the dark part, and a straight line is drawn by the least square method for each group. If the orange peel defect does not exist in the touch panel flat plate OB, the deviation of the coordinate point from the straight line is small as shown in FIG. 3A, but if the orange peel defect exists, the deviation from the straight line as shown in FIG. Therefore, the orange peel defect can be detected from the degree of deviation of the coordinate point from the straight line. That is, if the degree of deviation of the coordinate point from the straight line is obtained as a numerical value, an orange peel defect can be automatically detected depending on whether or not the numerical value is within an allowable value. The numerical value of the degree of deviation of the coordinate point from the straight line is calculated by considering the deviation of each coordinate point from the straight line as a deviation. A calculated correlation coefficient or the like can be used.

タッチパネル用平板OBにオレンジピール欠陥が存在しなくても、点状の欠陥や表面への異物の付着等があると、その箇所において座標点の直線からのずれが大きくなるため、計算された座標点の直線からのずれの度合いの数値は大きくなる。しかし、点状の欠陥や表面への異物の付着等は、オレンジピール欠陥のように広範囲に連続的に存在するわけではないので、各群ごとの(明部と暗部の境界ラインごとの)座標点の直線からのずれの度合いのばらつきには差が出る。すなわち、オレンジピール欠陥の場合は広範囲に連続的に存在するのでばらつきが小さくなり、点状の欠陥や異物の付着等の場合は局所的に存在するのでばらつきが大きくなる。よって、各群ごとの座標点の直線からのずれの度合いのばらつきを計算し、この値が設定値以下か否かにより、オレンジピール欠陥か、点状の欠陥または表面への異物の付着か、を判別することができる。   Even if the orange peel defect does not exist on the touch panel flat plate OB, if there is a point-like defect or foreign matter adhering to the surface, the deviation from the straight line of the coordinate point becomes large at that point, the calculated coordinates The numerical value of the degree of deviation of the point from the straight line increases. However, since point-like defects and adhesion of foreign matter to the surface do not exist continuously in a wide range like orange peel defects, coordinates for each group (per boundary line between bright and dark areas) There is a difference in the variation in the degree of deviation of the point from the straight line. That is, in the case of an orange peel defect, the variation is small because it is continuously present in a wide range, and in the case of a spot-like defect or adhesion of foreign matter, the variation is large because it exists locally. Therefore, the variation of the degree of deviation from the straight line of coordinate points for each group is calculated, and depending on whether this value is less than or equal to the set value, whether it is an orange peel defect, a dot-like defect or foreign matter adhering to the surface, Can be determined.

次に、上記のように構成した透光性物体検査装置において、タッチパネル用平板OBを検査する際の装置の動作について説明する。まず、作業者は透光性物体検査装置の図示しない電源を投入する。このとき、コントローラ50は上述のように図1のX方向移動位置検出回路42、X方向モータ駆動回路44、Y方向移動位置検出回路46、Y方向モータ駆動回路48に指令を出力し、カメラC(移動体32、支持台31)は原点位置(駆動限界位置)まで移動する。次に作業者は、ステージ2の平板2aにタッチパネル用平板OBをセットする。このとき平板2aのX方向ラインにある突起2cとY方向ラインにある突起2cにタッチパネル用平板OBの側面が接触するようにする。これにより、タッチパネル用平板OBの大きさによらず、タッチパネル用平板OBを上方から見たとき左下の角の位置は、常に一定の位置(突起2cのX方向ラインとY方向ラインが交差する点)になる。そして、作業者は入力装置52を操作して、欠陥検出プログラムをコントローラ50に実行させる。   Next, the operation of the apparatus for inspecting the touch panel flat plate OB in the translucent object inspection apparatus configured as described above will be described. First, the operator turns on a power source (not shown) of the translucent object inspection apparatus. At this time, the controller 50 outputs commands to the X-direction movement position detection circuit 42, the X-direction motor drive circuit 44, the Y-direction movement position detection circuit 46, and the Y-direction motor drive circuit 48 in FIG. The (moving body 32, support base 31) moves to the origin position (drive limit position). Next, the operator sets the touch panel flat plate OB on the flat plate 2 a of the stage 2. At this time, the side surface of the touch panel flat plate OB is brought into contact with the protrusion 2c on the X direction line of the flat plate 2a and the protrusion 2c on the Y direction line. As a result, regardless of the size of the touch panel flat plate OB, when the touch panel flat plate OB is viewed from above, the position of the lower left corner is always a constant position (the point where the X direction line and the Y direction line of the protrusion 2c intersect each other). )become. Then, the operator operates the input device 52 to cause the controller 50 to execute the defect detection program.

この欠陥検出プログラムは、図6のステップS100にて開始される。まずコントローラ50は、ステップS102にて変数nおよびmを「1」に設定する。変数nおよびmはカメラCの撮影位置を表すものであり、図4に示すようにnはX方向(図1の紙面の垂直方向)の撮影位置を表し、mはY方向(図1の横方向)の撮影位置を表している。すなわち、(n,m)からカメラCの撮影位置を表している。前述のように、タッチパネル用平板OBを上方から見たとき左下の角の位置は、常に一定の位置であるので、(n,m)で表されるカメラCの撮影位置は固定されており、予めコントローラ50内に記憶されている。   This defect detection program is started in step S100 in FIG. First, the controller 50 sets the variables n and m to “1” in step S102. Variables n and m represent the photographing positions of the camera C. As shown in FIG. 4, n represents the photographing position in the X direction (perpendicular to the paper surface of FIG. 1), and m represents the Y direction (horizontal in FIG. 1). Direction). That is, the shooting position of the camera C is represented from (n, m). As described above, when the touch panel flat plate OB is viewed from above, the position of the lower left corner is always a fixed position, so the shooting position of the camera C represented by (n, m) is fixed. It is stored in the controller 50 in advance.

コントローラ50は、ステップS104にてレーザ駆動回路40にレーザ照射開始を指令し、この指令に応答して、レーザ駆動回路40はレーザ光源10に設定された強度の電流および電圧を供給し、レーザ光源10からレーザ光が照射される。レーザ光は前述のように干渉部20で干渉し、タッチパネル用平板OBで反射し、カメラCに入射する。次にコントローラ50は、ステップS106にてカメラCに撮影開始を指令し、この指令に応答してカメラCは、撮像素子の各画素が出力する明度値に相当するデジタルデータをコントローラ50に出力することを開始する。次にコントローラ50は、ステップS108にてカメラCを初期撮影位置である(1,1)の位置へ移動させる。この位置は図4に示すように、タッチパネル用平板OBの左下の角近傍が、カメラCの撮影画面の左下になる位置である。次にコントローラ50は、ステップS110にてカメラCの画像データ(撮像素子の各画素が出力する明度値に相当するデジタルデータ)を取り込み、ステップS112にて取り込んだ画像データを基に作成した画像を表示装置54に表示させる。   In step S104, the controller 50 instructs the laser drive circuit 40 to start laser irradiation. In response to this command, the laser drive circuit 40 supplies the laser light source 10 with the current and voltage having the set intensity, and the laser light source. 10 is irradiated with laser light. The laser light interferes with the interference unit 20 as described above, is reflected by the touch panel flat plate OB, and enters the camera C. Next, the controller 50 commands the camera C to start photographing in step S106, and in response to this command, the camera C outputs digital data corresponding to the brightness value output by each pixel of the image sensor to the controller 50. Start that. Next, in step S108, the controller 50 moves the camera C to the position (1, 1) that is the initial photographing position. As shown in FIG. 4, this position is a position in which the vicinity of the lower left corner of the touch panel flat plate OB is the lower left of the shooting screen of the camera C. Next, the controller 50 captures image data of the camera C (digital data corresponding to the brightness value output by each pixel of the image sensor) in step S110, and creates an image created based on the image data captured in step S112. It is displayed on the display device 54.

ステップS112の後、コントローラ50は、ステップS114にてステップS112にて取り込んだ画像データを解析し、各種の判定を行う処理を行う。この処理は図8Aに示すフローのプログラム処理を、ステップS200にて開始することで行われる。以下、図8Aに示すプログラムのフローに沿って説明する。まず、コントローラ50は、ステップS202にて変数pを「1」に設定する。変数pは、図5に示すように画像データから作成したカメラCの撮影画像を想定すると、X方向に等間隔でY方向に平行な複数のラインに、X方向が原点に近い側から順につけられた番号を表している。言い換えると、変数pは、カメラCの撮影素子におけるY方向に平行な画素の並びにつけられた番号を表しており、変数pに対する画素の並びは、予めコントローラ50に記憶されている。次にコントローラ50は、ステップS204にて変数pのラインの画像データを抽出する。すなわち、変数pに対応するライン(画素の並び)の画素が出力した画像データを抽出する。そして、ステップS206にてこの画像データを画素順に並べることで明度曲線を作成する。この明度曲線は、図2の(b)に示した曲線である。   After step S112, the controller 50 analyzes the image data captured in step S112 in step S114, and performs various determinations. This process is performed by starting the program process of the flow shown in FIG. 8A in step S200. Hereinafter, description will be made along the program flow shown in FIG. 8A. First, the controller 50 sets the variable p to “1” in step S202. Assuming a photographed image of the camera C created from image data as shown in FIG. 5, the variable p is assigned to a plurality of lines parallel to the Y direction at equal intervals in the X direction from the side closer to the origin. Represents the assigned number. In other words, the variable p represents a number assigned to pixels parallel to the Y direction in the imaging element of the camera C, and the arrangement of the pixels with respect to the variable p is stored in the controller 50 in advance. Next, the controller 50 extracts the image data of the line of the variable p in step S204. That is, the image data output by the pixels in the line (pixel arrangement) corresponding to the variable p is extracted. In step S206, a brightness curve is created by arranging the image data in pixel order. This brightness curve is the curve shown in FIG.

ステップS206の後、コントローラ50は、ステップS208にてステップS206で作成した明度曲線から干渉縞が存在するか否かを判定する。具体的には、明度曲線が予め設定したレベルを、設定された回数以上クロスしているか否かを判定する。設定された回数以上クロスしない場合は、ステージ2にタッチパネル用平板OBを載置し忘れた場合、ステージ2の所定位置にタッチパネル用平板OBを載置しなかった場合。ステージ2にタッチパネル用平板OBとは異なるものを載置した場合等が考えられる。この場合は、「No」と判定してステップS210へ進む。カメラCは撮影開始した直後であるため、n=1、m=1であり、ステップS210、ステップS212とも「Yes」と判定して,ステップS214にて「異常」と判定してステップ284へ進み、画像データの解析と、各種の判定処理のプログラムを終了させる。一方、干渉縞が存在し、明度曲線が予め設定したレベルを設定された回数以上クロスしている場合は、「Yes」と判定してステップS220へ進む。   After step S206, the controller 50 determines in step S208 whether there is an interference fringe from the brightness curve created in step S206. Specifically, it is determined whether or not the lightness curve crosses a preset level more than a preset number of times. When the crossing is not performed more than the set number of times, when the touch panel flat plate OB is forgotten to be placed on the stage 2, or when the touch panel flat plate OB is not placed at a predetermined position of the stage 2. The case where the thing different from the flat plate OB for touch panels is mounted in the stage 2 etc. can be considered. In this case, it determines with "No" and progresses to step S210. Since the camera C is immediately after the start of photographing, n = 1 and m = 1. In both step S210 and step S212, “Yes” is determined. In step S214, “abnormal” is determined, and the process proceeds to step 284. Then, the image data analysis and various determination processing programs are terminated. On the other hand, if there is an interference fringe and the lightness curve crosses a preset level for a preset number of times, it is determined as “Yes” and the process proceeds to step S220.

コントローラ50は、ステップS220にて全ての画像データの微分データを作成する。具体的には、それぞれの画素において、近傍で横方向と縦方向(X方向とY方向)に等しい距離だけ離れた画素の画像データを抽出し、明度値が最も異なるものを選択して明度値の差を規格化する(例えば0〜255の値にする)。明度値の差は干渉縞のラインの垂直方向の画素とのものが最も大きくなるはずであるので、微分データは図2(b)の明度曲線を微分した値になり、微分データを干渉縞のラインの垂直方向(Y方向)に並べると図2(c)の曲線になる。次に、コントローラ50は、ステップS222にて、ステップS220にて作成した微分データを基に作成した微分画像を表示装置54に表示させる。表示装置54に表示される画像は、タッチパネル用平板OBに欠陥がない場合は図2(d)に示された画像である。   The controller 50 creates differential data of all the image data in step S220. Specifically, for each pixel, image data of pixels that are separated by an equal distance in the horizontal direction and the vertical direction (X direction and Y direction) is extracted, and the lightness value is selected by selecting the pixel having the most different lightness value. Is normalized (for example, a value of 0 to 255). Since the difference in brightness value should be the largest for the pixels in the vertical direction of the interference fringe line, the differential data is a value obtained by differentiating the brightness curve in FIG. When the lines are arranged in the vertical direction (Y direction), a curve shown in FIG. Next, in step S222, the controller 50 causes the display device 54 to display a differential image created based on the differential data created in step S220. The image displayed on the display device 54 is the image shown in FIG. 2D when the touch panel flat plate OB has no defect.

前記ステップS222の処理後、コントローラ50は、ステップS224〜S234の処理を行うことで、図5に点で示す、変数pで表されるラインごとの微分画像の明と暗の境界点をすべて抽出する処理を行う。具体的には、ステップS224にて変数pで表されるライン(画素の並び)の微分データを抽出し、ステップS226にて、この微分データを画素の並び順に並べることで微分曲線を作成し、ステップS228にて、この微分曲線が所定値をクロスするY座標値を計算して記憶する。Y座標値は、原点に近い側から画素の並び順に0,1,2・・・と画素につけられた番号であり、このY座標値を図5に示すように、変数pと、Y座標値が小さい値から順につけた変数qに対応させて記憶する。そして、ステップS234にて変数pをインクリメントし、ステップS232にて変数pが所定数B(変数pで表されるラインの全数)になって「Yes」と判定されるまで、ステップS224〜S228の処理を繰り返し実行することで、変数pで表されるすべてのラインにおいて、微分曲線が所定値をクロスするY座標値を記憶する。ステップS230にてY座標値が微少数A(数個)であるか否かを判定するが、これは、カメラCの撮影位置が移動して、画面の一部にタッチパネル用平板OB(干渉縞画像)がなくなる場合を想定したものであり、カメラCが初期撮影位置にあれば、常に「No」と判定される。この点は、後ほど詳細に説明する。   After the process of step S222, the controller 50 performs the processes of steps S224 to S234 to extract all the bright and dark boundary points of the differential image for each line represented by the variable p, which are indicated by the points in FIG. Perform the process. Specifically, differential data of the line (pixel arrangement) represented by the variable p is extracted in step S224, and a differential curve is created by arranging the differential data in the pixel arrangement order in step S226. In step S228, the Y coordinate value at which the differential curve crosses a predetermined value is calculated and stored. The Y coordinate value is a number assigned to the pixel as 0, 1, 2,... In the pixel arrangement order from the side closer to the origin, and this Y coordinate value is represented by a variable p and a Y coordinate value as shown in FIG. Are stored in correspondence with the variable q attached in order from the smallest value. Then, in step S234, the variable p is incremented, and in step S232, until the variable p reaches the predetermined number B (the total number of lines represented by the variable p) and it is determined “Yes”, steps S224 to S228 are performed. By repeatedly executing the process, the Y coordinate value at which the differential curve crosses the predetermined value is stored in all the lines represented by the variable p. In step S230, it is determined whether or not the Y coordinate value is a very small number A (several). This is because the shooting position of the camera C moves and a touch panel flat plate OB (interference fringe) is formed on a part of the screen. It is assumed that there is no image). If the camera C is in the initial shooting position, it is always determined as “No”. This point will be described in detail later.

ステップS232にて「Yes」と判定されるとステップS236に進み、ステップS236にて、後のステップで使用する変数pmaxに所定数Bに設定する。これを行うのは、カメラCの撮影位置が移動して、画面の一部にタッチパネル用平板OB(干渉縞画像)がなくなると、変数pで表されるラインの数が所定数Bにならないためである。この点も後ほど詳細に説明する。そして、ステップS242にて変数pが1のY座標値の数、すなわち図5の最も左側のラインにおいて微分曲線が所定値をクロスする数が所定数未満であるかを判定する。これも、カメラCの撮影位置が移動して、画面の一部にタッチパネル用平板OB(干渉縞画像)がなくなる場合を想定したものであり、カメラCが初期撮影位置にあれば、常に「No」と判定される。この点も、後ほど詳細に説明する。   If “Yes” is determined in step S232, the process proceeds to step S236, and in step S236, a variable pmax used in a subsequent step is set to a predetermined number B. This is done because the number of lines represented by the variable p does not become the predetermined number B when the shooting position of the camera C moves and the touch panel flat plate OB (interference fringe image) disappears in a part of the screen. It is. This point will also be described in detail later. In step S242, it is determined whether or not the number of Y coordinate values having the variable p of 1, that is, the number of the differential curve crossing the predetermined value in the leftmost line in FIG. This also assumes a case where the shooting position of the camera C is moved and the touch panel flat plate OB (interference fringe image) disappears in a part of the screen. Is determined. This point will also be described in detail later.

ステップS242にて「No」と判定されるとステップS246に進み、ステップS246〜S266の処理により、微分画像の明と暗の境界ラインごとに明と暗の境界点(Y座標値)の直線からの変動度合を境界変動度合として計算する。すなわち図3に示すように、微分画像の明と暗の境界点(Y座標値)が直線からどの程度変動しているかを計算する。具体的には次の処理を行う。ステップS246にて変数qを1に設定し、ステップS248にて変数pを1に設定し、ステップS250にて変数p、変数qに対応するY座標値を抽出する。これにより、図5の最も左側のラインの最も値が小さいY座標値が抽出される。次に、ステップS252にて変数pをインクリメントし、ステップS254にて変数pに対応するY座標値の内、変数p−1、変数qに対応するY座標値に、値が最も近いY座標値を抽出する。これは、図5の最も左側のラインの1つ右側のラインにおいて、最初に抽出したY座標値に最も値が近いY座標値を抽出する処理である。そして、ステップS256にて、抽出したY座標値と1つ前に抽出したY座標値との差が許容値内であれば、「Yes」と判定して、ステップS258に進む。変数pは2であるのでステップS258にて「No」と判定して、再びステップS252〜S256の処理を行う。これは、図5の左側から3番目のラインにおいて、左側から2番目のラインにて抽出したY座標値に最も値が近いY座標値を抽出する処理である。このように1つ前のラインにて抽出したY座標値に、最も値が近いY座標値を抽出する処理を、変数pがpmaxに達してステップS258にて、「Yes」と判定されるまで繰り返し実行する。これにより変数pと変数qが1であるY座標値(境界点)が属する明と暗の境界ラインの、すべてのY座標値(境界点)が抽出される。すなわち、図5において最も下側の明と暗の境界ラインにおける境界点が抽出される。   If “No” is determined in step S242, the process proceeds to step S246, and by the processes in steps S246 to S266, the bright and dark boundary points (Y-coordinate values) are determined for each bright and dark boundary line of the differential image. Is calculated as the boundary variation degree. That is, as shown in FIG. 3, the degree to which the bright and dark boundary points (Y coordinate values) of the differential image fluctuate from the straight line is calculated. Specifically, the following processing is performed. In step S246, the variable q is set to 1. In step S248, the variable p is set to 1. In step S250, the Y coordinate value corresponding to the variable p and the variable q is extracted. Thereby, the Y coordinate value having the smallest value of the leftmost line in FIG. 5 is extracted. Next, in step S252, the variable p is incremented, and in step S254, among the Y coordinate values corresponding to the variable p, the Y coordinate value closest to the Y coordinate values corresponding to the variable p-1 and the variable q. To extract. This is a process of extracting the Y coordinate value closest to the first extracted Y coordinate value in the right one of the leftmost lines in FIG. If the difference between the extracted Y coordinate value and the previously extracted Y coordinate value is within the allowable value in step S256, it is determined as “Yes” and the process proceeds to step S258. Since the variable p is 2, it is determined as “No” in step S258, and the processes of steps S252 to S256 are performed again. This is a process of extracting the Y coordinate value closest to the Y coordinate value extracted in the second line from the left side in the third line from the left side in FIG. The process of extracting the Y coordinate value closest to the Y coordinate value extracted in the previous line in this way until the variable p reaches pmax and “Yes” is determined in step S258. Run repeatedly. As a result, all the Y coordinate values (boundary points) of the bright and dark boundary lines to which the Y coordinate values (boundary points) whose variables p and q are 1 belong are extracted. That is, the boundary point in the lowermost bright and dark boundary line in FIG. 5 is extracted.

変数qが同一の値のY座標値(境界点)を抽出せず、ステップS252〜S256の処理を繰り返し行うことで、1つの境界ラインに属するY座標値(境界点)を抽出する理由は、明と暗の境界ラインの方向はX方向と完全に平行になるとは限らないからである。すなわち、明と暗の境界ラインの方向がX方向からややずれると、変数qが同じ値に対応するY座標値(境界点)を抽出しても、それらが1つの境界ラインに属するものにならない可能性があるからである。視覚的に示すと、図6に示すように、干渉縞のラインの方向がX方向からずれていると、変数pがaおよびa+1に対応するラインにおいては変数qが1の境界点は同じ境界ラインに属しているが、変数pがa+2に対応するラインにおいては変数qが1の境界点は別の境界ラインに属してしまうためである。なお、図6では明と暗の境界ラインの方向のX方向からのずれを誇張して示しているが、明と暗の境界ラインの間隔および幅はもっと小さいので、明と暗の境界ラインのX方向からのずれが微量であっても、このような問題は発生する。そして、ステップS256の判定を行う理由は、図6に示すように、抽出したY座標値と1つ前に抽出したY座標値との差が許容値以上である場合は、抽出したY座標値は別の境界ライン属する場合であるので、この場合は「No」と判定して、ステップS252〜S258の繰り返し処理を中断するためである。この場合は、後述する直線からの変動度合の計算も行わないようにして、次の変数qに対応する境界ラインでの処理を行うようにする。   The reason for extracting the Y coordinate value (boundary point) belonging to one boundary line by repeatedly performing the processing of steps S252 to S256 without extracting the Y coordinate value (boundary point) having the same variable q is as follows. This is because the direction of the boundary line between light and dark is not always completely parallel to the X direction. That is, when the direction of the boundary line between light and dark is slightly deviated from the X direction, even if Y coordinate values (boundary points) corresponding to the same value of the variable q are extracted, they do not belong to one boundary line. Because there is a possibility. Visually, as shown in FIG. 6, if the direction of the interference fringe line is deviated from the X direction, the boundary point where the variable q is 1 is the same boundary in the line corresponding to the variables p and a + 1. This is because a boundary point belonging to a line but having a variable q of 1 in a line corresponding to a variable p of a + 2 belongs to another boundary line. In FIG. 6, the deviation of the bright and dark boundary lines from the X direction is exaggerated. However, since the interval and the width of the bright and dark boundary lines are smaller, the bright and dark boundary lines Such a problem occurs even if the deviation from the X direction is very small. Then, the reason for performing the determination in step S256 is that, as shown in FIG. 6, if the difference between the extracted Y coordinate value and the previous extracted Y coordinate value is greater than or equal to the allowable value, the extracted Y coordinate value Is in a case where another boundary line belongs, in this case, it is determined as “No”, and the repetition processing of steps S252 to S258 is interrupted. In this case, calculation of the degree of variation from a straight line, which will be described later, is not performed, and processing at the boundary line corresponding to the next variable q is performed.

ステップS258にて、「Yes」と判定されると、ステップS260に進み、ステップS260にて{a,Y座標値(1,1)},{2a,Y座標値(1,2)},{3a,Y座標値(1,3)}・・・{pmax・a,Y座標値(1,pmax)}を座標値としたときの回帰式を最小二乗法で計算する。aは変数pに対応するラインにおける、ラインとラインの間隔である。なお、明と暗の境界ラインのX方向からのずれが微量であれば、全てのY座標値を平均するのみでもよいが、検査精度を高めるのであれば、回帰式を計算する方が望ましい。そして、ステップS262にて、{a,Y座標値(1,1),{2a,Y座標値(1,2)},{3a,Y座標値(1,3)}・・・{pmax・a,Y座標値(1,pmax)}の各座標値から、回帰式で示された直線までの距離をそれぞれ計算し、計算した距離を偏差とみなして、標準偏差(q)を計算する。この値が境界変動度合である。この場合はq=1(最も下側の境界ライン)であるので、標準偏差(1)である。   If “Yes” is determined in step S258, the process proceeds to step S260, and in step S260, {a, Y coordinate value (1, 1)}, {2a, Y coordinate value (1, 2)}, { 3a, Y coordinate value (1, 3)}... The regression equation when {pmax · a, Y coordinate value (1, pmax)} is the coordinate value is calculated by the least square method. a is the line-to-line spacing in the line corresponding to the variable p. If the deviation between the bright and dark boundary lines from the X direction is very small, all the Y coordinate values may be averaged. However, if the inspection accuracy is to be improved, it is desirable to calculate a regression equation. In step S262, {a, Y coordinate value (1, 1), {2a, Y coordinate value (1, 2)}, {3a, Y coordinate value (1, 3)}... {Pmax · The distance from each coordinate value of a, Y coordinate value (1, pmax)} to the straight line indicated by the regression equation is calculated, and the calculated distance is regarded as the deviation, and the standard deviation (q) is calculated. This value is the boundary fluctuation degree. In this case, q = 1 (lowermost boundary line), so the standard deviation (1).

ステップS262の計算が終了すると、ステップS264進み、ステップS264にて、変数qが最大値qmaxに達したか判定する。qmaxは変数pが1の場合におけるY座標値(境界点)の数である。この時点では変数qは1であるので、「No」と判定され、ステップS266で変数qがインクリメントされ、ステップS248に戻って、再度ステップS248〜S262の処理が行われる。この場合は、変数qが2における明と暗の境界点の境界変動度合、すなわち図5の下側から2つ目の明と暗の境界ラインに属する境界点の境界変動度合として、標準偏差(2)が計算される。そして、計算が終了すると、ステップS264にて再度、「No」と判定されてステップS266で変数qがインクリメントされて、ステップS248に戻る。このような処理を変数qが1づつ増えていき、変数qが最大値qmaxに達し、ステップS264にて「Yes」と判定されるまで行われる。これにより、全ての明と暗の境界ラインにおいて境界変動度合として、標準偏差(1)、標準偏差(2)、標準偏差(3)・・・標準偏差(qmax)が計算がされる。   When the calculation in step S262 ends, the process proceeds to step S264, and it is determined in step S264 whether the variable q has reached the maximum value qmax. qmax is the number of Y coordinate values (boundary points) when the variable p is 1. Since the variable q is 1 at this time, it is determined “No”, the variable q is incremented in step S266, the process returns to step S248, and the processes of steps S248 to S262 are performed again. In this case, the standard deviation (b) is defined as the boundary fluctuation degree of the boundary point between the bright and dark boundary points when the variable q is 2, that is, the boundary fluctuation degree of the boundary point belonging to the second bright and dark boundary line from the lower side of FIG. 2) is calculated. When the calculation is completed, it is again determined as “No” in step S264, the variable q is incremented in step S266, and the process returns to step S248. Such a process is performed until the variable q increases by 1 until the variable q reaches the maximum value qmax and it is determined as “Yes” in step S264. As a result, standard deviation (1), standard deviation (2), standard deviation (3)... Standard deviation (qmax) are calculated as the degree of boundary fluctuation in all the light and dark boundary lines.

ステップS264にて「Yes」と判定されると、ステップS268に進み、前述した処理で計算された、境界変動度合である標準偏差(1)、標準偏差(2)、標準偏差(3)・・・標準偏差(qmax)の平均値が計算され、平均境界変動度合(n,m)として記憶されるとともに、表示装置54に表示される。そして、標準偏差(1)、標準偏差(2)、標準偏差(3)・・・標準偏差(qmax)の最大値が抽出され、最大境界変動度合(n,m)として記憶されるとともに、表示装置54に表示される。そして、ステップS270とステップS272にて、計算された平均境界変動度合(n,m)および最大境界変動度合(n,m)が許容値以下であるか判定され、許容値以下であれば、「Yes」と判定されてステップS274に進み、「正常」と表示装置54に表示する。一方、平均境界変動度合(n,m)および最大境界変動度合(n,m)のどちらかが許容値より大きければ、ステップS276へ進む。そして、ステップS276にて、境界変動度合である標準偏差(1)、標準偏差(2)、標準偏差(3)・・・標準偏差(qmax)の標準偏差が計算され、境界変動度合ばらつき(n,m)としてとして記憶されるとともに、表示装置54に表示される。そして、ステップS278にて、境界変動度合ばらつき(n,m)が設定値以上であるか判定される。設定値未満であれば、「No」と判定されてステップS280へ進む。この場合は境界変動度合である標準偏差はどの明と暗の境界ラインでも同程度の値であるということであるので、これは広い範囲に連続的に存在する欠陥であると判断される。そして、検査対象物がタッチパネル用平板OBであれば、そのような欠陥はオレンジピール欠陥であるので、ステップS280にて「オレンジピール欠陥」と表示装置54に表示される。一方、境界変動度合ばらつき(n,m)が設定値以上であれば、「Yes」と判定されてステップS282へ進む。この場合は、境界変動度合である標準偏差が大きい明と暗の境界ラインと、小さい明と暗の境界ラインがあるということであるので、これは局在的に存在する欠陥であると判断される。よって、ステップS282にて「局所的欠陥」と表示装置54に表示する。このように、表示装置54に「正常」、「オレンジピール欠陥」、「局所的欠陥」、のいずれかが表示されるとステップS284へ進み、サブプログラムの実行は終了する。   If “Yes” is determined in step S 264, the process proceeds to step S 268, and the standard deviation (1), standard deviation (2), standard deviation (3), which are the boundary fluctuation degrees, calculated in the above-described processing. The average value of the standard deviation (qmax) is calculated, stored as the average boundary fluctuation degree (n, m), and displayed on the display device 54. The maximum value of standard deviation (1), standard deviation (2), standard deviation (3)... Standard deviation (qmax) is extracted and stored as the maximum boundary fluctuation degree (n, m) and displayed. It is displayed on the device 54. Then, in step S270 and step S272, it is determined whether the calculated average boundary fluctuation degree (n, m) and maximum boundary fluctuation degree (n, m) are less than the allowable value. “Yes” is determined, and the process proceeds to step S 274 where “normal” is displayed on the display device 54. On the other hand, if either the average boundary fluctuation degree (n, m) or the maximum boundary fluctuation degree (n, m) is larger than the allowable value, the process proceeds to step S276. In step S276, the standard deviation of the standard deviation (1), standard deviation (2), standard deviation (3)... Standard deviation (qmax), which are the boundary fluctuation degrees, is calculated, and the boundary fluctuation degree variation (n , M) and displayed on the display device 54. In step S278, it is determined whether the boundary variation degree variation (n, m) is greater than or equal to a set value. If it is less than the set value, it is determined as “No” and the process proceeds to step S280. In this case, since the standard deviation, which is the degree of boundary fluctuation, is the same value for all light and dark boundary lines, it is determined that this is a defect that continuously exists in a wide range. If the inspection object is the flat panel OB for the touch panel, since such a defect is an orange peel defect, “orange peel defect” is displayed on the display device 54 in step S280. On the other hand, if the boundary variation degree variation (n, m) is equal to or larger than the set value, it is determined as “Yes” and the process proceeds to step S282. In this case, since there are light and dark boundary lines with a large standard deviation, which is the degree of boundary fluctuation, and a small light and dark boundary line, this is determined to be a locally existing defect. The Therefore, “local defect” is displayed on the display device 54 in step S282. As described above, when any one of “normal”, “orange peel defect”, and “local defect” is displayed on the display device 54, the process proceeds to step S284, and the execution of the subprogram ends.

サブプログラムの実行が終了すると、図7のフローのプログラムはステップS114からステップS116に進み、ステップS116にて「異常」判定があったか判定される。これは図8Aのフローのサブプログラムにおいて、ステップS214に進んで「異常」と判定されたかを判定するものである。「異常」判定があれば、「Yes」と判定されてステップS136に進む。この場合は、前述のように、カメラCが初期撮影位置にあるにもかかわらず、干渉縞が撮影されていないということであるので、ステップS136にて「測定不可」を表示し、ステップS138とステップS140にてカメラCの撮影停止と測定部1からの光照射を停止し、プログラムの実行を終了する。そして、作業者は測定ができない原因を調査する。一方、「異常」判定がなければ、「No」と判定されてステップS118へ進み、カメラCの撮影位置はX方向の最大位置まで行ったかを判定する。これは、後述するように、図8Aのフローのサブプログラムでは、カメラCの撮影位置がX方向の最大位置までいったことを検出する処理があり、その検出がされたかを判定するものである。この場合、カメラCは初期撮影位置にあるので「No」と判定されてステップS120へ進み、X方向の撮影位置を表す変数nがインクリメントされてステップS122へ進む。そして、ステップS122にてカメラCをn=2,m=1で表される撮影位置へ移動させ、ステップS110へ戻ってカメラCから画像データを取込み、前述した処理と同じ処理を実行する。   When the execution of the subprogram ends, the program of the flow of FIG. 7 proceeds from step S114 to step S116, and it is determined whether or not an “abnormal” determination has been made in step S116. In the subprogram of the flow of FIG. 8A, the process proceeds to step S214 to determine whether it is determined as “abnormal”. If there is an “abnormal” determination, the determination is “Yes” and processing proceeds to step S136. In this case, as described above, since the interference fringes are not photographed even though the camera C is in the initial photographing position, “measurement impossible” is displayed in step S136, and step S138 and In step S140, the photographing stop of the camera C and the light irradiation from the measuring unit 1 are stopped, and the execution of the program is ended. Then, the operator investigates the cause of the measurement failure. On the other hand, if there is no “abnormal” determination, it is determined “No” and the process proceeds to step S118, where it is determined whether or not the shooting position of the camera C has reached the maximum position in the X direction. As will be described later, in the subprogram of the flow of FIG. 8A, there is a process for detecting that the photographing position of the camera C has reached the maximum position in the X direction, and it is determined whether or not the detection has been performed. . In this case, since the camera C is at the initial shooting position, the determination is “No” and the process proceeds to step S120, and the variable n representing the shooting position in the X direction is incremented and the process proceeds to step S122. In step S122, the camera C is moved to the shooting position represented by n = 2 and m = 1, and the process returns to step S110 to capture image data from the camera C, and the same processing as described above is executed.

カメラCがn=2,m=1で表される撮影位置にあるときは、図8Aのフローのサブプログラムの処理は、カメラCがn=1,m=1で表される初期撮影位置にあるときと同じである。よって、ステップS118にて同様に「No」と判定され、ステップS120でn=3となって、ステップS122へ進み、カメラCはn=3,m=1で表される撮影位置に移動する。このように、カメラCの撮影位置は、変数nが1づつ増えるごとに、図4で示すようにX方向右側へ移動していく。そして図4ではn=4の場合になっているが、カメラCの撮影位置がX方向右側へ移動していくと、撮影画像の右側部分にタッチパネル用平板OB(干渉縞)が撮影されないときが発生する。この場合は、図8Aのフローのサブプログラムにおいて、ステップS234にて変数pをインクリメントしていくと、ステップS230において、「Yes」と判定される場合がある。すなわち、図6に示される変数pで表されるラインが右側に移動していくと、タッチパネル用平板OB(干渉縞)が撮影されない箇所では、微分曲線が所定値をクロスすることはなくなり、Y座標値(境界点)は0となってステップS230において、「Yes」と判定される。この場合は、ステップS238へ進み、撮影位置がX方向最大位置になったと判定する。そして、ステップS240にてpmaxに現在のpの値から1を引いた値を設定する。これは、pmaxを微分曲線が所定値をクロスしているライン(pで表されるラインでタッチパネル用平板OB(干渉縞)があるライン)の内、最大のpで設定する処理である。これ以外の図8のフローのサブプログラムにおける処理は、カメラCがn=1,m=1で表される初期撮影位置にあるときと同じである。   When the camera C is at the shooting position represented by n = 2 and m = 1, the processing of the subprogram in the flow of FIG. 8A is performed at the initial shooting position represented by n = 1 and m = 1. Same as there are. Accordingly, “No” is similarly determined in step S118, n = 3 in step S120, and the process proceeds to step S122. The camera C moves to the photographing position represented by n = 3 and m = 1. In this way, the photographing position of the camera C moves to the right in the X direction as shown in FIG. 4 every time the variable n increases by one. In FIG. 4, n = 4, but when the shooting position of the camera C moves to the right in the X direction, the touch panel flat plate OB (interference fringes) may not be shot on the right side of the shot image. Occur. In this case, if the variable p is incremented in step S234 in the subprogram of the flow of FIG. 8A, “Yes” may be determined in step S230. That is, when the line represented by the variable p shown in FIG. 6 moves to the right, the differential curve does not cross the predetermined value at a location where the touch panel flat plate OB (interference fringes) is not photographed. The coordinate value (boundary point) becomes 0, and “Yes” is determined in step S230. In this case, the process proceeds to step S238, and it is determined that the shooting position is the maximum position in the X direction. In step S240, a value obtained by subtracting 1 from the current value of p is set as pmax. This is a process of setting pmax at the maximum p among the lines where the differential curve crosses a predetermined value (the line represented by p and the touch panel flat plate OB (interference fringes)). The other processes in the subprogram of the flow of FIG. 8 are the same as when the camera C is at the initial photographing position represented by n = 1 and m = 1.

前述のように、図8Aのフローのサブプログラムで、撮影位置がX方向最大位置になったことが検出されると、図7のフローのプログラムのステップS110〜S122のループ処理において、ステップS118にて「Yes」と判定され、S124にてカメラCの撮影位置はY方向の最大位置まで行ったかを判定する。これは、後述するように、図8Aのフローのサブプログラムでは、カメラCの撮影位置がY方向の最大位置までいったことを検出する処理もあり、その検出がされたかを判定するものである。この場合、カメラCはX方向最大位置にあってもY方向最大位置にはないので「No」と判定されてステップS126へ進み、Y方向の撮影位置を表す変数mがインクリメントされて「2」となってステップS128へ進み、X方向の撮影位置を表す変数nが「1」に設定される。そして、ステップS128からステップS122へ進むことで、ステップS110〜S122のループ処理に戻る。この時点でn=1,m=2となっているので、カメラCの撮影位置は図4に示すように初期撮影位置の1つ上側の撮影位置にある。そして、ステップS110〜S122のループ処理を繰り返すことで、カメラCの撮影位置は初期撮影位置の1つ上側の撮影位置から右方向に移動していき、それぞれの撮影位置で前述した処理を行う。撮影位置がX方向最大位置になった場合の処理は、m=1のときに撮影位置がX方向最大位置になった場合の処理と同じである。   As described above, when it is detected by the subprogram of the flow of FIG. 8A that the photographing position has reached the maximum position in the X direction, in the loop processing of steps S110 to S122 of the program of the flow of FIG. In step S124, it is determined whether the shooting position of the camera C has reached the maximum position in the Y direction. As will be described later, in the subprogram of the flow of FIG. 8A, there is a process for detecting that the photographing position of the camera C has reached the maximum position in the Y direction, and it is determined whether or not the detection has been performed. . In this case, since the camera C is at the maximum position in the X direction but not at the maximum position in the Y direction, the determination is “No” and the process proceeds to step S126, and the variable m indicating the shooting position in the Y direction is incremented to “2”. Then, the process proceeds to step S128, and the variable n representing the photographing position in the X direction is set to “1”. Then, by proceeding from step S128 to step S122, the process returns to the loop process of steps S110 to S122. Since n = 1 and m = 2 at this time, the shooting position of the camera C is one higher than the initial shooting position as shown in FIG. Then, by repeating the loop processing of steps S110 to S122, the shooting position of the camera C moves rightward from the shooting position one above the initial shooting position, and the above-described processing is performed at each shooting position. The process when the shooting position is the maximum position in the X direction is the same as the process when the shooting position is the maximum position in the X direction when m = 1.

そして、撮影位置がX方向最大位置になったことが検出されるごとに、mはインクリメントされ、nは「1」に設定されるので、カメラCの撮影位置は、X方向最大位置になるごとにX方向は初期撮影位置と同じ位置に戻り、Y方向は上側に移動していく。そして図4ではm=3の場合になっているが、カメラCの撮影位置がY方向上側へ移動していくと、撮影画像の上側部分にタッチパネル用平板OB(干渉縞)が撮影されないときが発生する。この場合は、図8Aのフローのサブプログラムにおいて、ステップS242にて変数p=1に対応するライン(最も左側のライン)におけるY座標値(境界点)の数(微分曲線が設定値をクロスする数)が、所定数C(Y方向において撮影画面すべてに干渉縞があるときのY座標値の数)より小さくなるので、「Yes」と判定されてステップS244へ進み、撮影位置がY方向最大位置になったと判定する。それ以外の処理は、前述した処理と同じである。ただし、撮影位置がY方向最大位置になったことが検出されても、図7のフローのプログラムではステップS118にて撮影位置がX方向最大位置になって「Yes」と判定されない限りは、ステップS110〜S122のループ処理は変更されない。そして、撮影位置がX方向最大位置かつY方向最大位置になると、図8Aのフローのサブプログラムにおいて、撮影位置がX方向Y方向とも最大位置になったことが検出される。これにより、図8A,図8Bのフローのサブプログラムの終了後、図7のフローのプログラムでは、ステップS118にて「Yes」、ステップS124にて「Yes」と判定されて、ステップS110〜S122のループ処理から抜け出てS130へ進む。   Each time it is detected that the shooting position is the maximum position in the X direction, m is incremented and n is set to “1”, so that the shooting position of the camera C becomes the maximum position in the X direction. The X direction returns to the same position as the initial shooting position, and the Y direction moves upward. In FIG. 4, m = 3, but when the shooting position of the camera C moves upward in the Y direction, the touch panel flat plate OB (interference fringes) may not be shot on the upper part of the shot image. Occur. In this case, in the subprogram of the flow of FIG. 8A, the number of Y coordinate values (boundary points) in the line (leftmost line) corresponding to the variable p = 1 in step S242 (the differential curve crosses the set value). Number) is smaller than a predetermined number C (the number of Y coordinate values when there are interference fringes in all of the shooting screens in the Y direction). Therefore, the determination is “Yes” and the process proceeds to step S244, where the shooting position is the maximum in the Y direction. It is determined that the position has been reached. Other processes are the same as those described above. However, even if it is detected that the shooting position has reached the maximum position in the Y direction, the program of the flow in FIG. 7 will be used unless the shooting position has become the maximum position in the X direction and it is determined “Yes” in step S118. The loop processing of S110 to S122 is not changed. When the shooting position becomes the maximum position in the X direction and the maximum position in the Y direction, it is detected in the subprogram of the flow in FIG. 8A that the shooting position is the maximum position in both the X direction and the Y direction. Thereby, after the subprogram of the flow of FIG. 8A and FIG. 8B ends, in the program of the flow of FIG. 7, “Yes” is determined in step S118 and “Yes” in step S124, and steps S110 to S122 are performed. Exit from the loop process and proceed to S130.

なお、図4に示すように、カメラCの撮影位置がX方向やY方向において最大位置になったときに、カメラCの撮影画面内にタッチパネル用平板OB(干渉縞)が撮影されていれば問題はない。しかし、タッチパネル用平板OBの横方向長さおよび縦方向長さが、カメラCの撮影領域の横方向長さおよび縦方向長さで割り切れる場合は、前述した処理ではX方向およびY方向における最大位置を検出することはできない。これは、撮影位置が最大位置になってもそれ以外の撮影位置の場合と撮影画面が変わらず、撮影位置がその位置からX方向またはY方向に移動すると、撮影画面にはタッチパネル用平板OB(干渉縞)は撮影されなくなってしまうためである。この場合におけるX方向およびY方向の最大位置検出(正確には最大位置を通り過ぎたことの検出)のため、図8AのフローのサブプログラムにはステップS208〜S218の処理がある。すなわち、撮影画面の最も左側のライン(p=1に対応するライン)で干渉縞が検出されない場合はステップS208にて「No」と判定されてステップS210へ進むが、初期撮影位置(n=1,m=1のとき)で「No」と判定されたときは、前述のように、何らかの異常である。しかし、初期撮影位置ではない撮影位置で「No」と判定されたときは、撮影位置が最大位置を通り過ぎて撮影画面にタッチパネル用平板OB(干渉縞)が撮影されていない可能性が極めて高い。よって、n=1ではないときに「No」と判定された場合は、mの値にかかわらず、ステップS210からステップS218へ進み、撮影位置がX方向最大位置であると判定する。また、n=1であってm=1ではないときに「No」と判定された場合は、ステップS210、ステップS212、ステップS216と進み、ステップS216およびステップS218にて撮影位置はY方向,X方向とも最大位置であると判定する。この場合、実際の撮影位置は最大位置の隣の撮影位置になっているが、ステップS208で「No」と判定されたときは、前述した判定の後、図8Aのフローのサブプログラムは終了し、図7のフローのステップS116へ進むので、直ぐに次の撮影位置へカメラCを移動させることができる。または、直ぐにステップS110〜S122のループ処理を終了し、ステップS130へ進むことができる。よって、時間的なロスは殆どない。   As shown in FIG. 4, if the touch panel flat plate OB (interference fringes) is photographed in the photographing screen of the camera C when the photographing position of the camera C reaches the maximum position in the X direction or the Y direction. No problem. However, when the horizontal length and the vertical length of the flat plate OB for the touch panel are divisible by the horizontal length and the vertical length of the shooting area of the camera C, the maximum position in the X direction and the Y direction in the above-described processing. Cannot be detected. This is because even if the shooting position reaches the maximum position, the shooting screen does not change from the other shooting positions, and when the shooting position moves in the X direction or Y direction from that position, the touch screen flat plate OB ( This is because the (interference fringes) are not photographed. In order to detect the maximum position in the X direction and the Y direction in this case (exactly, detection of having passed the maximum position), the subprogram of the flow in FIG. 8A includes the processes of steps S208 to S218. That is, if no interference fringe is detected on the leftmost line (line corresponding to p = 1) on the shooting screen, “No” is determined in step S208, and the process proceeds to step S210, but the initial shooting position (n = 1). , When m = 1), when “No” is determined, as described above, there is some abnormality. However, when it is determined “No” at the shooting position that is not the initial shooting position, it is highly likely that the touch panel flat plate OB (interference fringes) has not been shot on the shooting screen because the shooting position has passed the maximum position. Accordingly, if “No” is determined when n = 1, the process proceeds from step S210 to step S218 regardless of the value of m, and the imaging position is determined to be the maximum position in the X direction. If it is determined “No” when n = 1 and m = 1, the process proceeds to step S210, step S212, and step S216. In steps S216 and S218, the shooting position is set in the Y direction, X It is determined that the direction is the maximum position. In this case, the actual shooting position is the shooting position next to the maximum position. However, if “No” is determined in step S208, the subprogram of the flow in FIG. 8A ends after the above-described determination. Since the process proceeds to step S116 in the flow of FIG. 7, the camera C can be immediately moved to the next shooting position. Alternatively, the loop process of steps S110 to S122 can be finished immediately and the process can proceed to step S130. Therefore, there is almost no time loss.

ステップS130へ進んだ段階では、カメラCのすべての撮影位置において、「正常」、「オレンジピール欠陥」、「局所的欠陥」、のいずれかの判定結果が表示装置54に表示されている。ステップS130では、すべての撮影位置において正常であるか否かを判定する。正常である場合は「Yes」と判定してステップS130にて「合格」を表示装置54に表示する。一方、1つでも「オレンジピール欠陥」または「局所的欠陥」と判定された撮影位置がある場合は、「不合格」を表示装置54に表示する。この表示の後、ステップS138とステップS140にてカメラCの撮影停止と測定部1からの光照射を停止し、プログラムの実行を終了する。作業者は、表示された検査結果を見て、検査したタッチパネル用平板OBを相応の場所に移し、次の検査対照のタッチパネル用平板OBをステージ2にセットして、前述した操作によりふたたびコントローラ50に上述したプログラムを実行させる。なお、「不合格」と判定され、その原因が撮影位置にいずれかに「局所的欠陥」がある場合のときは、タッチパネル用平板OBの表面に異物の付着がある可能性がある。よって、作業者は記憶されている微分画像を表示して、異物の付着か否かを判断し、異物の付着の可能性が高いと判断した時は、表面を清掃した後、再度検査を行うようにしてもよい。   At the stage of proceeding to step S130, the determination result of “normal”, “orange peel defect”, or “local defect” is displayed on the display device 54 at all the photographing positions of the camera C. In step S130, it is determined whether or not all photographing positions are normal. If it is normal, “Yes” is determined and “pass” is displayed on the display device 54 in step S130. On the other hand, if there is any photographing position determined as “orange peel defect” or “local defect”, “fail” is displayed on the display device 54. After this display, in step S138 and step S140, the photographing stop of the camera C and the light irradiation from the measurement unit 1 are stopped, and the execution of the program is ended. The operator looks at the displayed inspection result, moves the inspected touch panel flat plate OB to a corresponding place, sets the next touch panel for test touch panel OB on the stage 2, and again performs the controller 50 by the above-described operation. Causes the program described above to be executed. In addition, when it is determined as “fail” and the cause is “local defect” in any of the photographing positions, there is a possibility that foreign matter may adhere to the surface of the touch panel flat plate OB. Therefore, the operator displays the stored differential image, determines whether or not foreign matter is attached, and when it is determined that the possibility of foreign matter attachment is high, the surface is cleaned and then inspected again. You may do it.

上記のように動作する透光性物体検査装置の実施形態によれば、タッチパネル用平板OBに測定部1から光を照射し、タッチパネル用平板OBからの反射光をカメラCで受光して、カメラCが出力する画像データを基にコントローラ50で作成した画像には、干渉縞作成部20によりレーザ光源10から照射されたレーザ光を干渉させているため干渉縞が生じる。タッチパネル用平板OBのガラス基板と透明電極層との間にオレンジピール欠陥が存在しても、この干渉縞の画像はオレンジピール欠陥が存在しない場合と比較して大きな差は現れない。しかし、オレンジピール欠陥が存在する場合は、干渉縞の画像の微分画像には大きな差が現れる。具体的には、明部と暗部の縞からなる微分画像における明部と暗部の境界は直線から大きくずれる。よって、コントローラ50でのプログラム処理により、画像データを用いて微分した微分データをそれぞれの画素ごとに計算し、同様にコントローラ50でのプログラム処理により、干渉縞のラインの直角方向における微分値の変化曲線において予め設定した値のラインをクロスする箇所を境界点として検出し、検出した境界点を干渉縞のライン方向における同一の境界である群ごとにまとめ、まとめた群ごとに境界点の直線からのずれを境界変動度合として計算すれば、計算した値が閾値を超えるか否かにより、オレンジピール欠陥を精度よく検出することができる。   According to the embodiment of the translucent object inspection apparatus that operates as described above, the touch panel flat plate OB is irradiated with light from the measurement unit 1, and the reflected light from the touch panel flat plate OB is received by the camera C. In the image created by the controller 50 based on the image data output by C, interference fringes are generated because the interference fringe creation unit 20 interferes with the laser light emitted from the laser light source 10. Even if an orange peel defect exists between the glass substrate of the flat plate OB for the touch panel and the transparent electrode layer, the interference fringe image does not show a great difference compared to the case where the orange peel defect does not exist. However, when an orange peel defect exists, a large difference appears in the differential image of the interference fringe image. Specifically, the boundary between the bright part and the dark part in the differential image composed of the stripes of the bright part and the dark part greatly deviates from the straight line. Therefore, the differential data differentiated using the image data is calculated for each pixel by the program processing in the controller 50, and similarly, the change in the differential value in the direction perpendicular to the line of the interference fringes is calculated by the program processing in the controller 50. Detects a point that crosses a preset value line in the curve as a boundary point, summarizes the detected boundary points into groups that are the same boundary in the line direction of the interference fringes, and from the straight line of the boundary points for each group If the deviation is calculated as the degree of boundary fluctuation, an orange peel defect can be detected with high accuracy depending on whether or not the calculated value exceeds a threshold value.

また、上記のように動作する透光性物体検査装置の実施形態によれば、タッチパネル用平板OBのガラス基板と透明電極層との間に存在する可能性のあるオレンジピール欠陥を、局在する欠陥および表面に付着している異物と区別したうえで検出することができる。すなわち、タッチパネル用平板OBの表面やタッチパネル用平板OBのガラス基板と透明電極層との間に局在する欠陥がある場合や、タッチパネル用平板OBの表面に異物の付着がある場合でも、コントローラ50でのプログラム処理により計算された境界変動度合の値は大きくなる可能性がある。しかし、局在する欠陥や異物の付着は連続していないため、境界変動度合のばらつきは、オレンジピール欠陥に対して差がでる。すなわち、オレンジピール欠陥の場合は境界変動度合のばらつきは小さく、局在する欠陥や異物の付着の場合は境界変動度合のばらつきは大きくなる。よって、コントローラ50でのプログラム処理により境界変動度合のばらつきを計算すれば、境界変動度合と境界変動度合のばらつきとを用いて判定することで、オレンジピール欠陥を、局在する欠陥および表面に付着している異物と区別したうえで検出することができる。   Further, according to the embodiment of the translucent object inspection device that operates as described above, the orange peel defect that may exist between the glass substrate of the touch panel flat plate OB and the transparent electrode layer is localized. It can be detected after being distinguished from defects and foreign matter adhering to the surface. That is, even when there is a defect localized between the surface of the touch panel flat plate OB, the glass substrate of the touch panel flat plate OB, and the transparent electrode layer, or when there is foreign matter attached to the surface of the touch panel flat plate OB, the controller 50. There is a possibility that the value of the boundary fluctuation degree calculated by the program processing in will increase. However, since the attachment of localized defects and foreign substances is not continuous, the variation in the degree of boundary fluctuation differs from the orange peel defect. That is, the variation in the boundary variation degree is small in the case of an orange peel defect, and the variation in boundary variation degree is large in the case of adhesion of a localized defect or a foreign substance. Therefore, if the variation of the boundary variation degree is calculated by the program processing in the controller 50, the orange peel defect is attached to the localized defect and the surface by determining using the boundary variation degree and the variation of the boundary variation degree. It can be detected after distinguishing it from foreign objects.

また、上記のように動作する透光性物体検査装置の実施形態によれば、画像データを微分したデータを基に作成した画像を表示しているため、表示された画像を見ることでもオレンジピール欠陥を検出することができる。また、オレンジピール欠陥と、局在する欠陥および表面に付着している異物とでは、画像データを微分したデータを基に作成した画像に大きな違いがあるので、オレンジピール欠陥を、局在する欠陥および表面に付着している異物とを区別したうえで検出することもできる。   In addition, according to the embodiment of the translucent object inspection device that operates as described above, an image created based on data obtained by differentiating image data is displayed. Defects can be detected. In addition, there is a big difference in the images created based on the differentiated image data between the orange peel defect and the localized defect and foreign matter adhering to the surface. It is also possible to detect the foreign matter adhering to the surface while distinguishing it.

以上、本発明の実施形態について説明したが、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変形も可能である。   The embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the object of the present invention.

上記実施形態では、カメラCの撮影領域を移動させて、タッチパネル用平板OBのすべての領域においてカメラCから取り込んだ画像データを処理して、撮影領域ごとに欠陥の有無を判定した。しかし、オレンジピール欠陥は殆どの場合において広い範囲において発生するので、これに代えてタッチパネル用平板OBの中央部分の1箇所のみをカメラCで撮影し、画像データを処理して、欠陥の有無を判定するようにしてもよい。   In the above embodiment, the imaging area of the camera C is moved, the image data captured from the camera C is processed in all areas of the touch panel flat plate OB, and the presence / absence of a defect is determined for each imaging area. However, since the orange peel defect occurs in a wide range in most cases, instead of this, only one central portion of the touch panel flat plate OB is photographed with the camera C, the image data is processed, and the presence or absence of the defect is detected. You may make it determine.

また、上記実施形態では、境界ラインの座標点群の直線からのずれの度合いを、各座標点の直線からのずれを偏差とみなして標準偏差を計算することで求めた。しかし、直線からのずれを表す値であれば、標準偏差に代えてどのような値を計算してもよい。例えば、分散、平均偏差を計算してもいいし、最小2乗法により回帰式を計算した時に合わせて相関係数を計算し、これを用いるようにしてもよい。   Further, in the above-described embodiment, the degree of deviation of the boundary line from the straight line of the coordinate point group is obtained by calculating the standard deviation by regarding the deviation from the straight line of each coordinate point as a deviation. However, any value may be calculated in place of the standard deviation as long as it represents a deviation from the straight line. For example, the variance and the average deviation may be calculated, or the correlation coefficient may be calculated in accordance with the regression equation calculated by the least square method and used.

また、上記実施形態では、境界ラインの座標点群の直線からのずれの度合いを、境界変動度合として計算し、境界変動度合が許容値を超える場合は境界変動度合のばらつきを計算し、欠陥がオレンジピール欠陥か、局所的な欠陥または異物付着かを判定するようにした。しかし、局所的な欠陥または異物付着の発生確率が極めて低ければ、境界変動度合のみを計算し、この値が許容値を超える場合は、オレンジピール欠陥が存在すると判定するようにしてもよい。   Further, in the above embodiment, the degree of deviation from the straight line of the coordinate point group of the boundary line is calculated as the boundary fluctuation degree, and when the boundary fluctuation degree exceeds the allowable value, the variation of the boundary fluctuation degree is calculated, and the defect is detected. Whether it was an orange peel defect, a local defect or a foreign matter adhesion was determined. However, if the probability of occurrence of local defects or foreign matter adhesion is extremely low, only the boundary fluctuation degree may be calculated, and if this value exceeds the allowable value, it may be determined that an orange peel defect exists.

また、上記実施形態では、直角のあるプリズムの直角に対向する面と板状ガラスの表面とを平行から僅かにずらした干渉縞作成部により、タッチパネル用平板で反射した光を受光した箇所に干渉縞が発生するようにした。しかし、タッチパネル用平板で反射した光を受光した箇所に干渉縞が発生するようにできれば、干渉縞作成部はどのような構成のものでもよい。例えばスリットを複数設けたものでもよいし、回折格子を用いてもよい。   Moreover, in the said embodiment, the interference fringe preparation part which shifted | deviated from the parallel right-angled surface and the surface of a sheet glass slightly from the parallel interferes with the location which received the light reflected by the flat plate for touchscreens. Stripes were generated. However, the interference fringe creation unit may have any configuration as long as interference fringes can be generated at locations where the light reflected by the touch panel flat plate is received. For example, a plurality of slits may be provided, or a diffraction grating may be used.

また、上記実施形態では、透光性物体検査装置で検査する透光性物体をタッチパネル用平板にした。しかし、薄い板状物体を張り合わせて形成された透光性物体または複数の層から形成された板状の透光性物体の板状物体間または層間に存在する欠陥の検査であれば、透光性物体はどのようなものであってもよい。   Moreover, in the said embodiment, the translucent object test | inspected with a translucent object inspection apparatus was made into the flat plate for touch panels. However, for inspection of defects existing between or between layers of translucent objects formed by laminating thin plate objects or plate-shaped translucent objects formed from multiple layers, The sex object may be anything.

1…測定部、2…ステージ、3…基台、C…カメラ、OB…タッチパネル用平板、10…レーザ光源、12…コリメーティングレンズ、14,16…エキスパンダーレンズ、18…レーザ径調整用リング、20…干渉縞作成部、22…プリズム、24…板状ガラス、26,28…突起、30…カメラ移動機構部、31…支持台、32…移動体、33…Y方向スクリューロッド、34…Y方向モータ、35…支持台、36…X方向モータ、40…レーザ駆動回路、42…X方向移動位置検出回路、44…X方向モータ駆動回路、46…Y方向移動位置検出回路、48…Y方向モータ駆動回路、50…コントローラ、52…入力装置、54…表示装置
DESCRIPTION OF SYMBOLS 1 ... Measuring part, 2 ... Stage, 3 ... Base, C ... Camera, OB ... Touch panel flat plate, 10 ... Laser light source, 12 ... Collimating lens, 14, 16 ... Expander lens, 18 ... Laser diameter adjustment ring , 20 ... interference fringe creation section, 22 ... prism, 24 ... plate glass, 26 and 28 ... projection, 30 ... camera moving mechanism section, 31 ... support base, 32 ... moving body, 33 ... Y-direction screw rod, 34 ... Y direction motor, 35 ... support base, 36 ... X direction motor, 40 ... laser drive circuit, 42 ... X direction movement position detection circuit, 44 ... X direction motor drive circuit, 46 ... Y direction movement position detection circuit, 48 ... Y Direction motor drive circuit, 50 ... controller, 52 ... input device, 54 ... display device

Claims (4)

薄い板状物体を張り合わせて形成された透光性物体、または複数の層から形成された板状の透光性物体に、前記透光性物体の表面および内部から反射光が生じるように光を照射する光照射手段と、
前記透光性物体からの反射光を受光器で受光して、それぞれの受光箇所の受光強度を明度にした受光画像データを作成する画像データ作成手段とを備え、
前記画像データ作成手段により作成された受光画像データを解析処理することにより、前記透光性物体の薄い板状物体間、または層間に存在する欠陥の有無を検査する透光性物体の検査装置において、
前記光照射手段から照射された光が前記透光性物体に照射される前に、前記光照射手段から照射された光を干渉させ、前記画像データ作成手段により作成された受光画像データにより画像を作成したとき、画像に干渉縞が生じるようにする干渉手段と、
前記受光器のそれぞれの受光箇所における受光画像データを、前記それぞれの受光箇所の周囲の受光箇所における受光画像データを用いて微分した微分値を、前記それぞれの受光箇所ごとに計算する微分データ計算手段と、
前記干渉縞のライン方向に予め設定した間隔で定めた前記干渉縞のラインに直角な複数のラインの受光箇所ごとに、前記微分データ計算手段により計算された微分値から作成した変化曲線において、予め設定した値のラインをクロスする箇所を境界点として検出し、前記検出した境界点を前記干渉縞のライン方向における同一の境界である群ごとにまとめ、前記まとめた群ごとに前記境界点の直線からのずれを境界変動度合として計算する境界変動度合計算手段と、
前記境界変動度合計算手段により計算された群ごとの境界変動度合と予め設定されている許容値とを比較し、前記欠陥の有無を判定する第1の判定手段と、
前記第1の判定手段により欠陥有りの判定がされたとき、前記境界変動度合計算手段により計算された群ごとの境界変動度合を変数として境界変動度合のばらつきを計算するばらつき計算手段と、
前記ばらつき計算手段により計算された境界変動度合のばらつきと、予め設定されている設定値とを比較し、前記欠陥が所定の範囲以上に連続的に存在する凹凸の欠陥か否かを判定する第2の判定手段と
を備えたことを特徴とする透光性物体の検査装置。
Light is applied to a translucent object formed by laminating thin plate-like objects or a plate-like translucent object formed of a plurality of layers so that reflected light is generated from the surface and inside of the translucent object. Light irradiation means for irradiating;
Receiving the reflected light from the translucent object with a photoreceiver, and comprising image data creating means for creating received light image data with the light receiving intensity of each light receiving location as brightness,
In a translucent object inspection apparatus that inspects for the presence or absence of defects existing between thin plate-like objects or between layers of the translucent object by analyzing the received light image data created by the image data creating means ,
Before the light irradiated from the light irradiating means is irradiated onto the translucent object, the light irradiated from the light irradiating means is caused to interfere, and an image is formed by the received light image data generated by the image data generating means. Interference means for creating interference fringes in the image when created;
Differential data calculation means for calculating a differential value obtained by differentiating the received light image data at each light receiving location of the light receiver using the received light image data at the light receiving locations around the respective light receiving locations for each of the light receiving locations. When,
In the change curve created from the differential value calculated by the differential data calculation means for each of the light receiving points of a plurality of lines perpendicular to the interference fringe line determined at a predetermined interval in the line direction of the interference fringe, Detecting a point that crosses a set value line as a boundary point, collecting the detected boundary point into groups that are the same boundary in the line direction of the interference fringes, and straight lines of the boundary points for each group Boundary variation degree calculation means for calculating a deviation from the boundary variation degree;
A first determination unit that compares the boundary variation degree for each group calculated by the boundary variation degree calculation unit with a preset allowable value and determines the presence or absence of the defect;
When the first determination unit determines that there is a defect, a variation calculation unit that calculates the variation of the boundary variation degree using the boundary variation degree of each group calculated by the boundary variation degree calculation unit as a variable;
The variation of the boundary fluctuation degree calculated by the variation calculating means is compared with a preset set value to determine whether the defect is an uneven defect continuously existing in a predetermined range or more. An inspection apparatus for translucent objects, comprising: 2 determination means.
前記微分データ計算手段により計算されたそれぞれの受光箇所ごとの微分値を、明度に変換した微分画像データを作成し、前記微分画像データにより作成された画像を作成して表示することを特徴とする請求項1に記載の透光性物体の検査装置。   Creating differential image data obtained by converting the differential value for each light receiving location calculated by the differential data calculation means into lightness, and creating and displaying an image created from the differential image data. The translucent object inspection apparatus according to claim 1. 前記透光性物体は、少なくとも透明基板上に透明電極の層が形成されたタッチパネルであり、検査する欠陥は透明基板と透明電極の層の間に、所定の範囲以上に連続的に存在する凹凸であることを特徴とする請求項1または請求項2に記載の透光性物体の検査装置。   The translucent object is a touch panel in which a transparent electrode layer is formed on at least a transparent substrate, and the defect to be inspected is unevenness continuously existing in a predetermined range or more between the transparent substrate and the transparent electrode layer. The translucent object inspection apparatus according to claim 1, wherein the inspection apparatus is a transparent object. 薄い板状物体を張り合わせて形成された透光性物体、または複数の層から形成された板状の透光性物体に、前記透光性物体の表面および内部から反射光が生じるように光を照射する光照射ステップと、
前記透光性物体からの反射光を受光器で受光して、それぞれの受光箇所の受光強度を明度にした受光画像データを作成する画像データ作成ステップとを備え、
前記画像データ作成ステップにて作成された受光画像データを解析処理することにより、前記透光性物体の薄い板状物体間、または層間に存在する欠陥の有無を検査する透光性物体の検査方法において、
前記光照射ステップにて前記透光性物体に照射される光は、前記透光性物体に照射される前に干渉され、前記画像データ作成ステップにて作成された受光画像データにより画像を作成したとき、画像に干渉縞が生じるようにする光であり、
前記受光器のそれぞれの受光箇所における受光画像データを、前記それぞれの受光箇所の周囲の受光箇所における受光画像データを用いて微分した微分値を、前記それぞれの受光箇所ごとに計算する微分データ計算ステップと、
前記干渉縞のライン方向に予め設定した間隔で定めた前記干渉縞のラインに直角な複数のラインの受光箇所ごとに、前記微分データ計算ステップにより計算された微分値から作成した変化曲線において、予め設定した値のラインをクロスする箇所を境界点として検出し、前記検出した境界点を前記干渉縞のライン方向における同一の境界である群ごとにまとめ、前記まとめた群ごとに前記境界点の直線からのずれを境界変動度合として計算する境界変動度合計算ステップと、
前記境界変動度合計算ステップにより計算された群ごとの境界変動度合と予め設定されている許容値とを比較し、前記欠陥の有無を判定する第1の判定ステップと、
前記第1の判定ステップにより欠陥有りの判定がされたとき、前記境界変動度合計算ステップにより計算された群ごとの境界変動度合を変数として境界変動度合のばらつきを計算するばらつき計算ステップと、
前記ばらつき計算ステップにより計算された境界変動度合のばらつきと、予め設定されている設定値とを比較し、前記欠陥が所定の範囲以上に連続的に存在する凹凸の欠陥か否かを判定する第2の判定ステップと
を備えたことを特徴とする透光性物体の検査方法。
Light is applied to a translucent object formed by laminating thin plate-like objects or a plate-like translucent object formed of a plurality of layers so that reflected light is generated from the surface and inside of the translucent object. A light irradiation step for irradiating;
Receiving the reflected light from the translucent object with a light receiver, and creating received light image data in which the received light intensity of each light receiving location is light, and an image data creation step,
Translucent object inspection method for inspecting for presence or absence of defects existing between thin plate-like objects or between layers of the translucent object by analyzing the received light image data created in the image data creating step In
The light applied to the translucent object in the light irradiation step is interfered before being applied to the translucent object, and an image is created from the received light image data created in the image data creation step. Is light that causes interference fringes to appear in the image,
Differential data calculation step of calculating a differential value obtained by differentiating the received light image data at each light receiving location of the light receiver using the received light image data at the light receiving locations around the respective light receiving locations for each of the light receiving locations. When,
In the change curve created from the differential value calculated by the differential data calculation step for each of the light receiving points of a plurality of lines perpendicular to the line of the interference fringe determined at a predetermined interval in the line direction of the interference fringe, Detecting a point that crosses a set value line as a boundary point, collecting the detected boundary point into groups that are the same boundary in the line direction of the interference fringes, and straight lines of the boundary points for each group A boundary variation degree calculation step for calculating a deviation from the boundary variation degree;
A first determination step of comparing the boundary variation degree for each group calculated in the boundary variation degree calculation step with a preset allowable value and determining the presence or absence of the defect;
When it is determined that there is a defect in the first determination step, a variation calculation step for calculating a variation in the boundary variation degree using the boundary variation degree for each group calculated in the boundary variation degree calculation step as a variable;
The variation of the boundary variation degree calculated in the variation calculation step is compared with a preset set value to determine whether or not the defect is an uneven defect continuously existing in a predetermined range or more. 2 judgment steps
A method for inspecting a translucent object, comprising:
JP2012110179A 2012-05-14 2012-05-14 Translucent object inspection apparatus and translucent object inspection method Expired - Fee Related JP6132126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012110179A JP6132126B2 (en) 2012-05-14 2012-05-14 Translucent object inspection apparatus and translucent object inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012110179A JP6132126B2 (en) 2012-05-14 2012-05-14 Translucent object inspection apparatus and translucent object inspection method

Publications (2)

Publication Number Publication Date
JP2013238436A JP2013238436A (en) 2013-11-28
JP6132126B2 true JP6132126B2 (en) 2017-05-24

Family

ID=49763602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012110179A Expired - Fee Related JP6132126B2 (en) 2012-05-14 2012-05-14 Translucent object inspection apparatus and translucent object inspection method

Country Status (1)

Country Link
JP (1) JP6132126B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3412366B2 (en) * 1995-11-06 2003-06-03 日産自動車株式会社 Coating smoothness inspection device
FR2914422B1 (en) * 2007-03-28 2009-07-03 Soitec Silicon On Insulator METHOD FOR DETECTING SURFACE DEFECTS OF A SUBSTRATE AND DEVICE USING THE SAME
JP5485889B2 (en) * 2007-08-17 2014-05-07 レニショウ パブリック リミテッド カンパニー Apparatus and method for performing phase analysis measurement
JP2010175283A (en) * 2009-01-27 2010-08-12 Kokusai Gijutsu Kaihatsu Co Ltd Device for producing plane image
JP4994413B2 (en) * 2009-04-01 2012-08-08 日東電工株式会社 Double-sided pressure-sensitive adhesive sheet, method for producing double-sided pressure-sensitive adhesive sheet, pressure-sensitive adhesive optical functional film, and pressure-sensitive adhesive hard coat film

Also Published As

Publication number Publication date
JP2013238436A (en) 2013-11-28

Similar Documents

Publication Publication Date Title
US7495758B2 (en) Apparatus and methods for two-dimensional and three-dimensional inspection of a workpiece
US9279662B2 (en) Laser scanner
CN106168466A (en) global image detection system and detection method thereof
JP5385703B2 (en) Inspection device, inspection method, and inspection program
WO2016208622A1 (en) Surface defect detection apparatus and surface defect detection method
TW201113786A (en) Touch sensor apparatus and touch point detection method
TW201926247A (en) Defect inspection method and defect inspection system
JP5913903B2 (en) Shape inspection method and apparatus
JP2006010392A (en) Through hole measuring system, method, and through hole measuring program
JP5923054B2 (en) Shape inspection device
US20210278347A1 (en) Machine direction line film inspection
EP4009273A1 (en) Cloud-to-cloud comparison using artificial intelligence-based analysis
TWI568989B (en) Full-range image detecting system and method thereof
US20220092345A1 (en) Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison
JP5686012B2 (en) Surface defect inspection apparatus and method
US20110043484A1 (en) Apparatus for detecting a touching position on a flat panel display and a method thereof
TW201323859A (en) Surface defect detecting device and measuring method thereof
JP6132126B2 (en) Translucent object inspection apparatus and translucent object inspection method
JP2011169816A (en) Device for measuring junction inclination of semiconductor device
JP2020106295A (en) Sheet defect inspection device
WO2020199206A1 (en) Transparent or semi-transparent material microscopic-defect detection system and method
JP2015503110A (en) Sensor for measuring surface non-uniformity
US20210072019A1 (en) Image analysis device, analyis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program
JP5367292B2 (en) Surface inspection apparatus and surface inspection method
CN103471505B (en) The detection method of via hole and pick-up unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170405

R150 Certificate of patent or registration of utility model

Ref document number: 6132126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees