JP2007298376A - Method and device for determining boundary position, program for making computer function as boundary position determination device, and recording medium - Google Patents

Method and device for determining boundary position, program for making computer function as boundary position determination device, and recording medium Download PDF

Info

Publication number
JP2007298376A
JP2007298376A JP2006126201A JP2006126201A JP2007298376A JP 2007298376 A JP2007298376 A JP 2007298376A JP 2006126201 A JP2006126201 A JP 2006126201A JP 2006126201 A JP2006126201 A JP 2006126201A JP 2007298376 A JP2007298376 A JP 2007298376A
Authority
JP
Japan
Prior art keywords
data
image
boundary
dimensional
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006126201A
Other languages
Japanese (ja)
Other versions
JP4275149B2 (en
Inventor
Masakazu Yanase
正和 柳瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006126201A priority Critical patent/JP4275149B2/en
Priority to PCT/JP2007/059025 priority patent/WO2007125981A1/en
Publication of JP2007298376A publication Critical patent/JP2007298376A/en
Application granted granted Critical
Publication of JP4275149B2 publication Critical patent/JP4275149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8896Circuits specially adapted for system specific signal conditioning

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect the position of an edge of a panel formed on a glass substrate. <P>SOLUTION: A process executed by an edge position detection device includes: a step S710 for executing an initial setting based on an instruction input from the outside to the device; a step S720 for extracting an image corresponding to a target region from an image representing the whole of the glass substrate; a step S730 for generating image data generated by emphasizing the edge of the extracted image; a step S740 for generating one-dimensional projection accumulation data by integrating date representing the image with the edge emphasized in accordance with the direction of a projection accumulation direction; a step S750 for determining a target region for calculating a statistics value; and a step S760 for calculating the statistics value based on the determined region, and calculating a threshold value based on the statistics value; and a step S770 for determining the position of a panel edge by using the threshold value. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、境界の位置を決定する技術に関し、より特定的には、被写体の撮影により取得された画像に含まれる境界の位置を決定する技術に関する。   The present invention relates to a technique for determining the position of a boundary, and more specifically to a technique for determining the position of a boundary included in an image acquired by photographing a subject.

高品質な薄型パネルを製造するための品質管理方法として、製造過程における検査工程が重要な役割を果たしている。近年では品質の安定化や目視検査員削減によるコストダウンなどのため、画像処理技術を適用した多種多様な欠陥検査装置が開発されている。一般的に画像処理は処理領域が大きいほど多くの処理時間を要する。そのため、必要な領域のみの画像を用いて検査することにより、処理時間の短縮が図られている。   The inspection process in the manufacturing process plays an important role as a quality control method for manufacturing a high-quality thin panel. In recent years, various defect inspection apparatuses to which image processing technology is applied have been developed in order to stabilize quality and reduce costs by reducing visual inspectors. In general, image processing requires a longer processing time as the processing area is larger. For this reason, the processing time is shortened by inspecting the image using only the necessary area.

一方、薄型パネルの製造方法としては、1枚のガラス基板から複数枚のパネルを製造することが一般的である。このようなガラス基板の欠陥検査においては、カメラによる撮像により取得された画像が用いられる。この欠陥検査において、画像検査処理時間の短縮のための一案として、各パネルの内部のみを検査してその他の部分は検査しないようにする手法がある。   On the other hand, as a method for producing a thin panel, it is common to produce a plurality of panels from a single glass substrate. In such a defect inspection of a glass substrate, an image acquired by imaging with a camera is used. In this defect inspection, as a proposal for shortening the image inspection processing time, there is a method of inspecting only the inside of each panel and not inspecting other portions.

パネル内部のみを検査するためには、ガラス基板の画像中のパネル領域の境界、すなわち、パネルのエッジ位置を決定する必要がある。   In order to inspect only the inside of the panel, it is necessary to determine the boundary of the panel region in the image of the glass substrate, that is, the edge position of the panel.

エッジ位置を決定する方法として、エッジ位置の設計データを利用する方法がある。具体的には、ガラス基板の端に対するエッジの位置、およびカメラとガラス基板との位置関係から、画像中のエッジの位置は、計算により算出される。   As a method of determining the edge position, there is a method of using design data of the edge position. Specifically, the position of the edge in the image is calculated from the position of the edge with respect to the edge of the glass substrate and the positional relationship between the camera and the glass substrate.

しかし、この方法では、一般的に、カメラとガラス基板の位置決め誤差などのため、10mm程度の誤差が生じる。そこで、エッジ位置を画像処理によって決定する必要が生じる。   However, this method generally causes an error of about 10 mm due to positioning errors between the camera and the glass substrate. Therefore, it is necessary to determine the edge position by image processing.

画像処理によってエッジ位置を決定する方法として、たとえば、特開平5−266194号公報(特許文献1)は、ノイズによる干渉を受けず、輪郭線の直線部分の端点を求めることができる技術を開示している。当該技術によれば、まず画像がエッジの方向に濃淡投影され、1次元投影累算データが求められる。次に、1次元投影累算データから勾配の大きさが求められ、勾配の大きさがピークとなる位置が、エッジ位置として検出される。   As a method for determining an edge position by image processing, for example, Japanese Patent Laid-Open No. 5-266194 (Patent Document 1) discloses a technique capable of obtaining an end point of a straight line portion of a contour line without receiving interference due to noise. ing. According to this technique, first, an image is gray-projected in the direction of an edge to obtain one-dimensional projection accumulated data. Next, the gradient magnitude is obtained from the one-dimensional projection accumulated data, and a position where the gradient magnitude reaches a peak is detected as an edge position.

また、画像に表示される複数の部位の接続部分を検出する技術として、たとえば、特開2005−284725号公報(特許文献2)は、突き合わせて接合する押し出し型材や板材等の被接合材の表面に汚れやキズ等の外乱要因があっても、接合線を正確に検出できる技術を開示している。   Moreover, as a technique for detecting a connection portion of a plurality of parts displayed in an image, for example, Japanese Patent Application Laid-Open No. 2005-284725 (Patent Document 2) discloses the surface of a material to be joined such as an extrusion die material or a plate material to be joined together. Even if there is a disturbance factor such as dirt or scratches, a technique that can accurately detect the joining line is disclosed.

また、エッジを検出する技術として、たとえば、特開2004−272313号公報(特許文献3)は、エッジ品質の悪い画像を定量化して、エッジを高精度に検出するための技術を開示している。   As a technique for detecting an edge, for example, Japanese Patent Application Laid-Open No. 2004-272313 (Patent Document 3) discloses a technique for quantifying an image with poor edge quality and detecting the edge with high accuracy. .

さらに、被写体の端部の抽出に関し、たとえば、特開2005−167802号公報(特許文献4)は、原稿画像をエリアセンサによって読み取り、画像データから画像処理によって原稿の端部を抽出し、原稿の輪郭と位置とに基づいて原稿サイズを検知する技術を開示している。
特開平5−266194号公報 特開2005−284725号公報 特開2004−272313号公報 特開2005−167802号公報
Further, regarding the extraction of the edge of a subject, for example, Japanese Patent Laid-Open No. 2005-167802 (Patent Document 4) reads an original image by an area sensor, extracts the edge of the original by image processing from image data, and A technique for detecting a document size based on a contour and a position is disclosed.
Japanese Patent Laid-Open No. 5-266194 JP 2005-284725 A JP 2004-272313 A JP 2005-167802 A

特開平5−266194号公報に開示された第1の技術を用いて、ガラス基板上のパネルのパネルエッジを決定する場合を考える。パネルの周囲には、配線パターンの領域が存在する。配線パターンの領域の外側は、ガラス基板である。   Consider a case in which the panel edge of a panel on a glass substrate is determined using the first technique disclosed in Japanese Patent Laid-Open No. 5-266194. A wiring pattern region exists around the panel. The outside of the wiring pattern region is a glass substrate.

このような構成を有するガラス基板をカメラで撮像すると、パネルの内部から外部に向けて、パネルエッジ、配線パターンのエッジ、ガラス基板のエッジが、それぞれ画像データ上に出力される。   When a glass substrate having such a configuration is imaged by a camera, the panel edge, the edge of the wiring pattern, and the edge of the glass substrate are output on the image data from the inside of the panel to the outside.

当該第1の技術によると、複数の方向に沿って原画像の画素の値を積算することにより、1次元投影累算データが求められ、それぞれについて投影勾配データのピーク値が求められ、前記複数の方向のうち、最も大きい方向のピーク値がエッジ位置とされる。   According to the first technique, by integrating the pixel values of the original image along a plurality of directions, one-dimensional projection accumulation data is obtained, and a peak value of the projection gradient data is obtained for each of the plurality of the plurality of the plurality of directions. Among these directions, the peak value in the largest direction is set as the edge position.

この技術によると、パターンエッジの位置が選ばれて、パネルエッジの位置が選ばれない場合があり、エッジを精度良く決定できないという問題点がある。   According to this technique, the position of the pattern edge is selected and the position of the panel edge may not be selected, and there is a problem that the edge cannot be determined with high accuracy.

また、特開平5−266194号公報において、第2の技術として、1次元投影累算データを求める前に、原画像の2次元勾配分布を求める方法が開示されている。   Japanese Patent Laid-Open No. 5-266194 discloses a second technique for obtaining a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulation data.

2次元勾配分布を求める方法としてSobelフィルタ処理を実施した後の画像データを用いる方法がある。この場合においても、上述の第1の技術に係る方法と同様に、1次元投影累算データから勾配の大きさのピーク位置を求めても、パターンエッジの位置が選ばれて、パネルエッジの位置が選ばれない場合がある。その結果、パネルエッジを高精度に決定することができない場合がある。   As a method for obtaining the two-dimensional gradient distribution, there is a method using image data after performing the Sobel filter processing. Also in this case, as in the method according to the first technique described above, the position of the pattern edge is selected and the position of the panel edge is determined even if the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulated data. May not be selected. As a result, the panel edge may not be determined with high accuracy.

本発明は、上述の問題点を解決するためになされたものであって、その第1の目的は、境界の位置を精度よく決定できる位置決定装置を提供することである。第2の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置を提供することである。   The present invention has been made to solve the above-described problems, and a first object of the present invention is to provide a position determination device that can accurately determine the position of a boundary. The second object is to provide a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.

第3の目的は、境界の位置を精度よく決定できる方法を提供することである。第4の目的は、検査対象物の画像処理検査の効率を向上させられる、境界の位置の決定方法を提供することである。   A third object is to provide a method capable of accurately determining the position of the boundary. A fourth object is to provide a boundary position determination method capable of improving the efficiency of image processing inspection of an inspection object.

第5の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させるためのプログラムを提供することである。第6の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置として、コンピュータを機能させるためのプログラムを提供することである。   A fifth object is to provide a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. A sixth object is to provide a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.

第7の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させるためのプログラムが格納された記録媒体を提供することである。第8の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置として、コンピュータを機能させるためのプログラムが格納された記録媒体を提供することである。   A seventh object is to provide a recording medium storing a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. The eighth object is to provide a recording medium storing a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.

上記の課題を解決するために、この発明のある局面に従うと、境界の位置決定装置が提供される。この装置は、被写体の撮影により取得された原画像を表わす原画像データを格納する記憶手段を備える。原画像データは2次元の座標軸にしたがって表わされている。この装置は、原画像が複数の部分画像を有する場合に、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成する第1の生成手段と、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成する第2の生成手段と、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定する第1の決定手段と、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出する算出手段と、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定する特定手段と、特定手段によって特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定する第2の決定手段とを備える。   In order to solve the above problems, according to one aspect of the present invention, a boundary position determining apparatus is provided. This apparatus includes storage means for storing original image data representing an original image acquired by photographing a subject. The original image data is represented according to a two-dimensional coordinate axis. When the original image has a plurality of partial images, the apparatus includes first generation means for generating enhanced image data representing an image in which the boundary of each partial image is enhanced based on the original image data, and the boundary is A plurality of brightness values of each partial area corresponding to each partial image after being emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby representing a plurality of values expressed in accordance with a one-dimensional coordinate axis of the two-dimensional coordinate axes. A first generation unit for generating one-dimensional data, a first determination unit for determining a range of data to be determined for determining a boundary position based on the design data of the subject, and a data range A calculation means for calculating a threshold value for a luminance value by calculating a statistic using a plurality of included one-dimensional data, and a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range Vs. To comprising specifying means for specifying a 1-dimensional data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data specified by the specifying means, a second determination means for determining a position of the boundary.

好ましくは、第1の決定手段は、原画像データによって決定される範囲と、設計データによって特定される範囲とに基づいて、データの範囲を決定する手段を含む。   Preferably, the first determining means includes means for determining a data range based on a range determined by the original image data and a range specified by the design data.

好ましくは、データの範囲を決定する手段は、設計データに基づいて、計算上の位置データとして、境界の1次元データを算出し、原画像データに基づいて、実際の位置データとして、境界の1次元データを算出し、計算上の位置データと実際の位置データとの差に基づいて、データの範囲を決定する。   Preferably, the means for determining the data range calculates one-dimensional data of the boundary as the calculated position data based on the design data, and 1 of the boundary as the actual position data based on the original image data. Dimension data is calculated, and the data range is determined based on the difference between the calculated position data and the actual position data.

好ましくは、被写体は、検査の対象となる第1の部分と、検査の対象とならない第2の部分とを含む。原画像は、第1の部分に対応する第1の画像と、第2の部分に対応する第2の画像とを含む。第1の生成手段は、強調画像データとして、第1の画像と第2の画像との境界が強調された画像を表わすデータを生成する。   Preferably, the subject includes a first part to be inspected and a second part not to be inspected. The original image includes a first image corresponding to the first portion and a second image corresponding to the second portion. The first generation means generates data representing an image in which the boundary between the first image and the second image is emphasized as the emphasized image data.

好ましくは、被写体は、ガラス基板である。第1の部分は、ガラス基板に加工されたパネル領域である。第1の生成手段は、パネル領域に対応する画像と、パネル領域以外の領域に対応する画像とが接する部分が強調された画像を表わすデータを生成する。   Preferably, the subject is a glass substrate. The first part is a panel region processed into a glass substrate. The first generation means generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact is emphasized.

好ましくは、算出手段は、複数の1次元データについての平均値と標準偏差とを算出し、平均値と標準偏差とに基づいて閾値を算出する。   Preferably, the calculation means calculates an average value and a standard deviation for a plurality of one-dimensional data, and calculates a threshold value based on the average value and the standard deviation.

好ましくは、特定手段は、閾値を越える輝度値に対応する複数の1次元データを特定する手段と、特定された各1次元データの各々について、データの範囲の上限値と1次元データとの差をそれぞれ算出する手段と、算出された各差が最小となる1次元データを、閾値を越える輝度値に対応する1次元データとして決定する手段とを含む。   Preferably, the specifying means specifies a plurality of one-dimensional data corresponding to a luminance value exceeding a threshold, and for each of the specified one-dimensional data, a difference between the upper limit value of the data range and the one-dimensional data. And means for determining one-dimensional data that minimizes each calculated difference as one-dimensional data corresponding to a luminance value exceeding a threshold value.

好ましくは、原画像は、矩形領域を含む。境界は、矩形領域の輪郭によって形成されている。第1の生成手段は、強調画像データとして、輪郭により形成される境界が強調された画像を表わすデータを生成する。   Preferably, the original image includes a rectangular area. The boundary is formed by the outline of the rectangular area. The first generation means generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.

好ましくは、第2の生成手段は、境界が強調された後の矩形領域に対応する各画素の各輝度値を、矩形領域における一方向に積算して、平均値を算出することにより、複数の一次元データを生成する。第1の決定手段は、矩形領域についての一次元データによって規定される範囲にデータの範囲が含まれるように、データの範囲を決定する。   Preferably, the second generation means integrates the luminance values of the pixels corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area, and calculates an average value, thereby calculating a plurality of values. Generate one-dimensional data. The first determining means determines the data range so that the range defined by the one-dimensional data for the rectangular area includes the data range.

好ましくは、統計量は、平均値と標準偏差とを含む。算出手段は、複数の標準偏差の各値に応じて予め規定された各式を用いて閾値を算出する。各式は、各標準偏差の値によって異なる。   Preferably, the statistic includes an average value and a standard deviation. The calculating means calculates the threshold value using each formula defined in advance according to each value of the plurality of standard deviations. Each formula varies depending on the value of each standard deviation.

この発明の他の局面に従うと、コンピュータが画像に含まれる境界の位置を決定する方法が提供される。コンピュータは、データを格納する記憶装置とデータを用いて予め規定された処理を実行する処理装置とを備えている。この方法は、処理装置が、記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを備える。原画像データは2次元の座標軸にしたがって表わされている。この方法は、原画像が複数の部分画像を有する場合に、処理装置が、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、処理装置が、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、処理装置が、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定するステップと、処理装置が、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、処理装置が、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定するステップと、処理装置が、特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定するステップとを備える。   According to another aspect of the invention, a method is provided for a computer to determine the location of a boundary included in an image. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. In this method, the processing device includes a step of reading original image data representing an original image acquired by photographing a subject from a storage device. The original image data is represented according to a two-dimensional coordinate axis. In this method, when the original image has a plurality of partial images, the processing device generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data; Is obtained by integrating the luminance values of the partial areas corresponding to the partial images after the boundary is emphasized in the direction of the boundary and calculating an average value, thereby calculating a one-dimensional coordinate axis out of the two-dimensional coordinate axes. Generating a plurality of one-dimensional data represented according to the following: a processing device determining a range of data for determining a boundary position based on subject design data; and a processing device, Calculating a threshold value for a luminance value by calculating a statistic using a plurality of one-dimensional data included in the data range; and a processing device including a plurality of primary elements included in the data range. Identifying one-dimensional data corresponding to a luminance value exceeding a threshold value based on the data, and determining a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data as a boundary position With.

この発明のさらに他の局面に従うと、画像に含まれる境界の位置を決定する装置としてコンピュータを機能させるためのプログラムが提供される。コンピュータは、データを格納する記憶装置とデータを用いて予め規定された処理を実行する処理装置とを備えている。プログラムは処理装置に、記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを実行させる。原画像データは2次元の座標軸にしたがって表わされている。プログラムは処理装置に、原画像が複数の部分画像を有する場合に、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定するステップと、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定するステップと、特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定するステップとを実行させる。   According to still another aspect of the present invention, a program for causing a computer to function as an apparatus for determining the position of a boundary included in an image is provided. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. The program causes the processing device to execute a step of reading original image data representing an original image acquired by photographing a subject from the storage device. The original image data is represented according to a two-dimensional coordinate axis. When the original image has a plurality of partial images, the program generates, on the basis of the original image data, enhanced image data representing an image in which the boundary of each partial image is emphasized, and the boundary is enhanced. Then, the luminance values of the partial areas corresponding to the partial images after being added are integrated in the direction of the boundary, and an average value is calculated, whereby a plurality of 1's represented according to the one-dimensional coordinate axis out of the two-dimensional coordinate axes. Using a step of generating dimensional data, a step of determining a range of data to be determined for determining the position of the boundary based on the design data of the subject, and a plurality of one-dimensional data included in the range of data By calculating a statistic, a step of calculating a threshold value for the luminance value and corresponding to a luminance value exceeding the threshold value based on a plurality of one-dimensional data included in the data range Identifying a dimension data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data is identified, and a step of determining a position of the boundary.

この発明のさらに他の局面に従うと、上記のプログラムを格納した、コンピュータ読み取り可能な記録媒体が提供される。   According to still another aspect of the present invention, a computer-readable recording medium storing the above program is provided.

本発明に係る境界の位置決定装置によると、境界(たとえば、パネルのエッジ部分)の位置を精度よく決定することができる。本発明に係る方法によると、コンピュータは、境界の位置を精度よく決定することができる。本発明に係るプログラムによると、コンピュータは、境界の位置を精度よく決定できる装置として機能する。本発明に係る記録媒体がコンピュータに装着され、当該記録媒体に格納されているプログラムが実行されると、そのプログラムを実行するコンピュータは、境界の位置を精度よく決定することができる装置として機能することができる。その結果、検査対象物の画像処理検査の効率が向上し得る。   According to the boundary position determining apparatus according to the present invention, the position of the boundary (for example, the edge portion of the panel) can be determined with high accuracy. According to the method of the present invention, the computer can accurately determine the position of the boundary. According to the program according to the present invention, the computer functions as an apparatus that can accurately determine the position of the boundary. When a recording medium according to the present invention is mounted on a computer and a program stored in the recording medium is executed, the computer that executes the program functions as an apparatus that can accurately determine the position of the boundary. be able to. As a result, the efficiency of the image processing inspection of the inspection object can be improved.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1を参照して、本発明の実施の形態に係る検査システム10について説明する。図1は、エッジの位置を決定する機能を有する検査システム10のハードウェア構造を表わすブロック図である。検査システム10は、ライト110と、ライト110に電気的に接続されるエッジ位置検出装置100と、エッジ位置検出装置100に電気的に接続されるカメラ120と、エッジ位置検出装置100に電気的に接続されるディスプレイ130とを備える。エッジ位置検出装置100は、ガラス基板に形成されるパネル領域と、パネル領域以外の領域との境界(エッジ)の位置を検出する。具体的には、後述するように、エッジ位置検出装置100は、予め規定された座標軸上における座標値として、境界の位置を検出する。   With reference to FIG. 1, an inspection system 10 according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a hardware structure of an inspection system 10 having a function of determining an edge position. The inspection system 10 is electrically connected to the light 110, the edge position detection device 100 electrically connected to the light 110, the camera 120 electrically connected to the edge position detection device 100, and the edge position detection device 100. And a connected display 130. The edge position detection apparatus 100 detects the position of a boundary (edge) between a panel region formed on the glass substrate and a region other than the panel region. Specifically, as described later, the edge position detection device 100 detects the position of the boundary as a coordinate value on a coordinate axis defined in advance.

検査システム10には、検査の対象物であるガラス基板140が搬入され、予め定められた位置に装着される。ガラス基板140には、2つの薄型パネル141,142がそれぞれ形成されている。   A glass substrate 140 that is an object to be inspected is carried into the inspection system 10 and mounted at a predetermined position. Two thin panels 141 and 142 are formed on the glass substrate 140, respectively.

ライト110は、エッジ位置検出装置100からの信号に基づいて当該位置に装着されたガラス基板140に予め設定された強度を有する光を照射する。照射される光は、たとえば一般白色光である。   Based on a signal from the edge position detection device 100, the light 110 irradiates the glass substrate 140 mounted at the position with light having a preset intensity. The irradiated light is, for example, general white light.

カメラ110は、ガラス基板140からの反射光を受光して撮影し、画像データとしてエッジ位置検出装置100に送出する。カメラ120は、エリアセンサカメラでもラインセンサカメラでもよい。カメラ120の撮像部分は、CCD(Charge Coupled Device)、あるいはCMOS(Complementary Metal Oxide Semiconductor)等の光電変換機構を有する。   The camera 110 receives and captures the reflected light from the glass substrate 140 and sends it to the edge position detection device 100 as image data. The camera 120 may be an area sensor camera or a line sensor camera. The imaging part of the camera 120 has a photoelectric conversion mechanism such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

本実施の形態で説明する画像のサイズは、たとえば、横1000画素、縦1200画素である。しかしながら、当該画像のサイズは、上記のものに限られず、その他のサイズ(たとえば、横500画素、縦600画素)であってもよい。   The image size described in the present embodiment is, for example, horizontal 1000 pixels and vertical 1200 pixels. However, the size of the image is not limited to the above, and may be other sizes (for example, horizontal 500 pixels, vertical 600 pixels).

また、本実施の形態で説明される画像の画素の有する輝度値は、“0”〜“255”の範囲の値である。以下の説明では、輝度値が“0”の場合、対応する画素は黒色に対応するものとする。また、輝度値が“255”の場合、対応する画素は白色に対応するものとする。なお、本実施の形態で使用する画像の画素の有する輝度値は、“0”〜“255”の範囲に含まれる値に限られることはなく、その他の範囲に含まれる値であってもよい。   In addition, the luminance value of the pixel of the image described in this embodiment is a value in the range of “0” to “255”. In the following description, when the luminance value is “0”, the corresponding pixel corresponds to black. When the luminance value is “255”, the corresponding pixel corresponds to white. Note that the luminance value of the image pixel used in the present embodiment is not limited to a value included in the range of “0” to “255”, and may be a value included in another range. .

図2を参照して、カメラ120によって撮影されたガラス基板140の画像について説明する。図2は、ガラス基板140の画像240を表わす図である。画像240は、パネル210とガラス基板との境界に形成されるパネルエッジ211,212,213,214と、パネル210を取り囲むようにガラス基板140の内側に形成される配線パターン領域215とを含む。   With reference to FIG. 2, the image of the glass substrate 140 image | photographed with the camera 120 is demonstrated. FIG. 2 is a diagram illustrating an image 240 of the glass substrate 140. The image 240 includes panel edges 211, 212, 213, 214 formed at the boundary between the panel 210 and the glass substrate, and a wiring pattern region 215 formed inside the glass substrate 140 so as to surround the panel 210.

パネル220についても、同様にガラス基板140とパネル220との間に形成される配線パターン領域と、パネル220を矩形状に取り囲むパネルエッジとを表わす画像が生成される。さらに、配線パターン領域215とガラス基板140との間には、配線パターンエッジ(たとえば配線パターンエッジ216)が生成される。領域206は、画像240において、検査の対象となる領域に対応する画像である。   Similarly, for the panel 220, an image representing a wiring pattern area formed between the glass substrate 140 and the panel 220 and a panel edge surrounding the panel 220 in a rectangular shape is generated. Furthermore, a wiring pattern edge (for example, a wiring pattern edge 216) is generated between the wiring pattern region 215 and the glass substrate 140. A region 206 is an image corresponding to a region to be inspected in the image 240.

そこで、図3を参照して、領域206について説明する。図3は、領域206の画像300を表わす図である。   Therefore, the region 206 will be described with reference to FIG. FIG. 3 is a diagram showing an image 300 of the region 206.

画像300には、領域206の端部に対応する画像の端201と、配線パターンエッジ216と、パネルエッジ211と、ノイズ230とが示される。図3(A)に示される累算方向は、各領域に含まれる輝度値を積算する方向を表わす。この方向は、ガラス基板140に対して予め規定されている。たとえば、ガラス基板140が矩形である場合には、いずれかの1辺に平行な方向を累算方向として規定される。   The image 300 shows an image edge 201 corresponding to the edge of the area 206, a wiring pattern edge 216, a panel edge 211, and noise 230. The accumulation direction shown in FIG. 3A represents the direction in which the luminance values included in each region are accumulated. This direction is defined in advance with respect to the glass substrate 140. For example, when the glass substrate 140 is rectangular, a direction parallel to any one side is defined as the accumulation direction.

図3(B)は、画像300に対応する輝度値を上記累算方向にそれぞれ積算することにより算出した値を表わす図である。具体的には、領域310については、X座標値が0からaまでの間において、各領域における輝度値は、少なくとも160以上として表わされる。領域320については、X座標値がaからbまでの間において輝度値は180として表わされる。さらに領域330については、X座標値がb以上の範囲において輝度値は0として表わされる。   FIG. 3B is a diagram illustrating values calculated by integrating the luminance values corresponding to the image 300 in the accumulation direction. Specifically, for the region 310, the luminance value in each region is expressed as at least 160 or more when the X coordinate value is between 0 and a. For the region 320, the luminance value is expressed as 180 when the X coordinate value is between a and b. Further, regarding the region 330, the luminance value is represented as 0 in the range where the X coordinate value is b or more.

図4を参照して、フィルタ処理によって生成された画像について説明する。図4は、画像240における領域206に相当する画像に対してSobelフィルタ処理を実行することにより生成されたエッジ強調画像400を表わす図である。   With reference to FIG. 4, the image produced | generated by the filter process is demonstrated. FIG. 4 is a diagram illustrating an edge-enhanced image 400 generated by executing the Sobel filter process on the image corresponding to the region 206 in the image 240.

図4(A)に示されるように、エッジ強調画像400は、パネル領域の一部に対応する画像410と、配線パターン領域の一部に対応する画像420と、ガラス基板の一部に対応する画像430とを含む。エッジ強調画像400は、さらに、パネルエッジに対応する画像211と、配線パターンエッジに対応する画像216と、ノイズ230とを含む。累算方向450は、各画像に対応する画素の輝度値を積算する方向を表わす。   As shown in FIG. 4A, the edge enhancement image 400 corresponds to an image 410 corresponding to a part of the panel area, an image 420 corresponding to a part of the wiring pattern area, and a part of the glass substrate. Image 430. The edge enhanced image 400 further includes an image 211 corresponding to the panel edge, an image 216 corresponding to the wiring pattern edge, and noise 230. An accumulation direction 450 represents a direction in which luminance values of pixels corresponding to the respective images are integrated.

図4(B)は、累算方向450に従って輝度値を積算した結果(積算値)を表わす図である。たとえば、パネル領域において正常な領域に対応する画像410についての積算値は、「0」である。ノイズ230の積算値は、「20」である。パネルエッジに対応する画像211についての積算値は、「40」である。配線パターン領域の一部に対応する画像420についての積算値は、「0」である。配線パターンエッジに対応する画像216についての積算値は、「127」である。ガラス基板に対応する画像430についての積算値は、「0」である。   FIG. 4B is a diagram showing a result (integrated value) obtained by integrating luminance values according to the accumulation direction 450. For example, the integrated value for the image 410 corresponding to the normal area in the panel area is “0”. The integrated value of the noise 230 is “20”. The integrated value for the image 211 corresponding to the panel edge is “40”. The integrated value for the image 420 corresponding to a part of the wiring pattern region is “0”. The integrated value for the image 216 corresponding to the wiring pattern edge is “127”. The integrated value for the image 430 corresponding to the glass substrate is “0”.

図5を参照して、検査システム10を構成するエッジ位置検出装置100について説明する。図5は、エッジ位置検出装置100によって実現される各機能の構成を表わすブロック図である。エッジ位置検出装置100は、設計データ入力部510と、画像入力部520と、一時記憶部530と、記憶部540と、処理部550とを備える。処理部550は、書込部551と、初期設定部552と、座標取得部553と、抽出部554と、画像生成部555と、積算部556と、データ範囲決定部557と、閾値算出部558と、位置決定部559と、表示制御部560とを含む。   With reference to FIG. 5, the edge position detection apparatus 100 which comprises the test | inspection system 10 is demonstrated. FIG. 5 is a block diagram showing a configuration of each function realized by the edge position detection apparatus 100. The edge position detection apparatus 100 includes a design data input unit 510, an image input unit 520, a temporary storage unit 530, a storage unit 540, and a processing unit 550. The processing unit 550 includes a writing unit 551, an initial setting unit 552, a coordinate acquisition unit 553, an extraction unit 554, an image generation unit 555, an integration unit 556, a data range determination unit 557, and a threshold calculation unit 558. A position determination unit 559 and a display control unit 560.

設計データ入力部510は、ガラス基板140に形成されるパネル141,142の設計の仕様を表わすデータ入力を受け付ける。このデータは、たとえばガラス基板140のサイズ情報、パネル141,142のサイズ情報、あるいはパネル141,142とガラス基板140との位置関係を規定するデータを含む。   Design data input unit 510 accepts data input representing design specifications of panels 141 and 142 formed on glass substrate 140. This data includes, for example, the size information of the glass substrate 140, the size information of the panels 141 and 142, or data defining the positional relationship between the panels 141 and 142 and the glass substrate 140.

画像入力部520は、カメラ120から出力される画像データの入力を受け付ける。一時記憶部530は、設計データ入力部510あるいは画像入力部520によって入力が受け付けられたデータ、あるいは処理部550によって生成されたデータを一時的に(揮発的に)保持する。一時記憶部530は、たとえばRAM(Random Access Memory)、フレームバッファとして実現される。なお、一時記憶部530は、物理的には、1つのメモリとして実現される場合に限られず、2つ以上のメモリに分けて構成されてもよい。   The image input unit 520 receives input of image data output from the camera 120. Temporary storage unit 530 temporarily (volatilely) holds data received by design data input unit 510 or image input unit 520 or data generated by processing unit 550. Temporary storage unit 530 is realized as a RAM (Random Access Memory) or a frame buffer, for example. Note that the temporary storage unit 530 is not limited to being physically implemented as a single memory, and may be configured by being divided into two or more memories.

書込部551は、一時記憶部530に保持されているデータを読み出し、そのデータを記憶部540において確保された領域に書き込む。記憶部540は、データを不揮発的に保持できる記憶装置である。初期設定部552は、記憶部540に格納されているデータおよびエッジ位置検出装置100に対して入力される外部からの指示に基づいて、ガラス基板140に対して実行する検査処理を行なうための初期設定値を記憶部540から読み出し、一時記憶部530において確保された領域に格納する。   The writing unit 551 reads data held in the temporary storage unit 530 and writes the data in an area secured in the storage unit 540. The storage unit 540 is a storage device that can hold data in a nonvolatile manner. The initial setting unit 552 is an initial unit for performing an inspection process to be performed on the glass substrate 140 based on data stored in the storage unit 540 and an external instruction input to the edge position detection device 100. The set value is read from the storage unit 540 and stored in an area secured in the temporary storage unit 530.

記憶部540は、ガラス基板140の撮影によって生成された画像データ(たとえば図2に示される画像240を表わすデータ)を格納する。記憶部540は、たとえば、フラッシュメモリ、ハードディスク装置として実現される。   Storage unit 540 stores image data generated by photographing glass substrate 140 (for example, data representing image 240 shown in FIG. 2). The storage unit 540 is realized as a flash memory or a hard disk device, for example.

座標取得部553は、記憶部540に格納されているガラス基板140の画像データに基づいて、パネルエッジ211,212,213,214の各座標を取得する。なお、画像処理の検査を促進する観点から、各パネルエッジの座標を取得する態様に代えて、いずれかの特定のパネルエッジ(たとえばパネルエッジ211)の座標を取得するものであってもよい。   The coordinate acquisition unit 553 acquires the coordinates of the panel edges 211, 212, 213, and 214 based on the image data of the glass substrate 140 stored in the storage unit 540. In addition, from the viewpoint of promoting the inspection of image processing, the coordinates of any specific panel edge (for example, the panel edge 211) may be acquired instead of the mode of acquiring the coordinates of each panel edge.

抽出部554は、記憶部540に格納されているデータに基づいて画像240から領域206の画像(すなわち境界によって区分される部分画像)を抽出する。具体的には、まず記憶部540には、初期設定部552によって設定された領域206を特定するための座標値が格納されている。抽出部554は、その各座標値を参照して、画像240からその座標値に対応する領域を決定し、決定された領域に含まれるデータを抽出する。抽出部554は、その抽出したデータを一時記憶部530に格納する(抽出された画像データ531)。   The extraction unit 554 extracts the image of the region 206 (that is, the partial image divided by the boundary) from the image 240 based on the data stored in the storage unit 540. Specifically, first, the storage unit 540 stores coordinate values for specifying the area 206 set by the initial setting unit 552. The extraction unit 554 refers to each coordinate value, determines an area corresponding to the coordinate value from the image 240, and extracts data included in the determined area. The extraction unit 554 stores the extracted data in the temporary storage unit 530 (extracted image data 531).

画像生成部555は、一時記憶部530に格納されている画像データに基づいて、画像の輪郭を強調するための処理を実行する。具体的には、画像生成部555は、抽出された画像データ531を用いて、画像処理において一般的な画像変換方法であるフィルタ処理を用いるとともに、予め初期設定値として入力されているパラメータに基づいてそのフィルタ処理を実行する。実行されるフィルタ処理は、たとえば一般的なエッジ抽出フィルタである3×3のSobelフィルタである。画像生成部555は、当該フィルタ処理を実行することによって生成された画像データを、一時記憶部530に格納する(エッジ強調された画像データ532)。   The image generation unit 555 executes processing for enhancing the contour of the image based on the image data stored in the temporary storage unit 530. Specifically, the image generation unit 555 uses the extracted image data 531 to use filter processing, which is a general image conversion method in image processing, and based on parameters input in advance as initial setting values. The filter process is executed. The filter processing to be executed is, for example, a 3 × 3 Sobel filter that is a general edge extraction filter. The image generation unit 555 stores the image data generated by executing the filter processing in the temporary storage unit 530 (image data 532 with edge enhancement).

積算部556は、一時記憶部530に格納されているデータを用いて、当該画像を構成する画素の輝度値を予め規定された一方向に積算する。具体的には、積算部556は、画像240において規定されるX座標について同一の座標値を有する各画素の輝度値を予め規定された積算方向(たとえばY軸の負の方向)に積算する。積算部556は、さらに、積算後の値を積算した画素の数で除することにより、当該同一のX座標値を有する画素についての輝度値の平均値を算出する。積算部556は、そのようにして算出した一次投影データ533を一時記憶部530に書き込む。   The accumulating unit 556 accumulates the luminance values of the pixels constituting the image in one predetermined direction using the data stored in the temporary storage unit 530. Specifically, the integration unit 556 integrates the luminance values of the pixels having the same coordinate value with respect to the X coordinate defined in the image 240 in a predefined accumulation direction (for example, the negative direction of the Y axis). Further, the integrating unit 556 calculates an average value of luminance values for pixels having the same X coordinate value by dividing the integrated value by the number of integrated pixels. The accumulating unit 556 writes the primary projection data 533 thus calculated in the temporary storage unit 530.

データ範囲決定部557は、一時記憶部530に格納されている一次投影データ533を用いて、エッジ211の位置を決定するための対象となるデータの範囲を決定する。データ範囲決定部557は、そのデータの範囲を決定すると、一時記憶部530に確保された領域に、データ範囲を表わすデータ534として格納する。   The data range determination unit 557 determines the range of data that is a target for determining the position of the edge 211 using the primary projection data 533 stored in the temporary storage unit 530. When the data range determining unit 557 determines the data range, the data range determining unit 557 stores the data range in the area secured in the temporary storage unit 530 as data 534 representing the data range.

閾値算出部558は、一次投影データ533を用いて、データ範囲を表わすデータ534によって規定される範囲について予め定められた統計量算出処理を実行することにより、閾値を算出する。本実施の形態に係る閾値は、エッジ211の位置を決定する判断に用いられる輝度値である。閾値算出部558は、閾値を決定すると、一時記憶部530に書き込む(閾値535)。   The threshold value calculation unit 558 calculates a threshold value by executing a predetermined statistic calculation process for the range defined by the data 534 representing the data range, using the primary projection data 533. The threshold value according to the present embodiment is a luminance value used for determination to determine the position of the edge 211. When the threshold value calculation unit 558 determines the threshold value, the threshold value calculation unit 558 writes the threshold value in the temporary storage unit 530 (threshold value 535).

位置決定部559は、一次投影データ533と閾値535とに基づいて、パネルエッジ211の位置(X座標値)を決定する。たとえば、位置決定部559は、閾値535を超える輝度値に対する一次投影データ533を特定し、その特定された一次投影データ533のX座標値をパネルエッジ211の位置として決定する。位置決定部559は、このようにして決定した位置データを、一時記憶部530に書き込む(エッジの位置を表わすデータ536)。   The position determination unit 559 determines the position (X coordinate value) of the panel edge 211 based on the primary projection data 533 and the threshold value 535. For example, the position determination unit 559 specifies the primary projection data 533 for the luminance value exceeding the threshold 535, and determines the X coordinate value of the specified primary projection data 533 as the position of the panel edge 211. The position determination unit 559 writes the position data determined in this way into the temporary storage unit 530 (data 536 representing the position of the edge).

表示制御部560は、設定データ入力部510を介して入力される表示指示に基づいて、一時記憶部530に格納されているデータを読み出し、表示部(たとえばディスプレイ130)にそのデータを送出して、撮像画像を表示させる。   Display control unit 560 reads the data stored in temporary storage unit 530 based on the display instruction input via setting data input unit 510, and sends the data to the display unit (for example, display 130). The captured image is displayed.

図6を参照して、エッジ位置検出装置100のデータ構造について説明する。図6は、記憶部540におけるデータの格納の一態様を概念的に表わす図である。記憶部540は、データを格納するためのメモリ領域602〜メモリ領域630を含む。   With reference to FIG. 6, the data structure of the edge position detection apparatus 100 is demonstrated. FIG. 6 is a diagram conceptually showing one mode of data storage in storage unit 540. Storage unit 540 includes memory area 602 to memory area 630 for storing data.

パネル141,142が形成されたガラス基板140を撮影することにより取得された画像データは、メモリ領域602に記録されている。上記データの範囲を決定するために予め入力されたオフセット値(Poff)は、メモリ領域604に格納されている。エッジの位置を検出する対象としての領域206を規定するために予め入力された座標値は、メモリ領域606,608にそれぞれ入力されている。たとえば、領域206の左上端部の座標値Pltは、(800,1150)としてメモリ領域606に格納されている。同様に、領域206の右下端部を表わす座標値Pbr(X,Y)は、(1000,700)として、メモリ領域608に格納されている。   Image data acquired by photographing the glass substrate 140 on which the panels 141 and 142 are formed is recorded in the memory area 602. An offset value (Poff) input in advance for determining the data range is stored in the memory area 604. Coordinate values input in advance to define the area 206 as an object for detecting the edge position are input to the memory areas 606 and 608, respectively. For example, the coordinate value Plt at the upper left corner of the area 206 is stored in the memory area 606 as (800, 1150). Similarly, the coordinate value Pbr (X, Y) representing the lower right corner of the area 206 is stored in the memory area 608 as (1000, 700).

統計量を算出するために積算するデータ数として予め規定されたデータ数Ndは、メモリ領域610に格納されている。閾値を決定するための算式に用いられる定数aは、メモリ領域612に格納されている。各画素の輝度値を予め規定された一方向に積算するために定められた投影累算方向Dpは、たとえば「Y座標軸の負方向を示すデータ」として、メモリ領域614に格納されている。   A data number Nd defined in advance as the number of data to be integrated for calculating the statistic is stored in the memory area 610. A constant “a” used in the formula for determining the threshold value is stored in the memory area 612. The projection accumulation direction Dp determined for integrating the luminance values of the pixels in one predetermined direction is stored in the memory area 614 as, for example, “data indicating the negative direction of the Y coordinate axis”.

Sobelフィルタ処理を実行するために使用されるパラメータ値は、メモリ領域616に格納されている。ガラス基板140にパネル141,142を形成するためのパネル設計によって決定される設計データは、メモリ領域618に格納されている。当該設計データは、たとえばガラス基板140の縦横方向のサイズ(たとえば長さ)、パネル141,142の縦横方向のサイズ(たとえば画素数)、ガラス基板140と各パネル141,142との間の間隔、パネル141,142の間隔などを含む。   The parameter values used for executing the Sobel filter process are stored in the memory area 616. Design data determined by panel design for forming panels 141 and 142 on glass substrate 140 is stored in memory area 618. The design data includes, for example, the vertical and horizontal sizes (for example, the length) of the glass substrate 140, the vertical and horizontal sizes (for example, the number of pixels) of the panels 141 and 142, the distance between the glass substrate 140 and the panels 141 and 142, This includes the interval between the panels 141 and 142.

その設計データに基づいて算出されるパネルエッジ(たとえばパネルエッジ211)のX座標値(Xd)は、メモリ領域620に格納される。このX座標値が算出される前は、たとえば「NULL」を表わすデータが格納される。他の領域についても、同様である。カメラ120による撮影によって取得された画像データを用いて算出されるパネルエッジ(たとえばパネルエッジ211)のX座標値(Xr)は、メモリ領域622に格納される。データ範囲決定部557による演算から算出されるパネルエッジ(たとえばパネルエッジ211)の最大値のX座標値(Xe)は、メモリ領域624に格納される。同様に、当該パネルエッジの最小値(Xs)は、メモリ領域626に格納される。メモリ領域624,626に格納されるデータは、たとえば図5に示されるデータ範囲を表わすデータ534に対応する。データ範囲決定部557が前述の処理を実行していない場合には、メモリ領域624,626には、各々の領域にデータが存在しないことを表わす情報(NULL)が格納される。   The X coordinate value (Xd) of the panel edge (for example, panel edge 211) calculated based on the design data is stored in the memory area 620. Before the X coordinate value is calculated, for example, data representing “NULL” is stored. The same applies to other regions. The X coordinate value (Xr) of the panel edge (for example, the panel edge 211) calculated using the image data acquired by photographing with the camera 120 is stored in the memory area 622. The X coordinate value (Xe) of the maximum value of the panel edge (for example, the panel edge 211) calculated from the calculation by the data range determining unit 557 is stored in the memory area 624. Similarly, the minimum value (Xs) of the panel edge is stored in the memory area 626. Data stored in memory areas 624 and 626 corresponds to data 534 representing the data range shown in FIG. 5, for example. When the data range determining unit 557 does not execute the above-described processing, the memory areas 624 and 626 store information (NULL) indicating that no data exists in each area.

閾値Vthは、メモリ領域628に格納される。エッジ位置検出装置100の上記各機能を実現するために使用されるプログラムは、メモリ領域630に格納される。当該プログラムがプロセッサ等の演算処理装置によって実行されると、図5に示される処理部550を構成する各機能が実現される。当該プログラムは、たとえば、各機能を実現するモジュールを組み合わせることにより構成される。   The threshold value Vth is stored in the memory area 628. A program used to realize the above functions of the edge position detection apparatus 100 is stored in the memory area 630. When the program is executed by an arithmetic processing unit such as a processor, each function constituting the processing unit 550 shown in FIG. 5 is realized. The program is configured, for example, by combining modules that realize each function.

図7を参照して、エッジ位置検出装置100の制御構造について説明する。図7は、処理部550が実行する処理の手順を表わすフローチャートである。エッジ位置検出装置100がコンピュータシステムによって実現される場合には、コンピュータシステムが備えるプロセッサが、処理部550として機能する。   A control structure of the edge position detection apparatus 100 will be described with reference to FIG. FIG. 7 is a flowchart showing a procedure of processing executed by processing unit 550. When the edge position detection apparatus 100 is realized by a computer system, a processor included in the computer system functions as the processing unit 550.

ステップS710にて、処理部550は、エッジ位置検出装置100に対して外部から入力される指示に基づいて、データの読み出しその他の初期設定を実行する。具体的には、処理部550は、初期設定部552として記憶部540に格納されているデータを読み出して、一時記憶部530に書き込む。当該初期設定により書き込まれるデータは、たとえば、設計データによって算出された、画像240に含まれるパネルエッジ211のX座標値Xs(211)、画像240のデータに基づいて算出される実際のパネルエッジ211のX座標値Xr(211)と座標値Xs(211)との誤差のうち最大誤差Xme(211)と、領域206を特定する座標値と、オフセットPoffと、データ数Ndと、定数aと、投影累算方向Dpとを含む。   In step S710, processing unit 550 performs data reading and other initial settings based on an instruction input from the outside to edge position detection device 100. Specifically, the processing unit 550 reads data stored in the storage unit 540 as the initial setting unit 552 and writes the data in the temporary storage unit 530. The data written by the initial setting is, for example, the actual panel edge 211 calculated based on the X coordinate value Xs (211) of the panel edge 211 included in the image 240 and the data of the image 240, calculated by the design data. Among the errors between the X coordinate value Xr (211) and the coordinate value Xs (211), the maximum error Xme (211), the coordinate value specifying the region 206, the offset Poff, the number of data Nd, the constant a, Projection accumulated direction Dp.

ステップS720にて、処理部550は、ガラス基板140の全体を表わす画像240から、領域206に対応する画像を抽出する。具体的には、処理部550は、抽出部554として、記憶部540に格納されている画像データを読み出し、左上座標値Pltと右下座標値Prbとを参照して、抽出すべき矩形領域を特定し、その領域に含まれるデータを一時記憶部530において確保された他の領域に格納する(抽出された画像データ531)。一例として、図3(A)に示される画像300では、領域206は矩形の領域であり、領域206の左上の端部の座標値Plt(X,Y)は、(800,1150)であり、領域206の右下の端部の座標値Prb(X,Y)は、(1000,700)である。したがって、これらの座標値により特定される領域に含まれる領域に対応する画素の輝度値が一時記憶部530に保存される。   In step S720, processing unit 550 extracts an image corresponding to region 206 from image 240 representing the entire glass substrate 140. Specifically, the processing unit 550 reads out the image data stored in the storage unit 540 as the extraction unit 554, refers to the upper left coordinate value Plt and the lower right coordinate value Prb, and selects a rectangular region to be extracted. The data included in the area is specified and stored in another area secured in the temporary storage unit 530 (extracted image data 531). As an example, in the image 300 shown in FIG. 3A, the area 206 is a rectangular area, and the coordinate value Plt (X, Y) at the upper left end of the area 206 is (800, 1150). The coordinate value Prb (X, Y) at the lower right end of the area 206 is (1000, 700). Therefore, the luminance value of the pixel corresponding to the area included in the area specified by these coordinate values is stored in the temporary storage unit 530.

ステップS730にて、処理部550は、抽出された画像のエッジを強調した画像データを生成する。具体的には、処理部550は、画像生成部555として、抽出された画像データ531を参照して予め規定されたSobelフィルタ処理を実行することにより、領域206の中に含まれる輪郭が強調された画像データを生成する(画像データ532)。Sobelフィルタ処理によって生成された画像は、たとえば図4(A)に示される画像400である。   In step S730, processing unit 550 generates image data in which the edge of the extracted image is emphasized. Specifically, the processing unit 550, as the image generation unit 555, executes a Sobel filter process defined in advance with reference to the extracted image data 531, thereby enhancing the contour included in the region 206. Generated image data (image data 532). The image generated by the Sobel filter process is, for example, an image 400 shown in FIG.

ステップS740にて、処理部550は、エッジ強調された画像を表わすデータを投影累算方向Dpの方向に従って積算し、一次元投影累算データを生成する。具体的には、処理部550は、積算部556として、一時記憶部530から、エッジ強調された画像データ532を読み出し、Y座標軸の負方向に沿って、同一のX座標値を有する各画素の輝度値を積算する。図6に示される座標値(メモリ領域606、608)を参照すると、画像のY軸方向の大きさは、450画素(=1150−700)である。したがって、450個の輝度値が積算されることになる。図4(B)の例では、上記の積算は、累算方向440に沿って実行される。   In step S740, processing unit 550 integrates the data representing the edge-enhanced image according to the direction of projection accumulation direction Dp to generate one-dimensional projection accumulation data. Specifically, the processing unit 550 reads out the edge-enhanced image data 532 as the integration unit 556 from the temporary storage unit 530, and calculates the pixels having the same X coordinate value along the negative direction of the Y coordinate axis. The luminance value is integrated. Referring to the coordinate values (memory areas 606 and 608) shown in FIG. 6, the size of the image in the Y-axis direction is 450 pixels (= 1150-700). Therefore, 450 luminance values are integrated. In the example of FIG. 4B, the above integration is executed along the accumulation direction 440.

ステップS750にて、処理部550は、統計量を算出する対象となる領域を決定する。具体的には、処理部550は、データ範囲決定部557として、一次投影データ533を参照し、データ範囲を表わすデータ534を導出する。本実施の形態においては、各輝度値はY軸方向に従って投影されている。そこで、当該範囲は、X座標の範囲(Xs〜Xe)で指定される。   In step S750, processing unit 550 determines a region for which a statistic is to be calculated. Specifically, the processing unit 550 refers to the primary projection data 533 as the data range determination unit 557 and derives data 534 representing the data range. In the present embodiment, each luminance value is projected according to the Y-axis direction. Therefore, the range is designated by an X coordinate range (Xs to Xe).

画像240に含まれる実際のパネルエッジ211に対応する座標値Xr(211)は、エッジの位置を精度よく決定するという観点から、統計量を算出するための上記領域に含まれない必要がある。しかしながら、現実には、カメラ120とガラス基板140との位置決め誤差などに起因して、設計データに基づいて算出される画像240におけるパネルエッジ211のX座標値Xs(211)と、画像240に含まれる実際のパネルエッジ211のX座標値Xr(211)とは一致しない場合がある。この場合、ステップS750が実行される段階では、Xr(211)の値は未知である。そこで、統計量を算出するために使用されるデータの範囲を規定する上限値のX座標値(Xe)を、X座標値Xs(211)から最大誤差Sme(211)とオフセットPoffとを減算することにより、画像240に含まれる実際のパネルエッジ211を、上記統計量を算出するための領域に含まれないように設定することができる。同様にして、当該領域の下限値のX座標値(Xs)は、上限値Xeからデータ数Ndを減算することにより、算出される。   The coordinate value Xr (211) corresponding to the actual panel edge 211 included in the image 240 needs not to be included in the region for calculating the statistic from the viewpoint of accurately determining the position of the edge. However, in reality, due to positioning errors between the camera 120 and the glass substrate 140, the X coordinate value Xs (211) of the panel edge 211 in the image 240 calculated based on the design data, and the image 240 are included. The actual panel edge 211 may not match the X coordinate value Xr (211). In this case, at the stage where step S750 is executed, the value of Xr (211) is unknown. Therefore, the maximum error X coordinate value (Xe) that defines the range of data used for calculating the statistic is subtracted from the X coordinate value Xs (211) from the maximum error Sme (211) and the offset Poff. Thus, the actual panel edge 211 included in the image 240 can be set so as not to be included in the region for calculating the statistics. Similarly, the X coordinate value (Xs) of the lower limit value of the area is calculated by subtracting the data number Nd from the upper limit value Xe.

たとえば、図4(B)に示される値を用いた演算は、以下のようにして行なわれる。
Xe=Xs(211)−Xme(211)−Poff
=950−20−10
=920。
For example, the calculation using the values shown in FIG. 4B is performed as follows.
Xe = Xs (211) -Xme (211) -Poff
= 950-20-10
= 920.

ここで、オフセット値(Poff)として「10」が用いられているが、他の値が用いられてもよい。なお、オフセット値は、たとえば以下のようにして決定される。   Here, “10” is used as the offset value (Poff), but other values may be used. The offset value is determined as follows, for example.

まず最初に、Poff=0である場合、Xe=950−20−0=930となる。この値は、最大誤差のずれが生じた場合に、実際のパネルエッジ211が統計量を算出するための領域の端と一致する。そこで、オフセット値の値は、少なくとも「1」以上であればよい。   First, when Poff = 0, Xe = 950-20-0 = 930. This value coincides with the end of the area for calculating the statistic when the actual panel edge 211 has a maximum error shift. Therefore, the offset value may be at least “1” or more.

本実施の形態においては、実際のパネルエッジ付近にノイズではない輝度値としての勾配がある場合を想定して、良品としてより安定的な輝度値の平均値と分散となるように、オフセット値は「10」に設定されている。なお、本実施の形態においては、オフセット値の単位は、画素が用いられている。   In the present embodiment, assuming that there is a gradient as a luminance value that is not noise near the actual panel edge, the offset value is set so that the average value and variance of the luminance values are more stable as non-defective products. “10” is set. In the present embodiment, pixels are used as the unit of the offset value.

また、統計量を算出するための領域の小さい方のX座標値Xsは、上限値Xeから統計量算出のためのデータ数Ndを減算することにより求められる。   Further, the X coordinate value Xs of the smaller region for calculating the statistic is obtained by subtracting the number of data Nd for calculating the statistic from the upper limit value Xe.

Xs=Xe−Nd+1
=920−50+1
=871。
Xs = Xe-Nd + 1
= 920-50 + 1
= 871.

ここで、データ数Ndの値が大きいほど、処理時間が長くなるが、エッジの検出精度が向上する。一方、この値が小さいほど、処理時間は短くなるが、処理結果は局所的なノイズの影響を受けやすくなり、上記精度が低下する。そこで、処理時間と検出精度とのトレードオフの関係を考慮して、データ数Ndが決定される。この決定は、たとえば実際に行なった処理の結果(処理時間および検出精度)に基づいて行なわれる。   Here, the larger the value of the data number Nd, the longer the processing time, but the edge detection accuracy is improved. On the other hand, the smaller this value is, the shorter the processing time is, but the processing result is more susceptible to local noise, and the accuracy is reduced. Therefore, the number of data Nd is determined in consideration of the trade-off relationship between processing time and detection accuracy. This determination is made based on, for example, the results of actual processing (processing time and detection accuracy).

以上の演算の結果、本実施の形態において統計量を算出するための領域は、X座標について871〜920と決定される。   As a result of the above calculation, the region for calculating the statistic in the present embodiment is determined as 871 to 920 for the X coordinate.

他のパネルエッジ212,213,214を決定する場合を考慮して、上記の内容を一般的に説明すると、以下のとおりである。まず、「設計データを用いて算出された画像中のパネルエッジの座標値」から、パネルの内側に向けて「画像中の実際のパネルエッジの座標値と設計データから算出された画像中のパネルエッジの座標値との最大誤差」分の画素数がシフトされる。次に、「統計量を算出する領域を決定するための変位量であるオフセット」分の画素数をシフトした位置は、「統計量を算出するための領域」のパネルエッジ側の境界である。さらに、当該「統計量を算出するための領域のパネルエッジ側の境界」から統計量算出のためのデータ数(Nd)−1に相当する画素数をシフトした位置が、他方の境界となる。   Taking the case of determining the other panel edges 212, 213, 214 into consideration, the above contents will be generally described as follows. First, from the “coordinate value of the panel edge in the image calculated using the design data” to the inside of the panel, “the panel value in the image calculated from the actual coordinate value of the panel edge in the image and the design data The number of pixels corresponding to the “maximum error from the edge coordinate value” is shifted. Next, the position shifted by the number of pixels corresponding to “offset, which is a displacement amount for determining a region for calculating a statistic”, is a boundary on the panel edge side of “region for calculating a statistic”. Furthermore, the position where the number of pixels corresponding to the number of data (Nd) −1 for calculating the statistic is shifted from the “boundary on the panel edge side of the region for calculating the statistic” is the other boundary.

図7を再び参照して、ステップS760にて、処理部550は、ステップS750において決定された領域に基づいて統計量を算出し、さらにその統計量に基づいて閾値Vthを算出する。統計量は、たとえば上記領域に含まれる一次元投影累算データの平均値(Vave)と標準偏差(Vsig)とを含む。具体的には、処理部550は、閾値算出部558として、データ範囲を表わすデータ534を参照して閾値535を導出する。   Referring to FIG. 7 again, in step S760, processing unit 550 calculates a statistic based on the region determined in step S750, and further calculates threshold Vth based on the statistic. The statistic includes, for example, an average value (Vave) and a standard deviation (Vsig) of one-dimensional projection accumulation data included in the region. Specifically, the processing unit 550 derives the threshold value 535 as the threshold value calculation unit 558 with reference to the data 534 representing the data range.

たとえば、図4(B)に示される例では、統計量を算出するための領域の下限のX座標値Xsから当該領域の上限のX座標値Xeに含まれるNd(=50)個の1次元投影累算データの各値は、8個のデータの値は「20」であり、その他の値は「0」である。この場合、平均値Vaveは「3.2」となり、標準偏差Vsigは約「7.4」となる。そこで、以下に示されるように、式1を用いて閾値Vthが算出される。   For example, in the example shown in FIG. 4B, Nd (= 50) one-dimensional values included in the upper limit X coordinate value Xe of the area from the lower limit X coordinate value Xs of the area for calculating the statistic. As for each value of the projection accumulation data, the value of eight data is “20”, and the other values are “0”. In this case, the average value Vave is “3.2”, and the standard deviation Vsig is about “7.4”. Therefore, as shown below, the threshold value Vth is calculated using Equation 1.

Vth=Vave + a×Vsig・・・・・・(式1)
=3.2 + 3.0×7.4
=25.4。
Vth = Vave + a × Vsig (1)
= 3.2 + 3.0 × 7.4
= 25.4.

ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる3σにおける「3」の値が使用されている。   Here, the value of “3” in 3σ used in the field of quality control is used as the value of the threshold determination constant a.

図7を再び参照して、ステップS770にて、処理部550は、閾値Vthを用いて、パネルエッジ211の位置を決定する。具体的には、処理部550は、位置決定部559として、閾値535を参照して、エッジの位置を表わすデータ536を導出する。たとえば、統計量を算出するため糊のパネルエッジ211側の上限値Xe(=920)から、パネルエッジ211の方向に(すなわち、X軸の正の方向に)、閾値Vth(前述の図4の例では、25.4)を最初に超える座標を特定する。本実施の場合、図4(B)に示されるように、閾値Vth(25.4)を越えるX座標値は「940」である。この値は、結果として、パネルエッジ211のX座標値Xs(211)に一致する。   Referring to FIG. 7 again, in step S770, processing unit 550 determines the position of panel edge 211 using threshold value Vth. Specifically, the processing unit 550 refers to the threshold value 535 as the position determination unit 559 and derives data 536 representing the position of the edge. For example, from the upper limit value Xe (= 920) on the panel edge 211 side of the glue to calculate the statistic, the threshold value Vth (in the positive direction of the X axis) from the upper limit value Xe (= 920) in FIG. In the example, the coordinates that exceed 25.4) first are specified. In the present embodiment, as shown in FIG. 4B, the X coordinate value exceeding the threshold Vth (25.4) is “940”. As a result, this value coincides with the X coordinate value Xs (211) of the panel edge 211.

なお、ステップS760において、本実施の形態では閾値Vthを算出する式として(式1)が使用されているが、その他の式が用いられてもよい。たとえば、以下のように、標準偏差Vsigの値に応じて、すなわちノイズの程度に応じて、閾値Vthを算出する式を変更することにより、エッジ位置をより高精度に決定することができる。   In step S760, (Equation 1) is used as an equation for calculating the threshold value Vth in the present embodiment, but other equations may be used. For example, as described below, the edge position can be determined with higher accuracy by changing the equation for calculating the threshold value Vth according to the value of the standard deviation Vsig, that is, according to the degree of noise.

第1のケースとして、ノイズが画像に殆ど含まれない場合(「Vsig≦1.0」という関係が成立するとき)、式(2)が用いられてもよい。   As a first case, when almost no noise is included in the image (when the relationship of “Vsig ≦ 1.0” is established), Expression (2) may be used.

Vth=Vave+a・・・・・・・・・(式2)
ただし、a=9.0。
Vth = Vave + a (Equation 2)
However, a = 9.0.

ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる6σにおける「6」よりも大きな値として、「9.0」が使用されている。この値よりも大きな値が使用されてもよい。   Here, “9.0” is used as the value of threshold determination constant “a”, which is larger than “6” in 6σ used in the field of quality control. A value larger than this value may be used.

第2のケースとして、ノイズが画像に多少存在する場合(たとえば、「1.0<Vsig≦5.0」という関係が成立するとき)、式(3)が用いられてもよい。   As a second case, when there is some noise in the image (for example, when the relationship of “1.0 <Vsig ≦ 5.0” is established), the expression (3) may be used.

Vth=Vave + a×Vsig・・・(式3)
ただし、a=6.0。
Vth = Vave + a × Vsig (Formula 3)
However, a = 6.0.

ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる6σにおける「6」が使用されている。   Here, “6” in 6σ used in the field of quality control is used as the value of the threshold determination constant a.

第3のケースとして、ノイズが多い場合(たとえば、「5.0<Vsig」という関係が成立するとき)、式(4)が用いられてもよい。   As a third case, when there is a lot of noise (for example, when the relationship of “5.0 <Vsig” is established), Expression (4) may be used.

Vth=Vave + a×Vsig・・・(式4)
ただし、a=3.0。
Vth = Vave + a × Vsig (Formula 4)
However, a = 3.0.

このように算式および定数を設定することにより、ノイズがほとんどない場合には(第1のケースに相当)、ある1点の局所的なノイズがエッジ位置として誤検出されることを回避することができる。また、ノイズが大きい場合には(第3のケースに相当)、閾値Vthを決定するための定数aを小さくすることにより、パネルエッジ211のエッジ強度と強いノイズのエッジ強度との差が小さい場合においても、パネルエッジ211の位置の誤検出が回避できる。   By setting the equations and constants in this way, when there is almost no noise (corresponding to the first case), it is possible to avoid erroneous detection of a certain local noise as an edge position. it can. When the noise is large (corresponding to the third case), the difference between the edge strength of the panel edge 211 and the strong noise edge strength is small by reducing the constant a for determining the threshold value Vth. In this case, erroneous detection of the position of the panel edge 211 can be avoided.

ここで、図8〜図11を参照して、ガラス基板800のパネルエッジを決定する他の技術について説明する。図8は、ガラス基板800の外観を表わす図である。ガラス基板800は、2つのパネル810,820を含む。   Here, another technique for determining the panel edge of the glass substrate 800 will be described with reference to FIGS. FIG. 8 is a diagram illustrating the appearance of the glass substrate 800. The glass substrate 800 includes two panels 810 and 820.

パネル810の周囲には、配線パターン領域815が形成されている。パネル810と配線パターン領域815との間には、パネルエッジ811,812,813,814が存在する。また、配線パターン領域815の外側は、ガラス基板800においてパネルが形成されない領域である。パネル820についても、パネル810についての上記の各領域と同様の領域がそれぞれ形成されている。   A wiring pattern region 815 is formed around the panel 810. Panel edges 811, 812, 813, and 814 exist between the panel 810 and the wiring pattern region 815. The outside of the wiring pattern region 815 is a region where a panel is not formed on the glass substrate 800. The panel 820 is also formed with regions similar to the above-described regions for the panel 810.

領域806は、当該技術を説明するための対象である。領域806は、図8から明らかなように、パネル810の一部と、配線パターン領域815の一部と、ガラス基板800の一部とを含む。   A region 806 is a target for explaining the technology. As is apparent from FIG. 8, the region 806 includes a part of the panel 810, a part of the wiring pattern region 815, and a part of the glass substrate 800.

図9は、ガラス基板800をカメラで撮影した場合に取得される画像900を表わす図である。図8に示されるガラス基板800に対する撮像領域850は、画像900においては領域950に対応する。画像900は、パネル810の画像910、920と、パネルエッジ811の画像911と、配線パターン領域815とガラス基板800との境界である配線パターンエッジの画像916とを含む。画像900において一部の領域を占める画像906は、ガラス基板800の一部を占める領域806の画像である。   FIG. 9 is a diagram illustrating an image 900 acquired when the glass substrate 800 is photographed with a camera. An imaging area 850 for the glass substrate 800 shown in FIG. 8 corresponds to the area 950 in the image 900. The image 900 includes images 910 and 920 of the panel 810, an image 911 of the panel edge 811, and a wiring pattern edge image 916 that is a boundary between the wiring pattern region 815 and the glass substrate 800. An image 906 occupying a part of the image 900 is an image of the area 806 occupying a part of the glass substrate 800.

次に、図10に示される累算方向に対して演算処理を実行する場合について、説明する。図10は、図9に示される画像906を説明するための図である。図10(A)に示されるように、画像906は、パネルからガラス基板の方向に向けて、パネルの画像と、パネルエッジ1020と、配線パターンエッジ1030と、画像の端部1010とを含む。   Next, the case where the calculation process is executed in the accumulation direction shown in FIG. 10 will be described. FIG. 10 is a diagram for explaining the image 906 shown in FIG. As shown in FIG. 10A, the image 906 includes an image of the panel, a panel edge 1020, a wiring pattern edge 1030, and an end portion 1010 of the image from the panel toward the glass substrate.

たとえば、特開平5−266194号公報に開示された技術を用いると、原画像の画素の値を複数の方向に沿って積算することにより、1次元投影累算データが求められる。それぞれについて投影勾配データのピーク値が求められる。当該複数の方向のうち、最も大きい方向のピーク値をエッジ位置とされる。   For example, when the technique disclosed in Japanese Patent Laid-Open No. 5-266194 is used, one-dimensional projection accumulation data is obtained by integrating pixel values of an original image along a plurality of directions. The peak value of the projection gradient data is obtained for each. The peak value in the largest direction among the plurality of directions is set as the edge position.

具体的には、図10(A)において、エッジ位置は、累算方向1040の投影勾配データのピーク値が最も大きい方向であることが明らかである。その場合、画素の値が累算方向1040に投影された場合の1次元投影累算データは、図10(B)のように示される。ここで、図10(B)に示される1次元投影累算データの縦軸の輝度値は、輝度値の平均値を表わす。図10(B)に示される1次元投影累算データから勾配の大きさのピーク位置を求めると、配線パターンエッジ1030の位置が選ばれて、パネルエッジ1020の位置は選ばれない。   Specifically, in FIG. 10A, the edge position is clearly the direction in which the peak value of the projection gradient data in the accumulation direction 1040 is the largest. In this case, the one-dimensional projection accumulation data when the pixel value is projected in the accumulation direction 1040 is shown in FIG. Here, the luminance value on the vertical axis of the one-dimensional projection accumulation data shown in FIG. 10B represents the average value of the luminance values. When the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulation data shown in FIG. 10B, the position of the wiring pattern edge 1030 is selected, and the position of the panel edge 1020 is not selected.

図11は、さらに別の技術を説明するための図である。特開平5−266194号公報には、上記技術以外の技術も示されている。その技術は、1次元投影累算データを求める前に、原画像の2次元勾配分布を求める、というものである。   FIG. 11 is a diagram for explaining still another technique. Japanese Patent Laid-Open No. 5-266194 also discloses a technique other than the above technique. The technique is to obtain a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulation data.

ここで、図11(A)に、領域806に対応する画像906に対して、2次元勾配分布を求める方法としてSobelフィルタ処理を実施した画像を示す。この場合も、図10を参照して説明した、2次元勾配分布を求めない方法が適用される場合と同様に、当該エッジ位置は、図11(A)に示される累算方向1140の投影勾配データのピーク値が最も大きい方向であることが、明らかである。   Here, FIG. 11A shows an image obtained by performing Sobel filter processing as a method for obtaining a two-dimensional gradient distribution on the image 906 corresponding to the region 806. In this case as well, the edge position is the projected gradient in the accumulation direction 1140 shown in FIG. 11A, as in the case where the method of obtaining the two-dimensional gradient distribution described with reference to FIG. 10 is applied. It is clear that the peak value of the data is in the largest direction.

図11(B)は、図11(A)に示される2次元勾配分布を累算方向1140に投影した場合の1次元投影累算データを表わす。図11(B)に示される1次元投影累算データの縦軸の輝度値は、輝度値の平均値を表わす。図11(B)に示される1次元投影累算データから勾配の大きさのピーク位置を求めても、パターンエッジ1130の位置が選ばれて、パネルエッジ1120の位置は選ばれない。   FIG. 11B shows one-dimensional projection accumulation data when the two-dimensional gradient distribution shown in FIG. 11A is projected in the accumulation direction 1140. The luminance value on the vertical axis of the one-dimensional projection accumulation data shown in FIG. 11B represents the average value of the luminance values. Even when the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulation data shown in FIG. 11B, the position of the pattern edge 1130 is selected, and the position of the panel edge 1120 is not selected.

このように、従来の技術によれば、パネルと配線パターン領域との境界であるパネルエッジ、たとえば、図10におけるパネルエッジ1020、図11におけるパネルエッジ1120が高精度に決定できない場合がある。   As described above, according to the conventional technique, the panel edge that is the boundary between the panel and the wiring pattern region, for example, the panel edge 1020 in FIG. 10 and the panel edge 1120 in FIG.

しかしながら、図1〜図7を参照して説明した本発明の実施の形態に係る検査システム10によると、以下のような技術的特徴に基づき、エッジの位置を精度良く、また短時間で決定することができる。   However, according to the inspection system 10 according to the embodiment of the present invention described with reference to FIGS. 1 to 7, the position of the edge is determined accurately and in a short time based on the following technical features. be able to.

まず、ステップS750に記載のように、統計量を算出するための領域は、矩形領域であるパネルの内部に設定され、パネル内部の一部の領域の統計量を用いて閾値Vthが決定される。このようにすると、パネル領域の周囲(すなわち配線パターン領域)が統計量の算出の対象とならないため、パネル内部と配線パターン領域であるパネル外部との境界が高精度に決定される。   First, as described in step S750, an area for calculating a statistic is set inside a panel which is a rectangular area, and a threshold value Vth is determined using the statistic of a partial area inside the panel. . In this way, since the periphery of the panel area (that is, the wiring pattern area) is not a target for the calculation of the statistic, the boundary between the inside of the panel and the outside of the panel that is the wiring pattern area is determined with high accuracy.

また、ステップS770に記載のように、閾値Vthを越える位置の中で、統計量を算出するための領域に最も近い位置がエッジ位置として決定されるため、パネル内部と配線パターン領域との境界が高精度に決定される。   Further, as described in step S770, since the position closest to the area for calculating the statistic is determined as the edge position among the positions exceeding the threshold value Vth, the boundary between the inside of the panel and the wiring pattern area is determined. Determined with high accuracy.

また、ステップS710に記載のように、設計データより算出した画像中のパネルエッジ211の座標Xs(211)が、対象となる領域の決定に用いられる。これにより、画像240から、パネルエッジ211を含む領域206を無駄なく適切な大きさで切り出す(抽出する)ことができ、エッジの位置を決定するために要する時間を短くすることができる。   Further, as described in step S710, the coordinates Xs (211) of the panel edge 211 in the image calculated from the design data are used to determine the target region. Accordingly, the region 206 including the panel edge 211 can be cut out (extracted) from the image 240 with an appropriate size without waste, and the time required to determine the position of the edge can be shortened.

さらに、ステップS710に記載のように、パネルエッジ211の画像中における座標Xr(211)と、設計データより算出された、画像中のパネルエッジ211の座標Xs(211)との最大誤差Xme(211)とが用いられる。ステップS750に記載のように、座標Xs(211)から少なくともXme(211)個の画素数以上離れた座標値を、上記統計量を算出するための領域の限界とすることで、統計量を算出するための領域からパネルエッジ211の画像における座標Xr(211)が除去される。これにより、パネルエッジ211を含まないノイズ成分の統計量が算出される。その結果、閾値Vthを適切に決定することができ、さらにはエッジ位置を高精度に決定することができる。   Further, as described in step S710, the maximum error Xme (211) between the coordinates Xr (211) in the image of the panel edge 211 and the coordinates Xs (211) of the panel edge 211 in the image calculated from the design data. ) And are used. As described in step S750, the statistic is calculated by setting a coordinate value that is at least Xme (211) pixels away from the coordinate Xs (211) as the limit of the area for calculating the statistic. The coordinate Xr (211) in the image of the panel edge 211 is removed from the region for the purpose. Thereby, the statistic of the noise component not including the panel edge 211 is calculated. As a result, the threshold value Vth can be determined appropriately, and the edge position can be determined with high accuracy.

以上詳述したように、本発明の実施の形態に係るエッジ位置検出装置100は、各処理を実行する回路素子を組み合わせることによりハードウェアの構成として実現されるが、その他の態様でも構成することができる。たとえば、各処理を実行するプログラムを、CPU(Central Processing Unit)その他のプロセッサに実行させることにより、ソフトウェアとハードウェアとが協働する態様によっても実現される。   As described above in detail, the edge position detection apparatus 100 according to the embodiment of the present invention is realized as a hardware configuration by combining circuit elements that execute each process, but may also be configured in other aspects. Can do. For example, it is also realized by a mode in which software and hardware cooperate by causing a CPU (Central Processing Unit) or other processor to execute a program for executing each process.

そこで、図12を参照して、エッジ位置検出装置100を実現するコンピュータシステム1200について説明する。図12は、コンピュータシステム1200のハードウェア構成を表わすブロック図である。   A computer system 1200 that implements the edge position detection apparatus 100 will be described with reference to FIG. FIG. 12 is a block diagram showing a hardware configuration of computer system 1200.

コンピュータシステム1200は、ハードウェアの主たる構成要素として、CPU1210と、コンピュータシステム1200の使用者による指示の入力を受け付けるマウス1220およびキーボード1230と、入力されるデータあるいはプログラムによって予め規定された処理が実行されることに一時的に生成されるデータを格納するRAM1240と、大容量のデータを格納可能なハードディスク1250と、CD−ROM(Compact Disk-Read Only Memory)駆動装置1260と、モニタ1280と、通信IF(Interface)1290とを含む。上記の各構成要素は、データバスにより接続されている。CD−ROM駆動装置1260には、CD−ROM1262が装着される。   The computer system 1200 includes, as main components of hardware, a CPU 1210, a mouse 1220 and a keyboard 1230 that accept input of instructions from a user of the computer system 1200, and processing that is defined in advance by input data or programs. A RAM 1240 for storing temporarily generated data, a hard disk 1250 capable of storing a large amount of data, a CD-ROM (Compact Disk-Read Only Memory) driving device 1260, a monitor 1280, a communication IF (Interface) 1290. Each component described above is connected by a data bus. A CD-ROM 1262 is mounted on the CD-ROM drive 1260.

エッジ位置検出装置100として機能するコンピュータシステム1200における処理は、当該ハードウェアおよびCPU1210により実行されるソフトウェアによって実現される。このようなソフトウェアは、RAM1240あるいはハードディスク1250に予め記憶されている場合もあれば、CD−ROM1262その他の記録媒体に格納されてプログラム製品として流通し、CD−ROM駆動装置1260その他の読取装置によりその記録媒体から読み取られて、ハードディスク1250に一旦格納される場合もある。そのソフトウェアは、RAM1240あるいはハードディスク1250から読み出されて、CPU1210によって実行される。図12に示されたコンピュータシステム1200のハードウェア自体は、一般的なものである。したがって、本発明の本質的な部分は、RAM1240、ハードディスク1250、CD−ROM1262その他の記録媒体に格納されたソフトウェアであるともいえる。なお、コンピュータシステム1200の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Processing in the computer system 1200 that functions as the edge position detection apparatus 100 is realized by the hardware and software executed by the CPU 1210. Such software may be pre-stored in the RAM 1240 or the hard disk 1250, or may be stored in a CD-ROM 1262 or other recording medium and distributed as a program product, and the CD-ROM drive 1260 or other reading device may store the software. In some cases, the data may be read from the recording medium and temporarily stored in the hard disk 1250. The software is read from the RAM 1240 or the hard disk 1250 and executed by the CPU 1210. The hardware itself of the computer system 1200 shown in FIG. 12 is general. Therefore, it can be said that the essential part of the present invention is software stored in the RAM 1240, the hard disk 1250, the CD-ROM 1262, and other recording media. Since the operation of each hardware of computer system 1200 is well known, detailed description will not be repeated.

なお、以上詳述した本実施の形態に含まれる技術思想が適用される範囲は、上記のような境界(エッジ)の検出に限られない。たとえば、当該境界を含む矩形領域を表わす画像における当該矩形領域の外枠の位置を上記境界として検出する場合にも、同様にして適用できる。   Note that the scope to which the technical idea included in the present embodiment described in detail above is applied is not limited to the detection of the boundary (edge) as described above. For example, the present invention can be similarly applied to the case where the position of the outer frame of the rectangular area in the image representing the rectangular area including the boundary is detected as the boundary.

また、本実施の形態の説明を簡単にするために、被写体の撮影により取得される画像が矩形である場合について、本実施の形態の説明を行なった。しかしながら、画像の矩形でない場合、たとえば多角形である場合にも、同様に適用できる。たとえば、多角形を構成する一辺のみを位置の検出対象とし、上述の処理を実行し、各辺について、当該処理を繰り返せばよい。そうすることにより、矩形以外の形状を有する多角形の画像についても、当該形状からなる領域と他の領域との境界の位置を決定することができる。   Further, in order to simplify the description of the present embodiment, the present embodiment has been described in the case where an image acquired by photographing a subject is a rectangle. However, the present invention can be similarly applied to a case where the image is not a rectangle, for example, a polygon. For example, only one side constituting the polygon is set as a position detection target, the above-described processing is executed, and the processing is repeated for each side. By doing so, it is possible to determine the position of the boundary between the region having the shape and the other region even for a polygonal image having a shape other than the rectangle.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明は、たとえば、画像検査装置、画像変換装置、画像認識装置、パターンマッチング装置、画像を用いた位置決め装置、画像認識機能付自律ロボット、画像認識機能付産業用ロボットなどに利用される。   The present invention is used for, for example, an image inspection device, an image conversion device, an image recognition device, a pattern matching device, a positioning device using an image, an autonomous robot with an image recognition function, an industrial robot with an image recognition function, and the like.

本発明の実施の形態に係る検査システム10の構成を表わす図である。It is a figure showing the structure of the test | inspection system 10 which concerns on embodiment of this invention. ガラス基板140の画像240を表わす図である。It is a figure showing the image 240 of the glass substrate 140. FIG. 領域206の画像を表わす図である。FIG. 6 is a diagram illustrating an image of an area 206. Sobelフィルタ処理を実行することにより生成されたエッジ強調画像400を表わす図である。It is a figure showing the edge emphasis picture 400 generated by performing Sobel filter processing. エッジ位置検出装置100によって実現される各機能の構成を表わすブロック図である。3 is a block diagram illustrating a configuration of each function realized by the edge position detection device 100. FIG. 記憶部540におけるデータの格納の一態様を概念的に表わす図である。FIG. 11 is a diagram conceptually illustrating one aspect of data storage in a storage unit 540. エッジ位置検出装置100の処理部550が実行する処理の手順を表わすフローチャートである。5 is a flowchart showing a procedure of processing executed by processing unit 550 of edge position detection apparatus 100. ガラス基板800の外観を表わす図である。It is a figure showing the external appearance of the glass substrate. ガラス基板800をカメラで撮影した場合に取得される画像900を表わす図である。It is a figure showing the image 900 acquired when the glass substrate 800 is image | photographed with the camera. 画像906を説明するための図である。It is a figure for demonstrating the image 906. FIG. 画像906に対してSobelフィルタ処理を実施した画像を表わす図である。It is a figure showing the image which performed the Sobel filter process with respect to the image 906. FIG. コンピュータシステム1200のハードウェア構成を表わすブロック図である。2 is a block diagram illustrating a hardware configuration of a computer system 1200. FIG.

符号の説明Explanation of symbols

10 検査システム、140 ガラス基板、141,142 パネル、206 領域、210,220,240,300 画像、211,212,213,214,811,812,813,814 パネルエッジ、215,815 配線パターン領域、216 配線パターンエッジ。   10 inspection system, 140 glass substrate, 141, 142 panel, 206 area, 210, 220, 240, 300 image, 211, 212, 213, 214, 811, 812, 813, 814 panel edge, 215, 815 wiring pattern area, 216 Wiring pattern edge.

Claims (13)

被写体の撮影により取得された原画像を表わす原画像データを格納する記憶手段を備え、前記原画像データは2次元の座標軸にしたがって表わされており、
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成する第1の生成手段と、
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成する第2の生成手段と、
前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定する第1の決定手段と、
前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出する算出手段と、
前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定する特定手段と、
前記特定手段によって特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定する第2の決定手段とを備える、境界の位置決定装置。
Storage means for storing original image data representing an original image acquired by photographing a subject, wherein the original image data is represented according to a two-dimensional coordinate axis;
First generation means for generating, when the original image has a plurality of partial images, based on the original image data, emphasized image data representing an image in which a boundary between the partial images is emphasized;
The luminance value of each partial area corresponding to each partial image after the boundary is emphasized is integrated in the direction of the boundary, and an average value is calculated, so that one-dimensional of the two-dimensional coordinate axes Second generation means for generating a plurality of one-dimensional data represented according to the coordinate axes of:
First determining means for determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating means for calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the range of the data;
Specifying means for specifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range;
A boundary position determining apparatus comprising: a second determining unit that determines a coordinate value on the one-dimensional coordinate axis of the one-dimensional data specified by the specifying unit as the position of the boundary.
前記第1の決定手段は、前記原画像データによって決定される範囲と、前記設計データによって特定される範囲とに基づいて、前記データの範囲を決定する手段を含む、請求項1に記載の境界の位置決定装置。   2. The boundary according to claim 1, wherein the first determination unit includes a unit that determines a range of the data based on a range determined by the original image data and a range specified by the design data. Positioning device. 前記データの範囲を決定する手段は、
前記設計データに基づいて、計算上の位置データとして、前記境界の1次元データを算出し、
前記原画像データに基づいて、実際の位置データとして、前記境界の前記1次元データを算出し、
前記計算上の位置データと前記実際の位置データとの差に基づいて、前記データの範囲を決定する、請求項2に記載の境界の位置決定装置。
The means for determining the range of the data is:
Based on the design data, as the calculated position data, calculate the one-dimensional data of the boundary,
Based on the original image data, the one-dimensional data of the boundary is calculated as actual position data,
The boundary position determination apparatus according to claim 2, wherein a range of the data is determined based on a difference between the calculated position data and the actual position data.
前記被写体は、検査の対象となる第1の部分と、前記検査の対象とならない第2の部分とを含み、
前記原画像は、前記第1の部分に対応する第1の画像と、前記第2の部分に対応する第2の画像とを含み、
前記第1の生成手段は、前記強調画像データとして、前記第1の画像と前記第2の画像との境界が強調された画像を表わすデータを生成する、請求項1に記載の境界の位置決定装置。
The subject includes a first part to be inspected and a second part not to be inspected,
The original image includes a first image corresponding to the first portion and a second image corresponding to the second portion;
2. The boundary position determination according to claim 1, wherein the first generation unit generates data representing an image in which a boundary between the first image and the second image is enhanced as the enhanced image data. apparatus.
前記被写体は、ガラス基板であり、
前記第1の部分は、前記ガラス基板に加工されたパネル領域であり、
前記第1の生成手段は、前記パネル領域に対応する画像と、前記パネル領域以外の領域に対応する画像とが接する部分が強調された画像を表わすデータを生成する、請求項4に記載の境界の位置決定装置。
The subject is a glass substrate;
The first portion is a panel region processed into the glass substrate,
5. The boundary according to claim 4, wherein the first generation unit generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact is emphasized. Positioning device.
前記算出手段は、前記複数の1次元データについての平均値と標準偏差とを算出し、前記平均値と前記標準偏差とに基づいて前記閾値を算出する、請求項1に記載の境界の位置決定装置。   2. The boundary position determination according to claim 1, wherein the calculation unit calculates an average value and a standard deviation for the plurality of one-dimensional data, and calculates the threshold based on the average value and the standard deviation. apparatus. 前記特定手段は、
前記閾値を越える輝度値に対応する複数の前記1次元データを特定する手段と、
特定された各前記1次元データの各々について、前記データの範囲の上限値と前記1次元データとの差をそれぞれ算出する手段と、
算出された各前記差が最小となる1次元データを、前記閾値を越える輝度値に対応する前記1次元データとして決定する手段とを含む、請求項1に記載の境界の位置決定装置。
The specifying means is:
Means for identifying a plurality of the one-dimensional data corresponding to luminance values exceeding the threshold;
Means for calculating the difference between the upper limit of the range of the data and the one-dimensional data for each of the identified one-dimensional data;
2. The boundary position determining apparatus according to claim 1, further comprising: means for determining, as the one-dimensional data corresponding to a luminance value exceeding the threshold value, one-dimensional data in which each calculated difference is minimum.
前記原画像は、矩形領域を含み、
前記境界は、前記矩形領域の輪郭によって形成され、
前記第1の生成手段は、前記強調画像データとして、前記輪郭により形成される前記境界が強調された画像を表わすデータを生成する、請求項1に記載の境界の位置決定装置。
The original image includes a rectangular region;
The boundary is formed by the outline of the rectangular region;
The boundary position determination device according to claim 1, wherein the first generation unit generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
前記第2の生成手段は、前記境界が強調された後の前記矩形領域に対応する各画素の各輝度値を、前記矩形領域における一方向に積算して、平均値を算出することにより、前記複数の一次元データを生成し、
前記第1の決定手段は、前記矩形領域についての前記一次元データによって規定される範囲に前記データの範囲が含まれるように、前記データの範囲を決定する、請求項8に記載の境界の位置決定装置。
The second generation means integrates each luminance value of each pixel corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area, and calculates an average value, thereby calculating the average value. Generate multiple one-dimensional data,
The boundary position according to claim 8, wherein the first determination unit determines the range of the data such that the range of the data is included in a range defined by the one-dimensional data for the rectangular region. Decision device.
前記統計量は、平均値と標準偏差とを含み、
前記算出手段は、複数の標準偏差の各値に応じて予め規定された各式を用いて前記閾値を算出し、各前記式は、各前記標準偏差の値によって異なる、請求項1に記載の境界の位置決定装置。
The statistic includes an average value and a standard deviation,
The said calculation means calculates the said threshold value using each formula prescribed | regulated beforehand according to each value of several standard deviation, Each said formula changes with the value of each said standard deviation, The claim | item 2. Boundary positioning device.
コンピュータが画像に含まれる境界の位置を決定する方法であって、前記コンピュータは、データを格納する記憶装置と前記データを用いて予め規定された処理を実行する処理装置とを備えており、前記方法は、
前記処理装置が、前記記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを備え、前記原画像データは2次元の座標軸にしたがって表わされており、
前記原画像が複数の部分画像を有する場合に、前記処理装置が、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、
前記処理装置が、前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、
前記処理装置が、前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定するステップと、
前記処理装置が、前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、
前記処理装置が、前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定するステップと、
前記処理装置が、前記特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定するステップとを備える、境界の位置を決定する方法。
A method for determining a position of a boundary included in an image by a computer, the computer comprising a storage device for storing data and a processing device for executing a predetermined process using the data, The method is
The processing device comprises a step of reading original image data representing an original image acquired by photographing a subject from the storage device, and the original image data is represented according to a two-dimensional coordinate axis,
When the original image has a plurality of partial images, the processing device generates, based on the original image data, enhanced image data representing an image in which a boundary between the partial images is enhanced;
The processing device adds the luminance values of the partial areas corresponding to the partial images after the boundary is emphasized in the direction of the boundary to calculate an average value, thereby calculating the two-dimensional coordinate axis. Generating a plurality of one-dimensional data represented according to a one-dimensional coordinate axis of
The processing device determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
The processing device identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the range of the data;
A method for determining a position of the boundary, comprising: determining, as the boundary position, a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data.
画像に含まれる境界の位置を決定する装置としてコンピュータを機能させるためのプログラムであって、前記コンピュータは、データを格納する記憶装置と前記データを用いて予め規定された処理を実行する処理装置とを備えており、前記プログラムは前記処理装置に、
前記記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを実行させ、前記原画像データは2次元の座標軸にしたがって表わされており、
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、
前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定するステップと、
前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、
前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定するステップと、
前記特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定するステップとを実行させる、プログラム。
A program for causing a computer to function as a device for determining a position of a boundary included in an image, the computer including a storage device for storing data and a processing device for executing a predetermined process using the data The program is stored in the processing device.
A step of reading original image data representing an original image acquired by photographing a subject from the storage device is executed, and the original image data is represented according to a two-dimensional coordinate axis;
When the original image has a plurality of partial images, based on the original image data, generating enhanced image data representing an image in which the boundary of each partial image is enhanced; and
The luminance value of each partial area corresponding to each partial image after the boundary is emphasized is integrated in the direction of the boundary, and an average value is calculated, so that one-dimensional of the two-dimensional coordinate axes Generating a plurality of one-dimensional data represented according to the coordinate axes of:
Determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
Identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range;
And determining a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data as the position of the boundary.
請求項12に記載のプログラムを格納した、記録媒体。   A recording medium storing the program according to claim 12.
JP2006126201A 2006-04-28 2006-04-28 Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium Active JP4275149B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006126201A JP4275149B2 (en) 2006-04-28 2006-04-28 Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium
PCT/JP2007/059025 WO2007125981A1 (en) 2006-04-28 2007-04-26 Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006126201A JP4275149B2 (en) 2006-04-28 2006-04-28 Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2007298376A true JP2007298376A (en) 2007-11-15
JP4275149B2 JP4275149B2 (en) 2009-06-10

Family

ID=38655506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006126201A Active JP4275149B2 (en) 2006-04-28 2006-04-28 Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium

Country Status (2)

Country Link
JP (1) JP4275149B2 (en)
WO (1) WO2007125981A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093623A (en) * 2008-10-09 2010-04-22 Denso Corp Image processor
CN104802168A (en) * 2015-04-20 2015-07-29 深圳市文鼎创数据科技有限公司 Boundary detection method and boundary detection system
JP2019155481A (en) * 2018-03-07 2019-09-19 株式会社ディスコ Cutting device
CN113545185A (en) * 2019-03-14 2021-10-22 株式会社富士 Object determination method and object determination device
CN113658205A (en) * 2020-06-04 2021-11-16 牧今科技 Method and computing system for performing or facilitating physical edge detection
WO2021246476A1 (en) * 2020-06-04 2021-12-09 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809386B (en) * 2015-04-20 2017-10-17 深圳市文鼎创数据科技有限公司 A kind of security boundary detection method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409702B2 (en) * 2000-03-14 2010-02-03 株式会社東芝 Recognition device
JP3633879B2 (en) * 2001-03-27 2005-03-30 シャープ株式会社 Sheet glass sorting system
JP4565796B2 (en) * 2002-07-25 2010-10-20 株式会社日立メディコ Diagnostic imaging equipment

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093623A (en) * 2008-10-09 2010-04-22 Denso Corp Image processor
JP4661934B2 (en) * 2008-10-09 2011-03-30 株式会社デンソー Image processing device
US8310546B2 (en) 2008-10-09 2012-11-13 Denso Corporation Image processing apparatus adapted to recognize object in acquired image
CN104802168A (en) * 2015-04-20 2015-07-29 深圳市文鼎创数据科技有限公司 Boundary detection method and boundary detection system
CN104802168B (en) * 2015-04-20 2016-08-24 深圳市文鼎创数据科技有限公司 A kind of boundary detection method and system
JP7049866B2 (en) 2018-03-07 2022-04-07 株式会社ディスコ Cutting equipment
JP2019155481A (en) * 2018-03-07 2019-09-19 株式会社ディスコ Cutting device
CN113545185A (en) * 2019-03-14 2021-10-22 株式会社富士 Object determination method and object determination device
CN113545185B (en) * 2019-03-14 2022-11-25 株式会社富士 Object determination method and object determination device
CN113658205A (en) * 2020-06-04 2021-11-16 牧今科技 Method and computing system for performing or facilitating physical edge detection
WO2021246476A1 (en) * 2020-06-04 2021-12-09 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection
JP2022534342A (en) * 2020-06-04 2022-07-29 株式会社Mujin Method and computational system for performing or facilitating physical edge detection
JP7118382B2 (en) 2020-06-04 2022-08-16 株式会社Mujin Method and computational system for performing or facilitating physical edge detection

Also Published As

Publication number Publication date
WO2007125981A1 (en) 2007-11-08
JP4275149B2 (en) 2009-06-10

Similar Documents

Publication Publication Date Title
JP5273196B2 (en) Image processing device
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
JP4154374B2 (en) Pattern matching device and scanning electron microscope using the same
JP5997039B2 (en) Defect inspection method and defect inspection apparatus
CN107316047B (en) Image processing apparatus, image processing method, and storage medium
JP4275149B2 (en) Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium
JP5567922B2 (en) Image processing apparatus and control method thereof
JP4160991B2 (en) Linear defect detection apparatus and semiconductor substrate manufacturing apparatus, linear defect detection method and semiconductor substrate manufacturing method, computer connected to the detection apparatus or ...
JP2005072888A (en) Image projection method and image projection device
JP6209833B2 (en) Inspection tool, inspection method, stereo camera production method and system
JP2015511310A (en) Segmentation for wafer inspection
JP5156601B2 (en) Shape measuring apparatus and program
JP2007285754A (en) Flaw detection method and flaw detector
JP2009211960A (en) Edge detecting method, and charged particle beam device
US20080050007A1 (en) Pattern inspection apparatus and method with enhanced test image correctability using frequency division scheme
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2010133751A (en) Shape measuring device and program
JP4788475B2 (en) Image processing apparatus and image processing method
JP4801697B2 (en) Image forming method, image forming apparatus, and computer program
JP4182937B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP2014203311A (en) Image processor, image processing method, and program
JP6390163B2 (en) Information processing apparatus, information processing method, and program
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
JP2011112379A (en) Image processing device and image processing program
JP7419846B2 (en) Liquid level detection method and liquid level detection device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090303

R150 Certificate of patent or registration of utility model

Ref document number: 4275149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

SG99 Written request for registration of restore

Free format text: JAPANESE INTERMEDIATE CODE: R316G99

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

SG99 Written request for registration of restore

Free format text: JAPANESE INTERMEDIATE CODE: R316G99

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350