WO2007125981A1 - Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium - Google Patents

Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium Download PDF

Info

Publication number
WO2007125981A1
WO2007125981A1 PCT/JP2007/059025 JP2007059025W WO2007125981A1 WO 2007125981 A1 WO2007125981 A1 WO 2007125981A1 JP 2007059025 W JP2007059025 W JP 2007059025W WO 2007125981 A1 WO2007125981 A1 WO 2007125981A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
boundary
image
dimensional
range
Prior art date
Application number
PCT/JP2007/059025
Other languages
French (fr)
Japanese (ja)
Inventor
Masakazu Yanase
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Publication of WO2007125981A1 publication Critical patent/WO2007125981A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8896Circuits specially adapted for system specific signal conditioning

Definitions

  • Boundary position determination device method for determining boundary position, program for causing computer to function as the device, and recording medium
  • the present invention relates to a technique for determining the position of a boundary, and more specifically to a technique for determining the position of a boundary included in an image acquired by photographing a subject.
  • the inspection process in the manufacturing process plays an important role as a quality control method for manufacturing a high-quality thin panel.
  • a wide variety of defect inspection devices using image processing technology have been developed in order to stabilize costs and reduce costs by reducing the number of visual inspectors.
  • the larger the processing area the more processing time is required for image processing. For this reason, the processing time is shortened by inspecting the image using only the necessary area.
  • the edge position there is a method of using design data of the edge position. Specifically, the position of the edge in the image is calculated from the position of the edge with respect to the edge of the glass substrate and the positional relationship between the camera and the glass substrate.
  • Patent Document 1 discloses a technique that can determine the end point of a straight line portion of a contour line without being affected by noise. According to this technique, first, an image is projected in gray in the direction of an edge, and one-dimensional projection accumulated data is obtained. Next, the magnitude of the one-dimensional projection accumulated data force gradient is obtained, and the position is detected as the position force edge position where the gradient magnitude reaches a peak.
  • Patent Document 2 describes an object to be joined such as an extrusion-type material or a plate material to be joined together. It discloses a technology that can accurately detect the joint line even if the surface of the material is contaminated if it is contaminated.
  • Patent Document 3 Japanese Unexamined Patent Application Publication No. 2004-272313 is a technique for detecting an edge with high accuracy by quantitatively analyzing an image having poor edge quality. Is disclosed.
  • Patent Document 4 Japanese Patent Laid-Open No. 2005-167802
  • Patent Document 4 reads a document image by an area sensor and extracts the document edge from the image data by image processing.
  • a technique for detecting the document size based on the contour and position of the document is disclosed.
  • Patent Document 1 JP-A-5-266194
  • Patent Document 2 Japanese Patent Laid-Open No. 2005-284725
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-272313
  • Patent Document 4 Japanese Unexamined Patent Application Publication No. 2005-167802
  • one-dimensional projection accumulation data is obtained by accumulating pixel values of an original image along a plurality of directions, and a peak value of projection gradient data is obtained for each.
  • the peak value in the largest direction among the plurality of directions is set as the edge position.
  • Japanese Patent Laid-Open No. 5-266194 discloses a second technique for obtaining a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulated data.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a position determination device that can accurately determine the position of the boundary. Another object is to provide a boundary position determination device that can improve the efficiency of image processing inspection of an inspection object.
  • Another object is to provide a method capable of accurately determining the position of the boundary. Another object is to provide a method for determining the boundary position, which can improve the efficiency of image processing inspection of the inspection object.
  • Another object is to provide a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary.
  • the sixth object is to provide a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.
  • the boundary position determination device includes a storage unit that stores original image data representing an original image acquired by photographing a subject.
  • the original image data is represented according to a two-dimensional coordinate axis.
  • the apparatus includes first generation means for generating emphasized image data representing an image in which the boundary of each partial image is emphasized based on the original image data;
  • Each luminance value of each partial area corresponding to each partial image after enhancement is integrated in the direction of the boundary, and the average value is calculated to express it according to the one-dimensional coordinate axis of the two-dimensional coordinate axes.
  • a second generation unit that generates a plurality of one-dimensional data
  • a first determination unit that determines a range of data for determining a boundary position based on the design data of the subject, and a data Calculated based on a calculation means for calculating a threshold value for luminance values by calculating a statistic using a plurality of one-dimensional data included in the range, and a plurality of one-dimensional data included in the data range.
  • Exceed threshold Second determination means for determining a coordinate value on a one-dimensional coordinate axis of the one-dimensional data corresponding to the luminance value as a boundary position;
  • the first determination unit determines a data range based on a range determined by the original image data and a range specified by the design data.
  • the first determining means calculates one-dimensional boundary data as calculation position data based on design data, and as actual position data based on original image data, Calculate one-dimensional boundary data, and determine the data range based on the difference between the calculated position data and the actual position data.
  • the subject includes a first part to be inspected and a second part not to be inspected.
  • the original image includes a first image corresponding to the first part and a second image corresponding to the second part.
  • the first generation means generates data representing an image in which the boundary between the first image and the second image is enhanced as the enhanced image data.
  • the subject is a glass substrate.
  • the first part is the panel area processed into a glass substrate.
  • the first generation means includes an image corresponding to the panel area and the panel area. Data representing an image in which a portion in contact with an image corresponding to a region other than is emphasized is generated.
  • the calculating means calculates an average value and a standard deviation for a plurality of one-dimensional data, and calculates a threshold based on the average value and the standard deviation.
  • the specifying unit specifies a plurality of one-dimensional data corresponding to a luminance value exceeding a threshold, and for each of the specified one-dimensional data, the upper limit value of the data range and the one-dimensional data are determined.
  • the one-dimensional data that minimizes each calculated difference is determined as the one-dimensional data corresponding to the luminance value exceeding the threshold.
  • the original image includes a rectangular region.
  • the boundary is formed by the outline of the rectangular area.
  • the first generation means generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
  • the second generation means calculates the average value by integrating the luminance values of the pixels corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area.
  • the plurality of one-dimensional data are generated, and the first determining means determines the data range so that the range of the data is included in the range defined by the one-dimensional data for the rectangular area.
  • the statistic includes an average value and a standard deviation.
  • the calculation means calculates the threshold value using each formula defined in advance according to each value of the plurality of standard deviations, and each formula varies depending on the value of each standard deviation.
  • a method for a computer to determine a position of a boundary included in an image.
  • the computer includes a storage device that stores data and a processing device that executes a predetermined process using the data.
  • the processing device includes a step of reading original image data representing an original image acquired by photographing a subject from the storage device.
  • the original image data is represented according to a two-dimensional coordinate axis.
  • the processing unit when the original image has a plurality of partial images, the processing unit generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data!
  • the processing device integrates each luminance value of each partial area corresponding to each partial image after the boundary is emphasized in the direction of the boundary, and calculates an average value, thereby obtaining a two-dimensional coordinate.
  • a step of generating a plurality of one-dimensional data represented according to a one-dimensional coordinate axis of the standard axis, and a data processing target for the processing device to determine the boundary position based on the design data of the subject A step of determining a range, a step of calculating a threshold value for a luminance value by calculating a statistic using a plurality of one-dimensional data included in the data range, and a processing device
  • a program for causing a computer to function as an apparatus for determining the position of a boundary included in an image includes a storage device that stores data and a processing device that executes a predetermined process using the data.
  • This program causes the processing device to execute a step of reading original image data representing an original image acquired by photographing a subject from the storage device.
  • the original image data is represented according to a two-dimensional coordinate axis.
  • the program when the original image has a plurality of partial images, the program generates, based on the original image data, enhanced image data representing an image in which the boundary of each partial image is emphasized; Each luminance value of each partial area corresponding to each partial image after enhancement is integrated in the direction of the boundary, and the average value is calculated, so that it is expressed according to the one-dimensional coordinate axis out of the two-dimensional coordinate axes.
  • a step of generating a plurality of one-dimensional data a step of determining a range of target data for determining a boundary position based on the design data of the subject, and a plurality of one-dimensional data included in the range of the data Using the data to calculate the statistic, the step of calculating the threshold value for the luminance value and the luminance value exceeding the threshold value based on the multiple one-dimensional data included in the data range Identifying a corresponding one-dimensional data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data specified to execute a stearyl-up to determine the position of the boundary.
  • a computer-readable recording medium storing the above program is provided.
  • the boundary position determination device is obtained by photographing a subject.
  • the original image data is represented according to the two-dimensional coordinate axes.
  • the apparatus includes a first generation unit that generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data, and the boundary is It is expressed according to the one-dimensional coordinate axis of the two-dimensional coordinate axes by calculating the average value by integrating the luminance values of the partial areas corresponding to the emphasized partial images in the direction of the boundary.
  • a second generation unit that generates a plurality of one-dimensional data; a first determination unit that determines a range of data for determining a boundary position based on the design data of the subject; and a data range Based on a plurality of one-dimensional data included in the data range, a calculation unit that calculates a threshold value for the luminance value by calculating a statistic using a plurality of one-dimensional data included in , Luminance value exceeding the calculated threshold Comprising a coordinate value on a one-dimensional coordinate axis of the corresponding one-dimensional data, and a second determination unit which determines a position of the boundary.
  • a method for determining a position of a boundary included in an image includes a step of reading original image data representing an original image acquired by photographing a subject.
  • the original image data is represented according to a two-dimensional coordinate axis.
  • the step of generating emphasized image data representing an image in which the boundary of each partial image is emphasized based on the original image data;
  • Multiple brightness values of each partial area corresponding to each partial image after being emphasized are integrated in the direction of the boundary, and an average value is calculated, so that a plurality of two-dimensional coordinate axes can be represented according to the one-dimensional coordinate axis.
  • the boundary (for example, the edge portion of the panel) Can be accurately determined.
  • the computer can accurately determine the position of the boundary.
  • the program according to the present invention the computer functions as an apparatus that can accurately determine the position of the boundary.
  • FIG. 1 is a diagram showing a configuration of an inspection system 10 according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an image 240 of a glass substrate 140.
  • FIG. 3 is a diagram showing an image of region 206.
  • FIG. 4 is a diagram showing an edge-enhanced image 400 generated by executing Sobel filter processing.
  • FIG. 5 is a block diagram showing the configuration of each function realized by edge position detection apparatus 100.
  • FIG. 6 is a diagram conceptually showing one mode of data storage in storage unit 540.
  • FIG. 7 is a flowchart showing a procedure of processing executed by processing unit 550 of edge position detection apparatus 100.
  • FIG. 8 is a diagram showing the appearance of a glass substrate 800.
  • FIG. 9 is a diagram showing an image 900 acquired when a glass substrate 800 is photographed with a camera.
  • FIG. 10 is a diagram for explaining an image 906
  • FIG. 11 is a diagram showing an image obtained by performing Sobel filter processing on image 906.
  • FIG. 12 is a block diagram showing a hardware configuration of computer system 1200. Explanation of symbols
  • FIG. 1 is a block diagram showing a hardware structure of an inspection system 10 having a function for determining the position of an edge.
  • the inspection system 10 is electrically connected to the light 110, the edge position detection device 100 electrically connected to the light 110, the camera 120 electrically connected to the edge position detection device 100, and the edge position detection device 100.
  • a display 130 connected to the.
  • the edge position detection device 100 detects the position of the boundary (edge) between the panel region formed on the glass substrate and the region other than the panel region. Specifically, as described later, the edge position detection device 100 detects the position of the boundary as a coordinate value on a coordinate axis defined in advance.
  • a glass substrate 140 which is an object to be inspected, is carried in and mounted at a predetermined position.
  • Two thin panels 141 and 142 are formed on the glass substrate 140, respectively.
  • the light 110 irradiates light having a preset intensity on the glass substrate 140 mounted at the position based on a signal from the edge position detection device 100.
  • the irradiated light is, for example, general white light.
  • the camera 110 receives and captures the reflected light from the glass substrate 140 and sends it to the edge position detection device 100 as image data.
  • the camera 120 may be an area sensor camera or a line sensor camera.
  • the imaging part of the camera 120 has a photoelectric conversion structure such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • the size of the image described in the present embodiment is, for example, horizontal 1000 pixels and vertical 1200 pixels.
  • the size of the image is not limited to the above, and may be other sizes (for example, horizontal 500 pixels, vertical 600 pixels).
  • the luminance values of the pixels of the image described in the present embodiment are “0” to “255”.
  • a range value when the luminance value is “0”, the corresponding pixel corresponds to black.
  • the luminance value when the luminance value is “255”, the corresponding pixel corresponds to white.
  • the luminance value of the image pixel used in the present embodiment is not limited to the value included in the range of “0” to “255” but may be a value included in other ranges.
  • FIG. 2 is a diagram showing an image 240 of the glass substrate 140.
  • the image 240 includes a non-linear edge 211, 212, 213, 214 formed at the boundary between the panel 210 and the glass substrate, and a wiring pattern region 215 formed inside the glass substrate 140 so as to surround the non-linear 210. including.
  • an image representing a wiring pattern region formed between the glass substrate 140 and the panel 220 and a panel edge surrounding the panel 220 in a rectangular shape is generated. Further, a wiring pattern edge (for example, a wiring pattern edge 216) is generated between the wiring pattern region 215 and the glass substrate 140.
  • the area 206 is an image corresponding to the area to be inspected, in addition to the image 240.
  • FIG. 3 is a diagram representing an image 300 in the region 206.
  • Image 300 shows an image edge 201 corresponding to the edge of region 206, wiring pattern edge 216, nonel edge 211, and noise 230.
  • the accumulation direction shown in Fig. 3 (A) represents the direction in which the luminance values included in each area are accumulated. This direction is predetermined for 140 glass substrates. For example, when the glass substrate 140 is rectangular, a direction parallel to any one side is defined as the accumulation direction.
  • FIG. 3 (B) is a diagram showing values calculated by integrating the luminance values corresponding to the image 300 in the accumulation direction. Specifically, for the region 310, the luminance value in each region is expressed as at least 160 or more when the X coordinate value is between 0 and a. For region 320, the luminance value is expressed as 180 when the X coordinate value is between a and b. Further, for the region 330, the luminance value is expressed as 0 in the range of the X coordinate value force 3 ⁇ 4 or more. [0051] An image generated by the filtering process will be described with reference to FIG. FIG. 4 is a diagram showing an edge-enhanced image 400 generated by performing Sobel filter processing on an image corresponding to the region 206 in the image 240.
  • the edge-enhanced image 400 includes an image 410 corresponding to a part of the panel area, an image 420 corresponding to a part of the wiring pattern area, and a part of the glass substrate. And the corresponding image 430.
  • the edge-enhanced image 400 includes an image 211 corresponding to the panel edge, an image 216 corresponding to the wiring pattern edge, and a noise 230.
  • An accumulation direction 450 represents a direction in which luminance values of pixels corresponding to the respective images are integrated.
  • FIG. 4B is a diagram showing a result (integrated value) obtained by integrating the luminance values in accordance with the accumulation direction 450.
  • the integrated value for the image 410 corresponding to the normal area in the panel area is “0”.
  • the integrated value of noise 230 is “20”.
  • the integrated value for the image 211 corresponding to the panel edge is “40”.
  • the integrated value for the image 420 corresponding to a part of the wiring pattern region is “0”.
  • the integrated value for the image 216 corresponding to the wiring pattern edge is “127”.
  • the integrated value for the image 430 corresponding to the glass substrate is “0”.
  • FIG. 5 is a block diagram showing the configuration of each function realized by edge position detection apparatus 100.
  • the edge position detection apparatus 100 includes a design data input unit 510, an image input unit 520, a temporary storage unit 530, a storage unit 540, and a processing unit 550.
  • the processing unit 550 includes a writing unit 551, an initial setting unit 552, a coordinate acquisition unit 553, an extraction unit 554, an image generation unit 555, an integration unit 556, a data range determination unit 557, and a threshold calculation unit. 558, a position determination unit 559, and a display control unit 560.
  • Design data input unit 510 accepts data input representing the design specifications of panels 141 and 142 formed on glass substrate 140.
  • This data includes, for example, size information of the glass substrate 140, size information of the panels 141 and 142, or data defining the positional relationship between the panels 141 and 142 and the glass substrate 140.
  • the image input unit 520 receives input of image data output from the camera 120.
  • the temporary storage unit 530 is input by the design data input unit 510 or the image input unit 520.
  • the received data or the data generated by the processing unit 550 is temporarily (volatilely) retained.
  • Temporary storage unit 530 is realized as, for example, a RAM (Random Access Memory) or a frame notifier. Note that the temporary storage unit 530 is physically not limited to being implemented as a single memory, and may be configured by being divided into two or more memories.
  • Write unit 551 reads the data held in temporary storage unit 530 and writes the data in an area secured in storage unit 540.
  • the storage unit 540 is a storage device that can hold data in a nonvolatile manner.
  • the initial setting unit 552 performs an inspection process to be performed on the glass substrate 140 based on data stored in the storage unit 540 and an external instruction input to the edge position detection device 100. Are read from the storage unit 540 and stored in an area secured in the temporary storage unit 530.
  • Storage unit 540 stores image data generated by photographing glass substrate 140 (for example, data representing image 240 shown in FIG. 2).
  • the storage unit 540 is realized as, for example, a flash memory or a hard disk device.
  • the coordinate acquisition unit 553 is based on the image data of the glass substrate 140 stored in the storage unit 540! /, To obtain the coordinates of the nore edge 211, 212, 213, 214.
  • the coordinates of any specific panel edge for example, panel edge 211 may be obtained. Good.
  • the extraction unit 554 extracts the image of the region 206 (ie, the partial image divided by the boundary) from the image 240 based on the data stored in the storage unit 540. Specifically, first, the storage unit 540 stores coordinate values for specifying the area 206 set by the initial setting unit 552. The extraction unit 554 refers to each coordinate value, determines an area corresponding to the coordinate value from the image 240, and extracts data included in the determined area. Extraction unit 554 stores the extracted data in temporary storage unit 530 (extracted image data 531).
  • the image generation unit 555 executes a process for enhancing the contour of the image based on the image data stored in the temporary storage unit 530. Specifically, the image generation unit 555 uses the extracted image data 531 to generate a frame that is a general image conversion method in image processing. In addition to using the filter process, the filter process is executed based on the parameters previously input as initial setting values. The filter processing performed is, for example, a 3 ⁇ 3 Sobel filter, which is a common edge extraction filter. The image generation unit 555 stores the image data generated by executing the filter processing in the temporary storage unit 530 (image data 532 with edge enhancement).
  • integrating unit 556 uses the data stored in temporary storage unit 530 to integrate the luminance values of the pixels constituting the image in one predetermined direction. Specifically, the integration unit 556 6 integrates the luminance value of each pixel having the same coordinate value with respect to the X coordinate specified in the image 240 in a predetermined integration direction (for example, the negative direction of the Y axis). . The integrating unit 556 further calculates an average value of the luminance values for the pixels having the same X coordinate value by dividing the integrated value by the number of integrated pixels. The accumulating unit 556 writes the primary projection data 533 thus calculated in the temporary storage unit 530.
  • the data range determination unit 557 determines the range of data that is a target for determining the position of the edge 211 using the primary projection data 533 stored in the temporary storage unit 530.
  • the data range determining unit 557 stores the data range as data 534 representing the data range in the area secured in the temporary storage unit 530.
  • the threshold value calculation unit 558 uses the primary projection data 533 to calculate a threshold value by executing a predetermined statistic calculation process for the range defined by the data 534 representing the data range.
  • the threshold value according to the present embodiment is a luminance value used for determination to determine the position of the edge 211.
  • the threshold value calculation unit 558 writes the threshold value in the temporary storage unit 530 (threshold value 535).
  • the position determination unit 559 determines the position (X coordinate value) of the panel edge 211 based on the primary projection data 533 and the threshold value 535. For example, the position determination unit 559 specifies the primary projection data 533 for the luminance value exceeding the threshold value 535, and determines the X coordinate value of the specified primary projection data 533 as the position of the panel edge 211. The position determination unit 559 writes the position data determined in this way into the temporary storage unit 530 (data 536 representing the position of the edge).
  • Display control unit 560 is based on a display instruction input via setting data input unit 510. Then, the data stored in the temporary storage unit 530 is read out, and the data is sent to the display unit (for example, the display 130) to display the captured image.
  • FIG. 6 is a diagram conceptually showing one mode of data storage in storage unit 540.
  • Storage unit 540 includes memory area 602 to memory area 630 for storing data.
  • Image data acquired by photographing the glass substrate 140 on which the panels 141 and 142 are formed is recorded in the memory area 602.
  • An offset value (Poff) input in advance for determining the data range is stored in the memory area 604.
  • Coordinate values input in advance to define the region 206 as a target for detecting the position of the edge are input to the memory regions 606 and 608, respectively.
  • the coordinate value Pit at the upper left end of the area 206 is stored in the memory area 606 as (800, 1150).
  • the coordinate value Pbr (X, Y) representing the lower right corner of the area 206 is stored in the memory area 608 as (1000, 700).
  • the number of data Nd defined in advance as the number of data to be integrated for calculating the statistic is stored in the memory area 610.
  • a constant “a” used in the formula for determining the threshold value is stored in the memory area 612.
  • the projection accumulation direction Dp determined for accumulating the luminance value of each pixel in a predetermined direction is stored in the memory area 614 as, for example, “data indicating the negative direction of the Y coordinate axis”. Yes.
  • Parameter values used to execute the Sobel filter processing are stored in the memory area 616.
  • Design data determined by panel design for forming the panels 141 and 142 on the glass substrate 140 is stored in the memory area 618.
  • the design data includes, for example, the vertical and horizontal sizes (for example, length) of the glass substrate 140, the vertical and horizontal sizes of the panels 141 and 142 (for example, the number of pixels), the distance between the glass substrate 140 and the panels 141 and 142, Includes the spacing between panels 141 and 142.
  • the X coordinate value (Xd) of the panel edge (for example, the panel edge 211) calculated based on the design data is stored in the memory area 620. Before the X coordinate value is calculated, for example, data representing “NULL” is stored. The same applies to other regions.
  • the panel edge calculated using the image data obtained by shooting with force 120 For example, the X coordinate value (Xr) of the panel edge 211) is stored in the memory area 622.
  • the X coordinate value (Xe) of the maximum value of the panel edge (for example, the panel edge 211) for which the computing power by the data range determination unit 557 is also calculated is stored in the memory area 624.
  • the minimum value (Xs) of the panel edge is stored in the memory area 626.
  • Data stored in memory areas 624 and 626 corresponds to data 534 representing the data range shown in FIG. 5, for example.
  • the memory areas 624 and 626 store information (NULL) indicating that no data exists in each area.
  • the threshold value Vth is stored in the memory area 628.
  • a program used for realizing each of the above functions of the edge position detection apparatus 100 is stored in the memory area 630.
  • the program is executed by an arithmetic processing unit such as a processor, each function constituting the processing unit 550 shown in FIG. 5 is realized.
  • the program is configured, for example, by combining modules that realize each function.
  • FIG. 7 is a flowchart showing a procedure of processing executed by processing unit 550.
  • the edge position detection device 100 When the edge position detection device 100 is realized by a computer system, it functions as a processor power processing unit 550 included in the computer system.
  • processing unit 550 performs data reading and other initial settings based on an instruction input from the outside to edge position detection device 100. Specifically, the processing unit 550 reads out the data stored in the storage unit 540 as the initial setting unit 552 and writes it in the temporary storage unit 530.
  • the data written by the initial setting is, for example, the actual panel edge calculated based on the X coordinate value Xs (211) of the panel edge 211 included in the image 240 and the data of the image 240, which is calculated based on the design data.
  • processing unit 550 extracts an image corresponding to region 206 from image 240 representing the entire glass substrate 140. Specifically, the processing unit 550 reads out the image data stored in the storage unit 540 as the extraction unit 554, and extracts the upper left coordinate value Pit and the lower right coordinate.
  • the rectangular area to be extracted is identified with reference to the standard value Prb, and data included in the area is stored in another area secured in the temporary storage unit 530 (extracted image data 5 31 ). As an example, in the image 300 shown in FIG.
  • the region 206 is a rectangular region, and the coordinate value Pit (X, Y) of the upper left end of the region 206 is (800, 1150), The coordinate value Prb (X, Y) at the lower right end of the region 206 is (1000, 700). Therefore, the luminance value of the pixel corresponding to the area included in the area specified by these coordinate values is stored in the temporary storage unit 530.
  • processing unit 550 generates image data in which the edge of the extracted image is emphasized. Specifically, the processing unit 550 performs, as the image generation unit 555, the Sobel filter processing defined in advance with reference to the extracted image data 531, thereby enhancing the contour included in the region 206. Generated image data (image data 532).
  • An image generated by the Sobel filter processing is, for example, an image 400 shown in FIG.
  • processing unit 550 determines a region for which a statistic is to be calculated. Specifically, processing unit 550 refers to primary projection data 533 as data range determination unit 557 and derives data 534 representing the data range. In the present embodiment, each luminance value is projected according to the Y-axis direction. Therefore, the range is specified by the X coordinate range (Xs to Xe).
  • the coordinate value Xr (211) corresponding to the actual panel edge 211 included in the image 240 is in the above region for calculating the statistic from the viewpoint of accurately determining the position of the edge. Must not be included. However, in reality, due to positioning errors between the camera 120 and the glass substrate 140, the X coordinate value Xs (211) of the panel edge 211 in the image 240 calculated based on the design data The X coordinate value Xr (211) of the actual panel edge 21 1 included in the image 240 may not match. In this case, the value of Xr (211) is unknown when step S750 is executed.
  • the upper limit X-coordinate value (Xe) that defines the range of data used to calculate the statistic the X-coordinate value Xs (211), the maximum error Sme (211), and the offset Poff
  • the actual panel edge 211 included in the image 240 can be set so as not to be included in the area for calculating the statistics.
  • the X coordinate value (Xs) of the lower limit value of the area is also calculated by subtracting the upper limit value Xe force from the data number Nd.
  • the offset value is determined as follows, for example.
  • the offset value may be at least “1” or more.
  • the offset value is set to “10”.
  • a pixel is used as the unit of the offset value.
  • the X coordinate value Xs of the smaller area for calculating the statistic is obtained by subtracting the number of data Nd for calculating the upper limit value Xe force metric.
  • the number of data Nd is determined in consideration of the trade-off relationship between processing time and detection accuracy. This determination is made based on the results of the actual processing (processing time and detection accuracy).
  • the region for calculating the statistic in the present embodiment is determined as 871 to 920 for the X coordinate.
  • processing unit 550 calculates a statistic based on the region determined in step S750, and further calculates a threshold Vth based on the statistic.
  • the statistic includes, for example, the average value (Vave) and standard deviation (Vsig) of the one-dimensional projection accumulation data included in the region.
  • processing unit 550 derives threshold value 535 as threshold calculation unit 558 by referring to data 534 representing a data range.
  • Nd ( 50) included in the upper limit X coordinate value Xe of the region from the lower X coordinate value Xs of the region for calculating the statistic.
  • the value of 8 data is “20”, and the other values are “0”.
  • the average value Vave is “3.2” and the standard deviation Vsig is about “7.4”. Therefore, the threshold Vth is calculated using Equation 1 as shown below.
  • Vth Vave + a XVsig (Formula 1)
  • the value of “3” in 3 ⁇ used in the field of quality control is used as the value of the threshold determination constant a.
  • a force using may be used as an expression for calculating threshold value Vth.
  • the edge position can be determined with higher accuracy by changing the expression for calculating the threshold Vth according to the value of the standard deviation Vsig, that is, according to the degree of noise.
  • Vth Vave + a (Formula 2)
  • “9.0” is used as the value of the threshold determination constant a, which is larger than “6” in 6 ⁇ used in the field of quality control. A value larger than this value may be used.
  • equation (3) may be used.
  • Vth Vave + a XVsig- ⁇ ⁇ (Formula 3)
  • Vth Vave + a X Vsig-(Equation 4)
  • FIG. 8 is a diagram showing the appearance of the glass substrate 800.
  • the glass substrate 800 includes two nonels 810 and 820.
  • a wiring pattern region 815 is formed around the panel 810. Between the panel 810 and the wiring node ⁇ turn area 815, there is a non-nore edge 811, 812, 813, 814 force ⁇ . Further, the outside of the wiring pattern region 815 is a region where a panel is not formed on the glass substrate 800. For Nonel 820, areas similar to those described above for panel 810 are formed.
  • a region 806 is a target for explaining the technique. As is apparent from FIG. 8, the region 806 includes a part of the panel 810, a part of the wiring pattern region 815, and a part of the glass substrate 800.
  • FIG. 9 is a diagram showing an image 900 acquired when the glass substrate 800 is photographed with a camera.
  • the imaging area 850 for the glass substrate 800 shown in FIG. 8 corresponds to the area 950 in the image 900.
  • the image 900 includes images 910 and 920 of the non-nore 810, an image 911 of the non-no-re edge 811, and an image 916 of the wiring pattern edge that is a boundary between the wiring pattern region 815 and the glass substrate 800.
  • An image 906 occupying a part of the image 900 is an image of an area 806 occupying a part of the glass substrate 800.
  • FIG. 10 is a diagram for explaining the image 906 shown in FIG.
  • the image 906 includes an image of the panel, a panel edge 1020, a wiring pattern edge 1030, and an end portion 1010 of the image in the direction of the panel force glass substrate.
  • one-dimensional projection accumulation data is obtained by accumulating the pixel values of the original image along a plurality of directions.
  • the peak value of the projection gradient data is obtained for each.
  • the peak value in the largest direction is set as the edge position.
  • the edge position is clearly the direction in which the peak value of the projection gradient data in the accumulation direction 1040 is the largest.
  • the one-dimensional projection accumulation data when the pixel value is projected in the accumulation direction 1040 is shown in FIG. 10 (B).
  • the luminance value on the vertical axis of the one-dimensional projection accumulation data shown in FIG. 10 (B) represents the average value of the luminance values.
  • the one-dimensional projection accumulated data force shown in Fig. 10 (B) when the peak position of the gradient magnitude is obtained, the position of the wiring pattern edge 1030 is selected, and the position of the panel edge 1 020 is not selected! /, .
  • FIG. 11 is a diagram for explaining yet another technique.
  • Japanese Patent Application Laid-Open No. 5-266194 discloses a technique other than the above technique. The technique is to obtain the 2D gradient distribution of the original image before obtaining the 1D projection accumulation data.
  • FIG. 11A shows an image obtained by performing Sobel filter processing as a method for obtaining a two-dimensional gradient distribution on the image 906 corresponding to the region 806.
  • the edge position is projected in the accumulation direction 1140 shown in FIG. 11 (A), as in the case where the method that does not obtain the two-dimensional gradient distribution described with reference to FIG. 10 is applied. It is clear that the peak value of the gradient data is in the largest direction.
  • FIG. 11B shows one-dimensional projection accumulation data when the two-dimensional gradient distribution shown in FIG. 11A is projected in the accumulation direction 1140.
  • the luminance value on the vertical axis of the one-dimensional projection accumulation data shown in Fig. 11 (B) represents the average value of the luminance values. Even if the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulated data shown in Fig. 11 (B), the position of the pattern edge 1130 is selected and the position of the panel edge 1120 is not selected! / ,.
  • the panel which is the boundary between the panel and the wiring pattern region is used.
  • Edge for example, panel edge 1020 in Figure 10, panel edge in Figure 11 1
  • the position of the edge is highly accurate based on the following technical features. It can also be determined in a short time.
  • step S750 an area for calculating a statistic is set inside a panel which is a rectangular area, and a threshold is set using the statistic of a part of the area inside the panel.
  • Vth is determined. In this way, the periphery of the panel area (ie, the wiring pattern area
  • step S770 since the position closest to the area for calculating the statistic is determined as the edge position among the positions exceeding the threshold Vth, the wiring pattern and the inside of the panel are determined. The boundary with the region is determined with high accuracy.
  • step S710 the coordinates Xs (211) of the panel edge 211 in the image calculated from the design data are used to determine the target area.
  • the region 206 including the panel edge 211 can be cut out (extracted) from the image 240 with an appropriate size without waste, and the time required to determine the edge position can be shortened.
  • step S710 the coordinates Xr in the image of the panel edge 211 are displayed.
  • the coordinate value Xs (21 1) force is also at least Xme (211) pixels away from the coordinate value, and the statistic is calculated as the limit of the area for calculating the above statistic.
  • Region force for calculation The coordinates Xr (211) in the image of the panel edge 211 are removed. Thereby, the statistic of the noise component not including the panel edge 211 is calculated.
  • the threshold value Vth can be determined appropriately, and the edge position can be determined with high accuracy.
  • the edge position detection apparatus 100 is realized as a hardware configuration by combining circuit elements that execute each process. Can be configured. For example, a program that executes each process The program is also realized in a manner in which software and hardware cooperate by causing a CPU (Central Processing Unit) or other processor to execute the program.
  • a CPU Central Processing Unit
  • FIG. 12 is a block diagram showing a hardware configuration of computer system 1200.
  • the computer system 1200 is defined in advance by the CPU 1210, the mouse 1220 and the keyboard 1230 that accept input of instructions by the user of the computer system 1200, and the data or program to be input as the main components of the hardware.
  • RAM 1240 for storing data temporarily generated when processing is executed
  • hard disk 1250 capable of storing a large amount of data
  • compact disk-read only memory (CD-ROM) drive device 1260 Includes monitor 1280 and communication IF (Interface) 1290.
  • CD-ROM compact disk-read only memory
  • the CD-ROM drive unit 1260 is loaded with CD-ROM1262 force S.
  • the processing in the computer system 1200 functioning as the edge position detection device 100 is realized by the hardware and software executed by the CPU 1210.
  • Such software may be pre-stored in RAM 1240 or hard disk 1250, or may be stored in a CD-ROM 1262 or other recording medium and distributed as a product, CD-ROM drive 1260 or other reader May be read from the recording medium and stored in the hard disk 1250.
  • the software is read from RAM 1240 or hard disk 1250 and executed by CPU 1210.
  • the hardware itself of the computer system 1200 shown in FIG. 12 is general. Therefore, it can be said that the essential part of the present invention is software stored in the RAM 1240, the hard disk 1250, the CD-ROM 1262, and other recording media. Since the operation of each hardware of computer system 1200 is well known, detailed description will not be repeated.
  • the present embodiment has been described in the case where an image acquired by photographing a subject is rectangular.
  • the present invention can be similarly applied to a case where the image is not a rectangle, for example, a polygon.
  • the above-described processing is executed, and the processing is repeated for each side.
  • the present invention is used for, for example, an image inspection apparatus, an image conversion apparatus, an image recognition apparatus, a pattern matching apparatus, a positioning apparatus using an image, an autonomous robot with an image recognition function, an industrial robot with an image recognition function, and the like. Is done.

Abstract

It is possible to accurately detect a position of an edge of a panel formed on a glass substrate. An edge position detection device executes: a step (S710) for performing initialization according to an instruction inputted to the device from outside; a step (S720) for extracting an image corresponding to the object region from an image expressing the entire glass substrate, a step (S730) for generating image data emphasizing an edge of the extracted image, a step (S740) for accumulating data expressing the image whose edge is emphasized according to the direction of the projection accumulation direction and generating one-dimensional projection accumulated data, a step (S750) for deciding a region as an object for which a statistical amount is to be calculated, a step (S760) for calculating the statistical amount according to the decided region and calculating a threshold value based on the statistical amount, and a step (S770) for using the threshold value to decide the position of the panel edge.

Description

明 細 書  Specification
境界の位置決定装置、境界の位置を決定する方法、当該装置としてコン ピュータを機能させるためのプログラム、および記録媒体  Boundary position determination device, method for determining boundary position, program for causing computer to function as the device, and recording medium
技術分野  Technical field
[0001] 本発明は、境界の位置を決定する技術に関し、より特定的には、被写体の撮影に より取得された画像に含まれる境界の位置を決定する技術に関する。  The present invention relates to a technique for determining the position of a boundary, and more specifically to a technique for determining the position of a boundary included in an image acquired by photographing a subject.
背景技術  Background art
[0002] 高品質な薄型パネルを製造するための品質管理方法として、製造過程における検 查工程が重要な役割を果たしている。近年では品質の安定ィ匕ゃ目視検査員削減に よるコストダウンなどのため、画像処理技術を適用した多種多様な欠陥検査装置が開 発されている。一般的に画像処理は処理領域が大きいほど多くの処理時間を要する 。そのため、必要な領域のみの画像を用いて検査することにより、処理時間の短縮が 図られている。  [0002] The inspection process in the manufacturing process plays an important role as a quality control method for manufacturing a high-quality thin panel. In recent years, a wide variety of defect inspection devices using image processing technology have been developed in order to stabilize costs and reduce costs by reducing the number of visual inspectors. In general, the larger the processing area, the more processing time is required for image processing. For this reason, the processing time is shortened by inspecting the image using only the necessary area.
[0003] 一方、薄型パネルの製造方法としては、 1枚のガラス基板から複数枚のパネルを製 造することが一般的である。このようなガラス基板の欠陥検査においては、カメラによ る撮像により取得された画像が用いられる。この欠陥検査において、画像検査処理 時間の短縮のための一案として、各パネルの内部のみを検査してその他の部分は検 查しな 、ようにする手法がある。  On the other hand, as a method for producing a thin panel, it is common to produce a plurality of panels from a single glass substrate. In such a glass substrate defect inspection, an image acquired by imaging with a camera is used. In this defect inspection, as a proposal for shortening the image inspection processing time, there is a method in which only the inside of each panel is inspected and the other portions are not inspected.
[0004] パネル内部のみを検査するためには、ガラス基板の画像中のパネル領域の境界、 すなわち、パネルのエッジ位置を決定する必要がある。  In order to inspect only the inside of the panel, it is necessary to determine the boundary of the panel region in the image of the glass substrate, that is, the edge position of the panel.
[0005] エッジ位置を決定する方法として、エッジ位置の設計データを利用する方法がある 。具体的には、ガラス基板の端に対するエッジの位置、およびカメラとガラス基板との 位置関係から、画像中のエッジの位置は、計算により算出される。  [0005] As a method for determining the edge position, there is a method of using design data of the edge position. Specifically, the position of the edge in the image is calculated from the position of the edge with respect to the edge of the glass substrate and the positional relationship between the camera and the glass substrate.
[0006] しかし、この方法では、一般的に、カメラとガラス基板の位置決め誤差などのため、 10mm程度の誤差が生じる。そこで、エッジ位置を画像処理によって決定する必要 が生じる。  [0006] However, in this method, an error of about 10 mm is generally generated due to a positioning error between the camera and the glass substrate. Therefore, it is necessary to determine the edge position by image processing.
[0007] 画像処理によってエッジ位置を決定する方法として、たとえば、特開平 5— 266194 号公報 (特許文献 1)は、ノイズによる干渉を受けず、輪郭線の直線部分の端点を求 めることができる技術を開示している。当該技術によれば、まず画像がエッジの方向 に濃淡投影され、 1次元投影累算データが求められる。次に、 1次元投影累算データ 力 勾配の大きさが求められ、勾配の大きさがピークとなる位置力 エッジ位置として 検出される。 As a method for determining an edge position by image processing, for example, Japanese Patent Laid-Open No. 5-266194 No. 1 (Patent Document 1) discloses a technique that can determine the end point of a straight line portion of a contour line without being affected by noise. According to this technique, first, an image is projected in gray in the direction of an edge, and one-dimensional projection accumulated data is obtained. Next, the magnitude of the one-dimensional projection accumulated data force gradient is obtained, and the position is detected as the position force edge position where the gradient magnitude reaches a peak.
[0008] また、画像に表示される複数の部位の接続部分を検出する技術として、たとえば、 特開 2005— 284725号公報 (特許文献 2)は、突き合わせて接合する押し出し型材 ゃ板材等の被接合材の表面に汚れゃキズ等の外乱要因があっても、接合線を正確 に検出できる技術を開示している。  [0008] Further, as a technique for detecting a connection portion of a plurality of parts displayed in an image, for example, Japanese Patent Laying-Open No. 2005-284725 (Patent Document 2) describes an object to be joined such as an extrusion-type material or a plate material to be joined together. It discloses a technology that can accurately detect the joint line even if the surface of the material is contaminated if it is contaminated.
[0009] また、エッジを検出する技術として、たとえば、特開 2004— 272313号公報 (特許 文献 3)は、エッジ品質の悪い画像を定量ィ匕して、エッジを高精度に検出するための 技術を開示している。  [0009] Further, as a technique for detecting an edge, for example, Japanese Unexamined Patent Application Publication No. 2004-272313 (Patent Document 3) is a technique for detecting an edge with high accuracy by quantitatively analyzing an image having poor edge quality. Is disclosed.
[0010] さらに、被写体の端部の抽出に関し、たとえば、特開 2005— 167802号公報 (特 許文献 4)は、原稿画像をエリアセンサによって読み取り、画像データから画像処理 によって原稿の端部を抽出し、原稿の輪郭と位置とに基づ 、て原稿サイズを検知す る技術を開示している。  [0010] Further, regarding the extraction of the edge of a subject, for example, Japanese Patent Laid-Open No. 2005-167802 (Patent Document 4) reads a document image by an area sensor and extracts the document edge from the image data by image processing. A technique for detecting the document size based on the contour and position of the document is disclosed.
特許文献 1 :特開平 5— 266194号公報  Patent Document 1: JP-A-5-266194
特許文献 2:特開 2005 - 284725号公報  Patent Document 2: Japanese Patent Laid-Open No. 2005-284725
特許文献 3:特開 2004— 272313号公報  Patent Document 3: Japanese Patent Application Laid-Open No. 2004-272313
特許文献 4:特開 2005— 167802号公報  Patent Document 4: Japanese Unexamined Patent Application Publication No. 2005-167802
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0011] 特開平 5— 266194号公報に開示された第 1の技術を用 、てガラス基板上のパネ ルのパネルエッジを決定する場合を考える。パネルの周囲には、配線パターンの領 域が存在する。配線パターンの領域の外側は、ガラス基板である。 Consider a case in which the panel edge of a panel on a glass substrate is determined using the first technique disclosed in Japanese Patent Laid-Open No. 5-266194. There is a wiring pattern area around the panel. The outside of the wiring pattern region is a glass substrate.
[0012] このような構成を有するガラス基板をカメラで撮像すると、パネルの内部から外部に 向けて、パネルエッジ、配線パターンのエッジ、ガラス基板のエッジ力 それぞれ画像 データ上に出力される。 [0013] 当該第 1の技術によると、複数の方向に沿って原画像の画素の値を積算することに より、 1次元投影累算データが求められ、それぞれについて投影勾配データのピーク 値が求められ、前記複数の方向のうち、最も大きい方向のピーク値がエッジ位置とさ れる。 When a glass substrate having such a configuration is imaged by a camera, the panel edge, the edge of the wiring pattern, and the edge force of the glass substrate are output on the image data from the inside of the panel to the outside. [0013] According to the first technique, one-dimensional projection accumulation data is obtained by accumulating pixel values of an original image along a plurality of directions, and a peak value of projection gradient data is obtained for each. The peak value in the largest direction among the plurality of directions is set as the edge position.
[0014] この技術によると、パターンエッジの位置が選ばれて、パネルエッジの位置が選ば れな 、場合があり、エッジを精度良く決定できな 、と 、う問題点がある。  [0014] According to this technique, there is a case where the position of the pattern edge is selected and the position of the panel edge is not selected, and there is a problem that the edge cannot be determined with high accuracy.
[0015] また、特開平 5— 266194号公報において、第 2の技術として、 1次元投影累算デ ータを求める前に、原画像の 2次元勾配分布を求める方法が開示されている。  [0015] In addition, Japanese Patent Laid-Open No. 5-266194 discloses a second technique for obtaining a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulated data.
[0016] 2次元勾配分布を求める方法として Sobelフィルタ処理を実施した後の画像データ を用いる方法がある。この場合においても、上述の第 1の技術に係る方法と同様に、 1次元投影累算データ力も勾配の大きさのピーク位置を求めても、パターンエッジの 位置が選ばれて、パネルエッジの位置が選ばれない場合がある。その結果、パネル エッジを高精度に決定することができない場合がある。  [0016] As a method of obtaining a two-dimensional gradient distribution, there is a method of using image data after performing Sobel filter processing. In this case as well, as with the method according to the first technique described above, the position of the pattern edge is selected and the position of the panel edge is selected even if the one-dimensional projection accumulated data force obtains the peak position of the gradient magnitude. May not be selected. As a result, the panel edge may not be determined with high accuracy.
[0017] 本発明は、上述の問題点を解決するためになされたものであって、その目的は、境 界の位置を精度よく決定できる位置決定装置を提供することである。他の目的は、検 查対象物の画像処理検査を効率を向上させられる、境界の位置決定装置を提供す ることである。  The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a position determination device that can accurately determine the position of the boundary. Another object is to provide a boundary position determination device that can improve the efficiency of image processing inspection of an inspection object.
[0018] 他の目的は、境界の位置を精度よく決定できる方法を提供することである。他の目 的は、検査対象物の画像処理検査の効率を向上させられる、境界の位置の決定方 法を提供することである。  [0018] Another object is to provide a method capable of accurately determining the position of the boundary. Another object is to provide a method for determining the boundary position, which can improve the efficiency of image processing inspection of the inspection object.
[0019] 他の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させる ためのプログラムを提供することである。第 6の目的は、検査対象物の画像処理検査 を効率を向上させられる、境界の位置決定装置として、コンピュータを機能させるた めのプログラムを提供することである。  [0019] Another object is to provide a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. The sixth object is to provide a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.
[0020] 他の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させる ためのプログラムが格納された記録媒体を提供することである。さらに他の目的は、 検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置として、 コンピュータを機能させるためのプログラムが格納された記録媒体を提供することで ある。 Another object is to provide a recording medium storing a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. Still another object of the present invention is to provide a recording medium storing a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object. is there.
課題を解決するための手段  Means for solving the problem
[0021] 上記の課題を解決するために、この発明のある局面に従うと、境界の位置決定装置 は、被写体の撮影により取得された原画像を表わす原画像データを格納する記憶手 段を備える。原画像データは 2次元の座標軸にしたがって表わされている。この装置 は、原画像が複数の部分画像を有する場合に、原画像データに基づいて、各部分 画像の境界が強調された画像を表わす強調画像データを生成する第 1の生成手段 と、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の 方向に積算して、平均値を算出することにより、 2次元の座標軸のうちの 1次元の座 標軸に従って表わされる複数の 1次元データを生成する第 2の生成手段と、被写体 の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を 決定する第 1の決定手段と、データの範囲に含まれる複数の 1次元データを用いて 統計量を算出することにより、輝度値についての閾値を算出する算出手段と、データ の範囲に含まれる複数の 1次元データに基づいて、算出された閾値を越える輝度値 に対応する 1次元データの 1次元の座標軸上の座標値を、境界の位置として決定す る第 2の決定手段とを備える。  In order to solve the above-described problem, according to one aspect of the present invention, the boundary position determination device includes a storage unit that stores original image data representing an original image acquired by photographing a subject. The original image data is represented according to a two-dimensional coordinate axis. When the original image has a plurality of partial images, the apparatus includes first generation means for generating emphasized image data representing an image in which the boundary of each partial image is emphasized based on the original image data; Each luminance value of each partial area corresponding to each partial image after enhancement is integrated in the direction of the boundary, and the average value is calculated to express it according to the one-dimensional coordinate axis of the two-dimensional coordinate axes. A second generation unit that generates a plurality of one-dimensional data, a first determination unit that determines a range of data for determining a boundary position based on the design data of the subject, and a data Calculated based on a calculation means for calculating a threshold value for luminance values by calculating a statistic using a plurality of one-dimensional data included in the range, and a plurality of one-dimensional data included in the data range. Exceed threshold Second determination means for determining a coordinate value on a one-dimensional coordinate axis of the one-dimensional data corresponding to the luminance value as a boundary position;
[0022] 好ましくは、第 1の決定手段は、原画像データによって決定される範囲と、設計デー タによって特定される範囲とに基づいて、データの範囲を決定する。  [0022] Preferably, the first determination unit determines a data range based on a range determined by the original image data and a range specified by the design data.
[0023] 好ましくは、第 1の決定手段は、設計データに基づいて、計算上の位置データとし て、境界の 1次元データを算出し、原画像データに基づいて、実際の位置データとし て、境界の 1次元データを算出し、計算上の位置データと実際の位置データとの差 に基づいて、データの範囲を決定する。  [0023] Preferably, the first determining means calculates one-dimensional boundary data as calculation position data based on design data, and as actual position data based on original image data, Calculate one-dimensional boundary data, and determine the data range based on the difference between the calculated position data and the actual position data.
[0024] 好ましくは、被写体は、検査の対象となる第 1の部分と、検査の対象とならない第 2 の部分とを含む。原画像は、第 1の部分に対応する第 1の画像と、第 2の部分に対応 する第 2の画像とを含む。第 1の生成手段は、強調画像データとして、第 1の画像と第 2の画像との境界が強調された画像を表わすデータを生成する。  [0024] Preferably, the subject includes a first part to be inspected and a second part not to be inspected. The original image includes a first image corresponding to the first part and a second image corresponding to the second part. The first generation means generates data representing an image in which the boundary between the first image and the second image is enhanced as the enhanced image data.
[0025] 好ましくは、被写体は、ガラス基板である。第 1の部分は、ガラス基板に加工された パネル領域である。第 1の生成手段は、パネル領域に対応する画像と、パネル領域 以外の領域に対応する画像とが接する部分が強調された画像を表わすデータを生 成する。 [0025] Preferably, the subject is a glass substrate. The first part is the panel area processed into a glass substrate. The first generation means includes an image corresponding to the panel area and the panel area. Data representing an image in which a portion in contact with an image corresponding to a region other than is emphasized is generated.
[0026] 好ましくは、算出手段は、複数の 1次元データについての平均値と標準偏差とを算 出し、平均値と標準偏差とに基づいて閾値を算出する。  [0026] Preferably, the calculating means calculates an average value and a standard deviation for a plurality of one-dimensional data, and calculates a threshold based on the average value and the standard deviation.
[0027] 好ましくは、特定手段は、閾値を越える輝度値に対応する複数の 1次元データを特 定し、特定された各 1次元データの各々について、データの範囲の上限値と 1次元デ ータとの差をそれぞれ算出し、算出された各差が最小となる 1次元データを、閾値を 越える輝度値に対応する 1次元データとして決定する。 [0027] Preferably, the specifying unit specifies a plurality of one-dimensional data corresponding to a luminance value exceeding a threshold, and for each of the specified one-dimensional data, the upper limit value of the data range and the one-dimensional data are determined. The one-dimensional data that minimizes each calculated difference is determined as the one-dimensional data corresponding to the luminance value exceeding the threshold.
[0028] 好ましくは、原画像は、矩形領域を含む。境界は、矩形領域の輪郭によって形成さ れている。第 1の生成手段は、強調画像データとして、輪郭により形成される境界が 強調された画像を表わすデータを生成する。 [0028] Preferably, the original image includes a rectangular region. The boundary is formed by the outline of the rectangular area. The first generation means generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
[0029] 好ましくは、第 2の生成手段は、境界が強調された後の矩形領域に対応する各画 素の各輝度値を、矩形領域における一方向に積算して、平均値を算出することにより[0029] Preferably, the second generation means calculates the average value by integrating the luminance values of the pixels corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area. By
、複数の一次元データを生成し、第 1の決定手段は、矩形領域についての一次元デ ータによって規定される範囲にデータの範囲が含まれるように、データの範囲を決定 する。 The plurality of one-dimensional data are generated, and the first determining means determines the data range so that the range of the data is included in the range defined by the one-dimensional data for the rectangular area.
[0030] 好ましくは、統計量は、平均値と標準偏差とを含む。算出手段は、複数の標準偏差 の各値に応じて予め規定された各式を用いて閾値を算出し、各式は、各標準偏差の 値によって異なる。  [0030] Preferably, the statistic includes an average value and a standard deviation. The calculation means calculates the threshold value using each formula defined in advance according to each value of the plurality of standard deviations, and each formula varies depending on the value of each standard deviation.
[0031] この発明の他の局面に従うと、コンピュータが画像に含まれる境界の位置を決定す る方法が提供される。コンピュータは、データを格納する記憶装置とデータを用いて 予め規定された処理を実行する処理装置とを備える。この方法は、処理装置が、記 憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出 すステップを備える。原画像データは 2次元の座標軸にしたがって表わされている。 この方法は、原画像が複数の部分画像を有する場合に、処理装置が、原画像データ に基づ!/、て、各部分画像の境界が強調された画像を表わす強調画像データを生成 するステップと、処理装置が、境界が強調された後の各部分画像に対応する各部分 領域の各輝度値を境界の方向に積算して、平均値を算出することにより、 2次元の座 標軸のうちの 1次元の座標軸に従って表わされる複数の 1次元データを生成するステ ップと、処理装置が、被写体の設計データに基づいて、境界の位置を決定するため の対象となるデータの範囲を決定するステップと、処理装置が、データの範囲に含ま れる複数の 1次元データを用いて統計量を算出することにより、輝度値についての閾 値を算出するステップと、処理装置が、データの範囲に含まれる複数の 1次元データ に基づいて、閾値を越える輝度値に対応する 1次元データを特定するステップと、処 理装置が、特定された 1次元データの 1次元の座標軸上の座標値を、境界の位置と して決定するステップとを備える。 [0031] According to another aspect of the invention, a method is provided for a computer to determine a position of a boundary included in an image. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. In this method, the processing device includes a step of reading original image data representing an original image acquired by photographing a subject from the storage device. The original image data is represented according to a two-dimensional coordinate axis. In this method, when the original image has a plurality of partial images, the processing unit generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data! Then, the processing device integrates each luminance value of each partial area corresponding to each partial image after the boundary is emphasized in the direction of the boundary, and calculates an average value, thereby obtaining a two-dimensional coordinate. A step of generating a plurality of one-dimensional data represented according to a one-dimensional coordinate axis of the standard axis, and a data processing target for the processing device to determine the boundary position based on the design data of the subject A step of determining a range, a step of calculating a threshold value for a luminance value by calculating a statistic using a plurality of one-dimensional data included in the data range, and a processing device A step of identifying one-dimensional data corresponding to a luminance value exceeding a threshold value based on a plurality of one-dimensional data included in the range, and the processing device coordinates the one-dimensional coordinate axis of the identified one-dimensional data. Determining the value as the position of the boundary.
[0032] この発明の他の局面に従うと、画像に含まれる境界の位置を決定する装置としてコ ンピュータを機能させるためのプログラムが提供される。コンピュータは、データを格 納する記憶装置とデータを用いて予め規定された処理を実行する処理装置とを備え る。このプログラムは、処理装置に、記憶装置から、被写体の撮影により取得された 原画像を表わす原画像データを読み出すステップを実行させる。原画像データは 2 次元の座標軸にしたがって表わされている。このプログラムは、処理装置に、原画像 が複数の部分画像を有する場合に、原画像データに基づいて、各部分画像の境界 が強調された画像を表わす強調画像データを生成するステップと、境界が強調され た後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平 均値を算出することにより、 2次元の座標軸のうちの 1次元の座標軸に従って表わさ れる複数の 1次元データを生成するステップと、被写体の設計データに基づいて、境 界の位置を決定するための対象となるデータの範囲を決定するステップと、データの 範囲に含まれる複数の 1次元データを用 、て統計量を算出することにより、輝度値に つ!、ての閾値を算出するステップと、データの範囲に含まれる複数の 1次元データに 基づいて、閾値を越える輝度値に対応する 1次元データを特定するステップと、特定 された 1次元データの 1次元の座標軸上の座標値を、境界の位置として決定するステ ップとを実行させる。  According to another aspect of the present invention, there is provided a program for causing a computer to function as an apparatus for determining the position of a boundary included in an image. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. This program causes the processing device to execute a step of reading original image data representing an original image acquired by photographing a subject from the storage device. The original image data is represented according to a two-dimensional coordinate axis. In the program, when the original image has a plurality of partial images, the program generates, based on the original image data, enhanced image data representing an image in which the boundary of each partial image is emphasized; Each luminance value of each partial area corresponding to each partial image after enhancement is integrated in the direction of the boundary, and the average value is calculated, so that it is expressed according to the one-dimensional coordinate axis out of the two-dimensional coordinate axes. A step of generating a plurality of one-dimensional data, a step of determining a range of target data for determining a boundary position based on the design data of the subject, and a plurality of one-dimensional data included in the range of the data Using the data to calculate the statistic, the step of calculating the threshold value for the luminance value and the luminance value exceeding the threshold value based on the multiple one-dimensional data included in the data range Identifying a corresponding one-dimensional data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data specified to execute a stearyl-up to determine the position of the boundary.
[0033] この発明の他の局面に従うと、上記のプログラムを格納した、コンピュータ読み取り 可能な記録媒体が提供される。  [0033] According to another aspect of the present invention, a computer-readable recording medium storing the above program is provided.
[0034] この発明の他の局面に従うと、境界の位置決定装置は、被写体の撮影により取得さ れた原画像を表わす原画像データを格納する記憶部を備える。原画像データは 2次 元の座標軸にしたがって表わされている。この装置は、原画像が複数の部分画像を 有する場合に、原画像データに基づいて、各部分画像の境界が強調された画像を 表わす強調画像データを生成する第 1の生成部と、境界が強調された後の各部分画 像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出する ことにより、 2次元の座標軸のうちの 1次元の座標軸に従って表わされる複数の 1次元 データを生成する第 2の生成部と、被写体の設計データに基づいて、境界の位置を 決定するための対象となるデータの範囲を決定する第 1の決定部と、データの範囲 に含まれる複数の 1次元データを用 、て統計量を算出することにより、輝度値にっ ヽ ての閾値を算出する算出部と、データの範囲に含まれる複数の 1次元データに基づ いて、算出された閾値を越える輝度値に対応する 1次元データの 1次元の座標軸上 の座標値を、境界の位置として決定する第 2の決定部とを備える。 [0034] According to another aspect of the present invention, the boundary position determination device is obtained by photographing a subject. A storage unit for storing original image data representing the original image. The original image data is represented according to the two-dimensional coordinate axes. When the original image has a plurality of partial images, the apparatus includes a first generation unit that generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data, and the boundary is It is expressed according to the one-dimensional coordinate axis of the two-dimensional coordinate axes by calculating the average value by integrating the luminance values of the partial areas corresponding to the emphasized partial images in the direction of the boundary. A second generation unit that generates a plurality of one-dimensional data; a first determination unit that determines a range of data for determining a boundary position based on the design data of the subject; and a data range Based on a plurality of one-dimensional data included in the data range, a calculation unit that calculates a threshold value for the luminance value by calculating a statistic using a plurality of one-dimensional data included in , Luminance value exceeding the calculated threshold Comprising a coordinate value on a one-dimensional coordinate axis of the corresponding one-dimensional data, and a second determination unit which determines a position of the boundary.
[0035] この発明のさらに他の局面に従うと、画像に含まれる境界の位置を決定する方法が 提供される。この方法は、被写体の撮影により取得された原画像を表わす原画像デ ータを読み出すステップを備える。原画像データは 2次元の座標軸にしたがって表わ されている。この方法は、原画像が複数の部分画像を有する場合に、原画像データ に基づ!/、て、各部分画像の境界が強調された画像を表わす強調画像データを生成 するステップと、境界が強調された後の各部分画像に対応する各部分領域の各輝度 値を境界の方向に積算して、平均値を算出することにより、 2次元の座標軸のうちの 1 次元の座標軸に従って表わされる複数の 1次元データを生成するステップと、被写体 の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を 決定するステップと、データの範囲に含まれる複数の 1次元データを用いて統計量を 算出することにより、輝度値についての閾値を算出するステップと、データの範囲に 含まれる複数の 1次元データに基づいて、閾値を越える輝度値に対応する 1次元デ ータを特定するステップと、特定された 1次元データの 1次元の座標軸上の座標値を 、境界の位置として決定するステップとを備える。 [0035] According to still another aspect of the present invention, a method for determining a position of a boundary included in an image is provided. The method includes a step of reading original image data representing an original image acquired by photographing a subject. The original image data is represented according to a two-dimensional coordinate axis. According to this method, when the original image has a plurality of partial images, the step of generating emphasized image data representing an image in which the boundary of each partial image is emphasized based on the original image data; Multiple brightness values of each partial area corresponding to each partial image after being emphasized are integrated in the direction of the boundary, and an average value is calculated, so that a plurality of two-dimensional coordinate axes can be represented according to the one-dimensional coordinate axis. Generating one-dimensional data, determining a range of data for determining the boundary position based on the design data of the subject, and a plurality of one-dimensional data included in the data range And calculating a statistic using the step of calculating a threshold value for the luminance value and a one-dimensional data corresponding to the luminance value exceeding the threshold value based on a plurality of one-dimensional data included in the data range. Comprising identifying a data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data specified, and determining a position of the boundary.
発明の効果  The invention's effect
[0036] 本発明に係る境界の位置決定装置によると、境界 (たとえば、パネルのエッジ部分) の位置を精度よく決定することができる。本発明に係る方法によると、コンピュータは、 境界の位置を精度よく決定することができる。本発明に係るプログラムによると、コン ピュータは、境界の位置を精度よく決定できる装置として機能する。本発明に係る記 録媒体がコンピュータに装着され、当該記録媒体に格納されているプログラムが実行 されると、そのプログラムを実行するコンピュータは、境界の位置を精度よく決定する ことができる装置として機能することができる。その結果、検査対象物の画像処理検 查の効率が向上し得る。 [0036] According to the boundary position determining apparatus of the present invention, the boundary (for example, the edge portion of the panel) Can be accurately determined. According to the method of the present invention, the computer can accurately determine the position of the boundary. According to the program according to the present invention, the computer functions as an apparatus that can accurately determine the position of the boundary. When a recording medium according to the present invention is loaded on a computer and a program stored in the recording medium is executed, the computer that executes the program functions as an apparatus that can accurately determine the position of the boundary. can do. As a result, the efficiency of the image processing inspection of the inspection object can be improved.
図面の簡単な説明  Brief Description of Drawings
[0037] [図 1]本発明の実施の形態に係る検査システム 10の構成を表わす図である。  FIG. 1 is a diagram showing a configuration of an inspection system 10 according to an embodiment of the present invention.
[図 2]ガラス基板 140の画像 240を表わす図である。  FIG. 2 is a diagram showing an image 240 of a glass substrate 140.
[図 3]領域 206の画像を表わす図である。  FIG. 3 is a diagram showing an image of region 206.
[図 4]Sobelフィルタ処理を実行することにより生成されたエッジ強調画像 400を表わ す図である。  FIG. 4 is a diagram showing an edge-enhanced image 400 generated by executing Sobel filter processing.
[図 5]エッジ位置検出装置 100によって実現される各機能の構成を表わすブロック図 である。  FIG. 5 is a block diagram showing the configuration of each function realized by edge position detection apparatus 100.
[図 6]記憶部 540におけるデータの格納の一態様を概念的に表わす図である。  FIG. 6 is a diagram conceptually showing one mode of data storage in storage unit 540.
[図 7]エッジ位置検出装置 100の処理部 550が実行する処理の手順を表わすフロー チャートである。  FIG. 7 is a flowchart showing a procedure of processing executed by processing unit 550 of edge position detection apparatus 100.
[図 8]ガラス基板 800の外観を表わす図である。  FIG. 8 is a diagram showing the appearance of a glass substrate 800.
[図 9]ガラス基板 800をカメラで撮影した場合に取得される画像 900を表わす図であ る。  FIG. 9 is a diagram showing an image 900 acquired when a glass substrate 800 is photographed with a camera.
[図 10]画像 906を説明するための図である。  FIG. 10 is a diagram for explaining an image 906;
[図 11]画像 906に対して Sobelフィルタ処理を実施した画像を表わす図である。  FIG. 11 is a diagram showing an image obtained by performing Sobel filter processing on image 906.
[図 12]コンピュータシステム 1200のハードウェア構成を表わすブロック図である。 符号の説明  FIG. 12 is a block diagram showing a hardware configuration of computer system 1200. Explanation of symbols
[0038] 10 検査システム、 140 ガラス基板、 141, 142 ノ《ネル、 206 領域、 210, 220 , 240, 300 画像、 211, 212, 213, 214, 811, 812, 813, 814 ノネルエッジ、 215, 815 配線パターン領域、 216 配線パターンエッジ。 発明を実施するための最良の形態 [0038] 10 inspection system, 140 glass substrate, 141, 142 non-nell, 206 area, 210, 220, 240, 300 image, 211, 212, 213, 214, 811, 812, 813, 814 nonel edge, 215, 815 Wiring pattern area, 216 Wiring pattern edge. BEST MODE FOR CARRYING OUT THE INVENTION
[0039] 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明で は、同一の部品には同一の符号を付してある。それらの名称および機能も同じである 。したがって、それらについての詳細な説明は繰り返さない。  Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are the same. Therefore, detailed description thereof will not be repeated.
[0040] 図 1を参照して、本発明の実施の形態に係る検査システム 10について説明する。  With reference to FIG. 1, an inspection system 10 according to an embodiment of the present invention will be described.
図 1は、エッジの位置を決定する機能を有する検査システム 10のハードウェア構造を 表わすブロック図である。検査システム 10は、ライト 110と、ライト 110に電気的に接 続されるエッジ位置検出装置 100と、エッジ位置検出装置 100に電気的に接続され るカメラ 120と、エッジ位置検出装置 100に電気的に接続されるディスプレイ 130とを 備える。エッジ位置検出装置 100は、ガラス基板に形成されるパネル領域と、パネル 領域以外の領域との境界 (エッジ)の位置を検出する。具体的には、後述するように、 エッジ位置検出装置 100は、予め規定された座標軸上における座標値として、境界 の位置を検出する。  FIG. 1 is a block diagram showing a hardware structure of an inspection system 10 having a function for determining the position of an edge. The inspection system 10 is electrically connected to the light 110, the edge position detection device 100 electrically connected to the light 110, the camera 120 electrically connected to the edge position detection device 100, and the edge position detection device 100. And a display 130 connected to the. The edge position detection device 100 detects the position of the boundary (edge) between the panel region formed on the glass substrate and the region other than the panel region. Specifically, as described later, the edge position detection device 100 detects the position of the boundary as a coordinate value on a coordinate axis defined in advance.
[0041] 検査システム 10には、検査の対象物であるガラス基板 140が搬入され、予め定めら れた位置に装着される。ガラス基板 140には、 2つの薄型パネル 141, 142がそれぞ れ形成されている。  [0041] Into the inspection system 10, a glass substrate 140, which is an object to be inspected, is carried in and mounted at a predetermined position. Two thin panels 141 and 142 are formed on the glass substrate 140, respectively.
[0042] ライト 110は、エッジ位置検出装置 100からの信号に基づいて当該位置に装着され たガラス基板 140に予め設定された強度を有する光を照射する。照射される光は、た とえば一般白色光である。  The light 110 irradiates light having a preset intensity on the glass substrate 140 mounted at the position based on a signal from the edge position detection device 100. The irradiated light is, for example, general white light.
[0043] カメラ 110は、ガラス基板 140からの反射光を受光して撮影し、画像データとしてェ ッジ位置検出装置 100に送出する。カメラ 120は、エリアセンサカメラでもラインセン サカメラでもよい。カメラ 120の撮像部分は、 CCD (Charge Coupled Device)、ある いは CMOS (Complementary Metal Oxide Semiconductor)等の光電変^ ¾構を 有する。  The camera 110 receives and captures the reflected light from the glass substrate 140 and sends it to the edge position detection device 100 as image data. The camera 120 may be an area sensor camera or a line sensor camera. The imaging part of the camera 120 has a photoelectric conversion structure such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
[0044] 本実施の形態で説明する画像のサイズは、たとえば、横 1000画素、縦 1200画素 である。しかしながら、当該画像のサイズは、上記のものに限られず、その他のサイズ (たとえば、横 500画素、縦 600画素)であってもよい。  [0044] The size of the image described in the present embodiment is, for example, horizontal 1000 pixels and vertical 1200 pixels. However, the size of the image is not limited to the above, and may be other sizes (for example, horizontal 500 pixels, vertical 600 pixels).
[0045] また、本実施の形態で説明される画像の画素の有する輝度値は、 "0"〜"255"の 範囲の値である。以下の説明では、輝度値が" 0"の場合、対応する画素は黒色に対 応するものとする。また、輝度値が" 255"の場合、対応する画素は白色に対応するも のとする。なお、本実施の形態で使用する画像の画素の有する輝度値は、 "0"〜"2 55"の範囲に含まれる値に限られることはなぐその他の範囲に含まれる値であって ちょい。 In addition, the luminance values of the pixels of the image described in the present embodiment are “0” to “255”. A range value. In the following explanation, when the luminance value is “0”, the corresponding pixel corresponds to black. When the luminance value is “255”, the corresponding pixel corresponds to white. Note that the luminance value of the image pixel used in the present embodiment is not limited to the value included in the range of “0” to “255” but may be a value included in other ranges.
[0046] 図 2を参照して、カメラ 120によって撮影されたガラス基板 140の画像について説明 する。図 2は、ガラス基板 140の画像 240を表わす図である。画像 240は、パネル 21 0とガラス基板との境界に形成されるノ ネノレエッジ 211, 212, 213, 214と、ノ ネノレ 2 10を取り囲むようにガラス基板 140の内側に形成される配線パターン領域 215とを含 む。  With reference to FIG. 2, an image of glass substrate 140 taken by camera 120 will be described. FIG. 2 is a diagram showing an image 240 of the glass substrate 140. The image 240 includes a non-linear edge 211, 212, 213, 214 formed at the boundary between the panel 210 and the glass substrate, and a wiring pattern region 215 formed inside the glass substrate 140 so as to surround the non-linear 210. including.
[0047] ノネル 220についても、同様にガラス基板 140とパネル 220との間に形成される配 線パターン領域と、パネル 220を矩形状に取り囲むパネルエッジとを表わす画像が 生成される。さら〖こ、配線パターン領域 215とガラス基板 140との間には、配線パター ンエッジ(たとえば配線パターンエッジ 216)が生成される。領域 206は、画像 240に ぉ 、て、検査の対象となる領域に対応する画像である。  For the nonel 220 as well, an image representing a wiring pattern region formed between the glass substrate 140 and the panel 220 and a panel edge surrounding the panel 220 in a rectangular shape is generated. Further, a wiring pattern edge (for example, a wiring pattern edge 216) is generated between the wiring pattern region 215 and the glass substrate 140. The area 206 is an image corresponding to the area to be inspected, in addition to the image 240.
[0048] そこで、図 3を参照して、領域 206について説明する。図 3は、領域 206の画像 300 を表わす図である。  [0048] The region 206 will be described with reference to FIG. FIG. 3 is a diagram representing an image 300 in the region 206.
[0049] 画像 300には、領域 206の端部に対応する画像の端 201と、配線パターンエッジ 2 16と、ノネルエッジ 211と、ノイズ 230とが示される。図 3 (A)に示される累算方向は、 各領域に含まれる輝度値を積算する方向を表わす。この方向は、ガラス基板 140〖こ 対して予め規定されている。たとえば、ガラス基板 140が矩形である場合には、いず れかの 1辺に平行な方向を累算方向として規定される。  Image 300 shows an image edge 201 corresponding to the edge of region 206, wiring pattern edge 216, nonel edge 211, and noise 230. The accumulation direction shown in Fig. 3 (A) represents the direction in which the luminance values included in each area are accumulated. This direction is predetermined for 140 glass substrates. For example, when the glass substrate 140 is rectangular, a direction parallel to any one side is defined as the accumulation direction.
[0050] 図 3 (B)は、画像 300に対応する輝度値を上記累算方向にそれぞれ積算すること により算出した値を表わす図である。具体的には、領域 310については、 X座標値が 0から aまでの間において、各領域における輝度値は、少なくとも 160以上として表わ される。領域 320については、 X座標値が aから bまでの間において輝度値は 180とし て表わされる。さらに領域 330については、 X座標値力 ¾以上の範囲において輝度値 は 0として表わされる。 [0051] 図 4を参照して、フィルタ処理によって生成された画像について説明する。図 4は、 画像 240における領域 206に相当する画像に対して Sobelフィルタ処理を実行する ことにより生成されたエッジ強調画像 400を表わす図である。 FIG. 3 (B) is a diagram showing values calculated by integrating the luminance values corresponding to the image 300 in the accumulation direction. Specifically, for the region 310, the luminance value in each region is expressed as at least 160 or more when the X coordinate value is between 0 and a. For region 320, the luminance value is expressed as 180 when the X coordinate value is between a and b. Further, for the region 330, the luminance value is expressed as 0 in the range of the X coordinate value force ¾ or more. [0051] An image generated by the filtering process will be described with reference to FIG. FIG. 4 is a diagram showing an edge-enhanced image 400 generated by performing Sobel filter processing on an image corresponding to the region 206 in the image 240.
[0052] 図 4 (A)に示されるように、エッジ強調画像 400は、パネル領域の一部に対応する 画像 410と、配線パターン領域の一部に対応する画像 420と、ガラス基板の一部に 対応する画像 430とを含む。エッジ強調画像 400は、さら〖こ、パネルエッジに対応す る画像 211と、配線パターンエッジに対応する画像 216と、ノイズ 230とを含む。累算 方向 450は、各画像に対応する画素の輝度値を積算する方向を表わす。  [0052] As shown in FIG. 4A, the edge-enhanced image 400 includes an image 410 corresponding to a part of the panel area, an image 420 corresponding to a part of the wiring pattern area, and a part of the glass substrate. And the corresponding image 430. The edge-enhanced image 400 includes an image 211 corresponding to the panel edge, an image 216 corresponding to the wiring pattern edge, and a noise 230. An accumulation direction 450 represents a direction in which luminance values of pixels corresponding to the respective images are integrated.
[0053] 図 4 (B)は、累算方向 450に従って輝度値を積算した結果 (積算値)を表わす図で ある。たとえば、パネル領域において正常な領域に対応する画像 410についての積 算値は、「0」である。ノイズ 230の積算値は、「20」である。パネルエッジに対応する 画像 211についての積算値は、「40」である。配線パターン領域の一部に対応する 画像 420についての積算値は、「0」である。配線パターンエッジに対応する画像 216 についての積算値は、「127」である。ガラス基板に対応する画像 430についての積 算値は、「0」である。  FIG. 4B is a diagram showing a result (integrated value) obtained by integrating the luminance values in accordance with the accumulation direction 450. For example, the integrated value for the image 410 corresponding to the normal area in the panel area is “0”. The integrated value of noise 230 is “20”. The integrated value for the image 211 corresponding to the panel edge is “40”. The integrated value for the image 420 corresponding to a part of the wiring pattern region is “0”. The integrated value for the image 216 corresponding to the wiring pattern edge is “127”. The integrated value for the image 430 corresponding to the glass substrate is “0”.
[0054] 図 5を参照して、検査システム 10を構成するエッジ位置検出装置 100について説 明する。図 5は、エッジ位置検出装置 100によって実現される各機能の構成を表わす ブロック図である。エッジ位置検出装置 100は、設計データ入力部 510と、画像入力 部 520と、一時記憶部 530と、記憶部 540と、処理部 550とを備える。処理部 550は、 書込部 551と、初期設定部 552と、座標取得部 553と、抽出部 554と、画像生成部 5 55と、積算部 556と、データ範囲決定部 557と、閾値算出部 558と、位置決定部 559 と、表示制御部 560とを含む。  With reference to FIG. 5, an edge position detection apparatus 100 constituting the inspection system 10 will be described. FIG. 5 is a block diagram showing the configuration of each function realized by edge position detection apparatus 100. The edge position detection apparatus 100 includes a design data input unit 510, an image input unit 520, a temporary storage unit 530, a storage unit 540, and a processing unit 550. The processing unit 550 includes a writing unit 551, an initial setting unit 552, a coordinate acquisition unit 553, an extraction unit 554, an image generation unit 555, an integration unit 556, a data range determination unit 557, and a threshold calculation unit. 558, a position determination unit 559, and a display control unit 560.
[0055] 設計データ入力部 510は、ガラス基板 140に形成されるパネル 141, 142の設計の 仕様を表わすデータ入力を受け付ける。このデータは、たとえばガラス基板 140のサ ィズ情報、パネル 141, 142のサイズ情報、あるいはパネル 141, 142とガラス基板 1 40との位置関係を規定するデータを含む。  Design data input unit 510 accepts data input representing the design specifications of panels 141 and 142 formed on glass substrate 140. This data includes, for example, size information of the glass substrate 140, size information of the panels 141 and 142, or data defining the positional relationship between the panels 141 and 142 and the glass substrate 140.
[0056] 画像入力部 520は、カメラ 120から出力される画像データの入力を受け付ける。一 時記憶部 530は、設計データ入力部 510あるいは画像入力部 520によって入力が 受け付けられたデータ、あるいは処理部 550によって生成されたデータを一時的に( 揮発的に)保持する。一時記憶部 530は、たとえば RAM (Random Access Memory )、フレームノ ッファとして実現される。なお、一時記憶部 530は、物理的には、 1つの メモリとして実現される場合に限られず、 2つ以上のメモリに分けて構成されてもよい。 The image input unit 520 receives input of image data output from the camera 120. The temporary storage unit 530 is input by the design data input unit 510 or the image input unit 520. The received data or the data generated by the processing unit 550 is temporarily (volatilely) retained. Temporary storage unit 530 is realized as, for example, a RAM (Random Access Memory) or a frame notifier. Note that the temporary storage unit 530 is physically not limited to being implemented as a single memory, and may be configured by being divided into two or more memories.
[0057] 書込部 551は、一時記憶部 530に保持されているデータを読み出し、そのデータを 記憶部 540において確保された領域に書き込む。記憶部 540は、データを不揮発的 に保持できる記憶装置である。初期設定部 552は、記憶部 540に格納されているデ ータおよびエッジ位置検出装置 100に対して入力される外部からの指示に基づいて 、ガラス基板 140に対して実行する検査処理を行なうための初期設定値を記憶部 54 0から読み出し、一時記憶部 530において確保された領域に格納する。  Write unit 551 reads the data held in temporary storage unit 530 and writes the data in an area secured in storage unit 540. The storage unit 540 is a storage device that can hold data in a nonvolatile manner. The initial setting unit 552 performs an inspection process to be performed on the glass substrate 140 based on data stored in the storage unit 540 and an external instruction input to the edge position detection device 100. Are read from the storage unit 540 and stored in an area secured in the temporary storage unit 530.
[0058] 記憶部 540は、ガラス基板 140の撮影によって生成された画像データ(たとえば図 2に示される画像 240を表わすデータ)を格納する。記憶部 540は、たとえば、フラッ シュメモリ、ハードディスク装置として実現される。  Storage unit 540 stores image data generated by photographing glass substrate 140 (for example, data representing image 240 shown in FIG. 2). The storage unit 540 is realized as, for example, a flash memory or a hard disk device.
[0059] 座標取得部 553は、記憶部 540に格納されているガラス基板 140の画像データに 基づ!/、て、ノ ノレエッジ 211, 212, 213, 214の各座標を取得する。なお、画像処 理の検査を促進する観点から、各パネルエッジの座標を取得する態様に代えて、い ずれかの特定のパネルエッジ(たとえばパネルエッジ 211)の座標を取得するもので あってもよい。  [0059] The coordinate acquisition unit 553 is based on the image data of the glass substrate 140 stored in the storage unit 540! /, To obtain the coordinates of the nore edge 211, 212, 213, 214. In addition, from the viewpoint of promoting the inspection of image processing, instead of obtaining the coordinates of each panel edge, the coordinates of any specific panel edge (for example, panel edge 211) may be obtained. Good.
[0060] 抽出部 554は、記憶部 540に格納されているデータに基づいて画像 240から領域 206の画像 (すなわち境界によって区分される部分画像)を抽出する。具体的には、 まず記憶部 540には、初期設定部 552によって設定された領域 206を特定するため の座標値が格納されている。抽出部 554は、その各座標値を参照して、画像 240か らその座標値に対応する領域を決定し、決定された領域に含まれるデータを抽出す る。抽出部 554は、その抽出したデータを一時記憶部 530に格納する(抽出された画 像データ 531)。  The extraction unit 554 extracts the image of the region 206 (ie, the partial image divided by the boundary) from the image 240 based on the data stored in the storage unit 540. Specifically, first, the storage unit 540 stores coordinate values for specifying the area 206 set by the initial setting unit 552. The extraction unit 554 refers to each coordinate value, determines an area corresponding to the coordinate value from the image 240, and extracts data included in the determined area. Extraction unit 554 stores the extracted data in temporary storage unit 530 (extracted image data 531).
[0061] 画像生成部 555は、一時記憶部 530に格納されている画像データに基づいて、画 像の輪郭を強調するための処理を実行する。具体的には、画像生成部 555は、抽出 された画像データ 531を用いて、画像処理にお 、て一般的な画像変換方法であるフ ィルタ処理を用いるとともに、予め初期設定値として入力されているパラメータに基づ いてそのフィルタ処理を実行する。実行されるフィルタ処理は、たとえば一般的なエツ ジ抽出フィルタである 3 X 3の Sobelフィルタである。画像生成部 555は、当該フィル タ処理を実行することによって生成された画像データを、一時記憶部 530に格納する (エッジ強調された画像データ 532)。 The image generation unit 555 executes a process for enhancing the contour of the image based on the image data stored in the temporary storage unit 530. Specifically, the image generation unit 555 uses the extracted image data 531 to generate a frame that is a general image conversion method in image processing. In addition to using the filter process, the filter process is executed based on the parameters previously input as initial setting values. The filter processing performed is, for example, a 3 × 3 Sobel filter, which is a common edge extraction filter. The image generation unit 555 stores the image data generated by executing the filter processing in the temporary storage unit 530 (image data 532 with edge enhancement).
[0062] 積算部 556は、一時記憶部 530に格納されているデータを用いて、当該画像を構 成する画素の輝度値を予め規定された一方向に積算する。具体的には、積算部 55 6は、画像 240において規定される X座標について同一の座標値を有する各画素の 輝度値を予め規定された積算方向(たとえば Y軸の負の方向)に積算する。積算部 5 56は、さらに、積算後の値を積算した画素の数で除することにより、当該同一の X座 標値を有する画素についての輝度値の平均値を算出する。積算部 556は、そのよう にして算出した一次投影データ 533を一時記憶部 530に書き込む。  [0062] Using the data stored in temporary storage unit 530, integrating unit 556 integrates the luminance values of the pixels constituting the image in one predetermined direction. Specifically, the integration unit 556 6 integrates the luminance value of each pixel having the same coordinate value with respect to the X coordinate specified in the image 240 in a predetermined integration direction (for example, the negative direction of the Y axis). . The integrating unit 556 further calculates an average value of the luminance values for the pixels having the same X coordinate value by dividing the integrated value by the number of integrated pixels. The accumulating unit 556 writes the primary projection data 533 thus calculated in the temporary storage unit 530.
[0063] データ範囲決定部 557は、一時記憶部 530に格納されている一次投影データ 533 を用いて、エッジ 211の位置を決定するための対象となるデータの範囲を決定する。 データ範囲決定部 557は、そのデータの範囲を決定すると、一時記憶部 530に確保 された領域に、データ範囲を表わすデータ 534として格納する。  The data range determination unit 557 determines the range of data that is a target for determining the position of the edge 211 using the primary projection data 533 stored in the temporary storage unit 530. When the data range determining unit 557 determines the data range, the data range determining unit 557 stores the data range as data 534 representing the data range in the area secured in the temporary storage unit 530.
[0064] 閾値算出部 558は、一次投影データ 533を用いて、データ範囲を表わすデータ 53 4によって規定される範囲について予め定められた統計量算出処理を実行すること により、閾値を算出する。本実施の形態に係る閾値は、エッジ 211の位置を決定する 判断に用いられる輝度値である。閾値算出部 558は、閾値を決定すると、一時記憶 部 530に書き込む(閾値 535)。  [0064] The threshold value calculation unit 558 uses the primary projection data 533 to calculate a threshold value by executing a predetermined statistic calculation process for the range defined by the data 534 representing the data range. The threshold value according to the present embodiment is a luminance value used for determination to determine the position of the edge 211. When the threshold value calculation unit 558 determines the threshold value, the threshold value calculation unit 558 writes the threshold value in the temporary storage unit 530 (threshold value 535).
[0065] 位置決定部 559は、一次投影データ 533と閾値 535とに基づいて、パネルエッジ 2 11の位置 (X座標値)を決定する。たとえば、位置決定部 559は、閾値 535を超える 輝度値に対する一次投影データ 533を特定し、その特定された一次投影データ 533 の X座標値をパネルエッジ 211の位置として決定する。位置決定部 559は、このよう にして決定した位置データを、一時記憶部 530に書き込む (エッジの位置を表わす データ 536)。  The position determination unit 559 determines the position (X coordinate value) of the panel edge 211 based on the primary projection data 533 and the threshold value 535. For example, the position determination unit 559 specifies the primary projection data 533 for the luminance value exceeding the threshold value 535, and determines the X coordinate value of the specified primary projection data 533 as the position of the panel edge 211. The position determination unit 559 writes the position data determined in this way into the temporary storage unit 530 (data 536 representing the position of the edge).
[0066] 表示制御部 560は、設定データ入力部 510を介して入力される表示指示に基づい て、一時記憶部 530に格納されているデータを読み出し、表示部(たとえばディスプ レイ 130)にそのデータを送出して、撮像画像を表示させる。 Display control unit 560 is based on a display instruction input via setting data input unit 510. Then, the data stored in the temporary storage unit 530 is read out, and the data is sent to the display unit (for example, the display 130) to display the captured image.
[0067] 図 6を参照して、エッジ位置検出装置 100のデータ構造について説明する。図 6は 、記憶部 540におけるデータの格納の一態様を概念的に表わす図である。記憶部 5 40は、データを格納するためのメモリ領域 602〜メモリ領域 630を含む。  With reference to FIG. 6, the data structure of edge position detection apparatus 100 will be described. FIG. 6 is a diagram conceptually showing one mode of data storage in storage unit 540. Storage unit 540 includes memory area 602 to memory area 630 for storing data.
[0068] パネル 141, 142が形成されたガラス基板 140を撮影することにより取得された画 像データは、メモリ領域 602に記録されている。上記データの範囲を決定するために 予め入力されたオフセット値 (Poff)は、メモリ領域 604に格納されている。エッジの位 置を検出する対象としての領域 206を規定するために予め入力された座標値は、メ モリ領域 606, 608にそれぞれ入力されている。たとえば、領域 206の左上端部の座 標値 Pitは、 (800, 1150)としてメモリ領域 606に格納されている。同様に、領域 20 6の右下端部を表わす座標値 Pbr (X, Y)は、 (1000, 700)として、メモリ領域 608に 格納されている。  Image data acquired by photographing the glass substrate 140 on which the panels 141 and 142 are formed is recorded in the memory area 602. An offset value (Poff) input in advance for determining the data range is stored in the memory area 604. Coordinate values input in advance to define the region 206 as a target for detecting the position of the edge are input to the memory regions 606 and 608, respectively. For example, the coordinate value Pit at the upper left end of the area 206 is stored in the memory area 606 as (800, 1150). Similarly, the coordinate value Pbr (X, Y) representing the lower right corner of the area 206 is stored in the memory area 608 as (1000, 700).
[0069] 統計量を算出するために積算するデータ数として予め規定されたデータ数 Ndは、 メモリ領域 610に格納されている。閾値を決定するための算式に用いられる定数 aは 、メモリ領域 612に格納されている。各画素の輝度値を予め規定された一方向に積 算するために定められた投影累算方向 Dpは、たとえば「Y座標軸の負方向を示すデ ータ」として、メモリ領域 614に格納されている。  [0069] The number of data Nd defined in advance as the number of data to be integrated for calculating the statistic is stored in the memory area 610. A constant “a” used in the formula for determining the threshold value is stored in the memory area 612. The projection accumulation direction Dp determined for accumulating the luminance value of each pixel in a predetermined direction is stored in the memory area 614 as, for example, “data indicating the negative direction of the Y coordinate axis”. Yes.
[0070] Sobelフィルタ処理を実行するために使用されるパラメータ値は、メモリ領域 616に 格納されている。ガラス基板 140にパネル 141, 142を形成するためのパネル設計に よって決定される設計データは、メモリ領域 618に格納されている。当該設計データ は、たとえばガラス基板 140の縦横方向のサイズ (たとえば長さ)、パネル 141, 142 の縦横方向のサイズ (たとえば画素数)、ガラス基板 140と各パネル 141, 142との間 の間隔、パネル 141, 142の間隔などを含む。  [0070] Parameter values used to execute the Sobel filter processing are stored in the memory area 616. Design data determined by panel design for forming the panels 141 and 142 on the glass substrate 140 is stored in the memory area 618. The design data includes, for example, the vertical and horizontal sizes (for example, length) of the glass substrate 140, the vertical and horizontal sizes of the panels 141 and 142 (for example, the number of pixels), the distance between the glass substrate 140 and the panels 141 and 142, Includes the spacing between panels 141 and 142.
[0071] その設計データに基づ!/、て算出されるパネルエッジ(たとえばパネルエッジ 211)の X座標値 (Xd)は、メモリ領域 620に格納される。この X座標値が算出される前は、た とえば「NULL」を表わすデータが格納される。他の領域についても、同様である。力 メラ 120による撮影によって取得された画像データを用 、て算出されるパネルエッジ ( たとえばパネルエッジ 211)の X座標値 (Xr)は、メモリ領域 622に格納される。データ 範囲決定部 557による演算力も算出されるパネルエッジ (たとえばパネルエッジ 211) の最大値の X座標値 (Xe)は、メモリ領域 624に格納される。同様に、当該パネルエツ ジの最小値 (Xs)は、メモリ領域 626に格納される。メモリ領域 624, 626に格納され るデータは、たとえば図 5に示されるデータ範囲を表わすデータ 534に対応する。デ ータ範囲決定部 557が前述の処理を実行していない場合には、メモリ領域 624, 62 6には、各々の領域にデータが存在しないことを表わす情報 (NULL)が格納される。 The X coordinate value (Xd) of the panel edge (for example, the panel edge 211) calculated based on the design data is stored in the memory area 620. Before the X coordinate value is calculated, for example, data representing “NULL” is stored. The same applies to other regions. The panel edge calculated using the image data obtained by shooting with force 120 For example, the X coordinate value (Xr) of the panel edge 211) is stored in the memory area 622. The X coordinate value (Xe) of the maximum value of the panel edge (for example, the panel edge 211) for which the computing power by the data range determination unit 557 is also calculated is stored in the memory area 624. Similarly, the minimum value (Xs) of the panel edge is stored in the memory area 626. Data stored in memory areas 624 and 626 corresponds to data 534 representing the data range shown in FIG. 5, for example. When the data range determination unit 557 is not executing the above-described processing, the memory areas 624 and 626 store information (NULL) indicating that no data exists in each area.
[0072] 閾値 Vthは、メモリ領域 628に格納される。エッジ位置検出装置 100の上記各機能 を実現するために使用されるプログラムは、メモリ領域 630に格納される。当該プログ ラムがプロセッサ等の演算処理装置によって実行されると、図 5に示される処理部 55 0を構成する各機能が実現される。当該プログラムは、たとえば、各機能を実現する モジュールを組み合わせることにより構成される。  The threshold value Vth is stored in the memory area 628. A program used for realizing each of the above functions of the edge position detection apparatus 100 is stored in the memory area 630. When the program is executed by an arithmetic processing unit such as a processor, each function constituting the processing unit 550 shown in FIG. 5 is realized. The program is configured, for example, by combining modules that realize each function.
[0073] 図 7を参照して、エッジ位置検出装置 100の制御構造について説明する。図 7は、 処理部 550が実行する処理の手順を表わすフローチャートである。エッジ位置検出 装置 100がコンピュータシステムによって実現される場合には、コンピュータシステム が備えるプロセッサ力 処理部 550として機能する。  With reference to FIG. 7, a control structure of edge position detection apparatus 100 will be described. FIG. 7 is a flowchart showing a procedure of processing executed by processing unit 550. When the edge position detection device 100 is realized by a computer system, it functions as a processor power processing unit 550 included in the computer system.
[0074] ステップ S710にて、処理部 550は、エッジ位置検出装置 100に対して外部から入 力される指示に基づいて、データの読み出しその他の初期設定を実行する。具体的 には、処理部 550は、初期設定部 552として記憶部 540に格納されているデータを 読み出して、一時記憶部 530に書き込む。当該初期設定により書き込まれるデータ は、たとえば、設計データによって算出された、画像 240に含まれるパネルエッジ 21 1の X座標値 Xs (211)、画像 240のデータに基づいて算出される実際のパネルエツ ジ 211の X座標値 Xr (211)と座標値 Xs (211)との誤差のうち最大誤差 Xme (211) と、領域 206を特定する座標値と、オフセット Poffと、データ数 Ndと、定数 aと、投影 累算方向 Dpとを含む。  In step S 710, processing unit 550 performs data reading and other initial settings based on an instruction input from the outside to edge position detection device 100. Specifically, the processing unit 550 reads out the data stored in the storage unit 540 as the initial setting unit 552 and writes it in the temporary storage unit 530. The data written by the initial setting is, for example, the actual panel edge calculated based on the X coordinate value Xs (211) of the panel edge 211 included in the image 240 and the data of the image 240, which is calculated based on the design data. Among the errors between the X coordinate value Xr (211) and the coordinate value Xs (211) of 211, the maximum error Xme (211), the coordinate value specifying the region 206, the offset Poff, the number of data Nd, the constant a, , Projection and accumulation direction Dp.
[0075] ステップ S720にて、処理部 550は、ガラス基板 140の全体を表わす画像 240から 、領域 206に対応する画像を抽出する。具体的には、処理部 550は、抽出部 554と して、記憶部 540に格納されている画像データを読み出し、左上座標値 Pitと右下座 標値 Prbとを参照して、抽出すべき矩形領域を特定し、その領域に含まれるデータを 一時記憶部 530にお 、て確保された他の領域に格納する(抽出された画像データ 5 31)。一例として、図 3 (A)に示される画像 300では、領域 206は矩形の領域であり、 領域 206の左上の端部の座標値 Pit (X, Y)は、 (800, 1150)であり、領域 206の右 下の端部の座標値 Prb (X, Y)は、 (1000, 700)である。したがって、これらの座標 値により特定される領域に含まれる領域に対応する画素の輝度値が一時記憶部 530 に保存される。 In step S 720, processing unit 550 extracts an image corresponding to region 206 from image 240 representing the entire glass substrate 140. Specifically, the processing unit 550 reads out the image data stored in the storage unit 540 as the extraction unit 554, and extracts the upper left coordinate value Pit and the lower right coordinate. The rectangular area to be extracted is identified with reference to the standard value Prb, and data included in the area is stored in another area secured in the temporary storage unit 530 (extracted image data 5 31 ). As an example, in the image 300 shown in FIG. 3A, the region 206 is a rectangular region, and the coordinate value Pit (X, Y) of the upper left end of the region 206 is (800, 1150), The coordinate value Prb (X, Y) at the lower right end of the region 206 is (1000, 700). Therefore, the luminance value of the pixel corresponding to the area included in the area specified by these coordinate values is stored in the temporary storage unit 530.
[0076] ステップ S730にて、処理部 550は、抽出された画像のエッジを強調した画像デー タを生成する。具体的には、処理部 550は、画像生成部 555として、抽出された画像 データ 531を参照して予め規定された Sobelフィルタ処理を実行することにより、領域 206の中に含まれる輪郭が強調された画像データを生成する(画像データ 532)。 So belフィルタ処理によって生成された画像は、たとえば図 4 (A)に示される画像 400で ある。  In step S730, processing unit 550 generates image data in which the edge of the extracted image is emphasized. Specifically, the processing unit 550 performs, as the image generation unit 555, the Sobel filter processing defined in advance with reference to the extracted image data 531, thereby enhancing the contour included in the region 206. Generated image data (image data 532). An image generated by the Sobel filter processing is, for example, an image 400 shown in FIG.
[0077] ステップ S740〖こて、処理部 550は、エッジ強調された画像を表わすデータを投影 累算方向 Dpの方向に従って積算し、一次元投影累算データを生成する。具体的に は、処理部 550は、積算部 556として、一時記憶部 530から、エッジ強調された画像 データ 532を読み出し、 Y座標軸の負方向に沿って、同一の X座標値を有する各画 素の輝度値を積算する。図 6に示される座標値 (メモリ領域 606、 608)を参照すると 、画像の Y軸方向の大きさは、 450画素( = 1150— 700)である。したがって、 450個 の輝度値が積算されることになる。図 4 (B)の例では、上記の積算は、累算方向 440 に沿って実行される。  In step S740, the processing unit 550 integrates the data representing the edge-enhanced image according to the direction of the projection accumulation direction Dp to generate one-dimensional projection accumulation data. Specifically, the processing unit 550 reads out the edge-enhanced image data 532 from the temporary storage unit 530 as the integrating unit 556, and each pixel having the same X coordinate value along the negative direction of the Y coordinate axis. The luminance values of are integrated. Referring to the coordinate values (memory areas 606 and 608) shown in FIG. 6, the size of the image in the Y-axis direction is 450 pixels (= 1150−700). Therefore, 450 luminance values are accumulated. In the example of Fig. 4 (B), the above integration is performed along the accumulation direction 440.
[0078] ステップ S750にて、処理部 550は、統計量を算出する対象となる領域を決定する 。具体的には、処理部 550は、データ範囲決定部 557として、一次投影データ 533を 参照し、データ範囲を表わすデータ 534を導出する。本実施の形態においては、各 輝度値は Y軸方向に従って投影されている。そこで、当該範囲は、 X座標の範囲 (Xs 〜Xe)で指定される。  In step S750, processing unit 550 determines a region for which a statistic is to be calculated. Specifically, processing unit 550 refers to primary projection data 533 as data range determination unit 557 and derives data 534 representing the data range. In the present embodiment, each luminance value is projected according to the Y-axis direction. Therefore, the range is specified by the X coordinate range (Xs to Xe).
[0079] 画像 240に含まれる実際のパネルエッジ 211に対応する座標値 Xr (211)は、エツ ジの位置を精度よく決定するという観点から、統計量を算出するための上記領域に 含まれない必要がある。し力しながら、現実には、カメラ 120とガラス基板 140との位 置決め誤差などに起因して、設計データに基づいて算出される画像 240におけるパ ネルエッジ 211の X座標値 Xs (211)と、画像 240に含まれる実際のパネルエッジ 21 1の X座標値 Xr (211)とは一致しない場合がある。この場合、ステップ S750が実行さ れる段階では、 Xr (211)の値は未知である。そこで、統計量を算出するために使用 されるデータの範囲を規定する上限値の X座標値 (Xe)を、 X座標値 Xs (211)カも最 大誤差 Sme (211)とオフセット Poffとを減算することにより、画像 240に含まれる実 際のパネルエッジ 211を、上記統計量を算出するための領域に含まれな 、ように設 定することができる。同様にして、当該領域の下限値の X座標値 (Xs)は、上限値 Xe 力もデータ数 Ndを減算することにより、算出される。 [0079] The coordinate value Xr (211) corresponding to the actual panel edge 211 included in the image 240 is in the above region for calculating the statistic from the viewpoint of accurately determining the position of the edge. Must not be included. However, in reality, due to positioning errors between the camera 120 and the glass substrate 140, the X coordinate value Xs (211) of the panel edge 211 in the image 240 calculated based on the design data The X coordinate value Xr (211) of the actual panel edge 21 1 included in the image 240 may not match. In this case, the value of Xr (211) is unknown when step S750 is executed. Therefore, the upper limit X-coordinate value (Xe) that defines the range of data used to calculate the statistic, the X-coordinate value Xs (211), the maximum error Sme (211), and the offset Poff By subtracting, the actual panel edge 211 included in the image 240 can be set so as not to be included in the area for calculating the statistics. Similarly, the X coordinate value (Xs) of the lower limit value of the area is also calculated by subtracting the upper limit value Xe force from the data number Nd.
[0080] たとえば、図 4 (B)に示される値を用いた演算は、以下のようにして行なわれる。 [0080] For example, the calculation using the values shown in Fig. 4 (B) is performed as follows.
Xe=Xs (211) -Xme (211)—Poff  Xe = Xs (211) -Xme (211) —Poff
= 950- 20- 10  = 950-20-10
= 920  = 920
ここで、オフセット値(Poff)として「10」が用いられている力 他の値が用いられても よい。なお、オフセット値は、たとえば以下のようにして決定される。  Here, a force in which “10” is used as the offset value (Poff) may be used. The offset value is determined as follows, for example.
[0081] まず最初に、 Poff =0である場合、 Xe = 950— 20— 0 = 930となる。この値は、最 大誤差のずれが生じた場合に、実際のパネルエッジ 211が統計量を算出するための 領域の端と一致する。そこで、オフセット値の値は、少なくとも「1」以上であればよい。 First, when Poff = 0, Xe = 950−20−0 = 930. This value coincides with the end of the area for calculating the statistic when the actual panel edge 211 has a maximum error shift. Therefore, the offset value may be at least “1” or more.
[0082] 本実施の形態にぉ 、ては、実際のパネルエッジ付近にノイズではな 、輝度値として の勾配がある場合を想定して、良品としてより安定的な輝度値の平均値と分散となる ように、オフセット値は「10」に設定されている。なお、本実施の形態においては、ォ フセット値の単位は、画素が用いられている。 [0082] In the present embodiment, assuming that there is a gradient as a luminance value that is not noise near the actual panel edge, the average value and the variance of the luminance values that are more stable as non-defective products As shown, the offset value is set to “10”. In this embodiment, a pixel is used as the unit of the offset value.
[0083] また、統計量を算出するための領域の小さい方の X座標値 Xsは、上限値 Xe力 統 計量算出のためのデータ数 Ndを減算することにより求められる。 [0083] Further, the X coordinate value Xs of the smaller area for calculating the statistic is obtained by subtracting the number of data Nd for calculating the upper limit value Xe force metric.
[0084] Xs=Xe-Nd+ l [0084] Xs = Xe-Nd + l
= 920- 50+ 1  = 920-50 + 1
= 871 ここで、データ数 Ndの値が大きいほど、処理時間が長くなる力 エッジの検出精度 が向上する。一方、この値が小さいほど、処理時間は短くなる力 処理結果は局所的 なノイズの影響を受けやすくなり、上記精度が低下する。そこで、処理時間と検出精 度とのトレードオフの関係を考慮して、データ数 Ndが決定される。この決定は、たとえ ば実際に行なった処理の結果 (処理時間および検出精度)に基づ!、て行なわれる。 = 871 Here, the larger the number of data Nd is, the longer the processing time becomes. On the other hand, the smaller the value, the shorter the processing time. The force processing result is more susceptible to local noise, and the accuracy is reduced. Therefore, the number of data Nd is determined in consideration of the trade-off relationship between processing time and detection accuracy. This determination is made based on the results of the actual processing (processing time and detection accuracy).
[0085] 以上の演算の結果、本実施の形態において統計量を算出するための領域は、 X座 標につ 、て 871〜920と決定される。  As a result of the above calculation, the region for calculating the statistic in the present embodiment is determined as 871 to 920 for the X coordinate.
[0086] 他のパネルエッジ 212, 213, 214を決定する場合を考慮して、上記の内容を一般 的に説明すると、以下のとおりである。まず、「設計データを用いて算出された画像中 のパネルエッジの座標値」から、パネルの内側に向けて「画像中の実際のパネルエツ ジの座標値と設計データ力 算出された画像中のパネルエッジの座標値との最大誤 差」分の画素数がシフトされる。次に、「統計量を算出する領域を決定するための変 位量であるオフセット」分の画素数をシフトした位置は、「統計量を算出するための領 域」のパネルエッジ側の境界である。さらに、当該「統計量を算出するための領域の パネルエッジ側の境界」から統計量算出のためのデータ数 (Nd)— 1に相当する画素 数をシフトした位置力 他方の境界となる。  [0086] Taking the case of determining the other panel edges 212, 213, and 214 into consideration, the above contents will be generally described as follows. First, from the “coordinate value of the panel edge in the image calculated using the design data” toward the inside of the panel, the “coordinate value of the actual panel edge in the image and the design data force panel in the calculated image The number of pixels corresponding to the “maximum error with the edge coordinate value” is shifted. Next, the position where the number of pixels shifted by “offset, which is the displacement amount for determining the area for calculating the statistic”, is shifted by the boundary on the panel edge side of the “area for calculating the statistic”. is there. Furthermore, the position force is the other boundary obtained by shifting the number of data corresponding to the number of data (Nd) -1 for calculating the statistic from the “boundary on the panel edge side of the region for calculating the statistic”.
[0087] 図 7を再び参照して、ステップ S760にて、処理部 550は、ステップ S750において 決定された領域に基づいて統計量を算出し、さらにその統計量に基づいて閾値 Vth を算出する。統計量は、たとえば上記領域に含まれる一次元投影累算データの平均 値 (Vave)と標準偏差 (Vsig)とを含む。具体的には、処理部 550は、閾値算出部 55 8として、データ範囲を表わすデータ 534を参照して閾値 535を導出する。  Referring again to FIG. 7, in step S760, processing unit 550 calculates a statistic based on the region determined in step S750, and further calculates a threshold Vth based on the statistic. The statistic includes, for example, the average value (Vave) and standard deviation (Vsig) of the one-dimensional projection accumulation data included in the region. Specifically, processing unit 550 derives threshold value 535 as threshold calculation unit 558 by referring to data 534 representing a data range.
[0088] たとえば、図 4 (B)に示される例では、統計量を算出するための領域の下限の X座 標値 Xsから当該領域の上限の X座標値 Xeに含まれる Nd ( = 50)個の 1次元投影累 算データの各値は、 8個のデータの値は「20」であり、その他の値は「0」である。この 場合、平均値 Vaveは「3. 2」となり、標準偏差 Vsigは約「7. 4」となる。そこで、以下 に示されるように、式 1を用いて閾値 Vthが算出される。  [0088] For example, in the example shown in FIG. 4B, Nd (= 50) included in the upper limit X coordinate value Xe of the region from the lower X coordinate value Xs of the region for calculating the statistic. As for each value of the one-dimensional projection accumulated data, the value of 8 data is “20”, and the other values are “0”. In this case, the average value Vave is “3.2” and the standard deviation Vsig is about “7.4”. Therefore, the threshold Vth is calculated using Equation 1 as shown below.
[0089] Vth=Vave + a XVsig (式 1)  [0089] Vth = Vave + a XVsig (Formula 1)
= 3. 2 + 3. 0 X 7. 4 = 25. 4 = 3. 2 + 3. 0 X 7.4 = 25.4
ここでは、閾値決定用定数 aの値として、品質管理の分野において用いられる 3 σ における「3」の値が使用されて 、る。  Here, the value of “3” in 3 σ used in the field of quality control is used as the value of the threshold determination constant a.
[0090] 図 7を再び参照して、ステップ S770にて、処理部 550は、閾値 Vthを用いて、パネ ルエッジ 211の位置を決定する。具体的には、処理部 550は、位置決定部 559とし て、閾値 535を参照して、エッジの位置を表わすデータ 536を導出する。たとえば、 統計量を算出するため糊のパネルエッジ 211側の上限値 Xe ( = 920)から、パネル エッジ 211の方向に(すなわち、 X軸の正の方向に)、閾値 Vth (前述の図 4の例では 、 25. 4)を最初に超える座標を特定する。本実施の場合、図 4 (B)に示されるように、 閾値 Vth (25. 4)を越える X座標値は「940」である。この値は、結果として、パネルェ ッジ 211の X座標値 Xs (211)に一致する。  Referring to FIG. 7 again, in step S770, processing unit 550 determines the position of panel edge 211 using threshold value Vth. Specifically, processing unit 550 refers to threshold value 535 as position determination unit 559 to derive data 536 representing the position of the edge. For example, to calculate the statistics, from the upper limit value Xe (= 920) on the panel edge 211 side of the glue, in the direction of the panel edge 211 (that is, in the positive direction of the X axis), the threshold Vth (in FIG. 4 above) In the example, specify the coordinates that exceed 25.4) first. In this embodiment, as shown in FIG. 4B, the X coordinate value exceeding the threshold Vth (25.4) is “940”. This value consequently matches the X coordinate value Xs (211) of panel edge 211.
[0091] なお、ステップ S760において、本実施の形態では閾値 Vthを算出する式として(式 1)が使用されている力 その他の式が用いられてもよい。たとえば、以下のように、標 準偏差 Vsigの値に応じて、すなわちノイズの程度に応じて、閾値 Vthを算出する式 を変更することにより、エッジ位置をより高精度に決定することができる。  In step S760, in the present embodiment, a force using (Expression 1) may be used as an expression for calculating threshold value Vth. For example, as described below, the edge position can be determined with higher accuracy by changing the expression for calculating the threshold Vth according to the value of the standard deviation Vsig, that is, according to the degree of noise.
[0092] 第 1のケースとして、ノイズが画像に殆ど含まれない場合(「Vsig≤l. 0」という関係 が成立するとき)、式 (2)が用いられてもよい。  [0092] As a first case, when noise is hardly included in the image (when the relationship of "Vsig≤l. 0" is established), the equation (2) may be used.
[0093] Vth=Vave + a (式 2)  [0093] Vth = Vave + a (Formula 2)
ただし、 a = 9. 0  Where a = 9.0
ここでは、閾値決定用定数 aの値として、品質管理の分野において用いられる 6 σ における「6」よりも大きな値として、「9. 0」が使用されている。この値よりも大きな値が 使用されてもよい。  Here, “9.0” is used as the value of the threshold determination constant a, which is larger than “6” in 6 σ used in the field of quality control. A value larger than this value may be used.
[0094] 第 2のケースとして、ノイズが画像に多少存在する場合 (たとえば、「1. 0<Vsig≤5 [0094] In the second case, if there is some noise in the image (for example, “1.0 <Vsig ≤ 5
. 0」という関係が成立するとき)、式 (3)が用いられてもよい。 (0)), equation (3) may be used.
[0095] Vth=Vave + a XVsig- · · (式 3) [0095] Vth = Vave + a XVsig- · · (Formula 3)
ただし、 a = 6. 0  Where a = 6.0
ここでは、閾値決定用定数 aの値として、品質管理の分野において用いられる 6 σ における「6」が使用されている。 [0096] 第 3のケースとして、ノイズが多い場合 (たとえば、「5. 0く Vsig」という関係が成立 するとき)、式 (4)が用いられてもよい。 Here, “6” in 6 σ used in the field of quality control is used as the value for threshold determination constant a. [0096] As the third case, when there is a lot of noise (for example, when the relationship of "5.0 and Vsig" is established), equation (4) may be used.
[0097] Vth=Vave + a X Vsig - · · (式 4) [0097] Vth = Vave + a X Vsig-(Equation 4)
ただし、 a = 3. 0  Where a = 3.0
このように算式および定数を設定することにより、ノイズがほとんどない場合には(第 1のケースに相当)、ある 1点の局所的なノイズがエッジ位置として誤検出されることを 回避することができる。また、ノイズが大きい場合には (第 3のケースに相当)、閾値 Vt hを決定するための定数 aを小さくすることにより、パネルエッジ 211のエッジ強度と強 Vゾィズのエッジ強度との差力 、さ 、場合にぉ 、ても、パネルエッジ 211の位置の誤 検出が回避できる。  By setting the formulas and constants in this way, when there is almost no noise (corresponding to the first case), it is possible to avoid that one local noise is erroneously detected as an edge position. it can. If the noise is large (corresponding to the third case), the difference between the edge strength of panel edge 211 and the edge strength of strong V-Zoise is reduced by reducing the constant a for determining the threshold Vth. In any case, erroneous detection of the position of the panel edge 211 can be avoided.
[0098] ここで、図 8〜図 11を参照して、ガラス基板 800のパネルエッジを決定する他の技 術について説明する。図 8は、ガラス基板 800の外観を表わす図である。ガラス基板 800は、 2つのノネル 810, 820を含む。  Here, another technique for determining the panel edge of the glass substrate 800 will be described with reference to FIGS. FIG. 8 is a diagram showing the appearance of the glass substrate 800. The glass substrate 800 includes two nonels 810 and 820.
[0099] パネル 810の周囲には、配線パターン領域 815が形成されている。パネル 810と配 線ノ《ターン領域 815との間には、ノネノレエッジ 811, 812, 813, 814力 ^存在する。ま た、配線パターン領域 815の外側は、ガラス基板 800においてパネルが形成されな い領域である。ノネル 820についても、パネル 810についての上記の各領域と同様 の領域がそれぞれ形成されて!ヽる。  A wiring pattern region 815 is formed around the panel 810. Between the panel 810 and the wiring node << turn area 815, there is a non-nore edge 811, 812, 813, 814 force ^. Further, the outside of the wiring pattern region 815 is a region where a panel is not formed on the glass substrate 800. For Nonel 820, areas similar to those described above for panel 810 are formed.
[0100] 領域 806は、当該技術を説明するための対象である。領域 806は、図 8から明らか なように、パネル 810の一部と、配線パターン領域 815の一部と、ガラス基板 800の 一部とを含む。  [0100] A region 806 is a target for explaining the technique. As is apparent from FIG. 8, the region 806 includes a part of the panel 810, a part of the wiring pattern region 815, and a part of the glass substrate 800.
[0101] 図 9は、ガラス基板 800をカメラで撮影した場合に取得される画像 900を表わす図 である。図 8に示されるガラス基板 800に対する撮像領域 850は、画像 900において は領域 950に対応する。画像 900は、ノネノレ 810の画像 910、 920と、ノネノレエッジ 811の画像 911と、配線パターン領域 815とガラス基板 800との境界である配線パタ ーンエッジの画像 916とを含む。画像 900において一部の領域を占める画像 906は 、ガラス基板 800の一部を占める領域 806の画像である。  FIG. 9 is a diagram showing an image 900 acquired when the glass substrate 800 is photographed with a camera. The imaging area 850 for the glass substrate 800 shown in FIG. 8 corresponds to the area 950 in the image 900. The image 900 includes images 910 and 920 of the non-nore 810, an image 911 of the non-no-re edge 811, and an image 916 of the wiring pattern edge that is a boundary between the wiring pattern region 815 and the glass substrate 800. An image 906 occupying a part of the image 900 is an image of an area 806 occupying a part of the glass substrate 800.
[0102] 次に、図 10に示される累算方向に対して演算処理を実行する場合について、説明 する。図 10は、図 9に示される画像 906を説明するための図である。図 10 (A)に示さ れるように、画像 906は、パネル力 ガラス基板の方向に向けて、パネルの画像と、パ ネルエッジ 1020と、配線パターンエッジ 1030と、画像の端部 1010とを含む。 [0102] Next, a description will be given of the case where the arithmetic processing is executed in the accumulation direction shown in FIG. To do. FIG. 10 is a diagram for explaining the image 906 shown in FIG. As shown in FIG. 10A, the image 906 includes an image of the panel, a panel edge 1020, a wiring pattern edge 1030, and an end portion 1010 of the image in the direction of the panel force glass substrate.
[0103] たとえば、特開平 5— 266194号公報に開示された技術を用いると、原画像の画素 の値を複数の方向に沿って積算することにより、 1次元投影累算データが求められる 。それぞれについて投影勾配データのピーク値が求められる。当該複数の方向のう ち、最も大きい方向のピーク値をエッジ位置とされる。  [0103] For example, when the technique disclosed in Japanese Patent Laid-Open No. 5-266194 is used, one-dimensional projection accumulation data is obtained by accumulating the pixel values of the original image along a plurality of directions. The peak value of the projection gradient data is obtained for each. Of the plurality of directions, the peak value in the largest direction is set as the edge position.
[0104] 具体的には、図 10 (A)において、エッジ位置は、累算方向 1040の投影勾配デー タのピーク値が最も大きい方向であることが明らかである。その場合、画素の値が累 算方向 1040に投影された場合の 1次元投影累算データは、図 10 (B)のように示さ れる。ここで、図 10 (B)に示される 1次元投影累算データの縦軸の輝度値は、輝度値 の平均値を表わす。図 10 (B)に示される 1次元投影累算データ力も勾配の大きさの ピーク位置を求めると、配線パターンエッジ 1030の位置が選ばれて、パネルエッジ 1 020の位置は選ばれな!/、。  Specifically, in FIG. 10A, the edge position is clearly the direction in which the peak value of the projection gradient data in the accumulation direction 1040 is the largest. In that case, the one-dimensional projection accumulation data when the pixel value is projected in the accumulation direction 1040 is shown in FIG. 10 (B). Here, the luminance value on the vertical axis of the one-dimensional projection accumulation data shown in FIG. 10 (B) represents the average value of the luminance values. As for the one-dimensional projection accumulated data force shown in Fig. 10 (B), when the peak position of the gradient magnitude is obtained, the position of the wiring pattern edge 1030 is selected, and the position of the panel edge 1 020 is not selected! /, .
[0105] 図 11は、さらに別の技術を説明するための図である。特開平 5— 266194号公報 には、上記技術以外の技術も示されている。その技術は、 1次元投影累算データを 求める前に、原画像の 2次元勾配分布を求める、というものである。  [0105] FIG. 11 is a diagram for explaining yet another technique. Japanese Patent Application Laid-Open No. 5-266194 discloses a technique other than the above technique. The technique is to obtain the 2D gradient distribution of the original image before obtaining the 1D projection accumulation data.
[0106] ここで、図 11 (A)に、領域 806に対応する画像 906に対して、 2次元勾配分布を求 める方法として Sobelフィルタ処理を実施した画像を示す。この場合も、図 10を参照 して説明した、 2次元勾配分布を求めない方法が適用される場合と同様に、当該エツ ジ位置は、図 11 (A)に示される累算方向 1140の投影勾配データのピーク値が最も 大きい方向であることが、明らかである。  Here, FIG. 11A shows an image obtained by performing Sobel filter processing as a method for obtaining a two-dimensional gradient distribution on the image 906 corresponding to the region 806. In this case as well, the edge position is projected in the accumulation direction 1140 shown in FIG. 11 (A), as in the case where the method that does not obtain the two-dimensional gradient distribution described with reference to FIG. 10 is applied. It is clear that the peak value of the gradient data is in the largest direction.
[0107] 図 11 (B)は、図 11 (A)に示される 2次元勾配分布を累算方向 1140に投影した場 合の 1次元投影累算データを表わす。図 11 (B)に示される 1次元投影累算データの 縦軸の輝度値は、輝度値の平均値を表わす。図 11 (B)に示される 1次元投影累算デ ータから勾配の大きさのピーク位置を求めても、パターンエッジ 1130の位置が選ば れて、パネルエッジ 1120の位置は選ばれな!/、。  FIG. 11B shows one-dimensional projection accumulation data when the two-dimensional gradient distribution shown in FIG. 11A is projected in the accumulation direction 1140. The luminance value on the vertical axis of the one-dimensional projection accumulation data shown in Fig. 11 (B) represents the average value of the luminance values. Even if the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulated data shown in Fig. 11 (B), the position of the pattern edge 1130 is selected and the position of the panel edge 1120 is not selected! / ,.
[0108] このように、従来の技術によれば、パネルと配線パターン領域との境界であるパネ ルエッジ、たとえば、図 10におけるパネルエッジ 1020、図 11におけるパネルエッジ 1As described above, according to the conventional technique, the panel which is the boundary between the panel and the wiring pattern region is used. Edge, for example, panel edge 1020 in Figure 10, panel edge in Figure 11 1
120が高精度に決定できない場合がある。 120 may not be determined with high accuracy.
[0109] し力しながら、図 1〜図 7を参照して説明した本発明の実施の形態に係る検査シス テム 10によると、以下のような技術的特徴に基づき、エッジの位置を精度良ぐまた 短時間で決定することができる。 [0109] According to the inspection system 10 according to the embodiment of the present invention described with reference to Figs. 1 to 7, the position of the edge is highly accurate based on the following technical features. It can also be determined in a short time.
[0110] まず、ステップ S750に記載のように、統計量を算出するための領域は、矩形領域 であるパネルの内部に設定され、パネル内部の一部の領域の統計量を用いて閾値[0110] First, as described in step S750, an area for calculating a statistic is set inside a panel which is a rectangular area, and a threshold is set using the statistic of a part of the area inside the panel.
Vthが決定される。このようにすると、パネル領域の周囲(すなわち配線パターン領域Vth is determined. In this way, the periphery of the panel area (ie, the wiring pattern area
)が統計量の算出の対象とならないため、パネル内部と配線パターン領域であるパネ ル外部との境界が高精度に決定される。 ) Is not a target for calculating statistics, so the boundary between the inside of the panel and the outside of the panel, which is the wiring pattern area, is determined with high accuracy.
[0111] また、ステップ S770に記載のように、閾値 Vthを越える位置の中で、統計量を算出 するための領域に最も近 、位置がエッジ位置として決定されるため、パネル内部と配 線パターン領域との境界が高精度に決定される。  [0111] Further, as described in step S770, since the position closest to the area for calculating the statistic is determined as the edge position among the positions exceeding the threshold Vth, the wiring pattern and the inside of the panel are determined. The boundary with the region is determined with high accuracy.
[0112] また、ステップ S710に記載のように、設計データより算出した画像中のパネルエツ ジ 211の座標 Xs (211)力 対象となる領域の決定に用いられる。これにより、画像 24 0から、パネルエッジ 211を含む領域 206を無駄なく適切な大きさで切り出す (抽出す る)ことができ、エッジの位置を決定するために要する時間を短くすることができる。  [0112] Further, as described in step S710, the coordinates Xs (211) of the panel edge 211 in the image calculated from the design data are used to determine the target area. Thus, the region 206 including the panel edge 211 can be cut out (extracted) from the image 240 with an appropriate size without waste, and the time required to determine the edge position can be shortened.
[0113] さらに、ステップ S710に記載のように、パネルエッジ 211の画像中における座標 Xr  [0113] Further, as described in step S710, the coordinates Xr in the image of the panel edge 211 are displayed.
(211)と、設計データより算出された、画像中のパネルエッジ 211の座標 Xs (211)と の最大誤差 Xme (211)とが用いられる。ステップ S750に記載のように、座標 Xs (21 1)力も少なくとも Xme (211)個の画素数以上離れた座標値を、上記統計量を算出 するための領域の限界とすることで、統計量を算出するための領域力 パネルエッジ 211の画像における座標 Xr (211)が除去される。これにより、パネルエッジ 211を含 まないノイズ成分の統計量が算出される。その結果、閾値 Vthを適切に決定すること ができ、さらにはエッジ位置を高精度に決定することができる。  (211) and the maximum error Xme (211) between the coordinates Xs (211) of the panel edge 211 in the image calculated from the design data are used. As described in step S750, the coordinate value Xs (21 1) force is also at least Xme (211) pixels away from the coordinate value, and the statistic is calculated as the limit of the area for calculating the above statistic. Region force for calculation The coordinates Xr (211) in the image of the panel edge 211 are removed. Thereby, the statistic of the noise component not including the panel edge 211 is calculated. As a result, the threshold value Vth can be determined appropriately, and the edge position can be determined with high accuracy.
[0114] 以上詳述したように、本発明の実施の形態に係るエッジ位置検出装置 100は、各 処理を実行する回路素子を組み合わせることによりハードウェアの構成として実現さ れるが、その他の態様でも構成することができる。たとえば、各処理を実行するプログ ラムを、 CPU (Central Processing Unit)その他のプロセッサに実行させることにより 、ソフトウェアとハードウェアとが協働する態様によっても実現される。 [0114] As described in detail above, the edge position detection apparatus 100 according to the embodiment of the present invention is realized as a hardware configuration by combining circuit elements that execute each process. Can be configured. For example, a program that executes each process The program is also realized in a manner in which software and hardware cooperate by causing a CPU (Central Processing Unit) or other processor to execute the program.
[0115] そこで、図 12を参照して、エッジ位置検出装置 100を実現するコンピュータシステ ム 1200について説明する。図 12は、コンピュータシステム 1200のハードウェア構成 を表わすブロック図である。  [0115] Therefore, a computer system 1200 that implements the edge position detection apparatus 100 will be described with reference to FIG. FIG. 12 is a block diagram showing a hardware configuration of computer system 1200.
[0116] コンピュータシステム 1200は、ハードウェアの主たる構成要素として、 CPU1210と 、コンピュータシステム 1200の使用者による指示の入力を受け付けるマウス 1220お よびキーボード 1230と、入力されるデータあるいはプログラムによって予め規定され た処理が実行されることに一時的に生成されるデータを格納する RAM 1240と、大 容量のデータを格納可能なハードディスク 1250と、 CD-ROM (Compact Disk-Re ad Only Memory)駆動装置 1260と、モニタ 1280と、通信 IF (Interface) 1290とを 含む。上記の各構成要素は、データバスにより接続されている。 CD— ROM駆動装 置 1260に ίま、 CD— ROM1262力 S装着される。  [0116] The computer system 1200 is defined in advance by the CPU 1210, the mouse 1220 and the keyboard 1230 that accept input of instructions by the user of the computer system 1200, and the data or program to be input as the main components of the hardware. RAM 1240 for storing data temporarily generated when processing is executed, hard disk 1250 capable of storing a large amount of data, compact disk-read only memory (CD-ROM) drive device 1260, Includes monitor 1280 and communication IF (Interface) 1290. Each component described above is connected by a data bus. The CD-ROM drive unit 1260 is loaded with CD-ROM1262 force S.
[0117] エッジ位置検出装置 100として機能するコンピュータシステム 1200における処理は 、当該ハードウェアおよび CPU1210により実行されるソフトウェアによって実現され る。このようなソフトウェアは、 RAM1240あるいはハードディスク 1250に予め記憶さ れている場合もあれば、 CD— ROM1262その他の記録媒体に格納されてプロダラ ム製品として流通し、 CD— ROM駆動装置 1260その他の読取装置によりその記録 媒体から読み取られて、ハードディスク 1250にー且格納される場合もある。そのソフ トウエアは、 RAM1240あるいはハードディスク 1250から読み出されて、 CPU1210 によって実行される。図 12に示されたコンピュータシステム 1200のハードウェア自体 は、一般的なものである。したがって、本発明の本質的な部分は、 RAM1240、 ハー ドディスク 1250、 CD— ROM1262その他の記録媒体に格納されたソフトウェアであ るともいえる。なお、コンピュータシステム 1200の各ハードウェアの動作は周知である ので、詳細な説明は繰り返さない。  The processing in the computer system 1200 functioning as the edge position detection device 100 is realized by the hardware and software executed by the CPU 1210. Such software may be pre-stored in RAM 1240 or hard disk 1250, or may be stored in a CD-ROM 1262 or other recording medium and distributed as a product, CD-ROM drive 1260 or other reader May be read from the recording medium and stored in the hard disk 1250. The software is read from RAM 1240 or hard disk 1250 and executed by CPU 1210. The hardware itself of the computer system 1200 shown in FIG. 12 is general. Therefore, it can be said that the essential part of the present invention is software stored in the RAM 1240, the hard disk 1250, the CD-ROM 1262, and other recording media. Since the operation of each hardware of computer system 1200 is well known, detailed description will not be repeated.
[0118] なお、以上詳述した本実施の形態に含まれる技術思想が適用される範囲は、上記 のような境界 (エッジ)の検出に限られない。たとえば、当該境界を含む矩形領域を表 わす画像における当該矩形領域の外枠の位置を上記境界として検出する場合にも、 同様にして適用できる。 Note that the scope to which the technical idea included in the present embodiment described in detail above is applied is not limited to the detection of the boundary (edge) as described above. For example, even when the position of the outer frame of the rectangular area in the image representing the rectangular area including the boundary is detected as the boundary, The same applies.
[0119] また、本実施の形態の説明を簡単にするために、被写体の撮影により取得される画 像が矩形である場合について、本実施の形態の説明を行なった。し力しながら、画像 の矩形でない場合、たとえば多角形である場合にも、同様に適用できる。たとえば、 多角形を構成する一辺のみを位置の検出対象とし、上述の処理を実行し、各辺につ いて、当該処理を繰り返せばよい。そうすることにより、矩形以外の形状を有する多角 形の画像にっ 、ても、当該形状からなる領域と他の領域との境界の位置を決定する ことができる。  [0119] Further, in order to simplify the description of the present embodiment, the present embodiment has been described in the case where an image acquired by photographing a subject is rectangular. However, the present invention can be similarly applied to a case where the image is not a rectangle, for example, a polygon. For example, only one side constituting the polygon is set as a position detection target, the above-described processing is executed, and the processing is repeated for each side. By doing so, even in the case of a polygonal image having a shape other than a rectangle, the position of the boundary between the region having the shape and another region can be determined.
[0120] 今回開示された実施の形態はすべての点で例示であって制限的なものではないと 考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって 示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが 意図される。  [0120] The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
産業上の利用可能性  Industrial applicability
[0121] 本発明は、たとえば、画像検査装置、画像変換装置、画像認識装置、パターンマツ チング装置、画像を用いた位置決め装置、画像認識機能付自律ロボット、画像認識 機能付産業用ロボットなどに利用される。 The present invention is used for, for example, an image inspection apparatus, an image conversion apparatus, an image recognition apparatus, a pattern matching apparatus, a positioning apparatus using an image, an autonomous robot with an image recognition function, an industrial robot with an image recognition function, and the like. Is done.

Claims

請求の範囲 The scope of the claims
[1] 被写体の撮影により取得された原画像を表わす原画像データを格納する記憶手段  [1] Storage means for storing original image data representing an original image acquired by photographing a subject
(530)を備え、前記原画像データは 2次元の座標軸にしたがって表わされており、 前記原画像が複数の部分画像を有する場合に、前記原画像データに基づ!ヽて、 各前記部分画像の境界が強調された画像を表わす強調画像データを生成する第 1 の生成手段(555)と、  (530), wherein the original image data is represented according to a two-dimensional coordinate axis, and when the original image has a plurality of partial images, each of the portions is based on the original image data. First generating means (555) for generating emphasized image data representing an image in which an image boundary is emphasized;
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を 前記境界の方向に積算して、平均値を算出することにより、前記 2次元の座標軸のう ちの 1次元の座標軸に従って表わされる複数の 1次元データを生成する第 2の生成 手段 (556)と、  The luminance values of the partial areas corresponding to the partial images after the boundary is emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby obtaining a one-dimensional one of the two-dimensional coordinate axes. Second generation means (556) for generating a plurality of one-dimensional data represented according to the coordinate axes of
前記被写体の設計データに基づ!、て、前記境界の位置を決定するための対象とな るデータの範囲を決定する第 1の決定手段(557)と、  First determining means (557) for determining a range of data for determining the position of the boundary based on the design data of the subject;
前記データの範囲に含まれる前記複数の 1次元データを用 V、て統計量を算出する ことにより、輝度値についての閾値を算出する算出手段(558)と、  A calculation means (558) for calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
前記データの範囲に含まれる前記複数の 1次元データに基づ!、て、前記算出され た閾値を越える輝度値に対応する前記 1次元データの前記 1次元の座標軸上の座 標値を、前記境界の位置として決定する第 2の決定手段(559)とを備える、境界の位 置決定装置。  Based on the plurality of one-dimensional data included in the data range, the coordinate values on the one-dimensional coordinate axis of the one-dimensional data corresponding to the luminance value exceeding the calculated threshold value are A boundary position determining device, comprising: a second determining means (559) for determining the boundary position.
[2] 前記第 1の決定手段は、前記原画像データによって決定される範囲と、前記設計 データによって特定される範囲とに基づいて、前記データの範囲を決定する、請求 の範囲第 1項に記載の境界の位置決定装置。  [2] The range according to claim 1, wherein the first determination means determines the range of the data based on a range determined by the original image data and a range specified by the design data. Descriptive boundary location device.
[3] 前記第 1の決定手段は、  [3] The first determining means is:
前記設計データに基づいて、計算上の位置データとして、前記境界の 1次元デー タを算出し、  Based on the design data, one-dimensional data of the boundary is calculated as position data for calculation,
前記原画像データに基づいて、実際の位置データとして、前記境界の前記 1次元 データを算出し、  Based on the original image data, the one-dimensional data of the boundary is calculated as actual position data,
前記計算上の位置データと前記実際の位置データとの差に基づ!/、て、前記データ の範囲を決定する、請求の範囲第 2項に記載の境界の位置決定装置。 [4] 前記被写体は、検査の対象となる第 1の部分と、前記検査の対象とならない第 2の 部分とを含み、 3. The boundary position determining apparatus according to claim 2, wherein a range of the data is determined based on a difference between the calculated position data and the actual position data. [4] The subject includes a first part to be inspected and a second part not to be inspected.
前記原画像は、前記第 1の部分に対応する第 1の画像と、前記第 2の部分に対応 する第 2の画像とを含み、  The original image includes a first image corresponding to the first part and a second image corresponding to the second part,
前記第 1の生成手段は、前記強調画像データとして、前記第 1の画像と前記第 2の 画像との境界が強調された画像を表わすデータを生成する、請求の範囲第 1項に記 載の境界の位置決定装置。  The first generation unit according to claim 1, wherein the first generation means generates data representing an image in which a boundary between the first image and the second image is enhanced as the enhanced image data. Boundary positioning device.
[5] 前記被写体は、ガラス基板であり、 [5] The subject is a glass substrate,
前記第 1の部分は、前記ガラス基板に加工されたパネル領域であり、  The first part is a panel region processed into the glass substrate;
前記第 1の生成手段は、前記パネル領域に対応する画像と、前記パネル領域以外 の領域に対応する画像とが接する部分が強調された画像を表わすデータを生成す る、請求の範囲第 4項に記載の境界の位置決定装置。  5. The range according to claim 4, wherein the first generation means generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact with each other is emphasized. The boundary position determining device described in 1.
[6] 前記算出手段は、前記複数の 1次元データについての平均値と標準偏差とを算出 し、前記平均値と前記標準偏差とに基づいて前記閾値を算出する、請求の範囲第 1 項に記載の境界の位置決定装置。 [6] The range according to claim 1, wherein the calculation means calculates an average value and a standard deviation for the plurality of one-dimensional data, and calculates the threshold based on the average value and the standard deviation. Descriptive boundary location device.
[7] 前記特定手段は、 [7] The specifying means includes:
前記閾値を越える輝度値に対応する複数の前記 1次元データを特定し、 特定された各前記 1次元データの各々について、前記データの範囲の上限値と前 記 1次元データとの差をそれぞれ算出し、  A plurality of the one-dimensional data corresponding to the luminance values exceeding the threshold are specified, and for each of the specified one-dimensional data, a difference between the upper limit value of the data range and the one-dimensional data is calculated. And
算出された各前記差が最小となる 1次元データを、前記閾値を越える輝度値に対 応する前記 1次元データとして決定する、請求の範囲第 1項に記載の境界の位置決 定装置。  2. The boundary position determining apparatus according to claim 1, wherein the one-dimensional data in which each calculated difference is minimum is determined as the one-dimensional data corresponding to a luminance value exceeding the threshold value.
[8] 前記原画像は、矩形領域を含み、  [8] The original image includes a rectangular region,
前記境界は、前記矩形領域の輪郭によって形成されており、  The boundary is formed by an outline of the rectangular region;
前記第 1の生成手段は、前記強調画像データとして、前記輪郭により形成される前 記境界が強調された画像を表わすデータを生成する、請求の範囲第 1項に記載の 境界の位置決定装置。  2. The boundary position determining device according to claim 1, wherein the first generation means generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
[9] 前記第 2の生成手段は、前記境界が強調された後の前記矩形領域に対応する各 画素の各輝度値を、前記矩形領域における一方向に積算して、平均値を算出するこ とにより、前記複数の一次元データを生成し、 [9] The second generation means may correspond to each of the rectangular areas after the boundary is emphasized. The luminance values of the pixels are integrated in one direction in the rectangular area to calculate an average value, thereby generating the plurality of one-dimensional data.
前記第 1の決定手段は、前記矩形領域についての前記一次元データによって規定 される範囲に前記データの範囲が含まれるように、前記データの範囲を決定する、請 求の範囲第 8項に記載の境界の位置決定装置。  9. The request range according to claim 8, wherein the first determination means determines the range of the data so that the range of the data is included in a range defined by the one-dimensional data for the rectangular region. Boundary positioning device.
[10] 前記統計量は、平均値と標準偏差とを含み、 [10] The statistic includes an average value and a standard deviation,
前記算出手段は、複数の標準偏差の各値に応じて予め規定された各式を用いて 前記閾値を算出し、各前記式は、各前記標準偏差の値によって異なる、請求の範囲 第 1項に記載の境界の位置決定装置。  2. The range according to claim 1, wherein the calculation means calculates the threshold value using each formula defined in advance according to each value of a plurality of standard deviations, and each formula varies depending on each standard deviation value. The boundary position determining device described in 1.
[11] コンピュータが画像に含まれる境界の位置を決定する方法であって、前記コンビュ ータは、データを格納する記憶装置と前記データを用いて予め規定された処理を実 行する処理装置とを備えており、前記方法は、 [11] A method in which a computer determines a position of a boundary included in an image, wherein the converter includes a storage device that stores data, and a processing device that executes a predetermined process using the data. The method comprises:
前記処理装置が、前記記憶装置から、被写体の撮影により取得された原画像を表 わす原画像データを読み出すステップを備え、前記原画像データは 2次元の座標軸 にしたがって表わされており、  The processing device comprises a step of reading original image data representing an original image acquired by photographing a subject from the storage device, the original image data being represented according to a two-dimensional coordinate axis;
前記原画像が複数の部分画像を有する場合に、前記処理装置が、前記原画像デ ータに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像デー タを生成するステップと、  When the original image has a plurality of partial images, the processing device generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data; ,
前記処理装置が、前記境界が強調された後の各前記部分画像に対応する各部分 領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記 2 次元の座標軸のうちの 1次元の座標軸に従って表わされる複数の 1次元データを生 成するステップと、  The processing device integrates the luminance values of the partial areas corresponding to the partial images after the boundary is emphasized in the direction of the boundary, and calculates an average value, thereby calculating the two-dimensional coordinate axis. Generating a plurality of one-dimensional data represented according to a one-dimensional coordinate axis of
前記処理装置が、前記被写体の設計データに基づいて、前記境界の位置を決定 するための対象となるデータの範囲を決定するステップと、  The processor determines a range of data to be determined for determining the position of the boundary based on the design data of the subject; and
前記処理装置が、前記データの範囲に含まれる前記複数の 1次元データを用いて 統計量を算出することにより、輝度値にっ 、ての閾値を算出するステップと、 前記処理装置が、前記データの範囲に含まれる前記複数の 1次元データに基づい て、前記閾値を越える輝度値に対応する前記 1次元データを特定するステップと、 前記処理装置が、前記特定された 1次元データの前記 1次元の座標軸上の座標値 を、前記境界の位置として決定するステップとを備える、境界の位置を決定する方法 The processing device calculates a statistic using the plurality of one-dimensional data included in the data range, thereby calculating a threshold value based on a luminance value; and the processing device includes the data Identifying the one-dimensional data corresponding to the luminance value exceeding the threshold based on the plurality of one-dimensional data included in the range of: A method for determining a boundary position, comprising: determining, as the boundary position, a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data.
[12] 画像に含まれる境界の位置を決定する装置としてコンピュータを機能させるための プログラムであって、前記コンピュータは、データを格納する記憶装置と前記データ を用いて予め規定された処理を実行する処理装置とを備えており、前記プログラムは 前記処理装置に、 [12] A program for causing a computer to function as a device for determining a position of a boundary included in an image, wherein the computer executes a storage device that stores data and a predetermined process using the data A processing device, and the program is stored in the processing device.
前記記憶装置から、被写体の撮影により取得された原画像を表わす原画像データ を読み出すステップを実行させ、前記原画像データは 2次元の座標軸にしたがって 表わされており、  A step of reading original image data representing an original image acquired by photographing a subject from the storage device is executed, and the original image data is represented according to a two-dimensional coordinate axis;
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づ!ヽて、 各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステ ップと、  When the original image has a plurality of partial images, a step of generating enhanced image data representing an image in which boundaries of the partial images are enhanced based on the original image data; and
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を 前記境界の方向に積算して、平均値を算出することにより、前記 2次元の座標軸のう ちの 1次元の座標軸に従って表わされる複数の 1次元データを生成するステップと、 前記被写体の設計データに基づ!、て、前記境界の位置を決定するための対象とな るデータの範囲を決定するステップと、  The luminance values of the partial areas corresponding to the partial images after the boundary is emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby obtaining a one-dimensional one of the two-dimensional coordinate axes. Generating a plurality of one-dimensional data represented in accordance with the coordinate axes of: determining a range of data to be determined for determining the position of the boundary based on the design data of the subject !,
前記データの範囲に含まれる前記複数の 1次元データを用 V、て統計量を算出する ことにより、輝度値についての閾値を算出するステップと、  Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range; and
前記データの範囲に含まれる前記複数の 1次元データに基づ!、て、前記閾値を越 える輝度値に対応する前記 1次元データを特定するステップと、  Identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range; and
前記特定された 1次元データの前記 1次元の座標軸上の座標値を、前記境界の位 置として決定するステップとを実行させる、プログラム。  And determining a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data as the position of the boundary.
[13] 請求の範囲第 12項に記載のプログラムを格納した、コンピュータ読み取り可能な記 録媒体。 [13] A computer-readable recording medium storing the program according to claim 12.
[14] 被写体の撮影により取得された原画像を表わす原画像データを格納する記憶部( 530)を備え、前記原画像データは 2次元の座標軸にしたがって表わされており、 前記原画像が複数の部分画像を有する場合に、前記原画像データに基づ!ヽて、 各前記部分画像の境界が強調された画像を表わす強調画像データを生成する第 1 の生成部(555)と、 [14] a storage unit (530) for storing original image data representing an original image acquired by photographing a subject, wherein the original image data is represented according to a two-dimensional coordinate axis; When the original image has a plurality of partial images, a first generation unit (555 that generates enhanced image data representing an image in which the boundary of each partial image is enhanced based on the original image data. )When,
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を 前記境界の方向に積算して、平均値を算出することにより、前記 2次元の座標軸のう ちの 1次元の座標軸に従って表わされる複数の 1次元データを生成する第 2の生成 部(556)と、  The luminance values of the partial areas corresponding to the partial images after the boundary is emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby obtaining a one-dimensional one of the two-dimensional coordinate axes. A second generation unit (556) for generating a plurality of one-dimensional data represented according to the coordinate axes of
前記被写体の設計データに基づ!、て、前記境界の位置を決定するための対象とな るデータの範囲を決定する第 1の決定部(557)と、  A first determination unit (557) for determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
前記データの範囲に含まれる前記複数の 1次元データを用 V、て統計量を算出する ことにより、輝度値についての閾値を算出する算出部(558)と、  A calculation unit (558) for calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
前記データの範囲に含まれる前記複数の 1次元データに基づ!、て、前記算出され た閾値を越える輝度値に対応する前記 1次元データの前記 1次元の座標軸上の座 標値を、前記境界の位置として決定する第 2の決定部(559)とを備える、境界の位置 決定装置。  Based on the plurality of one-dimensional data included in the data range, the coordinate values on the one-dimensional coordinate axis of the one-dimensional data corresponding to the luminance value exceeding the calculated threshold value are A boundary position determination device comprising: a second determination unit (559) that determines the boundary position.
[15] 前記第 1の決定部は、前記原画像データによって決定される範囲と、前記設計デ ータによって特定される範囲とに基づいて、前記データの範囲を決定する、請求の 範囲第 14項に記載の境界の位置決定装置。  [15] The first determination unit determines the range of the data based on a range determined by the original image data and a range specified by the design data. The boundary position determining device according to item.
[16] 前記第 1の決定部は、  [16] The first determination unit includes:
前記設計データに基づいて、計算上の位置データとして、前記境界の 1次元デー タを算出し、  Based on the design data, one-dimensional data of the boundary is calculated as position data for calculation,
前記原画像データに基づいて、実際の位置データとして、前記境界の前記 1次元 データを算出し、  Based on the original image data, the one-dimensional data of the boundary is calculated as actual position data,
前記計算上の位置データと前記実際の位置データとの差に基づ!/、て、前記データ の範囲を決定する、請求の範囲第 15項に記載の境界の位置決定装置。  16. The boundary position determining apparatus according to claim 15, wherein a range of the data is determined based on a difference between the calculated position data and the actual position data.
[17] 前記被写体は、検査の対象となる第 1の部分と、前記検査の対象とならない第 2の 部分とを含み、 [17] The subject includes a first part to be inspected and a second part not to be inspected,
前記原画像は、前記第 1の部分に対応する第 1の画像と、前記第 2の部分に対応 する第 2の画像とを含み、 The original image corresponds to the first image corresponding to the first part and the second part. And a second image to
前記第 1の生成部は、前記強調画像データとして、前記第 1の画像と前記第 2の画 像との境界が強調された画像を表わすデータを生成する、請求の範囲第 14項に記 載の境界の位置決定装置。  15. The method according to claim 14, wherein the first generation unit generates data representing an image in which a boundary between the first image and the second image is emphasized as the emphasized image data. Boundary positioning device.
[18] 前記被写体は、ガラス基板であり、 [18] The subject is a glass substrate,
前記第 1の部分は、前記ガラス基板に加工されたパネル領域であり、  The first part is a panel region processed into the glass substrate;
前記第 1の生成部は、前記パネル領域に対応する画像と、前記パネル領域以外の 領域に対応する画像とが接する部分が強調された画像を表わすデータを生成する、 請求の範囲第 17項に記載の境界の位置決定装置。  The range according to claim 17, wherein the first generation unit generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact with each other is emphasized. Descriptive boundary location device.
[19] 前記算出部は、前記複数の 1次元データについての平均値と標準偏差とを算出し 、前記平均値と前記標準偏差とに基づいて前記閾値を算出する、請求の範囲第 14 項に記載の境界の位置決定装置。 [19] The range according to claim 14, wherein the calculation unit calculates an average value and a standard deviation for the plurality of one-dimensional data, and calculates the threshold based on the average value and the standard deviation. Descriptive boundary location device.
[20] 画像に含まれる境界の位置を決定する方法であって、 [20] A method of determining a position of a boundary included in an image,
被写体の撮影により取得された原画像を表わす原画像データを読み出すステップ を備え、前記原画像データは 2次元の座標軸にしたがって表わされており、  A step of reading original image data representing an original image acquired by photographing a subject, wherein the original image data is represented according to a two-dimensional coordinate axis;
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づ!ヽて、 各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステ ップと、  When the original image has a plurality of partial images, a step of generating enhanced image data representing an image in which boundaries of the partial images are enhanced based on the original image data; and
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を 前記境界の方向に積算して、平均値を算出することにより、前記 2次元の座標軸のう ちの 1次元の座標軸に従って表わされる複数の 1次元データを生成するステップと、 前記被写体の設計データに基づ!、て、前記境界の位置を決定するための対象とな るデータの範囲を決定するステップと、  The luminance values of the partial areas corresponding to the partial images after the boundary is emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby obtaining a one-dimensional one of the two-dimensional coordinate axes. Generating a plurality of one-dimensional data represented in accordance with the coordinate axes of: determining a range of data to be determined for determining the position of the boundary based on the design data of the subject !,
前記データの範囲に含まれる前記複数の 1次元データを用 V、て統計量を算出する ことにより、輝度値についての閾値を算出するステップと、  Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range; and
前記データの範囲に含まれる前記複数の 1次元データに基づ!、て、前記閾値を越 える輝度値に対応する前記 1次元データを特定するステップと、  Identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range; and
前記特定された 1次元データの前記 1次元の座標軸上の座標値を、前記境界の位 置として決定するステップとを備える、境界の位置を決定する方法。 The coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data is expressed as the position of the boundary. Determining the position of the boundary.
PCT/JP2007/059025 2006-04-28 2007-04-26 Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium WO2007125981A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-126201 2006-04-28
JP2006126201A JP4275149B2 (en) 2006-04-28 2006-04-28 Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium

Publications (1)

Publication Number Publication Date
WO2007125981A1 true WO2007125981A1 (en) 2007-11-08

Family

ID=38655506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059025 WO2007125981A1 (en) 2006-04-28 2007-04-26 Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium

Country Status (2)

Country Link
JP (1) JP4275149B2 (en)
WO (1) WO2007125981A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809386A (en) * 2015-04-20 2015-07-29 深圳市文鼎创数据科技有限公司 Boundary security detection method and boundary security detection system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4661934B2 (en) 2008-10-09 2011-03-30 株式会社デンソー Image processing device
CN104802168B (en) * 2015-04-20 2016-08-24 深圳市文鼎创数据科技有限公司 A kind of boundary detection method and system
JP7049866B2 (en) * 2018-03-07 2022-04-07 株式会社ディスコ Cutting equipment
CN113545185B (en) * 2019-03-14 2022-11-25 株式会社富士 Object determination method and object determination device
WO2021246476A1 (en) * 2020-06-04 2021-12-09 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection
CN113658205B (en) * 2020-06-04 2022-08-12 牧今科技 Method and computing system for performing or facilitating physical edge detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256505A (en) * 2000-03-14 2001-09-21 Toshiba Corp Recognition device recognition method, paper sheet processor and paper sheet processing method
JP2002287122A (en) * 2001-03-27 2002-10-03 Sharp Corp Sheet glass sorting system
JP2004057275A (en) * 2002-07-25 2004-02-26 Hitachi Medical Corp Image diagnostic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256505A (en) * 2000-03-14 2001-09-21 Toshiba Corp Recognition device recognition method, paper sheet processor and paper sheet processing method
JP2002287122A (en) * 2001-03-27 2002-10-03 Sharp Corp Sheet glass sorting system
JP2004057275A (en) * 2002-07-25 2004-02-26 Hitachi Medical Corp Image diagnostic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809386A (en) * 2015-04-20 2015-07-29 深圳市文鼎创数据科技有限公司 Boundary security detection method and boundary security detection system

Also Published As

Publication number Publication date
JP4275149B2 (en) 2009-06-10
JP2007298376A (en) 2007-11-15

Similar Documents

Publication Publication Date Title
JP6417702B2 (en) Image processing apparatus, image processing method, and image processing program
JP4824987B2 (en) Pattern matching apparatus and semiconductor inspection system using the same
JP2006066478A (en) Pattern matching device and scanning electron microscope employing it
JP4275149B2 (en) Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
JP4160991B2 (en) Linear defect detection apparatus and semiconductor substrate manufacturing apparatus, linear defect detection method and semiconductor substrate manufacturing method, computer connected to the detection apparatus or ...
JP6115214B2 (en) Pattern processing apparatus, pattern processing method, and pattern processing program
JP2011191312A (en) Image processing apparatus
WO2014065887A1 (en) Image processing method and apparatus for elimination of depth artifacts
JP2009211960A (en) Edge detecting method, and charged particle beam device
JP2007285754A (en) Flaw detection method and flaw detector
JP2010133752A (en) Shape measuring device and program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
US10386930B2 (en) Depth determining method and depth determining device of operating body
JP2014203311A (en) Image processor, image processing method, and program
JP4801697B2 (en) Image forming method, image forming apparatus, and computer program
JP4788475B2 (en) Image processing apparatus and image processing method
JP2019091169A (en) Image processor, method of controlling image processor, and program
JP5684550B2 (en) Pattern matching apparatus and semiconductor inspection system using the same
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
JP2011112379A (en) Image processing device and image processing program
WO2020217970A1 (en) Wire shape measurement device, wire three-dimensional image generation method, and wire shape measurement method
JP4634250B2 (en) Image recognition method and apparatus for rectangular parts
JP2013250604A (en) Object detecting device and object detecting method
JP2018109824A (en) Electronic control device, electronic control system, and electronic control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742460

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07742460

Country of ref document: EP

Kind code of ref document: A1