WO2007010875A1 - 形状検査方法および装置 - Google Patents

形状検査方法および装置 Download PDF

Info

Publication number
WO2007010875A1
WO2007010875A1 PCT/JP2006/314103 JP2006314103W WO2007010875A1 WO 2007010875 A1 WO2007010875 A1 WO 2007010875A1 JP 2006314103 W JP2006314103 W JP 2006314103W WO 2007010875 A1 WO2007010875 A1 WO 2007010875A1
Authority
WO
WIPO (PCT)
Prior art keywords
measured
shape data
shape
state
inspection
Prior art date
Application number
PCT/JP2006/314103
Other languages
English (en)
French (fr)
Inventor
Kazuhiko Hirata
Tatsuo Yajima
Yoshiyuki Sonda
Original Assignee
Asahi Glass Company, Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Glass Company, Limited filed Critical Asahi Glass Company, Limited
Priority to CN2006800254251A priority Critical patent/CN101223414B/zh
Priority to JP2007526002A priority patent/JP4924426B2/ja
Priority to EP06781128.1A priority patent/EP1906139B1/en
Priority to KR1020077028291A priority patent/KR101242984B1/ko
Publication of WO2007010875A1 publication Critical patent/WO2007010875A1/ja
Priority to US12/014,409 priority patent/US7589844B2/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Definitions

  • the present invention relates to a shape inspection method and apparatus, and more particularly to a method and apparatus suitable for shape inspection of automobile window glass.
  • the laminated glass used for the windshield is placed in a state where two glass plates cut into almost the same shape are stacked on a ring-shaped jig and heated in a furnace. By doing so, it is bent by its own weight into a desired curved shape. After bending, it is gradually cooled and not air-cooled and tempered like tempered glass. After that, an interlayer film made of transparent resin (such as polybulu petitlar) is sandwiched between two molded glass plates, pre-crimped in a vacuum bag, and then heated and pressurized in an autoclave.
  • transparent resin such as polybulu petitlar
  • the curved glass produced in this way is assembled in an automobile, highly accurate shape reproducibility is required. If it is a door glass, it is opened and closed by sliding up and down by the operation of the passenger, so if the desired design shape is not reproduced, it will collide with or rub against the surrounding metal members when sliding. It may be damaged. In addition, even in the case of window fittings such as windshields and rear glass, if the reproducibility of the shape is poor, it is difficult to assemble it into the opening. (Phenomenon in which the reflected image is distorted) t, there is a risk of causing problems peculiar to the window glass.
  • a glass plate after bending is formed on an inspection table called a gauge (for example, For example, only those having a predetermined shape accuracy were used for manufacturing automobiles.
  • the gauge is an inspection type having a mounting surface made in conformity with a predetermined design shape, and a plurality of distance sensors are embedded in the mounting surface. By measuring the surface force of the mold as well as the distance to the back of the glass plate, the dissociation from the design shape is measured and the accuracy of the shape is evaluated. In the past, such gauges were used to inspect the total number of molded glass plates or some of the extracted glass plates.
  • Patent Document 1 Japanese Patent Laid-Open No. 4 242103
  • the present invention solves such a problem, and an object thereof is to provide a shape inspection method and apparatus that can be carried out without preparing an inspection table for each product type. Means to solve
  • the present invention includes a first step of placing an object to be measured on an actual inspection table, and a second step of acquiring information relating to the surface shape of the object to be measured.
  • a third step of calculating shape data in a zero-gravity state of the measurement object based on information on the surface shape of the measurement object; and a measurement object based on the shape data of the measurement object in the zero-gravity state Recalculates the shape data of the object to be measured in a state where is placed on a predetermined inspection table, and determines the quality of the object to be measured based on the recalculated shape data of the object to be measured.
  • a shape inspection characterized by comprising steps Provide a method.
  • one aspect of the shape inspection method according to the present invention includes the following configuration.
  • the shape data of the object to be measured in the weightless state is obtained by reproducing a state in which a force opposite to gravity is applied to the shape data of the object to be measured obtained by actual measurement by computer simulation.
  • the object to be measured is based on a comparison between the shape data of the object to be measured calculated in the third step in a weightless state and predetermined design shape data regarding the object to be measured. It is preferable to have a step of determining the quality of the.
  • the object to be measured is imaged, and surface shape data is obtained from the captured image.
  • the design shape data of the object to be measured in a weightless state is calculated based on the design shape data of the object to be measured in a state of being placed on a predetermined inspection table.
  • a shape inspection method comprising: a fifth step of determining the quality of the object to be measured based on the shape data of the object to be measured and information on the surface shape of the object to be measured
  • the design shape data of the object to be measured in the weightless state is a state in which a force opposite to gravity is applied to the design shape data of the object to be measured in a state of being placed on a predetermined inspection table. It is preferable that this can be obtained by reproducing by computer simulation.
  • the measured object is placed on the actual inspection table based on the design shape data of the measured object when placed on the predetermined examination table It is preferable to include a step of calculating design shape data of the object to be measured.
  • the object to be measured is imaged and surface shape data is obtained from the imaged image.
  • the object to be measured is preferably a glass plate.
  • the glass plate is an automotive window glass.
  • the present invention relates to an inspection table for placing an object to be measured, a camera for obtaining information on the surface shape of the object to be measured, and information on the surface shape of the object to be measured. Based on the shape data of the object to be measured in the weightless state, the object to be measured is placed on a predetermined inspection table based on the shape data of the object to be measured in the weightless state. And a computer for judging the quality of the object to be measured based on the recalculated shape data.
  • an aspect of the shape inspection apparatus includes the following configuration. That is, the computer recalculates the shape data of the measurement object in a state where the measurement object is placed on a predetermined inspection table, and the measurement object is based on the recalculated shape data. Instead of determining the quality of an object, the quality of the object to be measured is determined based on a comparison between the calculated shape data of the object to be measured in a weightless state and predetermined design shape data related to the object to be measured. judge.
  • an actual measurement inspection table for placing the object to be measured for placing the object to be measured, a camera for obtaining information on the surface shape of the object to be measured, a predetermined inspection
  • the design shape data of the measurement object in the weightless state is calculated based on the design shape data of the measurement object placed on the table, and the measurement object is calculated based on the design shape data of the measurement object in the weightless state.
  • the design shape data of the object to be measured in a state where is placed on the actual inspection table is calculated, and the quality of the object to be measured is calculated based on the calculated design shape data and information on the surface shape of the object to be measured.
  • a shape inspection apparatus characterized by comprising a computer for determining the above is provided.
  • the computer calculates design shape data of the object to be measured in a weightless state based on the design shape data of the object to be measured placed on a predetermined inspection table, and the object in the weightless state is calculated.
  • the measurement is performed while the measurement object is placed on the predetermined inspection table.
  • the design shape of the object to be measured in a state where the object is placed on the actual inspection table Calculate the data.
  • the actual measurement inspection table includes first, second, and third support portions that support the object to be measured.
  • the present invention reproduces the shape in the weightless state (that is, the state in which the influence of gravity is eliminated) from the measured shape of the object to be measured, thereby preventing the object from being affected by the stagnation caused by gravity.
  • the shape quality of the measurement object can be determined.
  • by obtaining a state in which the object under measurement in a weightless state is placed on a predetermined inspection table it is possible to reproduce the inspection when these inspection tables are used without actually preparing a plurality of inspection tables.
  • the actual inspection table provided with the first, second and third support parts for supporting the object to be measured is a three-point supported inspection table, this object can be measured regardless of the shape of the object to be measured. Since the object to be measured can always be supported, it is preferable in that it can be used for general purposes.
  • the object to be measured is placed on the general-purpose actual inspection table. It can be compared and evaluated with the measured shape, and can reproduce the inspection when these inspection tables are used without actually preparing multiple inspection tables. Furthermore, by obtaining the state of being placed on the actual inspection table from the design shape data, the amount of calculation after measuring the object to be measured can be reduced and the inspection can be performed smoothly.
  • FIG. 1 is an explanatory view showing an embodiment of an inspection apparatus according to the present invention.
  • FIG. 2 A plan view showing the inspection table (a view taken along the arrow line II ′ in FIG. 1).
  • FIGS. 3A and 3B are flowcharts showing an embodiment of an inspection method according to the present invention.
  • FIG. 4 (a) to (c) Schematic diagrams for explaining the inspection procedure.
  • FIG. 5 is an explanatory view showing an embodiment of a shape measuring system according to the present invention.
  • FIG. 6 is a cross-sectional view showing an optical system for measuring a shape.
  • FIG. 7 is an explanatory diagram showing an outline of a color pattern.
  • FIG. 8 is a plan view showing a basic pattern.
  • FIG. 10 is a plan view showing (a) a stripe pattern that appears when focusing on the red component, and (b) a stripe pattern that appears when focusing on the blue component.
  • FIG. 11 is a flowchart showing an embodiment of shape measurement.
  • FIG. 12 is an explanatory diagram showing how to obtain a normal vector.
  • FIG. 13 is a flowchart showing a procedure for obtaining a reflected image force normal vector for one sampling point.
  • FIG. 14 (a) and (b) are plan views showing reflected images of the basic pattern reflected in the vicinity of the sampling point.
  • FIG. 15 (a) and (b) are plan views enlarging a part of the reflected image of the basic pattern reflected near the sampling point.
  • FIG. 16 is an explanatory diagram showing how a reflected image is formed.
  • FIG. 17 is an explanatory diagram showing how a reflected image is formed.
  • FIG. 18 is an explanatory diagram showing how a reflected image is formed.
  • FIG. 19 is an explanatory diagram showing a correction vector used for correcting a normal vector.
  • FIG. 20 is an explanatory diagram showing another embodiment of the present invention.
  • FIG. 21 (a) and (b) are flowcharts showing another embodiment of the inspection method according to the present invention.
  • FIG. 22 (a) to (d) are schematic diagrams for explaining the inspection procedure.
  • FIG. 23 (a) A plan view showing a shape model (finite element mesh) of a glass plate in an embodiment of the present invention, (b) and (c) a plane showing a result of comparing simulation results with actual measurement values. It is a figure.
  • FIG. 1 is an explanatory view showing an embodiment of an inspection apparatus according to the present invention.
  • the inspection table 110 (corresponding to the actual measurement inspection table described in the claims) supports the back surface of the DUT 1 such as a glass plate on the rectangular frame 111 in a top view.
  • Three rods 112 are attached to protrude upward (see FIG. 2).
  • the three rods 112 are arranged on the upper surface of the gantry 111 so as to be positioned at the apexes of the triangle.
  • a pad made of grease or the like is attached to the tip of each rod 112, and the object to be measured 1 is placed thereon.
  • a camera 121 for capturing an image of the surface of the device under test 1 is installed above the device under test 1 and an image captured by the camera 121 is captured and image processing of the captured image is performed.
  • a computer 120 composed of a personal computer, a workstation or the like is provided.
  • Various input / output devices are connected to the computer 120, and include, for example, a keyboard 122, a display 123 such as an LCD, and a storage device 124 such as a hard disk drive.
  • the storage device 124 stores captured image data, a program for performing image processing, camera drive control, and the like.
  • FIG. 3 is a flowchart showing an embodiment of the inspection method according to the present invention.
  • 4 (a) to 4 (c) are diagrams for explaining the inspection procedure.
  • the object to be measured is placed on the inspection table 110 in FIG. Place object 1 manually or using a robot (not shown) (step Sl, Fig. 4 (a)).
  • the upper surface of the DUT 1 is imaged using the camera 121, and the captured image is captured by the computer 120 (step S2).
  • the computer 120 extracts the contour shape of the object 1 to be measured and the gradient on the surface by image processing, calculates the three-dimensional shape of the object 1 to be measured, and then generates a finite element mesh by a known method (step S3). Details of shape calculation will be described later.
  • a three-dimensional shape la in a weightless state is obtained by simulation (step S4, FIG. 4 (b)).
  • the shape of the DUT 1 is slightly stagnant due to the influence of gravity, the way of wrinkling changes depending on the number and position of the support points, so the latter stage is based on the shape calculated here. It is not appropriate to perform a simulation (step S5). Therefore, in the present invention, the shape la (particularly the shape in the weightless state) of the object to be measured 1 before being mounted on the inspection table 110 is reproduced and used as V. Details of the shape calculation will be described later.
  • Step S5 evaluate the quality of the shape (Step S6, Fig. 4 (c)).
  • the evaluation assumes the state of being mounted on the specified inspection table 130, and the position calculated at step S5 from the mounting surface of the inspection table 130 at the position of the plurality of distance sensors provided on the mounting surface, that is, the specified evaluation point. Evaluate by calculating the distance to the back of the shape 1 lb of the workpiece 1.
  • the shape data lb in the state of being placed on the specified inspection table 130 is obtained based on the shape data in the state of being placed on the general-purpose inspection table 110.
  • the measurement target is based on a comparison between the shape data la of the measurement object 1 calculated in step S3 in the weightless state and predetermined design shape data (CAD data) on the measurement object 1. You may make it judge the quality of the thing 1. The comparison is made so that the coordinates of the shape data la of the measurement object 1 in the zero-gravity state coincide with the coordinates of the design shape data at at least three of the points scheduled to support the measurement object 1 on the specified inspection table 130.
  • Multiple distance sensors installed on the mounting surface of the specified inspection table 130 At the position, that is, at the specified evaluation point, calculate the amount of deviation between the shape data la in the zero-gravity state of the DUT 1 and the design shape data, and evaluate whether the deviation is within the specified range. Do. This evaluation is suitable because the amount of calculation by the computer 120 can be reduced when the DUT 1 has a shape and posture that are difficult to deform due to the influence of gravity.
  • step S4 For the method of calculating the three-dimensional shape la in the weightless state in step S4, there are several methods such as the following methods. First, instead of gravity applied as an external force to the three-dimensional shape measured in step S1, a force opposite to that of gravity and having the same magnitude as gravity is applied. A shape that eliminates (ie, a shape in a weightless state) is simulated, and the obtained shape is set as an “initial shape” (step S41). At that time, since it is necessary to support the glass plate so that the glass plate does not move due to the applied force, the glass plate is supported at three points downward on the upper surface of the glass plate corresponding to the above three-point support position. (The virtual rod 112a in Fig. 4 (b) corresponds).
  • step S42 the state in which the glass plate having the "initial shape" is placed on the three-point support inspection table is reproduced by computer simulation. Then, the shape obtained by this simulation is compared with the three-dimensional shape data obtained in step S3 (step S43), and the positions of nodes (nodes) in each mesh seem to match. If there is, it is judged that the reproduced shape of the weightless state is appropriate.
  • step S44 it is confirmed how much error has occurred for each node of the mesh used in the simulation, and the average error in each node is When it is equal to or greater than the predetermined value (step S44), the “initial shape” is deformed so as to eliminate this error (step S45), and the process returns to step S42 and the same process is performed again.
  • the maximum value of the error exceeds a predetermined value, whether it is determined based on whether the minimum value of the error is less than the predetermined value, or at a specific node set in advance. The determination may be made only based on the error.
  • Step S46 What is the above error range? This is appropriately set according to the shape and size of the product and the required values in standards such as WIS (Japanese Industrial Standards).
  • FIG. 5 is an explanatory diagram showing a basic configuration of the shape inspection apparatus.
  • a surface light source 2 is installed above a DUT 1 having a mirror surface such as an automobile glass.
  • a color pattern 3 is attached to the light emitting surface of the surface light source 2.
  • one main color camera and at least one sub color camera are arranged. These color cameras correspond to the camera 121 in FIG.
  • the main color camera 5 is arranged inside the surface light source 2 and captures a reflection image reflected on the object 1 to be measured through a hole 4 formed in the color pattern 3.
  • the secondary color cameras 6 and 7 are arranged outside the surface light source 2 and capture a reflected image reflected on the object 1 to be measured.
  • a computer 8 such as a personal computer is connected to the color cameras 5, 6, and 7.
  • the reflected image captured by these cameras is analyzed using a known image processing technique, and the shape of the DUT 1 is measured.
  • the optical system and the object to be measured are assumed to be placed in the XYZ coordinate system, and the Z axis is set in the vertical direction.
  • the side of the surface light source 2 is assumed to be parallel to the X and Y axes.
  • the XYZ coordinate system that describes the arrangement of the entire optical system
  • the coordinates in the global coordinate system are called the global coordinates.
  • the surface light source 2 a plurality of fluorescent lamps are arranged inside a housing and the light emitting surface is covered with a glass plate.
  • a color pattern 3 to be applied to the light emitting surface a color pattern printed on a transparent or light diffusing resin film (for example, inkjet printing) can be used.
  • the color pattern 3 may be affixed to the surface of one cover glass, or may be sandwiched between two cover glasses. For this reason, it is desirable to make the brightness of the surface light source 2 as uniform as possible.
  • the resin film used for the color note 3 is preferably made of a material that diffuses and transmits light rather than being transparent. Thereby, the uneven brightness of the surface light source 2 is reduced.
  • the color cameras 5, 6 and 7 are not limited as long as they are area cameras.
  • FIG. 6 is a partially broken side view of the optical system in the YZ plane, showing the positions of three color cameras, It shows the relationship of visual field.
  • the posture of the main color camera 5 is vertically downward, and a reflected image is captured in the range of the visual field 9.
  • the secondary color camera 6 captures a reflected image in the range of the visual field 10 and takes a posture such that a part of the visual field 10 overlaps a part of the visual field 9 on the object 1 to be measured.
  • the secondary color camera 7 captures a reflected image in the range of the field of view 11 and takes a posture such that a part of the field of view 11 overlaps a part of the field of view 9 on the object 1 to be measured.
  • These three color cameras are fixed in the global coordinate system, so the position and orientation can be obtained as known information.
  • FIG. 7 is an explanatory diagram of the color pattern 3.
  • Color pattern 3 is formed by arranging a plurality of basic patterns closely without overlapping each other, with basic pattern 12 as a unit. Therefore, the color pattern 3 is a pattern in which the basic pattern 12 appears periodically in both the vertical and horizontal directions.
  • FIG. 8 is a detailed explanatory diagram of the basic pattern 12.
  • the basic pattern 12 is composed of 6 ⁇ 6 minute rectangular patterns, and each minute rectangular pattern is colored in any one of eight colors from color 12a to color 12h.
  • the basic pattern 12 is accompanied by a local coordinate system having horizontal and vertical forces.
  • the coordinates indicating the position of the point inside the basic pattern 12 are referred to as local coordinates.
  • the components of local coordinates take a non-dimensional value from 0 to 6.
  • These local coordinates can describe any position inside the basic pattern 12.
  • the lower left point represents (0, 0)
  • the middle point represents (3, 3)
  • the upper right point represents (6, 6).
  • Each component of local coordinates is not limited to an integer, and can be described as (2.5, 3.3), for example.
  • the position of the point inside the basic pattern 12 is referred to as local coordinates.
  • Figure 9 shows the red, green, and blue components of the image obtained when the eight colors that make up the basic pattern are captured with a color camera.
  • the vertical axis of the graph indicates the strength of each color component.
  • Color 12a, Color 12b, and Color 12c do not contain the blue component, and the red component has the same strength.
  • the difference between color 12a, color 12b, and color 12c is the strength of the green component.
  • the color 12d, the color 12e, and the color 12f do not include a red component, and the blue component has the same strength.
  • the difference between color 12d, color 12e, and color 12f is the strength of the green component.
  • Color 12g is red component
  • the green component and the blue component have the same intensity
  • the color 12h has no red component, green component, and blue component.
  • the intensity of the red component and the blue component of color 12g are the same as the red component of color 12a, color 12b, and color 12c, and the blue component of color 12d, color 12e, and color 12f, respectively.
  • two stripe patterns orthogonal to each other can be included in the basic pattern 12.
  • a stripe pattern 13 appears as shown in FIG. 10 (a).
  • a stripe pattern 14 appears as shown in Fig. 10 (b).
  • two stripe patterns orthogonal to each other can be obtained by changing the color component to be focused on, which is one color pattern.
  • the stripe pattern 13 corresponds to the local coordinate in the H direction
  • the stripe pattern 14 corresponds to the local coordinate in the V direction.
  • the stripe patterns 13 and 14 are orthogonal to each other, but it is possible to select an inclination angle within a range that is not parallel even at other angles.
  • FIG. 11 is a flowchart showing an embodiment of shape measurement.
  • the normal vector at the sampling point generated on the object to be measured is obtained, and finally the integral calculation is performed to obtain the object to be measured.
  • the shape of the object is required. First, find the normal vector of the sampling point in the field of view of the main color camera, and then the normal vector of the sampling point in the field of view of the secondary color camera (Step Sl l, S12, S13) . Furthermore, the normal vector obtained by the secondary color camera is modified so as to have continuity with the normal vector obtained by the main color camera (step S14). Finally, the shape of the object to be measured is obtained by integrating the slope of the surface obtained from the normal vector (step S15).
  • a specific method of integration calculation a known method can be applied, and for example, those disclosed in Japanese Patent Laid-Open No. 2005-345383 and Japanese Patent Laid-Open No. 11-211440 can be applied.
  • FIG. 12 shows how normal vectors are obtained for one sampling point.
  • the normal vector 18 can be specified.
  • the force S that requires the global coordinates of the viewpoint 15, the sampling point 16, and the reference point 17 is divided into known information and unknown information. And the following. First, since the color camera 5 is fixed, its viewpoint 15 is known information.
  • the sampling point 16 is a point on the DUT 1 from which the shape is to be obtained and is originally unknown information, but an approximate value such as the design shape can be given in the case of automotive glass. Since the position where the automotive glass is placed at the time of measurement is also known, the sampling point 16 can be treated as known information.
  • the reference point 17 changes depending on the actual shape of the object 1 to be measured, the position of the reference point 17 must be obtained each time the object 1 to be measured changes.
  • the Z component of the global coordinates of the reference point 17 is known information, but the XY component is unknown information.
  • the unknown information of the information necessary to obtain the normal vector 18 is the ⁇ component of the global coordinates of the reference point 17, and this is the main purpose of reflection image analysis. Become.
  • FIG. 13 is a flowchart showing a procedure for calculating a normal vector of one sampling point.
  • the local coordinates of the reference point reflected at the sampling point are obtained (step S21).
  • the global coordinates of the reference point are specified based on the local coordinates and the constraint conditions described later (step S22).
  • the normal vector at the sampling point is calculated using the regular reflection law (step S23).
  • color pattern 3 is a pattern in which basic pattern 12 is periodically spread. Therefore, any reference point must be a basic pattern. It can be located at some point and its local coordinates can be obtained.
  • FIG. 14 is a reflected image of the basic pattern 12 reflected in the vicinity of the sampling point 16.
  • Fig. 14 (a) corresponds to the red component of the reflected image
  • Fig. 14 (b) corresponds to the blue component of the reflected image.
  • Fig. 14 is a mirror image
  • Fig. 14 (a) has its left and right interchanged with Fig. 10 (a).
  • Point 21 is an image of sampling point 16 captured by color camera 5.
  • the local coordinates of the reference point 17 are obtained by analyzing the reflection image near the point 21.
  • FIG. 14 there are three pieces of important information for obtaining local coordinates. They are,
  • Part 1 Point 21 is the force in the white area of the stripe pattern Black part, or Part 2: The green area of the color image of the white area of the stripe pattern in the vicinity (except for the area of color 12g in Fig. 8) The strength of
  • Part 3 The length up to the stripe boundary across point 21.
  • FIG. 15 is an image obtained by further enlarging the vicinity of the point 21 in FIG. Fig. 15 (a) corresponds to the red component of the reflected image, and Fig. 15 (b) corresponds to the blue component of the reflected image.
  • the length from point 21 to the stripe boundary is dO—h and dl—h.
  • the length to the stripe boundary where the local coordinates in the horizontal direction are small is dO-h
  • the smaller one of the horizontal coordinates in the horizontal direction at both boundaries is hO.
  • the length from point 21 to the stripe boundary in Fig. 15 (b) is dO-v and dl-V.
  • the length to the stripe boundary where the local coordinates in the vertical direction are small is d 0 — V, and the smaller of the local coordinates in the vertical direction of both boundaries is ⁇ ⁇ .
  • the local coordinates of the point 21 are given by the equations (1) and (2).
  • hO or ⁇ is accurately determined by using information 1 and 2 of the three pieces of information.
  • information 1 and 2 of the three pieces of information For example, consider the case of specifying hO. In this case, if the point 21 is in the white region in FIG. 14 (a), hO candidates are narrowed down to 0, 2, and 4. On the other hand, if it is in the black area, hO candidates are narrowed down to 1, 3, and 5. . Further, in FIG. 14 (a), by selecting the green component in the color image in the vicinity of point 21 and in the white area (except for the area of color 12g in FIG. 8), one is selected from the three hO candidates. be able to.
  • the local coordinates of the reference point can be obtained by examining the reflected image in the vicinity of the sampling point.
  • a plurality of basic patterns 12 are periodically arranged inside the color pattern 3, even if local coordinates are divided, the global coordinates of the reference point are not uniquely identified.
  • the glossy coordinates of the reference point are specified by adding a constraint condition to the local coordinate information obtained by the above method. There are three types of constraint conditions depending on the situation. Table 1 shows three types of constraint conditions.
  • FIG. 16 shows a situation where a reflected image of the reference point 23 is shown when the color camera 5 captures the sampling point 22.
  • the sampling point 22 is a sampling point for obtaining a normal vector first among sampling points entering the visual field of the color camera 5.
  • the reference point 24 on the color pattern 3 has a known global coordinate. Reference point 24 should have distinct characteristics that are easily distinguishable from other points in color pattern 3. For example, one method is to point near the hole 4 (see Fig. 5) in the color pattern 3. Alternatively, a method of coloring one section in the basic pattern with colors other than the eight colors shown in FIG.
  • the sampling point 22 is selected by computer simulation. Assuming that DUT 1 has a design shape, the reference point position for each sampling point is predicted by ray tracing. Of these, the sampling point whose reference point is closest to the reference point 24 may be the sampling point 22. As described above, in this embodiment alone, the normal vector is calculated with respect to the sampling point for calculating the normal vector first, using the reference point whose global coordinates are known as a constraint.
  • FIG. 17 shows a situation where a reflected image of the reference point 26 is reflected when the color camera 5 captures the sampling point 25.
  • the sampling point 25 is assumed to be a point in the vicinity of the sampling point 22 for which the normal vector is first obtained in FIG.
  • the global coordinates of the reference point 23 already reflected in the sampling point 22 are made clear by the above method.
  • the global coordinates of reference point 26 consider that reference point 23 is the new constraint point. If the interval between the sampling points is sufficiently short, the distance between the two reference points reflected in the two nearby sampling points can be kept below the size of the basic pattern 12. At this time, among the points having the same local coordinates as the reference point 26, the point closest to the reference point 23 may be regarded as the true reference point 26.
  • the normal vector is calculated by using the reference point position reflected in the neighboring sampling points as a constraint condition.
  • a normal vector can be obtained for a sampling point in the field of view of the color camera 5 by propagating a similar calculation to the surroundings starting from the sampling point 22.
  • FIG. 18 shows a situation in which a reflected image of the reference point 28 is reflected when the color camera 7 images the sampling point 27.
  • the sampling point 27 is in an area where the visual fields of the color cameras 5 and 7 overlap. Since the sampling point 27 is in the field of view of the color camera 5, the normal vector 29 has already been obtained by the process described with reference to FIGS. Now, consider that the normal vector at the sampling point 27 is obtained again using the reflection image captured by the color camera 7. For this purpose, the force S that requires the global coordinates of the reference point 28 is used, and in this embodiment, the known normal vector 29 is used to calculate the glossy coordinates of the reference point 28.
  • the known normal vector 29 is used to calculate the glossy coordinates of the reference point 28.
  • the predicted reference point 30 is a predicted position of the reference point reflected in the color camera 7 when it is assumed that the normal vector of the sampling point 27 is equal to the known normal vector 29.
  • the ray path 31 is calculated based on the law of specular reflection, and the intersection of the ray path 31 and the color pattern 3 becomes the predicted reference point 30. If the positions and orientations of color cameras 5 and 7 are correctly grasped, the point closest to the predicted reference point 30 among the points having the same local coordinates as the reference point 28 is regarded as the true reference point 28. Can do.
  • the normal vector of the sampling point 28 can be obtained based on the viewpoint information of the color camera 7. Thereafter, the normal vector of another sampling point in the field of view of the color camera 7 can be obtained from the sampling point 27 as a starting point. In that case, the second constraint described above may be applied.
  • the normal vector is also obtained for the image power of each color camera in this embodiment.
  • the global coordinates of the viewpoint, sampling point, and reference point of the color camera are required. However, in actual measurement, these include errors, and the image power of each color camera was also obtained. Normal vectors do not match exactly.
  • FIG. 19 is an enlarged view near the sampling point 27 in FIG.
  • the normal vector 29 is the normal vector of the sampling point 27 obtained from the image of the color camera 5
  • the normal vector 32 is the normal vector of the sampling point 27 obtained from the image of the color camera 7. Since the normal vector at the sampling point 27 is unique, the correction vector 33 given by the difference between the normal vector 29 and the normal vector 32 is obtained in this embodiment, and the image of the color camera 7 is obtained.
  • the normal vector obtained from is corrected. That is, a vector obtained by adding the correction vector 33 to the normal vector obtained from the image of the color camera 7 is regarded as a normal vector.
  • This correction vector is applied to all the sampling points in the field of view of the color camera 7 only by the sampling points in the region where the fields of view of the color camera 5 and the color camera 7 overlap. With the above correction process, a continuous normal vector distribution is formed at the sampling points within the field of view of the color cameras 5 and 7.
  • the reference point 28 is a point reflected when the color camera 7 images the sampling point 27.
  • Prediction reference point 30 is the same as normal vector 29 where sampling point 27 normal vector is known This is the predicted position of the reference point reflected in the color camera 7 when it is assumed that they are equal.
  • the point closest to the predicted reference point 30 among the points having the same local coordinates as the reference point 28 is regarded as the true reference point 28, and the deviation between this reference point 28 and the predicted reference point 30 is obtained. . Deviations between this reference point and the prediction reference point are obtained at all sampling points in the area where the visual fields of the color camera 5 and the color camera 7 overlap.
  • Coordinate conversion is performed so that the deviation between the obtained reference point and the predicted reference point is eliminated at all positions.
  • This coordinate transformation is applied to all the sampling points in the field of view of the color camera 7 and only in the sampling point in the region where the field of view of the color camera 5 and the color camera 7 overlap.
  • the normal vector of the sampling point obtained from the image of the color camera 5 matches the normal vector of the sampling point obtained from the image of the color camera 7.
  • a continuous normal vector distribution is formed at the sampling points in the field of view of the color cameras 5 and 7.
  • the normal vector is calculated and corrected in the same manner as the color camera 7.
  • normal vectors are obtained for all sampling points generated in the DUT 1, and these normal vectors form a continuous distribution.
  • the shape of the DUT 1 is obtained by integrating the inclination of the surface obtained from the normal vector vector.
  • the present invention is not limited to this.
  • an inspection table 110 is installed on a conveying means such as a belt conveyor, and an object to be measured 1 conveyed with the inspection table 110 is imaged and inspected.
  • the secondary camera 6a, 6b, 7a, 7b is installed on both sides of the device under test 1 with an appropriate inclination angle so that the device under test has a large curvature (for example, rear glass for automobiles).
  • imaging and inspection can be easily performed.
  • FIG. 21 is a flowchart showing an embodiment of the inspection method according to the present invention.
  • FIGS. 22A to 22D are diagrams for explaining the inspection procedure.
  • the computer 120 in FIG. Based on the predetermined design shape data lc (CAD data) related to the measurement object 1, the three-dimensional shape Id in the weightless state is obtained by simulation (step S31, FIG. 4 (b)).
  • Design shape data lc is a design shape
  • the specified inspection table 130 is designed based on the design shape data lc of the DUT 1. Therefore, the design shape data lc of the DUT 1 is the shape of the DUT 1 as it is placed on the inspection table 130 (Fig. 4 (a)). Advance the calculation.
  • the design shape data lc of the DUT 1 placed on the inspection table 130 is slightly stagnant due to the influence of gravity, it is stored in the inspection table 130 for the subsequent simulation (step S32).
  • the design shape data Id (particularly the shape in the weightless state) of the DUT 1 before being placed is calculated in consideration of the squeezing method according to the number and position of the support points of the inspection table 130. The calculation method of the design shape data Id will be described later.
  • the design shape data le in the state of being placed on the general-purpose detection table 110a is calculated (step S32, FIG. 4 (c)).
  • the calculated design shape data le is stored in the storage device 124 such as a hard disk.
  • the object to be measured 1 is placed on the inspection table 110 in FIG. 1 by using a human hand or a robot (not shown) (step S33, FIG. 4 (d)).
  • the upper surface of the DUT 1 is imaged using the camera 121, and the captured image is captured by the computer 120 (step S34).
  • the computer 120 detects the contour shape of the object to be measured 1 and the gradient on the surface by image processing, calculates the three-dimensional shape of the object to be measured 1, and generates a finite element mesh by a known force method ( Step S35). Details of the shape calculation are the same as those in the above-described embodiment, and thus the description thereof is omitted.
  • Step S36 the quality of the shape is evaluated based on the comparison between the calculated design shape data 1 e and the three-dimensional shape of the DUT 1 calculated in step S 35.
  • the comparison is defined in such a way that the coordinates of the calculated design shape data le and the three-dimensional shape of the measurement object 1 calculated in step S35 coincide with the three points that support the measurement object 1 on the inspection table 110.
  • calculate the amount of deviation between the 3D shape of DUT 1 calculated in step S35 and the calculated design shape data le and evaluate whether the amount of deviation is within the specified range. .
  • the design shape data in the state placed on the general-purpose inspection table 110 is obtained from the design shape data in the state placed on the specified inspection table 130, whereby the design shape data and the general-purpose data are obtained. It is possible to make an evaluation by comparison with the shape data in a state of being placed on the inspection table 110, and there is an excellent effect that it is not necessary to prepare an inspection table for each product type. Further, instead of step S31 and step S32, design shape data in a state of being mounted on the general-purpose inspection table 110a may be calculated based on predetermined design shape data lc related to the object to be measured 1. . This calculation method is suitable because the calculation amount of the computer 120 can be reduced when the DUT 1 has a shape and posture that are difficult to deform due to the influence of gravity.
  • step S31 there are several methods for calculating the three-dimensional shape in the weightless state in step S31.
  • the following methods can be employed. First, instead of gravity given as an external force to the 3D shape of the design shape data, a force that is in the opposite direction of gravity and the same magnitude as gravity is applied to eliminate the influence of gravity. (That is, the shape in the weightless state) is simulated, and the obtained shape is set as the “initial shape” (step S311). At that time, since it is necessary to support the glass plate so that the applied plate does not move due to the applied force, the glass plate is supported downward on the upper surface of the glass plate corresponding to the support position of the specified inspection table. Shall.
  • step S312 the state in which the glass plate of the “initial shape” is placed on the specified inspection table is reproduced by computer simulation (step S312). Then, the shape obtained by this simulation is compared with the design shape data (step S313), and if the positions of the nodes (nodes) in each mesh match, the shape in the above-described weightless state is reproduced. Is deemed appropriate.
  • step S314 the “initial shape” is deformed so as to eliminate this error (step S315), and the process returns to step S312 to perform the same process again.
  • the determination may be made only on the basis of an error in a specific node set in (1). afterwards
  • step S316 The extent of the above error range is set as appropriate according to the shape and size of the product and the required values in standards such as WIS (Japanese Industrial Standards).
  • FIG. 23 (a) is a plan view showing the shape model of the glass plate in the example of the present invention
  • FIGS. 23 (b) and (c) are plan views showing the results of comparing the simulation results with the measured values.
  • a shape model of a substantially trapezoidal glass plate in front view is represented by an infinite number of plate bending elements (elements having a quadrangle and thickness of "0" in front view)
  • a shape model called collective force was used, and this was used for deflection analysis by the finite element method.
  • the thickness of the glass plate is 2.8 mm
  • the Young's modulus is 70600 MPa
  • the Poisson's ratio is 0.23.
  • the analysis software used was Abacus' Standard (ABAQUS / Standard) from Abacus USA.
  • black circles and black triangles in the figure indicate points for supporting the glass plate.
  • the shape of the glass plate supported at a total of six points, black circle marks and black triangle marks was also measured.
  • the shape of the glass plate obtained by the three-point support is set as the “initial shape” shown in step S41 of FIG. 3 (b), and the flow shown in FIG. The shape was determined.
  • the shape in weightless state obtained by this simulation we simulated the state supported by 6 points, and compared the result with the shape actually obtained by supporting 6 points on the inspection table. We checked whether there was a shape error.
  • the result shown in FIG. 23B is obtained, and the shape error is represented by shading.
  • the error (displacement in the Z direction) between the corresponding nodes (mesh nodes) in the simulation results and the measured values is -0.3 mm, which is Omm near the center of the glass plate.
  • + 0.2mm As you go to the top right corner, make sure + 0.2mm.
  • the in-plane shape error was within ⁇ 0.3 mm, and the result was generally good.
  • “0” indicates no error, “1” when one reference node is below the other node, and conversely, one reference node is above the other node.
  • a certain time is represented by a symbol “+”.
  • the shape error was measured by paying attention only to the displacement in the Z direction.
  • the measured value of the three-point support was set as the initial shape in step S41, the weightless state was simulated based on this initial shape, and the three-point support state was simulated again using the result.
  • the result shown in FIG. In other words, what was 0.13 mm in the left corner of the figure increased as it went to the right corner, becoming Omm near the center of the glass plate, and +0.14 mm at the far right. The results were generally good.
  • the present invention provides a shape inspection method and inspection apparatus suitable for shape inspection of automobile window glass. Further, it is apparent that the present invention can be applied not only to automobile applications but also to inspection of window glass used in railway vehicles, aircraft, ships, buildings, and the like. Moreover, it can be applied not only to inspection of glass plates but also to inspection of other specular bodies, plate-like bodies and lenses.
  • the entire contents of the specification, claims, drawings, and abstract of Japanese Patent Application No. 2005-206498, filed on July 15, 2005, are hereby incorporated herein by reference. As it is incorporated.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

 製品の型式毎に検査台を用意することなく形状検査を実施する。  実測用検査台に被測定物を載置する第1のステップと、この被測定物の表面形状に関する情報を取得する第2のステップと、取得した被測定物の表面形状に関する情報に基づいて被測定物の無重力状態における形状データを算出する第3のステップと、被測定物の無重力状態における形状データに基づいて、被測定物1が所定の検査台に載置された状態における被測定物の形状データを算出し直し、この算出し直された形状データに基づいて被測定物1の品質を判定する第4のステップとを有する。

Description

明 細 書
形状検査方法および装置
技術分野
[0001] 本発明は、形状検査方法および装置に関し、特に自動車用窓ガラスの形状検査に 好適な方法および装置に関する。
背景技術
[0002] 従来、自動車用窓ガラスには、 自動車のデザインに合わせた様々な湾曲形状のも のが用いられている。これらの窓ガラスは、フロート法等で作られた平板状のガラス板 を所望形状に切り出してから加熱軟化し、プレス成形等により曲げ成形される。サイド ガラスやリアガラスには、一般的に強化ガラスが用いられているため、曲げ成形後の 加熱状態にあるガラス板を直ちに風冷することで、いわゆる物理強化ガラスが作られ る。
[0003] 一方、ウィンドシールドに用いられる合わせガラスは、ほぼ同一形状に切り出された 2枚のガラス板を、リング状の治具の上に 2枚重ねた状態で載置し、炉内で加熱する ことで所望の湾曲形状に自重曲げされる。曲げ成形後は徐冷され、強化ガラスのよう に風冷強化されることはない。その後、成形された 2枚のガラス板の間に透明榭脂製 の中間膜 (ポリビュルプチラール等)を挟み込み、真空バッグ内での予備圧着処理、 およびさらにその後オートクレープ内での加熱 ·加圧処理を実施することで、ガラス板 と中間膜とがー体となった合わせガラスが作られる。
[0004] このようにして作られた湾曲ガラスを自動車に組み付ける際、高精度の形状再現性 が要求される。ドアガラスであれば、搭乗者の操作によって上下に摺動して開閉され るため、所望のデザイン形状が再現されないと、摺動させた際に周辺の金属部材等 と衝突したり擦れたりして破損することがある。また、ウィンドシールドやリアガラス等の 嵌め殺し窓においても、形状の再現性が悪いと開口部への組付けが困難となり、また 透視歪 (ガラス越しの像が歪む現象)や反射歪 (ガラス面に映りこんだ像が歪む現象) t 、つた窓ガラス特有の不具合を生じるおそれがある。
[0005] そこで、従来においては、曲げ成形後のガラス板をゲージと呼ばれる検査台(例え ば特許文献 1を参照)に搭載して形状検査を行い、所定の形状精度を有するものの み自動車の製造に用いられていた。ゲージは、所定のデザイン形状に一致させて作 られた搭載面を有する検査型であり、この搭載面に複数の距離センサが埋め込まれ ている。型の表面力もガラス板の裏面までの距離を測定することで、デザイン形状か らの解離を測定し、形状の精度が評価される。従来においては、成形されたガラス板 の全数または抜き取られた一部のものに対し、このようなゲージによる検査が行われ ていた。
[0006] 特許文献 1 :特開平 4 242103号公報
発明の開示
発明が解決しょうとする課題
[0007] し力しながら、ゲージを用いた検査では、 1枚ずつガラス板をゲージに搭載する作 業を必要とし、生産性の向上に限界がある。また、最終製品の型式毎にゲージを用 意する必要があるため、昨今の多種多様の自動車生産に対応するには膨大な個数 のゲージが必要となる。また、ゲージは窓ガラスと同程度以上の大きさを有し、型式 毎に用意された多数のゲージを保管するには、広大な場所を要するといった問題も ある。将来的な補修用途を考慮すると、長期間にわたってこれらのゲージを保管しな ければならな ヽと 、う問題もある。
[0008] 本発明は、このような課題を解決するものであり、製品の型式毎に検査台を用意す ることなく実施できるようにした形状検査方法および装置を提供することを目的とする 課題を解決するための手段
[0009] 以上の目的を達成するために本発明は、実測用検査台に被測定物を載置する第 1 のステップと、この被測定物の表面形状に関する情報を取得する第 2のステップと、 前記被測定物の表面形状に関する情報に基づいて被測定物の無重力状態におけ る形状データを算出する第 3のステップと、前記被測定物の無重力状態における形 状データに基づいて被測定物が所定の検査台に載置された状態における被測定物 の形状データを算出し直し、この算出し直された被測定物の形状データに基づいて 前記被測定物の品質を判定する第 4のステップとを有することを特徴とする形状検査 方法を提供する。
また、本発明に係る形状検査方法の一態様は、以下の構成を含む。すなわち、前 記被測定物の無重力状態における形状データは、実測によって得られた前記被測 定物の形状データに対し、重力と逆向の力を印カロした状態を計算機シミュレーション により再現することで得られることが好ましい。前記第 4のステップの代わりに、前記第 3のステップで算出された前記被測定物の無重力状態における形状データと、前記 被測定物に関する所定の設計形状データとの比較に基づいて前記被測定物の品質 を判定するステップを有することが好ましい。前記第 2のステップは、前記被測定物を 撮像し、撮像した画像より表面形状データを取得することが好まし 、。
また、本発明に係る形状検査方法の別の態様は、所定の検査台に載置された状態 における被測定物の設計形状データに基づいて無重力状態における被測定物の設 計形状データを算出する第 1のステップと、無重力状態における前記被測定物の設 計形状データに基づいて被測定物が実測用検査台に載置された状態における被測 定物の設計形状データを算出する第 2のステップと、前記実測用検査台に前記被測 定物を載置する第 3のステップと、この被測定物の表面形状に関する情報を取得す る第 4のステップと、前記実測用検査台に載置された状態における被測定物の設計 形状データと前記被測定物の表面形状に関する情報とに基づいて前記被測定物の 品質を判定する第 5のステップとを有することを特徴とする形状検査方法を提供する また、本態様は、前記被測定物の無重力状態における設計形状データは、所定の 検査台に載置された状態の前記被測定物の設計形状データに対し、重力と逆向の 力を印カロした状態を計算機シミュレーションにより再現することで得られることが好ま しい。前記第 1のステップと前記第 2のステップの代わりに、所定の検査台に載置され た状態における被測定物の設計形状データに基づいて被測定物が実測用検査台 に載置された状態における被測定物の設計形状データを算出するステップを有する ことが好ましい。前記第 4のステップは、前記被測定物を撮像し、撮像した画像より表 面形状データを取得することが好まし ヽ。
さらに、本発明に係る形状検査方法は、前記被測定物は、ガラス板であることが好 ま 、。前記ガラス板は、自動車用窓ガラスであることが好ま U、。
[0011] また、本発明は、被測定物を載置するための実測用検査台と、この被測定物の表 面形状に関する情報を取得するカメラと、前記被測定物の表面形状に関する情報に 基づいて前記被測定物の無重力状態における形状データを算出し、前記被測定物 の無重力状態における形状データに基づいて、前記被測定物が所定の検査台に載 置された状態における前記被測定物の形状データを算出し直し、この算出し直され た形状データに基づいて前記被測定物の品質を判定する計算機とを備えたことを特 徴とする形状検査装置を提供する。
[0012] また、本発明に係る形状検査装置の一態様は、以下の構成を含む。すなわち、前 記計算機は、前記被測定物が所定の検査台に載置された状態における前記被測定 物の形状データを算出し直し、この算出し直された形状データに基づいて前記被測 定物の品質を判定する代わりに、前記算出された前記被測定物の無重力状態にお ける形状データと、前記被測定物に関する所定の設計形状データとの比較に基づい て前記被測定物の品質を判定する。
また、本発明に係る形状検査装置の別の態様においては、被測定物を載置するた めの実測用検査台と、この被測定物の表面形状に関する情報を取得するカメラと、 所定の検査台に載置された状態の被測定物の設計形状データに基づいて無重力 状態における被測定物の設計形状データを算出し、無重力状態における前記被測 定物の設計形状データに基づいて被測定物が実測用検査台に載置された状態に おける被測定物の設計形状データを算出し、この算出した設計形状データと前記被 測定物の表面形状に関する情報とに基づいて前記被測定物の品質を判定する計算 機とを備えたことを特徴とする形状検査装置を提供する。
また、一態様として、前記計算機は、所定の検査台に載置された状態の被測定物 の設計形状データに基づいて無重力状態における被測定物の設計形状データを算 出し、無重力状態における前記被測定物の設計形状データに基づいて被測定物が 実測用検査台に載置された状態における被測定物の設計形状データを算出する代 わりに、所定の検査台に載置された状態における被測定物の設計形状データに基 づいて被測定物が実測用検査台に載置された状態における被測定物の設計形状 データを算出する。
さらに、本発明に係る形状検査装置は、前記実測用検査台は、前記被測定物を支 持する第 1、第 2および第 3の支持部を備えていることが好ましい。
発明の効果
[0013] 本発明は、測定された被測定物の形状から無重力状態 (すなわち重力の影響を排 除した状態)における形状を再現することにより、重力によって生じる橈みの影響を受 けることなぐ被測定物の形状品質を判定することができる。また、この無重力状態の 被測定物を所定の検査台に載置した状態を求めることにより、複数の検査台を実際 に用意することなぐこれらの検査台を用いた場合における検査を再現できる。
さらに、被測定物を支持する第 1、第 2および第 3の支持部を備えた実測用検査台 は、 3点支持の検査台であることから被測定物の形状等に拘らず、この被測定物を必 ず支持できるため、汎用的に使用できる点で好適である。
また、被測定物の設計形状データから無重力状態における形状を再現し、実測用 検査台に載置した状態を求めることで、被測定物を汎用的な実測用検査台に載置し た状態で測定した形状と比較評価することができ、複数の検査台を実際に用意する ことなぐこれらの検査台を用いた場合における検査を再現できる。さらに、設計形状 データより実測用検査台に載置した状態を求めておくことで、被測定物を測定してか らの計算量を少なくし、円滑に検査をすることができる。
図面の簡単な説明
[0014] [図 1]本発明に係る検査装置の一実施形態を示す説明図である。
[図 2]検査台を示す平面図(図 1の II Π'線矢視図)である。
[図 3] (a)、 (b)本発明に係る検査方法の一実施形態を示すフローチャートである。
[図 4] (a)〜 (c)検査手順を説明するための模式図である。
[図 5]本発明に係る形状測定システムの一実施形態を示す説明図である。
[図 6]形状測定をするための光学系を示す断面図である。
[図 7]カラーパタンの概略を示す説明図である。
[図 8]基本パタンを示す平面図である。
[図 9]基本パタンを構成する 8色について、カラーカメラで撮像した際の赤成分、緑成 分および青成分の強さを示すグラフである。
[図 10] (a)赤成分に着目した場合に現れるストライプパタン、 (b)青成分に着目した場 合に現れるストライプパタンを示す平面図である。
[図 11]形状測定の一実施形態を示すフローチャートである。
[図 12]法線ベクトルの求め方を示す説明図である。
[図 13] 1つのサンプリング点に対して、反射像力 法線ベクトルを求める手順を示す フローチャートである。
[図 14] (a)、(b)サンプリング点近傍に映っている基本パタンの反射像を示す平面図 である。
[図 15] (a)、(b)サンプリング点近傍に映っている基本パタンの反射像の一部を拡大 した平面図である。
[図 16]反射像が形成される様子を示す説明図である。
[図 17]反射像が形成される様子を示す説明図である。
[図 18]反射像が形成される様子を示す説明図である。
[図 19]法線ベクトルの修正に用いられる修正ベクトルを示す説明図である。
[図 20]本発明のその他の実施形態を示す説明図である。
[図 21] (a)、(b)本発明に係る検査方法の別の一実施形態を示すフローチャートであ る。
[図 22] (a)〜 (d)検査手順を説明するための模式図である。
[図 23] (a)本発明の実施例におけるガラス板の形状モデル (有限要素メッシュ)を示 す平面図、(b)、(c)シミュレーションの結果と実測値とを比較した結果を示す平面図 である。
符号の説明
1 :被測定物
2 :面光源
3 :カラーパタン
4:カラーパタンに空けられた穴
5 :主となるカラーカメラ 6、 7:副となるカラーカメラ
8:計算機
9:主となるカラーカメラの視野
10、 11:副となるカラーカメラの視野
12:カラーパタンを構成する基本パタン
13:基本パタンに内在する第 1のストライプパタン
14:基本パタンに内在する第 2のストライプパタン
15:主となるカラーカメラの視点
16:被測定物上のサンプリング点
17:カラーパタン上の参照点
18:法線ベクトル
19:入射角
20:反射角
21:サンプリング点をカラーカメラで捉えた像
22:主となるカラーカメラの視野にあるサンプリング点のうち最初に法線ベクトルをも とめるちの
23:主となるカラーカメラで反射像を撮像した際に、点 22に映る参照点
24:基準点
25:点 22の近傍のサンプリング点
26:主となるカラーカメラで反射像を撮像した際に、点 25に映る参照点
27:同時に主となるカラーカメラ、副となるカラーカメラの視野に入っているサンプリ ング点
28:副となるカラーカメラで反射像を撮像した際に、点 27に映る参照点
29:主となるカラーカメラの反射像をもとに求めた点 27の法線ベクトル
30:予測参照点
31:予測参照点を算出する際に計算される光線経路
32:副となるカラーカメラの反射像をもとに求めた点 27の法線ベクトル
33:修正ベクトル 110 :検査台
111 :架台
112 :ロッド
120 :計算機
121 :カメラ
122 :キーボード
123 :ディスプレイ
124 :記憶装置
発明を実施するための最良の形態
[0016] 次に、本発明の一実施形態について説明する。
図 1は、本発明に係る検査装置の一実施形態を示す説明図である。同図に示すよ うに、検査台 110 (請求項に記載されている実測用検査台に相当)は、上面視で矩形 状の架台 111に、ガラス板等の被測定物 1の裏面を支持するための 3本のロッド 112 が上方に突出して取り付けられている(図 2参照)。 3本のロッド 112はそれぞれ三角 形の頂点に位置するように、架台 111の上面に配設されている。各ロッド 112の先端 には榭脂等で作られたパッドが取り付けられ、その上に被測定物 1が載置される。 3 本のロッドを用いることにより、各ロッドの配置および長さを適宜調整すれば、ガラス 板の形状に拘らず、必ずガラス板の裏面を支持できるため好適である。
[0017] 一方、被測定物 1の上方には、被測定物 1の表面を撮像するためのカメラ 121が設 置され、カメラ 121によって撮像された画像を取り込み、取り込んだ画像の画像処理 等を行うためのパーソナルコンピュータまたはワークステーション等で構成された計算 機 120を備えている。計算機 120には、各種入出力機器が接続されており、例えば キーボード 122、 LCD等のディスプレイ 123およびハードディスク駆動装置等の記憶 装置 124等を備えている。記憶装置 124には、撮像された画像のデータ、画像処理 やカメラの駆動制御等を実施するためのプログラム等が格納されている。
[0018] 次に、本発明に係る検査手順について説明する。
図 3は、本発明に係る検査方法の一実施形態を示すフローチャートである。図 4 (a) 〜(c)は、検査手順を説明するための図である。まず、図 1の検査台 110に、被測定 物 1を人手またはロボット(図示せず)を用いて載置する (ステップ Sl、図 4 (a) )。次い で、被測定物 1の上面をカメラ 121を用いて撮像し、撮像した画像を計算機 120によ り取り込む (ステップ S2)。次いで、計算機 120は、画像処理により被測定物 1の輪郭 形状および表面における勾配等を抽出し、被測定物 1の 3次元形状を算出してから 公知の手法により有限要素メッシュを生成する (ステップ S3)。形状算出の詳細につ いては後述する。
[0019] 次いで、算出された被測定物 1の形状に基づいて、無重力状態における 3次元形 状 laをシミュレーションにより求める(ステップ S4、図 4 (b) )。ここで、被測定物 1の形 状は重力の影響によって若干橈んでいるが、支持ポイントの個数や位置に応じて橈 み方に変化が生じるため、ここで算出された形状に基づいて後段のシミュレーション( ステップ S5)を行うのは適当でない。そこで、本発明においては、検査台 110に搭載 される前の被測定物 1の形状 la (特に無重力状態における形状)を再現し、それを用 V、ることにする。形状算出の詳細につ 、ては後述する。
[0020] 次いで、算出された無重力状態における形状 laに基づいて、規定の検査台 130 ( 請求項に記載されている所定の検査台に相当)に載置された状態における形状 lb を算出し直し (ステップ S5)、形状の品質を評価する (ステップ S6、図 4 (c) )。評価は 、規定の検査台 130に搭載された状態を想定し、搭載面に設けられる複数の距離セ ンサの位置、つまり規定の評価ポイントにおいて、検査台 130の搭載面からステップ S5で算出した被測定物 1の形状 lbの裏面までの距離を算出することで評価する。 このように本発明にお 、ては、汎用の検査台 110に載置された状態における形状 データに基づ 、て、規定の検査台 130に載置された状態における形状データ lbを 求めることにより、製品の型式毎に検査台を用意する必要がないという優れた効果を 奏するものである。また、ステップ S5の代わりに、ステップ S3で算出された被測定物 1 の無重力状態における形状データ laと、被測定物 1に関する所定の設計形状デー タ(CADデータ)との比較に基づいて被測定物 1の品質を判定するようにしてもよい。 比較は、規定の検査台 130において被測定物 1を支持する予定の点のうち少なくとも 3点で無重力状態における被測定物 1の形状データ laと設計形状データとの座標が 一致するようにして、規定の検査台 130の搭載面に設けられる複数の距離センサの 位置、つまり規定の評価ポイントにおいて、被測定物 1の無重力状態における形状デ ータ laと設計形状データとのずれ量を算出して、そのずれ量が規定の範囲内である 力どうかで評価を行う。この評価は、被測定物 1が重力の影響で変形しにくい形状、 姿勢である場合に、計算機 120の計算量を少なくすることができるので適している。
[0021] なお、ステップ S4における無重力状態における 3次元形状 laの算出方法には、い くつかの手法がある力 例えば以下のような手法を採用することができる。まず、ステ ップ S1で測定された 3次元形状に対して、外力として与えられている重力の代わりに 、重力と逆向きにかつ重力と同じ大きさの力を印加することで、重力の影響を排除し た形状 (すなわち無重力状態における形状)をシミュレートし、得られた形状を「初期 形状」として設定する (ステップ S41)。その際、加えられた力によってガラス板が移動 しないようにガラス板を支持する必要があるため、上記 3点支持の位置と対応するガ ラス板の上面において、下向きにガラス板を 3点支持するものとする(図 4 (b)の仮想 ロッド 112aが相当する)。
[0022] 次 、で、この「初期形状」のガラス板を 3点支持の検査台に載せた状態を、計算機 シミュレーションにより再現する(ステップ S42)。そして、このシミュレーションによって 得られた形状と、ステップ S3で得られた実測による 3次元の形状データとを比較し (ス テツプ S43)、両者の各メッシュにおけるノード (節点)の位置が一致するようであれば 、上記再現した無重力状態の形状は妥当であるものと判断する。
[0023] 但し、一般的には両者の間に差異が生じることが多いため、シミュレーションに用い たメッシュのノード毎にどの程度の誤差が生じているかを確認し、各ノードにおける誤 差の平均が所定値以上のときは (ステップ S44)、この誤差が解消するように上記「初 期形状」を変形させ (ステップ S45)、ステップ S42に戻って再度同様の処理を行う。 もちろん、誤差の最大値が所定値を超えているかどうかに基づいて判定したり、誤差 の最小値が所定値を下回っているかどうかに基づいて判定したり、または事前に設 定した特定のノードにおける誤差に基づいてのみ判定したりしてもよい。その後、ステ ップ S44における判定結果が収束するまで、ステップ S42〜S45を繰り返し、各ノー ドにおける誤差が所定の誤差範囲に収まれば、その際の「初期形状」を「無重力状態 における 3次元形状」として決定する (ステップ S46)。上記誤差範囲をどの程度とす るかは、製品の形状、大きさ、また WIS (日本工業規格)等の規格における要求値等 に応じて適宜設定される。
[0024] 次に、撮像により被測定物の表面形状を実測する手法の詳細について説明する。
図 5は、形状検査装置の基本的構成を示す説明図である。同図に示すように、自 動車用ガラス等の鏡面を有する被測定物 1の上方に、面光源 2を設置する。面光源 2 の発光面にはカラーパタン 3を取り付ける。カラーパタン 3の被測定物 1に映る反射像 を撮像するために、主となるカラーカメラ 1つと、少なくとも 1つの副となるカラーカメラ を配置する。これらのカラーカメラは、図 1のカメラ 121に相当する。カラーカメラの数 に制限はないが、ここでは主となるカラーカメラ 5と、副となるカラーカメラ 6および 7の 合計 3台のカラーカメラを使用する。主となるカラーカメラ 5は面光源 2の内部に配置 され、カラーパタン 3に開けられた穴 4を通じて被測定物 1に映る反射像を撮像する。 副となるカラーカメラ 6および 7は、面光源 2の外側に配置され、被測定物 1に映る反 射像を撮像する。パーソナルコンピュータ等の計算機 8は、カラーカメラ 5、 6、 7と接 続されており、これらのカメラにより撮像された反射像を公知の画像処理技術を用い て解析し、被測定物 1の形状を求める。光学系および被測定物は XYZ座標系に置 かれているものとし、 Z軸を鉛直方向にとる。面光源 2の辺は X軸、 Y軸に平行である ものとする。以下においては光学系全体の配置を記述する XYZ座標系をグローバル 座標系と呼び、グローバル座標系における座標をグローバル座標と呼ぶ。
[0025] 面光源 2としては、筐体内部に複数の蛍光灯を配置し、発光面をガラス板でカバー したものを用いている。この発光面に貼付されるカラーパタン 3としては、透明または 光拡散性の榭脂フィルムにカラーパタンを印刷 (例えばインクジェット 'プリント)したも のが使用できる。カラーパタン 3は 1枚のカバーガラスの表面に貼付してもよいし、 2 枚のカバーガラスで挟むようにしてもよい。面光源 2の明るさはできる限り均一にする ことが望ましぐこのために筐体内部に入れた蛍光灯の配置を工夫する。また、カラー ノタン 3に使用される榭脂フィルムは、透明ではなく光を拡散透過させる材質のもの が望ましい。これにより面光源 2の明るさむらが軽減される。カラーカメラ 5、 6および 7 は、エリアカメラ方式であれば特に制限はな 、。
[0026] 図 6は、光学系の YZ平面での一部破断側面図であり、 3つのカラーカメラの位置、 視野の関係を示している。主となるカラーカメラ 5の姿勢は鉛直下向きであり、視野 9 の範囲で反射像を撮像する。副となるカラーカメラ 6は視野 10の範囲で反射像を撮 像し、被測定物 1上において視野 10の一部が視野 9の一部と重なるような姿勢をとつ ている。同様に副となるカラーカメラ 7も視野 11の範囲で反射像を撮像し、被測定物 1上において視野 11の一部が視野 9の一部と重なるような姿勢をとつている。これら 3 つのカラーカメラは、グローバル座標系において固定されており、よって位置および 姿勢は既知情報として得られる。
[0027] 図 7は、カラーパタン 3の説明図である。カラーパタン 3は、基本パタン 12を一単位 として、複数の基本パタンを互いに重複することなく密に並べたものである。よって、 カラーパタン 3は縦および横の何れの方向においても、基本パタン 12が周期的に現 れるパタンである。
[0028] 図 8は、基本パタン 12の詳細説明図である。基本パタン 12は、 6 X 6の微小矩形パ タンによって構成され、各微小矩形パタンは色 12aから色 12hまでの計 8色のうちの 何れかの彩色が施されている。そして、図 8に示すように基本パタン 12には、水平お よび垂直方向力もなる局所座標系が付随している。以下、基本パタン 12内部の点の 位置を示す座標を局所座標と呼ぶ。図 8に示す基本パタンの場合、局所座標の成分 は 0から 6までの無次元化された値をとる。これらの局所座標により、基本パタン 12の 内部の任意の位置を記述することができる。例えば図 8の基本パタン 12においては、 左下の点は (0, 0)、中央の点は(3, 3)、右上の点は(6, 6)を表す。局所座標の各 成分は整数に限られず例えば(2. 5, 3. 3)といった記述もできる。以下、基本パタン 12内部の点の位置を局所座標と呼ぶ。
[0029] 基本パタン 12を構成する 8色については、あら力じめ次のように色を調整する。
図 9は、基本パタンを構成する 8色をカラーカメラで撮像した際に得られる画像の赤 成分、緑成分、青成分を示す。グラフの縦軸が各色成分の強さを示す。色 12a、色 1 2b、色 12cには青成分を含まないようにし、赤成分についてはいずれも同じ強さとな るようにしている。色 12a、色 12b、色 12cの違いは、緑成分の強さにある。同様に色 12d、色 12e、色 12fは赤成分を含まないようにし、青成分については何れも同じ強さ としている。色 12d、色 12e、色 12fの違いは、緑成分の強さにある。色 12gは赤成分 、緑成分および青成分が何れも同じ強さであり、色 12hは赤成分、緑成分および青 成分のいずれも無いようにしている。なお、色 12gの赤成分、青成分の強さは、それ ぞれ色 12a、色 12b、色 12cの赤成分、および色 12d、色 12e、色 12fの青成分と同 じとする。
[0030] 基本パタン 12を構成する 8色を上記のように調整することにより、基本パタン 12の 中に、互いに直交する 2つのストライプパタンを内在させることができる。基本パタン 1 2をカラーカメラで撮像して赤成分だけに着目すると図 10 (a)のようにストライプパタン 13が現れる。同様に青成分だけに着目すると図 10 (b)のようにストライプパタン 14が 現れる。このように本実施の形態によれば、使用するカラーパタンは 1つである力 着 目する色成分を変えることにより、互いに直交する 2つのストライプパタンを得ることが できる。図 10からも明らかなように、ストライプパタン 13は H方向の局所座標に、ストラ イブパタン 14は V方向の局所座標に、それぞれ対応している。但し、ストライプパタン 13と 14は直交していることが好ましいが、その他の角度でもよぐ平行とならない範 囲の傾斜角度を選択することができる。
[0031] 次に、本発明における形状測定の原理について述べる。
図 11は、形状測定の一実施形態を示すフローチャートである。同図に示すように、 正反射の法則に基づいて、被測定物上にあら力じめ生成されたサンプリング点にお ける法線ベクトルを求め、最終的に積分計算を行うことにより、被測定物の形状が求 められる。まず、主となるカラーカメラの視野内にあるサンプリング点の法線ベクトルを 求め、その後に副となるカラーカメラの視野内にあるサンプリング点の法線ベクトルを 求める (ステップ Sl l、 S12、 S13)。さらに、副となるカラーカメラで求めた法線べタト ルに対しては、主となるカラーカメラで求めた法線ベクトルと連続性を持つように修正 を加える (ステップ S 14)。最後に法線ベクトルより得られる面の傾きを積分して被測 定物の形状を得る (ステップ S 15)。積分計算の具体的な手法については、公知の手 法を適用でき、例えば特開 2005— 345383号公報ゃ特開平 11— 211440号公報 に開示されているものを適用することができる。
[0032] 図 12は、 1つのサンプリング点に対して、法線ベクトルを求める様子を示す。ここで は主となるカラーカメラ 5を使って、法線ベクトルを求める考え方について説明する。 視点 15に位置するカラーカメラ(図示せず)から被測定物 1上のサンプリング点 16を 撮像したときに、カラーパタン 3上の参照点 17の反射像が映っていたとする。ここで、 サンプリング点 16における法線ベクトル 18を求めることを考える。サンプリング点 16 に参照点 17の反射像が映っているとき、参照点 17から発した光は、被測定物 1上の サンプリング点 16で反射された後に、カラーカメラの視点 15に到達している。正反射 の法則により、サンプリング点 16においては、光の入射角 19と反射角 20が等しい。 したがって、視点 15、反射点 16、参照点 17のグローバル座標がわかれば、法線べク トル 18を特定することができる。
[0033] 以上のように法線ベクトル 18の算出には、視点 15、サンプリング点 16、参照点 17 のグローバル座標が必要である力 S、これらを既知情報と未知情報とに分けて整理す ると次のようになる。まず、カラーカメラ 5は固定されていることから、その視点 15は既 知情報である。サンプリング点 16はこれから形状を求めようとする被測定物 1上の点 であり本来は未知情報であるが、 自動車用ガラスであれば設計形状のような近似値 を与えることができる。測定時に自動車用ガラスを置く位置も既知であるので、サンプ リング点 16は既知情報として扱うことができる。これに対して参照点 17は実際の被測 定物 1の形状に依存して変化するため、被測定物 1が変わる度に参照点 17の位置を 求めねばならない。カラーパタン 3の位置は固定されているため、参照点 17のグロ一 バル座標のうち Z成分は既知情報であるが、 XY成分は未知情報である。以上をまと めると、法線ベクトル 18を求めるのに必要な情報のうち未知情報は、参照点 17のグ ローバル座標の χγ成分であり、これを求めることが反射像解析の主目的となる。
[0034] 図 13は、 1つのサンプリング点の法線ベクトルを算出する手順を示すフローチャート である。最初にサンプリング点近傍の反射像に着目し、サンプリング点に映っている 参照点の局所座標を求める (ステップ S21)。続いて局所座標と後述する拘束条件を もとに参照点のグローバル座標を特定する (ステップ S 22)。最後に正反射の法則を 用いてサンプリング点における法線ベクトルを計算する (ステップ S23)。
[0035] ここで、図 13のフローチャートの最初のステップである参照点の局所座標算出の方 法について説明する。図 8に示したように、カラーパタン 3は基本パタン 12を周期的 に敷き詰めたパタンとなっている。したがって、いかなる参照点も、必ず基本パタン 12 の、ヽずれかの場所に位置し、その局所座標を求めることができる。
[0036] 図 14は、サンプリング点 16の近傍に映っている、基本パタン 12の反射像である。
図 14 (a)が反射像の赤成分、図 14 (b)が反射像の青成分に対応している。なお図 1 4は鏡像であるので図 14 (a)は、図 10 (a)に対して左右が入れかわっていることに注 意を要する。また自動車用ガラスは曲面であるので、一般には図 14のように歪められ たパタンが撮像される。点 21はカラーカメラ 5で捉えたサンプリング点 16の像である。 本実施の形態では、点 21近傍の反射像を解析することにより、参照点 17の局所座 標を求める。
[0037] 図 14において、局所座標を求める上で重要な情報が 3つある。それらは、
その 1 :点 21がストライプパタンの白い領域にある力 黒い領域にあるか、 その 2:近傍にあるストライプパタンの白い領域 (但し図 8における色 12gの領域は 除く)の、カラー画像における緑成分の強さ、
その 3:点 21を挟むストライプ境界までの長さである。
[0038] 図 15は、図 14の点 21の近傍をさらに拡大した画像である。図 15 (a)が反射像の赤 成分、図 15 (b)が反射像の青成分に対応している。図 15 (a)において点 21からスト ライプ境界までの長さを dO— h、 dl— hとする。但し、水平方向の局所座標が小さい ストライプ境界までの長さを dO—hとし、両境界の水平方向の局所座標のうち小さい ほうを hOとする。同様に図 15 (b)において点 21からストライプ境界までの長さを dO— v、 dl— Vとする。やはり、垂直方向の局所座標が小さいストライプ境界までの長さを d 0— Vとし、両境界の垂直方向の局所座標のうち小さいほう^ νθとする。このとき、点 2 1の局所座標は式(1)、式(2)により与えられる。
[0039] [数 1]
(点 2 1の水平方向局所座標成分) = d O_h/ (d O— h + d 1— h) + h 0 ·■ · ( 1 ) (点 2 1の垂直方向局所座標成分) d O—v, (d O v + d 1 V) + ν 0 · ·■ ( 2)
[0040] hOあるいは νθを正しく求めるために、本実施の形態においては、前記 3つの情報 のうち、その 1、その 2の情報を使って、 hOあるいは νθを正確に定める。例として hOを 特定する場合を考える。この場合、点 21が図 14 (a)において白い領域にあれば、 hO の候補は 0、 2、 4に絞られる。逆に黒い領域にあれば hOの候補は 1、 3、 5に絞られる 。さらに図 14 (a)において点 21近傍でかつ白い領域 (但し図 8における色 12gの領 域は除く)の、カラー画像における緑成分を調べることにより、 3つある hOの候補から 一つを選ぶことができる。
[0041] 以上のように、サンプリング点近傍に映る反射像を調べることにより、参照点の局所 座標を求めることができる。しかしながら、基本パタン 12はカラーパタン 3の内部に周 期的に複数配置されているため、局所座標が分力つたとしても参照点のグローバル 座標が唯一に特定されるわけではない。参照点のグロ一ノ レ座標は、前記の方法で 求めた局所座標の情報に拘束条件を付加することで特定される。拘束条件の与え方 は状況によって 3種類あるので、以下個別に説明する。表 1に 3種類の拘束条件を示 す。
[0042] [表 1]
Figure imgf000018_0001
[0043] ここで、 1つ目の拘束条件に関して説明する。
図 16は、カラーカメラ 5がサンプリング点 22を撮像した際に、参照点 23の反射像が 映っている状況を示している。ここでサンプリング点 22は、カラーカメラ 5の視野に入 るサンプリング点のうち、最初に法線ベクトルを求めるサンプリング点であるとする。図 16においてカラーパタン 3上の基準点 24は、そのグローバル座標が既知であるとす る。基準点 24はカラーパタン 3における他の点と容易に区別できる、明確な特徴を持 つていることが望ましい。例えばカラーパタン 3に空けられた穴 4 (図 5参照)の近傍の 点することが一つの方法である。あるいは図 8に示した 8色以外の色で基本パタン中 の 1区画を彩色し、その中心点を基準点 24とする方法も考えられる。参照点 23がで きるだけ基準点 24に近くなるようなサンプリング点 22を選ぶことにより、参照点 23の グローバル座標を基準点 24との位置関係力も正しく求めることができる。 [0044] サンプリング点 22の選定は、計算機シミュレーションにより行う。被測定物 1が設計 形状であると仮定し、光線追跡により各サンプリング点に対する参照点位置を予測す る。このうち参照点が最も基準点 24に近くなるサンプリング点を、サンプリング点 22と すればよい。以上のように本実施の形態だけでは、最初に法線ベクトルを計算するサ ンプリング点に対しては、グローバル座標が既知である基準点を拘束条件に法線べ タトルを算出する。
[0045] 続、て 2つめの拘束条件にっ 、て説明する。
図 17は、カラーカメラ 5がサンプリング点 25を撮像した際に、参照点 26の反射像が 映っている状況を示している。ここでサンプリング点 25は、図 16において最初に法線 ベクトルを求めたサンプリング点 22の近傍にある点とする。すでにサンプリング点 22 に映る参照点 23のグローバル座標は、前記の方法により明らかになつている。参照 点 26のグローバル座標を特定するにあたり、参照点 23を新たな拘束点とすることを 考える。サンプリング点の間隔を十分短くとれば、近傍の 2つのサンプリング点に映る 参照点 2点間の距離を、基本パタン 12のサイズ以下に抑えることができる。このとき、 参照点 26と同じ局所座標を持つ点の中で、最も参照点 23に近い点を、真の参照点 26と見なしてよい。このように近傍のサンプリング点に映る参照点位置を拘束条件と することで、法線ベクトルが算出される。サンプリング点 22を出発点にして同様な計 算を周囲に伝播させることにより、カラーカメラ 5の視野内のサンプリング点に対して 法線ベクトルを求めることができる。
[0046] 最後に 3つめの拘束条件について説明する。
図 18は、カラーカメラ 7がサンプリング点 27を撮像した際に、参照点 28の反射像が 映っている状況を示している。ここで、サンプリング点 27はカラーカメラ 5および 7の視 野が重なった領域にあるとする。サンプリング点 27はカラーカメラ 5の視野に入ってい るので、図 16、図 17を使って説明したプロセスにより、既に法線ベクトル 29が求めら れているはずである。いま、カラーカメラ 7が撮像した反射像を使ってサンプリング点 2 7における法線ベクトルをあらためて求めることを考える。そのためには参照点 28の グローバル座標が必要である力 S、本実施の形態では参照点 28のグロ一ノ レ座標を 算出するにあたり、既知の法線ベクトル 29を活用する。 [0047] 図 18において予測参照点 30は、サンプリング点 27の法線ベクトルが既知の法線 ベクトル 29に等しいと仮定した場合に、カラーカメラ 7に映る参照点の予測位置であ る。光線経路 31は、正反射の法則に基づいて算出され、光線経路 31とカラーパタン 3の交点が予測参照点 30となる。カラーカメラ 5および 7の位置、姿勢が正しく把握さ れていれば、参照点 28と同じ局所座標を持つ点の中で、最も予測参照点 30に近い 点を、真の参照点 28とみなすことができる。この結果、カラーカメラ 7の視点情報をも とにサンプリング点 28の法線ベクトルを求めることができる。以後、サンプリング点 27 を出発点として、カラーカメラ 7の視野にある他のサンプリング点の法線ベクトルを求 めることができる。その際は上述の 2つめの拘束条件を適用すればよい。
[0048] 図 18に示したように、同一のサンプリング点が複数のカラーカメラの視野に入る場 合、本実施の形態ではそれぞれのカラーカメラの画像力も法線ベクトルを求める。法 線ベクトルを求めるにはカラーカメラの視点、サンプリング点、参照点のグローバル座 標が必要であるが、現実の測定においてはこれらに誤差が含まれており、それぞれ のカラーカメラの画像力も求めた法線ベクトルは厳密に一致しない。
[0049] 図 19は、図 18におけるサンプリング点 27近傍の拡大図である。法線ベクトル 29は カラーカメラ 5の画像から求めたサンプリング点 27の法線ベクトルであり、法線べタト ル 32はカラーカメラ 7の画像から求めたサンプリング点 27の法線ベクトルである。サ ンプリング点 27の法線ベクトルは唯一であるので、本実施の形態にお!ヽては法線べ タトル 29と法線ベクトル 32の差で与えられる修正ベクトル 33を求め、カラーカメラ 7の 画像から求めた法線ベクトルを修正する。すなわちカラーカメラ 7の画像から求めた 法線ベクトルに修正ベクトル 33を加算したベクトルを正 、法線ベクトルとみなす。こ の修正ベクトルはカラーカメラ 5とカラーカメラ 7の視野が重なっている領域内のサン プリング点だけでなぐカラーカメラ 7の視野内にあるサンプリング点すべてに適用さ れる。以上の修正プロセスにより、カラーカメラ 5および 7の視野内にあるサンプリング 点には、連続的な法線ベクトル分布が形成される。
また、上記法線ベクトルの誤差の補正は次の方法も適用でき、図 18を用いて説明 する。参照点 28は、カラーカメラ 7がサンプリング点 27を撮像した際に映った点であ る。予測参照点 30は、サンプリング点 27の法線ベクトルが既知の法線ベクトル 29に 等しいと仮定した場合に、カラーカメラ 7に映る参照点の予測位置である。ここで、参 照点 28と同じ局所座標を持つ点の中で、最も予測参照点 30に近い点を、真の参照 点 28とみなし、この参照点 28と予測参照点 30とのずれを求める。この参照点と予測 参照点とのずれをカラーカメラ 5およびカラーカメラ 7の視野が重なっている領域のサ ンプリング点すベての位置で求める。求めた参照点と予測参照点とのずれが全ての 位置においてなくなるように、座標変換を施す。この座標変換はカラーカメラ 5とカラ 一力メラ 7の視野が重なっている領域内のサンプリング点だけでなぐカラーカメラ 7の 視野内にあるサンプリング点すべてに適用される。このように座標変換を施すことによ り、カラーカメラ 5の画像から求めたサンプリング点の法線ベクトルと、カラーカメラ 7の 画像から求めたサンプリング点の法線ベクトルとが一致する。以上の補正プロセスに より、カラーカメラ 5および 7の視野内にあるサンプリング点には、連続的な法線べタト ル分布が形成される。
[0050] カラーカメラ 6についてもカラーカメラ 7と同様に法線ベクトルの計算と修正を行う。こ れにより被測定物 1に生成された全てのサンプリング点に対して法線ベクトルが求まり 、それら法線ベクトルは連続的な分布を形成する。法線ベクトルカゝら得られる面の傾 きを積分することにより、被測定物 1の形状を得る。
[0051] なお、以上においては、検査台 110上で静止した状態の被測定物 1の検査につい て説明したが、本発明はこれに限られるものではない。例えば、図 20に示すように検 查台 110をベルトコンベア等の搬送手段上に設置し、検査台 110とともに搬送される 被測定物 1を撮像し検査する構成を採ることもできる。その場合、被測定物 1の両サイ ドに副のカメラ 6a、 6b、 7a、 7bを適当な傾斜角を持たせて設置することにより、曲率 の大きな被測定物(例えば自動車用リアガラス)であっても容易に撮像および検査が 可能となる。
次に、本発明の他の一実施形態について説明する。ガラス板の表面形状情報を取 得する構成は、上記の実施形態の図 1および図 2と同じであるので説明は省略し、検 查手順について説明する。
図 21は、本発明に係る検査方法の一実施形態を示すフローチャートである。図 22 (a)〜(d)は、検査手順を説明するための図である。まず、図 1の計算機 120は、被 測定物 1に関する所定の設計形状データ lc (CADデータ)に基づいて、無重力状態 における 3次元形状 Idをシミュレーションにより求める(ステップ S31、図 4 (b) )。設計 形状データ lcはデザイン形状であり、被測定物 1の設計形状データ lcにより規定の 検査台 130は設計されている。よって、被測定物 1の設計形状データ lcは、検査台 1 30に載置されて 、る状態の被測定物 1の形状そのもの(図 4 (a) )であり、この設計形 状データ lcにより計算を進める。ここで、検査台 130に載置されている状態の被測定 物 1の設計形状データ lcは重力の影響によって若干橈んでいるので、後段のシミュ レーシヨン (ステップ S32)のために、検査台 130に載置される前の被測定物 1の設計 形状データ Id (特に無重力状態における形状)を検査台 130の支持ポイントの個数 や位置に応じた橈み方を考慮して算出する。設計形状データ Idの算出方法につい ては後述する。
次いで、算出された無重力状態における設計形状データ Idに基づいて、汎用の検 查台 110aに載置された状態における設計形状データ leを算出する (ステップ S32、 図 4 (c) )。ここで、算出した設計形状データ leはハードディスクなどの記憶装置 124 に記憶される。そして、図 1の検査台 110に、被測定物 1を人手またはロボット(図示 せず)を用いて載置する (ステップ S33、図 4 (d) )。次いで、被測定物 1の上面をカメ ラ 121を用 、て撮像し、撮像した画像を計算機 120により取り込む (ステップ S 34)。 次いで、計算機 120は、画像処理により被測定物 1の輪郭形状および表面における 勾配等を検出し、被測定物 1の 3次元形状を算出して力 公知の手法により有限要 素メッシュを生成する (ステップ S35)。形状算出の詳細については前述の実施形態 と同一であるので、説明は省略する。
次 、で、記憶装置 124に記憶させて 、る算出した設計形状データ 1 eとステップ S 3 5で算出した被測定物 1の 3次元形状との比較に基づいて、形状の品質を評価する( ステップ S36)。比較は、検査台 110において被測定物 1を支持する 3点で、算出し た設計形状データ leとステップ S35で算出した被測定物 1の 3次元形状との座標が 一致するようにして、規定の評価ポイントにおいて、ステップ S35で算出した被測定 物 1の 3次元形状と算出した設計形状データ leとのずれ量を算出して、そのずれ量 が規定の範囲内であるかどうかで評価を行う。 このように本発明においては、規定の検査台 130に載置された状態における設計 形状データより汎用の検査台 110に載置された状態における設計形状データを求め ることで、設計形状データと汎用の検査台 110に載置された状態における形状デー タとの比較での評価が可能となり、製品の型式毎に検査台を用意する必要がないと いう優れた効果を奏するものである。また、ステップ S31とステップ S32の代わりに、 被測定物 1に関する所定の設計形状データ lcに基づ 、て汎用の検査台 110aに載 置された状態における設計形状データを算出するようにしてもよい。この算出方法は 、被測定物 1が重力の影響で変形しにくい形状、姿勢である場合に、計算機 120の 計算量を少なくすることができるので適して 、る。
なお、ステップ S31における無重力状態における 3次元形状の算出方法には、いく つかの手法があるが、例えば以下のような手法を採用することができる。まず、設計 形状データの 3次元形状に対して、外力として与えられている重力の代わりに、重力 と逆向きにかつ重力と同じ大きさの力を印加することで、重力の影響を排除した形状 (すなわち無重力状態における形状)をシミュレートし、得られた形状を「初期形状」と して設定する (ステップ S311)。その際、加えられた力によってガラス板が移動しない ようにガラス板を支持する必要があるため、上記規定の検査台の支持の位置と対応 するガラス板の上面において、下向きにガラス板を支持するものとする。
次いで、この「初期形状」のガラス板を規定の検査台に載せた状態を、計算機シミュ レーシヨンにより再現する(ステップ S312)。そして、このシミュレーションによって得ら れた形状と、設計形状データとを比較し (ステップ S313)、両者の各メッシュにおける ノード (節点)の位置が一致するようであれば、上記再現した無重力状態の形状は妥 当であるものと判断する。
但し、一般的には両者の間に差異が生じることが多いため、シミュレーションに用い たメッシュのノード毎にどの程度の誤差が生じているかを確認し、各ノードにおける誤 差の平均が所定値以上のときは (ステップ S314)、この誤差が解消するように上記「 初期形状」を変形させ (ステップ S315)、ステップ S312に戻って再度同様の処理を 行う。もちろん、誤差の最大値が所定値を超えているかどうかに基づいて判定したり、 誤差の最小値が所定値を下回っているかどうかに基づいて判定したり、または事前 に設定した特定のノードにおける誤差に基づいてのみ判定したりしてもよい。その後
、ステップ S314における判定結果が収束するまで、ステップ S312〜S315を繰り返 し、各ノードにおける誤差が所定の誤差範囲に収まれば、その際の「初期形状」を「 無重力状態における 3次元形状」として決定する (ステップ S316)。上記誤差範囲を どの程度とするかは、製品の形状、大きさ、また WIS (日本工業規格)等の規格にお ける要求値等に応じて適宜設定される。
実施例
[0052] 次に、図 3 (b)に示した無重力状態を再現する手法の妥当性を検証するため、コン ピュータ 'シミュレーションを行ったので、その詳細について説明する。
図 23 (a)は本発明の実施例におけるガラス板の形状モデルを示す平面図、同図( b)、 (c)はシミュレーション結果と実測値とを比較した結果を示す平面図である。
[0053] まず、同図(a)に示すように、正面視で略台形状のガラス板の形状モデルを、無数 の板曲げ要素 (正面視で四辺形かつ厚さ「0」の要素)の集合力 なる形状モデルとし 、これを用いて有限要素法によるたわみ解析を行った。その際、ガラス板の板厚を 2. 8mm、ヤング率を 70600MPa、ポアソン比を 0. 23としている。また、解析ソフトゥェ ァには、米国アバカス社のアバカス'スタンダード (ABAQUS/Standard)を用いた。
[0054] ここで、図中の黒丸印および黒三角印は、ガラス板を支持するポイントを示す。黒 丸印のポイントで 3点支持した状態のガラス板の形状を実測してから、同様に黒丸印 および黒三角印の計 6点支持したガラス板の形状を実測した。次いで、 3点支持によ つて得られたガラス板の形状を図 3(b)のステップ S41で示した「初期形状」として設定 し、図 3 (b)に示すフローを適宜繰り返して無重力状態における形状を決定した。そし て、このシミュレーションによって得られた無重力状態の形状を用いて、 6点支持した 状態をシミュレーションし、その結果と実際に検査台における 6点支持により得られた 形状とを比較し、どの程度の形状誤差があるかにっ 、て調べた。
[0055] その結果、図 23 (b)に示す結果となり、濃淡によって形状誤差を表している。同図 の左下隅においてシミュレーション結果と実測値とにおける対応するノード (メッシュ の節点)同士の誤差 (Z方向の変位)がー 0. 3mmであるのが、ガラス板の中央部近 傍で Ommとなり、右上隅に行くに連れて + 0. 2mmであることを確認した。すなわち 、面内における形状誤差は、 ±0. 3mmに収まり、概ね良好な結果となった。なお、 以上においては、誤差がない場合を「0」、基準となる一方のノードが他方のノードの 下にあるときは「一」、逆に基準となる一方のノードが他方のノードの上にあるときを「 +」の記号で表している。また、 X, Y方向の変位量は極めて微小であることから、本 実施例にぉ 、ては、 Z方向の変位にっ 、てのみ注目し形状誤差を測定した。
[0056] また、 3点支持の実測値をステップ S41における初期形状として設定し、この初期 形状に基づいて無重力状態をシミュレートし、その結果を用いて 3点支持の状態を再 度シミュレートしたところ、同図(c)に示す結果となった。すなわち、同図の左隅にお いて 0. 13mmであったものが、右隅に行くに連れて増加してガラス板の中央部近 傍で Omm、最も右端において + 0. 14mm程度となり、これについても概ね良好な結 果となった。
産業上の利用可能性
[0057] 以上説明したとおり、本発明は、自動車用窓ガラスの形状検査に好適な形状検査 方法および検査装置を提供する。また、本発明は、自動車用途に限らず、鉄道車両 、航空機、船舶、建築物等で使用される窓ガラスの検査にも適用できることは明らか である。また、ガラス板の検査のみならずその他の鏡面体、板状体およびレンズ等の 検査にも適用できる。 なお、 2005年 7月 15曰に出願された曰本特許出願 2005— 206498号の明細書 、特許請求の範囲、図面及び要約書の全内容をここに引用し、本発明の明細書の開 示として、取り入れるものである。

Claims

請求の範囲
[1] 実測用検査台に被測定物を載置する第 1のステップと、この被測定物の表面形状 に関する情報を取得する第 2のステップと、前記被測定物の表面形状に関する情報 に基づいて被測定物の無重力状態における形状データを算出する第 3のステップと 、前記被測定物の無重力状態における形状データに基づいて被測定物が所定の検 查台に載置された状態における被測定物の形状データを算出し直し、この算出し直 された被測定物の形状データに基づいて前記被測定物の品質を判定する第 4のス テツプとを有することを特徴とする形状検査方法。
[2] 前記被測定物の無重力状態における形状データは、実測によって得られた前記被 測定物の形状データに対し、重力と逆向の力を印カロした状態を計算機シミュレーショ ンにより再現することで得られる請求項 1に記載の形状検査方法。
[3] 前記第 4のステップの代わりに、前記第 3のステップで算出された前記被測定物の 無重力状態における形状データと、前記被測定物に関する所定の設計形状データ との比較に基づいて前記被測定物の品質を判定するステップを有する請求項 1また は 2に記載の形状検査方法。
[4] 前記第 2のステップは、前記被測定物を撮像し、撮像した画像より表面形状データ を算出する請求項 1〜3の何れか一項に記載の形状検査方法。
[5] 所定の検査台に載置された状態における被測定物の設計形状データに基づいて 無重力状態における被測定物の設計形状データを算出する第 1のステップと、無重 力状態における前記被測定物の設計形状データに基づいて被測定物が実測用検 查台に載置された状態における被測定物の設計形状データを算出する第 2のステツ プと、前記実測用検査台に前記被測定物を載置する第 3のステップと、この被測定物 の表面形状に関する情報を取得する第 4のステップと、前記実測用検査台に載置さ れた状態における被測定物の設計形状データと前記被測定物の表面形状に関する 情報とに基づいて前記被測定物の品質を判定する第 5のステップとを有することを特 徴とする形状検査方法。
[6] 前記被測定物の無重力状態における設計形状データは、所定の検査台に載置さ れた状態の前記被測定物の設計形状データに対し、重力と逆向の力を印カロした状 態を計算機シミュレーションにより再現することで得られる請求項 5に記載の形状検 查方法。
[7] 前記第 1のステップと前記第 2のステップの代わりに、所定の検査台に載置された 状態における被測定物の設計形状データに基づいて被測定物が実測用検査台に 載置された状態における被測定物の設計形状データを算出するステップを有する請 求項 5または 6に記載の形状検査方法。
[8] 前記第 4のステップは、前記被測定物を撮像し、撮像した画像より表面形状データ を算出する請求項 5〜7の何れか一項に記載の形状検査方法。
[9] 前記被測定物は、ガラス板である請求項 1〜8の何れか一項に記載の形状検査方 法。
[10] 前記ガラス板は、自動車用窓ガラスである請求項 9に記載の形状検査方法。
[11] 被測定物を載置するための実測用検査台と、
この被測定物の表面形状に関する情報を取得するカメラと、
前記被測定物の表面形状に関する情報に基づいて無重力状態における前記被測 定物の形状データを算出し、前記被測定物の無重力状態における形状データに基 づいて、前記被測定物が所定の検査台に載置された状態における前記被測定物の 形状データを算出し直し、この算出し直された形状データに基づいて前記被測定物 の品質を判定する計算機と
を備えたことを特徴とする形状検査装置。
[12] 前記計算機は、前記被測定物が所定の検査台に載置された状態における前記被 測定物の形状データを算出し直し、この算出し直された形状データに基づいて前記 被測定物の品質を判定する代わりに、前記算出された前記被測定物の無重力状態 における形状データと、前記被測定物に関する所定の設計形状データとの比較に基 づ 、て前記被測定物の品質を判定する請求項 11に記載の形状検査装置。
[13] 被測定物を載置するための実測用検査台と、
この被測定物の表面形状に関する情報を取得するカメラと、
所定の検査台に載置された状態の被測定物の設計形状データに基づいて無重力 状態における被測定物の設計形状データを算出し、無重力状態における前記被測 定物の設計形状データに基づいて被測定物が実測用検査台に載置された状態に おける被測定物の設計形状データを算出し、この算出した設計形状データと前記被 測定物の表面形状に関する情報とに基づいて前記被測定物の品質を判定する計算 機と
を備えたことを特徴とする形状検査装置。
[14] 前記計算機は、所定の検査台に載置された状態の被測定物の設計形状データに 基づいて無重力状態における被測定物の設計形状データを算出し、無重力状態に おける前記被測定物の設計形状データに基づいて被測定物が実測用検査台に載 置された状態における被測定物の設計形状データを算出する代わりに、所定の検査 台に載置された状態における被測定物の設計形状データに基づいて被測定物が実 測用検査台に載置された状態における被測定物の設計形状データを算出する請求 項 13に記載の形状検査装置。
[15] 前記実測用検査台は、前記被測定物を支持する第 1、第 2および第 3の支持部を 備えて 、る請求項 11〜14の何れか一項に記載の形状検査装置。
PCT/JP2006/314103 2005-07-15 2006-07-14 形状検査方法および装置 WO2007010875A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2006800254251A CN101223414B (zh) 2005-07-15 2006-07-14 形状检查方法及装置
JP2007526002A JP4924426B2 (ja) 2005-07-15 2006-07-14 形状検査方法および装置
EP06781128.1A EP1906139B1 (en) 2005-07-15 2006-07-14 Shape inspection method and device
KR1020077028291A KR101242984B1 (ko) 2005-07-15 2006-07-14 형상 검사 방법 및 장치
US12/014,409 US7589844B2 (en) 2005-07-15 2008-01-15 Shape inspection method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-206498 2005-07-15
JP2005206498 2005-07-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/014,409 Continuation US7589844B2 (en) 2005-07-15 2008-01-15 Shape inspection method and apparatus

Publications (1)

Publication Number Publication Date
WO2007010875A1 true WO2007010875A1 (ja) 2007-01-25

Family

ID=37668756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/314103 WO2007010875A1 (ja) 2005-07-15 2006-07-14 形状検査方法および装置

Country Status (5)

Country Link
EP (1) EP1906139B1 (ja)
JP (1) JP4924426B2 (ja)
KR (1) KR101242984B1 (ja)
CN (1) CN101223414B (ja)
WO (1) WO2007010875A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009102490A1 (en) * 2008-02-15 2009-08-20 Pilkington Group Limited Method of determination of glass surface shape and optical distortion by reflected optical imaging
JP2010054283A (ja) * 2008-08-27 2010-03-11 Sumitomo Heavy Ind Ltd 形状変化測定装置及び方法
WO2010090227A1 (ja) 2009-02-03 2010-08-12 旭硝子株式会社 ガラス板の品質検査方法及び品質検査プログラム
JP2017522566A (ja) * 2014-07-24 2017-08-10 エージーシー グラス ユーロップAgc Glass Europe 強化ガラスパネルに形成された破砕パターンを撮像するための方法および設備
JP2019521062A (ja) * 2016-05-23 2019-07-25 コーニング インコーポレイテッド ガラスシートの無重力形状を予測する方法、及び無重力形状に基づくガラスシートの品質を管理する方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031345B2 (en) 2009-05-29 2011-10-04 Perceptron, Inc. Hybrid sensor
US7995218B2 (en) 2009-05-29 2011-08-09 Perceptron, Inc. Sensor system and reverse clamping mechanism
US8243289B2 (en) 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
FR2946549B1 (fr) * 2009-06-11 2014-09-19 Eads Europ Aeronautic Defence Procede de mesurage et de fabrication d'un tube.
KR20110021091A (ko) * 2009-08-25 2011-03-04 현대중공업 주식회사 선박블록 형상 및 면적 측정장치
KR20110026910A (ko) * 2009-09-09 2011-03-16 현대중공업 주식회사 선박블록 운영관리장치
US9031813B2 (en) * 2010-08-27 2015-05-12 Corning Incorporated Methods and apparatus for estimating gravity-free shapes
JP6420537B2 (ja) * 2013-12-10 2018-11-07 株式会社ミツトヨ 多関節型三次元測定装置
CN104567717B (zh) * 2015-01-04 2017-10-27 浙江理工大学 用于快速获取文胸模杯三维图像的扫描装置
CN114322835A (zh) * 2022-01-05 2022-04-12 吉林大学 一种汽车天窗玻璃曲率检测装置与方法
CN115900568A (zh) * 2022-12-29 2023-04-04 资阳市博祥科技有限责任公司 一种检测异形玻璃盖板产品弧边高度的冶具

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242103A (ja) 1991-01-16 1992-08-28 Asahi Glass Co Ltd 板状材の曲率検査装置及び曲率検査方法
JPH11211440A (ja) 1998-01-27 1999-08-06 Fujitsu Fip Corp 三次元形状復元装置及び方法並びに三次元形状復元プログラムを記録したコンピュータ読取り可能な記録媒体
JP2000131047A (ja) * 1998-10-21 2000-05-12 Nkk Corp 板状物品の形状測定方法
JP2000146565A (ja) * 1998-11-05 2000-05-26 Nkk Corp 板状物品の形状測定方法
JP2003344041A (ja) * 2002-05-27 2003-12-03 Nissan Motor Co Ltd ワーク形状評価装置およびその方法ならびにそのプログラム
JP2005345383A (ja) 2004-06-04 2005-12-15 Asahi Glass Co Ltd 表面形状の検査方法および検査装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4870879B2 (ja) 2001-07-19 2012-02-08 岐阜プラスチック工業株式会社 ごみ箱
CN2622666Y (zh) * 2003-05-21 2004-06-30 上海申模模具制造有限公司 一种汽车玻璃检验夹具

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242103A (ja) 1991-01-16 1992-08-28 Asahi Glass Co Ltd 板状材の曲率検査装置及び曲率検査方法
JPH11211440A (ja) 1998-01-27 1999-08-06 Fujitsu Fip Corp 三次元形状復元装置及び方法並びに三次元形状復元プログラムを記録したコンピュータ読取り可能な記録媒体
JP2000131047A (ja) * 1998-10-21 2000-05-12 Nkk Corp 板状物品の形状測定方法
JP2000146565A (ja) * 1998-11-05 2000-05-26 Nkk Corp 板状物品の形状測定方法
JP2003344041A (ja) * 2002-05-27 2003-12-03 Nissan Motor Co Ltd ワーク形状評価装置およびその方法ならびにそのプログラム
JP2005345383A (ja) 2004-06-04 2005-12-15 Asahi Glass Co Ltd 表面形状の検査方法および検査装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1906139A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009102490A1 (en) * 2008-02-15 2009-08-20 Pilkington Group Limited Method of determination of glass surface shape and optical distortion by reflected optical imaging
JP2011512533A (ja) * 2008-02-15 2011-04-21 ピルキングトン・グループ・リミテッド 反射光学画像法によるガラス表面形状及び光学歪の測定方法
US8415648B2 (en) 2008-02-15 2013-04-09 Pilkington Group Limited Method of determination of glass surface shapes and optical distortion by reflected optical imaging
JP2010054283A (ja) * 2008-08-27 2010-03-11 Sumitomo Heavy Ind Ltd 形状変化測定装置及び方法
WO2010090227A1 (ja) 2009-02-03 2010-08-12 旭硝子株式会社 ガラス板の品質検査方法及び品質検査プログラム
JP5403375B2 (ja) * 2009-02-03 2014-01-29 旭硝子株式会社 ガラス板の品質検査方法及びガラス板の形状測定方法
US8793089B2 (en) 2009-02-03 2014-07-29 Asahi Glass Company, Limited Method for inspecting quality of glass plate
JP2017522566A (ja) * 2014-07-24 2017-08-10 エージーシー グラス ユーロップAgc Glass Europe 強化ガラスパネルに形成された破砕パターンを撮像するための方法および設備
JP2019521062A (ja) * 2016-05-23 2019-07-25 コーニング インコーポレイテッド ガラスシートの無重力形状を予測する方法、及び無重力形状に基づくガラスシートの品質を管理する方法
JP7101622B2 (ja) 2016-05-23 2022-07-15 コーニング インコーポレイテッド ガラスシートの無重力形状を予測する方法、及び無重力形状に基づくガラスシートの品質を管理する方法
US11614323B2 (en) 2016-05-23 2023-03-28 Corning Incorporated Method of predicting gravity-free shape of glass sheet and method of managing quality of glass sheet based on gravity-free shape

Also Published As

Publication number Publication date
CN101223414A (zh) 2008-07-16
EP1906139B1 (en) 2015-11-04
CN101223414B (zh) 2011-05-04
JP4924426B2 (ja) 2012-04-25
EP1906139A1 (en) 2008-04-02
KR101242984B1 (ko) 2013-03-12
KR20080025369A (ko) 2008-03-20
EP1906139A4 (en) 2011-02-16
JPWO2007010875A1 (ja) 2009-01-29

Similar Documents

Publication Publication Date Title
JP4924426B2 (ja) 形状検査方法および装置
US7589844B2 (en) Shape inspection method and apparatus
KR101595547B1 (ko) 검사방법
CN111556953B (zh) 用于测量多个待评估材料的中凹表面和参考材料的中凹表面之间的几何偏差的方法
JPWO2004013572A1 (ja) 湾曲形状検査方法および装置
JP4613626B2 (ja) 鏡面形状測定方法および装置並びに検査方法および装置
JP5403375B2 (ja) ガラス板の品質検査方法及びガラス板の形状測定方法
CN112505663B (zh) 用于多线激光雷达与相机联合标定的标定方法
CN109945782A (zh) 超长白车身关键位置检测方法
Wang et al. Distortion correction in surface defects evaluating system of large fine optics
CN112884743A (zh) 检测方法及装置、检测设备和存储介质
JP2004145674A (ja) プレス曲げ成形型の型面の設計方法
US7899236B2 (en) Evaluation of optical distortion in a transparency
CN115222728A (zh) 基于视觉技术的屏幕检测方法、装置和计算机设备
JPH0623992B2 (ja) 板ガラスの検査方法
CN115165047A (zh) 一种同步测量重量与重心的电子天平
JP2003510568A (ja) パターン比較によるlcd検査方法およびlcd検査装置
CN114877812B (zh) 一种笔记本外壳dh自动检测设备及其使用方法
JP3302078B2 (ja) 自動車のウインドシールドの検査方法
WO2022115928A1 (pt) Métodos e sistemas para a inspeção de qualidade de materiais e de superfícies tridimensionais em ambiente virtual
CN112927305A (zh) 一种基于远心度补偿的几何尺寸精密测量方法
CN116481777A (zh) 光学元件检测系统、检测方法及应用
CN112950563A (zh) 检测方法及装置、检测设备和存储介质
JP2002312406A (ja) 自動車のウインドシールドの検査システム
CN117949383A (zh) 一种全适用视觉检测平台及检测方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680025425.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007526002

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020077028291

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 217/KOLNP/2008

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006781128

Country of ref document: EP