WO2016125797A1 - 形状評価方法および形状評価装置 - Google Patents

形状評価方法および形状評価装置 Download PDF

Info

Publication number
WO2016125797A1
WO2016125797A1 PCT/JP2016/053074 JP2016053074W WO2016125797A1 WO 2016125797 A1 WO2016125797 A1 WO 2016125797A1 JP 2016053074 W JP2016053074 W JP 2016053074W WO 2016125797 A1 WO2016125797 A1 WO 2016125797A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
error
change rate
normal direction
evaluation
Prior art date
Application number
PCT/JP2016/053074
Other languages
English (en)
French (fr)
Inventor
佐藤 隆太
友樹 佐藤
光成 尾田
野生 中山
Original Assignee
国立大学法人神戸大学
株式会社牧野フライス製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人神戸大学, 株式会社牧野フライス製作所 filed Critical 国立大学法人神戸大学
Priority to US15/543,181 priority Critical patent/US10775166B2/en
Priority to EP16746628.3A priority patent/EP3255379B1/en
Priority to CN201680008499.8A priority patent/CN107209011B/zh
Publication of WO2016125797A1 publication Critical patent/WO2016125797A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/30Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32186Teaching inspection data, pictures and criteria and apply them for inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present invention relates to an object shape evaluation method and a shape evaluation apparatus.
  • the quality of the surface of the workpiece after machining with a machine tool is subject to evaluation.
  • the quality of the surface affects the aesthetics of the surface when viewed by a person, as well as the design properties when viewed by a person. For example, if the surface quality is poor, lines and patterns may be seen in undesired portions.
  • the shape of the surface of the mold is transferred to many products to be manufactured. For this reason, the shape of the surface of the mold is important, and it is preferable to increase the quality when viewed by a person.
  • Such surface quality can be evaluated by measuring surface roughness or the like with a measuring instrument.
  • a method for evaluating the surface quality a method for evaluating the surface quality based on an image obtained by photographing the surface of an object is known.
  • a method is known in which image data is generated by photographing the surface of an object, a luminance change obtained from the image data is subjected to frequency analysis, and evaluation is performed based on frequency components that can be visually recognized by humans (Patent Literature). 1 and Patent Document 2).
  • the surface may feel rough when viewed by a person even though the evaluation of the surface roughness is within an allowable range. Or, there may be a case where an undesired broken line or the like appears in the workpiece after processing and is away from the desired design.
  • the surface may appear beautiful to the human eye even though it is outside the allowable range in the evaluation of the surface roughness. The quality when such a person sees is called surface quality.
  • the evaluation of the surface quality may not be consistent with the evaluation of the surface roughness or the like of the conventional determination method.
  • An object of the present invention is to provide a shape evaluation method and a shape evaluation apparatus that can evaluate the surface quality of an object visually felt by a person.
  • the shape evaluation method of the present invention is a shape evaluation method for evaluating the shape of the surface of an object, the step of storing design data in which the design shape at the time of designing the object is set, and the object of evaluation of the object
  • a visible error detection step for detecting a visible shape error from the calculated shape errors based on predetermined visual characteristic data, and a step for identifying a position where the visible shape error occurs Including.
  • the shape error calculating step includes a step of calculating an error of the normal direction change rate as the shape error by subtracting the normal direction change rate of the design shape from the normal direction change rate of the shape to be evaluated. It is preferable to include.
  • the visual characteristic data includes the first visual characteristic data related to the spatial frequency and the second visual characteristic data related to the magnitude of the error in the normal direction change rate. Removing a spatial frequency component that cannot be visually recognized from an error in the normal direction change rate based on the visual characteristic data, and a normal direction change rate that is visible based on the second visual characteristic data Determining whether or not there is an error.
  • the first visual characteristic data is a spatial frequency set based on a boundary at which a person can recognize a change in shape when the first test object having a shape for evaluating visual resolution on the surface is viewed.
  • the second visual characteristic data includes a determination value of the boundary on which a change in shape can be recognized when a person sees a second test object having a shape that evaluates the visibility limit of the normal direction change rate on the surface.
  • the determination value of the error in the normal direction change rate set based on the error may be included.
  • the first test object has a surface shape having streaky irregularities whose intervals are gradually narrowed
  • the second test object has a ridge line whose normal direction changes on the surface.
  • the normal direction change rate at the ridgeline may have a shape that continuously changes along the direction in which the ridgeline extends.
  • the shape evaluation apparatus of the present invention is a shape evaluation apparatus for evaluating the shape of the surface of an object, and includes a design data storage unit that stores design data in which a design shape at the time of designing the object is set, An evaluation target data storage unit that stores evaluation target data in which an evaluation target shape that is an evaluation target is set, a shape error calculation unit that calculates a shape error based on the design shape and the evaluation target shape, and a shape error calculation unit A visible error detector for detecting a visible shape error from the calculated shape error based on the calculated shape error and predetermined visual characteristic data, and a visible shape error occurs. And a position specifying unit for specifying the position.
  • the visual characteristic data includes the first visual characteristic data related to the spatial frequency and the second visual characteristic data related to the magnitude of the shape error
  • the shape error calculation unit calculates the error of the change rate of the shape.
  • the visible error detection unit is configured to remove, based on the first visual characteristic data, a spatial frequency component that cannot be visually recognized from an error in the shape change rate;
  • An error determination unit that determines whether there is an error in the change rate of the visible shape based on the second visual characteristic data.
  • the present invention it is possible to provide a shape evaluation method and a shape evaluation device that can evaluate the quality of the surface of an object visually felt by a person.
  • FIG. 1 shows a block diagram of a shape evaluation apparatus in the present embodiment.
  • an object to be evaluated is referred to as an object.
  • the shape evaluation apparatus compares the shape of the object after processing with the shape of the object at the time of design.
  • the shape evaluation apparatus 10 is an apparatus that evaluates the shape of the surface of an object. Examples of the object to be evaluated include industrial products such as molds, machine parts, automobile bodies, and articles that require design.
  • the shape evaluation apparatus 10 is composed of, for example, an arithmetic processing apparatus including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like connected to each other via a bus.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the design data 25 and the evaluation object data 26 are input to the shape evaluation apparatus 10 in the present embodiment.
  • the shape of the object to be processed is determined by a CAD (Computer Aided Design) apparatus or the like.
  • CAD Computer Aided Design
  • a design shape that is the shape of the object at the time of design is set.
  • the evaluation target data 26 is set with an evaluation target shape that is a shape to be evaluated of the target object.
  • shape data after processing the object can be adopted.
  • virtual shape data obtained by a simulation simulating a machining process can be used.
  • the evaluation object data 26 may be shape data in which the shape of the surface after the object is actually processed is set.
  • the design data 25 and the evaluation target data 26 can include two-dimensional coordinate values related to the surface shape or three-dimensional coordinate values related to the surface shape.
  • the design data 25 and the evaluation object data 26 can include information on a normal vector related to the surface shape or information on a normal direction change rate.
  • coordinate data including two-dimensional coordinate values will be exemplified and described as the design data 25 and the evaluation target data 26.
  • the shape evaluation apparatus 10 includes a data storage unit 11 that stores design data 25 and evaluation target data 26.
  • the data storage unit 11 functions as a design data storage unit that stores design data 25.
  • the data storage unit 11 functions as an evaluation target data storage unit that stores the evaluation target data 26.
  • the shape evaluation apparatus 10 includes a shape error calculation unit 12.
  • the shape error calculation unit 12 calculates an error of the shape set in the evaluation object data 26 with respect to the shape set in the design data 25. In other words, the shape error calculation unit 12 calculates a shape error that is an error between the design shape and the evaluation target shape.
  • the shape evaluation device 10 includes a visible error detection unit 15.
  • the shape error calculated by the shape error calculation unit 12 is input to the visible error detection unit 15.
  • the visually recognizable error detector 15 detects a shape error that can be identified by a person based on the shape error calculated by the shape error calculator 12 and predetermined visual characteristic data. When the shape error is large, the observer can identify that the evaluation target shape is different from the design shape. However, when the shape error is small, the observer cannot identify.
  • the visually recognizable error detection unit 15 detects a shape error that affects vision from the shape error calculated by the shape error calculation unit 12.
  • the shape evaluation device 10 includes a position specifying unit 18.
  • the position specifying unit 18 receives information on the visible shape error detected by the visible error detecting unit 15.
  • the position specifying unit 18 specifies a position where a visually recognizable shape error has occurred in the object.
  • the shape evaluation apparatus 10 includes an output unit 19.
  • an apparatus configured to transmit an evaluation result to an operator can be employed.
  • the output unit 19 of the present embodiment is a display unit that displays a shape evaluation result.
  • the display unit can display a position where the shape error of the object exists when a visible shape error exists. Or the output part 19 may be formed so that an evaluation result may be sent to another apparatus.
  • FIG. 2 shows a flowchart of the shape evaluation method in the present embodiment.
  • the control shown in FIG. 2 is performed by the shape evaluation apparatus 10.
  • an error in the normal direction change rate is calculated as a shape error.
  • the error in the normal direction change rate corresponds well to the visual effect when the observer sees the object.
  • the shape error calculation unit 12 performs a shape error calculation step of calculating a shape error that is an error between the design shape and the evaluation target shape.
  • the shape error calculation unit 12 includes a change rate calculation unit 13 and a change rate error calculation unit 14.
  • step 81 the change rate calculation unit 13 calculates the normal direction change rate at a predetermined point on the surface of the object in the design shape and the evaluation object shape.
  • step 82 the change rate error calculation unit 14 calculates an error of the evaluation target shape with respect to the design shape based on the normal direction change rate calculated by the change rate calculation unit 13.
  • FIG. 3 is a schematic cross-sectional view for explaining the normal direction change rate in the design shape and the shape to be evaluated.
  • the design data 25 and the evaluation object data 26 include two-dimensional coordinate values.
  • the object 40 is cut along a plane parallel to the X axis and the Z axis.
  • a normal vector can be set for each predetermined interval on the surface of the object 40.
  • the object 40 is cut at a predetermined interval on a plane parallel to the X axis and the Z axis. By setting a normal vector at each predetermined interval on each cut surface, the entire surface of the object can be evaluated.
  • a set point 41a is set on the surface of the design-shaped object 40 at predetermined intervals.
  • set points 41b are set at predetermined intervals on the surface of the object 40 having the shape to be evaluated.
  • the positions of the plurality of set points 41b correspond to the positions of the plurality of set points 41a.
  • a normal vector n i perpendicular to the surface inclination is set.
  • the normal vector ni is a normal vector of the i-th set point 41a.
  • An angle ⁇ i in the normal direction can be set for the normal vector n i .
  • the angle with respect to the Z axis is set to the angle ⁇ i in the normal direction.
  • a normal vector n ir perpendicular to the surface inclination is set at the set point 41b of the evaluation target shape.
  • the angle ⁇ ir in the normal direction can be set.
  • the angle with respect to the Z axis is set to the angle ⁇ ir in the normal direction.
  • FIG. 4 is a schematic diagram for explaining a method of calculating the angle in the normal direction from the coordinate data.
  • FIG. 4 illustrates the design shape.
  • the design shape of the present embodiment is set by coordinate values.
  • the coordinate values of the i-th set point 42 and the (i + 1) -th set point 43 are known. Based on the coordinate values of these two set points 42 and 43, the vector a i can be set.
  • a vector a i is a vector from the set point 42 toward the set point 43.
  • a vector perpendicular to the vector a i can be set as the normal vector n i .
  • the angle ⁇ i in the normal direction at this time can be calculated by the following equation (1).
  • the angle ⁇ i in the normal direction can be calculated for the i-th set point of the design shape.
  • the angle ⁇ ir in the normal direction can be calculated for the i-th set point 41b of the evaluation target shape.
  • the change rate calculation unit 13 calculates the normal direction change rate at the set points 41a and 41b.
  • the normal direction change rate is the change rate of the angle in the normal direction between adjacent set points. For example, the rate of change between the angle ⁇ i in the normal direction and the angle ⁇ i + 1 in the normal direction.
  • the normal direction change rate can be calculated by the following equation (2).
  • the following equation (2) represents the normal direction change rate at the i-th set point 41a of the design shape.
  • the normal direction change rate of the shape to be evaluated can be calculated by the same method.
  • the change rate error calculation unit 14 calculates an error in the normal direction change rate based on the calculated normal direction change rate of the design shape and the normal direction change rate of the evaluation target shape. .
  • the error in the normal direction change rate can be calculated by subtracting the normal direction change rate of the design shape from the normal direction change rate of the shape to be evaluated.
  • the error in the normal direction change rate as the shape error can be calculated by the following equation (3).
  • the visible error detection unit 15 performs a visible error detection step of detecting a visible shape error from the calculated shape errors.
  • the visually recognizable error detection unit 15 detects an error that can be visually recognized by a person based on the shape error calculated in the shape error calculation step and predetermined visual characteristic data.
  • the visible error detection unit 15 includes a spatial frequency processing unit 16 and an error determination unit 17.
  • the visual characteristic data includes first visual characteristic data related to the spatial frequency and second visual characteristic data related to the magnitude of the error in the normal direction change rate.
  • the spatial frequency processing unit 16 performs a process of removing a spatial frequency component that cannot be visually recognized from an error in the normal direction change rate.
  • a person cannot recognize the unevenness. That is, when the spatial frequency of the unevenness becomes high, a person cannot distinguish the unevenness appearing on the surface.
  • the spatial frequency of the shape error increases, a person cannot discriminate the difference in the shape to be evaluated from the design shape.
  • the spatial frequency processing unit 16 removes a high spatial frequency component that exceeds such a visual recognition limit.
  • the first visual characteristic data is used.
  • the first visual characteristic data is determined in advance by experiments.
  • the first visual characteristic data will be described.
  • the first test object having a shape for evaluating the visual resolution on the surface is used.
  • the first visual characteristic data includes a spatial frequency determination value set based on a boundary where a change in shape can be recognized when a person looks at the first test object.
  • FIG. 5 shows a perspective view of the first test object for setting the determination value of the spatial frequency.
  • the first test object 31 is formed in a rectangular parallelepiped shape.
  • the first test object 31 has streak-like irregularities whose intervals are gradually narrowed on the surface.
  • a plurality of recesses 32 are formed on the surface of the first test object 31 so as to extend in the X-axis direction.
  • the recess 32 is formed in an arc shape in cross section.
  • the concave portion 32 gradually becomes shallower toward the positive side in the Y-axis direction as indicated by an arrow 91.
  • a streak 33 is formed between the recesses 32 adjacent to each other.
  • the plurality of muscles 33 extend along the X-axis direction.
  • the plurality of lines 33 are formed to be parallel to each other.
  • the interval between the streaks 33 is gradually narrowed toward the positive side in the Y-axis direction as indicated by an arrow 91.
  • the concave portion 32 is formed by moving the ball end mill in the direction indicated by the arrow 92.
  • a plurality of recesses 32 are formed using the same ball end mill. At this time, it forms so that the depth of the some recessed part 32 may change gradually. That is, the concave portion 32 is formed by gradually changing the pick feed amount when processing with the ball end mill.
  • FIG. 6 shows a graph for explaining the relationship between the position of the Y-axis and the muscle interval in the first test object. It can be seen that the larger the position of the Y axis, the narrower the interval between the streaks 33 becomes. In this example, the interval of the streaks 33 changes in a quadratic function.
  • the spatial frequency is a frequency related to the length. The spatial frequency can be defined as the reciprocal of the length as shown in the following equation (4).
  • the reciprocal of the interval between the muscles 33 can be defined as the spatial frequency.
  • the spatial frequency increases as it proceeds in the direction indicated by the arrow 91.
  • the first test object 31 is covered with, for example, a white curtain, and light is irradiated from various directions so that there is no reflection. Then, the observer observes the first test object 31 from directly above. The observer can confirm a plurality of muscles 33 in an area where the distance between the muscles 33 is large. However, when the interval between the streaks 33 is reduced, a plurality of streaks 33 cannot be recognized. The point at which the muscle 33 cannot be recognized is the human visual resolution.
  • the first test object 31 has a shape for evaluating the visual resolution.
  • the pick feed amount is changed in an exponential function from 0.45 mm to 0.11 mm.
  • the visual resolution is expressed as a viewing angle. The viewing angle depends on the size of the object and the distance from the object and the viewpoint. For this reason, the space
  • the visual acuity 1.0 is a visual angle of 1/60 degrees in visual resolution.
  • the observer observes the first test object from a predetermined distance.
  • the observer designates the position of the Y axis at which the pattern of the surface stripe 33 cannot be confirmed.
  • the position of the Y axis at this point is measured by a measuring instrument.
  • the interval between the streaks 33 is determined.
  • the spatial frequency of the viewer's visual limit can be determined.
  • the spatial frequency at the visibility limit is measured by a plurality of observers.
  • the average value of the spatial frequency of the visual recognition limit of several observers is calculated. This average value is set as a spatial frequency determination value.
  • FIG. 7 shows a graph of the results of observation of the first test object.
  • the evaluation result at the time of observing the 1st test object 31 from the distance of 25 cm with the brightness in a normal office is shown.
  • the visual resolution varies depending on the observer.
  • the average visual resolution is 0.27 mm, and the viewing angle is 0.07 degrees. That is, when the interval between the streaks 33 becomes 0.27 mm, it can be determined that many people cannot distinguish the pattern of the streaks 33.
  • the spatial frequency at the visibility limit at this time is 1 / 0.27 [1 / mm], and this value is adopted as the spatial frequency determination value.
  • the average value of a plurality of observers is adopted as the interval at which the pattern of the streaks 33 becomes invisible.
  • the present invention is not limited to this form, and the results of the observer can be statistically processed. .
  • an interval obtained by adding a predetermined value to the average value of the measurement results of the observer may be employed.
  • the visual resolution can be set quantitatively. Further, the visual resolution can be set according to the type of person observing the object. The visual resolution is determined by the size of the photoreceptor cells of the human retina and the refractive index of the eyeball. For this reason, it is considered that large individual differences are unlikely to occur. However, for example, since the focal length that is most easily seen differs between a nearsighted person and a farsighted person, the visual resolution may differ when viewing an object at the same distance.
  • the visual resolution set by the child's observer can be used for the product used by the child, and the visual resolution set by the old person's observer can be used for the product used by the elderly.
  • the surface quality of an actual product can be improved by selecting the type of person who actually observes the object as an observer and setting the visual resolution.
  • the visual resolution depends on the distance from the object. For this reason, when the measurement by the observer is performed, it is preferable to perform the measurement at a distance corresponding to the distance when the person sees the actual product.
  • the first test object is not limited to the above form, and any test object for setting the visual resolution can be adopted.
  • the spacing between the stripes may be linearly changed along the Y-axis direction.
  • the streak pattern is formed in a straight line when viewed in plan, but the present invention is not limited to this form, and may be formed in a curved shape when viewed in plan.
  • the first test object of the present embodiment is formed using a ball end mill.
  • the sectional shape of the recess changes.
  • the inventors created a plurality of first specimens using a plurality of ball end mills having different tool diameters. During the period of making one first test article, the same ball end mill was used without changing the ball end mill. As a result, it is known that the visual resolution of the observer is almost constant even when the tool diameter of the ball end mill is different.
  • the spatial frequency processing unit 16 removes the spatial frequency component exceeding the visibility limit from the error in the normal direction change rate.
  • a known filter such as a low-pass filter can be used as a method for removing a component having a spatial frequency exceeding the visual recognition limit.
  • the normal direction change rate error is Fourier transformed, and a frequency component larger than the visual recognition limit is removed from the result of the Fourier transformation. Thereafter, by performing inverse Fourier transform, it is possible to obtain an error in the change rate of the normal direction in which the spatial frequency component that cannot be visually recognized is removed.
  • a desired high frequency component can be removed by calculating an average value of errors in the normal direction change rate using a plurality of set points before and after each set point 41b. .
  • the average error in the normal direction change rate at the i-th set point is the error in the normal direction change rate from which the high-frequency component is removed at the i-th set point.
  • the error of the normal direction change rate from which the high frequency component is removed can be expressed by the following equation (5).
  • the number N of set points for calculating the average value E ivis can be calculated based on the spatial frequency of the visibility limit and the interval between the set points.
  • the number N of set points for calculating the average value E ivis can be calculated by the following equation (6).
  • the vision recognizes the contrast of the surface of the object, that is, the change in luminance.
  • the luminance of the surface of the object is determined by the relationship between the surface orientation, the light source, and the viewpoint position.
  • the change in luminance of the surface of the object depends on the change in the normal direction of the surface.
  • the contrast that can be visually recognized by humans that is, the rate of change in luminance can be evaluated by replacing it with the rate of change in the normal direction.
  • step 84 error determination unit 17 determines whether or not a normal direction change rate error that can be visually recognized exists based on the second visual characteristic data. Perform the process. If the error in the normal direction change rate is larger than the determination value, the person recognizes that the evaluation object shape is different from the design shape. In other words, it can be determined that the evaluation target shape includes a portion that is recognized to be different from the design shape.
  • the second visual characteristic data is data relating to the magnitude of the error in the normal direction change rate.
  • the second visual characteristic data includes a normal direction change rate error determination value set based on a boundary where a change in shape can be recognized when a person looks at the second test object.
  • a 2nd test material has a shape which evaluates the visual recognition limit of the normal direction change rate on the surface.
  • FIG. 8 is a perspective view of the second test object for setting the second visual characteristic data.
  • the second test object 35 is formed in a rectangular parallelepiped shape.
  • the second test object 35 has a shape in which two planes intersect.
  • the second test object 35 has an edge line 36 extending along the Y-axis direction by intersecting two planes. In the ridge line 36, the extending direction of the plane changes.
  • the second test object 35 has a shape in which the normal direction change rate at the ridge line 36 continuously changes along the direction in which the ridge line 36 extends.
  • FIG. 9 shows a graph of the normal direction change rate with respect to the position of the X axis in the vicinity of the ridge line.
  • the X-axis position of the top line of the ridge line 36 becomes zero.
  • FIG. 9 shows a graph that passes through the positions y a and y b in the Y-axis direction of the second test object 35.
  • the second test object 35 has a shape change period of approximately 0.5 mm.
  • the normal direction change rate increases as it proceeds in the direction indicated by arrow 93.
  • Position y a of the Y-axis is the position of one end surface of the second test article 35, the magnitude of the normal direction change rate is a maximum.
  • the normal direction change rate is smaller than the position y a.
  • the Y-axis position y c is the position of the other end face of the second test object 35, and the normal direction change rate is zero.
  • the inclination of one plane is formed so as to gradually increase in the direction indicated by the arrow 93.
  • the normal direction change rate is changed exponentially from 0 [rad / mm] to ⁇ 0.013 [rad / mm].
  • the state of change in the normal direction change rate is not limited to this form, and may be changed linearly, for example.
  • the ridge line 36 can be visually recognized in a portion where the normal direction change rate is large. On the other hand, the observer cannot visually recognize the ridge line 36 in a portion where the normal direction change rate is small.
  • the limit at which the observer can confirm the ridge line 36 can be set as the visibility limit of the normal direction change rate.
  • the observer designates a point where the ridge line 36 can no longer be confirmed.
  • the position of the Y axis at this point is measured by a measuring instrument.
  • the visual recognition limit of a normal direction change rate can be defined based on the position of a Y-axis.
  • a plurality of observers observe the second test object 35.
  • the average value of the visual recognition limit of the normal direction change rate of several observers is employ
  • FIG. 10 shows a graph of the frequency of appearance at the visibility limit of the normal direction change rate when viewed by a plurality of observers.
  • the example shown in FIG. 10 shows a case where the second test object 35 is observed from a distance of 25 cm with normal office brightness.
  • the visibility limit of the normal direction change rate varies to some extent depending on the observer.
  • the average value of the observer has a normal direction change rate of 0.0045 [rad / mm]. That is, many people cannot recognize the ridge line 36 when the normal direction change rate becomes 0.0045 [rad / mm].
  • this value is set as a determination value for the error in the normal direction change rate.
  • the method for setting the determination value of the error in the normal direction change rate is not limited to this form, and may be statistically calculated based on the evaluation result of the observer.
  • FIG. 11 shows a graph of the error in the normal direction change rate calculated by the shape error calculation unit.
  • the horizontal axis is the position of the X axis, and a predetermined position is set to zero. It can be seen that the error in the normal direction change rate varies greatly at each position. That is, the error in the normal direction change rate includes a high frequency component.
  • FIG. 12 shows a graph of the error in the normal direction change rate obtained by removing high frequency components by the spatial frequency processing unit. Compared with the graph of FIG. 11, the graph is smoother, and high frequency components at each position are removed.
  • FIG. 12 shows the determination value LE of the error in the normal direction change rate.
  • the error in the normal direction change rate of the object is larger than the normal direction change rate that can be visually recognized by humans, it may be considered that the person recognizes that the evaluation target shape is different from the design shape. it can. For this reason, the visibility limit of the normal direction change rate obtained by the second test object 35 can be used as the shape error determination value LE.
  • the determination value LE of the normal direction change rate error is used as the determination value LE of the normal direction change rate error.
  • the portion exceeding the determination value LE is a portion that a person recognizes when the evaluation target shape is different from the design shape. For example, it can be determined that the person is evaluated shape at the position x a is recognized as different from the designed shape.
  • step 84 error determination unit 17 determines whether or not the error in the normal direction change rate exceeds the determination value.
  • step 84 if the error in the normal direction change rate is equal to or smaller than the determination value in all regions, the process proceeds to step 86.
  • step 86 it is displayed that there is no visible shape error on the display unit.
  • step 84 if the error in the normal direction change rate exceeds the determination value in at least a part of the region, the process proceeds to step 85.
  • step 85 the position specifying unit 18 specifies a position in the object where the normal direction change rate error exceeds the determination value. In the example shown in FIG. 12, it identifies the position x a. It can be determined that visual problems shape occurs at position x a.
  • step 86 the display unit displays that a visually recognizable shape error exists. The display unit displays a position where a visually recognizable shape error has occurred.
  • the second visual characteristic data based on the user group and the usage environment that mainly use the actual product, similarly to the first visual characteristic data. Also, these visual characteristic data can be created according to the type of person who uses the product according to visual acuity or age.
  • the method of setting the judgment value of the error in the normal direction change rate and the evaluation method when performing the evaluation can be set based on the visual characteristics required for the shape to be evaluated and the actual usage state of the product. it can.
  • the average value of the measurement results of a plurality of observers is adopted as the determination value.
  • the determination value is not limited to this form, and a determination value including a margin in the average value may be adopted. Absent.
  • the position where the error in the normal direction change rate exceeds the judgment value is detected, but the present invention is not limited to this.
  • the average value of the error in the normal direction change rate in a section of several mm is calculated.
  • this average value is larger than the other positions, it may be determined that the person can visually recognize.
  • this average value is larger than a predetermined determination value, it may be determined that a person can visually recognize.
  • the viewing limit of the rate of change in the normal direction is determined by the observer viewing the second test object 35.
  • the visibility limit of the normal direction change rate can be quantitatively determined.
  • the surface quality when actually viewed by a person can be determined more accurately.
  • surface quality can be more accurately determined by performing the same surface treatment as that of the product.
  • the method is not limited to the method in which the observer actually sees the second test object, and the photograph of the second test object and the second test object are captured by the camera.
  • the viewing limit of the normal direction change rate may be set by looking at the display device that displays the captured image.
  • the error of the normal direction change rate is determined after removing the high frequency component of the spatial frequency.
  • the step of removing the high frequency component of the spatial frequency may not be performed.
  • a high frequency component may not be expressed. In such a case, the step of removing the high frequency component of the spatial frequency may not be performed.
  • the shape evaluation method and shape evaluation apparatus in the present embodiment can evaluate the quality of the surface of an object visually felt by a person. Further, it is possible to determine whether the luminance change is due to a shape change intentionally provided in the design or the luminance change is caused by a shape error such as a manufacturing error. Moreover, even if there is no product actually created, it is possible to evaluate the occurrence of a visual problem. For example, as described later, it is possible to evaluate whether or not a visual problem occurs in the object by using the result of the machining simulation instead of the measurement result of the surface shape of the actually machined object. it can.
  • the shape evaluation method and the shape evaluation apparatus in the present embodiment can separately evaluate the visual resolution based on the spatial frequency and the visual recognition limit of the contrast.
  • the visual characteristic data of the present embodiment includes first visual characteristic data and second visual characteristic data.
  • the normal direction change rate error is calculated using the normal direction data calculated from the two-dimensional coordinate data.
  • the present invention is not limited to this mode, and the three-dimensional normal direction data is calculated. You may use. That is, in the above embodiment, the design data and the evaluation target data include two-dimensional coordinate information, but the present invention is not limited to this form, and may include three-dimensional coordinate information.
  • the three-dimensional normal direction change rate can be expressed by the following equations (7) and (8).
  • the design data and the evaluation target data may be STL (Standard Triangulated ⁇ Language) data that can be handled by a CAD device, in addition to the data including the coordinate values and the data including the normal direction.
  • STL Standard Triangulated ⁇ Language
  • the normal direction change rate error is calculated as the shape error.
  • the shape error calculation unit calculates an arbitrary shape error of the evaluation target shape with respect to the design shape. can do.
  • the shape error may be an angle error in the normal direction.
  • the error of the angle in the normal direction can be calculated by the following equation (9).
  • design data and evaluation target data are stored in the data storage unit.
  • the present invention is not limited to this mode, and the normal direction calculated based on the design data and evaluation target data
  • the rate of change may be stored in the data storage unit.
  • the change rate calculation unit is arranged before the data storage unit.
  • an error in the normal direction change rate may be stored in the data storage unit.
  • the shape error calculation unit can be arranged in front of the data storage unit. Any of these cases are mathematically equivalent.
  • FIG. 13 shows a block diagram of the first machining system of the present embodiment.
  • the first processing system includes the shape evaluation apparatus 10 described above.
  • the shape of the workpiece is designed by a CAD (Computer Aided Design) device 51.
  • the CAD device 51 supplies workpiece design data 52 to a CAM (Computer Aided Manufacturing) device 53.
  • the workpiece design data 52 is input to the shape evaluation apparatus 10.
  • the CAM device 53 generates input numerical data 54 for driving a numerically controlled machine tool based on the design data 52.
  • the input numerical data 54 includes information on the relative path of the tool with respect to the workpiece.
  • Input parameters 57 such as tool conditions and machining conditions are input to the CAM device 53.
  • Tool conditions include the type of tool, the tool diameter, and the optimum cutting speed.
  • the machining conditions include a pick feed amount, a feed speed, a spindle rotation speed, and the like.
  • the first machining system includes a machining simulator 55.
  • the machining simulator 55 simulates machining by a machine tool with a computer based on the input numerical data 54 and the input parameters 57.
  • the input parameters 57 input to the machining simulator 55 include control parameters for machine tools to be simulated.
  • the machining simulator 55 outputs simulator output data 56 including information on the shape of the workpiece after machining.
  • the simulator output data 56 includes information on the coordinate values of the workpiece after machining, information on the normal direction, and the like.
  • the simulator output data 56 corresponds to the evaluation target data.
  • the simulator output data 56 is input to the shape evaluation apparatus 10.
  • the shape evaluation apparatus 10 determines whether or not a visually recognizable shape error is included in the shape of the workpiece after processing based on the design data 52 and the simulator output data 56.
  • a visually recognizable shape error is included, the worker can change the design of the workpiece by the CAD device 51 based on the evaluation result output to the output unit 19. Alternatively, the operator can change the input parameter 57 so that a visually recognizable shape error is not included in the shape of the workpiece after processing.
  • the evaluation target data can be generated by a mathematical model that simulates the movement of the tool.
  • the shape after processing can be evaluated without performing actual processing. And before performing an actual process, a design shape can be changed or an input parameter can be changed so that a shape error which can be visually recognized is not included in the shape of a work after processing.
  • FIG. 14 shows a block diagram of the second machining system of the present embodiment.
  • the second machining system is different from the first machining system in that it includes a numerically controlled machine tool 60 and a workpiece measuring device 63 that measures the surface shape of a workpiece (workpiece) machined by the machine tool 60. .
  • the input numerical data 54 output by the CAM device 53 is input to the machine tool 60.
  • a control parameter 62 is input to the machine tool 60.
  • the control parameter 62 includes an acceleration / deceleration time constant, backlash correction, a gain in feedback control of the feed axis, and the like.
  • the machine tool 60 can automatically machine a workpiece based on the control parameter 62 and the input numerical data 54.
  • the machine tool 60 forms a workpiece 61.
  • the workpiece measuring device 63 measures the surface shape of the workpiece 61.
  • Examples of the workpiece measuring instrument 63 include a roughness measuring instrument and a three-dimensional measuring instrument. Then, the workpiece measuring instrument 63 generates measurement data 64 based on the measurement result of the shape of the surface of the workpiece 61.
  • the measurement data 64 includes coordinate value information, normal direction information, and the like.
  • the measurement data 64 corresponds to evaluation target data.
  • the measurement data 64 is input to the shape evaluation apparatus 10.
  • the shape evaluation apparatus 10 determines whether or not a visually recognizable shape error is included in the shape of the workpiece 61 based on the design data 52 and the measurement data 64.
  • a visually recognizable shape error is included, the worker can change the design of the workpiece by the CAD device 51 based on the evaluation result output to the output unit 19. Alternatively, the operator can change the control parameter 62 so that the shape of the workpiece does not include a visually recognizable shape error.
  • the surface shape can be quantitatively evaluated even when the shape to be evaluated is the shape of the actual workpiece.
  • the evaluation result is quantitatively shown, the control parameter 62 and the work design can be easily changed.
  • the movement trajectory of the tool and workpiece when the machine tool is driven without placing the workpiece.
  • evaluation object data based on the measurement result of a movement locus.
  • the movement trajectory of the table on which the tool or workpiece is arranged can be measured by a perfect circle measuring instrument including a ball bar, a grid encoder, a displacement meter, an accelerometer, or the like.
  • Evaluation target data can be generated based on these measurement results.
  • the measurement can be performed by a predetermined basic operation of the machine tool. Based on the measurement result of the basic operation, the operation of the machine tool for actual machining may be estimated, and the evaluation target data may be created based on the estimated operation. Also in this method, the surface shape of the workpiece after processing can be evaluated without processing the actual workpiece.
  • the shape evaluation method and shape evaluation apparatus of the present invention can be used for the evaluation of the shape of a product that is evaluated by human vision. It can also be used to set shape tolerances when designing and to determine methods for solving problems when visual problems occur.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 形状評価方法は、設計形状と評価対象形状との誤差である形状誤差を算出する形状誤差算出工程と、形状誤差と予め定められた視覚特性データとに基づいて視認可能な形状誤差を検出する視認可能誤差検出工程とを含む。

Description

形状評価方法および形状評価装置
 本発明は、対象物の形状評価方法および形状評価装置に関する。
 工作機械等で加工した後のワークは表面の品質が評価の対象になる。表面の品質は、人が見た時の表面の美観に影響を与える他に、人が見た時の意匠性にも影響を与える。例えば、表面の品質が悪いと所望しない部分に線や模様が見える場合がある。特に、評価の対象物が金型である場合には、金型の表面の形状が製造される多くの製品に転写される。このために、金型の表面の形状は重要であり、人が見たときの品質を高くすることが好ましい。このような表面の品質は、表面粗さ等を測定器にて計測することにより評価を行うことができる。
 表面の品質を評価する方法としては、対象物の表面を撮影した画像に基づいて表面の品質を評価する方法が知られている。例えば、対象物の表面を撮影して画像データを生成し、画像データから得られる輝度の変化を周波数解析し、人が視認可能な周波数成分に基づいて評価する方法が知られている(特許文献1および特許文献2を参照)。
特開平10-96696号公報 特開2011-185659号公報
 工作機械等による加工では、表面粗さ等の評価では許容範囲内であるにも関わらず、人が見た時に表面が荒く感じる場合がある。または、加工後のワークに所望しない折れ線等が発現して所望のデザインから離れていたりする場合がある。これとは反対に、表面粗さの評価では許容範囲外であるにも関わらず、人の見た目には表面が綺麗に見える場合がある。このような人が見た時の品質は面品位と称される。面品位の評価は、従来の判定方法の表面粗さ等の評価と合致していない場合がある。
 上記の特開平10-96696号公報等に記載の方法では、実際の製品を撮影して画像データを得る。このために、評価の対象となる製品を製造してみないと視覚的な問題が発生するか否かを判別できないという問題がある。また、撮影時の光の状態や撮影に用いたカメラの特性が表面の評価の結果に影響を及ぼすため、評価結果が実際の製品を見た時の視覚的な評価と一致しない場合がある。
 特に、製品の設計時に意図的に設けられた形状の変化なのか、または製造時の誤差に起因する形状の変化なのかを区別することができないという問題がある。例えば、製品に角部が形成されている場合に設計により意図的に形成された角部(キャラクタライン)なのか、または製造誤差等により生じた角部なのかが分からないという問題がある。
 本発明は、人が視覚的に感じる対象物の表面の品質を評価できる形状評価方法および形状評価装置を提供することを目的とする。
 本発明の形状評価方法は、対象物の表面の形状を評価する形状評価方法であって、対象物の設計時の設計形状が設定された設計データを記憶する工程と、対象物の評価の対象である評価対象形状が設定された評価対象データを記憶する工程と、設計形状と評価対象形状とに基づいて形状誤差を算出する形状誤差算出工程と、形状誤差算出工程において算出された形状誤差と予め定められた視覚特性データとに基づいて、算出された形状誤差の中から視認可能な形状誤差を検出する視認可能誤差検出工程と、視認可能な形状誤差が発生している位置を特定する工程とを含む。
 上記発明においては、形状誤差算出工程は、評価対象形状の法線方向変化率から設計形状の法線方向変化率を減算することにより、形状誤差として法線方向変化率の誤差を算出する工程を含むことが好ましい。
 上記発明においては、視覚特性データは、空間周波数に関する第1の視覚特性データと法線方向変化率の誤差の大きさに関する第2の視覚特性データとを含み、視認可能誤差検出工程は、第1の視覚特性データに基づいて、法線方向変化率の誤差から視認が不可能な空間周波数の成分を除去する工程と、第2の視覚特性データに基づいて、視認が可能な法線方向変化率の誤差が存在するか否かを判定する工程とを含むことができる。
 上記発明においては、第1の視覚特性データは、表面に視覚解像度を評価する形状を有する第1の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された空間周波数の判定値を含み、第2の視覚特性データは、表面に法線方向変化率の視認限界を評価する形状を有する第2の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された法線方向変化率の誤差の判定値を含むことができる。
 上記発明においては、第1の試験物は、間隔が徐々に狭くなる筋状の凹凸を有する表面の形状を有し、第2の試験物は、表面に法線方向が変化する稜線を有し、稜線での法線方向変化率が稜線の延びる方向に沿って連続的に変化する形状を有することができる。
 本発明の形状評価装置は、対象物の表面の形状を評価する形状評価装置であって、対象物の設計時の設計形状が設定された設計データを記憶する設計データ記憶部と、対象物の評価の対象である評価対象形状が設定された評価対象データを記憶する評価対象データ記憶部と、設計形状と評価対象形状とに基づいて形状誤差を算出する形状誤差算出部と、形状誤差算出部において算出された形状誤差と予め定められた視覚特性データとに基づいて、算出された形状誤差の中から視認可能な形状誤差を検出する視認可能誤差検出部と、視認可能な形状誤差が発生している位置を特定する位置特定部とを備える。
 上記発明においては、視覚特性データは、空間周波数に関する第1の視覚特性データと形状誤差の大きさに関する第2の視覚特性データとを含み、形状誤差算出部は、形状の変化率の誤差を算出するように形成されており、視認可能誤差検出部は、第1の視覚特性データに基づいて、形状の変化率の誤差から視認が不可能な空間周波数の成分を除去する空間周波数処理部と、第2の視覚特性データに基づいて、視認可能な形状の変化率の誤差が存在するか否かを判定する誤差判定部とを含むことができる。
 本発明によれば、人が視覚的に感じる対象物の表面の品質を評価できる形状評価方法および形状評価装置を提供することができる。
実施の形態における形状評価装置のブロック図である。 実施の形態における形状評価方法のフローチャートである。 実施の形態における設計形状と評価を行う評価対象形状を説明する概略断面図である。 座標情報から法線方向の角度を求める方法の説明図である。 実施の形態における第1の試験物の斜視図である。 第1の試験物におけるY軸の位置に対する筋の間隔を示すグラフである。 第1の試験物における筋の間隔の視認限界に対する観測者の出現度数を示すグラフである。 実施の形態における第2の試験物の斜視図である。 第2の試験物におけるX軸の位置と法線方向変化率との関係を示すグラフである。 第2の試験物における法線方向変化率の視認限界に対する観測者の出現度数を示すグラフである。 評価対象形状の位置と法線方向変化率の誤差との関係を示すグラフである。 評価対象形状の位置と高周波成分を除去した後の法線方向変化率の誤差との関係を示すグラフである。 実施の形態における第1の加工システムのブロック図である。 実施の形態における第2の加工システムのブロック図である。
 図1から図14を参照して、実施の形態における形状評価方法および形状評価装置について説明する。図1に、本実施の形態における形状評価装置のブロック図を示す。本実施の形態では、評価の対象となる物を対象物と称する。形状評価装置は、加工を行った後の対象物の形状を設計時の対象物の形状と比較する。
 形状評価装置10は、対象物の表面の形状を評価する装置である。評価を行う対象物としては、金型、機械部品、自動車のボディーなどの工業製品、または意匠性を要する物品を例示することができる。形状評価装置10は、例えば、バスを介して互いに接続されたCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)等を備える演算処理装置にて構成されている。
 本実施の形態における形状評価装置10には、設計データ25および評価対象データ26が入力される。加工を行う対象物は、CAD(Computer Aided Design)装置などにて形状が定められる。設計データ25には、設計時の対象物の形状である設計形状が設定されている。
 評価対象データ26は、対象物の評価の対象となる形状である評価対象形状が設定されている。評価対象データ26には、対象物の加工を行った後の形状データを採用することができる。例えば、評価対象データ26は、加工過程を模擬したシミュレーションにより得られた仮想的な形状データを用いることができる。または、評価対象データ26は、実際に対象物を加工した後の表面の形状が設定された形状データでも構わない。
 設計データ25および評価対象データ26は、表面の形状に関する2次元の座標値または表面の形状に関する3次元の座標値を含むことができる。または、設計データ25および評価対象データ26は、表面の形状に関する法線ベクトルの情報または法線方向変化率の情報を含むことができる。本実施の形態においては、設計データ25および評価対象データ26として、2次元の座標値を含む座標データを例示して説明する。
 形状評価装置10は、設計データ25および評価対象データ26を記憶するデータ記憶部11を含む。データ記憶部11は、設計データ25を記憶する設計データ記憶部として機能する。また、データ記憶部11は、評価対象データ26を記憶する評価対象データ記憶部として機能する。
 形状評価装置10は、形状誤差算出部12を含む。形状誤差算出部12は、設計データ25に設定された形状に対する評価対象データ26に設定された形状の誤差を算出する。すなわち、形状誤差算出部12は、設計形状と評価対象形状との誤差である形状誤差を算出する。
 形状評価装置10は、視認可能誤差検出部15を含む。形状誤差算出部12で算出された形状誤差は、視認可能誤差検出部15に入力される。視認可能誤差検出部15は、形状誤差算出部12において算出された形状誤差と予め定められた視覚特性データとに基づいて、人が判別可能な形状誤差を検出する。形状誤差が大きな場合には、観察者は、評価対象形状が設計形状と異なると識別することができる。しかしながら、形状誤差が小さい場合には、観察者が識別することができない。視認可能誤差検出部15は、形状誤差算出部12にて算出された形状誤差から視覚に影響を与える形状誤差を検出する。
 形状評価装置10は、位置特定部18を含む。位置特定部18には、視認可能誤差検出部15にて検出された視認可能な形状誤差の情報が入力される。位置特定部18は、対象物において視認可能な形状誤差が発生している位置を特定する。
 形状評価装置10は、出力部19を備える。出力部19としては、作業者に評価結果を伝達するように構成された装置を採用することができる。本実施の形態の出力部19は、形状の評価結果を表示する表示部である。表示部は、視認可能な形状誤差が存在する場合に、対象物の形状誤差が存在する位置を表示することができる。または、出力部19は、評価結果を他の装置に送出するように形成されていても構わない。
 図2に、本実施の形態における形状評価方法のフローチャートを示す。図2に示す制御は、形状評価装置10にて実施する。図1および図2を参照して、ここでは、形状誤差として法線方向変化率の誤差を算出する。法線方向変化率の誤差が大きくなると、人は視覚的に評価対象形状が設計形状と異なると認識する。法線方向変化率の誤差は、観察者が対象物を見たときの視覚的に与える影響に良好に対応する。
 形状誤差算出部12は、設計形状と評価対象形状との誤差である形状誤差を算出する形状誤差算出工程を実施する。形状誤差算出部12は、変化率算出部13と変化率誤差算出部14とを含む。
 ステップ81において、変化率算出部13は、設計形状および評価対象形状において、対象物の表面の予め定められた点における法線方向変化率を算出する。ステップ82において、変化率誤差算出部14は、変化率算出部13にて算出された法線方向変化率に基づいて、設計形状に対する評価対象形状の誤差を算出する。
 図3に、設計形状および評価対象形状における法線方向変化率を説明する概略断面図を示す。本実施の形態では、設計データ25および評価対象データ26には、2次元の座標値が含まれている。図3に示す例では、X軸およびZ軸に平行な平面にて対象物40が切断されている。対象物40の表面において予め定められた間隔ごとに法線ベクトルを設定することができる。X軸およびZ軸に平行な平面にて、対象物40を所定の間隔にて切断する。それぞれの切断面において所定の間隔ごとに法線ベクトルを設定することにより、対象物の表面全体の評価を行うことができる。
 設計形状の対象物40の表面には、予め定められた間隔ごとに設定点41aが設定されている。また、評価対象形状の対象物40の表面には、予め定められた間隔ごとに設定点41bが設定されている。複数の設定点41bの位置は、複数の設定点41aの位置に対応している。
 設計形状の設定点41aにおいて、表面の傾きに垂直な法線ベクトルniを設定する。法線ベクトルniはi番目の設定点41aの法線ベクトルである。法線ベクトルniについて法線方向の角度θiを設定することができる。ここでは、Z軸に対する角度を法線方向の角度θiに設定している。また、評価対象形状の設定点41bにおいて、表面の傾きに垂直な法線ベクトルnirを設定する。法線ベクトルnirについても法線方向の角度θirを設定することができる。ここでは、Z軸に対する角度を法線方向の角度θirに設定している。
 図4に、座標データから法線方向の角度を算出する方法を説明する概略図を示す。図4には、設計形状を例示している。本実施の形態の設計形状は、座標値によって設定されている。i番目の設定点42と、(i+1)番目の設定点43との座標値は既知である。これらの2つの設定点42,43の座標値に基づいて、ベクトルaiを設定することができる。ベクトルaiは、設定点42から設定点43に向かうベクトルである。そして、ベクトルaiに垂直なベクトルを法線ベクトルniに設定することができる。この時の法線方向の角度θiは、次の式(1)にて算出することができる。
Figure JPOXMLDOC01-appb-M000001
 このように、設計形状のi番目の設定点について、法線方向の角度θiを算出することができる。同様の方法により、評価対象形状のi番目の設定点41bについて、法線方向の角度θirを算出することができる。
 図1および図2を参照して、変化率算出部13は、設定点41a,41bにおける法線方向変化率を算出する。法線方向変化率は、互いに隣り合う設定点の法線方向の角度の変化率である。例えば、法線方向の角度θiと法線方向の角度θi+1における変化率である。法線方向変化率は、次の式(2)にて算出することができる。次の式(2)は、設計形状のi番目の設定点41aにおける法線方向変化率を示している。評価対象形状の法線方向変化率も同様の方法により算出することができる。
Figure JPOXMLDOC01-appb-M000002
 次に、ステップ82において、変化率誤差算出部14は、算出した設計形状の法線方向変化率と評価対象形状の法線方向変化率とに基づいて、法線方向変化率の誤差を算出する。法線方向変化率の誤差は、評価対象形状の法線方向変化率から設計形状の法線方向変化率を減算することにより算出することができる。形状誤差としての法線方向変化率の誤差は、次の式(3)により算出することができる。
Figure JPOXMLDOC01-appb-M000003
 次に、視認可能誤差検出部15は、算出された形状誤差の中から視認可能な形状誤差を検出する視認可能誤差検出工程を実施する。視認可能誤差検出部15は、形状誤差算出工程において算出された形状誤差と予め定められた視覚特性データとに基づいて、人が視認可能な誤差を検出する。視認可能誤差検出部15は、空間周波数処理部16と誤差判定部17とを含む。視覚特性データには、空間周波数に関する第1の視覚特性データと法線方向変化率の誤差の大きさに関する第2の視覚特性データとが含まれる。
 ステップ83において、空間周波数処理部16は、法線方向変化率の誤差から視認が不可能な空間周波数の成分を除去する工程を実施する。表面の凹凸が細かくなると、人は凹凸を認識することができなくなる。すなわち、人は、凹凸の空間周波数が高くなると、表面に発現している凹凸を判別することができなくなる。これと同様に、形状誤差の空間周波数が高くなると、人は設計形状に対する評価対象形状の違いを判別することができなくなる。空間周波数処理部16は、このような視認限界を超える高い空間周波数の成分を除去する。
 空間周波数の処理を行う工程では、第1の視覚特性データを用いる。本実施の形態では、第1の視覚特性データは予め実験により定められている。ここで、第1の視覚特性データについて説明する。第1の視覚特性データの設定には、表面に視覚解像度を評価する形状を有する第1の試験物を用いる。第1の視覚特性データは、第1の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された空間周波数の判定値を含む。
 図5に、空間周波数の判定値を設定する為の第1の試験物の斜視図を示す。第1の試験物31は、直方体状に形成されている。第1の試験物31は、表面に間隔が徐々に狭くなる筋状の凹凸を有する。第1の試験物31の表面には、複数の凹部32がX軸方向に延びるように形成されている。凹部32は、断面形状が円弧状に形成されている。凹部32は、矢印91に示すようにY軸方向の正側に向かうにつれて、徐々に浅くなっている。
 互いに隣り合う凹部32同士の間には、筋33が形成されている。複数の筋33は、X軸方向に沿って延びている。複数の筋33は、互いに平行になるように形成されている。筋33の間隔は、矢印91に示すようにY軸方向の正側に向かうにつれて、徐々に狭くなっている。
 第1の試験物31を形成する場合には、例えば、ボールエンドミルを矢印92に示す方向に移動させることにより凹部32を形成する。同一のボールエンドミルを使用して、複数の凹部32を形成する。この時に、複数の凹部32の深さが除々に変化するように形成する。すなわち、ボールエンドミルで加工を行うときのピックフィード量を徐々に変えて凹部32を形成する。
 図6に、第1の試験物におけるY軸の位置と筋の間隔との関係を説明するグラフを示す。Y軸の位置が大きくなるほど筋33の間隔は狭くなることが分かる。この例では、筋33の間隔は、2次関数状に変化している。空間周波数は、長さに関する周波数である。空間周波数は、次の式(4)に示す様に、長さの逆数として定義することができる。
Figure JPOXMLDOC01-appb-M000004
 第1の試験物31においては、筋33の間隔の逆数を空間周波数と定義することができる。第1の試験物31においては、矢印91に示す方向に進むほど、空間周波数が高くなる。
 図5および図6を参照して、第1の試験物31を例えば白色の幕で覆った状態で、様々な方向から光を照射することにより、映り込みがない状態にする。そして、真上から観察者が第1の試験物31を観察する。観察者は、筋33の間隔が大きな領域では、複数の筋33を確認することができる。ところが、筋33の間隔が小さくなると、複数の筋33を認識することができなくなる。筋33を認識できなくなる点が人の視覚解像度になる。
 このように、第1の試験物31は、視覚解像度を評価する形状を有する。図5および図6に示す例では、ピックフィード量を0.45mmから0.11mmまで指数関数状に変化させている。一般的に、視覚解像度は視角として表される。視角は、対象物の大きさと対象物と視点からの距離に依存する。このために、筋33同士の間隔は、評価を行う製品を観察する距離に基づいて設定することができる。ここで、視力1.0は視覚解像度にして視角1/60度であることが参考になる。
 本実施の形態では、観察者が予め定められた距離から第1の試験物を観察する。観察者は、表面の筋33の模様が確認できなくなるY軸の位置を指定する。測定器により、この点のY軸の位置を計測する。そして、Y軸の位置に基づいて筋33の間隔が定まる。筋33の間隔に基づいて、観察者の視認限界の空間周波数を定めることができる。本実施の形態では、複数の観察者にて視認限界の空間周波数を測定する。そして、複数の観察者の視認限界の空間周波数の平均値を算出している。この平均値を空間周波数の判定値に設定している。
 図7に、第1の試験物を観察した結果のグラフを示す。図7に示す例では、第1の試験物31を通常の事務所内の明るさで25cmの距離から観察した場合の評価結果を示している。視覚解像度は、観察者に依存してばらつきが生じる。図7に示す例では、視覚解像度の平均は0.27mmであり、視角にして0.07度である。すなわち、筋33同士の間隔が0.27mmになった時に、多くの人が筋33の模様を判別できなくなると判断することができる。この時の視認限界の空間周波数は、1/0.27[1/mm]になり、この値を空間周波数の判定値に採用している。
 本実施の形態においては、筋33の模様が見えなくなる間隔として、複数の観察者の平均値を採用しているが、この形態に限られず、観察者の結果を統計的に処理することができる。例えば、余裕を考慮して、観察者の測定結果の平均値よりも所定の値だけ加算した間隔を採用しても構わない。
 第1の試験物31を採用することにより、視覚解像度を定量的に設定することができる。また、対象物を観察する人の種類に合わせて視覚解像度を設定することができる。視覚解像度は人の網膜の視細胞の大きさと眼球の屈折率により決まる。このために、大きな個人差は生じにくいと考えられる。しかしながら、例えば近視の人と遠視の人とでは最も見やすい焦点距離が異なるために、同じ距離にある対象物を見た場合に視覚解像度が異なる場合がある。
 このために、例えば、子供が使う製品には、子供の観察者により設定した視覚解像度を用いて、老人が使う製品には、老人の観察者により設定した視覚解像度を用いることができる。このように、観察者として実際に対象物を観察する人の種類を選定し、視覚解像度を設定することにより、実際の製品の面品位を向上させることができる。
 また、視覚解像度は、対象物からの距離に依存する。このために、観察者による測定を行う場合には、実際の製品を人が見る時の距離に対応した距離にて測定を行うことが好ましい。
 第1の試験物は、上記の形態に限られず、視覚解像度を設定するための任意の試験物を採用することができる。例えば、Y軸方向に沿って、筋同士の間隔を線形的に変化させても構わない。また、上記の第1の試験物では、平面視した時に筋の模様が直線状に形成されているが、この形態に限られず、平面視した時に曲線状に形成されていても構わない。
 なお、本実施の形態の第1の試験物は、ボールエンドミルを用いて形成している。ボールエンドミルの工具径を変化させると凹部の断面形状が変化する。発明者らは、工具径が異なる複数のボールエンドミルを用いて複数の第1の試験物を作成した。1つの第1の試験物を作成する期間中には、ボールエンドミルを変えずに同一のボールエンドミルを使用した。この結果、ボールエンドミルの工具径が異なっても、観察者の視覚解像度はほぼ一定であることが分かっている。
 図1を参照して、上記の様に求められた視認限界の空間周波数に基づいて、空間周波数処理部16は、法線方向変化率の誤差から視認限界を超える空間周波数の成分を除去する。視認限界を超える空間周波数の成分を除去する方法としては、例えば、ローパスフィルタ等の公知のフィルタを用いることができる。または、法線方向変化率の誤差をフーリエ変換し、フーリエ変換した結果から視認限界より大きな周波数成分を取り除く。この後に、逆フーリエ変換することにより、視認が不可能な空間周波数の成分を除去した法線方向変化率の誤差を得ることができる。
 または、図3を参照して、それぞれの設定点41bの前後における複数の設定点を用いて、法線方向変化率の誤差の平均値を算出することにより所望の高周波成分を除去することができる。i番目の前後の設定点における法線方向変化率の誤差の平均値が、i番目の設定点における高周波成分が除去された法線方向変化率の誤差になる。高周波成分が除去された法線方向変化率の誤差は、次の式(5)にて表すことができる。
Figure JPOXMLDOC01-appb-M000005
 ここで、平均値Eivisを算出するための設定点の個数Nは、視認限界の空間周波数と設定点同士の間隔に基づいて算出することができる。平均値Eivisを算出するための設定点の個数Nは、次の式(6)にて算出することができる。
Figure JPOXMLDOC01-appb-M000006
 このように、法線方向変化率の誤差の移動平均値を算出することによっても視認限界を超える高周波成分を除去することができる。人が認識できない細かい凹凸に関する誤差を除去することができる。
 ところで、視覚は、対象物の表面のコントラスト、すなわち輝度の変化を認識していることが知られている。対象物の表面の輝度は、表面の向き、光源、および視点の位置との関係により定まる。対象物の表面の輝度の変化は、表面の法線方向の変化に依存する。法線方向の変化が大きいと対象物の表面の輝度の変化も大きくなる。従って、人が視覚的に認識できるコントラスト、すなわち輝度の変化率は、法線方向変化率に置き換えて評価することができる。対象物の表面の法線方向変化率の視認限界を定量化することにより、表面に視覚的な問題が存在するかどうかを評価することができる。
 図1および図2を参照して、ステップ84において、誤差判定部17は、第2の視覚特性データに基づいて、視認が可能な法線方向変化率の誤差が存在するか否かを判定する工程を実施する。法線方向変化率の誤差が判定値よりも大きい場合には、人が評価対象形状と設計形状とが異なると認識する。換言すれば、評価対象形状には、設計形状と異なると認識される部分が含まれると判別することができる。
 第2の視覚特性データは、法線方向変化率の誤差の大きさに関するデータである。本実施の形態では、第2の視覚特性データは、第2の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された法線方向変化率の誤差の判定値を含む。第2の試験物は、表面に法線方向変化率の視認限界を評価する形状を有する。
 図8に、第2の視覚特性データを設定するための第2の試験物の斜視図を示す。第2の試験物35は、直方体状に形成されている。第2の試験物35は、2つの平面が交差している形状を有する。第2の試験物35は、2つの平面が交差することにより、Y軸方向に沿って延びる稜線36を有する。稜線36において、平面の延びる方向が変化する。第2の試験物35は、稜線36での法線方向変化率が稜線36の延びる方向に沿って連続的に変化する形状を有する。
 図9に、稜線の近傍のX軸の位置に対する法線方向変化率のグラフを示す。稜線36の頂線のX軸の位置が零になる。図9は、第2の試験物35のY軸方向における位置ya,ybを通るグラフが示されている。第2の試験物35は、形状変化の周期がおおよそ0.5mmになっている。図8および図9を参照して、矢印93に示す向きに進むほど法線方向変化率が増大している。Y軸の位置yaは、第2の試験物35の一方の端面の位置であり、法線方向変化率の大きさが最大である。第2の試験物35の中央部の位置ybでは、法線方向変化率が位置yaよりも小さくなっている。Y軸の位置ycは、第2の試験物35の他方の端面の位置であり、法線方向変化率が零である。このように、矢印93に示す方向に向かうにつれて、一つの平面の傾斜が徐々に大きくなるように形成されている。本実施の形態では、法線方向変化率を0[rad/mm]から-0.013[rad/mm]まで、指数関数状に変化させている。法線方向変化率の変化の状態は、この形態に限られず、例えば線形的に変化させても構わない。
 観察者が第2の試験物35を観察すると、法線方向変化率が大きな部分では、稜線36を視覚的に認識することができる。一方で、観察者は、法線方向変化率が小さな部分では、稜線36を視覚的に認識することができない。観察者が稜線36を確認できる限界を法線方向変化率の視認限界に定めることができる。
 観察者は、稜線36を確認できなくなった点を指定する。測定器により、この点のY軸の位置を計測する。そして、Y軸の位置に基づいて法線方向変化率の視認限界を定めることができる。本実施の形態では、第2の試験物35においても、複数の観察者が第2の試験物35を観察する。そして、複数の観察者の法線方向変化率の視認限界の平均値を判定値として採用している。
 図10に、複数の観察者が見たときの法線方向変化率の視認限界の出現度数のグラフを示す。図10に示す例では、通常のオフィスの明るさで第2の試験物35を25cmの距離から観察した場合を示している。法線方向変化率の視認限界は観察者によりある程度のばらつきが生じる。観察者の平均値は、法線方向変化率が0.0045[rad/mm]になっている。すなわち、多くの人は、法線方向変化率が0.0045[rad/mm]になったときに、稜線36を認識することができなくなっている。本実施の形態では、この値を法線方向変化率の誤差の判定値に設定している。法線方向変化率の誤差の判定値の設定方法は、この形態に限られず、観察者の評価結果に基づいて統計的に算出しても構わない。
 図11に、形状誤差算出部により算出した法線方向変化率の誤差のグラフを示す。横軸は、X軸の位置であり、所定の位置を零に設定している。法線方向変化率の誤差は、それぞれの位置において大きく変動していることが分かる。すなわち、法線方向変化率の誤差は、高周波成分を含んでいる。
 図12に、空間周波数処理部により高周波成分を除去した法線方向変化率の誤差のグラフを示す。図11のグラフと比較するとグラフが滑らかになり、それぞれの位置における高周波成分が除去されている。図12には、法線方向変化率の誤差の判定値LEが記載されている。
 前述のように、対象物の法線方向変化率の誤差が人が視認可能な法線方向変化率よりも大きい場合には、人は評価対象形状と設計形状とが異なると認識すると考えることができる。このために、形状誤差の判定値LEとしては、第2の試験物35によって得られた法線方向変化率の視認限界を用いることができる。図12に示す例では、法線方向変化率の誤差の判定値LEは、0.0045[rad/mm](図10参照)を用いている。
 判定値LEを超える部分が、人が設計形状に対して評価対象形状が異なると認識する部分になる。例えば、人が位置xaにおいて評価対象形状が設計形状と異なると認識すると判断することができる。
 図1および図2を参照して、ステップ84において、誤差判定部17は、法線方向変化率の誤差が判定値を超えているか否かを判別する。ステップ84において、全ての領域において法線方向変化率の誤差が判定値以下の場合には、ステップ86に移行する。ステップ86においては、表示部に視認可能な形状誤差が存在しないことを表示する。ステップ84において、少なくとも一部の領域にて法線方向変化率の誤差が判定値を超えている場合には、ステップ85に移行する。
 ステップ85において、位置特定部18は、対象物において、法線方向変化率の誤差が判定値を超えている位置を特定する。図12に示す例では、位置xaを特定する。位置xaにおいて形状に視覚的な問題が生じると判断することができる。次に、ステップ86に移行する。ステップ86において、表示部は、視認可能な形状誤差が存在することを表示する。また、表示部は、視認可能な形状誤差が発生している位置を表示する。
 第2の視覚特性データは、第1の視覚特性データと同様に、実際の製品を主に使用するユーザ層および使用環境に基づいて作成することが好ましい。また、これらの視覚特性データは、視力別や年齢別等の製品を使用する人の種類に応じて作成することができる。
 法線方向変化率の誤差の判定値を設定する方法や評価を行う時の評価方法は、評価対象形状に要求される視覚的な特性および実際の製品の使用状態等に基づいて設定することができる。例えば、上記の実施の形態では、複数の観察者の測定結果の平均値を判定値に採用しているが、この形態に限られず、平均値に余裕を含めた判定値を採用しても構わない。
 上記の実施の形態では、法線方向変化率の誤差が判定値を超える位置を検出しているがこの形態に限られず、例えば数mmの区間における法線方向変化率の誤差の平均値を算出し、この平均値が他の位置よりも大きくなる場合に人が視認可能であると判定しても構わない。また、この平均値が予め定められた判定値よりも大きくなる場合に、人が視認可能であると判定しても構わない。または、法線方向変化率の誤差に対して、人の視覚の空間周波数特性を含むコントラスト感度曲線を用いて、人が視認可能であると判定しても構わない。法線方向変化率の誤差に空間周波数による重みづけを行った後に、法線方向変化率の誤差が判定値を超えているか否かを判別し、法線方向変化率の誤差が判定値を超えている場合には人が視認可能であると判定しても構わない。
 上記の実施の形態では、第2の試験物35を観察者が見て法線方向変化率の視認限界を定めている。この方法を採用することにより、法線方向変化率の視認限界を定量的に定めることができる。また、第2の試験物の色、材質、または表面粗さを実際の製品と同一にすることにより、実際に人が見た時の面品位をより正確に判定することができる。更に、製品と同じ表面処理を施しておくことにより、面品位をより正確に判定することができる。これらの方法により、対象物の表面の色や質感の違いによる影響についても考慮することができる。
 なお、法線方向変化率の視認限界を定める場合には、観察者が第2の試験物を実際に見る方法に限られず、第2の試験物の写真や第2の試験物をカメラにて撮影した画像を表示した表示装置を見て法線方向変化率の視認限界を設定しても構わない。
 上記の実施の形態では、空間周波数の高周波成分を除去した後に法線方向変化率の誤差の判定を行っているが、空間周波数の高周波成分を除去する工程は実施しなくても構わない。たとえば、評価対象データとしてシミュレータ等の計算機にて算出したデータを用いる場合には、高周波成分が発現しない場合がある。このような場合には、空間周波数の高周波成分を除去する工程は実施しなくても構わない。
 本実施の形態における形状評価方法および形状評価装置は、人が視覚的に感じる対象物の表面の品質を評価することができる。また、設計において意図的に設けられた形状変化による輝度変化であるか、または、製造誤差等の形状誤差に起因する輝度変化であるかを判別することができる。また、実際に作成した製品が無くても、視覚的な問題の発生を評価することができる。例えば、後述するように、実際に加工した対象物の表面の形状の測定結果の代わりに、加工シミュレーションの結果を用いることにより、対象物に視覚的な問題が生じるか否かを評価することができる。
 また、本実施の形態における形状評価方法および形状評価装置は、空間周波数に基づく視覚解像度と、コントラストの視認限界とを分けて評価することができる。
 本実施の形態の視覚特性データは、第1の視覚特性データと第2の視覚特性データとを有する。これらの視覚特定データを、人が試験物を観察した結果に基づいて作成することにより、面品位の評価精度を向上させることができる。視覚特性データを実際の人の視覚に基づいて作成することにより、本発明による評価を実際の視覚による評価と精度よく一致させることができる。例えば、意図的に設けられた形状変化か否かを精度よく判別することができる。
 上記の実施の形態では、2次元の座標データから算出した法線方向データを用いて法線方向変化率の誤差を算出しているが、この形態に限られず、3次元の法線方向データを用いても構わない。すなわち、上記の実施の形態において、設計データおよび評価対象データは、2次元の座標情報を含むが、この形態に限られず、3次元の座標情報を含んでいても構わない。3次元の法線方向変化率は次の式(7)、式(8)により表すことができる。
Figure JPOXMLDOC01-appb-M000007
 設計データおよび評価対象データは、座標値を含むデータおよび法線方向を含むデータの他に、CAD装置で扱うことができるSTL(Standard Triangulated Language)データ等であっても構わない。
 また、本実施の形態では、形状誤差として法線方向変化率の誤差を算出しているが、この形態に限られず、形状誤差算出部は、設計形状に対する評価対象形状の任意の形状誤差を算出することができる。例えば、図3を参照して、形状誤差としては、法線方向の角度の誤差であっても構わない。法線方向の角度の誤差は次の式(9)にて算出することができる。
Figure JPOXMLDOC01-appb-M000008
 図1を参照して、本実施の形態では、設計データおよび評価対象データをデータ記憶部に記憶させているが、この形態に限られず、設計データおよび評価対象データに基づいて算出した法線方向変化率をデータ記憶部に記憶させても構わない。この場合には、変化率算出部は、データ記憶部よりも前に配置される。また、法線方向変化率の誤差をデータ記憶部に記憶させても構わない。この場合には、形状誤差算出部はデータ記憶部の前に配置することができる。これらのどの場合でも数学的には等価である。
 図13に、本実施の形態の第1の加工システムのブロック図を示す。第1の加工システムは、前述の形状評価装置10を備える。第1の加工システムでは、CAD(Computer Aided Design)装置51にてワークの形状を設計する。CAD装置51は、ワークの設計データ52をCAM(Computer Aided Manufacturing)装置53に供給する。また、ワークの設計データ52は、形状評価装置10に入力される。
 CAM装置53は、設計データ52に基づいて、数値制御式の工作機械を駆動するための入力数値データ54を生成する。入力数値データ54には、ワークに対する工具の相対的な経路の情報が含まれている。CAM装置53には、工具条件や加工条件等の入力パラメータ57が入力される。工具条件には、工具の種類、工具径、および最適の切削速度等が含まれる。加工条件には、ピックフィード量、送り速度、および主軸の回転速度等が含まれる。
 第1の加工システムは、加工シミュレータ55を含む。加工シミュレータ55は、入力数値データ54および入力パラメータ57に基づいて、工作機械による加工を計算機にて模擬する。加工シミュレータ55に入力される入力パラメータ57には、模擬される工作機械の制御パラメータ等も含まれる。そして、加工シミュレータ55は、加工後のワークの形状の情報を含むシミュレータ出力データ56を出力する。シミュレータ出力データ56は、加工後のワークの座標値の情報や法線方向の情報等を含む。第1の加工システムでは、シミュレータ出力データ56が評価対象データに相当する。シミュレータ出力データ56は、形状評価装置10に入力される。
 形状評価装置10は、設計データ52およびシミュレータ出力データ56に基づいて、加工後のワークの形状に視認可能な形状誤差が含まれるか否かを判別する。視認可能な形状誤差が含まれる場合に、作業者は、出力部19に出力される評価結果に基づいて、CAD装置51にてワークの設計変更を行うことができる。または、作業者は、加工後のワークの形状に視認可能な形状誤差が含まれないように入力パラメータ57を変更することができる。
 このように、数値制御式の工作機械による切削加工のように、工具の軌跡が表面の形状に対応する場合には、工具の移動を模擬した数学モデルにより評価対象データを生成することができる。
 第1の加工システムでは、実際の加工を行わなくても加工後の形状の評価を行うことができる。そして、実際の加工を行う前に、加工後のワークの形状に視認可能な形状誤差が含まれないように設計形状を変更したり、入力パラメータを変更したりすることができる。
 図14に、本実施の形態の第2の加工システムのブロック図を示す。第2の加工システムは、数値制御式の工作機械60と、工作機械60にて加工した加工物(ワーク)の表面形状を測定する加工物測定器63を備える構成が第1の加工システムと異なる。CAM装置53にて出力された入力数値データ54は、工作機械60に入力される。工作機械60には制御パラメータ62が入力される。制御パラメータ62には、加減速の時定数、バックラッシ補正、および送り軸のフィードバック制御におけるゲイン等が含まれる。工作機械60は、制御パラメータ62および入力数値データ54に基づいて自動的にワークを加工することができる。工作機械60は、加工物61を形成する。
 加工物測定器63は、加工物61の表面形状を測定する。加工物測定器63としては、粗さ測定機や3次元測定機を例示することができる。そして、加工物測定器63は、加工物61の表面の形状の測定結果に基づいて、測定データ64を生成する。測定データ64には、座標値の情報や法線方向の情報等が含まれている。測定データ64は、評価対象データに相当する。測定データ64は、形状評価装置10に入力される。
 形状評価装置10は、設計データ52および測定データ64に基づいて、加工後の加工物61の形状に視認可能な形状誤差が含まれるか否かを判別する。視認可能な形状誤差が含まれる場合に、作業者は、出力部19に出力される評価結果に基づいて、CAD装置51にてワークの設計変更を行うことができる。または、作業者は、加工物の形状に視認可能な形状誤差が含まれないように、制御パラメータ62を変更することができる。
 このように、評価対象形状が実際の加工物の形状の場合にも定量的に表面形状の評価を行うことができる。また、評価結果が定量的に示されるために、制御パラメータ62およびワークの設計変更が容易になる。
 または、ワークを配置しない状態にて工作機械を駆動した時の工具およびワークの移動軌跡を測定することができる。そして、移動軌跡の測定結果に基づいて評価対象データを作成しても構わない。例えば、工具またはワークを配置するテーブルの移動軌跡を、ボールバーを含む真円測定器、グリッドエンコーダ、変位計、または加速度計などにより測定することができる。これらの測定結果に基づいて評価対象データを生成することができる。または、工作機械の制御装置において実施されるフィードバック制御に関する情報等を用いることもできる。
 この方法では、実際の加工を行うための工作機械の駆動を実施することができる。または、予め定められた工作機械の基本動作により測定を行うことができる。基本動作の測定結果に基づいて、実際の加工の工作機械の動作を推定し、推定した動作に基づいて評価対象データを作成しても構わない。この方法においても、実際のワークを加工しなくても加工後のワークの表面形状の評価を行うことができる。
 本発明の形状評価方法および形状評価装置は、人の視覚による評価が行われる製品の形状の評価に用いることができる。また、設計を行う時に形状公差の設定や、視覚的な問題が生じた場合に問題を解決する方法を定める時に用いることができる。
 上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、請求の範囲に示される実施の形態の変更が含まれている。
 10  形状評価装置
 11  データ記憶部
 12  形状誤差算出部
 13  変化率算出部
 14  変化率誤差算出部
 15  視認可能誤差検出部
 16  空間周波数処理部
 17  誤差判定部
 18  位置特定部
 19  出力部
 25  設計データ
 26  評価対象データ
 31  第1の試験物
 33  筋
 35  第2の試験物
 36  稜線
 40  対象物
 52  設計データ

Claims (7)

  1.  対象物の表面の形状を評価する形状評価方法であって、
     対象物の設計時の設計形状が設定された設計データを記憶する工程と、
     対象物の評価の対象である評価対象形状が設定された評価対象データを記憶する工程と、
     設計形状と評価対象形状とに基づいて形状誤差を算出する形状誤差算出工程と、
     形状誤差算出工程において算出された形状誤差と予め定められた視覚特性データとに基づいて、算出された形状誤差の中から視認可能な形状誤差を検出する視認可能誤差検出工程と、
     視認可能な形状誤差が発生している位置を特定する工程とを含むことを特徴とする、形状評価方法。
  2.  形状誤差算出工程は、評価対象形状の法線方向変化率から設計形状の法線方向変化率を減算することにより、形状誤差として法線方向変化率の誤差を算出する工程を含む、請求項1に記載の形状評価方法。
  3.  視覚特性データは、空間周波数に関する第1の視覚特性データと法線方向変化率の誤差の大きさに関する第2の視覚特性データとを含み、
     視認可能誤差検出工程は、第1の視覚特性データに基づいて、法線方向変化率の誤差から視認が不可能な空間周波数の成分を除去する工程と、第2の視覚特性データに基づいて、視認が可能な法線方向変化率の誤差が存在するか否かを判定する工程とを含む、請求項2に記載の形状評価方法。
  4.  第1の視覚特性データは、表面に視覚解像度を評価する形状を有する第1の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された空間周波数の判定値を含み、
     第2の視覚特性データは、表面に法線方向変化率の視認限界を評価する形状を有する第2の試験物を人が見たときに形状の変化を認識できる境界に基づいて設定された法線方向変化率の誤差の判定値を含む、請求項3に記載の形状評価方法。
  5.  第1の試験物は、間隔が徐々に狭くなる筋状の凹凸を有する表面の形状を有し、
     第2の試験物は、表面に法線方向が変化する稜線を有し、稜線での法線方向変化率が稜線の延びる方向に沿って連続的に変化する形状を有する、請求項4に記載の形状評価方法。
  6.  対象物の表面の形状を評価する形状評価装置であって、
     対象物の設計時の設計形状が設定された設計データを記憶する設計データ記憶部と、
     対象物の評価の対象である評価対象形状が設定された評価対象データを記憶する評価対象データ記憶部と、
     設計形状と評価対象形状とに基づいて形状誤差を算出する形状誤差算出部と、
     形状誤差算出部において算出された形状誤差と予め定められた視覚特性データとに基づいて、算出された形状誤差の中から視認可能な形状誤差を検出する視認可能誤差検出部と、
     視認可能な形状誤差が発生している位置を特定する位置特定部とを備えることを特徴とする、形状評価装置。
  7.  視覚特性データは、空間周波数に関する第1の視覚特性データと形状誤差の大きさに関する第2の視覚特性データとを含み、
     形状誤差算出部は、形状の変化率の誤差を算出するように形成されており、
     視認可能誤差検出部は、第1の視覚特性データに基づいて、形状の変化率の誤差から視認が不可能な空間周波数の成分を除去する空間周波数処理部と、第2の視覚特性データに基づいて、視認可能な形状の変化率の誤差が存在するか否かを判定する誤差判定部とを含む、請求項6に記載の形状評価装置。
PCT/JP2016/053074 2015-02-05 2016-02-02 形状評価方法および形状評価装置 WO2016125797A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/543,181 US10775166B2 (en) 2015-02-05 2016-02-02 Shape evaluation method and shape evaluation apparatus
EP16746628.3A EP3255379B1 (en) 2015-02-05 2016-02-02 Shape evaluation method and shape evaluation apparatus
CN201680008499.8A CN107209011B (zh) 2015-02-05 2016-02-02 形状评价方法以及形状评价装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-021309 2015-02-05
JP2015021309A JP6528308B2 (ja) 2015-02-05 2015-02-05 形状評価方法および形状評価装置

Publications (1)

Publication Number Publication Date
WO2016125797A1 true WO2016125797A1 (ja) 2016-08-11

Family

ID=56564137

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053074 WO2016125797A1 (ja) 2015-02-05 2016-02-02 形状評価方法および形状評価装置

Country Status (5)

Country Link
US (1) US10775166B2 (ja)
EP (1) EP3255379B1 (ja)
JP (1) JP6528308B2 (ja)
CN (1) CN107209011B (ja)
WO (1) WO2016125797A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147236A1 (ja) * 2017-02-10 2018-08-16 国立大学法人神戸大学 物体表面の評価方法、評価装置および該評価方法を用いたワークの加工方法および工作機械
CN110268345A (zh) * 2017-02-10 2019-09-20 国立大学法人神户大学 运动评价方法、评价装置以及使用了该评价方法的参数调节方法、工件的加工方法以及机床
WO2024069932A1 (ja) * 2022-09-30 2024-04-04 ファナック株式会社 加工面評価装置、加工面評価システム、及び加工面評価方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10859376B2 (en) * 2016-02-25 2020-12-08 Mitutoyo Corporation Information processing apparatus, information processing method, and non-transitory computer readable recording medium
CN109410326B (zh) * 2018-09-17 2022-03-18 中山大学 一种三维地层模型内部自由漫游方法
JP7356940B2 (ja) * 2020-03-23 2023-10-05 ホヤ レンズ タイランド リミテッド レンズ評価方法、レンズ設計方法、眼鏡レンズの製造方法およびレンズ評価プログラム
CN113050019B (zh) * 2021-03-04 2023-07-11 国网湖南省电力有限公司 数据驱动评估结果和检定规程融合的电压互感器评估方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08159740A (ja) * 1994-12-08 1996-06-21 Honda Motor Co Ltd 表面歪み判定方法
JPH1096696A (ja) * 1996-09-25 1998-04-14 Mitsubishi Heavy Ind Ltd 対象物にあるむらの検査方法および装置
JP2006258503A (ja) * 2005-03-15 2006-09-28 Fuji Xerox Co Ltd 光沢評価装置、光沢評価方法及び光沢評価プログラム
JP2008241407A (ja) * 2007-03-27 2008-10-09 Mitsubishi Electric Corp 欠陥検出方法及び欠陥検出装置
JP2011185659A (ja) * 2010-03-05 2011-09-22 Sumitomo Bakelite Co Ltd むらの視認性判定装置、むらの視認性判定方法およびプログラム
JP2013029350A (ja) * 2011-07-27 2013-02-07 Hitachi Ltd 外観検査方法及びその装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3057960B2 (ja) * 1993-06-22 2000-07-04 トヨタ自動車株式会社 三次元形状加工物の評価装置
WO1998049524A1 (fr) * 1997-04-25 1998-11-05 Riken Procede permettant d'etablir une distinction entre des erreurs de forme d'une surface courbe a forme libre
JP3754003B2 (ja) * 2001-06-21 2006-03-08 株式会社リコー 欠陥検査装置及びその方法
EP1457805A4 (en) * 2001-12-21 2007-03-28 Matsushita Electric Ind Co Ltd OPTICAL SCAN DEVICE AND COLOR RECORDING DEVICE
CN1685220B (zh) * 2002-09-30 2010-04-28 应用材料以色列股份有限公司 暗场检测系统
CN1720742B (zh) * 2002-12-03 2012-01-04 Og技术公司 用于检测诸如轧制/拉制金属条的工件上的表面缺陷的装置和方法
JP2006214886A (ja) * 2005-02-03 2006-08-17 Sharp Corp 光学素子の欠陥検出方法および欠陥検出装置
JP2007309696A (ja) * 2006-05-16 2007-11-29 Kirin Techno-System Co Ltd 表面検査ヘッド装置
CN101110100B (zh) * 2006-07-17 2012-05-02 松下电器产业株式会社 检测包含任意线段组合的形状的方法及装置
JP5081590B2 (ja) * 2007-11-14 2012-11-28 株式会社日立ハイテクノロジーズ 欠陥観察分類方法及びその装置
DE102008018445A1 (de) * 2008-04-07 2009-10-15 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum tomographischen Vermessen von mechanischen Werkstücken
JP2011127936A (ja) * 2009-12-15 2011-06-30 Asahi Glass Co Ltd 物体の三次元の表面形状の評価方法及び評価装置並びに車両用窓ガラスの製造方法
US8532812B2 (en) * 2010-06-29 2013-09-10 Mitsubishi Electric Research Laboratories, Inc. System and method for identifying defects of surfaces due to machining processes

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08159740A (ja) * 1994-12-08 1996-06-21 Honda Motor Co Ltd 表面歪み判定方法
JPH1096696A (ja) * 1996-09-25 1998-04-14 Mitsubishi Heavy Ind Ltd 対象物にあるむらの検査方法および装置
JP2006258503A (ja) * 2005-03-15 2006-09-28 Fuji Xerox Co Ltd 光沢評価装置、光沢評価方法及び光沢評価プログラム
JP2008241407A (ja) * 2007-03-27 2008-10-09 Mitsubishi Electric Corp 欠陥検出方法及び欠陥検出装置
JP2011185659A (ja) * 2010-03-05 2011-09-22 Sumitomo Bakelite Co Ltd むらの視認性判定装置、むらの視認性判定方法およびプログラム
JP2013029350A (ja) * 2011-07-27 2013-02-07 Hitachi Ltd 外観検査方法及びその装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147236A1 (ja) * 2017-02-10 2018-08-16 国立大学法人神戸大学 物体表面の評価方法、評価装置および該評価方法を用いたワークの加工方法および工作機械
JP2018128993A (ja) * 2017-02-10 2018-08-16 国立大学法人神戸大学 物体表面の評価方法、評価装置および該評価方法を用いたワークの加工方法および工作機械
CN110268345A (zh) * 2017-02-10 2019-09-20 国立大学法人神户大学 运动评价方法、评价装置以及使用了该评价方法的参数调节方法、工件的加工方法以及机床
EP3582042A4 (en) * 2017-02-10 2020-12-23 National University Corporation Kobe University MOVEMENT EVALUATION PROCESS, EVALUATION DEVICE, PARAMETER ADJUSTMENT PROCESS USING ITS EVALUATION PROCESS, PART MACHINING PROCESS AND MACHINE TOOL
CN110268345B (zh) * 2017-02-10 2022-09-09 株式会社牧野铣床制作所 运动评价方法、评价装置以及使用了该评价方法的参数调节方法、工件的加工方法以及机床
US11507051B2 (en) 2017-02-10 2022-11-22 Makino Milling Machine Co., Ltd. Object surface evaluation method, evaluation device, workpiece machining method using said evaluation method, and machine tool
WO2024069932A1 (ja) * 2022-09-30 2024-04-04 ファナック株式会社 加工面評価装置、加工面評価システム、及び加工面評価方法

Also Published As

Publication number Publication date
EP3255379A1 (en) 2017-12-13
EP3255379A4 (en) 2018-07-25
JP2016142720A (ja) 2016-08-08
US10775166B2 (en) 2020-09-15
US20170370714A1 (en) 2017-12-28
JP6528308B2 (ja) 2019-06-12
CN107209011A (zh) 2017-09-26
CN107209011B (zh) 2019-07-26
EP3255379B1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
WO2016125797A1 (ja) 形状評価方法および形状評価装置
US10018989B2 (en) Method of evaluating a machined surface of a workpiece, a controlling apparatus and a machine tool
US9418449B2 (en) Device and method for measuring surfaces
EP3425540B1 (en) Object-surface correcting method and processing method
CN101253385A (zh) 应变评价装置及应变评价方法
Kukreja et al. Estimation of scallop height in freeform surface CNC Machining
JP7396857B2 (ja) 表示装置
CN110291475B (zh) 物体表面的评价方法、评价装置及使用该评价方法的工件的加工方法及机床
Otsuki et al. Evaluating surface quality by luminance and surface roughness
CN113557484B (zh) 加工面性状评价装置及加工面性状评价方法
Nóbrega et al. Development of a measurement strategy, based on NURBS, for the determination of Total Profile Deviation (F α) in spur gears
JP6300594B2 (ja) ワーク品質判定方法及びワーク品質判定システム
JP6057829B2 (ja) 品質判定装置及び品質判定方法
JP4791919B2 (ja) 画像処理装置
JP2024043488A (ja) ワーク品質判定方法及びワーク品質判定システム
JP6935864B2 (ja) 板厚寸法評価方法及びその装置
WO2017167410A1 (de) Mehr-richtungs-triangulations-messsystem mit verfahren
Filip et al. Perception of Car Shape Orientation and Anisotropy Alignment.
CN117073988A (zh) 抬头显示虚像距离测量系统及方法、电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16746628

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15543181

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016746628

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE