WO2017138113A1 - 表面実装機、認識誤差補正方法 - Google Patents

表面実装機、認識誤差補正方法 Download PDF

Info

Publication number
WO2017138113A1
WO2017138113A1 PCT/JP2016/053951 JP2016053951W WO2017138113A1 WO 2017138113 A1 WO2017138113 A1 WO 2017138113A1 JP 2016053951 W JP2016053951 W JP 2016053951W WO 2017138113 A1 WO2017138113 A1 WO 2017138113A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
mark
camera
correction value
update
Prior art date
Application number
PCT/JP2016/053951
Other languages
English (en)
French (fr)
Inventor
鈴木 康弘
純司 山口
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to US16/076,640 priority Critical patent/US10849261B2/en
Priority to CN201680080885.8A priority patent/CN108605432B/zh
Priority to JP2017566463A priority patent/JP6731003B2/ja
Priority to PCT/JP2016/053951 priority patent/WO2017138113A1/ja
Priority to DE112016006383.0T priority patent/DE112016006383T5/de
Publication of WO2017138113A1 publication Critical patent/WO2017138113A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0815Controlling of component placement on the substrate during or after manufacturing
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0818Setup of monitoring devices prior to starting mounting operations; Teaching of monitoring devices for specific products; Compensation of drifts during operation, e.g. due to temperature shifts
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/089Calibration, teaching or correction of mechanical systems, e.g. of the mounting head

Definitions

  • the technology disclosed in this specification relates to a technology for improving the recognition accuracy of a camera.
  • surface mounters are equipped with a camera to recognize images of electronic parts attracted and held by the mounting head and fiducial marks on the printed circuit board.
  • Patent Document 1 shown below discloses a technique for suppressing a shift in the mounting position caused by a change in the pixel rate of a camera due to a temperature change. Specifically, when the temperature changes, the camera is moved to the in-focus position, and the in-focus position at that time is measured. Then, by calculating the difference from the in-focus position serving as a reference and updating the pixel rate, a shift in the mounting position of the electronic component caused by a change in the pixel rate due to a temperature change is suppressed.
  • the recognition error of the camera may differ depending on the recognition position. This is due to factors such as distortion of the lens and mirror, and in general, the recognition error becomes larger at a portion away from the center than at the center portion of the camera. In order to improve the recognition accuracy of the camera, it is preferable to suppress recognition errors depending on the recognition position of the camera.
  • the technology disclosed in the present specification has been created in view of the above-described problems, and suppresses a recognition error depending on the recognition position of the camera and improves the recognition accuracy of the camera.
  • the purpose is to improve the mounting accuracy of parts.
  • the surface mounter disclosed in this specification is a surface mounter that mounts electronic components on a printed circuit board, and is movable in a planar direction with respect to the base and the base.
  • a control unit wherein the control unit recognizes each of the marks from the mark recognition process for recognizing the image by photographing the mark at a plurality of positions in the field of view of the camera and the recognition result acquired in the mark recognition process.
  • Correction value calculation processing for calculating a correction value for correcting a recognition error at a position, mounting-related component recognition processing for recognizing an image by photographing the printed circuit board or the electronic component with the camera, and recognition of the printed circuit board or the electronic component Previous result And correction processing for correcting, based on the correction value, is carried out.
  • the recognition position is an image position on the imaging surface (image surface) of the camera.
  • the control unit performs an update mark recognition process and an update mark recognition process for recognizing an image by photographing the mark again with the camera when a predetermined time has elapsed since the previous mark recognition by the camera. Based on the acquired recognition result of the mark, correction value update processing for updating the correction value at each recognition position is performed. In this way, recognition errors of the component recognition camera due to temperature changes can be suppressed.
  • the camera is a line sensor camera provided with a one-dimensional image sensor
  • the update mark recognition process the mark is photographed at a plurality of points in the field of view of the line sensor camera, and image recognition is performed.
  • the correction value update process a recognition error at each recognition position based on the recognition result at the plurality of points acquired in the mark update recognition process and the correction value before the update, the correction value before the update An approximate straight line that approximates the recognition error after correction is calculated, and the correction value at each recognition position is updated based on the calculated approximate straight line and the correction value before update. In this way, since the number of measurement points is small, the process of updating the correction data can be performed in a short time.
  • the mark is provided on the mounting portion
  • the camera is provided on the base
  • the camera is a component recognition camera that photographs an electronic component held on the mounting portion.
  • the mark can be moved to the position of the camera using the mounting unit.
  • the mounting unit marks the plurality of mounting heads aligned in the X-axis direction with the mark.
  • the mark is recognized at three points of the imaging center and two imaging positions that are separated from the center of the visual field by a predetermined distance in the Y-axis direction, The distance in the Y-axis direction from the center of the visual field to the photographing position is equal to the distance in the Y-axis direction from the center line of the mounting unit to the mounting head.
  • FIG. It is a figure which shows the recognition error (after correction
  • FIG. It is a figure which shows the approximate straight line of recognition error. It is a figure which shows the measurement procedure of the mark by 3 points
  • the surface mounter 1 includes a base 11, a transport conveyor 20 that transports a printed circuit board P, a head unit 60, and a head unit 60 on the base 11. And a driving device 30 that moves in a plane direction (X-axis-Y-axis direction).
  • X-axis-Y-axis direction the longitudinal direction of the base 11
  • the depth direction of the base 11 up-down direction in FIG. 1
  • FIG. The vertical direction is the Z direction.
  • the head unit 60 corresponds to the “mounting part” of the present invention.
  • “mounting” means “mounting electronic components on a printed circuit board”.
  • the transport conveyor 20 is disposed in the center of the base 11.
  • the conveyor 20 includes a pair of conveyor belts 21 that are circulated and driven in the X-axis direction, and conveys the printed circuit board P on the conveyor belt 21 in the X-axis direction by friction with the belt.
  • the left side shown in FIG. 1 is an entrance, and the printed board P is carried into the machine through the conveyor 20 from the left side shown in FIG.
  • the loaded printed circuit board P is transported to the work position in the center of the base by the transport conveyor 20 and stopped there.
  • each of these component supply units 13 is provided with a large number of feeders 80 that supply the electronic component B in a side-by-side manner.
  • the electronic component B and the printed board P are examples of mounting-related components.
  • the mounting process for mounting the electronic component B supplied through the feeder 80 on the printed circuit board P is performed by the mounting head 63 mounted on the head unit 60, and then the mounting process is finished.
  • the printed circuit board P is conveyed rightward in FIG. 1 through the conveyor 20 and is carried out of the apparatus.
  • the driving device 30 is roughly composed of a pair of support legs 41, a head support 51, a Y-axis ball screw 45, a Y-axis motor 47, an X-axis ball screw 55, and an X-axis motor 57.
  • a pair of support legs 41 are installed on the base 11. Both support legs 41 are located on both sides of the working position, and both extend straight in the Y-axis direction.
  • a guide rail 42 extending in the Y-axis direction is installed on both support legs 41 on the upper surface of the support leg, and a head support 51 is attached to both the left and right guide rails 42 while fitting both ends in the longitudinal direction. .
  • a Y-axis ball screw 45 extending in the Y-axis direction is attached to the right support leg 41, and a ball nut (not shown) is screwed to the Y-axis ball screw 45.
  • a Y-axis motor 47 is attached to the Y-axis ball screw 45.
  • the head support 51 has a shape that is long in the X-axis direction. As shown in FIG. 2, a guide member 53 extending in the X-axis direction is installed on the head support 51, and the head unit 60 is movable with respect to the guide member 53 along the axis of the guide member 53. It is attached. An X-axis ball screw 55 extending in the X-axis direction is attached to the head support 51, and a ball nut is screwed onto the X-axis ball screw 55.
  • An X-axis motor 57 is attached to the X-axis ball screw 55.
  • the motor 57 When the motor 57 is energized, the ball nut advances and retreats along the X-axis ball screw 55.
  • the head unit fixed to the ball nut. 60 moves in the X-axis direction along the guide member 53 (X-axis servo mechanism).
  • the head unit 60 can be moved on the base 11 in the plane direction (X-axis-Y-axis direction).
  • a plurality of mounting heads 63 for mounting the electronic component B are mounted on the head unit 60. As shown in FIG. 6, the mounting heads 63 are provided side by side at equal intervals in the X-axis direction. The mounting heads 63 are provided in two rows on both sides of the mark 67 in the Y-axis direction.
  • the mark 67 is provided on the lower surface wall 61 of the head unit 60.
  • the mark 67 is provided to correct a recognition error of the component recognition camera 90 (details will be described later).
  • Each mounting head 63 is configured to be able to move up and down with respect to the head unit 60 by rotation around an axis by an R-axis motor and driving of a Z-axis motor.
  • Each mounting head 63 is configured to be supplied with negative pressure from a negative pressure means (not shown) so as to generate a suction force at the head tip.
  • the X-axis motor 57, the Y-axis motor 47, and the Z-axis motor are operated at a predetermined timing, whereby the electronic component B supplied through the feeder 80 is taken out by the mounting head 63 and printed. A process of mounting on the substrate P can be executed.
  • the substrate recognition camera 65 is fixed to the head unit 60 with the imaging surface facing downward, and is configured to move integrally with the head unit 60.
  • the board recognition camera 65 has a function of capturing a printed board and recognizing the image.
  • reference numeral “90” shown in FIGS. 1 and 3 is a component recognition camera.
  • the component recognition camera 90 is fixed on the base 11 with the imaging surface facing upward, images the electronic component B sucked and held by the mounting head 63, and the electronic component B sucked and held by the mounting head 63. Responsible for detecting the posture.
  • the component recognition camera 90 includes a frame 91, a light source 92 that irradiates light on the subject (electronic component B), a first mirror 93, a second mirror 94, A lens 95 and an image sensor 97 are provided.
  • the light beam G entering the component recognition camera 90 is reflected by the first mirror 93 and the second mirror 94, then passes through the lens 95 and enters the image sensor 97. ing. Therefore, an image of the electronic component B can be taken by taking an image in accordance with the timing when the electronic component B passes right above the component recognition camera 90.
  • the component recognition camera 90 is a line sensor camera, and as shown in FIG. 3, the image sensor (imaging unit) 97 is a one-dimensional image sensor in which the light receiving elements 97A are arranged in a line in the Y-axis direction.
  • imaging is continuously performed a plurality of times while the electronic component B is moved in the X-axis direction with respect to the component recognition camera 90. Then, the two-dimensional reflection image of the electronic component B can be obtained by arranging the one-dimensional image of the electronic component B acquired in each shooting in the X-axis direction and making it two-dimensional.
  • FIG. 5 is a block diagram showing an electrical configuration of the surface mounter 1.
  • the surface mounter 1 includes a controller 150, a driver 160, an image processing unit 170, and an I / O 180.
  • the controller 150 includes a CPU 151 and a storage unit 153.
  • the storage unit 153 stores various information for mounting the electronic component B on the printed circuit board P, such as a mounting program. Further, correction data (see FIG. 9) for correcting the recognition error of the component recognition camera 90 is stored.
  • the controller 150 functions to control and supervise the surface mounter 1.
  • the axis motors 57 and 47 are connected to the driver 160.
  • the driver 160 functions to control the motors 57 and 47 in response to commands from the controller 150.
  • the controller 150 gives a command to the driver 160 according to the mounting program, whereby each axis motor is controlled and the mounting operation of the electronic component B on the printed circuit board P is performed.
  • a feeder 80 and sensors are electrically connected to the controller 150 via the I / O 180.
  • the controller 150 corresponds to the “control unit” of the present invention.
  • the recognition errors ⁇ X and ⁇ Y of the component recognition camera 90 differ depending on the recognition position Py of the camera. This is due to factors such as distortion of the mirrors 93 and 94 and the lens 95, and is generally compared with the central portion of the field of view (the central portion of the image sensor 97 and the central portion of the lens in plan view).
  • the recognition errors ⁇ X and ⁇ Y increase at positions away from the center of the visual field (positions away from the center of the image sensor 97). In order to improve the recognition accuracy of the component recognition camera 90, it is preferable to suppress recognition errors ⁇ X and ⁇ Y that depend on the recognition position Py of the camera.
  • two rows of mounting heads 63 are mounted on the head unit 60, and as shown in FIG. 6B, the electronic component B is mounted using only the visual field center PO of the component recognition camera 90.
  • the method of photographing one row at a time as shown in FIG. 6A, there is a method of photographing two rows of electronic components B at a time using two photographing positions PA and PB distant from the visual field center PO. is there.
  • the recognition errors ⁇ X and ⁇ Y at each recognition position Py are measured, and the recognition errors ⁇ X and ⁇ Y at each recognition position Py are corrected by the correction value CX. , CY (correction data shown in FIG. 9).
  • the correction values CX and CY correct the recognition errors ⁇ X and ⁇ Y in the minus direction. As shown in the following equations (1) and (2), the recognition errors ⁇ X and ⁇ Y are plus and minus. The sign is reversed.
  • the recognition result at each recognition position Py acquired by the component recognition camera 90 is corrected based on the correction values CX and CY acquired in advance, whereby the recognition of the component recognition camera 90 is performed. A recognition error depending on the position Py is suppressed.
  • the recognition position Py refers to the image plane S2 of the camera 90, that is, the image position (image position) on the image sensor 97, as shown in FIG.
  • FIG. 7 is an optical path diagram showing the imaging action of the camera 90, where “S1” is the object plane (the surface of the mark 67 to be imaged), “S2” is the image plane (the imaging plane of the image sensor 97), “S3” indicates a lens. “Po” indicates the center of the image sensor (image center), and “PO” indicates the center of the field of view.
  • “PY” on the object plane S1 indicates a shooting position
  • “Py” on the image plane S2 indicates a recognition position with respect to the shooting position PY
  • “K1” and “K2” on the object plane S1 indicate the field edges.
  • the coordinates of the image photographed by the component recognition camera 90 have the visual field center PO as the origin
  • the X-axis direction and Y-axis direction of the surface mounter 1 are the X-axis direction and Y-axis direction of the image as they are.
  • mirrors 93 and 94 are interposed between the object to be photographed and the lens, but in FIG. 7, these mirrors 93 and 94 are omitted.
  • the mark 67 used for measuring the recognition error will be described.
  • the mark 67 is fixed to the lower surface wall 61 of the head unit 60.
  • a pair of marks 67 is provided at the center of the lower surface wall 61 in the Y-axis direction and is provided on both sides in the X-axis direction.
  • the mark 67 is circular. It should be noted that only one of the two marks 67 needs to be photographed for recognition error measurement.
  • the mark 67 selected as an imaging target is referred to as a selected mark.
  • the selected mark 67 is photographed at a plurality of positions within the field of view of the component recognition camera 90. That is, by moving the head unit 60, the selected mark 67 is moved in the X-axis direction within the field of view of the component recognition camera at the predetermined shooting position PY, and passes through the predetermined shooting position PY. . Then, shooting is performed in accordance with the timing when the mark 67 passes the predetermined shooting position PY.
  • Such shooting is performed at each shooting position PY while changing the coordinate in the Y-axis direction within the field of view of the camera 90. Then, a recognition error ⁇ X in the X-axis direction and a recognition error ⁇ Y in the Y-axis direction at each recognition position Py are obtained from each recognition result of the selected mark 67 at each photographing position PY.
  • FIG. 8 shows a recognition result when the mark 67 is photographed at the photographing position PA.
  • “Pa” in FIG. 8 is the actual position of the mark 67.
  • “Pa + ⁇ Y” is an image position, that is, a recognition position of the mark 67. Note that an image (inverted image) obtained by inverting the object to be imaged is formed on the image sensor 97 by the action of the lens S3.
  • FIG. 8 shows the recognition result grasped by the image processing unit 170, that is, the inversion. The recognition result of the state which processed and returned to the original state is shown.
  • Recognition errors ⁇ X and ⁇ Y are errors of an actual recognition result with respect to an ideal recognition position when there is no distortion in the lens or mirror, ⁇ X is a recognition error in the X-axis direction at the recognition position Pa + ⁇ Y, and ⁇ Y is a recognition position Pa + ⁇ Y.
  • the recognition error in the Y-axis direction is shown.
  • the deviation of the position of the recognized center position O of the mark 67 from the actual center position Os of the mark 67 is calculated as recognition errors ⁇ X and ⁇ Y.
  • the calculated recognition error “ ⁇ X” is set as the correction value “CX Pa + ⁇ Y” at the recognition position Pa + ⁇ Y
  • the recognition error “ ⁇ Y” is set as the correction value “CY” at the recognition position Pa + ⁇ Y. Pa + ⁇ Y ”.
  • the correction value CX Pa + ⁇ Y in the X-axis direction and the correction value CY Pa + ⁇ Y in the Y-axis direction are obtained for the recognition position Pa + ⁇ Y.
  • the X-axis direction correction value CX Py + ⁇ Y and the Y-axis direction correction value CY Py + ⁇ Y are obtained for each recognition position Py + ⁇ Y.
  • the correction value CX Py + ⁇ Y of each recognition position Py + ⁇ Y is interpolated using an approximation method such as a linear approximation or a least square method, and each recognition position Py.
  • Correction value CX Py is calculated, and correction value CY Py + ⁇ Y of each recognition position Py + ⁇ Y is interpolated using an approximation method such as linear approximation or least square method to calculate correction value CX Py of each recognition position Py.
  • the correction data shown in FIG. 9 is obtained.
  • the recognition position Py is set in increments of 5 mm, but actually, as described later, the mark 67 is photographed in increments of 1 mm, the correction value in the X-axis direction of each recognition position Py, and the Y-axis direction. Correction values are obtained in 1 mm increments.
  • the correction value “CX Py ” for the recognition position Py is expressed as “CX”
  • the correction value “CY Py ” for the recognition position Py is expressed as “CY”.
  • FIG. 10 is a flowchart showing a procedure for calculating the correction values CX and CY.
  • step S ⁇ b> 10 under the control of the controller 150, image recognition is performed by photographing the mark 67 with the component recognition camera 90, and then the mark 67 is temporarily moved to the visual field center PO of the component recognition camera 90.
  • the part recognition camera 90 photographs the mark 67 and recognizes the image while moving the mark 67 in the X axis direction at the minus visual field end.
  • S40 is an example of the “mark recognition process, mark recognition step” of the present invention.
  • the controller 150 performs a process of determining whether or not the mark 67 is photographed at the plus visual field end. At this stage, since shooting is not performed at the positive visual field end, the process flow returns to S40, and the second mark recognition by the component recognition camera 90 is executed under the control of the controller 150.
  • the image is recognized by photographing the mark 67 with the component recognition camera 90. Thereby, a recognition result is obtained at a position about 1 mm away from the minus visual field end.
  • the part recognition camera 90 photographs the mark 67 and recognizes the image while moving the position of the mark 67 by 1 mm in the Y-axis direction. Thereby, the recognition result at each position separated by 1 mm from the minus visual field end is obtained.
  • the mark 67 reaches the positive visual field end, and the mark 67 is photographed at that position.
  • the controller 150 executes a process of creating correction data and a process of saving the created correction data in the storage unit 153. Specifically, from the recognition result at each photographing position PY that is 1 mm apart from the minus visual field edge, the recognition error ⁇ X in the X axis direction at each recognition position Py that is approximately 1 mm apart from the visual field edge, the Y axis direction Recognition errors ⁇ Y are calculated respectively. Then, values obtained by reversing the sign with respect to the recognition errors ⁇ X and ⁇ Y are stored as the correction value CX in the X-axis direction and the correction value CY in the Y-axis direction. S80 is an example of the “correction value calculation process, correction value calculation step” of the present invention.
  • correction values CX Py + ⁇ Y and CY Py + ⁇ Y at the recognition positions Py + ⁇ Y are actually calculated from the recognition results.
  • the correction values CX, CY at the recognition positions Py It is obtained by interpolating data using an approximation method such as linear approximation or least square method.
  • the controller 150 executes a process of taking out the electronic component B from the feeder 80 (S100). Specifically, the motors 47 and 57 are controlled via the driver 160 to move the mounting head 63 above the feeder 80. Then, the mounting head 63 is lowered toward the component removal position of the feeder 80, and the electronic component B is removed from the feeder 80.
  • controller 150 controls the motors 47 and 57 through the driver 160 to pass the electronic component B sucked by the mounting head 63 so as to cross over the component recognition camera 90.
  • the head unit 60 is moved to the X axis at a position where the two rows of mounting heads 63 arranged in the Y axis direction overlap the field of view of the component recognition camera 90 in the Y axis direction. Move in the direction. Then, photographing is performed in accordance with the timing at which the electronic component B sucked and held by the two rows of mounting heads 63 passes through the component recognition camera 90.
  • the electronic component B attracted and held by the two rows of mounting heads 63 can be photographed at once by the component recognition camera 90. Then, the controller 150 recognizes the electronic component from the image of the electronic component B (S110).
  • S110 is "mounting related component recognition processing, It is an example of a “mounting related component recognition step”.
  • the controller 150 executes a process of correcting the recognition result of the electronic component B based on the correction data (S120). That is, the correction values CX and CY corresponding to each recognition position Py are read with reference to the correction data stored in the storage unit 153. Note that S120 is an example of the “correction process, correction step” of the present invention.
  • the recognition result at each recognition position Py is corrected with correction values CX and CY. That is, when the correction values at a certain recognition position Py are CX and CY, the coordinates in the X-axis direction and the Y-axis direction are corrected by (CX, CY) for the recognition result of the recognition position Py. Such correction is performed for each recognition result at each recognition position Py. By doing in this way, the recognition error depending on the recognition position Py of the component recognition camera 90 can be suppressed.
  • the controller 150 next performs the process of detecting the inclination of the electronic component B and the displacement of the suction position based on the corrected recognition result. Thereafter, the electronic component B is mounted on the printed circuit board P while correcting the detected inclination and displacement of the suction position.
  • the recognition errors ⁇ X and ⁇ Y that depend on the recognition position Py of the component recognition camera 90 can be suppressed. Therefore, the recognition accuracy of the component recognition camera 90 can be improved, and the mounting accuracy of the electronic component B on the printed circuit board P can be improved.
  • a method for correcting the recognition error there is a method in which a dedicated jig for detecting the recognition error (for example, a mark provided for each recognition position) is photographed with a camera. Then, the recognition error of the component recognition camera 90 can be corrected without using such a jig.
  • FIG. 12 and 13 are diagrams comparing the magnitudes of the recognition errors ⁇ X and ⁇ Y at each recognition position Py before and after correction.
  • the recognition errors ⁇ X and ⁇ Y are relatively small in the central portion of the camera, whereas the recognition errors ⁇ X and ⁇ Y are large on the camera's visual field end side. Recognition errors ⁇ X and ⁇ Y are different between the portion and the field edge.
  • the recognition errors ⁇ X and ⁇ Y are small for the entire range of the visual field including the field edge, and the data also depends on the recognized position Py. As a result, the recognition errors ⁇ X and ⁇ Y can be suppressed.
  • FIG. 13 shows the recognition errors ⁇ X and ⁇ Y after correction when the temperature inside the surface mounter 1 has not changed or is small after the mark recognition by the camera 90, and the recognition error is kept small for the entire range of the visual field. It has been.
  • FIG. 14 shows a case where the recognition result of the component recognition camera 90 is corrected using the correction values CX and CY before the temperature change when the temperature inside the surface mounter 1 has changed since the mark recognition by the camera 90.
  • Recognition errors ⁇ X and ⁇ Y are shown, and the corrected recognition errors ⁇ X and ⁇ Y are enlarged as compared with FIG.
  • processing for recognizing the mark 67 by the component recognition camera 90 is periodically executed. And the process which updates correction value CX, CY from the obtained recognition result is performed.
  • the graph of FIG. 15A shows the time when the recognition result is corrected using the correction value CY before the update when a predetermined time T has elapsed since the previous mark recognition by the component recognition camera 90.
  • Recognition error ⁇ Yr The graph of FIG. 15B shows the recognition error ⁇ Xr after correcting the recognition result using the correction value CX before update when a predetermined time T has elapsed since the previous mark recognition by the component recognition camera. Yes.
  • the recognition error in the X-axis direction after correcting the recognition result using the correction values CX and CY before update is ⁇ Xr.
  • YY direction recognition error is ⁇ Yr.
  • the recognition errors ⁇ Xr and ⁇ Yr after correcting the recognition result using the correction values CX and CY before the update are directed from the image sensor center Po toward the visual field end side. It can be approximated by a straight line.
  • the “first approximate straight line Ly1” connects “recognition error ⁇ Yr at the image sensor center Po” and “recognition error ⁇ Yr at a recognition position Pa that is a predetermined distance away from the image sensor center Po on the negative side in the Y-axis direction”. It is a straight line.
  • the “second approximate straight line Ly2” includes “a recognition error ⁇ Yr at the image sensor center Po” and “a recognition error ⁇ Yr at a recognition position Pb that is a predetermined distance away from the image sensor center Po in the positive direction of the Y axis”. It is a straight line that connects.
  • ⁇ 2 and ⁇ 4 indicate the inclinations of the approximate lines Ly1 and Ly2.
  • the values of ⁇ 2 and ⁇ 4 are positive in the counterclockwise direction with respect to the X axis for each of the positive side and the negative side of the recognition position Py. In the example of FIG. 15A, both ⁇ 2 and ⁇ 4 are It is a plus.
  • the recognition error ⁇ Xr is in the X-axis direction, as shown in FIG. 15B, the “first approximate straight line Lx1” that approximates the minus side area (Py ⁇ 0) and the plus side area ( It can be approximated by a “second approximate straight line Lx2” that approximates (Py ⁇ 0).
  • the “first approximate straight line Lx1” connects “recognition error ⁇ Xr at the image sensor center Po” and “recognition error ⁇ Xr at a recognition position Pa that is a predetermined distance away from the image sensor center Po on the negative side in the Y-axis direction”. It is a straight line.
  • the “second approximate straight line Lx2” includes “a recognition error ⁇ Yr at the image sensor center Po” and “a recognition error ⁇ Yr at a recognition position Pb that is a predetermined distance away from the image sensor center Po on the plus side in the Y-axis direction”. It is a straight line that connects.
  • angles ⁇ 1 and ⁇ 3 indicate the inclinations of the approximate lines Lx1 and Lx2.
  • the values of the angles ⁇ 1 and ⁇ 3 are positive on the positive and negative sides of the recognition position Py with respect to the X axis, and in the example of FIG. 15A, ⁇ 1 is positive and ⁇ 3 is negative. It is.
  • the mark 67 is photographed and recognized at the following three points.
  • a shooting position PA that is a predetermined distance away from the visual field center PO on the negative side in the Y-axis direction.
  • the shooting position PA corresponds to the recognition position Pa
  • the shooting position PB corresponds to the recognition position Pb.
  • the recognition result at each recognition position Po, Pa, Pb is obtained by the mark photographing at each photographing position PO, PA, PB. Thereafter, the recognition results at the recognition positions Po, Pa, and Pb are corrected with the correction values CX and CY before update. Next, the recognition result of the corrected mark 67 is compared with the actual position of the mark 67, and the recognition error of the corrected mark 67, that is, the recognition error ⁇ Xr in the X-axis direction and the recognition error ⁇ Yr in the Y-axis direction are obtained. The recognition positions Po, Pa, and Pb are respectively calculated.
  • the latest correction values CX2 and CY2 for correcting the recognition error when the predetermined time T has elapsed since the previous mark recognition can be calculated as follows.
  • the latest correction value CX2 in the X-axis direction for each recognition position Py when Py ⁇ 0, as shown by the following equation (3), the coordinates of the recognition position Py, the inclination ⁇ 1 of the approximate straight line Lx1, and the pre-update Can be approximately calculated from the correction value CX1 in the X-axis direction.
  • Py ⁇ as shown by the following equation (4), approximately from the coordinates of the recognition position Py, the inclination ⁇ 3 of the approximate straight line Lx2, and the correction value CX1 in the X-axis direction before the update Can be calculated.
  • CX1 is a correction value before updating in the X-axis direction at each recognition position Py.
  • ⁇ 1 represents the slope of the first approximate line Lx1
  • ⁇ 3 represents the slope of the second approximate line Lx2.
  • the latest correction value CY2 in the Y-axis direction with respect to each recognition position Py when Py ⁇ 0, as shown in the following equation (5), the coordinates of the recognition position Py, the inclination ⁇ 2 of the approximate straight line Ly1, It can be calculated from the correction value CY1 in the Y-axis direction before update.
  • Py ⁇ as shown by the following equation (6), it can be calculated from the recognition position Py, the inclination ⁇ 4 of the approximate straight line Ly2, and the correction value CY1 in the Y-axis direction before update. .
  • CY1 is a correction value before updating in the Y-axis direction at each recognition position Py.
  • ⁇ 2 represents the slope of the first approximate line Ly1
  • ⁇ 4 represents the slope of the second approximate line Ly2.
  • FIG. 17A is a graph in which the horizontal axis is the recognition position Py, the positive side of the vertical axis is the recognition error ⁇ X, and the negative side of the vertical axis is the correction value CX.
  • ⁇ X1 is an uncorrected recognition error before the temperature change with respect to the recognition position Py
  • ⁇ X2 is an uncorrected recognition error after the temperature change.
  • the difference between ⁇ X2 and ⁇ X1 is approximately equal to the recognition error ⁇ Xr when corrected by applying the correction value CX1 before the update, so as shown in FIG.
  • the angle between the two straight lines L1 and L2 is substantially equal to the angle “ ⁇ x” of the approximate straight line Lx.
  • the correction value CX1 before the update for the recognition position Py is a value obtained by replacing plus and minus with the recognition error ⁇ X1 before the temperature change
  • the correction value CX2 after the update is plus and minus from the recognition error ⁇ X2 after the temperature change. It is the value which replaced. Therefore, the angle between the two straight lines L3 and L4 is equal to “ ⁇ x”.
  • the above equations (3) and (4) are calculated using such a relationship.
  • FIG. 17B is a graph in which the horizontal axis is the recognition position Py, the positive side of the vertical axis is the recognition error ⁇ Y, and the negative side of the vertical axis is the correction value CY.
  • the above equations (5) and (6) are also calculated using the same relationship as described above.
  • the latest correction values CX2 and CY2 for each recognition position Py are calculated from the calculation formulas (3) to (6) above. Then, as shown in FIG. 18, the correction value in the X-axis direction for each recognition position Py is updated from “CX1” to “CX2”, and the correction value in the Y-axis direction is updated from “CY1” to “CY2”. .
  • the distances Fa and Fb from the visual field center PO to the photographing positions PA and PB are preferably set to be equal to the distance Fo from the center line Lm of the head unit 60 to the mounting head 63 (see FIG. 16).
  • the electronic component B can be recognized at the same position as the measurement points PA and PB of the recognition error, so that the recognition error of the electronic component B can be suppressed.
  • FIG. 19 shows a case where the recognition result is corrected by applying the correction values CX1 and CY1 before update, and the recognition result is corrected by applying the latest correction values CX2 and CY2, taking the recognition error in the Y-axis direction as an example.
  • the magnitude of recognition error is compared. As shown in the figure, the recognition error ⁇ Yt when the latest correction values CX2 and CY2 are applied is smaller than the recognition error ⁇ Yr when the correction values CX1 and CY1 before update are applied. It has become.
  • FIG. 20 shows the magnitude of the correction amount before and after the update, taking the Y-axis direction as an example.
  • the white circle line represents the correction value CY1 before update
  • the black circle line represents the latest correction value CY2
  • the magnitude of the latest correction value CY2 is larger than the correction value CY1 before update.
  • the correction value update process will be briefly described.
  • the surface mounter 1 is first controlled to an automatic operation state after the start of automatic operation, and printed circuit boards are produced (S200, S210).
  • the controller 150 performs a process of counting the elapsed time from the previous mark recognition by the component recognition camera 90, and the predetermined time from the previous mark recognition by the component recognition camera 90.
  • a process of determining whether the time T (2 hours as an example) has passed is executed (S220).
  • the motors 47 and 57 are controlled via the driver 160 to move the head unit 60 to the component recognition camera side. Then, the head unit 60 is moved in the X-axis direction so that the mark 67 crosses the visual field center PO of the component recognition camera 90, and the mark 67 is marked at the visual field center PO of the component recognition camera 90 as shown in FIG. 67 is taken again to execute image recognition processing.
  • the head unit 60 is moved in the X-axis direction so that the mark 67 crosses the imaging position PA that is a predetermined distance away from the visual field center PO of the component recognition camera 90 in the Y-axis direction, and FIG. As shown in the figure, a process of recognizing an image by again photographing the mark 67 at a photographing position PA that is a predetermined distance away from the field of view Po of the component recognition camera 90 in the Y axis direction is executed.
  • the head unit 60 is moved in the X-axis direction so that the mark 67 crosses the photographing position PB that is a predetermined distance away from the visual field center PO of the component recognition camera 90 in the Y-axis direction, and FIG. Then, the image recognition is performed by again photographing the mark 67 at the photographing position PB that is a predetermined distance away from the visual field center PO of the component recognition camera 90 in the Y-axis direction.
  • S230 to S240 are an example of the “update mark recognition process, update mark recognition step” of the present invention.
  • the controller 150 determines the latest correction value CX2 in the X-axis direction and the Y-axis direction based on the recognition result of the mark 67 at the three points Po, Pa, and Pb and the previous correction values CX1 and CY1.
  • the latest correction value CY2 is calculated.
  • the recognition results at the respective recognition positions Po, Pa, Pb are corrected with the correction values CX, CY before update.
  • the recognition result of the corrected mark 67 and the actual position of the mark 67 are compared, and the recognition error of the mark 67 after correction, that is, the recognition error ⁇ Xr in the X-axis direction and the recognition error ⁇ Yr in the Y-axis direction, Calculation is performed for each recognition position Po, Pa, Pb.
  • approximate straight lines Lx1, Lx2, Ly1, and Ly2 are calculated from the recognition errors ⁇ Xr and ⁇ Yr at the respective recognized positions Po, Pa, and Pb.
  • the latest correction value CX2 in the X-axis direction at each recognition position Py is calculated based on the inclination ⁇ 1 of the approximate line Lx1, the inclination ⁇ 3 of the approximate line Lx2, and the correction value CX1 before update.
  • the latest correction value CY2 at each recognition position Py is calculated based on the inclination ⁇ 2 of the two approximate lines Ly1, the inclination ⁇ 4 of the approximate line Ly2, and the correction value CY1 before update.
  • the controller 150 updates the correction value in the X-axis direction from “CX1” to “CX2”, rewrites the correction value in the Y-axis direction from “CY1” to “CY2”, and stores the correction value in the storage unit 153.
  • S260 and S270 are an example of the “correction value update process, correction value update step” process of the present invention.
  • S280 a process for determining whether or not to end the automatic driving is performed.
  • a NO determination is made in S280, and thereafter, the process proceeds to S210, where the automatic operation of the surface mounter 1 is continued, and the mounting operation of the electronic component B on the printed circuit board P is performed.
  • the electronic component B during the mounting operation of the electronic component B, a process of recognizing the image of the electronic component B held by the mounting head 63 with a component recognition camera is performed, and a tilt or a positional deviation is detected. Then, the electronic component B is mounted on the printed circuit board P while correcting the detected inclination and positional deviation.
  • the correction values CX and CY are updated every time the predetermined time T has elapsed since the previous mark recognition, so even if there is a change in the in-machine temperature of the surface mounter 1, the component The recognition error of the recognition camera 90 can be suppressed. Therefore, it is possible to improve the mounting accuracy of the electronic component B on the printed circuit board P.
  • a line sensor camera is illustrated as an example of the component recognition camera 90, but an area sensor camera may be used.
  • each mark is photographed at a two-dimensional photographing position (PX, PY), and a recognition error at each recognition position (Px, Py) is obtained. That's fine.
  • the example in which the mark 67 provided on the head unit 60 is photographed and the recognition error of the component recognition camera 90 is corrected has been shown, but for example, the board recognition camera mounted on the head unit 60
  • the mark 67 provided on the base 10 may be photographed at 65 to correct the recognition error of the board recognition camera 65.
  • the recognition result of the printed circuit board photographed by the substrate recognition camera 65 may be corrected using a correction value for correcting the recognition error.
  • the approximate lines Lx and Ly are calculated separately on the positive side (Py> 0) and the negative side (Py ⁇ 0).
  • the approximate straight lines Lx and Ly may be approximated by one straight line.
  • “PA” or “ The approximate straight lines Lx and Ly can be obtained from the result of recognizing the mark 67 at two points such as “PB”.
  • the method of updating the correction value using the previous correction value and the approximate straight line has been described.
  • the present invention is not limited to this, and a mark is shot at each shooting position in the camera field of view and recognized. A method of obtaining a recognition error at each recognition position from the result and updating the correction value may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

プリント基板に対して電子部品を実装する表面実装機1であって、基台10と、前記基台10に対して平面方向に移動可能であり、プリント基板に電子部品を実装する実装部60と、前記基台19又は前記実装部60のうちいずれか一方側の部材に設けられたカメラ90と、前記基台10又は前記実装部60のうち他方側の部材に設けられたマーク67と、制御部150と、を備え、前記制御部150は、前記カメラの視野内の複数の位置で前記マーク67を撮影して画像認識するマーク認識処理と、前記マーク認識処理にて取得した各認識位置での前記マーク67の認識結果から、各認識位置での認識誤差を補正する補正値を作成する補正値作成処理と、前記プリント基板又は電子部品を前記カメラ90で撮影して画像認識する実装関連部品認識処理と、前記プリント基板又は電子部品の認識結果を前記補正値に基づいて補正する補正処理と、を行う。

Description

表面実装機、認識誤差補正方法
 本明細書で開示される技術は、カメラの認識精度を向上させる技術に関する。
 従来から、表面実装機は、実装ヘッドで吸着保持した電子部品や、プリント基板上に付された基準マークを画像認識するため、カメラを搭載している。
 下記に示す特許文献1には、温度変化によってカメラのピクセルレートが変化することにより生じる搭載位置のずれを抑える技術が開示されている。具体的には、温度変化があった時に、カメラを合焦点位置に移動させて、その時の合焦点位置を計測する。そして、基準となる合焦点位置との差を算出して、ピクセルレートを更新することにより、温度変化によりピクセルレートが変化することにより生じる電子部品の搭載位置のずれを抑えている。
特開2010-165892号
 ところで、カメラの認識誤差は、認識位置によって異なる場合がある。これは、レンズやミラーの歪みなどの要因によるものであり、一般的には、カメラの中心部分に比べて、中心から離れた部分で認識誤差が大きくなる。カメラの認識精度を向上させるには、カメラの認識位置に依存する認識誤差を抑えることが好ましい。
 本明細書で開示される技術は、上記の課題に鑑みて創作されたものであって、カメラの認識位置に依存する認識誤差を抑えてカメラの認識精度を向上させることにより、プリント基板に対する電子部品の搭載精度を向上させることを目的とする。
 本明細書で開示される表面実装機は、プリント基板に対して電子部品を実装する表面実装機であって、基台と、前記基台に対して平面方向に移動可能であり、プリント基板に電子部品を実装する実装部と、前記基台又は前記実装部のうちいずれか一方側の部材に設けられたカメラと、前記基台又は前記実装部のうち他方側の部材に設けられたマークと、制御部と、を備え、前記制御部は、前記カメラの視野内の複数の位置で前記マークを撮影して画像認識するマーク認識処理と、前記マーク認識処理にて取得した認識結果から各認識位置での認識誤差を補正する補正値を算出する補正値算出処理と、前記プリント基板又は電子部品を前記カメラで撮影して画像認識する実装関連部品認識処理と、前記プリント基板又は電子部品の認識結果を前記補正値に基づいて補正する補正処理と、を行う。
 尚、認識位置とは、カメラの撮像面(像面)上における画像位置である。
 この構成では、カメラの認識位置に依存する認識誤差を抑えてカメラの認識精度を向上させることにより、プリント基板に対する電子部品の搭載精度を向上させることが可能となる。
 本明細書で開示される表面実装機の一実施態様として以下の構成が好ましい。
 前記制御部は、前記カメラによる前回のマーク認識時から所定時間が経過した場合に、前記カメラで前記マークを再度撮影して画像認識する更新用マーク認識処理と、前記更新用マーク認識処理にて取得した前記マークの認識結果に基づいて、各認識位置の前記補正値を更新する補正値更新処理と、を行う。このようにすれば、温度変化に起因する部品認識カメラの認識誤差を抑えることが出来る。
 また、前記カメラは、一次元のイメージセンサを備えたラインセンサカメラであり、前記更新用マーク認識処理では、前記ラインセンサカメラの視野内の複数点で前記マークを撮影して画像認識し、前記補正値更新処理では、前記マーク更新用認識処理で取得した前記複数点での認識結果と、更新前の前記補正値とに基づいて、各認識位置の認識誤差であって、更新前の補正値による補正後の認識誤差を近似する近似直線を算出し、算出した近似直線と更新前の前記補正値と、に基づいて、各認識位置の前記補正値を更新する。このようにすれば、計測点が少なくて済むので、補正データを更新する処理を短時間で行うことが出来る。
 また、前記マークは前記実装部に設けられ、前記カメラは前記基台に設けられ、前記カメラは前記実装部に保持された電子部品を撮影する部品認識カメラである。この構成では、実装部を利用してマークをカメラの位置まで移動させることが可能となる。
 また、前記ラインセンサカメラのラインに沿った方向をY軸方向、Y軸方向に直交する方向をX軸方向と定義した時に、前記実装部は、X軸方向に並ぶ複数の実装ヘッドを前記マークのY軸方向両側に2列備え、前記更新用マーク認識処理では、前記視野中心及び前記視野中心から前記Y軸方向に所定距離離れた2つの撮影位置の3点で前記マークを認識し、前記視野中心から前記撮影位置までY軸方向の距離は、前記実装部の中心線から前記実装ヘッドまでのY軸方向の距離に等しい。この構成では、認識誤差の計測点と同じ位置で電子部品を認識することが出来るため、電子部品の認識誤差を抑えることが可能となる。
 本明細書で開示される技術によれば、カメラの認識位置に依存する認識誤差を抑えてカメラの認識精度を向上させることにより、プリント基板に対する電子部品の搭載精度を向上させることが可能となる。
実施形態1に適用された表面実装機の平面図である。 ヘッドユニットの支持構造を示す図である。 部品認識カメラの平面図である。 部品認識カメラの垂直断面図である。 表面実装機の電気的構成を示すブロック図である。 部品認識カメラによる電子部品の認識方法を示す図である。 カメラの結像作用を示す光路図である。 認識誤差の説明図 補正データを示す図である。 補正データの作成手順を示すフローチャート図である。 電子部品の実装手順を示すフローチャート図である。 部品認識カメラの認識誤差(補正前)を示す図である。 部品認識カメラの認識誤差(補正後)を示す図である。 実施形態2において部品認識カメラの認識誤差(温度変化時)を示す図である。 認識誤差の近似直線を示す図である。 3点でのマークの計測手順を示す図である 更新前の補正値と、近似直線の角度と、最新の補正値との関係を示す図である。 補正データを示す図である。 更新前と更新後の補正値を適用した時の部品認識カメラの認識誤差を示す図である。 更新前後の補正値の大きさを比較した図である。 補正値の定期更新処理の流れを示すフローチャート図である。
<実施形態1>
 1.表面実装機の全体構成
 表面実装機1は、図1に示すように、基台11と、プリント基板Pを搬送する搬送コンベア20と、ヘッドユニット60と、ヘッドユニット60を基台11上にて平面方向(X軸-Y軸方向)に移動させる駆動装置30とを備えている。尚、以下の説明において、基台11の長手方向(図1の左右方向)をX軸方向と呼ぶものとし、基台11の奥行方向(図1の上下方向)をY軸方向、図2の上下方向をZ方向とする。また、ヘッドユニット60が本発明の「実装部」に相当する。尚、本明細書において、「実装」とは、「プリント基板に対して電子部品を搭載する」ことを意味するものとする。
 搬送コンベア20は、基台11の中央に配置されている。搬送コンベア20はX軸方向に循環駆動する一対の搬送ベルト21を備えており、搬送ベルト21上のプリント基板Pを、ベルトとの摩擦によりX軸方向に搬送する。
 本実施形態では、図1に示す左側が入り口となっており、プリント基板Pは、図1に示す左側より搬送コンベア20を通じて機内へと搬入される。搬入されたプリント基板Pは、搬送コンベア20により基台中央の作業位置まで運ばれ、そこで停止される。
 一方、基台11上には、作業位置の周囲を囲むようにして、部品供給部13が4箇所設けられている。これら各部品供給部13には、電子部品Bを供給するフィーダ80が横並び状に多数設置されている。尚、電子部品Bやプリント基板Pは実装関連部品の一例である。
 そして作業位置では、上記フィーダ80を通じて供給された電子部品Bを、プリント基板P上に実装する実装処理が、ヘッドユニット60に搭載された実装ヘッド63により行われるとともに、その後、実装処理を終えたプリント基板Pはコンベア20を通じて図1における右方向に運ばれ、機外に搬出される構成になっている。
 駆動装置30は、大まかには一対の支持脚41、ヘッド支持体51、Y軸ボールネジ45、Y軸モータ47、X軸ボールネジ55、X軸モータ57から構成される。具体的に説明してゆくと、図1に示すように基台11上には一対の支持脚41が設置されている。両支持脚41は作業位置の両側に位置しており、共にY軸方向にまっすぐに延びている。
 両支持脚41にはY軸方向に延びるガイドレール42が支持脚上面に設置されると共に、これら左右のガイドレール42に長手方向の両端部を嵌合させつつヘット支持体51が取り付けられている。
 また、右側の支持脚41にはY軸方向に延びるY軸ボールねじ45が装着され、更にY軸ボールねじ45にはボールナット(不図示)が螺合されている。そして、Y軸ボールねじ45にはY軸モータ47が付設されている。
 Y軸モータ47を通電操作すると、Y軸ボールねじ45に沿ってボールナットが進退する結果、ボールナットに固定されたヘッド支持体51、ひいては次述するヘッドユニット60がガイドレール42に沿ってY軸方向に移動する(Y軸サーボ機構)。
 ヘッド支持体51は、X軸方向に長い形状である。ヘッド支持体51には、図2に示すように、X軸方向に延びるガイド部材53が設置され、更に、ガイド部材53に対してヘッドユニット60が、ガイド部材53の軸に沿って移動自在に取り付けられている。このヘッド支持体51には、X軸方向に延びるX軸ボールねじ55が装着されており、更にX軸ボールねじ55にはボールナットが螺合されている。
 そして、X軸ボールねじ55にはX軸モータ57が付設されており、同モータ57を通電操作すると、X軸ボールねじ55に沿ってボールナットが進退する結果、ボールナットに固定されたヘッドユニット60がガイド部材53に沿ってX軸方向に移動する(X軸サーボ機構)。
 従って、X軸モータ57、Y軸モータ47を複合的に制御することで、基台11上においてヘッドユニット60を平面方向(X軸-Y軸方向)に移動操作出来る構成となっている。
 係るヘッドユニット60には、電子部品Bの実装作業を行う実装ヘッド63が複数個搭載されている。図6に示すように実装ヘッド63はX軸方向に等間隔で並んで設けられている。また、実装ヘッド63はマーク67のY軸方向の両側に2列設けられている。
 マーク67はヘッドユニット60の下面壁61に設けられている。マーク67は、部品認識カメラ90の認識誤差を補正するために設けられている(詳細は後述する)。
 各実装ヘッド63はR軸モータによる軸回りの回転と、Z軸モータの駆動によりヘッドユニット60に対して昇降可能な構成となっている。また、各実装ヘッド63には図外の負圧手段から負圧が供給されるように構成されており、ヘッド先端に吸引力を生じさせるようになっている。
 このような構成とすることで、X軸モータ57、Y軸モータ47、Z軸モータを所定のタイミングで作動させることにより、フィーダ80を通じて供給される電子部品Bを実装ヘッド63により取り出して、プリント基板P上に実装する処理を実行することが出来る。
 図2に示す符号65は基板認識カメラである。基板認識カメラ65はヘッドユニット60に撮像面を下に向けた状態で固定されており、ヘッドユニット60とともに一体的に移動する構成とされている。基板認識カメラ65はプリント基板を撮像して、画像認識する機能を担う。
 また、図1、図3に示す符号「90」は部品認識カメラである。部品認識カメラ90は基台11上において撮像面を上に向けて固定されており、実装ヘッド63に吸着保持された電子部品Bを撮像して、実装ヘッド63に吸着保持された電子部品Bの姿勢を検出する機能を担う。
 具体的に説明すると、図4に示すように、部品認識カメラ90は、フレーム91と、被写体(電子部品B)に光を照射する光源92と、第1ミラー93と、第2ミラー94と、レンズ95と、イメージセンサ97と、を備えている。
 図4に示すように、部品認識カメラ90に入光する光線Gは、第1ミラー93、第2ミラー94で反射した後、レンズ95を透過して、イメージセンサ97に入光する構造となっている。そのため、電子部品Bが部品認識カメラ90の真上を通過するタイミングに合わせて撮影を行うことで、電子部品Bの画像を撮影することが出来る。
 また、部品認識カメラ90はラインセンサカメラであり、図3に示すように、イメージセンサ(撮像部)97は、受光素子97AをY軸方向に一列状に配置した一次元のイメージセンサである。本実施形態では、電子部品Bを部品認識カメラ90に対してX軸方向に移動させながら、撮影を複数回連続的に行う。そして、各回の撮影で取得される電子部品Bの一次元画像をX軸方向に並べて二次元化することで、電子部品Bの二次元反射画像を得ること出来る。
 また、図5は、表面実装機1の電気的構成を示すブロック図である。表面実装機1は、コントローラ150、ドライバ160、画像処理部170、I/O180を備える。
 コントローラ150は、CPU151、記憶部153を有する。記憶部153には、実装プログラム等、プリント基板Pに電子部品Bを実装するための各種の情報が記憶されている。また部品認識カメラ90の認識誤差を補正するための補正データ(図9参照)を記憶している。コントローラ150は表面実装機1を制御・統括する機能を果たす。
 ドライバ160には、各軸モータ57、47が接続されている。ドライバ160は、コントローラ150からの指令に応答して各軸モータ57、47を制御する機能を果たす。コントローラ150が実装プログラムに従ってドライバ160に指令を与えることで、各軸モータが制御され、プリント基板Pに対する電子部品Bの実装動作が行われる構成になっている。また、コントローラ150には、I/O180を介して、フィーダ80やセンサ類が電気的に接続されている。尚、コントローラ150が本発明の「制御部」に相当する。
 2.部品認識カメラ90の認識誤差の補正
 ところで、部品認識カメラ90の認識誤差ΔX、ΔYは、カメラの認識位置Pyにより、異なる。これは、ミラー93、94やレンズ95の歪みなどの要因によるものであり、一般的には、視野の中心部分(イメージセンサ97の中心部分であると共に平面視のレンズの中心部分)に比べて、視野の中心から離れた位置(イメージセンサ97の中心から離れた位置)で認識誤差ΔX、ΔYが大きくなる。部品認識カメラ90の認識精度を向上させるには、カメラの認識位置Pyに依存する認識誤差ΔX、ΔYを抑えることが好ましい。
 特に、本実施形態では、ヘッドユニット60に実装ヘッド63を2列搭載しており、図6の(B)に示すように、部品認識カメラ90の視野中心POだけを利用して電子部品Bを一列ずつ撮影する方法の他、図6の(A)に示すように視野中心POから離れた2か所の撮影位置PA、PBを利用して2列の電子部品Bを一度に撮影する方法がある。
 すなわち、認識誤差ΔX、ΔYの比較的小さい視野中心だけでなく、認識誤差ΔX、ΔYが比較的大きい視野端も撮影に使用されることがあるので、カメラの認識位置Pyに依存する認識誤差ΔX、ΔYを抑えることが好ましい。
 そこで、本実施形態では、生産準備時などプリント基板Pの生産開始前に、各認識位置Pyでの認識誤差ΔX、ΔYを計測し、各認識位置Pyでの認識誤差ΔX、ΔYを補正値CX、CYとして記憶する(図9に示す補正データ)。尚、補正値CX、CYは、認識誤差ΔX、ΔYをマイナス方向に補正するものであり、下記の(1)、(2)式で示すように、認識誤差ΔX、ΔYとはプラス、マイナスの符号が逆になる。
 そして、プリント基板Pの生産時に、部品認識カメラ90により取得される各認識位置Pyでの認識結果を、事前に取得した補正値CX、CYに基づいて補正することにより、部品認識カメラ90の認識位置Pyに依存する認識誤差を抑えるようにしている。
 尚、本明細書において、認識位置Pyとは、図7に示すように、カメラ90の像面S2、すなわちイメージセンサ97上の画像位置(像の位置)を指すものとする。但し、カメラ90が撮像対象に対して画像を等倍(y1/Y1=1)に撮像する場合を想定しており、カメラ90の倍率(y1/Y1)が等倍でない場合、撮影対象に対して画像が等倍になるように、画像のスケール(大きさ)を変換した時の画像位置をPyと考える。すなわち、レンズS3により撮像対象の画像を縮小した画像がイメージセンサ上に露光され撮像する場合、実際の露光位置のイメージセンサ中心(画像中心)Poからの距離を、縮小した倍率(あるいは拡大した倍率)で除算して撮像対象と等倍の位置に換算したものを「Py」と考える。また、カメラ90の倍率が等倍でない場合、画像のスケールを等倍に変換するに伴い、イメージセンサ97のスケールも同じ割合で変換する必要がある。
 尚、図7はカメラ90の結像作用を示す光路図であり、「S1」は物体面(撮影対象であるマーク67の表面)、「S2」は像面(イメージセンサ97の撮像面)、「S3」はレンズを示している。また、「Po」はイメージセンサ中心(画像中心)、「PO」は視野の中心を示しており、両中心は一致している。
 また、物体面S1上の「PY」は撮影位置、像面S2上の「Py」は撮影位置PYに対する認識位置を示している。また、物体面S1上の「K1」と「K2」は視野端を示している。また、部品認識カメラ90で撮影された画像の座標は、視野中心POを原点とし、表面実装機1のX軸方向、Y軸方向が、そのまま画像のX軸方向、Y軸方向である。尚、図4に示すように、部品認識カメラ90は、撮影対象とレンズの間にミラー93、94を介在させているが、図7では、これらミラー93、94は省略した図としてある。
 以下、プリント基板の生産開始前におこなわれる補正値(図9に示す補正データ)の算出方法について説明を行う。
 まず、認識誤差の計測に使用されるマーク67について説明する。マーク67は、ヘッドユニット60の下面壁61に固定されている。図6に示すように、マーク67は下面壁61のうちY軸方向中央の位置にあって、X軸方向の両側に一対設けられている。本例では、マーク67は円形となっている。尚、認識誤差計測用の撮影は、2つのマーク67のうち、いずれか一方側のマーク67のみ行えばよい。以下、2つのマーク67のうち撮影対象として選定されたマーク67を選定されたマークと呼ぶ。
 図3に示すように、選定されたマーク67を、部品認識カメラ90の視野内の複数の位置で撮影する。すなわち、ヘッドユニット60を移動させることにより、選定されたマーク67を部品認識カメラの視野内のうち、所定の撮影位置PYにて、X軸方向に移動させて、所定の撮影位置PYを通過させる。そして、マーク67が所定の撮影位置PYを通過するタイミングに合わせて撮影を行う。
 このような撮影を、カメラ90の視野内においてY軸方向の座標を変えながら、各撮影位置PYで行う。そして、各撮影位置PYにおける、選定されたマーク67の各認識結果から各認識位置PyでのX軸方向の認識誤差ΔX、Y軸方向の認識誤差ΔYを求める。
 図8は、撮影位置PAでマーク67を撮影した時の認識結果を示している。図8中の「Pa」はマーク67の実際の位置である。また、「Pa+ΔY」は画像位置、すなわちマーク67の認識位置である。尚、イメージセンサ97上には、レンズS3の作用により、撮影対象を反転した画像(倒立画像)が形成されるが、図8は、画像処理部170で把握される認識結果、すなわち反転を画像処理して元の状態に戻した状態の認識結果を示している。
 認識誤差ΔX、ΔYは、レンズやミラーに歪みがない場合の理想的な認識位置に対する実際の認識結果の誤差であり、ΔXは認識位置Pa+ΔYでのX軸方向の認識誤差、ΔYは認識位置Pa+ΔYでのY軸方向の認識誤差を示している。図8に示すように、本例では、マーク67の実際の中心位置Osに対する認識されたマーク67の中心位置Oの位置のずれを、認識誤差ΔX、ΔYとして算出している。
 そして、(1)、(2)式で示すように、算出した認識誤差「ΔX」を、認識位置Pa+ΔYにおける補正値「CXPa+ΔY」とし、認識誤差「ΔY」を認識位置Pa+ΔYにおける補正値「CYPa+ΔY」とする。
 CXPa+ΔY=-ΔX・・・・(1)
 CYPa+ΔY=-ΔY・・・・(2)
 以上により、認識位置Pa+ΔYについて、X軸方向の補正値CXPa+ΔYとY軸方向の補正値CYPa+ΔYが得られる。同様の処理を各撮影位置PYでの認識結果に対して行うことにより、各認識位置Py+ΔYについて、X軸方向の補正値CXPy+ΔYとY軸方向の補正値CYPy+ΔYが得られる。
 また、認識位置Py+ΔYは、データとして扱い難いことから、本実施形態では、各認識位置Py+ΔYの補正値CXPy+ΔYを、直線近似あるいは最小二乗法等の近似方法を用いて補間して各認識位置Pyの補正値CXPyを算出し、各認識位置Py+ΔYの補正値CYPy+ΔYを直線近似あるいは最小二乗法等の近似方法を用いて補間して各認識位置Pyの補正値CXPyを算出している。以上により、図9に示す補正データが得られる。
 尚、図9では、認識位置Pyを5mm刻みとしているが、実際は、後述するように、1mm刻みでマーク67の撮影を行っており、各認識位置PyのX軸方向の補正値、Y軸方向の補正値が1mm刻みで得られる。尚、以下の説明において、認識位置Pyに対する補正値「CXPy」を「CX」と表記し、認識位置Pyに対する補正値「CYPy」を「CY」と表記する。
 図10は補正値CX、CYの算出手順を示すフローチャート図である。まず、S10では、コントローラ150の制御により、部品認識カメラ90でマーク67を撮影して画像認識する処理が行われ、その後、マーク67は部品認識カメラ90の視野中心POに一旦移動する。
 その後、S20では、コントローラ150の制御により、マーク67を部品認識カメラのマイナス側の視野端に移動させる処理が行われる。続くS30では、Nの値を「1」に設定する処理が行われる。
 そして、S40では、コントローラ150の制御により、マイナス側の視野端でマーク67をX軸方向に移動させながら、部品認識カメラ90でマーク67を撮影して画像認識する処理が行われる。尚、S40が本発明の「マーク認識処理、マーク認識ステップ」の一例である。
 その後、S50では、コントローラ150の制御により、マーク67を、移動量(1mm×N)だけ、Y軸方向のプラス側に移動させる処理が行われる。
 初回に行うS50の処理では、N=1であることから、マーク67は、マイナス側の視野端からY軸方向に1mm移動する。
 その後、S60ではNの値を「1」加算する処理が行われる。これにより、Nの値は「2」に設定される。
 その後、S70では、プラス側の視野端でマーク67を撮影したか判断する処理がコントローラ150により行われる。この段階では、プラス側の視野端では撮影をしていないので、処理の流れとしては、S40へ戻り、コントローラ150の制御により、部品認識カメラ90による2回目のマーク認識が実行される。
 すなわち、マイナス側の視野端から1mmの位置でマーク67をX軸方向に移動させながら、部品認識カメラ90でマーク67を撮影して画像認識する。これにより、マイナス側の視野端から約1mm離れた位置での認識結果が得られる。
 その後、コントローラ150の制御により、マーク67の位置をY軸方向に1mmずつ移動させながら、部品認識カメラ90でマーク67を撮影して画像認識する処理が行われる。これにより、マイナス側の視野端から1mmずつ離れた各位置での認識結果が得られる。
 やがて、マーク67はプラス側の視野端に達し、その位置でマーク67の撮影が行われる。
 そして、プラス側の視野端でマーク67を撮影すると、次にS70の処理を行った時にYES判定され、処理はS80に移行する。
 S80では、補正データを作成する処理と、作成した補正データを記憶部153に対して保存する処理が、コントローラ150にて実行される。具体的には、マイナス側の視野端から1mmずつ離れた各撮影位置PYでの認識結果より、視野端から約1mmずつ離れた各認識位置PyでのX軸方向の認識誤差ΔX、Y軸方向の認識誤差ΔYがそれぞれ算出される。そして、認識誤差ΔX、ΔYに対して符合をプラス、マイナス逆にした値が、X軸方向の補正値CX、Y軸方向の補正値CYとして記憶される。S80が本発明の「補正値算出処理、補正値算出ステップ」の一例である。
 尚、先に説明したように、認識結果から実際に算出されるのは各認識位置Py+ΔYでの補正値CXPy+ΔY、CYPy+ΔYであり、各認識位置Pyでの補正値CX、CYは、これらのデータを直線近似あるいは最小二乗法等の近似方法を用いて補間することにより得られる。
 続いて、図11を参照して、表面実装機1にて実行される電子部品Bの実装処理について説明する。
 実装処理が開始されると、コントローラ150は、フィーダ80から電子部品Bを取り出す処理を実行する(S100)。具体的には、ドライバ160を介して各軸モータ47、57を制御して、実装ヘッド63をフィーダ80の上方に移動させる。そして、実装ヘッド63をフィーダ80の部品取り出し位置に向けて下降させ、フィーダ80から電子部品Bを取り出す処理を行う。
 その後、コントローラ150はドライバ160を介して各軸モータ47、57を制御して、実装ヘッド63により吸着した電子部品Bを、部品認識カメラ90の上方を横切るように通過させる。
 具体的には、図6の(A)に示すように、Y軸方向に並ぶ2列の実装ヘッド63がY軸方向で部品認識カメラ90の視野と重なる位置にて、ヘッドユニット60をX軸方向に移動させる。そして、2列の実装ヘッド63に吸着保持された電子部品Bが部品認識カメラ90を通過するタイミングに合わせて撮影を行う。
 これにて、2列の実装ヘッド63に吸着保持された電子部品Bを、部品認識カメラ90で一度に撮影することが出来る。そして、コントローラ150は、電子部品Bの画像から電子部品を画像認識する(S110)。尚、S110が本発明の「実装関連部品認識処理、
「実装関連部品認識ステップ」の一例である。
 続いて、コントローラ150は、電子部品Bの認識結果を、補正データに基づいて補正する処理を実行する(S120)。すなわち、記憶部153に記憶された補正データを参照して各認識位置Pyに対応する補正値CX、CYを読み出す。尚、S120が本発明の「補正処理、補正ステップ」の一例である。
 そして、各認識位置Pyでの認識結果を補正値CX、CYで補正する。すなわち、ある認識位置Pyでの補正値がCX、CYである場合、その認識位置Pyの認識結果についてX軸方向とY軸方向の座標を(CX、CY)だけ補正する。このような補正を、各認識位置Pyでの認識結果についてそれぞれ行う。このようにすることで、部品認識カメラ90の認識位置Pyに依存する認識誤差を抑えることが出来る。
 そして、コントローラ150は、電子部品Bの認識結果を補正する処理を行うと、次に、補正後の認識結果に基づいて、電子部品Bの傾きや吸着位置のずれを検出する処理を行う。その後、検出した傾きや吸着位置のずれを補正しつつ、電子部品Bをプリント基板Pに実装する。
 (実施形態の効果)
 本実施形態の表面実装機1によれば、部品認識カメラ90の認識位置Pyに依存する認識誤差ΔX、ΔYを抑えることが出来る。そのため、部品認識カメラ90の認識精度を向上し、プリント基板Pに対する電子部品Bの搭載精度を向上させることが可能となる。
 また、認識誤差を補正する方法には、認識誤差を検出するための専用治具(例えば、各認識位置ごとに目印を設けたもの)をカメラで撮影して行う方法もあるが、本実施形態では、このような治具を使用せずに、部品認識カメラ90の認識誤差を補正することが可能となる。
 尚、図12、図13は、各認識位置Pyにおける認識誤差ΔX、ΔYの大きさを、補正前後で比較した図である。図12に示すように、補正前の状態では、カメラの中心部分では認識誤差ΔX、ΔYが比較的小さいのに対して、カメラの視野端側では認識誤差ΔX、ΔYが大きくなっており、中心部分と視野端では認識誤差ΔX、ΔYが異なっている。これに対して、図13に示すように、補正後の状態では、視野端を含む、視野の全範囲について、認識誤差ΔX、ΔYが小さくなっており、データ上も、認識位置Pyに依存する認識誤差ΔX、ΔYを抑えられる結果が得られている。
<実施形態2>
 実施形態1では、ミラー93、94やレンズ95の歪みに起因する認識誤差を抑えるため、補正値CX、CYを用いて、各認識位置Pyでの認識結果を補正する構成を例示した。図13は、カメラ90によるマーク認識時から表面実装機1の機内温度に変化がない又は小さい場合の、補正後の認識誤差ΔX、ΔYを示しており、視野の全範囲について認識誤差は小さく抑えられている。
 ところが、ミラー93、94やレンズ95は温度変化で「ゆがみ」を生じるため、カメラ90によるマーク認識時から表面実装機1の機内温度に変化があると、同じ補正値CX、CYを用いて認識結果を補正しても、温度変化がない又は小さい当初に比べて、補正後の認識誤差ΔX、ΔYが大きくなる。
 図14は、カメラ90によるマーク認識時から表面実装機1の機内温度に変化があった場合について、部品認識カメラ90の認識結果を、温度変化前の補正値CX、CYを用いて補正した時の認識誤差ΔX、ΔYを示しており、図13に比べて、補正後の認識誤差ΔX、ΔYが拡大している。
 そこで、実施形態2では、部品認識カメラ90でマーク67を認識する処理を定期的に実行する。そして、得られた認識結果から、補正値CX、CYを更新する処理を行う。
 具体的に説明すると、図15の(a)のグラフは、部品認識カメラ90による前回のマーク認識時から所定時間Tが経過した時に、更新前の補正値CYを用いて認識結果を補正した時の認識誤差ΔYrを示している。図15の(b)のグラフは、部品認識カメラによる前回のマーク認識時から所定時間Tが経過した時に、更新前の補正値CXを用いて認識結果を補正した後の認識誤差ΔXrを示している。
 尚、補正前の認識誤差と補正後の認識誤差を区別するため、以下の説明において、更新前の補正値CX、CYを用いて認識結果を補正した後のX軸方向の認識誤差をΔXrとし、Y軸方向の認識誤差をΔYrとする。
 図15の(a)、(b)に示すように、更新前の補正値CX、CYを用いて認識結果を補正した後の認識誤差ΔXr、ΔYrは、イメージセンサ中心Poから視野端側に向けて概ね大きくなる傾向を示しており、直線で近似することが出来る。
 すなわち、Y軸方向の認識誤差ΔYrであれば、図15の(a)にて示すように、マイナス側の領域(Py<0)を近似する「第1近似直線Ly1」と、プラス側の領域(Py≧0)を近似する「第2近似直線Ly2」により近似できる。
 「第1近似直線Ly1」は、「イメージセンサ中心Poでの認識誤差ΔYr」と「イメージセンサ中心PoからY軸方向のマイナス側に所定距離離れた認識位置Paでの認識誤差ΔYr」とを結ぶ直線である。
 また「第2近似直線Ly2」は、「イメージセンサ中心Poでの認識誤差ΔYr」と「イメージセンサ中心PoからY軸方向のプラス側に所定距離離れた認識位置Pbでの認識誤差ΔYr」とを結ぶ直線である。
 尚、図15の(a)において、θ2、θ4は近似直線Ly1、Ly2の傾きを示している。θ2、θ4の値は、認識位置Pyの正側、負側それぞれについて、X軸を基準として反時計回りの方向をプラスとしており、図15の(a)の例では、θ2、θ4の双方ともプラスである。
 また、X軸方向の認識誤差ΔXrであれば、図15(b)にて示すように、マイナス側の領域(Py<0)を近似する「第1近似直線Lx1」と、プラス側の領域(Py≧0)を近似する「第2近似直線Lx2」により近似できる。
 「第1近似直線Lx1」は、「イメージセンサ中心Poでの認識誤差ΔXr」と「イメージセンサ中心PoからY軸方向のマイナス側に所定距離離れた認識位置Paでの認識誤差ΔXr」とを結ぶ直線である。
 また「第2近似直線Lx2」は、「イメージセンサ中心Poでの認識誤差ΔYr」と「イメージセンサ中心PoからY軸方向のプラス側に所定距離離れた認識位置Pbでの認識誤差ΔYr」とを結ぶ直線である。
 尚、図15の(b)において、角度θ1、θ3は近似直線Lx1、Lx2の傾きを示している。角度θ1、θ3の値は、認識位置Pyの正側、負側それぞれについて、X軸を基準として反時計方向をプラスとしており、図15の(a)の例では、θ1はプラス、θ3はマイナスである。
 実施形態2では、上記した各近似直線を得るため、図16の(a)~(c)に示すように、以下の3点でマーク67を撮影して認識する。
(1)部品認識カメラ90の視野中心PO
(2)視野中心POからY軸方向のマイナス側に所定距離離れた撮影位置PA
(3)視野中心POからY軸方向のプラス側に所定距離離れた撮影位置PB
 尚、撮影位置PAは認識位置Paと対応し、撮影位置PBは認識位置Pbと対応する。
 そして、各撮影位置PO、PA、PBでのマーク撮影により、各認識位置Po、Pa、Pbでの認識結果が得られる。その後、各認識位置Po、Pa、Pbでの認識結果を更新前の補正値CX、CYで補正する。次に、補正後のマーク67の認識結果と実際のマーク67の位置とを比較して、補正後のマーク67の認識誤差、すなわちX軸方向の認識誤差ΔXr、Y軸方向の認識誤差ΔYrを、各認識位置Po、Pa、Pbについてそれぞれ算出する。
 以上により、各認識位置Po、Pa、Pbについて、認識誤差ΔXr、ΔYrが得られるので、X軸方向の認識誤差ΔXrを近似する2つの近似直線Lx1、Lx2を求めることが出来る。また、Y軸方向の認識誤差ΔYrを近似する2つの近似直線Ly1、Ly2を求めることが出来る。
 そして、前回のマーク認識時から所定時間Tが経過した時点の認識誤差を補正する最新の補正値CX2、CY2は、以下により算出することが出来る。
 各認識位置Pyに対するX軸方向の最新の補正値CX2は、Py<0の場合、下記の(3)式で示すように、認識位置Pyの座標と、近似直線Lx1の傾きθ1と、更新前のX軸方向の補正値CX1と、から近似的に算出することが出来る。また、Py≧0の場合、下記の(4)式で示すように、認識位置Pyの座標と、近似直線Lx2の傾きθ3と、更新前のX軸方向の補正値CX1と、から近似的に算出することが出来る。
Py<0の場合、CX2=Py×SIN(-θ1)+CX1×COS(-θ1)・・(3)
Py≧0の場合、CX2=Py×SIN(-θ3)+CX1×COS(-θ3)・・(4)
 尚、「CX1」は、各認識位置PyにおけるX軸方向の更新前の補正値である。θ1は第1近似直線Lx1の傾き、θ3は第2近似直線Lx2の傾きを示している。
 また、各認識位置Pyに対するY軸方向の最新の補正値CY2は、Py<0の場合、下記の(5)式で示すように、認識位置Pyの座標と、近似直線Ly1の傾きθ2と、更新前のY軸方向の補正値CY1と、から算出することが出来る。また、Py≧0の場合、下記の(6)式で示すように、認識位置Pyと、近似直線Ly2の傾きθ4と、更新前のY軸方向の補正値CY1と、から算出することが出来る。
Py<0の時、CY2=Py×SIN(-θ2)+CY1×COS(-θ2)・・・(5)
Py≧0の時、CY2=Py×SIN(-θ4)+CY1×COS(-θ4)・・・(6)
 尚、「CY1」は、各認識位置PyにおけるY軸方向の更新前の補正値である。θ2は第1近似直線Ly1の傾き、θ4は第2近似直線Ly2の傾きを示している。
 図17の(A)は、横軸を認識位置Py、縦軸のプラス側を認識誤差ΔX、縦軸のマイナス側を補正値CXとしたグラフである。ΔX1は認識位置Pyに対する温度変化前の未補正時の認識誤差、ΔX2は温度変化後の未補正時の認識誤差である。
 下記の(7)式で示すように、ΔX2とΔX1の差は更新前の補正値CX1を適用して補正した時の認識誤差ΔXrと概ね等しいことから、図17の(A)で示すように、2つの直線L1、L2の間の角度は、近似直線Lxの角度「θx」と概ね等しい関係となる。
 ΔXr=ΔX2-ΔX1・・・・・・(7)
 一方、認識位置Pyに対する更新前の補正値CX1は、温度変化前の認識誤差ΔX1からプラス、マイナスを入れ替えた値であり、更新後の補正値CX2は温度変化後の認識誤差ΔX2からプラス、マイナスを入れ替えた値である。そのため、2つの直線L3、L4の間の角度は「-θx」と等しい関係となる。上記の(3)、(4)式は、このような関係を利用して算出されている。
 図17の(B)は、横軸を認識位置Py、縦軸のプラス側を認識誤差ΔY、縦軸のマイナス側を補正値CYとしたグラフである。上記の(5)、(6)式も、上記と同様の関係を利用して算出されている。
 本実施形態では、上記(3)~(6)の計算式より、各認識位置Pyに対する最新の補正値CX2、CY2を算出する。そして、図18に示すように、各認識位置Pyに対するX軸方向の補正値を「CX1」から「CX2」に更新し、Y軸方向の各補正値を「CY1」から「CY2」に更新する。
 このように、部品認識カメラ90の3点でマーク67を撮影する処理を定期的に行って、補正値CX、CYを更新することで、温度変化によるミラーやレンズのゆがみに起因する認識誤差の拡大を抑えることが可能であり、部品認識カメラ90の認識精度が高まる。そのため、プリント基板Pに対する電子部品Bの搭載精度が高まる。
 尚、視野中心POから撮影位置PA、PBまでの距離Fa、Fbは、ヘッドユニット60の中心線Lmから実装ヘッド63までの距離Foと等しい長さにしておくことが好ましい(図16参照)。
 このようにすることで、認識誤差の計測点PA、PBと同じ位置で、電子部品Bを認識することが出来るため、電子部品Bの認識誤差を抑えることが可能となる。
 図19は、Y軸方向の認識誤差を例にとって、更新前の補正値CX1、CY1を適用して認識結果を補正した場合と、最新の補正値CX2、CY2を適用して認識結果を補正した場合について、認識誤差の大きさを比較している。同図に示すように、更新前の補正値CX1、CY1を適用した場合の認識誤差ΔYrに比べて、最新の補正値CX2、CY2を適用した場合の認識誤差ΔYtの方が、認識誤差が小さくなっている。
 また、図20は、Y軸方向を例にとって、更新前後の補正量の大きさを示している。図20において白丸線は更新前の補正値CY1、黒丸線は最新の補正値CY2を示しており、最新の補正値CY2の大きさは、更新前の補正値CY1に対して大きくなっている。
 次に、図21を参照して、補正値の更新処理について簡単に説明する。図21に示すように、表面実装機1は自動運転の開始後、まず、自動運転状態に制御され、プリント基板の生産が行われる(S200、S210)。
 そして、コントローラ150は、表面実装機1の制御と並行して、部品認識カメラ90による前回のマーク認識時からの経過時間をカウントする処理を行い、部品認識カメラ90による前回のマーク認識時から所定時間T(一例として2時間)が経過したか判断する処理を実行する(S220)。
 所定時間Tが経過していなければ、S220ではNO判定となり、表面実装機1は自動運動状態に制御される。そして、所定時間Tが経過すると、S220ではNO判定となり、その後、コントローラ150の制御により、S230~S250の処理が実行される。
 そして、S230では、ドライバ160を介して各軸モータ47、57を制御して、ヘッドユニット60を部品認識カメラ側に移動させる。そして、マーク67が部品認識カメラ90の視野中心POを横切るようにヘッドユニット60をX軸方向に移動させ、図16の(a)にて示すように、部品認識カメラ90の視野中心POでマーク67を再度撮影して画像認識する処理を実行する。
 そして、S240では、マーク67が部品認識カメラ90の視野中心POからY軸方向に所定距離離れた撮影位置PAを横切るようにヘッドユニット60をX軸方向に移動させ、図16の(b)にて示すように、部品認識カメラ90の視野PoからY軸方向に所定距離離れた撮影位置PAでマーク67を再度撮影して画像認識する処理を実行する。
 また、S250では、マーク67が部品認識カメラ90の視野中心POからY軸方向に所定距離離れた撮影位置PBを横切るようにヘッドユニット60をX軸方向に移動させ、図16の(c)にて、部品認識カメラ90の視野中心POからY軸方向に所定距離離れた撮影位置PBでマーク67を再度撮影して画像認識する処理を実行する。尚、S230~S240が本発明の「更新用マーク認識処理、更新用マーク認識ステップ」の一例である。
 そして続く、S260では、コントローラ150は、3点Po、Pa、Pbでのマーク67の認識結果と、前回の補正値CX1、CY1に基づいて、X軸方向の最新の補正値CX2とY軸方向の最新の補正値CY2を算出する処理を行う。
 具体的には、まず、各認識位置Po、Pa、Pbでの認識結果を、更新前の補正値CX、CYで補正する。その後、補正後のマーク67の認識結果と実際のマーク67の位置とを比較して、補正後のマーク67の認識誤差、すなわちX軸方向の認識誤差ΔXr、Y軸方向の認識誤差ΔYrを、各認識位置Po、Pa、Pbについてそれぞれ算出する。次に、算出した各認識位置Po、Pa、Pbでの認識誤差ΔXr、ΔYrから近似直線Lx1、Lx2、Ly1、Ly2を算出する。そして、近似直線Lx1の傾きθ1と、近似直線Lx2の傾きθ3と、更新前の補正値CX1に基づいて、各認識位置PyでのX軸方向の最新の補正値CX2を算出する。また、2つの近似直線Ly1の傾きθ2と、近似直線Ly2の傾きθ4と、更新前の補正値CY1に基づいて、各認識位置Pyでの最新の補正値CY2を算出する。
 その後、コントローラ150は、X軸方向の補正値を「CX1」から「CX2」に更新し、Y軸方向の補正値を「CY1」から「CY2」に書き換えて記憶部153に記憶する処理を行う(S270)。尚、S260、S270が本発明の「補正値更新処理、補正値更新ステップ」処理の一例である。
 その後、S280では、自動運転終了をするか、否か判断する処理が行われる。自動運転を継続する場合、S280ではNO判定となり、その後、S210に移行して、表面実装機1の自動運転が継続され、プリント基板Pに対する電子部品Bの実装作業が行われる。
 尚、電子部品Bの実装作業中には、実装ヘッド63で吸着した保持した電子部品Bを部品認識カメラで画像認識する処理が行われ、傾きや位置のずれが検出される。そして、検出した傾きや位置のずれを補正しつつ、電子部品Bはプリント基板P上に実装される。
 そして、前回のマーク認識時から所定時間Tが経過すると、S220の処理を実行した時に、S220でYES判定されることから、再び、S230~S270の処理が実行され、補正値CX、CYが更新される。このように、実施形態2では、前回のマーク認識時から所定時間Tが経過するごとに、補正値CX、CYを更新するので、表面実装機1の機内温度などに変化があっても、部品認識カメラ90の認識誤差を抑えることが可能となる。そのため、プリント基板Pに対する電子部品Bの実装精度を高めることが可能となる。
 <他の実施形態>
 本明細書で開示される技術は上記既述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も技術的範囲に含まれる。
(1)実施形態1、2では、部品認識カメラ90の一例として、ラインセンサカメラを例示したが、エリアセンサカメラであってもよい。尚、エリアセンサカメラについて補正値のデータを作成するには、二次元の撮影位置(PX、PY)でそれぞれマークを撮影し、各認識位置(Px、Py)での認識誤差を求めるようにすればよい。
(2)実施形態1、2では、ヘッドユニット60に設けたマーク67を撮影して、部品認識カメラ90の認識誤差を補正した例を示したが、例えば、ヘッドユニット60に搭載した基板認識カメラ65で基台10上に設けたマーク67を撮影して、基板認識カメラ65の認識誤差を補正するようにしてもよい。またこの場合、認識誤差を補正する補正値を用いて、基板認識カメラ65により撮影されるプリント基板の認識結果を補正するとよい。
(3)実施形態2では、近似直線Lx、Lyを正側(Py>0)と負側(Py≦0)で別々に算出した。Y軸方向の近似直線Lyのように、正側と負側で直線の傾きがほぼ一致する場合、近似直線Lx、Lyを1つの直線で近似してもよく、この場合、「PA」や「PB」など2点でマーク67を認識した結果から、近似直線Lx、Lyを求めることが可能である。また、実施形態2では、前回の補正値と近似直線を利用して、補正値を更新する方法を説明したが、これに限らず、カメラ視野内の各撮影位置でマークを撮影し、その認識結果から各認識位置の認識誤差を求めて補正値を更新する方法であってもよい。
 1...表面実装機
 11...基台
 30...駆動装置
 60...ヘッドユニット(実装部)
 63...実装ヘッド
 67...マーカ
 90...部品認識カメラ
 97...イメージセンサ
 150...コントローラ(制御部)
 151...CPU
 153...記憶部

Claims (8)

  1.  プリント基板に対して電子部品を実装する表面実装機であって、
     基台と、
     前記基台に対して平面方向に移動可能であり、プリント基板に電子部品を実装する実装部と、
     前記基台又は前記実装部のうちいずれか一方側の部材に設けられたカメラと、
     前記基台又は前記実装部のうち他方側の部材に設けられたマークと、
     制御部と、を備え、
     前記制御部は、
     前記カメラの視野内の複数の位置で前記マークを撮影して画像認識するマーク認識処理と、
     前記マーク認識処理にて取得した認識結果から各認識位置での認識誤差を補正する補正値を算出する補正値算出処理と、
     前記プリント基板又は電子部品を前記カメラで撮影して画像認識する実装関連部品認識処理と、
     前記プリント基板又は電子部品の認識結果を前記補正値に基づいて補正する補正処理と、を行う表面実装機。
  2.  請求項1に記載の表面実装機であって、
     前記制御部は、
     前記カメラによる前回のマーク認識時から所定時間が経過した場合に、前記カメラで前記マークを再度撮影して画像認識する更新用マーク認識処理と、
     前記更新用マーク認識処理にて取得した前記マークの認識結果に基づいて、各認識位置の前記補正値を更新する補正値更新処理と、を行う表面実装機。
  3.  請求項2に記載の表面実装機であって、
     前記カメラは、一次元のイメージセンサを備えたラインセンサカメラであり、
     前記更新用マーク認識処理では、
     前記ラインセンサカメラの視野内の複数点で前記マークを撮影して画像認識し、
     前記補正値更新処理では、
     前記マーク更新用認識処理で取得した前記複数点での認識結果と、更新前の前記補正値とに基づいて、各認識位置の認識誤差であって、更新前の補正値による補正後の認識誤差を近似する近似直線を算出し、
     算出した近似直線と、更新前の前記補正値と、に基づいて、各認識位置の前記補正値を更新する表面実装機。
  4.  請求項3に記載の表面実装機であって、
     前記マークは前記実装部に設けられ、
     前記ラインセンサカメラは前記基台に設けられ、
     前記ラインセンサカメラは前記実装部に保持された電子部品を撮影する部品認識カメラである、表面実装機。
  5.  請求項4に記載の表面実装機であって、
     前記ラインセンサカメラのラインに沿った方向をY軸方向、Y軸方向に直交する方向をX軸方向と定義した時に、
     前記実装部は、
     X軸方向に並ぶ複数の実装ヘッドを前記マークのY軸方向両側に2列備え、
     前記更新用マーク認識処理では、
     前記視野中心及び前記視野中心から前記Y軸方向に所定距離離れた2つの撮影位置の3点で前記マークを認識し、
     前記視野中心から前記撮影位置までY軸方向の距離は、前記実装部の中心線から前記実装ヘッドまでのY軸方向の距離に等しい、表面実装機。
  6.  プリント基板に電子部品を実装する表面実装機に搭載されるカメラの認識誤差を補正する認識誤差補正方法であって、
     前記カメラの視野内の複数の位置で、前記カメラに対して相対移動可能なマークを撮影して画像認識するマーク認識ステップと、
     前記マーク認識ステップにて取得した各認識位置での前記マークの認識結果から、各認識位置での認識誤差を補正する補正値を算出する補正値算出ステップと、
     前記プリント基板又は電子部品を前記カメラで撮影して画像認識する実装関連部品認識ステップと、
     前記プリント基板又は前記電子部品の認識結果を、前記補正値に基づいて補正する補正ステップと、を含む、認識誤差補正方法。
  7.  請求項6に記載の認識誤差補正方法であって、
     前記カメラによる前回のマーク認識時から所定時間が経過した場合に、前記カメラで前記マークを再度撮影して画像認識する更新用マーク認識ステップと、
     前記更新用マーク認識ステップにて取得した前記マークの認識結果に基づいて、各認識位置の前記補正値を更新する補正値更新ステップと、を含む、認識誤差補正方法。
  8.  請求項7に記載の認識誤差補正方法であって、
     前記カメラは一次元のイメージセンサを備えたラインセンサカメラであり、
     前記更新用マーク認識ステップでは、
     前記ラインセンサカメラの中心を含む複数点で前記マークを認識し、
     前記補正値更新ステップでは、
     前記マーク更新用認識ステップで取得した前記複数点での認識結果と、更新前の前記補正値とに基づいて、各認識位置の認識誤差であって、更新前の補正値による補正後の認識誤差を近似する近似直線を算出し、
     算出した近似直線と更新前の前記補正値とに基づいて、各認識位置の前記補正値を更新する、認識誤差補正方法。
PCT/JP2016/053951 2016-02-10 2016-02-10 表面実装機、認識誤差補正方法 WO2017138113A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/076,640 US10849261B2 (en) 2016-02-10 2016-02-10 Surface mounter and method of correcting recognition error
CN201680080885.8A CN108605432B (zh) 2016-02-10 2016-02-10 表面安装机、识别误差校正方法
JP2017566463A JP6731003B2 (ja) 2016-02-10 2016-02-10 表面実装機、認識誤差補正方法
PCT/JP2016/053951 WO2017138113A1 (ja) 2016-02-10 2016-02-10 表面実装機、認識誤差補正方法
DE112016006383.0T DE112016006383T5 (de) 2016-02-10 2016-02-10 Oberflächenmontagegerät und Verfahren zum Korrigieren von Erkennungsfehlern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/053951 WO2017138113A1 (ja) 2016-02-10 2016-02-10 表面実装機、認識誤差補正方法

Publications (1)

Publication Number Publication Date
WO2017138113A1 true WO2017138113A1 (ja) 2017-08-17

Family

ID=59562963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053951 WO2017138113A1 (ja) 2016-02-10 2016-02-10 表面実装機、認識誤差補正方法

Country Status (5)

Country Link
US (1) US10849261B2 (ja)
JP (1) JP6731003B2 (ja)
CN (1) CN108605432B (ja)
DE (1) DE112016006383T5 (ja)
WO (1) WO2017138113A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017141405A1 (ja) * 2016-02-18 2017-08-24 富士機械製造株式会社 部品判定装置および部品判定方法
CN111652249A (zh) * 2020-06-03 2020-09-11 无锡晟友电子科技有限公司 基于图像识别的表面贴装工艺质检方法和系统
CN117641882B (zh) * 2024-01-25 2024-04-02 合肥安迅精密技术有限公司 基于机器视觉的贴装误差实时校正方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3253218B2 (ja) * 1994-06-28 2002-02-04 ヤマハ発動機株式会社 実装機の位置補正装置
JP4343710B2 (ja) * 2004-01-09 2009-10-14 ヤマハ発動機株式会社 表面実装機
JP2010087426A (ja) * 2008-10-02 2010-04-15 Juki Corp 電子部品実装装置
JP2015220419A (ja) * 2014-05-21 2015-12-07 ヤマハ発動機株式会社 部品実装装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3610771B2 (ja) * 1998-04-13 2005-01-19 松下電器産業株式会社 ワークの位置認識方法
EP1583412A4 (en) * 2002-12-02 2007-08-15 Matsushita Electric Ind Co Ltd DEVICE AND METHOD FOR PARTS ASSEMBLY
JP2007012889A (ja) * 2005-06-30 2007-01-18 Hitachi High-Tech Instruments Co Ltd 電子部品装着方法及び電子部品装着装置
WO2009001627A1 (ja) * 2007-06-28 2008-12-31 Yamaha Motor Co., Ltd. 部品移載装置
JP5241530B2 (ja) * 2009-01-16 2013-07-17 Juki株式会社 電子部品実装装置および搭載方法
JP5455123B2 (ja) * 2010-03-03 2014-03-26 富士機械製造株式会社 部品実装機の撮像画像処理装置
CN103108537B (zh) * 2011-10-07 2017-03-15 Juki株式会社 电子部件安装装置以及电子部件安装方法
JP2014103353A (ja) * 2012-11-22 2014-06-05 Samsung R&D Institute Japan Co Ltd 認識装置、認識方法、実装装置及び実装方法
JP6159124B2 (ja) * 2013-04-04 2017-07-05 ヤマハ発動機株式会社 部品実装装置
JP6333250B2 (ja) * 2013-07-08 2018-05-30 株式会社Fuji 部品保持状態検出方法および部品実装装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3253218B2 (ja) * 1994-06-28 2002-02-04 ヤマハ発動機株式会社 実装機の位置補正装置
JP4343710B2 (ja) * 2004-01-09 2009-10-14 ヤマハ発動機株式会社 表面実装機
JP2010087426A (ja) * 2008-10-02 2010-04-15 Juki Corp 電子部品実装装置
JP2015220419A (ja) * 2014-05-21 2015-12-07 ヤマハ発動機株式会社 部品実装装置

Also Published As

Publication number Publication date
US10849261B2 (en) 2020-11-24
JP6731003B2 (ja) 2020-07-29
JPWO2017138113A1 (ja) 2018-11-22
US20190045683A1 (en) 2019-02-07
CN108605432B (zh) 2020-05-05
DE112016006383T5 (de) 2018-10-18
CN108605432A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
TWI415703B (zh) 雷射加工裝置及基板位置檢測方法
US10743447B2 (en) Component mounting machine
KR101472434B1 (ko) 전자 부품 실장 장치 및 실장 위치 보정 데이터 작성 방법
JP5779386B2 (ja) 電気部品装着機
EP3322275B1 (en) Mounting device, photographic processing method, and photographic unit
US20090252400A1 (en) Method for mounting electronic component
CN109076727B (zh) 安装装置及安装方法
JP6731003B2 (ja) 表面実装機、認識誤差補正方法
KR102057918B1 (ko) 부품 실장장치
CN108029236B (zh) 元件安装装置
JP5095164B2 (ja) 撮像装置の光軸ずれ検出方法、部品位置補正方法及び部品位置補正装置
JP2009212251A (ja) 部品移載装置
JP6849815B2 (ja) 部品実装装置、撮影方法、実装順序の決定方法
JP2004281958A (ja) 部品実装方法及び装置
JP5600705B2 (ja) 部品実装装置
JP6985814B2 (ja) 基板作業機
KR101478230B1 (ko) 반도체 제조 장치의 티칭 방법
WO2014188564A1 (ja) 部品実装装置
JP2008171866A (ja) 実装機カメラのピント調整方法及びスケーリング取得方法
JP2019012784A (ja) 部品保持具の偏心補正方法
JP2009170586A (ja) 電子部品認識方法及び装置
JPH03241896A (ja) 部品の位置補正方法
TW202113346A (zh) 圖案測定裝置、圖案測定裝置中之傾斜度算出方法及圖案測定方法
JP2024041278A (ja) 実装機
CN117222861A (zh) 测定装置及基板检查装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889815

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2017566463

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 112016006383

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16889815

Country of ref document: EP

Kind code of ref document: A1