WO2020144776A1 - 制御装置および制御方法 - Google Patents

制御装置および制御方法 Download PDF

Info

Publication number
WO2020144776A1
WO2020144776A1 PCT/JP2019/000394 JP2019000394W WO2020144776A1 WO 2020144776 A1 WO2020144776 A1 WO 2020144776A1 JP 2019000394 W JP2019000394 W JP 2019000394W WO 2020144776 A1 WO2020144776 A1 WO 2020144776A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
relative position
template image
image
target
Prior art date
Application number
PCT/JP2019/000394
Other languages
English (en)
French (fr)
Inventor
暁生 斎藤
裕幸 関口
武之 河田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to KR1020217019767A priority Critical patent/KR102537029B1/ko
Priority to DE112019006604.8T priority patent/DE112019006604T5/de
Priority to JP2019537854A priority patent/JP6771674B1/ja
Priority to US17/296,253 priority patent/US11874679B2/en
Priority to CN201980087703.3A priority patent/CN113260941B/zh
Priority to PCT/JP2019/000394 priority patent/WO2020144776A1/ja
Priority to TW109100030A priority patent/TWI772731B/zh
Publication of WO2020144776A1 publication Critical patent/WO2020144776A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0815Controlling of component placement on the substrate during or after manufacturing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • G05B23/0254Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model based on a quantitative model, e.g. mathematical relationships between inputs and outputs; functions: observer, Kalman filter, residual calculation, Neural Networks
    • G06T3/14
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]

Definitions

  • the present invention relates to a control device and a control method for correcting a target position for moving a movable part such as a mounting head driven by an actuator using an imaging device.
  • positioning control is performed by driving actuators such as servo motors and linear motors to move movable parts such as mounting heads to target positions.
  • actuators such as servo motors and linear motors
  • movable parts such as mounting heads to target positions.
  • Patent Document 1 discloses a component mounting apparatus including a mounting head and an imaging device.
  • the component mounting apparatus has a function of acquiring the contour of the component held by the mounting head from the brightness distribution of the captured image acquired by the imaging device, and correcting the mounting position of the component based on the acquired contour position of the component.
  • the component mounting apparatus shortens the time required to complete positioning by performing imaging without temporarily stopping the mounting head.
  • the relative speed between the subject and the imaging device is not zero.
  • the relative speed between the subject and the image pickup device is not zero, and therefore the relative position between the subject and the image pickup device changes during exposure, causing blurring in the captured image. Therefore, there is a problem that it is not uniquely determined which time in the exposure time the contour position of the component acquired from the photographed image corresponds to, and the correction accuracy of the position error decreases.
  • the present invention has been made in view of the above, and an object thereof is to obtain a control device capable of accurately correcting a position error.
  • a control device changes a relative position between a movable part and a target object as the movable part moves, and acquires a captured image of the target object.
  • An image pickup device which is a control device for controlling a controlled device having: a drive unit that drives the movable unit based on a drive command signal that moves the movable unit to a target position; A relative position estimation unit that calculates an estimated value of the relative position between the target object and the imaging device, and a template image that is registered in advance is corrected based on a time-series signal of the estimated value of the relative position within the imaging time of the imaging device.
  • a template image correction unit and a target position correction unit that corrects the target position using the corrected template image are provided.
  • FIG. 5 is a block diagram showing a configuration example of the machine model calculation unit shown in FIG.
  • the flowchart which shows the drive control processing of the control apparatus shown in FIG. The flowchart which shows the image processing of the control apparatus shown in FIG. Diagram showing dedicated hardware for realizing the functions of the control device shown in FIG.
  • FIG. 1 is a schematic diagram showing a configuration of a control system 10 according to the first exemplary embodiment of the present invention.
  • the control system 10 includes a control device 1 and a control target device 2 which is a mechanical system controlled by the control device 1.
  • the controlled device 2 is an electronic component mounter that mounts electronic components on a board.
  • the control device 1 controls the operation of each part of the controlled device 2.
  • the control target device 2 includes an X-axis motor 200, a Y-axis motor 201, an image pickup device 202, a movable unit 203, a suction nozzle 204, and a printed circuit board transport mechanism 205.
  • the X-axis motor 200 and the Y-axis motor 201 are actuators that change the position of the movable portion 203.
  • the direction in which the X-axis motor 200 moves the movable portion 203 is orthogonal to the direction in which the Y-axis motor 201 moves the movable portion 203.
  • the movable unit 203 is a mounting head that mounts electronic components, and is moved in parallel with the surface of the printed board 206 by the X-axis motor 200 and the Y-axis motor 201.
  • the movable unit 203 holds the electronic component by using the suction nozzle 204 and places the electronic component at a target position 207 on the printed board 206.
  • the X-axis motor 200 and the Y-axis motor 201 are linear motors in FIG. 1, other linear motion mechanisms such as a combination of a rotary servo motor and a ball screw may be used.
  • the imaging device 202 is fixed to the movable portion 203, and moves with the movement of the movable portion 203. For this reason, the relative position between the imaging device 202 and the printed circuit board transport mechanism 205, which is the target, changes as the movable unit 203 moves.
  • the printed circuit board transport mechanism 205 transports the printed circuit board 206 according to a command from the control device 1.
  • the target position 207 is a position where the movable portion 203 is a target of movement, and is a position on the printed circuit board 206 where electronic components are provided.
  • FIG. 2 is a diagram showing a first state of control system 10 shown in FIG.
  • FIG. 3 is a diagram showing a second state of control system 10 shown in FIG.
  • FIG. 4 is a diagram showing a third state of control system 10 shown in FIG.
  • sucking the electronic component 208 by the suction nozzle 204 of the movable unit 203 and disposing the electronic component 208 at the target position 207 will be described.
  • the control system 10 is in the position control of the movable portion 203.
  • the target position 207 is not within the visual field region V of the image pickup device 202.
  • the control device 1 controls the positioning of the movable portion 203 using a default target position P0 preset based on the design data of the printed circuit board 206. If the printed circuit board 206 is distorted or the controlled device 2 is thermally expanded, an error may occur, and the target position 207 on which the electronic component 208 should be originally mounted may deviate from the default target position P0.
  • the controller 1 causes the central axis C of the suction nozzle 204 to coincide with the default target position P0. Since the electronic component 208 is placed on the printed board 206 while the movable portion 203 is moved, the electronic component 208 is placed at a position deviated from the position where it should be originally placed.
  • the control system 10 has a function of correcting the default target position P0 by using the captured image of the imaging device 202.
  • the control device 1 determines the movable portion 203 and the target position 207 from the captured image of the image pickup device 202. The relative position between them is calculated, and the positioning control is performed while correcting the error between the target position 207 and the default target position P0 based on the calculated relative position.
  • the central axis C of the suction nozzle 204 and the central position of the target position 207 coincide, and the positioning control is completed.
  • FIG. 5 is a diagram showing a functional configuration of the control system 10 shown in FIG.
  • the control system 10 includes a control device 1 and a control target device 2.
  • the control device 1 includes a command generation unit 100, a mechanical model calculation unit 101, an X-axis drive unit 102 and a Y-axis drive unit 103 that are drive units, an imaging command generation unit 104, a relative position storage unit 105, and a template.
  • the image correction unit 106, the image processing unit 107, and the target position correction unit 108 are included.
  • the control device 1 controls the X-axis motor 200 and the Y-axis motor 201 based on the captured image acquired by the imaging device 202 mounted on the control target device 2.
  • the command generation unit 100 calculates a position command including the X-axis command position rx(t) and the Y-axis command position ry(t) based on the current target position P(t).
  • a technique for generating a position command by performing interpolation on a target position that changes from moment to moment for example, the method disclosed in Japanese Patent Laid-Open No. 2012-20895 can be used.
  • the command generation unit 100 inputs the generated position command to the machine model calculation unit 101.
  • the mechanical model calculation unit 101 calculates a transfer function indicating the mechanical characteristics of the controlled device 2 and a position command including the X-axis command position rx(t) and the Y-axis command position ry(t) calculated by the command generation unit 100. Based on the method described below, the X-axis and Y-axis current feedforward signals in which the gain of the frequency component that excites the mechanical vibration of the controlled device 2 is reduced in order to suppress the vibration of the controlled device 2, and A drive command signal indicating a position to be followed by the movable portion 203 and including a position reference signal for moving the movable portion 203 to the target position P(t) is calculated.
  • the machine model calculation unit 101 performs the control in parallel with the above-described operation between the imaging device 202 and the target position 207 when the X-axis drive unit 102 and the Y-axis drive unit 103 perform control based on the drive command signal. Calculate an estimate of the relative position between.
  • the mechanical model calculation unit 101 inputs the calculated drive command signal to the X-axis drive unit 102 and the Y-axis drive unit 103, and inputs the estimated value of the relative position to the relative position storage unit 105.
  • FIG. 6 is a block diagram showing a configuration example of the machine model calculation unit 101 shown in FIG.
  • the machine model calculation unit 101 shown in FIG. 6 includes a drive command generation unit 301 and a relative position estimation unit 302.
  • the drive command generation unit 301 includes a command distributor 303, an X-axis drive command generation unit 304, and a Y-axis drive command generation unit 305.
  • the current value of the X-axis motor 200 at time t is ux(t), and the position feedback value of the X-axis motor 200 at time t is x1(t).
  • the current value of the Y-axis motor 201 at time t is uy(t), and the position feedback value of the Y-axis motor 201 at time t is y1(t).
  • the X component of the relative position between the imaging device 202 and the target position 207 at time t is x2(t), and the Y component is y2(t).
  • the denominator polynomial Dx(s) and the numerator polynomial Nx1(s) of the transfer function from the current value of the X-axis motor 200 to the position feedback value, and the Y-axis motor It is assumed that the denominator polynomial Dy(s) and the numerator polynomial Ny1(s) of the transfer function from the current value of 201 to the position feedback value are obtained in advance.
  • These relationships are expressed by the following mathematical expression (1).
  • the Laplace transform of the function f(t) is represented as L[f(t)].
  • Expressions (1) and (2) are tested by operating the controlled device 2, and the current values and position feedback values of the X-axis motor 200 and the Y-axis motor 201, the imaging device 202 and the target are calculated. This can be obtained by acquiring time-series data of the actual measurement value of the relative position with respect to the position 207 and performing signal processing on the time-series data. Further, by adjusting the position feedback and the scale of the relative position, the numerator polynomial of the transfer function is normalized as shown by the following mathematical expression (3).
  • the X-axis command position rx(t) and the Y-axis command position ry(t) calculated by the command generation unit 100 are input to the command distributor 303 of the drive command generation unit 301 and the relative position estimation unit 302.
  • the command distributor 303 inputs the X-axis command position rx(t) calculated by the command generation unit 100 to the X-axis drive command generation unit 304, and sets the Y-axis command position ry(t) calculated by the command generation unit 100 to Y. It is input to the axis drive command generation unit 305.
  • the X-axis drive command generation unit 304 uses the preset transfer function Fx(s) of the X-axis command filter and the transfer function represented by Formula (1) to feed the current of the X-axis motor 200.
  • the forward signal ux * (t) and the position reference signal x1 * (t) are calculated based on the transfer function shown in the following mathematical expression (4).
  • the Y-axis drive command generation unit 305 uses the transfer function Fy(s) of the Y-axis command filter set in advance and the transfer function represented by Expression (1) to feed the current of the Y-axis motor 201.
  • the forward signal uy * (t) and the position reference signal y1 * (t) are calculated based on the transfer function shown in the following mathematical expression (5).
  • the relative position estimation unit 302 uses the transfer functions Fx(s) and Fy(s) of the command filter described above and the transfer function of Expression (2) to calculate the X component and the Y component of the estimated value of the relative position as follows. It is calculated based on the transfer function shown in Equation (6).
  • the estimated value of the function may be shown with a hat attached to the function.
  • a function with a hat may be represented as a hat (function).
  • the estimated value of the function x2(t) is represented as hat(x2)(t).
  • hat(x2)(t) represents the X component of the estimated value of the relative position
  • hat(y2)(t) represents the Y component of the estimated value of the relative position.
  • the X-axis drive command generation unit 304 multiplies the transfer function Fx(s) of the X-axis command filter by the denominator polynomial Dx(s) of the transfer function from the X-axis current value to the position feedback.
  • the current feedforward signal ux * (t) of the X-axis motor 200 is calculated based on the transfer function, and the transfer function Fx(s) of the X-axis command filter and the X-axis current value to the position feedback are calculated. This indicates that the X-axis position reference signal x1 * (t) is calculated based on the transfer function obtained by multiplying the numerator polynomial Nx1(s) of the transfer function.
  • the Y-axis drive command generation unit 305 calculates the transfer function Fy(s) of the Y-axis command filter and the denominator of the transfer function from the Y-axis current value to the position feedback.
  • the current feedforward signal uy * (t) of the Y-axis motor 201 is calculated based on the transfer function obtained by multiplying the polynomial Dy(s), and the transfer function Fy(s) of the Y-axis command filter and the Y-axis are calculated. It represents that the Y-axis position reference signal y1 * (t) is calculated based on the transfer function multiplied by the numerator polynomial Ny1(s) of the transfer function from the current value to the position feedback.
  • the relative position estimation unit 302 multiplies the transfer function Fx(s) of the X-axis command filter by the numerator polynomial Nx2(s) of the transfer function from the X-axis current value to the relative position. It represents that the X component hat(x2)(t) of the estimated value of the relative position is calculated based on the transfer function.
  • the relative position estimation unit 302 multiplies the transfer function Fy(s) of the Y-axis command filter by the numerator polynomial Ny2(s) of the transfer function from the Y-axis current value to the relative position. It represents that the Y component hat(y2)(t) of the estimated value of the relative position is calculated based on the transfer function.
  • the X-axis drive command generation unit 304 inputs the current feedforward signal ux * (t) of the X-axis motor 200 and the position reference signal x1 * (t), which are X-axis drive command signals, to the X-axis drive unit 102.
  • the Y-axis drive command generation unit 305 inputs the current feedforward signal uy * (t) of the Y-axis motor 201 and the position reference signal y1 * (t), which are Y-axis drive command signals, to the Y-axis drive unit 103.
  • the relative position estimation unit 302 also inputs the calculated X component hat(x2)(t) of the estimated relative position and the calculated Y component hat(y2)(t) of the relative position into the relative position storage unit 105. ..
  • the X-axis drive unit 102 feeds the X-axis motor 200 based on the current feedforward signal ux * (t) and the position reference signal x1 * (t), which are the X-axis drive command signals calculated by the mechanical model calculation unit 101.
  • the position control of the X-axis motor 200 is performed by two-degree-of-freedom control that is a combination of forward control and feedback control.
  • the Y-axis drive unit 103 feeds the Y-axis based on the current feedforward signal uy * (t) and the position reference signal y1 * (t) of the Y-axis motor 201, which are the Y-axis drive command signals calculated by the mechanical model calculation unit 101.
  • the position control of the Y-axis motor 201 is performed by two-degree-of-freedom control that is a combination of forward control and feedback control.
  • the machine included in the current feedforward signal and the position reference signal can be obtained.
  • the gain of the frequency component that excites the system vibration can be reduced. Therefore, the vibration of the mechanical system can be suppressed by controlling the X-axis motor 200 and the Y-axis motor 201 by the two-degree-of-freedom control using the current feedforward signal and the position reference signal.
  • the X component hat(x2)(t) of the relative position between the imaging device 202 and the target position 207 and the Y component hat(y2)(t) of the estimated value of the relative position are calculated using the mathematical expression (6).
  • the machine model calculation unit 101 may be the drive command signal.
  • a set of a current feedforward signal, a position reference signal, and a velocity reference signal may be output.
  • the mechanical model calculation unit 101 may output a torque feedforward signal as the feedforward signal instead of the current feedforward signal.
  • the image capturing command generation unit 104 generates an image capturing command for controlling the image capturing timing of the image capturing device 202 based on a predetermined image processing cycle.
  • the imaging command generation unit 104 inputs the generated imaging command to the imaging device 202 and the relative position storage unit 105.
  • the relative position storage unit 105 stores the X component hat(x2)(t) of the estimated relative position value and the Y component hat(y2)(t) of the estimated relative position value calculated by the mechanical model calculation unit 101,
  • the imaging command generated by the command generation unit 104 is input.
  • the relative position storage unit 105 stores the X component hat(x2)(t) of the estimated relative position and the Y component hat(y2)(t of the estimated relative position from the exposure start time to the exposure end time of the imaging device 202.
  • Time-series signals are stored as relative position memory.
  • the template image correction unit 106 corrects the template image used by the image processing unit 107 based on the relative position storage stored in the relative position storage unit 105, and the image processing unit 107 calculates an observed value of the relative position.
  • a reference position in the template image used for the calculation is calculated.
  • the template image is a pattern image used in an image processing method such as a template matching method.
  • the template image refers to an image including the target position 207, which is obtained by previously photographing the printed circuit board 206 while the movable portion 203 is stationary.
  • the template image correction unit 106 simulates the blurring of the captured image based on the relative position storage, and corrects the template image based on the simulation result.
  • the image processing unit 107 uses an image processing method such as a template matching method to search the captured image captured by the image capturing apparatus 202 during positioning for a region that matches the template image registered in advance, and The observed value of the relative position with respect to the target position 207 is calculated.
  • an image processing method such as a template matching method to search the captured image captured by the image capturing apparatus 202 during positioning for a region that matches the template image registered in advance, and The observed value of the relative position with respect to the target position 207 is calculated.
  • an image processing method such as a template matching method to search the captured image captured by the image capturing apparatus 202 during positioning for a region that matches the template image registered in advance, and The observed value of the relative position with respect to the target position 207 is calculated.
  • the relative position between the image capturing device 202 and the target position 207 during capturing changes, causing a subject blur. Therefore, the template image captured in the still state and the actual captured image do not exactly match. Therefore, in the image processing using the template image captured in the still state
  • the template image correction unit 106 predicts the subject blur based on the relative position storage stored in the relative position storage unit 105. Then, by correcting the template image, it is possible to suppress the error in the observed value of the relative position due to the subject blur.
  • the template image correction unit 106 corrects the template image so as to include subject blurring.
  • the template image correction unit 106 changes the relative position between the image capturing device 202 and the target position 207 during image capturing by the image capturing device 202 based on the relative position storage stored in the relative position storage unit 105.
  • a filter M corresponding to the generated subject blur is calculated.
  • Formula (7) converts the difference between the estimated value of the relative position at the exposure start time T1 and the estimated value of the relative position at the time t into a pixel unit, and calculates a delta function offset by a distance in the pixel unit at the time [T1, T2] and then averaged in a range of surrounding ⁇ 1/2 pixels.
  • the pixel coordinates (X, Y) can take a negative value in the formula (7), when the formula (7) is realized by a computer, it is suitable for the logical pixel coordinates (X, Y). By adding an offset value, the pixel coordinates on the implementation will not be negative.
  • the template image correction unit 106 calculates the convolutional sum of the template image K registered in advance and the above-described filter M based on the mathematical expression (8) to obtain the corrected template image K′ in consideration of the subject blur. To calculate.
  • the template image correction unit 106 inputs the corrected template image K′ to the image processing unit 107.
  • FIG. 7 is a diagram showing an example of the template image K before correction by the template image correction unit 106 shown in FIG.
  • the template image K is an image taken in a still state.
  • FIG. 8 is a diagram showing a template image K′ after the template image K shown in FIG. 7 is corrected.
  • the template image K′ is an image in consideration of subject blur, which is obtained by calculating the convolutional sum of the template image K and the filter M shown in FIG. 7.
  • FIG. 9 is a diagram showing an example of the filter coefficient of each pixel coordinate of the filter M used by the template image correction unit 106 shown in FIG.
  • the filter coefficient of each pixel of the filter M can be obtained by numerically calculating Expression (7) based on the estimated value of the relative position at time [T1, T2].
  • T1, T2 the estimated value of the relative position at time [T1, T2].
  • pixels with a filter coefficient of zero are drawn black, and pixels with a non-zero filter coefficient are drawn bright, that is, white, according to the size of the filter coefficient.
  • the corrected template image K′ shown in FIG. 8 is obtained by calculating the convolutional sum of the template image K shown in FIG. 7 and the filter M shown in FIG.
  • the image processing unit 107 receives the captured image captured by the image capturing apparatus 202 and the corrected template image K′ output by the template image correction unit 106.
  • the image processing unit 107 uses an image processing method such as a template matching method to search for a region in the captured image that matches the corrected template image K′.
  • the filter coefficient since the filter coefficient is designed with reference to the estimated value of the relative position at the exposure start time T1, it corresponds to the logical origin of the corrected template image K′ in the captured image. By calculating the pixel coordinates, the subject position at the exposure start time T1 can be calculated.
  • the photographed image is scanned with the corrected template image K′, the degree of similarity with the corrected template image K′ in each region on the photographed image is calculated, and the degree of similarity is maximum or a preset threshold value is set.
  • the above area is specified.
  • the observation value of the relative position between the image pickup device 202 and the target position 207 is calculated based on the pixel coordinates corresponding to the logical origin of the corrected template image K′ within the specified region.
  • the template image correction unit 106 calculates the convolutional sum of the template image K and the filter M in the spatial domain
  • the image processing unit 107 uses the discrete Fourier transform such as the phase-only correlation method.
  • the template image correction unit 106 calculates the discrete Fourier transform of the template image K and the filter M, and further multiplies the two in the spatial frequency domain to perform correction.
  • the discrete Fourier transform of the later template image K′ may be calculated.
  • the template image correction unit 106 does not calculate the discrete Fourier transform of the template image K online, but the template image correction unit 106 stores the result of previously calculating the discrete Fourier transform of the template image K offline. Good.
  • the image processing unit 107 inputs the observed value of the relative position between the imaging device 202 and the target position 207 to the target position correction unit 108.
  • the relative position storage stored in the relative position storage unit 105 and the observed value of the relative position between the imaging device 202 and the target position 207 are input to the target position correction unit 108.
  • the target position correction unit 108 generates a target position correction signal indicating the correction amount of the target position, and inputs the generated target position correction signal to the command generation unit 100.
  • the coordinate system of the filter is set based on the estimated value of the relative position at the exposure start time T1, and therefore the relative position at the exposure start time T1 is set.
  • the correction amount of the target position for the command generation unit 100 may be calculated based on the error between the estimated value of 1 and the observed value of the relative position obtained by the image processing. Therefore, the calculation formula of the filter coefficient of the filter M is changed to the following formula (9), and the error between the estimated value of the relative position at the exposure end time T2 and the observed value of the relative position obtained by the image processing is changed. Based on this, the correction amount of the target position for the command generation unit 100 may be calculated.
  • the estimated value of the relative position from the exposure start time T1 to the exposure end time T2 is calculated in the filter coefficient calculation.
  • the estimated value of the relative position at the time corrected for the dead time may be used.
  • the relative position storage unit 105 stores the X component hat(x2)(t) of the estimated value of the relative position in the time range in which the correction of the dead time is added to the exposure start time T1 and the exposure end time T2 and the relative value.
  • the time series signal of the Y component hat(y2)(t) of the estimated position value may be stored as the relative position memory.
  • FIG. 10 is a flowchart showing a drive control process of the control device 1 shown in FIG.
  • FIG. 11 is a flowchart showing image processing of the control device 1 shown in FIG.
  • the control device 1 separates the task of drive control processing from the task of image processing, and executes each task at different calculation cycles.
  • the control device 1 includes a plurality of CPUs (Central Processing Units), each task may be assigned to a different CPU.
  • CPUs Central Processing Units
  • the command generation unit 100 of the control device 1 calculates the position command based on the current value of the target position (step S101).
  • the command generation unit 100 inputs the calculated position command to the machine model calculation unit 101.
  • the mechanical model calculation unit 101 calculates a drive command signal for moving the movable unit 203 to the target position based on the position command (step S102).
  • the mechanical model calculation unit 101 inputs the calculated drive command signal to the X-axis drive unit 102 and the Y-axis drive unit 103. Further, the mechanical model calculation unit 101 calculates an estimated value of the relative position between the image pickup device 202 and the target position based on the position command (step S103).
  • the machine model calculation unit 101 inputs the calculated estimated value of the relative position to the relative position storage unit 105.
  • the relative position storage unit 105 stores the estimated value of the relative position input from the machine model calculation unit 101 (step S104).
  • the drive unit including the X-axis drive unit 102 and the Y-axis drive unit 103 executes control processing of the motor including the X-axis motor 200 and the Y-axis motor 201 based on the drive command signal (step S105).
  • the imaging command generation unit 104 of the control device 1 outputs an imaging command to the imaging device 202 (step S201).
  • the template image correction unit 106 calculates the filter of the blurred image based on the relative position storage (step S202).
  • the template image correction unit 106 calculates a corrected template image based on the blur image filter (step S203).
  • the template image correction unit 106 inputs the corrected template image to the image processing unit 107.
  • the image processing unit 107 acquires a captured image of the imaging device 202 (step S204).
  • the image processing unit 107 calculates the observation value of the relative position between the imaging device 202 and the target position by image processing (step S205).
  • the image processing unit 107 inputs the calculated observed value of the relative position to the target position correction unit 108.
  • the target position correction unit 108 calculates a target position correction signal indicating a correction amount of the target position based on the estimated value of the relative position indicated by the relative position memory and the observed value of the relative position (step S206).
  • Command generation unit 100 machine model calculation unit 101, X-axis drive unit 102, Y-axis drive unit 103, imaging command generation unit 104, relative position storage unit 105, template image correction unit 106, image processing unit 107, and target position correction
  • the unit 108 is realized by a processing circuit. These processing circuits may be realized by dedicated hardware or may be control circuits using a CPU.
  • FIG. 12 is a diagram showing dedicated hardware for realizing the functions of the control device 1 shown in FIG.
  • the processing circuit 90 is a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.
  • this control circuit is, for example, the control circuit 91 having the configuration shown in FIG.
  • FIG. 13 is a diagram showing the configuration of the control circuit 91 for realizing the functions of the control device 1 shown in FIG.
  • the control circuit 91 includes a processor 92 and a memory 93.
  • the processor 92 is a CPU and is also called a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the memory 93 is, for example, a nonvolatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (registered trademark) (Electrically EPROM), These include magnetic disks, flexible disks, optical disks, compact disks, mini disks, and DVD (Digital Versatile Disk).
  • a RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable ROM), an EEPROM (registered trademark) (Electrically EPROM)
  • magnetic disks flexible disks, optical disks, compact disks, mini disks, and DVD (Digital Versatile Disk).
  • the control circuit 91 When the above processing circuit is realized by the control circuit 91, it is realized by the processor 92 reading and executing the program stored in the memory 93 and corresponding to the processing of each component.
  • the memory 93 is also used as a temporary memory in each process executed by the processor 92.
  • the subject blur is predicted and the template image K is corrected based on the estimated value of the relative position between the imaging device 202 and the target position 207. While estimating the position by image processing. Therefore, it is possible to accurately correct the position error due to the subject shake in the positioning control, and it is possible to improve the accuracy of the positioning control. This method is applicable even when the shape of the subject is complicated, or when the subject shape is greatly distorted due to subject blurring, and is highly versatile.
  • a mechanical system such as the controlled device 2 has a finite mechanical rigidity. Therefore, when the acceleration or deceleration of the positioning command is increased, the mechanical system vibrates and the positioning time increases. There is a problem that sometimes.
  • the control device 1 uses the current feedforward signal and the position reference signal as shown in Expressions (4) and (5), and the X-axis drive unit.
  • the 102 and the Y-axis drive unit 103 By controlling the 102 and the Y-axis drive unit 103, mechanical vibration after the completion of positioning can be suppressed and the positioning time can be shortened.
  • the control device 1 of the present embodiment is based on the estimated value of the relative position between the imaging device 202 and the target position 207 in consideration of mechanical characteristics, as shown in Expression (6). , Calculate the correction amount of the target position. For this reason, it is possible to suppress the deterioration of the position estimation accuracy of the image processing due to the displacement of the imaging device 202 due to the vibration and displacement of the mechanical system, and to perform the positioning at high speed and with high accuracy.
  • control device 1 is applied to positioning control
  • present embodiment is not limited to such an example.
  • the technique for the control device 1 to correct the template image used for image processing based on the prediction of the subject blur should be applied to motion control devices other than positioning control, such as a trajectory control device and a roll-to-roll mechanical system.
  • motion control devices other than positioning control such as a trajectory control device and a roll-to-roll mechanical system.
  • the present embodiment is not limited to this example. Not limited.
  • the drive command signal and the estimated value of the relative position are calculated without using the detailed mechanical properties of the controlled device 2. It is also possible to calculate.
  • the controlled device 2 is a rigid body, that is, the transfer functions of the controlled device 2 on the X axis and the Y axis can be expressed by the following mathematical expression (10), and the drive command generation unit 301 and The relative position estimation unit 302 may be configured.
  • Jx is the rigid inertia of the X axis
  • Jy is the rigid inertia of the Y axis.
  • the technique of the present embodiment is a table in which the movable unit 203 moves a target object. Therefore, it can be applied to a machine configured such that the relative position between the imaging device 202 and the target changes with the movement of the target.
  • the mechanical model calculation unit 101 estimates the relative position between the imaging device 202 and the target position 207 only from the previously identified mechanical characteristics and the command position information output by the command generation unit 100.
  • the controlled device 2 is provided with an additional sensor such as an acceleration sensor, the observer using the detected values estimates the relative position between the imaging device 202 and the target position 207. It is also possible.
  • control device 1 has been described in the above-described embodiment, the technology disclosed in the present embodiment is implemented as a computer program for realizing the control method of the control device 1. It may be implemented as a storage medium for storing a computer program.
  • control device 1 control device, 2 control target device, 10 control system, 90 processing circuit, 91 control circuit, 92 processor, 93 memory, 100 command generation unit, 101 machine model calculation unit, 102 X axis drive unit, 103 Y axis drive unit, 104 imaging command generation unit, 105 relative position storage unit, 106 template image correction unit, 107 image processing unit, 108 target position correction unit, 200 X-axis motor, 201 Y-axis motor, 202 imaging device, 203 movable unit, 204 suction nozzle , 205 printed circuit board transport mechanism, 206 printed circuit board, 207 target position, 208 electronic parts, 301 drive command generation unit, 302 relative position estimation unit, 303 command distributor, 304 X-axis drive command generation unit, 305 Y-axis drive command generation Part, C center axis, P0 default target position, V field of view area.

Abstract

可動部と、可動部の移動に伴って目標物との相対位置が変化し、目標物の撮影画像を取得する撮像装置(202)と、を有する制御対象装置(2)を制御する制御装置(1)は、可動部を目標位置に移動させる駆動指令信号に基づいて、可動部を駆動する駆動部(102,103)と、駆動指令信号に基づいて、目標物と撮像装置(202)との相対位置の推定値を算出する相対位置推定部と、撮像装置(202)の撮影時間内における相対位置の推定値の時系列信号に基づいて、予め登録されたテンプレート画像を補正するテンプレート画像補正部(106)と、補正後のテンプレート画像を用いて目標位置を補正する目標位置補正部(108)と、を備えることを特徴とする。

Description

制御装置および制御方法
 本発明は、アクチュエータを用いて駆動される実装ヘッドなどの可動部を移動させる目標位置を、撮像装置を使用して補正する制御装置および制御方法に関する。
 電子部品実装機、半導体製造装置などの工作機械では、サーボモータ、リニアモータなどのアクチュエータを駆動して、実装ヘッドなどの可動部を目標位置に移動させる位置決め制御が行われている。このような工作機械においては、加工対象物のばらつき、変形、または装置自体の熱膨張などに起因して生じる位置誤差を、撮像装置の撮影画像に基づいて補正する技術が知られている。
 特許文献1には、実装ヘッドおよび撮像装置を備える部品実装装置が開示されている。この部品実装装置は撮像装置が取得する撮影画像の輝度分布から実装ヘッドに保持された部品の輪郭を取得し、取得した部品の輪郭位置に基づいて、部品の実装位置を補正する機能を有する。このとき部品実装装置は、実装ヘッドを一時停止させることなく撮影を行うことで、位置決め完了までに要する時間を短縮している。このとき被写体と撮像装置との相対速度はゼロでない。
特開2006-287199号公報
 しかしながら、上記従来の技術によれば、被写体と撮像装置との相対速度がゼロでないため、露光している間に被写体と撮像装置との相対位置が変化し、撮影画像にぶれが生じる。このため、撮影画像から取得した部品の輪郭位置が、露光時間中のどの時刻に対応するかが一意に定まらず、位置誤差の補正精度が低下してしまうという問題があった。
 本発明は、上記に鑑みてなされたものであって、位置誤差を精度よく補正することが可能な制御装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる制御装置は、可動部と、可動部の移動に伴って目標物との相対位置が変化し、目標物の撮影画像を取得する撮像装置と、を有する制御対象装置を制御する制御装置であって、可動部を目標位置に移動させる駆動指令信号に基づいて、可動部を駆動する駆動部と、駆動指令信号に基づいて、目標物と撮像装置との相対位置の推定値を算出する相対位置推定部と、撮像装置の撮影時間内における相対位置の推定値の時系列信号に基づいて、予め登録されたテンプレート画像を補正するテンプレート画像補正部と、補正後のテンプレート画像を用いて目標位置を補正する目標位置補正部と、を備えることを特徴とする。
 本発明によれば、位置誤差を精度よく補正することが可能な制御装置を提供することができるという効果を奏する。
本発明の実施の形態1にかかる制御システムの構成を示す模式図 図1に示す制御システムの第1の状態を示す図 図1に示す制御システムの第2の状態を示す図 図1に示す制御システムの第3の状態を示す図 図1に示す制御システムの機能構成を示す図 図5に示す機械モデル演算部の構成例を示すブロック図 図5に示すテンプレート画像補正部の補正前のテンプレート画像の一例を示す図 図7に示すテンプレート画像の補正後のテンプレート画像を示す図 図5に示すテンプレート画像補正部が使用するフィルタの各ピクセル座標のフィルタ係数の一例を示す図 図5に示す制御装置の駆動制御処理を示すフローチャート 図5に示す制御装置の画像処理を示すフローチャート 図5に示す制御装置の機能を実現するための専用のハードウェアを示す図 図5に示す制御装置の機能を実現するための制御回路の構成を示す図
 以下に、本発明の実施の形態にかかる制御装置および制御方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1にかかる制御システム10の構成を示す模式図である。制御システム10は、制御装置1と、制御装置1の制御対象の機械系である制御対象装置2とを備える。制御対象装置2は、本実施の形態では、電子部品を基板上に実装する電子部品実装機である。制御装置1は、制御対象装置2の各部の動作を制御する。制御対象装置2は、X軸モータ200と、Y軸モータ201と、撮像装置202と、可動部203と、吸着ノズル204と、プリント基板搬送機構205とを有する。
 X軸モータ200およびY軸モータ201は、可動部203の位置を変化させるアクチュエータである。X軸モータ200が可動部203を移動させる方向は、Y軸モータ201が可動部203を移動させる方向と直交している。可動部203は、電子部品を実装する実装ヘッドであり、X軸モータ200およびY軸モータ201によって、プリント基板206の表面と平行に移動させられる。可動部203は、吸着ノズル204を用いて、電子部品を保持したり、電子部品をプリント基板206上の目標位置207に載置したりする。なお、X軸モータ200およびY軸モータ201は、図1ではリニアモータを示しているが、回転型のサーボモータとボールねじを組み合わせるなど、他の直動機構を用いることもできる。
 撮像装置202は、可動部203に固定されており、可動部203の移動に伴って移動する。このため、撮像装置202と目標物であるプリント基板搬送機構205との間の相対位置は、可動部203の移動に伴って変化する。
 プリント基板搬送機構205は、制御装置1の指令に従って、プリント基板206を搬送する。目標位置207は、可動部203が移動の目標とする位置であり、プリント基板206上において、電子部品が設けられる位置である。
 以下、制御システム10の基本的な動作について説明する。図2は、図1に示す制御システム10の第1の状態を示す図である。図3は、図1に示す制御システム10の第2の状態を示す図である。図4は、図1に示す制御システム10の第3の状態を示す図である。ここでは、可動部203の吸着ノズル204で電子部品208を吸着して、目標位置207に電子部品208を配置する動作を説明する。
 まず、図2に示す第1の状態において、制御システム10は、可動部203の位置決め制御中である。第1の状態では、目標位置207は撮像装置202の視野領域Vに入っていない。制御装置1は、プリント基板206の設計データに基づいて予め設定されたデフォルト目標位置P0を用いて可動部203の位置決め制御を行う。プリント基板206が歪んでいたり、制御対象装置2が熱膨張していたりすると、誤差が生じて、本来、電子部品208を実装すべき目標位置207がデフォルト目標位置P0とずれてしまうことがある。このまま、可動部203をデフォルト目標位置P0に位置決めした状態で、電子部品208をプリント基板206上に配置すると、制御装置1は、吸着ノズル204の中心軸Cがデフォルト目標位置P0と一致するように可動部203を移動させた状態で電子部品208をプリント基板206上に配置するため、本来配置すべき位置とずれた位置に電子部品208を配置してしまうことになる。
 そこで、制御システム10は、撮像装置202の撮影画像を使用して、デフォルト目標位置P0を補正する機能を有する。図3に示す第2の状態のように、撮像装置202の視野領域Vに目標位置207が入ってくると、制御装置1は、撮像装置202の撮影画像から可動部203と目標位置207との間の相対位置を算出し、算出した相対位置に基づいて、目標位置207とデフォルト目標位置P0との誤差を補正しながら位置決め制御を行う。このような制御を行うことにより、最終的に、図4に示す第3の状態のように、吸着ノズル204の中心軸Cと目標位置207の中心位置とが一致し、位置決め制御が完了する。
 図5は、図1に示す制御システム10の機能構成を示す図である。制御システム10は、制御装置1と、制御対象装置2とから構成されている。制御装置1は、指令生成部100と、機械モデル演算部101と、駆動部であるX軸駆動部102およびY軸駆動部103と、撮像指令生成部104と、相対位置記憶部105と、テンプレート画像補正部106と、画像処理部107と、目標位置補正部108とを有する。制御装置1は、制御対象装置2に搭載された撮像装置202が取得する撮影画像に基づいて、X軸モータ200およびY軸モータ201の制御を行う。
 指令生成部100は、現在の目標位置P(t)に基づき、X軸指令位置rx(t)およびY軸指令位置ry(t)を含む位置指令を算出する。時々刻々と変化する目標位置に対して補間を行うことで、位置指令を生成する技術としては、例えば、特開2012-20895号公報が開示する方法を使用することができる。指令生成部100は、生成した位置指令を機械モデル演算部101に入力する。
 機械モデル演算部101は、制御対象装置2の機械特性を示す伝達関数と、指令生成部100が算出したX軸指令位置rx(t)およびY軸指令位置ry(t)を含む位置指令とに基づいて、後述する方法を用いて、制御対象装置2の振動を抑制するために制御対象装置2の機械振動を励起する周波数成分のゲインを低下したX軸およびY軸の電流フィードフォワード信号と、可動部203が追従すべき位置を示し、可動部203を目標位置P(t)に移動させるための位置参照信号とを含む駆動指令信号を算出する。また、機械モデル演算部101は、上記の動作と同時並行で、X軸駆動部102およびY軸駆動部103が駆動指令信号に基づく制御を行った場合における、撮像装置202と目標位置207との間の相対位置の推定値を算出する。機械モデル演算部101は、算出した駆動指令信号をX軸駆動部102およびY軸駆動部103に入力し、相対位置の推定値を相対位置記憶部105に入力する。
 図6は、図5に示す機械モデル演算部101の構成例を示すブロック図である。図6に示す機械モデル演算部101は、駆動指令生成部301と、相対位置推定部302とを有する。また、駆動指令生成部301は、指令分配器303と、X軸駆動指令生成部304と、Y軸駆動指令生成部305とを有する。
 時刻tにおけるX軸モータ200の電流値をux(t)とし、時刻tにおけるX軸モータ200の位置フィードバック値をx1(t)とする。同様に、時刻tにおけるY軸モータ201の電流値をuy(t)とし、時刻tにおけるY軸モータ201の位置フィードバック値をy1(t)とする。また、時刻tにおける撮像装置202と目標位置207との間の相対位置のX成分をx2(t)、Y成分をy2(t)とする。
 制御対象装置2の機械特性を予め同定しておくことにより、X軸モータ200の電流値から位置フィードバック値までの伝達関数の分母多項式Dx(s)および分子多項式Nx1(s)と、Y軸モータ201の電流値から位置フィードバック値までの伝達関数の分母多項式Dy(s)および分子多項式Ny1(s)が予め得られていることとする。これらの関係は、以下の数式(1)で表される。ここで関数f(t)のラプラス変換をL[f(t)]と表す。
Figure JPOXMLDOC01-appb-M000001
 同様に、X軸モータ200の電流値から撮像装置202と目標位置207との間の相対位置のX成分までの伝達関数の分母多項式Dx(s)および分子多項式Nx2(s)、並びに、Y軸モータ201の電流値から撮像装置202と目標位置207との間の相対位置のY成分までの伝達関数の分母多項式Dy(s)および分子多項式Ny2(s)が予め得られていることとする。これらの関係は以下の数式(2)で表される。なお、数式(2)の伝達関数の分母多項式Dx(s)およびDy(s)は、数式(1)と共通である。
Figure JPOXMLDOC01-appb-M000002
 数式(1)および数式(2)の伝達関数は、制御対象装置2を動作させる試験を行って、X軸モータ200およびY軸モータ201の電流値と位置フィードバック値、および、撮像装置202と目標位置207との間の相対位置の実測値の時系列データを取得し、それらの時系列データを信号処理することによって、求めることができる。また、位置フィードバックと相対位置のスケールとを調整することで、伝達関数の分子多項式は、以下に示す数式(3)のように正規化されていることとする。
Figure JPOXMLDOC01-appb-M000003
 指令生成部100が算出したX軸指令位置rx(t)およびY軸指令位置ry(t)は、駆動指令生成部301の指令分配器303と、相対位置推定部302とに入力される。指令分配器303は、指令生成部100が算出したX軸指令位置rx(t)をX軸駆動指令生成部304に入力し、指令生成部100が算出したY軸指令位置ry(t)をY軸駆動指令生成部305に入力する。
 このとき、X軸駆動指令生成部304は、予め設定されたX軸の指令フィルタの伝達関数Fx(s)および数式(1)で表される伝達関数を用いて、X軸モータ200の電流フィードフォワード信号ux*(t)および位置参照信号x1*(t)を以下の数式(4)に示す伝達関数に基づいて算出する。
Figure JPOXMLDOC01-appb-M000004
 同様に、Y軸駆動指令生成部305は、予め設定されたY軸の指令フィルタの伝達関数Fy(s)および数式(1)で表される伝達関数を用いて、Y軸モータ201の電流フィードフォワード信号uy*(t)および位置参照信号y1*(t)を以下の数式(5)に示す伝達関数に基づいて算出する。
Figure JPOXMLDOC01-appb-M000005
 また、相対位置推定部302は、上述の指令フィルタの伝達関数Fx(s)、Fy(s)および数式(2)の伝達関数を用いて、相対位置の推定値のX成分およびY成分を以下の数式(6)に示す伝達関数に基づいて算出する。なお、以下の説明中において、関数の推定値を関数にハットを付けて示すことがある。また、文章中において、ハット付の関数をhat(関数)と表すことがある。例えば、関数x2(t)の推定値は、hat(x2)(t)と表される。数式(6)において、hat(x2)(t)は、相対位置の推定値のX成分を表し、hat(y2)(t)は、相対位置の推定値のY成分を表す。
Figure JPOXMLDOC01-appb-M000006
 数式(4)は、X軸駆動指令生成部304が、X軸の指令フィルタの伝達関数Fx(s)とX軸の電流値から位置フィードバックまでの伝達関数の分母多項式Dx(s)とを乗算した伝達関数に基づいて、X軸モータ200の電流フィードフォワード信号ux*(t)を計算し、かつ、X軸の指令フィルタの伝達関数Fx(s)とX軸の電流値から位置フィードバックまでの伝達関数の分子多項式Nx1(s)とを乗算した伝達関数に基づいて、X軸の位置参照信号x1*(t)を計算することを表している。
 数式(4)と同様に、数式(5)は、Y軸駆動指令生成部305が、Y軸の指令フィルタの伝達関数Fy(s)とY軸の電流値から位置フィードバックまでの伝達関数の分母多項式Dy(s)とを乗算した伝達関数に基づいて、Y軸モータ201の電流フィードフォワード信号uy*(t)を計算し、かつ、Y軸の指令フィルタの伝達関数Fy(s)とY軸の電流値から位置フィードバックまでの伝達関数の分子多項式Ny1(s)とを乗算した伝達関数に基づいて、Y軸の位置参照信号y1*(t)を計算することを表している。
 また、数式(6)は、相対位置推定部302が、X軸の指令フィルタの伝達関数Fx(s)とX軸の電流値から相対位置までの伝達関数の分子多項式Nx2(s)とを乗算した伝達関数に基づいて、相対位置の推定値のX成分hat(x2)(t)を計算することを表している。また数式(6)は、相対位置推定部302が、Y軸の指令フィルタの伝達関数Fy(s)とY軸の電流値から相対位置までの伝達関数の分子多項式Ny2(s)とを乗算した伝達関数に基づいて、相対位置の推定値のY成分hat(y2)(t)を計算することを表している。
 X軸駆動指令生成部304は、X軸の駆動指令信号であるX軸モータ200の電流フィードフォワード信号ux*(t)および位置参照信号x1*(t)をX軸駆動部102に入力する。Y軸駆動指令生成部305は、Y軸の駆動指令信号であるY軸モータ201の電流フィードフォワード信号uy*(t)および位置参照信号y1*(t)をY軸駆動部103に入力する。また相対位置推定部302は、算出した相対位置の推定値のX成分hat(x2)(t)および相対位置の推定値のY成分hat(y2)(t)を相対位置記憶部105に入力する。
 図5の説明に戻る。X軸駆動部102は、機械モデル演算部101が算出したX軸の駆動指令信号であるX軸モータ200の電流フィードフォワード信号ux*(t)および位置参照信号x1*(t)に基づき、フィードフォワード制御およびフィードバック制御を組み合わせた2自由度制御によって、X軸モータ200の位置制御を行う。
 Y軸駆動部103は、機械モデル演算部101が算出したY軸の駆動指令信号であるY軸モータ201の電流フィードフォワード信号uy*(t)および位置参照信号y1*(t)に基づき、フィードフォワード制御およびフィードバック制御を組み合わせた2自由度制御によって、Y軸モータ201の位置制御を行う。
 上記のように、数式(4)および数式(5)を用いてX軸およびY軸の電流フィードフォワード信号と位置参照信号とを計算することで、電流フィードフォワード信号および位置参照信号に含まれる機械系の振動を励起する周波数成分のゲインを低下させることができる。このため、電流フィードフォワード信号および位置参照信号を用いた2自由度制御によりX軸モータ200およびY軸モータ201の制御を行うことで、機械系の振動を抑制することが可能である。
 また、数式(6)を用いて撮像装置202と目標位置207との間の相対位置のX成分hat(x2)(t)および相対位置の推定値のY成分hat(y2)(t)を計算することで、2自由度制御を行った場合における撮像装置202と目標位置207との間の相対位置を、制御対象装置2および撮像装置202の振動、変位などを考慮した上で精度よく推定することが可能である。
 なお、ここでは機械モデル演算部101が駆動指令信号として電流フィードフォワード信号および位置参照信号の組を出力する例について説明したが、他の構成例としては、機械モデル演算部101が、駆動指令信号として電流フィードフォワード信号、位置参照信号、および速度参照信号の組を出力するようにしてもよい。また、機械モデル演算部101が、フィードフォワード信号として、電流フィードフォワード信号の代わりに、トルクフィードフォワード信号を出力するようにしてもよい。
 撮像指令生成部104は、予め定められた画像処理周期に基づいて、撮像装置202の撮影タイミングを制御する撮像指令を生成する。撮像指令生成部104は、生成した撮像指令を、撮像装置202および相対位置記憶部105に入力する。
 相対位置記憶部105には、機械モデル演算部101が算出した相対位置の推定値のX成分hat(x2)(t)および相対位置の推定値のY成分hat(y2)(t)と、撮像指令生成部104が生成した撮像指令とが入力される。相対位置記憶部105は、撮像装置202の露光開始時刻から露光終了時刻までの相対位置の推定値のX成分hat(x2)(t)および相対位置の推定値のY成分hat(y2)(t)の時系列信号を相対位置記憶として記憶する。
 テンプレート画像補正部106は、相対位置記憶部105に記憶される相対位置記憶に基づいて、画像処理部107が使用するテンプレート画像の補正を行うとともに、画像処理部107が相対位置の観測値を算出するために使用するテンプレート画像中の基準位置を算出する。ここで、テンプレート画像とは、テンプレートマッチング法などの画像処理手法で使用するパターン画像のことである。本実施形態においては、テンプレート画像は、可動部203が静止した状態でプリント基板206を予め撮影して得た、目標位置207を含む画像のことをいう。テンプレート画像補正部106は、相対位置記憶に基づいて、撮影画像のぶれをシミュレーションして、シミュレーション結果に基づいてテンプレート画像を補正する。
 画像処理部107は、テンプレートマッチング法などの画像処理手法を用いて、位置決め中に撮像装置202が撮影した撮影画像から予め登録されたテンプレート画像と一致する領域を探索することで、撮像装置202と目標位置207との相対位置の観測値を算出する。このとき、位置決め中に撮影画像を取得することによって、撮影中の撮像装置202と目標位置207との相対位置が変化して被写体ぶれが生じる。このため、静止状態で撮影したテンプレート画像と実際の撮影画像とは厳密にはマッチングしない。このため、静止状態で撮影したテンプレート画像をそのまま使用した画像処理では、相対位置の観測値の計算に誤差が生じる。
 これに対して、本実施の形態では、画像処理部107が画像処理を行う前段階において、テンプレート画像補正部106が、相対位置記憶部105が記憶する相対位置記憶に基づいて、被写体ぶれを予測してテンプレート画像を補正することにより、被写体ぶれに起因する相対位置の観測値の誤差を抑制することができる。テンプレート画像補正部106は、テンプレート画像が被写体ぶれを含むように補正する。
 テンプレート画像補正部106の具体的な動作の一例を以下に示す。まず、テンプレート画像補正部106は、相対位置記憶部105に記憶された相対位置記憶に基づいて、撮像装置202の撮影中に撮像装置202と目標位置207との間の相対位置が変化することにより生じる被写体ぶれに相当するフィルタMを算出する。
 フィルタMのピクセル座標(X,Y)のフィルタ係数の計算式の一例は、以下の数式(7)で表される。数式(7)において、撮像装置202の露光開始時刻T1、露光終了時刻T2、撮像装置202の露光時間Te、X軸方向の1ピクセルあたりの長さΔX、Y軸方向の1ピクセルあたりの長さΔYとする。また、δ(・)は、ディラックのデルタ関数を表す。
Figure JPOXMLDOC01-appb-M000007
 数式(7)は、露光開始時刻T1の相対位置の推定値と時刻tの相対位置の推定値との差をピクセル単位に変換し、ピクセル単位の距離でオフセットさせたデルタ関数を時刻[T1,T2]で積分したのちに、周囲の±1/2ピクセルの範囲で平均をとったものとなっている。
 なお、数式(7)において、ピクセル座標(X,Y)は負の値を取り得るため、数式(7)を計算機で実現する際には、論理的なピクセル座標(X,Y)に適当なオフセット値を加えることで、実装上のピクセル座標が負の値にならないようにする。
 次に、テンプレート画像補正部106は、予め登録されたテンプレート画像Kと上述のフィルタMとの数式(8)に基づく畳み込み和を計算することで、被写体ぶれを考慮した補正後のテンプレート画像K’を算出する。テンプレート画像補正部106は、補正後のテンプレート画像K’を画像処理部107に入力する。
Figure JPOXMLDOC01-appb-M000008
 図7は、図5に示すテンプレート画像補正部106の補正前のテンプレート画像Kの一例を示す図である。テンプレート画像Kは、静止状態で撮影された画像である。図8は、図7に示すテンプレート画像Kの補正後のテンプレート画像K’を示す図である。テンプレート画像K’は、図7に示すテンプレート画像KとフィルタMとの畳み込み和を計算することで得た、被写体ぶれを考慮した画像である。
 図9は、図5に示すテンプレート画像補正部106が使用するフィルタMの各ピクセル座標のフィルタ係数の一例を示す図である。フィルタMの各ピクセルのフィルタ係数は、時刻[T1,T2]の相対位置の推定値に基づいて数式(7)を数値計算することで得ることができる。図9において、フィルタ係数がゼロのピクセルは黒く描画されており、フィルタ係数が非ゼロのピクセルはフィルタ係数の大きさに応じて明るく、つまり白く描画されている。また、図8に示す補正後のテンプレート画像K’は、図7に示すテンプレート画像Kと図9に示すフィルタMとの畳み込み和を計算することで得られる。
 画像処理部107には、撮像装置202が撮影した撮影画像とテンプレート画像補正部106が出力した補正後のテンプレート画像K’とが入力される。画像処理部107は、テンプレートマッチング法などの画像処理手法を用いて、撮影画像中の補正後のテンプレート画像K’と一致する領域を探索する。このとき、数式(8)において、露光開始時刻T1の相対位置の推定値を基準にフィルタ係数を設計しているため、撮影画像中の補正後のテンプレート画像K’の論理的な原点に相当するピクセル座標を計算することで、露光開始時刻T1における被写体位置を算出することができる。
 ここで、画像処理手法の一例として、最も基本的なテンプレートマッチングのアルゴリズムを使用した場合について説明する。その場合、補正後のテンプレート画像K’で撮影画像を走査し、撮影画像上の各領域における補正後のテンプレート画像K’との類似度を算出し、類似度が最大、または、予め設定した閾値以上となる領域を特定する。次に、特定した領域内の補正後のテンプレート画像K’の論理的な原点に相当するピクセル座標に基づき、撮像装置202と目標位置207との間の相対位置の観測値を算出する。
 なお、上記の説明では、テンプレート画像補正部106がテンプレート画像KとフィルタMとの畳み込み和の計算を空間領域で行う場合について説明したが、画像処理部107が位相限定相関法などの離散フーリエ変換を使用する画像処理方法で位置推定を行う場合には、テンプレート画像補正部106がテンプレート画像KとフィルタMの離散フーリエ変換を計算し、さらに空間周波数領域上で両者の乗算を行うことで、補正後のテンプレート画像K’の離散フーリエ変換を計算してもよい。また、テンプレート画像補正部106がオンラインでテンプレート画像Kの離散フーリエ変換を計算するのではなく、テンプレート画像Kの離散フーリエ変換を予めオフラインで計算した結果をテンプレート画像補正部106が記憶しておいてもよい。このような構成を用いることにより、空間領域上で計算した補正のテンプレート画像K’に対して離散フーリエ変換を行う場合と比べて、計算量を削減することが可能になる。画像処理部107は、撮像装置202と目標位置207との間の相対位置の観測値を目標位置補正部108に入力する。
 目標位置補正部108には、相対位置記憶部105に記憶される相対位置記憶と、撮像装置202と目標位置207との間の相対位置の観測値とが入力される。目標位置補正部108は、目標位置の補正量を示す目標位置補正信号を生成し、生成した目標位置補正信号を指令生成部100に入力する。
 例えば、数式(7)に示されるフィルタ係数の計算式を用いた場合、露光開始時刻T1における相対位置の推定値を基準にフィルタの座標系を設定しているため、露光開始時刻T1における相対位置の推定値と画像処理で得た相対位置の観測値との誤差に基づき、指令生成部100に対する目標位置の補正量を計算すればよい。したがって、フィルタMのフィルタ係数の計算式を、以下に示す数式(9)のように変更し、露光終了時刻T2における相対位置の推定値と画像処理で得た相対位置の観測値との誤差に基づき、指令生成部100に対する目標位置の補正量を計算してもよい。
Figure JPOXMLDOC01-appb-M000009
 また、X軸駆動部102およびY軸駆動部103の追従遅れの無駄時間が予め同定できている場合、フィルタ係数の計算において、露光開始時刻T1から露光終了時刻T2までの相対位置の推定値を用いるのではなく、無駄時間分の補正を加えた時刻の相対位置の推定値を使用してもよい。この場合、相対位置記憶部105は、露光開始時刻T1と露光終了時刻T2のそれぞれに無駄時間分の補正を加えた時間範囲の相対位置の推定値のX成分hat(x2)(t)および相対位置の推定値のY成分hat(y2)(t)の時系列信号を相対位置記憶として記憶すればよい。
 図10は、図5に示す制御装置1の駆動制御処理を示すフローチャートである。図11は、図5に示す制御装置1の画像処理を示すフローチャートである。一般的に、撮像装置202の露光時間、画像データの転送速度、画像処理の演算量などの制約があるため、画像処理の演算周期は駆動制御処理の演算周期よりも長くせざるを得ない。このため、制御装置1は、駆動制御処理のタスクと画像処理のタスクとを分離して、それぞれのタスクを異なる演算周期で実行する。また、制御装置1が複数のCPU(Central Processing Unit)を備える場合、それぞれのタスクを別々のCPUに割り当ててもよい。
 まず、駆動制御処理について説明する。図10に示すように、制御装置1の指令生成部100は、目標位置の現在値に基づき、位置指令を計算する(ステップS101)。指令生成部100は、計算した位置指令を機械モデル演算部101に入力する。
 機械モデル演算部101は、位置指令に基づき、可動部203を目標位置に移動させる駆動指令信号を計算する(ステップS102)。機械モデル演算部101は、計算した駆動指令信号をX軸駆動部102およびY軸駆動部103に入力する。また機械モデル演算部101は、位置指令に基づき、撮像装置202と目標位置との間の相対位置の推定値を計算する(ステップS103)。機械モデル演算部101は、計算した相対位置の推定値を相対位置記憶部105に入力する。
 相対位置記憶部105は、機械モデル演算部101から入力された相対位置の推定値を記憶する(ステップS104)。X軸駆動部102およびY軸駆動部103を含む駆動部は、駆動指令信号に基づき、X軸モータ200およびY軸モータ201を含むモータの制御処理を実行する(ステップS105)。
 続いて、画像処理について説明する。図11に示すように、制御装置1の撮像指令生成部104は、撮像装置202に対して撮像指令を出力する(ステップS201)。テンプレート画像補正部106は、相対位置記憶に基づき、ぶれ画像のフィルタを計算する(ステップS202)。テンプレート画像補正部106は、ぶれ画像のフィルタに基づき、補正後のテンプレート画像を計算する(ステップS203)。テンプレート画像補正部106は、補正後のテンプレート画像を画像処理部107に入力する。
 画像処理部107は、撮像装置202の撮影画像を取得する(ステップS204)。画像処理部107は、画像処理により撮像装置202と目標位置との間の相対位置の観測値を計算する(ステップS205)。画像処理部107は、計算した相対位置の観測値を目標位置補正部108に入力する。目標位置補正部108は、相対位置記憶が示す相対位置の推定値と、相対位置の観測値とに基づき目標位置の補正量を示す目標位置補正信号を算出する(ステップS206)。
 続いて、本実施の形態のハードウェア構成について説明する。指令生成部100、機械モデル演算部101、X軸駆動部102、Y軸駆動部103、撮像指令生成部104、相対位置記憶部105、テンプレート画像補正部106、画像処理部107、および目標位置補正部108は、処理回路により実現される。これらの処理回路は、専用のハードウェアにより実現されてもよいし、CPUを用いた制御回路であってもよい。
 上記の処理回路が、専用のハードウェアにより実現される場合、これらは、図12に示す処理回路90により実現される。図12は、図5に示す制御装置1の機能を実現するための専用のハードウェアを示す図である。処理回路90は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものである。
 上記の処理回路が、CPUを用いた制御回路で実現される場合、この制御回路は例えば図13に示す構成の制御回路91である。図13は、図5に示す制御装置1の機能を実現するための制御回路91の構成を示す図である。図13に示すように、制御回路91は、プロセッサ92と、メモリ93とを備える。プロセッサ92は、CPUであり、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などとも呼ばれる。メモリ93は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などである。
 上記の処理回路が制御回路91により実現される場合、プロセッサ92がメモリ93に記憶された、各構成要素の処理に対応するプログラムを読み出して実行することにより実現される。また、メモリ93は、プロセッサ92が実行する各処理における一時メモリとしても使用される。
 以上説明したように、本実施の形態にかかる制御装置1によれば、撮像装置202と目標位置207との間の相対位置の推定値に基づいて、被写体ぶれを予測してテンプレート画像Kを補正しながら画像処理による位置推定を行う。このため、位置決め制御における被写体ぶれに起因する位置誤差を精度よく補正することが可能になり、位置決め制御の精度を向上することが可能になる。この手法は、被写体の形状が複雑な場合や、被写体ぶれによって被写体形状が大きく歪むような場合にも適用可能であり、汎用性が高い。
 また、一般的に制御対象装置2のような機械系は、有限の機械剛性を有するため、位置決め指令の加速度または減速度を増加させると、機械系に振動が生じて位置決め時間が増加してしまう場合があるという問題がある。
 このような問題に対して、本実施の形態にかかる制御装置1では、数式(4)および数式(5)に示したような電流フィードフォワード信号と位置参照信号とを用いて、X軸駆動部102およびY軸駆動部103の制御を行うことにより、位置決め完了後の機械振動を抑制し、位置決め時間を短縮することができる。
 また、位置決め中に機械系の機械剛性に起因して撮像装置202と目標位置207との間に変位、振動などが生じるため、機械系の機械特性を考慮しない場合には、画像処理による位置推定に誤差が生じてしまうという問題がある。
 このような問題に対して、本実施の形態の制御装置1では、数式(6)に示すように、機械特性を考慮した撮像装置202と目標位置207との間の相対位置の推定値に基づき、目標位置の補正量を計算する。このため、機械系の振動および変位による撮像装置202の位置ずれに起因する画像処理の位置推定精度の低下を抑制し、高速且つ高精度な位置決めを行うことができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 例えば、上記の実施の形態では、制御装置1を位置決め制御に適用する例について説明したが、本実施の形態はかかる例に限定されない。制御装置1が被写体ぶれの予測に基づいて画像処理に使用するテンプレート画像を補正する手法は、軌跡制御装置、ロール・ツー・ロール方式の機械系など、位置決め制御以外のモーション制御装置に適用することもできる。
 また、上記の実施の形態では、制御対象装置2の機械特性を表す伝達関数を用いて、駆動指令信号および相対位置の推定値を計算する例について説明したが、本実施の形態はかかる例に限定されない。制御対象装置2の機械剛性が十分に高い場合、機械特性を同定することが困難である場合は、制御対象装置2の詳細な機械特性を用いずに、駆動指令信号および相対位置の推定値を計算することも可能である。この場合、例えば、制御対象装置2が剛体であると仮定、すなわち、制御対象装置2のX軸およびY軸の伝達関数が以下の数式(10)で表せると仮定し、駆動指令生成部301および相対位置推定部302を構成すればよい。ここで、JxはX軸の剛体イナーシャであり、JyはY軸の剛体イナーシャである。
Figure JPOXMLDOC01-appb-M000010
 また、上記の実施の形態では、撮像装置202が実装ヘッドである可動部203に設置されている例について説明したが、本実施の形態の技術は、可動部203が目標物を移動させるテーブルであって、目標物の移動に伴って、撮像装置202と目標物との相対位置が変化するように構成されている機械に対して適用することも可能である。
 また、上記の実施の形態では、機械モデル演算部101において、予め同定した機械特性と指令生成部100が出力した指令位置の情報のみから撮像装置202と目標位置207との相対位置の推定を行ったが、制御対象装置2に加速度センサなどの付加的なセンサが備えられている場合には、それらの検出値を用いたオブザーバによって、撮像装置202と目標位置207との相対位置の推定を行うことも可能である。
 また、上記の実施の形態では、制御装置1の構成および制御方法について説明したが、本実施の形態に開示された技術は、制御装置1の制御方法を実現するためのコンピュータプログラムとして実施してもよいし、コンピュータプログラムを記憶する記憶媒体として実施してもよい。
 1 制御装置、2 制御対象装置、10 制御システム、90 処理回路、91 制御回路、92 プロセッサ、93 メモリ、100 指令生成部、101 機械モデル演算部、102 X軸駆動部、103 Y軸駆動部、104 撮像指令生成部、105 相対位置記憶部、106 テンプレート画像補正部、107 画像処理部、108 目標位置補正部、200 X軸モータ、201 Y軸モータ、202 撮像装置、203 可動部、204 吸着ノズル、205 プリント基板搬送機構、206 プリント基板、207 目標位置、208 電子部品、301 駆動指令生成部、302 相対位置推定部、303 指令分配器、304 X軸駆動指令生成部、305 Y軸駆動指令生成部、C 中心軸、P0 デフォルト目標位置、V 視野領域。

Claims (8)

  1.  可動部と、前記可動部の移動に伴って目標物との相対位置が変化し、前記目標物の撮影画像を取得する撮像装置と、を有する制御対象装置を制御する制御装置であって、
     前記可動部を目標位置に移動させる駆動指令信号に基づいて、前記可動部を駆動する駆動部と、
     前記駆動指令信号に基づいて、前記目標物と前記撮像装置との相対位置の推定値を算出する相対位置推定部と、
     前記撮像装置の撮影時間内における前記相対位置の推定値の時系列信号に基づいて、予め登録されたテンプレート画像を補正するテンプレート画像補正部と、
     補正後の前記テンプレート画像を用いて前記目標位置を補正する目標位置補正部と、
     を備えることを特徴とする制御装置。
  2.  前記テンプレート画像補正部は、前記時系列信号に基づいて前記撮影画像のぶれをシミュレーションして、シミュレーション結果に基づいて前記テンプレート画像を補正することを特徴とする請求項1に記載の制御装置。
  3.  前記テンプレート画像補正部は、前記時系列信号に基づいて前記撮像装置の撮影中の前記相対位置の変化に起因する前記撮影画像のぶれに相当するフィルタを計算し、前記テンプレート画像に前記フィルタを作用させることにより、前記テンプレート画像の補正を行うことを特徴とする請求項1または2に記載の制御装置。
  4.  前記テンプレート画像補正部は、前記テンプレート画像に前記フィルタを作用させる演算を空間周波数領域上で行うことで空間周波数領域上の補正後の前記テンプレート画像を算出し、
     空間周波数領域上の前記撮影画像と補正後の前記テンプレート画像とに基づく画像処理により、前記相対位置の観測値を出力する画像処理部、
     をさらに備え、
     前記目標位置補正部は、前記推定値および前記観測値に基づいて、前記目標位置を補正することを特徴とする請求項3に記載の制御装置。
  5.  補正後の前記テンプレート画像を用いて前記撮影画像を画像処理して前記相対位置の観測値を出力する画像処理部、
     をさらに備え、
     前記目標位置補正部は、前記推定値および前記観測値に基づいて、前記目標位置を補正することを特徴とする請求項1から3のいずれか1項に記載の制御装置。
  6.  前記画像処理部は、テンプレートマッチングを用いて前記観測値を出力することを特徴とする請求項4または5に記載の制御装置。
  7.  前記制御対象装置の機械特性を示す伝達関数に基づき、前記制御対象装置の機械振動を励起する周波数成分のゲインを低下した電流フィードフォワード信号と、前記可動部が追従すべき位置参照信号とを含む駆動指令信号を算出して前記駆動部に入力する駆動指令生成部、
     をさらに備え、
     前記相対位置推定部は、前記駆動部が前記電流フィードフォワード信号および前記位置参照信号を用いた2自由度制御を行った場合における前記相対位置の推定値を前記伝達関数に基づいて算出することを特徴とする請求項1から6のいずれか1項に記載の制御装置。
  8.  可動部と、前記可動部の移動に伴って目標物との相対位置が変化し、前記目標物の撮影画像を取得する撮像装置と、を有する制御対象装置を制御する制御装置が、
     前記可動部を駆動する駆動部に入力される駆動指令信号に基づいて、前記目標物と前記撮像装置との相対位置の推定値を算出するステップと、
     前記撮像装置の撮影時間内における前記相対位置の推定値の時系列信号に基づいて、予め登録されたテンプレート画像を補正するステップと、
     補正後の前記テンプレート画像を用いて前記可動部の移動の目標位置を補正するステップと、
     を含むことを特徴とする制御方法。
PCT/JP2019/000394 2019-01-09 2019-01-09 制御装置および制御方法 WO2020144776A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020217019767A KR102537029B1 (ko) 2019-01-09 2019-01-09 제어 장치 및 제어 방법
DE112019006604.8T DE112019006604T5 (de) 2019-01-09 2019-01-09 Steuervorrichtung und steuerverfahren
JP2019537854A JP6771674B1 (ja) 2019-01-09 2019-01-09 制御装置および制御方法
US17/296,253 US11874679B2 (en) 2019-01-09 2019-01-09 Using an imaging device to correct positioning errors
CN201980087703.3A CN113260941B (zh) 2019-01-09 2019-01-09 控制装置及控制方法
PCT/JP2019/000394 WO2020144776A1 (ja) 2019-01-09 2019-01-09 制御装置および制御方法
TW109100030A TWI772731B (zh) 2019-01-09 2020-01-02 控制裝置及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/000394 WO2020144776A1 (ja) 2019-01-09 2019-01-09 制御装置および制御方法

Publications (1)

Publication Number Publication Date
WO2020144776A1 true WO2020144776A1 (ja) 2020-07-16

Family

ID=71521565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000394 WO2020144776A1 (ja) 2019-01-09 2019-01-09 制御装置および制御方法

Country Status (7)

Country Link
US (1) US11874679B2 (ja)
JP (1) JP6771674B1 (ja)
KR (1) KR102537029B1 (ja)
CN (1) CN113260941B (ja)
DE (1) DE112019006604T5 (ja)
TW (1) TWI772731B (ja)
WO (1) WO2020144776A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199572A1 (ja) * 2022-04-11 2023-10-19 パナソニックIpマネジメント株式会社 テンプレート登録装置、テンプレート登録方法およびテンプレート登録システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293795B2 (ja) * 2019-03-27 2023-06-20 株式会社タダノ クレーンの制御方法およびクレーン
CN117368000B (zh) * 2023-10-13 2024-05-07 昆山美仑工业样机有限公司 一种配备自适应装夹机构的静扭试验台

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198200A (ja) * 2001-12-28 2003-07-11 Yamagata Casio Co Ltd 画像処理方法及びそれを用いた部品搭載装置
JP2006073959A (ja) * 2004-09-06 2006-03-16 Yamaha Motor Co Ltd 部品認識装置及び表面実装機並びに部品試験装置
JP2007013021A (ja) * 2005-07-04 2007-01-18 Juki Corp 部品認識方法及び装置
JP2010133718A (ja) * 2008-12-02 2010-06-17 Seiko Epson Corp 作業対象物の位置検出方法および位置検出装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7385626B2 (en) * 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
JP4361904B2 (ja) 2005-03-10 2009-11-11 パナソニック株式会社 部品実装方法及び部品実装装置
US7581313B2 (en) 2005-03-10 2009-09-01 Panasonic Corporation Component mounting method and mounter
JP4664752B2 (ja) * 2005-06-30 2011-04-06 Juki株式会社 部品吸着方法及び装置
JP2007306106A (ja) * 2006-05-09 2007-11-22 Sony Corp 撮像装置、撮像方法、およびプログラム
JP4769684B2 (ja) * 2006-10-12 2011-09-07 株式会社デンソーアイティーラボラトリ 電子走査式レーダ装置
CN101601279B (zh) * 2007-08-03 2011-11-16 松下电器产业株式会社 摄像装置以及摄像方法
JP4623111B2 (ja) * 2008-03-13 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
CN101877959B (zh) * 2009-04-29 2012-10-10 三星Techwin株式会社 电子部件识别装置及具有其的贴片机
JP5694695B2 (ja) 2010-07-13 2015-04-01 三井金属鉱業株式会社 断熱耐火物及びその製造方法
JP2012109656A (ja) * 2010-11-15 2012-06-07 Mitsubishi Electric Corp 画像処理装置及び方法、並びに画像表示装置及び方法
JP5798371B2 (ja) * 2011-05-09 2015-10-21 富士機械製造株式会社 基準マークモデルテンプレート作成方法
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5547144B2 (ja) * 2011-09-08 2014-07-09 株式会社東芝 監視装置、その方法、及び、そのプログラム
JP2015033006A (ja) * 2013-08-02 2015-02-16 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び顕微鏡システム
JP6318520B2 (ja) * 2013-09-27 2018-05-09 株式会社リコー 撮像装置、撮像システムおよび撮像方法
JP5968379B2 (ja) * 2013-10-29 2016-08-10 キヤノン株式会社 画像処理装置およびその制御方法
JP2015213139A (ja) * 2014-05-07 2015-11-26 国立大学法人 東京大学 位置決め装置
CN104408742B (zh) * 2014-10-29 2017-04-05 河海大学 一种基于空间‑时间频谱联合分析的运动目标检测方法
JP6646916B2 (ja) * 2015-11-11 2020-02-14 株式会社Fuji 基板用の画像処理装置および画像処理方法
EP3589105B1 (en) 2017-02-23 2023-11-15 Fuji Corporation Substrate working device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198200A (ja) * 2001-12-28 2003-07-11 Yamagata Casio Co Ltd 画像処理方法及びそれを用いた部品搭載装置
JP2006073959A (ja) * 2004-09-06 2006-03-16 Yamaha Motor Co Ltd 部品認識装置及び表面実装機並びに部品試験装置
JP2007013021A (ja) * 2005-07-04 2007-01-18 Juki Corp 部品認識方法及び装置
JP2010133718A (ja) * 2008-12-02 2010-06-17 Seiko Epson Corp 作業対象物の位置検出方法および位置検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199572A1 (ja) * 2022-04-11 2023-10-19 パナソニックIpマネジメント株式会社 テンプレート登録装置、テンプレート登録方法およびテンプレート登録システム

Also Published As

Publication number Publication date
KR102537029B1 (ko) 2023-05-26
US11874679B2 (en) 2024-01-16
US20220004206A1 (en) 2022-01-06
CN113260941B (zh) 2023-10-24
DE112019006604T5 (de) 2021-11-11
JPWO2020144776A1 (ja) 2021-02-18
JP6771674B1 (ja) 2020-10-21
TWI772731B (zh) 2022-08-01
CN113260941A (zh) 2021-08-13
KR20210095918A (ko) 2021-08-03
TW202029879A (zh) 2020-08-01

Similar Documents

Publication Publication Date Title
JP6771674B1 (ja) 制御装置および制御方法
JP6167622B2 (ja) 制御システムおよび制御方法
JP6430986B2 (ja) ロボットを用いた位置決め装置
JP6209002B2 (ja) 撮像装置およびその制御方法
JP2015213139A (ja) 位置決め装置
WO2021012122A1 (zh) 机器人手眼标定方法、装置、计算设备、介质以及产品
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
CN110581946B (zh) 控制系统、控制装置、图像处理装置以及存储介质
CN110581945B (zh) 控制系统、控制装置、图像处理装置以及存储介质
WO2019208074A1 (ja) 制御システム、制御方法およびプログラム
US11230003B2 (en) Robot system configured to perform learning control
JP6596286B2 (ja) 画像の高解像化システム及び高解像化方法
JP6647053B2 (ja) レーザ加工装置
JP7162574B2 (ja) 制御装置および周波数特性の同定方法
WO2020179507A1 (ja) 制御装置および位置合わせ装置
JP7040567B2 (ja) 制御装置、制御装置の制御方法、情報処理プログラム、および記録媒体
CN110581944B (zh) 控制系统、控制装置以及存储介质
JP5693976B2 (ja) 位置決め装置及び位置決め方法
CN117726689A (zh) 摄像机固有模型的自动统一
CN117321382A (zh) 基于由视觉传感器拍摄到的图像来计算三维位置的拍摄装置
JP2020201586A (ja) 撮像装置、車両及びプログラム
JP2006269911A (ja) 実装部品検査装置および検査方法
JPH05315798A (ja) 部品位置補正制御方法および装置
JP2010161686A (ja) 撮像方法、ピッキング方法及びピッキング装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019537854

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19909303

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217019767

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19909303

Country of ref document: EP

Kind code of ref document: A1