WO2015177881A1 - 画像処理装置、及び位置決めシステム - Google Patents

画像処理装置、及び位置決めシステム Download PDF

Info

Publication number
WO2015177881A1
WO2015177881A1 PCT/JP2014/063401 JP2014063401W WO2015177881A1 WO 2015177881 A1 WO2015177881 A1 WO 2015177881A1 JP 2014063401 W JP2014063401 W JP 2014063401W WO 2015177881 A1 WO2015177881 A1 WO 2015177881A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sensor
processing apparatus
image processing
positioning system
Prior art date
Application number
PCT/JP2014/063401
Other languages
English (en)
French (fr)
Inventor
高志 三枝
潔人 伊藤
豊和 高木
井上 智博
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/063401 priority Critical patent/WO2015177881A1/ja
Priority to JP2016520855A priority patent/JP6258480B2/ja
Priority to US15/312,029 priority patent/US20170094200A1/en
Publication of WO2015177881A1 publication Critical patent/WO2015177881A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Definitions

  • the present invention relates to an image processing apparatus that connects an image sensor and recognizes an image acquired from the image sensor, and a positioning system.
  • image processing apparatuses have been used to increase the speed of image processing that is necessary for determining a specific object included in an image and calculating a physical quantity such as the position and size of the specific object included in the image.
  • a method is used in which only a necessary partial region is subjected to image processing in the entire region of the image.
  • Patent Document 1 For example, as such a conventional technique, a technique described in Patent Document 1 is disclosed.
  • a face part of a subject is detected from a plurality of image data, and a change amount of the face part and a movement amount in the horizontal / vertical direction are detected to detect the change amount and the movement amount.
  • a correction amount is calculated, and the position and size of the facial organs (mouth, nose, etc.) on the image data are corrected based on the correction amount.
  • Patent Document 1 does not assume setting of image transfer performance to the image sensor, and it is difficult to speed up image transfer from the image sensor.
  • the present invention takes into consideration at least one of the above-described image recognition in consideration of the high-speed image transfer and the required performance of image transfer.
  • the present invention has at least one of the following aspects, for example.
  • the present invention obtains an image acquisition condition (for example, at least one of a dimension and a frame rate) acquired in consideration of required performance.
  • the present invention predicts the trajectory of the recognition target from the obtained image, and obtains an image acquisition condition in consideration of the prediction result and the required performance.
  • the present invention changes the position, size, and number of gradations of the image transferred from the image sensor by setting the image sensor itself, thereby speeding up the image transfer.
  • the present invention provides an image processing apparatus capable of easily changing the position, size, and number of gradations of an image transferred from an image sensor so as to satisfy the required performance of image transfer.
  • the present invention has at least one of the following effects. (1) Since the position, size, and number of gradations of the transfer image from the image sensor can be changed and the amount of transfer data from the image sensor can be reduced, high-speed image transfer can be realized. (2) Since the image sensor can be automatically set while satisfying the required performance of image transfer, the image transfer speed can be controlled easily and flexibly.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to the present embodiment.
  • 6 is a flowchart showing processing operations of the image processing apparatus according to the present embodiment.
  • FIG. 3 is a diagram showing a maximum size image that is continuously transferred to the image processing apparatus according to the present embodiment.
  • FIG. 3 is a diagram showing recognition processing of the image processing apparatus according to the present embodiment.
  • FIG. 3 is a diagram illustrating an example of images continuously transferred to the image processing apparatus according to the present embodiment.
  • FIG. 3 is a diagram showing a setting screen of the image processing apparatus according to the present embodiment.
  • FIG. 5 is a diagram illustrating Equations 1 to 4.
  • FIG. 5 is a diagram for explaining Equations 5 to 10.
  • the respective directions of the X axis and the Y axis are directions parallel to the horizontal direction, and the X axis and the Y axis are orthogonal coordinate systems on a plane along the horizontal direction. Is formed.
  • the XY axis system represents an X axis system and a Y axis system in a plane parallel to the horizontal direction. The relationship between the X axis and the Y axis may be interchanged.
  • the direction of the Z-axis is a vertical direction
  • the Z-axis system represents an X-axis system in a plane parallel to the vertical direction.
  • FIG. 1 is a diagram illustrating an application example of the image processing apparatus 100 according to the present embodiment to the positioning device 110.
  • 1A is a top view of the positioning device 110
  • FIG. 1B is a cross-sectional view showing a structure cut along the line AA shown in FIG. 1A. .
  • the image recognition device 100 is connected to an image sensor 101 and a display input device 102. Further,
  • the positioning device 110 includes an image sensor 101, a positioning head 111, a beam 112, a pedestal 113, and a base 114.
  • the base 114 is equipped with a recognition target.
  • the positioning head 111 carries the image sensor 101 and moves in the X-axis direction.
  • the beam 112 carries the positioning head 111 and moves in the Y-axis direction.
  • the gantry 113 supports the beam 112.
  • the positioning device 110 drives the positioning head 111 in the XY directions and performs a positioning operation on the recognition target 120.
  • the recognition target 120 imaged by the image sensor 101 moves in a direction opposite to the driving direction of the positioning operation of the positioning head 111 in a plurality of consecutive images having different imaging times.
  • the recognition target 120 imaged by the image sensor 101 moves at a speed equivalent to the driving speed of the positioning head 111 in a plurality of consecutive images having different imaging times.
  • FIG. 2 is a configuration diagram of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 includes an image acquisition unit 200, an image recognition unit 201, an image sensor setting unit 203, an image sensor setting information calculation unit 202, a calculation method designation unit 204, and an input / output control unit 205.
  • the image acquisition unit 200 acquires an image captured by the image sensor 101 and transferred from the image sensor 101.
  • the image recognition unit 201 is connected to the image acquisition unit 200 and recognizes the recognition target 120 from a plurality of consecutive images acquired by the image acquisition unit 200 at different imaging times using a predetermined calculation method. is there.
  • the image sensor sensor setting information calculation unit 202 is connected to the image recognition unit 201, and satisfies the required performance of the frame rate specified in advance based on the recognition result of the image recognition unit 201 and the calculation method specified in advance. In addition, setting information for the image sensor 101 is calculated.
  • the image sensor setting unit 203 transfers the setting information calculated by the image sensor setting information calculation unit 202 to the image sensor 101 to perform setting.
  • the calculation method designating unit 204 designates setting information such as required frame rate performance and a calculation method to the image sensor setting information calculation unit 202.
  • the input / output control unit 205 is configured to input a calculation method or calculation process execution command to the image recognition unit 201 and the calculation method specifying unit 204, and a calculation method set in the image recognition unit 201 and the calculation method specifying unit 204. Or the operation result is output.
  • FIG. 3 is a flowchart showing the processing operation of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 designates a computation method to the computation method designation unit 204 via the display input device 102 connected to the input / output control unit 205 (S300).
  • the calculation method specified in the calculation method specifying unit 204 includes the following (1) to (7).
  • step S301 the image processing apparatus 100 determines whether to start image processing.
  • the image processing device 100 starts image processing. (S301 ⁇ Yes). In the case of No in S301, the image processing apparatus 100 waits for an image processing start command.
  • a predetermined initial value is set in the image sensor 101 based on the calculation application condition information set in the calculation method designating unit 204 (S302).
  • the image transferred from the image sensor 101 is acquired by the image acquisition unit 200 (S303).
  • FIG. 4 is a diagram showing a maximum size image continuously transferred to the image processing apparatus 100 according to the present embodiment. Note that the coordinate system of the image transferred from the image sensor 101 is the same as the coordinate system shown in FIG.
  • All region images 400-1 to 400-4 which are images of the maximum size transferred from the image sensor 101, capture the recognition target 120 and transfer it to the image processing apparatus 100 at a specific frame rate F max [fps]. .
  • the imaging time of the whole area image 400-1 is t0 [s]
  • the imaging time of the entire region image 400-2 is t0 + Tc max [s]
  • the imaging time of the entire region image 400-3 is t0 + 2 ⁇ Tc max [s]
  • the imaging of the entire region image 400-4 is expressed as t0 + 3 ⁇ Tc max [s].
  • the recognition target 120 captured in the entire area images 400-1 to 400-4 moves in a direction opposite to the driving direction of the positioning operation of the positioning head 111.
  • the recognition target 120 moves from the lower left of the image of all region image 400-1 to the center of all region image 400-4 as the imaging time elapses. And then stop.
  • the image processing apparatus 100 transfers the image acquired by the image acquisition unit 200 to the image recognition unit 201, and executes image recognition processing in the image recognition unit 201 (S304).
  • the frame rate of the image transferred from the image sensor 101 is f [fps]
  • An image obtained by superimposing the captured image at time t [s] and the captured image at the previous imaging time t-tc [s] is referred to as a superimposed image 500.
  • the captured image at time t-tc [s] is the first image
  • the captured image at time t [s] is the second image
  • the captured image obtained at a time after time t [s] is the third image. It can be expressed as an image.
  • ⁇ 1 is added to the end of the object or numerical code recognized in the captured image at the time t-tc ⁇ ⁇ for ease of explanation (for example, the recognition target 120-1).
  • -2 is added to the end of the object recognized in the captured image at time t and the numerical code (for example, recognition target 120-2).
  • the image recognition unit 201 recognizes the presence or absence of the recognition targets 120-1 and 120-2.
  • the recognition targets 120-1 and 120-2 exist in the image, the following (1) to (3) are recognized.
  • (1) Center coordinates 510-1, 510-2 which are the positions of the centers of the recognition objects 120-1 and 120-2 in the image, and (2) the size of the recognition objects 120-1 and 120-2 in the X-axis direction.
  • the presence / absence of the recognition targets 120-1 and 120-2 and the center coordinates 510-1 and 511-2 are recognized by a general image processing method such as pattern matching.
  • the image recognition unit 201 uses the luminance values of the recognition targets 120-1 and 120-2 of the superimposed image 500 and the luminance values of the background image that is a part other than the recognition targets 120-1 and 120-2 of the superimposed image 500. Then, the minimum number of gradations g min that is the number of gradations of luminance in the captured image of the image sensor 101 that is necessary for the recognition process is calculated.
  • the image recognition unit 201 obtains the center coordinates 510-1 and 510-2, the X-axis size 511-1 and 511-2, the Y-axis size 512-1 and 512-2, and the minimum floor obtained by the above processing.
  • the logarithm g min is transferred to the image sensor setting information calculation unit 202, and the process ends.
  • the image processing apparatus 100 When the recognition target 120 is detected as a result of the image recognition by the image recognition unit 201 (S305 ⁇ Yes), the image processing apparatus 100 performs one calculation that matches the calculation application condition information specified in the calculation method specifying unit in S300. Based on the condition information and the result of image recognition calculated in S304, a setting value for the image sensor 101 is calculated by processing of the image sensor setting information calculation unit 202 (S306). When the result of S305 is No, the image processing apparatus 100 acquires the next time image transferred from the image sensor 101 by the image acquisition unit 200 without changing the setting value of the image sensor 101 (S303). Repeat the process.
  • the image sensor setting information calculation unit 202 uses a movement amount in the X-axis direction from the recognition target 120-1 to the recognition target 120-2.
  • An X-axis movement amount 520 and a Y-axis movement amount 521 that is a movement amount in the Y-axis direction from the recognition target 120-1 to the recognition target 120-2 are calculated.
  • the center coordinate 510-1 is (x0, y0)
  • the center coordinate 510-2 is (x, y)
  • the speed in the X-axis direction and the speed in the Y-axis direction of the recognition target 120 may be obtained by other general image processing methods such as an optical flow.
  • the X axis size 511-1 is lx0
  • the X axis size 511-2 is lx
  • the Y axis size 512-1 is ly0
  • the speed acting in the X-axis direction is defined as the X-axis size change rate v zx [pixel / s], and the speed acting in the Y-axis direction.
  • Y be the Y-axis size change v zy [pixel / s].
  • the image sensor setting information calculation unit 202 calculates the X-axis size change rate v zx and the Y-axis size change rate v z using Equation 2.
  • the X-axis size change degree and the Y-axis size change degree may be obtained by other general image processing methods such as stereo vision.
  • the image sensor setting information calculation unit 202 captures images at the next time of the image sensor 101 from the following (1) to () calculated using the recognition targets 120-1 and 120-2.
  • the predicted recognition result of the recognition target 120-3 is calculated.
  • the image sensor setting information calculation unit 202 calculates the following (1) to (3) as predicted values of the recognition result of the captured image at time t + tc ′.
  • the image sensor setting information calculation unit 202 calculates the center coordinate 510-3 using Equation 3 when the predicted center coordinate 510-3 of the recognition target 120-3 is (x ′, y ′). To do.
  • the image sensor setting information calculation unit 202 sets the predicted X-axis size 511-3 of the recognition target 120-3 to l x ', and the predicted Y-axis size 512-3 of the recognition target 120-3 to l y Assuming that, the X-axis size 511-3 and the Y-axis size 512-3 are respectively calculated using Equation 4.
  • the image sensor setting information calculation unit 202 performs the following (a) to (c) based on the center coordinates 510-3, the X-axis size 511-3, and the Y-axis size 512-3 calculated by itself. To obtain image sensor setting information ((1) to (5), which can be expressed as first setting information) satisfying the calculation condition information (which can be expressed as a predetermined condition or a required value). .
  • A Required value of frame rate fr [fps]
  • the X-axis transfer size 531 and the Y-axis transfer size 532 can be expressed as the dimensions of the third image.
  • the transfer coordinates 533 can also be expressed as an example of information defining the position of the third image.
  • the X-axis transfer size 531 is lp x '
  • the Y-axis transfer size 532 is lp y '
  • the excess size ratio in the X-axis direction with respect to the X-axis size 511-3 is the X-axis excess size ratio ⁇ [%]
  • Y A surplus size ratio in the Y-axis direction with respect to the axis size 512-3 is defined as a Y-axis surplus size ratio ⁇ [%].
  • lp x ′ can be expressed as a dimension in the first direction
  • lp y ′ can be expressed as a second dimension in a direction intersecting the first direction.
  • ⁇ and ⁇ can be expressed as predetermined coefficients.
  • the image sensor setting information calculation unit 202 calculates the X-axis transfer size 531 and the Y-axis transfer size 532 using Equation 5 respectively.
  • the X-axis surplus size ratio ⁇ and the Y-axis surplus size ratio ⁇ are values satisfying Equation 6.
  • the minimum coordinate value that can be set for the image transferred from the image sensor 101 is (x min , y min ), and the maximum coordinate value that can be set for the image transferred from the image sensor 101 is (x max , y max ).
  • the transfer coordinate 533 is (xp, yp).
  • the image sensor setting information calculation unit 202 calculates the transfer coordinates 533 using Equation 7.
  • the variables a and b in the mathematical expression 7 are respectively (l x '/ 2) ⁇ a ⁇ lp x '-(l x '/ 2), (l y ' / 2) ⁇ b ⁇ lp Any unique number satisfying y '-(l y ' / 2).
  • the exposure time of the image sensor 101 Te [s] the transfer time of the header part in the image transfer of the image sensor 101 is Th [s]
  • the transfer time increased per transfer of one line of the image sensor 101 is Tl [s]
  • These Te, Th, Tl, d, and Td can be expressed as second setting information.
  • the image sensor setting information calculation unit 202 calculates the frame rate f ′ at this time using Equation 8.
  • the transfer gradation number g is a value satisfying Equation 9.
  • the image sensor setting information calculation unit 202 can calculate the image sensor setting information while satisfying the calculation condition information by calculating the mathematical formulas shown in Formulas 3 to 9 and satisfying Formula 10.
  • the image sensor setting information calculation unit 202 adjusts the values of the X-axis surplus size ratio ⁇ , the Y-axis surplus size ratio ⁇ , and the transfer gradation number g so as to satisfy the condition shown in Equation 9. A calculation procedure for calculating sensor setting information is required.
  • the image sensor setting information calculation unit 202 transfers the calculated image sensor setting information to the image sensor setting unit 203 and completes the process of S306.
  • the image sensor setting unit 203 of the image recognition apparatus 100 sets the image sensor setting information transferred from the image sensor setting information calculation unit 202 in the image sensor 101 (S307).
  • the image processing apparatus 100 ends the process. To do.
  • the image acquisition unit 200 acquires the image at the next time transferred from the image sensor 101 (S303), and the process is repeated.
  • FIG. 6 is a diagram illustrating an example of images continuously transferred to the image processing apparatus 100 according to the present embodiment.
  • the first partial acquired images 600-1 to 600-7 are images obtained by transferring only the partial areas of the whole area images 400-1 to 400-4 from the image sensor 101.
  • the frame rate in the example of FIG. This is about three times as large as the entire area images 400-1 to 400-4.
  • the second partial acquired images 610-1 to 610-7 are images obtained by transferring only the partial areas of the entire area images 400-1 to 400-4 from the image sensor 101.
  • the total area images 400-1 to 400-4 are about 6 times larger than the first partial acquired images 600-1 to 600-7.
  • the second partial acquired images 610-1 to 610-7 have a smaller transfer image size than the first partial acquired images 600-1 to 600-7.
  • the recognition target 120 is set. In order to search in a wide area, it is desirable to apply the whole area image 400-1. In addition, as the distance between the positioning head 111 and the recognition target 120 approaches and the positioning head 111 decelerates, the setting of the image sensor 101 is switched in order to recognize the vibration error of the positioning head 111. It is desirable to improve the frame rate by changing the transferred images to the first partial acquired images 600-1 to 600-7 and the second partial acquired images 610-1 to 610-7.
  • the positioning device 110 of the present embodiment is a component mounting device that mounts an electronic component having a short side size of several hundreds ⁇ m on a printed wiring board
  • all-region images 400-1 to 400-4 are displayed.
  • the image size of the first partial acquired images 600-1 to 600-7 is about 10 to 20 mm in both the X-axis direction and the Y-axis direction, and the frame rate at that time is about 100 to 200 fps.
  • the frame rate is about 300 to 600 fps, and the image sizes of the second partial acquired images 610-1 to 610-7 are about
  • the frame rate is preferably about 1 to 3 mm, and the frame rate is preferably about 1000 fps.
  • FIG. 7 is a diagram showing a setting screen 700 of the image processing apparatus 100 according to the present embodiment.
  • the setting screen 700 includes a parameter setting unit 701, a parameter application condition setting unit 702, an image processing result display unit 703, and a processing content display unit 704.
  • the parameter setting unit 701 is an input interface for setting calculation condition information.
  • the parameter setting condition setting unit 702 is an input interface for setting calculation application condition information for a plurality of calculation condition information.
  • the image processing result display unit 703 includes the image recognition unit 201 of the image processing apparatus 100, It is an output interface for showing the result of processing of the image sensor setting information calculation unit 202.
  • the image processing result display unit 703 displays the latest image acquired from the image sensor 101, the recognition value of the recognition target 120, and the time history of the image transferred from the image sensor 101. Is displayed.
  • the processing content display unit 704 is an output interface for indicating the progress of internal processing of the image processing apparatus 100.
  • the user of the image processing apparatus 100 first sets the calculation condition information in the parameter setting unit 701 and the calculation application condition information in the parameter application condition setting unit 702, and then sets the image processing result display unit 703.
  • the processing content display unit 704 whether or not a desired recognition process can be executed is confirmed, and calculation condition information and calculation application condition information are adjusted based on the confirmed contents.
  • FIG. 8 is a diagram illustrating a second example of the image processing apparatus 100 according to the present embodiment.
  • the servo control device 800 includes an actuator control unit 801 and an operation information transfer unit 802.
  • the servo control device 800 connects the actuator 810 and a sensor 820 for feeding back the position, speed, acceleration and the like of the actuator 810.
  • the actuator control unit 801 controls the actuator 810 based on feedback information from the sensor 820.
  • the actuator control unit 801 acquires the current position and speed of the movable unit using the actuator 810 based on feedback information from the sensor 820.
  • the actuator control unit 801 is a movable unit using the actuator 810 that is predicted at the next imaging time of the image sensor 101 based on the position for driving the actuator 810, the command waveform of the speed, and the generation of the trajectory. The position, speed, etc. are calculated.
  • the actuator control unit 801 includes information on the current position and speed of the movable part using the calculated actuator 810 and information on the position and speed of the movable part using the actuator 810 predicted at the next imaging time of the image sensor 101. Is transferred to the operation information transfer unit 802.
  • the operation information transfer unit 802 is connected to the image sensor setting information calculation unit 202 of the image processing apparatus 100.
  • the image sensor setting information calculation unit 202 of the image processing apparatus 100 of the present embodiment acquires at least one of the following (1) to () from the operation information transfer unit 802 of the servo control device 800. Execute the process. (1) Speed in the X-axis direction of the recognition target 120-2 of the current captured image, (2) Speed in the Y-axis direction, (3) X-axis size change rate, (4) Y-axis size change rate, (5) Center coordinates 510-3 predicted from the captured image at the next time, (6) X-axis size 511-3, and (7) Y-axis size 511-3.
  • the image sensor setting information calculation unit 202 acquires from the image recognition unit 201 the information that is not acquired from the operation information transfer unit 802 among all information necessary for its own processing, as in the first embodiment. .
  • Such a configuration of the image processing apparatus 100 can reduce the calculation load of the image recognition unit 201 and the image sensor setting information calculation unit 202, thereby enabling higher-speed image processing.
  • the image processing apparatus 100 is applied to the positioning apparatus 110, and the actuator 810 and the sensor 820 are applied to control the positioning head 111, which is a movable portion of the positioning apparatus 110, and the beam 112.
  • the servo control device 800 is applied to the control of the actuator 810 and the sensor 820, a position and speed more accurate than the position and speed calculated by the recognition processing of the image processing apparatus 100 can be obtained.
  • the present invention is not limited to the embodiments.
  • the contents disclosed in this embodiment can be applied to automobiles and railways. That is, the positioning system is a broad expression that can include component mounting apparatuses, automobiles, railways, and other systems.
  • DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 101 ... Image sensor 102 ... Display input device 110 ... Positioning device 111 ... Positioning head 112 ... Beam 113 ... Base 114 ... Base 120, 120 -1, 120-2, 120-3 ... recognition target 200 ... image acquisition unit 201 ... image recognition unit 202 ... image sensor setting information calculation unit 203 ... image sensor setting unit 204 ... ⁇ Calculation method designation unit 205... I / O control unit 400, 400-1 to 400-4... All region image 500... Superimposed image 510-1, 510-2, 510-3. 511-1, 511-2, 511-3 ... X-axis size 512-1,512-2,512-3 ... Y-axis size 520 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

 画像センサの画像転送を高速化し、かつ、画像転送の要求性能を容易に満たすことができる画像処理装置を提供する。そこで本発明は、センサと、処理部と、を有し、 前記センサは第1の時刻に認識対象を含む第1の画像を得て、第1の時刻よりも後の第2の時刻に前記認識対象を含む第2の画像を得て、前記第2の時刻より後の第3の時刻に前記認識対象を含む第3の画像を得て、 前記処理部は、前記第3の画像を得る際の前記センサの第1の設定情報を所定の条件を満たすよう前記第1の画像、及び前記第2の画像から決定する。さらに、前記第1の設定情報は、前記第3の画像の寸法、及び前記第3の画像を得る際のフレームレートを含む。

Description

画像処理装置、及び位置決めシステム
 本発明は、画像センサを接続し、画像センサから取得される画像を認識処理する画像処理装置、及び位置決めシステムに関する。
 近年、画像処理装置では、画像中に含まれる特定の物体を判別や、画像中に含まれる特定の物体の位置や、サイズなどの物理量を算出するために必要となる画像処理の高速化のため、画像の全体領域のうち、必要な部分領域のみを画像処理する方法が用いられている。
 例えば、このような従来技術として、特許文献1に記載の技術が開示されている。
 特許文献1に記載の技術では、複数の画像データから被写体の顔部を検出して、顔部の大きさの変化量、水平/垂直方向への移動量を検出して変化量、移動量の補正量を算出し、補正量に基づいて顔部の器官(口、鼻等)の画像データ上の位置や大きさを補正する。
特開2012-198807号公報
 以降の説明は当業者に分かりやすく説明するためのものであり、本発明を限定的に解釈するために意図されたものではない。
 特許文献1に記載の技術は、画像センサへの画像転送性能の設定を想定しておらず、画像センサからの画像転送を高速化することが困難である。
 また、特許文献1に記載の技術では、画像の位置とサイズを、認識対象の移動量や、変化量のみで決定するため、画像転送の要求性能を満たすように画像のサイズや、画像の位置を変更することが困難である。
 本発明は、上述した画像転送の高速化、及び画像転送の要求性能を考慮した画像認識の少なくとも1つに配慮したものである。
 本発明は、例えば以下の側面のうち少なくとも1つを有する。 
(1)本発明は、要求性能を考慮して取得する画像の取得条件(例えば、寸法、及びフレームレートの少なくとも1つ)を得る。
(2)本発明は、得られた画像から認識対象の軌道を予測し、予測の結果と要求性能を考慮して画像の取得条件を得る。
(3)本発明は、画像センサから転送される画像の位置、サイズ、階調数を画像センサ自体に設定を行うことで変更し、画像転送を高速化する。
(4)本発明は、画像転送の要求性能を満たすように、画像センサから転送される画像の位置、サイズ、階調数を容易に変更可能な画像処理装置を提供する。
 本発明は以下の効果の少なくとも1つを奏する。(1)画像センサからの転送画像の位置、サイズ、階調数を変更し、画像センサからの転送データ量を削減できるため、画像転送の高速化が実現できる。(2)画像転送の要求性能を満たしつつ、自動的に画像センサへの設定が可能となるため、容易に、かつ、柔軟に画像転送の速度を制御できる。
本実施形態に係る画像処理装置の位置決め装置への適用例を示す図。 本実施形態に係る画像処理装置の構成図。 本実施形態に係る画像処理装置の処理動作を示すフローチャート。 本実施形態に係る画像処理装置に連続転送される最大サイズの画像を示す図。 本実施形態に係る画像処理装置の認識処理を示す図。 本実施形態に係る画像処理装置に連続転送される画像の一例を示す図。 本実施形態に係る画像処理装置の設定画面を示す図。 本実施形態に係る部品実装装置の第2の実施例を示す図。 数1~数4を説明する図。 数5~数10を説明する図。
 次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、以下の実施形態では、画像センサが搭載された可動部を駆動させ、認識対象に位置決めする位置決め装置への適用例として説明する。
 ここで、各実施形態(各図面)において、X軸およびY軸のそれぞれの方向は、水平方向と平行な方向であり、X軸およびY軸は、水平方向に沿った平面上の直交座標系を形成するものである。また、XY軸系という場合は、水平方向に平行な平面におけるX軸系とY軸系とを表している。なお、X軸とY軸の関係は、お互いが入れ替わってもよい。また、各実施形態(各図面)において、Z軸の方向は、垂直方向であり、Z軸系という場合は、垂直方向に平行な平面におけるX軸系を表している。
実施形態1
 図1は、本実施形態に係る画像処理装置100の位置決め装置110への適用例を示す図である。なお、図1の(a)は、位置決め装置110の上面図であり、図1の(b)は、図1(a)に示すA-A線に沿って切断した構造を示す断面図である。
 画像認識装置100は、画像センサ101と、表示入力装置102と接続されている。さらに、
 位置決め装置110は、画像センサ101、位置決めヘッド111、ビーム112、架台113、及びベース114を含む。
 ベース114は認識対象を搭載するものである。位置決めヘッド111は画像センサ101を搭載し、X軸方向に移動する。ビーム112は位置決めヘッド111を搭載し、Y軸方向に移動する。架台113はビーム112を支持するものである。
 位置決め装置110は、位置決めヘッド111をXY方向に駆動させ、認識対象120に位置決め動作を行う。
 このため、画像センサ101で撮像される認識対象120は、撮像時刻の異なる連続した複数の画像において、位置決めヘッド111の位置決め動作の駆動方向に対し、反対となる方向に移動する。
 また、画像センサ101で撮像される認識対象120は、撮像時刻の異なる連続した複数の画像において、位置決めヘッド111の駆動速度と同等の速度で移動する。
 図2は、本実施形態に係る画像処理装置100の構成図である。
 画像処理装置100は、画像取得部200、画像認識部201、画像センサ設定部203、画像センサ設定情報演算部202、演算方法指定部204、入出力制御部205を含む。
 画像取得部200は、画像センサ101で撮影され、画像センサ101より転送される画像を取得する。
 画像認識部201は、画像取得部200と接続されおり、画像取得部200で取得される撮像時刻の異なる連続した複数の画像から、あらかじめ指定された演算方法で認識対象120を認識処理するものである。
 画像センサセンサ設定情報演算部202は、画像認識部201と接続されており、画像認識部201の認識結果、及びあらかじめ指定された演算方法に基づき、あらかじめ指定されたフレームレートの要求性能を満たすように、画像センサ101への設定情報を算出するものである。
 画像センサ設定部203は、画像センサ設定情報演算部202で算出された設定情報を、画像センサ101に転送し、設定を行うものである。
 演算方法指定部204は、画像センサ設定情報演算部202にフレームレートの要求性能などの設定情報や、演算方法を指定するものである。
 入出力制御部205は、画像認識部201と、演算方法指定部204への演算方法や、演算処理の実行指令の入力と、画像認識部201と、演算方法指定部204に設定された演算方法や、演算結果を出力するものである。
 次に、画像処理装置100の処理動作について図3、図4、図5を用いて説明する。図3は、本実施形態に係る画像処理装置100の処理動作を示すフローチャートである。
 画像処理装置100は、まず、入出力制御部205に接続される表示入力装置102を介して、演算方法指定部204に演算方法を指定する(S300)。このとき、演算方法指定部204に指定する演算方法は、以下の(1)~(7)を含む。(1)画像センサ101から転送される画像のフレームレートの要求値(2)画像センサ101から転送される画像のX軸方向の余剰サイズ比率の下限値(3)画像センサ101から転送される画像のY軸方向の余剰サイズ比率の下限値(4)画像センサ101から転送される画像の中心位置の変更有無(5)画像センサ101から転送される画像の階調の変更有無からなる演算条件情報を複数個(6)各演算条件情報の初期値(7)各演算条件情報の適用条件からなる演算適用条件情報。 
 次に、S301では、画像処理装置100は、画像処理を開始するか否か判断する。例えば、入出力制御部205に接続される表示入力装置102を介して、演算方法指定部204に画像処理の開始が指令された場合、画像処理装置100は画像処理を開始する。(S301→Yes)。S301の処理でNoの場合、画像処理装置100は、画像処理の開始指令を待つ。
 画像処理の開始が決定されると演算方法指定部204に設定された演算適用条件情報に基づき、画像センサ101には所定の初期値が設定される(S302)。
 次に、画像センサ101から転送される画像を画像取得部200で取得する(S303)。
 ここで、S303で画像センサ101から画像処理装置100に転送される画像の例を図4を用いて説明する。
 図4は、本実施形態に係る画像処理装置100に連続転送される最大サイズの画像を示す図である。なお、画像センサ101から転送される画像の座標系は、図1で示した座標系と同じものとする。
 画像センサ101から転送される最大サイズの画像である全領域画像400-1~400-4は、認識対象120を撮像し、固有のフレームレート Fmax [fps] で画像処理装置100に転送される。
 このため、全領域画像400-1の撮像時刻を t0 [s] とし、全領域画像400-1~400-4のそれぞれの撮像間の時間を Tcmax [s](= 1 / Fmax)とすると、全領域画像400-2の撮像時刻は、t0 + Tcmax [s]、全領域画像400-3の撮像時刻は、t0 + 2 × Tcmax [s]、全領域画像400-4の撮像時刻は、t0 + 3 × Tcmax [s]、と表すことができる。
 このとき、全領域画像400-1~400-4に撮像される認識対象120は、位置決めヘッド111の位置決め動作の駆動方向に対して、反対となる方向に移動する。
 このため、全領域画像400-1~400-4に示すとおり、認識対象120は、撮像時刻の経過とともに、全領域画像400-1の画像左下から、全領域画像400-4の中心へと移動し、停止する。
 ここから、画像処理装置100の処理動作を、図3に示すフローチャートに戻って、S303からの処理について説明する。
 S303の処理の後、画像処理装置100は、画像取得部200で取得された画像を画像認識部201に転送し、画像認識部201にて、画像の認識処理を実行する(S304)。
 ここで、S304の行う認識処理の内容を図5(a)を用いて説明する。なお、ここでは、画像センサ101から転送される画像のフレームレートを f [fps]、画像センサ101から転送される連続画像の撮像間の時間を tc [s](= 1 / f)とし、ある時刻 t [s] の撮像画像とその1つ前の撮像時刻 t - tc [s] の撮像画像とを重ね合せた画像を重畳画像500とする。なお、時刻 t - tc [s] の撮像画像は第1の画像、時刻 t [s] の撮像画像は第2の画像、時刻 t [s] より後の時刻に得られた撮像画像は第3の画像と表現することができる。
 なお、図5の重畳画像500では、説明の簡便にするため、時刻 t - tc の撮像画像で認識される物体や数値の符号の末尾に-1を付与(例:認識対象120-1)し、時刻 t の撮像画像で認識された物体や数値の符号の末尾に-2を付与(例:認識対象120-2)する。
 画像認識部201は、画像センサ101から画像が転送されると、認識対象120-1、120-2の有無を認識する。そして、画像内に認識対象120-1、120-2が存在する場合、以下の(1)~(3)を認識する。(1)画像内の認識対象120-1、120-2の中心の位置である中心座標510-1、510-2、(2)認識対象120-1、120-2のX軸方向のサイズであるX軸サイズ511-1、511-2、(3)認識対象120-1、120-2のY軸方向のサイズであるY軸サイズ512-1、512-2。
 ここで、認識対象120-1、120-2の有無と、中心座標510-1、511-2は、パターンマッチングなどの一般的な画像処理方法で認識を行う。
 また、画像認識部201は、重畳画像500の認識対象120-1、120-2の輝度値、及び重畳画像500の認識対象120-1、120-2以外の部分である背景画像の輝度値から、認識処理に最低限必要となる画像センサ101の撮像画像における輝度の階調数である最小階調数 gmin を算出する。
 次に、画像認識部201は上述の処理で得られた中心座標510-1、510-2、X軸サイズ511-1、511-2、Y軸サイズ512-1、512-2、及び最小階調数 gmin を画像センサ設定情報演算部202に転送し、その処理を終了する。
 ここから、画像処理装置100の処理動作を、図3に示すフローチャートに戻って、S305からの処理について説明する。
 画像処理装置100は、画像認識部201の画像認識の結果、認識対象120を検出できた場合(S305→Yes)、S300で演算方法指定部に指定された演算適用条件情報に合致する1つの演算条件情報と、S304で算出された画像認識の結果に基づいて、画像センサ設定情報演算部202の処理により画像センサ101への設定値を算出する(S306)。S305の処理でNoの場合、画像処理装置100は、画像センサ101の設定値を変更せずに、画像センサ101から転送される次の時刻の画像を画像取得部200で取得し(S303)、処理を繰り返す。
 ここで、画像センサ設定情報演算部202の処理内容について図5(b)を用いて説明する。 
 画像センサ設定情報演算部202は、画像認識部201から転送される中心座標510-1、510-2に基づき、認識対象120-1から、認識対象120-2までのX軸方向の移動量であるX軸移動量520と、認識対象120-1から、認識対象120-2までのY軸方向の移動量であるY軸移動量521を算出する。
 ここで、中心座標510-1を(x0, y0)、中心座標510-2を(x, y)とし、X軸移動量520を Δx(= x - x0)、Y軸移動量521を Δy(= y - y0) とする。
 このとき、認識対象120-1から認識対象120-2までのX軸方向の速度 vx [pixel/s] と、認識対象120-1から認識対象120-2までのY軸方向の速度 vy [pixel/s] は、数1を用いて求められる。
 なお、認識対象120のX軸方向の速度、およびY軸方向の速度は、オプティカルフローなどの他の一般的な画像処理方法で求めてもよい。
 さらに、X軸サイズ511-1を lx0、X軸サイズ511-2を lx 、Y軸サイズ512-1を ly0、Y軸サイズ512-2を ly とし、X軸方向の認識対象のサイズの変化量を Δlx(= lx - lx0)、Y軸方向の認識対象のサイズの変化量をΔly(= ly - ly0)、とする。
 また、認識対象120-1から認識対象120-2までのZ軸方向の速度のうち、X軸方向に作用するものをX軸サイズ変化度 vzx [pixel/s] とし、Y軸方向に作用するものをY軸サイズ変化度 vzy [pixel/s]とする。
 このとき、画像センサ設定情報演算部202は、X軸サイズ変化度 vzx と、Y軸サイズ変化度 vz を、数2を用いて算出する。
 なお、X軸サイズ変化度と、Y軸サイズ変化度は、ステレオビジョンなどの他の一般的な画像処理方法で求めてもよい。
 次に、画像センサ設定情報演算部202は、認識対象120-1、120-2を用いて算出された以下の(1)~()から画像センサ101の撮像時刻 t の、次の時刻の撮像における認識対象120-3の予測される認識結果を算出する。(1)X軸方向の速度 vx 、(2)Y軸方向の速度 vy 、(3)X軸サイズ変化度 vzx 、(4)Y軸サイズ変化度 vzy 。
 ここで、画像センサ101の時刻 t での撮像に対する、次の時刻の撮像画像が転送される際のフレームレートを f’[fps]、画像センサ101の時刻 t での撮像から、次の時刻の撮像までの時間を tc’[s](= 1 / f’)とし、撮像時刻 t + tc’で撮像される認識対象120-3の予測位置を図5(b)に破線にて示す。
 なお、図5(b)では、時刻 t + tc’の画像において予測される認識結果の符合の末尾に-3を付与(例:認識対象120-3)する。
 まず、画像センサ設定情報演算部202は、時刻 t + tc’の撮像画像の認識結果の予測値として、以下の(1)~(3)を算出する。(1)認識対象120-3の重畳画像500の座標系における中心座標510-3、(2)認識対象120-3のX軸サイズ511-3、(3)認識対象120-3のY軸サイズ512-3。
 このとき、画像センサ設定情報演算部202は、認識対象120-3の予測される中心座標510-3を(x’, y’)とすると、数3を用いて、中心座標510-3を算出する。
 次に、画像センサ設定情報演算部202は、認識対象120-3の予測されるX軸サイズ511-3を lx’、認識対象120-3の予測されるY軸サイズ512-3を ly’とすると、数4を用いて、X軸サイズ511-3と、Y軸サイズ512-3をそれぞれ算出する。
 次に、画像センサ設定情報演算部202は、自身で算出した、中心座標510-3、X軸サイズ511-3、及びY軸サイズ512-3に基づいて、以下の(a)~(c)によって構成される演算条件情報(所定の条件や要求値と表現することができる)を満たす画像センサ設定情報((1)~(5)、第1の設定情報と表現することができる)を得る。(a)フレームレートの要求値 fr [fps]、(b)X軸サイズ511-3に対するX軸方向の余剰サイズ比率の下限値 αr [%]、(c)Y軸サイズ512-3に対するY軸方向の余剰サイズ比率の下限値 βr [%] 、(1)画像センサ101から転送される画像のX軸方向の転送サイズであるX軸転送サイズ531、(2)画像センサ101から転送される画像のY軸方向の転送サイズであるY軸転送サイズ532、(3)画像センサ101から転送される画像の転送する位置を、最大サイズの画像における位置座標にて指定するための座標情報である転送座標533、(4)画像センサ101から転送される画像の階調数である転送階調数 g、(5)フレームレート f’。なお、X軸転送サイズ531、及びY軸転送サイズ532は第3の画像の寸法と表現することができる。また、転送座標533は第3の画像の位置を規定する情報の一例と表現することもできる。
 ここで、X軸転送サイズ531を lpx’、Y軸転送サイズ532を lpy’とし、X軸サイズ511-3に対するX軸方向の余剰サイズ比率をX軸余剰サイズ比率 α [%]、Y軸サイズ512-3に対するY軸方向の余剰サイズ比率をY軸余剰サイズ比率 β [%] とする。 lpx’は第1の方向における寸法と、 lpy’は前記第1の方向と交差する方向における第2の寸法と表現できる。α、βは所定の係数と表現することができる。
 まず、画像センサ設定情報演算部202は、数5を用いて、X軸転送サイズ531とY軸転送サイズ532とをそれぞれ算出する。ここで、X軸余剰サイズ比率 α と、Y軸余剰サイズ比率 β は、数6を満たす値とする。
 ここで、画像センサ101から転送される画像に設定できる座標の最小値を(xmin, ymin)、画像センサ101から転送される画像に設定できる座標の最大値を(xmax, ymax)とし、転送座標533を(xp, yp)とする。
 画像センサ設定情報演算部202は、数7を用いて、転送座標533を算出する。 ここで、数7の数式内の変数 a 、b は、それぞれ、(lx’/ 2) ≦ a ≦ lpx’- (lx’/ 2)、(ly’/ 2) ≦ b ≦ lpy’- (ly’/ 2)、を満たす任意の一意の数とする。
 図5(b)では、a = (lpy’/ 2)、b = (lpy’/ 2)とした場合の例を示している。 ここで、さらに、算出されたX軸転送サイズ531とY軸転送サイズ532の場合における画像転送サイズ530を s’[pixel](= lpx’× lpy’)、画像センサ101の露光時間を Te [s]、画像センサ101の画像転送におけるヘッダ部分の転送時間を Th [s]、画像センサ101の1ラインの転送あたりに増加する転送時間を Tl [s]、画像センサ101の画素値の1ビットあたりの転送時間を Td [bps]、画像センサ101に設定される階調値のビット数を d [bit](=ceil(log2g))(ceilは天井関数)とする。これらTe、Th、Tl、d、Tdは第2の設定情報と表現することができる。
 画像センサ設定情報演算部202は、数8を用いて、このときのフレームレート f’を算出する。ここで、転送階調数 g は、数9を満たす値とする。
 また、画像センサ設定情報演算部202は、数3~数9に示した数式を計算し、数10を満たすことで、演算条件情報を満足しながら、画像センサ設定情報を算出できる。
 このとき、画像センサ設定情報演算部202は、数9に示す条件を満たすように、X軸余剰サイズ比率 α や、Y軸余剰サイズ比率 β 、転送階調数 g の値を調整しながら、画像センサ設定情報を算出する計算手順が必要となる。
 このような、画像センサ設定情報演算部202の計算手順の一例として、各パラメータの初期値を、tc’= 1 / fr、α = αr、β = βr、g = gmin、として f’を算出し、数8の条件を満たすようであれば、f’= fr に近づくように α、β、g を増加させていく方法などが考えられる。
 なお、このような画像センサ設定情報演算部202の計算手順は、一般的な最適化計算の手法を適用してもよい。
 最後に、画像センサ設定情報演算部202は、算出された画像センサ設定情報を画像センサ設定部203に転送し、S306の処理を完了する。
 ここから、画像処理装置100の処理動作を、図3に示すフローチャートに戻って、S307からの処理について説明する。
 S306の処理の後、画像認識装置100の画像センサ設定部203は、画像センサ設定情報演算部202より転送された画像センサ設定情報を画像センサ101に設定する(S307)。
 次に、画像処理装置100は、入出力制御部205に接続される表示入力装置102を介して、演算方法指定部204に画像処理の終了が指令された場合(S308→Yes)、処理を終了する。S308の処理でNoの場合、画像センサ101から転送される次の時刻の画像を画像取得部200で取得し(S303)、処理を繰り返す。
 図6は、本実施形態に係る画像処理装置100に連続転送される画像の一例を示す図である。
 第一の部分取得画像600-1~600-7は、画像センサ101から全領域画像400-1~400-4の部分領域のみを転送した画像であり、フレームレートは、図6の例では、全領域画像400-1~400-4の約3倍である。
 第二の部分取得画像610-1~610-7は、全領域画像400-1~400-4の部分領域のみを画像センサ101から転送した画像であり、フレームレートは、図6の例では、全領域画像400-1~400-4の約6倍であり、第一の部分取得画像600-1~600-7の約3倍である。
 そのため、第二の部分取得画像610-1~610-7は、第一の部分取得画像600-1~600-7に比べて転送画像のサイズが小さい。
 本実施例のような位置決め装置110に適用される画像処理装置100では、図6に示すとおり、画像センサ101が搭載された位置決めヘッド111と認識対象120との距離が遠いときには、認識対象120を広域で探すために全領域画像400-1の適用が望ましい。また、位置決めヘッド111と認識対象120との距離が近づき、位置決めヘッド111が減速するにつれて、位置決めヘッド111の振動的な誤差を認識するためには、画像センサ101の設定を切り替え、画像センサ101からの転送画像を、第一の部分取得画像600-1~600-7や、第二の部分取得画像610-1~610-7に変更することで、フレームレートを向上することが望ましい。
 具体的な例として、本実施例の位置決め装置110が、短辺のサイズが数百μmの電子部品をプリント配線板に実装する部品実装装置である場合、全領域画像400-1~400-4の画像サイズは、X軸方向、Y軸方向ともに約10~20mm程度とし、そのときのフレームレートは、約100~200fps程度とし、第一の部分取得画像600-1~600-7の画像サイズは、X軸方向、Y軸方向ともに約3~6mm程度とし、そのときのフレームレートは、約300~600fps程度とし、第二の部分取得画像610-1~610-7の画像サイズは、約1~3mm程度とし、そのときのフレームレートは、約1000fps程度とすることが望ましい。
 図7は、本実施形態に係る画像処理装置100の設定画面700を示す図である。
 設定画面700は、パラメータ設定部701と、パラメータ適用条件設定部702と、画像処理結果表示部703と、処理内容表示部704から構成される。
 パラメータ設定部701は、演算条件情報を設定するための入力インタフェースである。
 パラメータ設定条件設定部702は、複数の演算条件情報に対して演算適用条件情報を設定するための入力インタフェースである。
 画像処理結果表示部703は、パラメータ設定部701で設定された演算条件情報と、パラメータ適用条件設定部702で設定された演算適用条件情報に基づいて、画像処理装置100の画像認識部201と、画像センサ設定情報演算部202の処理の結果を示すための出力インタフェースである。
 また、画像処理結果表示部703は、具体的には、画像センサ101から取得される最新の画像の表示や、認識対象120の認識値の表示や、画像センサ101から転送された画像の時刻歴の表示などを行う。
 処理内容表示部704は、画像処理装置100の内部処理の進行等を示すための出力インタフェースである。
 画像処理装置100の使用者は、まず、パラメータ設定部701で演算条件情報の設定と、パラメータ適用条件設定部702で演算適用条件情報の設定を実施し、次に、画像処理結果表示部703と処理内容表示部704とを参照することによって、所望の認識処理の実行可否を確認し、確認した内容に基づいて、演算条件情報と、演算適用条件情報の調整を行う。
実施形態2
 図8は、本実施形態に係る画像処理装置100の第2の実施例を示す図である。
 サーボ制御装置800は、アクチュエータ制御部801と、動作情報転送部802から構成される。サーボ制御装置800はアクチュエータ810とアクチュエータ810の位置や、速度、加速度等をフィードバックするためのセンサ820とを接続する。アクチュエータ制御部801は、センサ820のフィードバック情報に基づいてアクチュエータ810の制御を実行する。
 また、アクチュエータ制御部801は、センサ820のフィードバック情報により、アクチュエータ810を用いた可動部の現在の位置や、速度などを取得する。
 さらに、アクチュエータ制御部801は、アクチュエータ810を駆動させるための位置や、速度の指令波形や、軌道の生成に基づいて、画像センサ101の次の撮像時刻に予測されるアクチュエータ810を用いた可動部の位置や、速度などを算出する。
 アクチュエータ制御部801は、算出したアクチュエータ810を用いた可動部の現在の位置や、速度の情報、画像センサ101の次の撮像時刻に予測されるアクチュエータ810を用いた可動部の位置、速度の情報を動作情報転送部802に転送する。
 また、動作情報転送部802は、画像処理装置100の画像センサ設定情報演算部202と接続される。
 ここで、本実施形態の画像処理装置100の画像センサ設定情報演算部202は、以下の(1)~()のうち少なくとも1つを、サーボ制御装置800の動作情報転送部802から取得することで処理を実行する。(1)現在の撮像画像の認識対象120-2のX軸方向の速度、(2)Y軸方向の速度、(3)X軸サイズ変化度、(4)Y軸サイズ変化度、(5)次の時刻の撮像画像で予測される中心座標510-3、(6)X軸サイズ511-3、(7)Y軸サイズ511-3。
 このとき、画像センサ設定情報演算部202は、自身の処理に必要となる全ての情報のうち、動作情報転送部802から取得しない情報に関しては、実施形態1と同様に画像認識部201から取得する。
 このような画像処理装置100の構成にすることによって、画像認識部201と、画像センサ設定情報演算部202の演算負荷を軽減でき、より高速な画像処理が可能となる。
 また、本実施形態の画像処理装置100を位置決め装置110に適用し、位置決め装置110の可動部である位置決めヘッド111と、ビーム112の制御に、アクチュエータ810と、センサ820を適用し、さらに、これらのアクチュエータ810と、センサ820の制御にサーボ制御装置800を適用すると、画像処理装置100の認識処理で算出される位置や、速度に比べ、より高精度な位置や、速度を得ることができる。
 本実施形態2の部品実装装置によって得られるその他の効果については、実施形態1のものと同様であるため、その重複説明は省略する。
 以上、本発明の実施例について説明したが、本発明は実施例に限定されない。本実施例に開示される内容は自動車、鉄道にも適用可能である。すなわち、位置決めシステムとは、部品実装装置、自動車、鉄道、そのほかのシステムを含みえる広義の表現である。
 100・・・画像処理装置
 101・・・画像センサ
 102・・・表示入力装置
 110・・・位置決め装置
 111・・・位置決めヘッド
 112・・・ビーム
 113・・・架台
 114・・・ベース
 120、120-1、120-2、120-3・・・認識対象
 200・・・画像取得部
 201・・・画像認識部
 202・・・画像センサ設定情報演算部
 203・・・画像センサ設定部
 204・・・演算方法指定部
 205・・・入出力制御部
 400、400-1~400-4・・・全領域画像
 500・・・重畳画像
 510-1、510-2、510-3・・・中心座標
 511-1、511-2、511-3・・・X軸サイズ
 512-1、512-2、512-3・・・Y軸サイズ
 520・・・X軸移動量
 521・・・Y軸移動量
 530・・・画像転送サイズ
 531・・・X軸転送サイズ
 532・・・Y軸転送サイズ
 533・・・転送座標
 600-1~600-7・・・第一の部分取得画像
 610-1~610-7・・・第二の部分取得画像
 700・・・設定画面 
 701・・・パラメータ設定部
 702・・・パラメータ適用条件設定部
 703・・・画像処理結果表示部
 704・・・処理内容表示部
 800・・・サーボ制御装置
 801・・・アクチュエータ制御部 
 802・・・動作情報転送部
 810・・・アクチュエータ
 820・・・センサ

Claims (28)

  1.  センサと、
     処理部と、を有し、
     前記センサは第1の時刻に認識対象を含む第1の画像を得て、第1の時刻よりも後の第2の時刻に前記認識対象を含む第2の画像を得て、前記第2の時刻より後の第3の時刻に前記認識対象を含む第3の画像を得て、
     前記処理部は、前記第3の画像を得る際の前記センサの第1の設定情報を所定の条件を満たすよう前記第1の画像、及び前記第2の画像から決定し、
     前記第1の設定情報は、前記第3の画像の寸法、及び前記第3の画像を得る際のフレームレートを含む画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記処理部は前記第3の画像の寸法を前記第3の画像中での前記認識対象の予測寸法値、及び所定の係数を使用して得る画像処理装置。
  3.  請求項2に記載の画像処理装置において、
     前記第3の画像の寸法は第1の方向における寸法と前記第1の方向と交差する方向における第2の寸法を含み、
     前記処理部は、前記フレームレートを前記第2の寸法、及び前記センサの第2の設定情報を使用して得る画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     前記第2の設定情報は、前記センサの露光時間、前記センサのヘッダ部分の転送時間、前記センサの1ライン当たりに増加する転送時間、前記センサの階調値のビット数、及び前記センサの1ビット当たりの転送時間を含む画像処理装置。
  5.  請求項4に記載の画像処理装置において、
     前記所定の条件は、前記フレームレートの要求値を含み、
     前記フレームレートは前記要求値以下である画像処理装置。
  6.  請求項5に記載の画像処理装置において、
     前記第1の所定の条件は、前記所定の係数の下限値を含む画像処理装置。
  7.  請求項6に記載の画像処理装置において、
     前記第1の設定情報は前記第3の画像の位置を規定する情報を含む画像処理装置。
  8.  請求項7に記載の画像処理装置において、
     前記第1の設定情報は前記第3の画像の階調数を含む画像処理装置。
  9.  請求項1に記載の画像処理装置において、
     前記第3の画像の寸法は第1の方向における寸法と前記第1の方向と交差する方向における第2の寸法を含み、
     前記処理部は、前記フレームレートを前記第2の寸法、及び前記センサの第2の設定情報を使用して得る画像処理装置。
  10.  請求項9に記載の画像処理装置において、
     前記第2の設定情報は、前記センサの露光時間、前記センサのヘッダ部分の転送時間、前記センサの1ライン当たりに増加する転送時間、前記センサの階調値のビット数、及び前記センサの1ビット当たりの転送時間を含む画像処理装置。
  11.  請求項1に記載の画像処理装置において、
     前記所定の条件は、前記フレームレートの要求値を含み、
     前記フレームレートは前記要求値以下である画像処理装置。
  12.  請求項1に記載の画像処理装置において、
     前記所定の条件は、前記第3の画像を得るための所定の係数の下限値を含む画像処理装置。
  13.  請求項1に記載の画像処理装置において、
     前記第1の設定情報は前記第3の画像の位置を規定する情報を含む画像処理装置。
  14.  請求項1に記載の画像処理装置において、
     前記第1の設定情報は前記第3の画像の階調数を含む画像処理装置。
  15.  センサと、
     前記センサを移動させる移動部と、
     処理部と、を有し、
     前記センサは第1の時刻に認識対象を含む第1の画像を得て、第1の時刻よりも後の第2の時刻に前記認識対象を含む第2の画像を得て、前記第2の時刻より後の第3の時刻に前記認識対象を含む第3の画像を得て、
     前記処理部は、前記第3の画像を得る際の前記センサの第1の設定情報を所定の条件を満たすよう前記第1の画像、及び前記第2の画像から決定し、
     前記第1の設定情報は、前記第3の画像の寸法、及び前記第3の画像を得る際のフレームレートを含む位置決めシステム。
  16.  請求項15に記載の位置決めシステムにおいて、
     前記処理部は前記第3の画像の寸法を前記第3の画像中での前記認識対象の予測寸法値、及び所定の係数を使用して得る位置決めシステム。
  17.  請求項16に記載の位置決めシステムにおいて、
     前記第3の画像の寸法は第1の方向における寸法と前記第1の方向と交差する方向における第2の寸法を含み、
     前記処理部は、前記フレームレートを前記第2の寸法、及び前記センサの第2の設定情報を使用して得る位置決めシステム。
  18.  請求項17に記載の位置決めシステムにおいて、
     前記第2の設定情報は、前記センサの露光時間、前記センサのヘッダ部分の転送時間、前記センサの1ライン当たりに増加する転送時間、前記センサの階調値のビット数、及び前記センサの1ビット当たりの転送時間を含む位置決めシステム。
  19.  請求項18に記載の位置決めシステムにおいて、
     前記所定の条件は、前記フレームレートの要求値を含み、
     前記フレームレートは前記要求値以下である位置決めシステム。
  20.  請求項19に記載の位置決めシステムにおいて、
     前記所定の条件は、前記所定の係数の下限値を含む位置決めシステム。
  21.  請求項20に記載の位置決めシステムにおいて、
     前記第1の設定情報は前記第3の画像の位置を規定する情報を含む位置決めシステム。
  22.  請求項21に記載の位置決めシステムにおいて、
     前記第1の設定情報は前記第3の画像の階調数を含む位置決めシステム。
  23.  請求項15に記載の位置決めシステムにおいて、
     前記第3の画像の寸法は第1の方向における寸法と前記第1の方向と交差する方向における第2の寸法を含み、
     前記処理部は、前記フレームレートを前記第2の寸法、及び前記センサの第2の設定情報を使用して得る位置決めシステム。
  24.  請求項23に記載の位置決めシステムにおいて、
     前記第2の設定情報は、前記センサの露光時間、前記センサのヘッダ部分の転送時間、前記センサの1ライン当たりに増加する転送時間、前記センサの階調値のビット数、及び前記センサの1ビット当たりの転送時間を含む位置決めシステム。
  25.  請求項15に記載の位置決めシステムにおいて、
     前記所定の条件は、前記フレームレートの要求値を含み、
     前記フレームレートは前記要求値以下である位置決めシステム。
  26.  請求項15に記載の位置決めシステムにおいて、
     前記所定の条件は、前記第3の画像を得るための所定の係数の下限値を含む位置決めシステム。
  27.  請求項15に記載の位置決めシステムにおいて、
     前記第1の設定情報は前記第3の画像の位置を規定する情報を含む位置決めシステム。
  28.  請求項15に記載の位置決めシステムにおいて、
     前記第1の設定情報は前記第3の画像の階調数を含む位置決めシステム。
PCT/JP2014/063401 2014-05-21 2014-05-21 画像処理装置、及び位置決めシステム WO2015177881A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/063401 WO2015177881A1 (ja) 2014-05-21 2014-05-21 画像処理装置、及び位置決めシステム
JP2016520855A JP6258480B2 (ja) 2014-05-21 2014-05-21 画像処理装置、及び位置決めシステム
US15/312,029 US20170094200A1 (en) 2014-05-21 2014-05-21 Image processing apparatus and positioning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/063401 WO2015177881A1 (ja) 2014-05-21 2014-05-21 画像処理装置、及び位置決めシステム

Publications (1)

Publication Number Publication Date
WO2015177881A1 true WO2015177881A1 (ja) 2015-11-26

Family

ID=54553577

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/063401 WO2015177881A1 (ja) 2014-05-21 2014-05-21 画像処理装置、及び位置決めシステム

Country Status (3)

Country Link
US (1) US20170094200A1 (ja)
JP (1) JP6258480B2 (ja)
WO (1) WO2015177881A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6765820B2 (ja) * 2016-02-10 2020-10-07 オリンパス株式会社 カメラ

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010243A (ja) * 2000-06-16 2002-01-11 Mitsubishi Heavy Ind Ltd 動画像処理カメラ
JP2010263581A (ja) * 2009-05-11 2010-11-18 Canon Inc 物体認識装置及び物体認識方法
JP2012048476A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3046100B2 (ja) * 1991-07-22 2000-05-29 株式会社フォトロン 画像記録装置
US7545434B2 (en) * 2002-02-04 2009-06-09 Hewlett-Packard Development Company, L.P. Video camera with variable image capture rate and related methodology
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US7471767B2 (en) * 2006-05-03 2008-12-30 Siemens Medical Solutions Usa, Inc. Systems and methods for determining image acquisition parameters
JP5241335B2 (ja) * 2008-06-10 2013-07-17 キヤノン株式会社 X線画像診断装置及び画像処理方法
JP5645505B2 (ja) * 2010-06-29 2014-12-24 キヤノン株式会社 撮像装置及びその制御方法
CN110572586A (zh) * 2012-05-02 2019-12-13 株式会社尼康 拍摄元件及电子设备
GB2503481B (en) * 2012-06-28 2017-06-07 Bae Systems Plc Surveillance process and apparatus
US9947128B2 (en) * 2013-01-29 2018-04-17 Andrew Robert Korb Methods for improving accuracy, analyzing change detection, and performing data compression for multiple images
US9454827B2 (en) * 2013-08-27 2016-09-27 Qualcomm Incorporated Systems, devices and methods for tracking objects on a display
KR20150041239A (ko) * 2013-10-07 2015-04-16 삼성전자주식회사 엑스선 영상 장치 및 그 제어 방법
US9417196B2 (en) * 2013-10-10 2016-08-16 Bruker Axs Inc. X-ray diffraction based crystal centering method using an active pixel array sensor in rolling shutter mode

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010243A (ja) * 2000-06-16 2002-01-11 Mitsubishi Heavy Ind Ltd 動画像処理カメラ
JP2010263581A (ja) * 2009-05-11 2010-11-18 Canon Inc 物体認識装置及び物体認識方法
JP2012048476A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置

Also Published As

Publication number Publication date
JP6258480B2 (ja) 2018-01-10
JPWO2015177881A1 (ja) 2017-04-20
US20170094200A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
CN110561432B (zh) 一种基于人机共融的安全协作方法及装置
US10553033B2 (en) Head-mounted display system and method for presenting display on head-mounted display
JP5869177B1 (ja) 仮想現実空間映像表示方法、及び、プログラム
US8731276B2 (en) Motion space presentation device and motion space presentation method
JP6167622B2 (ja) 制御システムおよび制御方法
US11090807B2 (en) Motion generation method, motion generation device, system, and computer program
JP2017104944A (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
US9507414B2 (en) Information processing device, information processing method, and program
US12030187B2 (en) Robot system
CN107924198B (zh) 控制装置、控制方法、非暂时记录介质
JP2003211381A (ja) ロボット制御装置
JP2007233516A (ja) 画像測定システム、画像測定方法及び画像測定プログラム
JP2016081264A (ja) 画像処理方法、画像処理装置及びロボットシステム
JP6258480B2 (ja) 画像処理装置、及び位置決めシステム
JPS59229619A (ja) ロボツトの作業教示システムおよびその使用方法
US9492748B2 (en) Video game apparatus, video game controlling program, and video game controlling method
JP2009301181A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
JP5561037B2 (ja) ロボット及びその制御方法
JP5378143B2 (ja) 画像変換装置及び操作支援システム
CN116476074A (zh) 基于混合现实技术的远程机械臂操作系统及人机交互方法
JPS6334093A (ja) 視覚装置
JPH09131681A (ja) 教示装置
JPH04250700A (ja) 電子部品認識方法
JP2015076026A (ja) パターンマッチング装置及びパターンマッチング方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14892491

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016520855

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15312029

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14892491

Country of ref document: EP

Kind code of ref document: A1