WO1996030870A1 - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
WO1996030870A1
WO1996030870A1 PCT/JP1995/000591 JP9500591W WO9630870A1 WO 1996030870 A1 WO1996030870 A1 WO 1996030870A1 JP 9500591 W JP9500591 W JP 9500591W WO 9630870 A1 WO9630870 A1 WO 9630870A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
control information
rolled material
condition setting
Prior art date
Application number
PCT/JP1995/000591
Other languages
French (fr)
Japanese (ja)
Inventor
Yukihiro Kawamata
Kimiya Yamaashi
Masayuki Tani
Masami Ito
Syohei Fukuoka
Masaaki Nakajima
Gen Tobita
Original Assignee
Hitachi, Ltd.
Hitachi Information & Control Systems, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd., Hitachi Information & Control Systems, Inc. filed Critical Hitachi, Ltd.
Priority to PCT/JP1995/000591 priority Critical patent/WO1996030870A1/en
Publication of WO1996030870A1 publication Critical patent/WO1996030870A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves

Definitions

  • the present invention relates to an image processing apparatus and method for a device controlled by control information such as a plant system.
  • the target object is recognized using only the information of the captured image (for example, brightness, difference between images, optical flow, etc.).
  • An object of the present invention is to solve this problem, improve recognition accuracy in recognition processing, and simplify recognition processing.
  • An object of the present invention is to solve this problem and to make it possible to detect meandering of a rolled material. Disclosure of the invention
  • the present invention provides a control information acquisition unit that captures control information for controlling the operation of a device related to a recognition target, and an image processing condition setting unit that sets a setting condition related to image processing based on the control information. And provided. Also, in order to solve the problems of the conventional rolling plant, position information of the roll was taken in, and based on the information, the position and size of the region were set so that the roll did not enter the image processing region. .
  • the control information acquisition means captures control information for controlling the operation of the device related to the recognition target
  • the image processing condition setting means measures, for example, the background change, luminance, saturation, hue, and hue of the recognition target that are captured by the captured control information.
  • the position information of the roll is taken in, and based on the information, the position and size of the region are determined so that the roll does not enter the image processing region.
  • the meandering of the rolled material can be detected regardless of the roll movement.
  • FIG. 1 is a block diagram of an image processing system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of an image processing method according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing an image when a rolled material is reflected on a brand image taken by an ITV camera of the image processing system according to one embodiment of the present invention.
  • FIG. 4 is a view showing a manner of estimating a portion where the rolled material is no longer visible in one embodiment of the present invention.
  • FIG. 5 is a diagram showing a state of background removal according to one embodiment of the present invention.
  • FIG. 6 is a diagram showing a state of edge position detection according to one embodiment of the present invention.
  • FIG. 7 is a diagram showing a method for detecting a displacement of a rolled material according to one embodiment of the present invention.
  • FIG. 8 is a block diagram of an image processing system according to an embodiment of the present invention. You.
  • FIG. 9 is a diagram showing the behavior of the recognition target according to one embodiment of the present invention.
  • FIG. 10 is a flowchart of an image processing method according to an embodiment of the present invention.
  • FIG. 11 shows a method of detecting the position of an end point of a rolled material using pattern matching according to an embodiment of the present invention.
  • FIG. 1 shows a system configuration of a first embodiment of the present invention.
  • the present embodiment is an example in which image processing is performed to detect a displacement of a leading end of a rolled material caused by meandering of a rolled material when winding a coil in a cold rolling plant.
  • the quality of the coil will deteriorate if the tip of the rolled material is not accurately fitted into the center axis of the coil. Therefore, the end points of the rolled material are detected using image processing.
  • the state of the image such as the luminance, saturation, hue, and the visible portion of the recognition target and the recognition target is estimated using the control information of the plant device, and the recognition target is recognized using the estimated state.
  • the position of the leading end of the rolled material is detected.
  • the end point of the rolled material is detected as follows. First, plant images are taken in, and plant control information such as roll speed and position S in cold rolling is taken in. Then, take that Using the control information and the plant image, the visible part of the rolled material is estimated and the range for image processing is set. Next, using the captured control information and the plant image, the background, the contrast of the rolled material and the background, and the brightness of the rolled material are estimated, and the image processing method is set. Finally, the edge of the rolled material is detected from the image processed, and the end point is detected from the edge of the rolled material.
  • FIG. 1 is a system configuration diagram of an embodiment of the present invention.
  • This system consists of an ITV camera 101 that captures images of the end points of the rolled material, an image capturing unit 102 that captures images captured by the ITV camera 101, and plant control information (roll rotation speed, Using the control information acquisition unit 103 that captures the roll position, etc.) and the control information of the plant captured by the control information acquisition unit 103, the position, brightness, visible part, and edge of the rolled material are used.
  • Estimating unit 104 for estimating the state of the image processing target such as the contrast of the image and the background, and using the luminance information estimated by the state estimating unit 104 to adjust the binarization threshold of the image.
  • the type of filter to be subjected to image processing is selected using the contrast information estimated by the state estimating unit 104, and an image is obtained from the position and the visible portion of the rolled material estimated by the state estimating unit 104.
  • Image processing conditions that set the area to be processed In the setting unit 105 and the image capturing unit 102, the image processing area set in the image processing condition setting unit 105 is cut out, and the image in that region is selected in the image processing condition setting unit 105.
  • the image processing unit 106 processes the image with the image processing filter and binarizes the processed image, and the image estimated by the state estimating unit 104 from the image processed by the image processing unit 106
  • An image recognition unit 107 that recognizes the recognition target using the state of the processing target, a control unit 108 that controls the entire system such as image capture processing, image state estimation processing, and end processing, and an ITV camera 10
  • FIG. 2 is a flowchart showing the processing of this embodiment.
  • step 202 the image capturing unit 102 captures a plan image captured by the ITV camera 101.
  • FIG. 2 is a flowchart showing the processing of this embodiment.
  • step 202 the image capturing unit 102 captures a blank image captured by the ITV camera 101.
  • step 203 the image capturing unit 102 determines whether the rolled material has entered the plant image captured in step 202.
  • Fig. 3 is an image of a brand image taken by the ITV camera 101 when a rolled material is being conveyed.
  • the rolled material 301 advances from the upper right part of the screen toward the lower left part of the rolls 302 and 303.
  • An area 350 for determining whether or not the rolled material has entered the vicinity of the upper end 310 of the screen 300 is provided. This area is called an approach determination area.
  • the difference between the approach determination area of the plant image captured in the past and the approach determination area of the currently captured plant image is calculated.
  • step 204 If there is no difference, it is determined that the rolled material has not entered the screen 300, and if there is a difference, it is determined that the rolled material 301 has entered the screen 300. If it is determined that the rolled material has not entered, the process returns to step 202 to capture the plant image. If it is determined that the rolled material has entered, the process proceeds to step 204.
  • step 204 the plant image taken with ITV camera 101 is The image is captured by the image capturing unit 102, and the captured image is displayed on the image display unit 109.
  • step 205 the control information acquisition unit 103 captures the roll position and roll rotation speed, which are the control information of the plant, from the plant.
  • step 206 the state estimation unit 104 determines the roll position. The position of the rolled material is estimated using the rotation speed information, and the image processing condition setting unit 105 determines the position of the region to be image-processed from the position of the rolled material.
  • the coordinate system is such that the upper end of the screen is 310, the X axis is right, the right direction is positive, the left end of the screen, 311 is y axis, the lower direction is positive, and the upper left end is 312, the origin. Take.
  • the minimum unit of the coordinate system is one pixel.
  • the rolled material 300 flows from the upper right to the lower left of the screen 300.
  • the rolled material 301 is traveling at a speed of V [mZ second] in a direction inclined by 0 [rad] from the X axis. Assuming that the radius of the rolls 302 and 303 is r [m] and the rotation speed is ⁇ [radZ seconds], the speed of the rolled material 301 is r ⁇ ⁇ [mZ seconds].
  • the speed of the rolled material 301 on the screen 300 in the X-axis direction is one a Z g ⁇ r ⁇ ⁇ ⁇ cos ( ⁇ ) [pixel seconds]
  • the speed in the y-axis direction is a Z g ⁇ r ⁇ ⁇ -sin ( ⁇ ) [pixel seconds].
  • the moving speed on the screen of the region 320 where the image processing is to be performed is the same as the moving speed of the rolled material 301 on the screen.
  • the area for which image processing is to be performed is referred to as an image processing area.
  • the image processing area 320 is directed from the upper right to the lower left of the screen so as to track the end point 305 of the rolled material 301. It starts moving on a straight line.
  • the time t [sec] has elapsed since the rolled material 310 appeared on the screen 300, and the position of the lower right point 3 2 1 of the area when the image processing area 320 starts moving (m , n), the coordinates of the lower right point 3 2 1 of the image processing area 3 2 0 are ( ⁇ a / g 'r' w 'cos (e)-t + m, a / g-r ⁇ ⁇ sin ( ⁇ ) ⁇ t + n).
  • the coordinates of the lower right point are defined as the position of the image processing area.
  • step 2007, the state estimating unit 104 estimates the portion where the rolled material is hidden by the roll using the position information of the movable roll captured in step 205, and sets the image processing condition setting unit 100.
  • step 5 the size of the image processing area is set from the part where the estimated roll is hidden.
  • FIG. 4 is an example of estimating a portion where the rolled material becomes invisible according to the position of the movable roll in detecting the end point of the rolled material and setting the size of the image processing area.
  • the movable roll 4 1 2 moves up and down. Then, the rolled material 4 10 is sandwiched between the movable roll 4 1 2 and the port 4 1 1.
  • Image 400 has the movable roll 4 1 2 at the top
  • Image 4 50 has the movable roll 4 1 2 at the bottom
  • Image 4 5 0 shows the rolled material when the movable roll 4 12 comes down Since 410 is hidden, the edge detection processing of the hidden part is not performed. Now, the position of the movable roll 4 12 can be taken in as brand control information.
  • the movable roll 4 15 When the center of the lower end of the movable roll 4 15 enters the image processing area, change the size of the image processing area 4 20 so that the movable roll 4 12 does not enter.
  • the X axis is taken at 401
  • the y-axis is taken at the left end of the screen 402
  • the origin is taken at the top left of the screen 4003.
  • the screen 450 has the X axis at the top edge of the screen and the y axis at the left edge of the screen. Is the origin.
  • the size of the screen 400 and the screen 450 is set to 320 [pixels] horizontally and 240 [pixels] vertically.
  • the movable roll 4 1 2 moves up and down 1 [m], it moves 100 [pixels] on the screen. Also, the lower end center 4 15 of the movable roll 4 12 is set as the position of the movable roll 4 12.
  • the image processing area 4 2 0 is horizontal 2 0 [pixels], vertical 1 2 [pixels], and position (2 2 0, 18 0) And And the position of the movable roll 4 1 2 when it is at the top is (1 4 0,
  • the movable roll 4 1 2 moves downward by 0.9 [m].
  • C The movable roll 4 1 2 moves 90 pixels in the y-axis direction on the screen, and the position of the movable roll after the movement is (140, 120).
  • the upper end of the image processing area 460 is positioned below the lower center part 415 of the movable roll so that the movable roll 412 does not enter the image processing area. Change the size of the image processing area. Therefore, the image processing area after the change
  • the image processing area can be set so that no extra background is included in the area.
  • step 208 the image capture area 102 cuts out the image processing area set in step 206 and step 207 from the captured image.
  • step 209 the image processing unit 106 removes the background from the image cut out by the image capturing unit 102.
  • FIG. 5 shows the position information of the movable roll 4
  • the same background image as the captured image is selected from the previously captured background images, and the background image is subtracted from the captured image to remove the background.
  • the image processing unit 106 has a previously captured background image as a database.
  • a background image database is a background image 501, 503, 505, 507, 509, 511 of any movable roll position when the rolled material is not passing through. 1 and the amount of movement of the movable roll at that time are 50 2, 504, 506, 508, and ⁇ 10 : 5 12.
  • the background image 501 is an image when the moving amount of the movable roll is 0 [m] or more and less than 0.15 [m] (502), and the background image 503 is a moving image of the movable opening.
  • the image and background image 505 when the moving amount is 0.15 [m] or more and less than 0.30 [m] (504) are those where the moving amount of the movable roll is 0.30 [m] or more and 0.45 [ m] and below (506)
  • Image and background image 507 is the image and background when the moving amount of the movable roll is 0.45 [m] or more and 0.60 [m] or less (508)
  • Image 509 is the image when the moving amount of the movable roll is 0.60 [m] or more and 0.75 [m] or less (5 10), and background image 5 11 is the moving amount of the movable roll. It is an image when it is 0.75 [m] or more and 0.90 [m] or less (5 1 2).
  • the moving amount of the movable roll of the image 520 captured by the image capturing unit 102 is 0.40 [m].
  • the movable roll is 0.30 [m] or more and 0.45 [m].
  • the background image 505 when less than is selected.
  • the image processing area 532 obtained in steps 206 and 207 is cut out from the selected background image 505, and the difference between the image processing area 532 cut out in step 205 and the image 531 is obtained.
  • the image obtained by taking the difference is referred to as a difference image 5 33. This makes it possible to remove the background of the image processing area adapted to the state of the plant.
  • step 210 the state estimator 104 estimates the contrast of the edge portion and the background portion of the rolled material in the image processing area extracted in step 206 from the plant control information.
  • the rolled material 301 flows from the back of the plant equipment (above screen 300) to the front (below screen 300).
  • the rolled material 301 is in the back, light is blocked by the plant equipment, the contrast of the rolled material 301 and the background is poor, and the rolled material 301 is unclear, and the rolled material 301 is not clear.
  • the rolled material 301 and rolls 302 and 303 are exposed to light, so the contrast between the background and the rolled material 301 is good, and the rolled material 301 should be clear.
  • the clarity of the edge of the rolled material can be estimated from the estimated position of the rolled material.
  • the size of the screen 300 be 320 [pixels] horizontally and 240 [pixels] vertically.
  • the position of the leading end of the rolled material is as estimated in step 206.
  • the y-axis coordinate of the leading end of the rolled material exceeds 100 [pixels]
  • control unit 108 when the contrast between the rolled material and the background is determined to be clear, the control is performed. In the control unit 108, the process proceeds so as to proceed to step 2 13. If it is determined that the process is unclear, the control unit 108 proceeds to step 2 11.
  • step 211 the image processing unit 106 applies an expansion filter to the difference image.
  • step 2 12 the image processing unit 106 applies a contraction filter to the difference image subjected to the dilation processing.
  • the edge of the rolled material in the difference image is intermittent. Therefore, by performing the dilation processing and then performing the erosion processing as in steps 211 and 212, the broken portion of the edge can be eliminated.
  • step 2 13 the image processing unit 106 performs edge enhancement processing on the difference image by applying a differential filter such as a Laplacian filter.
  • step 2 14 a threshold value for performing the binarization processing in the state estimating unit 104 is set.
  • the rolled material 301 flows from the back to the front.
  • the rolled material 301 is in the back, light is blocked by the plant equipment, so that the brightness of the rolled material 301 is low.
  • the rolled material 301 is in front, the rolled material 301 is exposed to light. Therefore, it is assumed that the luminance is large.
  • the luminance of the rolled material 301 is related to the position of the rolled material, the luminance of the edge of the rolled material can be estimated from the estimated position information of the rolled material. In such a case, the threshold value of the binarization process can be obtained from the estimated brightness information of the edge of the rolled material.
  • the threshold value for binarization is set to 5, and the threshold is set to 60 or more [pixels] 15
  • the threshold value for binarization is set to 8
  • the threshold value for binarization is set to 12.
  • the threshold value indicates luminance, and in this embodiment, the luminance is 256 gradations.
  • step 2 15 the image processing unit 106 performs binarization processing using the threshold value obtained in step 2 14, and extracts the edge portion of the rolled material from the image.
  • the image recognition unit 107 detects the edge position of the rolled material from the binarized image. Then, in step 222, the end point of the rolled material is detected. The end point of the rolled material is detected by detecting the edge of the rolled material and detecting the intersection of the edge and the edge.
  • FIG. 6 is a diagram showing a method of detecting an edge position.
  • the image 600 is an image that has been binarized by the image recognition unit 107.
  • Image 600 has two edges, a leading edge 610 and a right edge 611.
  • the leading edge 6110 and the rightmost edge 611 are intermittent due to noise. And there is noise other than the edge part.
  • a coordinate system is set in which the upper left point of the image is the origin, the upper end of the image is the X axis, and the left end of the image is the y axis. And the throne In the reference system, the image downward direction and the image left direction are defined as positive.
  • the coordinate system set on the image 600 is set as a reference coordinate system, and the number of pixels when the binary image is projected on the y-axis of the reference coordinate system is called a y-axis projection value.
  • the binary image 630 is an image obtained by subjecting the image 600 to affinity conversion.
  • the y-axis projection value 640 of the image 630 is given a value even in places other than the edge part due to noise, making it difficult to determine the edge part.
  • the peak 6 41 of the y-axis projection value of the edge portion takes the maximum value when the edge portion and the y-axis are perpendicular. Therefore, the peak 641 of the y-axis projection value is obtained while rotating the binary image 600 little by little, and a search is made for a place where the peak 641 of the y-axis projection value becomes maximum.
  • the angle of rotation of the image when the peak 641 of the y-axis projection value is maximum is the edge inclination.
  • Image 660 is a binary image when the peak of the y-axis projection value is at a maximum.
  • a coordinate system having an origin at the upper left point 661 of the image, an X axis at the upper end 626 of the image, and a y axis at the left end 666 of the image is set.
  • Image 660 is obtained by rotating image 600 by ⁇ [rad].
  • There is an edge at the peak 671 of the y-axis projection value of the image 660. The edge is perpendicular to the y-axis, and the y-axis coordinate value 672 of the peak 671 is b, and the edge equation on the image 660 in the reference coordinate system is y b.
  • the processing from step 216 to step 219 is called loop processing, and the number of times of the loop processing is called the number of loops.
  • the number of loops in the first loop processing is set to one.
  • Edge detection first detects the leading edge and then the right edge. Tip tip It is assumed that the image is always downward-sloping on the image 600, and the angle between the image and the X axis is small. Also, the right edge and the tip edge are assumed to be almost perpendicular.
  • step 211 the affine transformation is performed so that the binary image 600 is rotated clockwise (0.02 X loop times + initial value) [rad] around the origin of the reference coordinate system.
  • the initial value is 0 [rad].
  • step 217 the y-axis projection value 640 of the binary image 630 after the affinity conversion is obtained.
  • step 218 a peak 61 is obtained from the y-axis projection values 640 obtained in step 217.
  • step 211 the peak of the y-axis projection value obtained in step 218 is compared with the peak of the y-axis projection value obtained in the previous loop processing, and the peak of the y-axis projection value is calculated. Find the place with the largest value. If the peak of the y-axis projection value obtained in step 218 is large, the process returns to step 2 16. If it is small, the process proceeds to step 220. If the number of loops is one, the process returns to step 2 16.
  • an edge equation is obtained from the image 660 after the affinity conversion.
  • the angle of the affinity transformation when the peak of the y-axis projection value takes the maximum value is the edge inclination, and the y-coordinate value b (6 7 2) having the affinity transformation angle 0 and the maximum value of the y-axis projection value ),
  • the equation of the edge part can be found by performing coordinate transformation to the coordinate system of the image 660.
  • the image 660 after the affinity conversion is obtained by rotating the image 600 by 0 [rad].
  • the origin is at the upper left part 661 of the image
  • the X axis is at the upper part 626 of the image
  • the left end is
  • step 220 it is determined whether the detected edge is a leading edge or a right edge (determining whether the processing in step 220 is the first or second time), and if the detected edge is a leading edge. After setting the initial value of the rotation angle of the affinity transformation ⁇ 2 [rad] so that the right edge can be detected, return to step 2 16 and if it is the right edge, go to step 2 2 Proceed to 1.
  • step 221 the intersection of the straight lines of the two edges obtained in step 220 from step 216 is determined in order to detect the end point of the edge of the rolled material.
  • step 222 the control unit 108 detects the displacement of the rolled material.
  • FIG. 7 is a diagram showing a method for detecting a displacement of a rolled material.
  • a trajectory 720 of an end point 70 of the rolled material 701 is drawn.
  • the points 711, 712, 713, 713, 714, and 715 are the locations of the end points detected by this system, which are blocked on the screen 700.
  • User can use rolled material
  • a guide line 730 indicating the correct trajectory of the end point of 70 1 can be set in advance ⁇ Also, the user can set a guide line according to the type of sheet width of the rolled material, For example, if three types of rolled material with a plate width of 470 mm, 56 Omni and 640 mm flow through the plant, the user specifies three types of guide lines according to the type of plate width. I do.
  • step 2 2 4 If the distance between the guide line 730 and the end point 710 of the rolled material exceeds a preset threshold value, it is determined that the position of the leading end of the rolled material is deviated and step 2 2 4 If the threshold value is not exceeded, it is determined that the position of the leading end of the rolled material is correct, and the process proceeds to step 223.
  • step 222 the image recognition unit 107 determines whether the leading end of the rolled material has passed the lower end of the screen. If the leading end has passed the lower end of the image, the process proceeds to step 225. If not, the flow returns to step 204 to detect the position of the end point of the rolled material again.
  • step 224 the newsletter 110 notifies the user of the displacement of the rolled material, and proceeds to step 225.
  • step 225 the system is terminated.
  • a second embodiment of the present invention will be described with reference to the system configuration shown in FIG. 8.
  • This embodiment is an example in which the positional deviation of the leading end of a rolled material is detected using pattern matching.
  • This system consists of an ITV camera 101, an image capture unit 102, a control information acquisition unit 8001, which captures plant control information (roll rotation speed, roll position, and plate type).
  • a state estimator 8002 for estimating the state of the image processing target such as the position of the rolled material, the brightness of the rolled material, and the visible portion using the control information of the plant captured by the information acquisition unit 8001, and a state estimator.
  • the area of image processing is set from the position of the rolled material estimated by the part 800 and the visible part, and the type information of the plate taken in by the control information acquisition part 801
  • the threshold value for binarization is set using the control information acquisition unit 8001
  • the template for pattern matching for detecting the end point of the rolled material is set using the position information of the roll taken in by the control information acquisition unit 800.
  • An image processing condition setting unit 803, and an image processing unit 804 that performs background removal and binarization processing of the captured image and : rolling is performed using the template set in the image processing condition setting unit 803.
  • An image recognition unit 805 that performs pattern matching on the end points of the material, a control unit 806 that controls the entire system such as image capture processing, image state estimation processing, and termination processing, and an image display unit 109 , And the alarm issuing section 110.
  • FIG. 9 is a diagram showing the behavior of a rolled material to be recognized in the present embodiment.
  • the rolled material 900 advances from the back of the plant (center of the screen) toward the front of the plant (bottom of the screen) between the movable rolls 902 and 903.
  • the movable roll 902 moves up and down, and the rolled material 901 is sandwiched between the movable roll 902 and the roll 903 when passing directly below the movable roll 902.
  • the rolled material 901 advances in the front direction of the screen with the leading edge 904 facing the screen.
  • the rolled material 90 1 advances toward the screen with the surface of the rolled material facing the screen, and moves down the screen so as to be rolled up by the rolls 90 3. Go out.
  • the rolled material 901 is not sandwiched between the rolls, the brightness of the edge 904 of the rolled material is large, and when the rolled material 901 is sandwiched between the rolls, the surface 9 5. Assume that the brightness of 1 is large.
  • FIGS. 10 (a) and (b) are flowcharts of the present embodiment.
  • step 1002 the control information acquisition section 8001 —Acquires the rotation speed information of the
  • step 1003 the image is taken in the image taking section 102.
  • step 104 the image capturing unit 102 determines whether or not the rolled material has entered the plant image captured in step 1002 by taking a difference from the image of the immediately preceding frame. I do.
  • step 1005 the control information acquisition unit 801 fetches the roll position, roll rotation speed, and plate type, which are control information, from the plant.
  • step 106 the plant image captured by the ITV camera 101 is captured by the image capturing unit 102, and the captured image is displayed on the image display unit 109.
  • step 107 the control unit 806 determines whether or not the rolled material is sandwiched between the rolls based on the position information of the movable roll captured by the control information acquisition unit 801.
  • the image processing area 910 is located between the movable roll 902 and the roll sole 903. Provide. Then, after the rolled material 901 is sandwiched between the rolls, since the rolled material 901 is present at the portal 903, an image processing area 960 is provided at the roll 903.
  • the brightness of the edge of the rolled material After the rolled material is sandwiched between the rolls, the brightness of the surface of the rolled material increases, so a template for detecting the edge at the tip is set before the rolled material is sandwiched, and the surface is Set a template for part detection.
  • steps 1008 to 1101 the processing is performed when the rolled material is not sandwiched between the rolls.
  • steps 101 to 1 the rolled material is sandwiched between the rolls. Perform the processing for the case.
  • an image processing area 910 (hereinafter, referred to as an upper image processing area) is provided in the image processing condition setting unit 803 between the movable door 902 and the roll 903.
  • the image processing condition setting unit 803 sets a template for detecting the edge of the rolled material for pattern matching of the edge of the rolled material.
  • step 110 the image processing condition setting section 803 estimates a portion where the rolled material is hidden by the movable mallet, and determines the size of the area so that the hidden part does not enter the upper image processing area. To change.
  • step 101 the image processing condition setting unit 803 sets an image processing area 960 (hereinafter referred to as a lower image processing area) in the roll 903.
  • step 1102 the image processing condition setting unit 803 sets a template for detecting the surface portion of the rolled material for performing pattern matching on the surface portion of the rolled material.
  • step 101 in the image capturing unit 102, the image processing area set by the image processing condition setting unit 803 is cut out.
  • step 104 the background is removed from the image in the image processing area.
  • step 1 0 15 the image processing condition setting section 8 03 The threshold value of the binarization processing is set from the type information of the plate taken in by the information acquisition unit 8001.
  • the brightness of the board depends on the type. Therefore, the threshold value of the binarization process is changed according to the type of plate. For example, in the rolling plant of this embodiment, iron plates, copper plates, and aluminum plates are transported. Aluminum plate has the highest brightness, copper plate has the next highest brightness, and iron plate has the lowest brightness.
  • the upper and lower limits of the board brightness are set, the value between the upper and lower limits is set to 1, and all other values are set to 0 and binarized. Perform processing. In this way, different types of boards can be extracted from the image.
  • the threshold values of the binarization process are set to lower limit 30 and upper limit 40 for aluminum plate, lower limit 2 2 and upper limit 32 for copper plate, and lower limit for iron plate. The value is 15 and the upper limit is 25.
  • the threshold values of the binarization processing are set to the lower limit value 15 and the upper limit value 25.
  • the threshold value indicates luminance, and the luminance is 256 gradations.
  • step 106 the image processing section 804 binarizes the image in the image processing area using the threshold value set in the image processing condition setting section 803, and extracts the rolled material. .
  • step 107 the image recognition unit 805 performs pattern matching using the template set in the image processing condition setting unit 803, and detects the end point of the rolled material from the matched position. .
  • FIG. 11 is a diagram showing a method for detecting a beard at an end point of a rolled material using pattern matching.
  • the image 110 of the upper image processing area 910 after the binarization processing has the edge 904 of the rolled material extracted, and the lower image processing area 960 after the binarization processing has been extracted.
  • the image 1150 the surface 951 of the rolled material is extracted.
  • pattern matching is performed between the image 1100 after binarization processing and the tip edge detection template 1110 selected in step 1109.
  • the image 1150 after binarization processing is subjected to pattern matching with the surface detection template 1160 selected in step 1102.
  • the upper end of the screen is set to the positive direction with the upper end of the screen as the X axis, the left end of the screen as the y axis, the lower direction is set as the positive direction, and the upper left end of the screen is set as the origin.
  • the upper end 1171 of the screen is set as the X axis
  • the right direction is set to the positive direction
  • the left end 1172 of the screen is set as the y axis
  • the lower direction is set as the positive direction
  • the upper left end 1170 is set as the origin.
  • the position of the leading edge detection template 111 is defined as the end point position (xl, yl) (111) of the rolled material in the template 111, and the surface detection template 111 is used.
  • the position 60 is the position (x2, y2) (1161) of the end point of the rolled material in the template 1160.
  • the position of the end point of the rolled material can be determined from the position of the template subjected to pattern matching.
  • the image recognition unit 805 detects a displacement of the rolled material.
  • the displacement of the rolled material is detected by calculating the distance between the end point of the rolled material and a preset guide line, and determining whether the distance exceeds a preset threshold value.
  • step 120 the position of the leading end of the rolled material is not shifted. If not, the process proceeds to step 109.
  • step 109 the control unit 806 determines whether or not the leading end of the rolled material has passed the lower end of the screen, and if the leading end has exceeded the lower end of the image, proceeds to step 1021. Proceed and if not, step
  • step 1020 the alarm issuing unit 110 notifies the user of the displacement of the rolled material. Then, an operation procedure is displayed on the screen display section 109 so as to return the rolled material to a normal position.
  • step 1021 the end processing of the present system is performed.
  • the image processing system configured as described above has the following effects.
  • the image processing system determines image processing conditions using control information acquired from a plant device or the like, and is useful for improving recognition accuracy and simplifying recognition processing.

Abstract

An image processing system which takes an image of a machine whose motion is controlled by control information, and processes the image. The system has a control information collecting means for obtaining the control information, and a setting means for determnining setting conditions concerning the image processing on the basis of the control information taken by the collecting means. Since the image processing conditions corresponding to the condition of an object to be recognized and background are set by determining the brightness, saturation, hue and visible portions of the object and background and the variation of the background by using control information obtained from a machine, such as a plant, the recognition accuracy is improved, and the recognition processing is simplified.

Description

明 細 書  Specification
画像処理システム及び画像処理方法 技術分野  Image processing system and image processing method
本発明は、 プラン卜システム等の制御情報によって制御される機器に 関する画像処理装置およびその方法に関する。 背景技術  The present invention relates to an image processing apparatus and method for a device controlled by control information such as a plant system. Background art
( 1 ) 従来の画像処理装置では、 取り込んだ画像の情報 (例えば、 輝 度, 画像間の差分, オプティカルフローなど) のみを用いて、 対象物の 認識を行っている。  (1) In the conventional image processing device, the target object is recognized using only the information of the captured image (for example, brightness, difference between images, optical flow, etc.).
例えば、 「逐次マッチングによる移動物体の切出し」 電子情報通信学 会論文集 Vol.J76-D— II No.10 pp.2196— 2203(1993)では、 明るさや背 景が変化する場合でも対象物を認識できる手法が検討されていて、 その 手法では、 前フレームで認識した対象物の輪郭と現フレームのエッジ画 像とのマツチングを逐次行うことにより各フレームにおける対象物の認 識を行っている。  For example, “Extracting Moving Objects by Sequential Matching,” IEICE Transactions Vol.J76-D—II No.10 pp.2196—2203 (1993) states that even if the brightness or background changes, Methods that can be recognized are being studied, and the method recognizes the object in each frame by sequentially matching the contour of the object recognized in the previous frame with the edge image of the current frame.
最初にフレームから対象物 (移動物体部分) を切り出すとき、 3つの 連続するフレーム F l, F 2 , F 3をとりこみ、 F 1 と F 2および F 2 と F 3の差分領域を求める。 そして、 その 2つの差分領域の共通部分を F 2の対象物として切り出す。 そして、 この切り出した対象物をパター ンマッチングのテンブレー卜として、 マッチングを行うとき、 最初にェ ッジ画像と対象物の輪郭全体とのマッチングをとリ、 それから、 部分的 に輪郭とエッジのマッチングをとる。  First, when cutting out an object (moving object part) from a frame, three consecutive frames Fl, F2, and F3 are taken in, and the difference regions between F1 and F2 and between F2 and F3 are obtained. Then, a common part of the two difference regions is cut out as an object of F2. Then, when the extracted object is used as a template for pattern matching, matching is first performed between the edge image and the entire contour of the object, and then the contour and edge are partially matched. Take.
( 2 ) —方、 従来の冷間圧延プラン卜においては、 圧延材をコイル状 に巻き込むとき、 圧延材の先端部がコイルの中心軸に精度よくはめ込ま れないとコイルの品質が落ちてしまうので、 圧延材の蛇行によって生じ る圧延材先端部の位置ずれを検出 (以下、 蛇行検出とよぶ) する必要が ある。 従来、 この蛇行検出は、 現場の I T Vカメラで取り込んだ映像の 圧延材のエツジ部分と予めモニタ画面に描いたガイ ドライ ンとのずれを オペレータが監視することで行っている。 (2) —On the other hand, in the conventional cold rolling plant, the rolled material is coiled. If the tip of the rolled material is not accurately fitted into the center axis of the coil, the quality of the coil will be degraded. (Called detection). Conventionally, this meandering detection has been performed by the operator monitoring the deviation between the edge of the rolled material in the video captured by the ITV camera at the site and the guideline previously drawn on the monitor screen.
上記 ( 1 ) の従来技術では、 背景や認識対象の変化が大きくなると認 識精度が下がった。 また、 画像のみから認識対象の状態(大きさ, 歪み) を推測しているので、 認識処理が複雑であった。  In the prior art (1), the recognition accuracy decreased as the background and the change of the recognition target increased. In addition, since the state (size, distortion) of the recognition target is estimated only from the image, the recognition process is complicated.
本発明は、 この問題を解決し、 認識処理における認識精度の向上, 認 識処理の簡単化を目的とする。  An object of the present invention is to solve this problem, improve recognition accuracy in recognition processing, and simplify recognition processing.
上記 ( 2 ) の従来の圧延プラン 卜では、 ロールの動きによって、 認識 対象である圧延材の可視な部分が圧延材のロールへの映り込み等によリ 変化するので、 認識が困難である。  In the conventional rolling plant of the above (2), it is difficult to recognize the visible part of the rolled material to be recognized due to the reflection of the rolled material on the roll due to the movement of the roll.
本発明はこの問題を解決し、 圧延材の蛇行検出ができるようにするこ とを目的とする。 発明の開示  An object of the present invention is to solve this problem and to make it possible to detect meandering of a rolled material. Disclosure of the invention
上記目的を達成するために、 本発明は、 認識対象に係わる機器の動作 を制御する制御情報を取り込む制御情報取得手段と、 制御情報によって、 画像処理に係わる設定条件を設定する画像処理条件設定手段とを設けた。 また、 従来の圧延プラン 卜の問題点を解決するために、 ロールの位置 情報を取り込み、 該情報に基づき、 ロールが画像処理する領域に入らな いように該領域の位置, 大きさを設定した。  In order to achieve the above object, the present invention provides a control information acquisition unit that captures control information for controlling the operation of a device related to a recognition target, and an image processing condition setting unit that sets a setting condition related to image processing based on the control information. And provided. Also, in order to solve the problems of the conventional rolling plant, position information of the roll was taken in, and based on the information, the position and size of the region were set so that the roll did not enter the image processing region. .
上記の各構成は以下のように動作する。 制御情報取得手段は、 認識対象に係わる機器の動作を制御する制御情 報を取り込み、 画像処理条件設定手段は、 例えば取り込んだ制御情報に よってわかる背景の変化, 認識対象の輝度, 彩度, 色相などの情報によ つて、 2値化のしきい値, 画像処理フィルタのパラメータなどの画像処 理に係わる設定条件を設定することによって、 認識対象の認識率の向上 および認識処理の簡単化が可能になる。 Each of the above components operates as follows. The control information acquisition means captures control information for controlling the operation of the device related to the recognition target, and the image processing condition setting means measures, for example, the background change, luminance, saturation, hue, and hue of the recognition target that are captured by the captured control information. By setting the setting conditions related to image processing, such as the threshold for binarization and the parameters of the image processing filter, based on such information, the recognition rate of the recognition target can be improved and the recognition processing can be simplified. become.
また、 本発明に係る圧延プラン卜の蛇行検出システムにおいては、 口 ールの位置情報を取り込み、 該情報に基づき、 ロールが画像処理する領 域に入らないように該領域の位置, 大きさを設定することにより、 ロー ルの動きに関係なく、 圧延材の蛇行検出ができる。 図面の簡単な説明  Further, in the meandering detection system for the rolling plant according to the present invention, the position information of the roll is taken in, and based on the information, the position and size of the region are determined so that the roll does not enter the image processing region. By setting, the meandering of the rolled material can be detected regardless of the roll movement. BRIEF DESCRIPTION OF THE FIGURES
第 1図は本発明の一実施例の画像処理システムのプロック構成図であ る。  FIG. 1 is a block diagram of an image processing system according to an embodiment of the present invention.
第 2図は本発明の一実施例の画像処理方法のフローチヤ一卜である。 第 3図は本発明の一実施例の画像処理システムの I T Vカメラで撮影 したブラン卜画像に圧延材が映っているときの画像を表す図である。 第 4図は本発明の一実施例の圧延材の見えなくなる部分を推定する様 子を示す図である。  FIG. 2 is a flowchart of an image processing method according to an embodiment of the present invention. FIG. 3 is a diagram showing an image when a rolled material is reflected on a brand image taken by an ITV camera of the image processing system according to one embodiment of the present invention. FIG. 4 is a view showing a manner of estimating a portion where the rolled material is no longer visible in one embodiment of the present invention.
第 5図は本発明の一実施例の背景除去の様子を示した図である。  FIG. 5 is a diagram showing a state of background removal according to one embodiment of the present invention.
第 6図は本発明の一実施例のエツジの位置検出の様子を示した図であ る。  FIG. 6 is a diagram showing a state of edge position detection according to one embodiment of the present invention.
第 7図は本発明の一実施例の圧延材の位置ずれの検出方法を示す図で ある。  FIG. 7 is a diagram showing a method for detecting a displacement of a rolled material according to one embodiment of the present invention.
第 8図は本発明の一実施例の画像処理システムのプロック構成図であ る。 FIG. 8 is a block diagram of an image processing system according to an embodiment of the present invention. You.
第 9図は本発明の一実施例の認識対象の挙動を示す図である。  FIG. 9 is a diagram showing the behavior of the recognition target according to one embodiment of the present invention.
第 1 0図は本発明の一実施例の画像処理方法のフローチヤ一トである, 第 1 1 図は本発明の一実施例のパターンマッチングを用いて圧延材の 端点の位置の検出方法を示す図である。 発明を実施するための最良の形態  FIG. 10 is a flowchart of an image processing method according to an embodiment of the present invention. FIG. 11 shows a method of detecting the position of an end point of a rolled material using pattern matching according to an embodiment of the present invention. FIG. BEST MODE FOR CARRYING OUT THE INVENTION
以下に本発明の実施例を図面を用いて説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.
実施例 1 Example 1
第 1 図は本発明の第 1 の実施例のシステム構成を示している。  FIG. 1 shows a system configuration of a first embodiment of the present invention.
本実施例は、 冷間圧延プラン 卜におけるコイルの巻き込みのときの圧 延材の蛇行によって生じる圧延材先端部の位置ずれの検出を画像処理で 行う例である。  The present embodiment is an example in which image processing is performed to detect a displacement of a leading end of a rolled material caused by meandering of a rolled material when winding a coil in a cold rolling plant.
圧延材をコイル状に巻き込むとき、 圧延材の先端部がコイルの中心軸 に精度よくはめ込まれないとコイルの品質が落ちてしまうので、 画像処 理を用いて圧延材の端点の検出を行う。 しかし、 冷間圧延では認識対象 である圧延材に光沢があるため、 その輝度, 彩度, 色相がプラン 卜の場 所によって変化し、 またプラン 卜の動きによって可視な部分が変化する ので認識が困難である。 そこで、 プラント装置の制御情報を用いて認識 対象および背景の輝度, 彩度, 色相、 および認識対象の可視な部分など の画像の状態を推測し、 その推測した状態を用いて認識対象を認識する ことで、 圧延材の先端部の位置の検出を行う。  When the rolled material is wound into a coil, the quality of the coil will deteriorate if the tip of the rolled material is not accurately fitted into the center axis of the coil. Therefore, the end points of the rolled material are detected using image processing. However, in cold rolling, since the rolled material to be recognized is glossy, its brightness, saturation, and hue change depending on the location of the plant, and the visible portion changes due to the movement of the plant, so recognition is not possible. Have difficulty. Therefore, the state of the image, such as the luminance, saturation, hue, and the visible portion of the recognition target and the recognition target is estimated using the control information of the plant device, and the recognition target is recognized using the estimated state. Thus, the position of the leading end of the rolled material is detected.
本システムでは、 以下のように圧延材の端点の検出を行う。 まずはじ めにプラン卜画像を取り込み、 そして冷間圧延におけるロールの回転速 度や位 Sなどのプラントの制御情報を取り込む。 それから、 その取り込 んだ制御情報とプラン 卜画像を用いて、 圧延材の可視な部分を推測し、 画像処理する範囲を設定する。 次に、 その取り込んだ制御情報とプラン 卜画像を用いて、 背景と, 圧延材と背景のコン トラス 卜と, 圧延材の輝 度を推測し、 画像処理方法の設定を行う。 最後に画像処理された画像か ら圧延材のエツジを検出し、 圧延材のエツジ部分から端点を検出する。 第 1 図は本発明の実施例のシステム構成図である。 In this system, the end point of the rolled material is detected as follows. First, plant images are taken in, and plant control information such as roll speed and position S in cold rolling is taken in. Then, take that Using the control information and the plant image, the visible part of the rolled material is estimated and the range for image processing is set. Next, using the captured control information and the plant image, the background, the contrast of the rolled material and the background, and the brightness of the rolled material are estimated, and the image processing method is set. Finally, the edge of the rolled material is detected from the image processed, and the end point is detected from the edge of the rolled material. FIG. 1 is a system configuration diagram of an embodiment of the present invention.
本システムは、 圧延材の端点部分の画像を撮影する I T Vカメラ 101 と, I T Vカメラ 1 0 1 で撮影された画像を取り込む画像取り込み部 1 0 2 と, プラン トの制御情報 (ロールの回転速度, ロール位置など) を取り込む制御情報取得部 1 0 3 と, 制御情報取得部 1 0 3において取 り込んだプラン 卜の制御情報を用いて、 圧延材の位置, 輝度, 可視な部 分、 およびエッジと背景のコン トラス 卜など画像処理対象の状態を推定 する状態推定部 1 0 4 と, 状態推定部 1 0 4で推定された輝度情報を用 いて画像の 2値化のしきい値を調節し、 また、 状態推定部 1 0 4で推定 されたコン トラス 卜情報を用いて画像処理するフィルタの種類を選択し, 状態推定部 1 0 4で推定された圧延材の位置および可視な部分から画像 処理する領域を設定する画像処理条件設定部 1 0 5 と, 画像取り込み部 1 0 2において、 画像処理条件設定部 1 0 5で設定された画像処理領域 を切り出し、 その領域の画像を画像処理条件設定部 1 0 5で選択された 画像処理フィルタで処理し、 その画像処理された画像を 2値化処理する 画像処理部 1 0 6 と, 画像処理部 1 0 6で処理された画像から状態推定 部 1 0 4で推定された画像処理対象の状態を用いて認識対象を認識する 画像認識部 1 0 7 と, 画像取り込み処理, 画像状態推定処理, 終了処理 などの本システム全体を制御する制御部 1 0 8 と, I T Vカメラ 1 0 1 で撮影された画像と、 認識結果を表示する画像表示部 1 0 9 と, 異常が あった場合に警報を出す誓報発令部 1 1 0とからなる。 This system consists of an ITV camera 101 that captures images of the end points of the rolled material, an image capturing unit 102 that captures images captured by the ITV camera 101, and plant control information (roll rotation speed, Using the control information acquisition unit 103 that captures the roll position, etc.) and the control information of the plant captured by the control information acquisition unit 103, the position, brightness, visible part, and edge of the rolled material are used. Estimating unit 104 for estimating the state of the image processing target such as the contrast of the image and the background, and using the luminance information estimated by the state estimating unit 104 to adjust the binarization threshold of the image. In addition, the type of filter to be subjected to image processing is selected using the contrast information estimated by the state estimating unit 104, and an image is obtained from the position and the visible portion of the rolled material estimated by the state estimating unit 104. Image processing conditions that set the area to be processed In the setting unit 105 and the image capturing unit 102, the image processing area set in the image processing condition setting unit 105 is cut out, and the image in that region is selected in the image processing condition setting unit 105. The image processing unit 106 processes the image with the image processing filter and binarizes the processed image, and the image estimated by the state estimating unit 104 from the image processed by the image processing unit 106 An image recognition unit 107 that recognizes the recognition target using the state of the processing target, a control unit 108 that controls the entire system such as image capture processing, image state estimation processing, and end processing, and an ITV camera 10 The image taken in step 1 and the image display section 109 displaying the recognition result It consists of a vows issuing unit 110 that issues an alarm when there is.
次に本実施例の動作例について説明する。  Next, an operation example of the present embodiment will be described.
第 2図は本実施例の処理を示すフローチヤ一卜である。  FIG. 2 is a flowchart showing the processing of this embodiment.
はじめに、 ステップ 2 0 2では、 I T Vカメラ 1 0 1 で撮影したブラ ン卜画像を画像取り込み部 1 0 2において取り込む。  First, in step 202, the image capturing unit 102 captures a plan image captured by the ITV camera 101.
あった場合に警報を出す警報発令部 1 1 0とからなる。 It is composed of an alarm issuing unit 110 that issues an alarm when it occurs.
次に本実施例の動作例について説明する。  Next, an operation example of the present embodiment will be described.
第 2図は本実施例の処理を示すフローチヤ一卜である。  FIG. 2 is a flowchart showing the processing of this embodiment.
はじめに、 ステップ 2 0 2では、 I T Vカメラ 1 0 1 で撮影したブラ ン 卜画像を画像取り込み部 1 0 2において取り込む。  First, in step 202, the image capturing unit 102 captures a blank image captured by the ITV camera 101.
ステップ 2 0 3では、 画像取リ込み部 1 0 2において、 ステツプ 202 で取り込んだプラン 卜画像の中に圧延材が進入したか否かを判別する。 第 3図は I T Vカメラ 1 0 1 で撮影したブラン 卜画像で圧延材が搬送 されているときの画像である。 画面 3 0 0では、 ローリレ 3 0 2 , 3 0 3 の上を圧延材 3 0 1 が画面右上部から左下部に向かって進んでいる。 画面 3 0 0の上端部 3 1 0付近に圧延材が進入したか否かを判別する ための領域 3 5 0を設ける。 そして、 この領域を進入判別領域と呼ぶ。 画面 3 0 0の中に圧延材が進入したか否か判別するには、 過去に取り 込んだプラン ト画像の進入判別領域と現在取り込んだプラン 卜画像の進 入判別領域との差分をとり、 差分がない場合には圧延材は画面 3 0 0の 中に進入していないと判断し、 差分がある場合には画面 3 0 0に圧延材 3 0 1 が進入したものと判断する。 そして、 圧延材が進入していないと 判断した場合には、 ステップ 2 0 2に戻りプラン 卜画像を取り込み、 圧 延材が進入したと判断した場合には、 ステップ 2 0 4に進む。  In step 203, the image capturing unit 102 determines whether the rolled material has entered the plant image captured in step 202. Fig. 3 is an image of a brand image taken by the ITV camera 101 when a rolled material is being conveyed. On the screen 300, the rolled material 301 advances from the upper right part of the screen toward the lower left part of the rolls 302 and 303. An area 350 for determining whether or not the rolled material has entered the vicinity of the upper end 310 of the screen 300 is provided. This area is called an approach determination area. To determine whether the rolled material has entered the screen 300, the difference between the approach determination area of the plant image captured in the past and the approach determination area of the currently captured plant image is calculated. If there is no difference, it is determined that the rolled material has not entered the screen 300, and if there is a difference, it is determined that the rolled material 301 has entered the screen 300. If it is determined that the rolled material has not entered, the process returns to step 202 to capture the plant image. If it is determined that the rolled material has entered, the process proceeds to step 204.
ステップ 2 0 4では、 I T Vカメラ 1 0 1 で撮影したプラン 卜画像を 画像取り込み部 1 0 2において取り込み、 取り込んだ画像を画像表示部 1 0 9に表示する。 In step 204, the plant image taken with ITV camera 101 is The image is captured by the image capturing unit 102, and the captured image is displayed on the image display unit 109.
ステップ 2 0 5では制御情報取得部 1 0 3においてプラン卜の制御情 報であるロールの位置およびロールの回転速度をプラン卜から取り込む < ステップ 2 0 6では、 状態推定部 1 0 4においてロールの回転速度情 報を用いて圧延材の位置を推定し、 画像処理条件設定部 1 0 5において. その圧延材の位置から画像処理すべき領域の位置を決定する。  In step 205, the control information acquisition unit 103 captures the roll position and roll rotation speed, which are the control information of the plant, from the plant. <In step 206, the state estimation unit 104 determines the roll position. The position of the rolled material is estimated using the rotation speed information, and the image processing condition setting unit 105 determines the position of the region to be image-processed from the position of the rolled material.
ここで、 ロールの回転速度から画像処理すべき領域を推定する方法に ついて述べる。  Here, a method for estimating the area to be image-processed from the rotation speed of the roll will be described.
画面 3 0 0において、 画面上端 3 1 0を X軸とし右方向を正とし、 画 面左端 3 1 1 を y軸とし下方向を正とし、 左上端 3 1 2を原点とするよ うに座標系をとる。 座標系の最小単位は 1画素とする。  On screen 300, the coordinate system is such that the upper end of the screen is 310, the X axis is right, the right direction is positive, the left end of the screen, 311 is y axis, the lower direction is positive, and the upper left end is 312, the origin. Take. The minimum unit of the coordinate system is one pixel.
圧延材 3 0 1は画面 3 0 0の右上方から左下方に流れてくる。 圧延材 3 0 1 は、 X軸から 0 [rad ] だけ傾いた方向に向かって V [ m Z秒] の 速度で進んでいる。 ロール 3 0 2, 3 0 3の半径 r [ m ] , 回転速度 ω [radZ秒] とすると、 圧延材 3 0 1の速度 r · ω [ m Z秒] となる。  The rolled material 300 flows from the upper right to the lower left of the screen 300. The rolled material 301 is traveling at a speed of V [mZ second] in a direction inclined by 0 [rad] from the X axis. Assuming that the radius of the rolls 302 and 303 is r [m] and the rotation speed is ω [radZ seconds], the speed of the rolled material 301 is r · ω [mZ seconds].
ここで、 圧延材 3 0 1が画面 3 0 0上で α [画素] 移動するとき、 実 際には g [ m ] 移動する。 圧延材 3 0 1は画面 3 0 0上では a Z g · r • ω [画素 Ζ秒] の速度で移動する。 よって画面 3 0 0上における圧延 材 3 0 1の X軸方向の速度は一 a Z g · r · ω · cos ( θ ) [画素 秒] 、 y軸方向の速度は a Z g · r · ω - s i n ( Θ ) [画素 秒] となる。  Here, when the rolled material 301 moves α [pixel] on the screen 300, it actually moves g [m]. The rolled material 301 moves on the screen 300 at a speed of a Z g · r • ω [pixels per second]. Therefore, the speed of the rolled material 301 on the screen 300 in the X-axis direction is one a Z g · r · ω · cos (θ) [pixel seconds], and the speed in the y-axis direction is a Z g · r · ω -sin (Θ) [pixel seconds].
画像処理しょうとする領域 3 2 0の画面上での移動速度は、 圧延材 3 0 1の画面上での移動速度と同じである。 ここで、 画像処理しょうと する領域を画像処理領域と呼ぶことにする。 画像処理領域 3 2 0は、 圧 延材 3 0 1の端点 3 0 5を追跡するように、 画面右上方から左下方に向 かって直線上に移動を開始する。 圧延材 3 0 1 が画面 3 0 0に出現して から経過した時間 t [秒] とし、 画像処理領域 3 2 0が移動を開始する 時の領域の右下点 3 2 1の位置を (m, n ) とすると、 画像処理領域 3 2 0の右下点 3 2 1 の座標は、 (― a/ g ' r ' w ' cos( e ) - t + m, a / g - r · ω · sin( θ ) · t + n ) となる。 この右下点の座標を 画像処理領域の位置とする。 The moving speed on the screen of the region 320 where the image processing is to be performed is the same as the moving speed of the rolled material 301 on the screen. Here, the area for which image processing is to be performed is referred to as an image processing area. The image processing area 320 is directed from the upper right to the lower left of the screen so as to track the end point 305 of the rolled material 301. It starts moving on a straight line. The time t [sec] has elapsed since the rolled material 310 appeared on the screen 300, and the position of the lower right point 3 2 1 of the area when the image processing area 320 starts moving (m , n), the coordinates of the lower right point 3 2 1 of the image processing area 3 2 0 are (− a / g 'r' w 'cos (e)-t + m, a / g-r · ω · sin (θ) · t + n). The coordinates of the lower right point are defined as the position of the image processing area.
ステップ 2 0 7では、 状態推定部 1 0 4において、 ステップ 2 0 5で 取り込んだ可動ロールの位置情報を用いて、 ロールで圧延材が隠れる部 分を推定して、 画像処理条件設定部 1 0 5において、 その推定したロー ルが隠れる部分から画像処理領域の大きさを設定する。  In step 2007, the state estimating unit 104 estimates the portion where the rolled material is hidden by the roll using the position information of the movable roll captured in step 205, and sets the image processing condition setting unit 100. In step 5, the size of the image processing area is set from the part where the estimated roll is hidden.
ここで、 可動ロールの位置情報から画像処理領域の大きさを設定する 方法について述べる。  Here, a method of setting the size of the image processing area from the position information of the movable roll will be described.
第 4図は、 圧延材の端点検出において可動ロールの位置によって圧延 材の見えなくなる部分を推定し、 画像処理領域の大きさを設定する例で ある。 可動ロール 4 1 2は上下に動く。 そして、 可動ロール 4 1 2 と口 —ル 4 1 1 によって圧延材 4 1 0は挟みこまれる。 画像 4 0 0は可動口 ール 4 1 2が上部にあり、 画像 4 5 0は可動ロール 4 1 2が下部にある < 画像 4 5 0では、 可動ロール 4 1 2が下りてくると圧延材 4 1 0を隠し てしまうので、 その隠れた部分のエッジ検出処理を行わない。 今、 可動 ロール 4 1 2の位置はブラン 卜制御情報として取り込むことができる。 可動ロール下端中心部 4 1 5が、 画像処理領域に入った場合、 画像処理 領域 4 2 0の大きさを変更し、 可動ロール 4 1 2が入らないようにする < 画面 4 0 0は画面上端 4 0 1 に X軸、 画面左端 4 0 2に y軸をとるも のとし、 画面左上端 4 0 3 を原点とする。 画面 4 5 0も同様に画面上端 4 5 1に X軸、 画面左端 4 5 2に y軸をとるものとし、 画面左上端 453 を原点とする。 また画面 4 0 0と画面 4 5 0の大きさを横 3 2 0 [画素] , 縦 2 4 0 [画素] とする。 FIG. 4 is an example of estimating a portion where the rolled material becomes invisible according to the position of the movable roll in detecting the end point of the rolled material and setting the size of the image processing area. The movable roll 4 1 2 moves up and down. Then, the rolled material 4 10 is sandwiched between the movable roll 4 1 2 and the port 4 1 1. Image 400 has the movable roll 4 1 2 at the top, Image 4 50 has the movable roll 4 1 2 at the bottom <Image 4 5 0 shows the rolled material when the movable roll 4 12 comes down Since 410 is hidden, the edge detection processing of the hidden part is not performed. Now, the position of the movable roll 4 12 can be taken in as brand control information. When the center of the lower end of the movable roll 4 15 enters the image processing area, change the size of the image processing area 4 20 so that the movable roll 4 12 does not enter. The X axis is taken at 401, the y-axis is taken at the left end of the screen 402, and the origin is taken at the top left of the screen 4003. Similarly, the screen 450 has the X axis at the top edge of the screen and the y axis at the left edge of the screen. Is the origin. Also, the size of the screen 400 and the screen 450 is set to 320 [pixels] horizontally and 240 [pixels] vertically.
ここでは、 可動ロール 4 1 2が上下に 1 [m] 移動すると、 画面上で 1 0 0 [画素] 移動する。 また、 可動ロール 4 1 2の下端中心部 4 1 5 を可動ロール 4 1 2の位置とする。  Here, when the movable roll 4 1 2 moves up and down 1 [m], it moves 100 [pixels] on the screen. Also, the lower end center 4 15 of the movable roll 4 12 is set as the position of the movable roll 4 12.
可動ロール 4 1 2が上部にあるとき (画面 4 0 0 ) の画像処理領域 4 2 0を横 2 0 0 [画素] , 縦 1 2 0 [画素] , 位置( 2 2 0, 1 8 0 ) とする。 そして上部にあるときの可動ロール 4 1 2の位置を ( 1 4 0, When the movable roll 4 12 is at the top (screen 4 00), the image processing area 4 2 0 is horizontal 2 0 [pixels], vertical 1 2 [pixels], and position (2 2 0, 18 0) And And the position of the movable roll 4 1 2 when it is at the top is (1 4 0,
3 0 ) とする。 3 0).
可動ロール 4 1 2が下方向に 0. 9 [m] 下方に移動する場合を考える c 可動ロール 4 1 2は画面上では y軸方向に 9 0画素移動し、 移動後の 可動ロールの位置は ( 1 4 0, 1 2 0 ) となる。 画像処理条件設定部 1 0 5では、 画像処理領域内に可動ロール 4 1 2が入らないように可動 ロールの下端中心部 4 1 5の下に画像処理領域 4 6 0の上端部がくるよ うに画像処理領域の大きさを変更する。 よって、 変更後の画像処理領域Consider the case where the movable roll 4 1 2 moves downward by 0.9 [m]. C The movable roll 4 1 2 moves 90 pixels in the y-axis direction on the screen, and the position of the movable roll after the movement is (140, 120). In the image processing condition setting unit 105, the upper end of the image processing area 460 is positioned below the lower center part 415 of the movable roll so that the movable roll 412 does not enter the image processing area. Change the size of the image processing area. Therefore, the image processing area after the change
4 6 0は、 縦方向の長さが 6 0 [画素] となる。 こうすることにより、 領域内に余分な背景が入らないように画像処理領域を設定できる。 460 has a vertical length of 60 [pixels]. In this way, the image processing area can be set so that no extra background is included in the area.
ステップ 2 0 8では、 画像取リ込み部 1 0 2において、 ステツプ 206 とステップ 2 0 7で設定した画像処理領域を取り込んだ画像から切り出 す。  In step 208, the image capture area 102 cuts out the image processing area set in step 206 and step 207 from the captured image.
ステップ 2 0 9では、 画像処理部 1 0 6において、 画像取り込み部 1 0 2で切り出した画像から背景を除去する。  In step 209, the image processing unit 106 removes the background from the image cut out by the image capturing unit 102.
ここで、 画像から背景を除去する方法について説明する。 画像から背 景を除去するには、 予め撮っておいた背景画像と取り込んだ画像との差 分をとる。 しかし、 冷間圧延の場合、 可動ロール部の移動と、 可動口一 ル部の移動によるロールの照り返し具合の変化によって、 背景が大きく 変化する。 Here, a method of removing a background from an image will be described. To remove the background from an image, the difference between the previously captured background image and the captured image is taken. However, in the case of cold rolling, the movement of the movable roll and the The background changes greatly due to the change in the degree of reflection of the roll due to the movement of the roll part.
そこで、 可動ロールの位置情報から予め取り込んだ背景画像を選択し その選択した背景画像をステップ 2 0 8で切り出した画像から差し引く , 第 5図は、 可動ロール 4 1 2の位置情報を用いて、 予め取り込んだ背 景画像の中から可動ロールの位置が取り込んだ画像と同じものを選択し 取り込んだ画像から選択した背景画像を差し引いて背景を除去する例で ある。 画像処理部 1 0 6は予め取り込んだ背景画像をデータベースとし て持っている。 以下これを背景画像データベースと呼ぶ。 背景画像デー タベース 5 0 0は、 圧延材が通板していないときの任意の可動ロール位 置の背景画像 5 0 1 , 5 0 3 , 5 0 5 , 5 0 7 , 5 0 9 , 5 1 1 と、 そ のときの可動ロールの移動量 5 0 2, 5 04 , 5 0 6 , 5 0 8 , δ 1 0 : 5 1 2 を蓄えている。 Therefore, a background image captured in advance from the position information of the movable roll is selected, and the selected background image is subtracted from the image cut out in step 208. FIG. 5 shows the position information of the movable roll 4 In this example, the same background image as the captured image is selected from the previously captured background images, and the background image is subtracted from the captured image to remove the background. The image processing unit 106 has a previously captured background image as a database. Hereinafter, this is referred to as a background image database. The background image database 500 is a background image 501, 503, 505, 507, 509, 511 of any movable roll position when the rolled material is not passing through. 1 and the amount of movement of the movable roll at that time are 50 2, 504, 506, 508, and δ 10 : 5 12.
ここで、 背景画像 5 0 1 は可動ロールの移動量が 0[m] 以上 0. 1 5 [m] 未満 ( 5 0 2 ) のときの画像、 背景画像 5 0 3は可動口一ルの移 動量が 0. 1 5 [m] 以上 0. 3 0 [m] 未満 ( 5 04 ) のときの画像、 背景画像 5 0 5は可動ロールの移動量が 0. 3 0 [m] 以上 0.4 5 [m] 以下 ( 5 0 6 ) のときの画像、 背景画像 5 0 7は可動ロールの移動量が 0.4 5 [m] 以上 0. 6 0 [m] 以下 ( 5 0 8 ) のときの画像、 背景画 像 5 0 9は可動ロールの移動量が 0. 6 0 [m] 以上 0. 7 5 [m] 以下 ( 5 1 0) のときの画像、 背景画像 5 1 1 は可動ロールの移動量が 0.75 [m] 以上 0.9 0 [m] 以下 ( 5 1 2 ) のときの画像である。  Here, the background image 501 is an image when the moving amount of the movable roll is 0 [m] or more and less than 0.15 [m] (502), and the background image 503 is a moving image of the movable opening. The image and background image 505 when the moving amount is 0.15 [m] or more and less than 0.30 [m] (504) are those where the moving amount of the movable roll is 0.30 [m] or more and 0.45 [ m] and below (506) Image and background image 507 is the image and background when the moving amount of the movable roll is 0.45 [m] or more and 0.60 [m] or less (508) Image 509 is the image when the moving amount of the movable roll is 0.60 [m] or more and 0.75 [m] or less (5 10), and background image 5 11 is the moving amount of the movable roll. It is an image when it is 0.75 [m] or more and 0.90 [m] or less (5 1 2).
今、 画像取り込み部 1 0 2で取り込んだ画像 5 2 0の可動ロールの移 動量が 0.4 0[m] である場合を考える。 まずはじめに、 背景画像デー タベース 5 0 0において、 可動ロールが 0.3 0 [m] 以上 0.4 5 [m] 未満のときの背景画像 5 0 5が選択される。 次に、 選択された背景画像 5 0 5からステップ 2 0 6とステップ 2 0 7で求めた画像処理領域 532 を切り出して、 ステップ 2 0 5で切り出した画像処理領域の画像 5 3 1 との差をとる。 ここで差をとつた画像を差分画像 5 3 3と呼ぶ。 こうす ることにより、 プラン卜の状態に適応した画像処理領域の背景除去がで きる。 Now, consider the case where the moving amount of the movable roll of the image 520 captured by the image capturing unit 102 is 0.40 [m]. First, in the background image database 500, the movable roll is 0.30 [m] or more and 0.45 [m]. The background image 505 when less than is selected. Next, the image processing area 532 obtained in steps 206 and 207 is cut out from the selected background image 505, and the difference between the image processing area 532 cut out in step 205 and the image 531 is obtained. Take. Here, the image obtained by taking the difference is referred to as a difference image 5 33. This makes it possible to remove the background of the image processing area adapted to the state of the plant.
ステップ 2 1 0では、 状態推定部 1 0 4において、 ステップ 2 0 6で 取り出した画像処理領域の圧延材のエツジ部分と背景部分のコン卜ラス 卜をプラン卜制御情報から推定する。  In step 210, the state estimator 104 estimates the contrast of the edge portion and the background portion of the rolled material in the image processing area extracted in step 206 from the plant control information.
ここで、 画像処理領域の圧延材のエツジ部分の明瞭さを推定する方法 について説明する。 圧延材 3 0 1 はプラント装置の奥 (画面 3 0 0の上 方) から手前 (画面 3 0 0の下方) に流れている。 圧延材 3 0 1が奥に あるときには、 プラント装置によって光がさえぎられ、 圧延材 3 0 1 と 背景のコン卜ラス卜が悪く圧延材 3 0 1 は不明瞭であり、 圧延材 3 0 1 が手前にあるときには圧延材 3 0 1およびロール 3 0 2, 3 0 3は光に さらされるので背景と圧延材 3 0 1のコントラストは良く圧延材 3 0 1 は明瞭であるものとする。 このような場合、 推定した圧延材の位置から 圧延材のエツジの明瞭さを推定することができる。  Here, a method for estimating the clarity of the edge portion of the rolled material in the image processing area will be described. The rolled material 301 flows from the back of the plant equipment (above screen 300) to the front (below screen 300). When the rolled material 301 is in the back, light is blocked by the plant equipment, the contrast of the rolled material 301 and the background is poor, and the rolled material 301 is unclear, and the rolled material 301 is not clear. When it is in front, the rolled material 301 and rolls 302 and 303 are exposed to light, so the contrast between the background and the rolled material 301 is good, and the rolled material 301 should be clear. In such a case, the clarity of the edge of the rolled material can be estimated from the estimated position of the rolled material.
今、 画面 3 0 0の大きさを横 3 2 0 [画素] , 縦 2 4 0 [画素] とす る。 圧延材の先端の位置はステップ 2 0 6で推定したとおりである。 圧 延材の先端部の y軸座標が 1 0 0 [画素] を越えたとき、 圧延材は明瞭 に見えるものと判別し、 また、 圧延材の先端部の y軸座標が 1 0 0 [画 素] を越えないとき、 圧延材は明瞭に見えないものと判別する。 こうす ることによリ圧延材と背景のコン卜ラストを推定できる。  Now, let the size of the screen 300 be 320 [pixels] horizontally and 240 [pixels] vertically. The position of the leading end of the rolled material is as estimated in step 206. When the y-axis coordinate of the leading end of the rolled material exceeds 100 [pixels], it is determined that the rolled material is clearly visible, and the y-axis coordinate of the leading end of the rolled material is 100 [pixel]. If the value does not exceed the value, the rolled material is determined to be invisible. In this way, the contrast between the rolled material and the background can be estimated.
ここで、 圧延材と背景のコントラス卜が明瞭と判別された場合には制 御部 1 0 8においてステップ 2 1 3に進むように処理を進行させ、 不明 瞭と判別された場合には制御部 1 0 8においてステツプ 2 1 1 に処理を 進行させる。 Here, when the contrast between the rolled material and the background is determined to be clear, the control is performed. In the control unit 108, the process proceeds so as to proceed to step 2 13. If it is determined that the process is unclear, the control unit 108 proceeds to step 2 11.
ステップ 2 1 1では、 画像処理部 1 0 6において差分画像に対して膨 張フィルタをかける。  In step 211, the image processing unit 106 applies an expansion filter to the difference image.
ステップ 2 1 2では、 画像処理部 1 0 6において、 膨張処理した差分 画像に対して収縮フィルタをかける。  In step 2 12, the image processing unit 106 applies a contraction filter to the difference image subjected to the dilation processing.
圧延材と背景のコン 卜ラス トが悪い場合、 差分画像の中の圧延材のェ ッジ部分は断続的になっている。 そこで、 ステップ 2 1 1 とステップ 2 1 2のように膨張処理を行ってから収縮処理を行うことによって、 ェ ッジの断線部分を滅らすことができる。  If the contrast between the rolled material and the background is poor, the edge of the rolled material in the difference image is intermittent. Therefore, by performing the dilation processing and then performing the erosion processing as in steps 211 and 212, the broken portion of the edge can be eliminated.
ステップ 2 1 3では、 画像処理部 1 0 6において、 差分画像に対して, ラプラシアンフィルタなどの微分フィルタをかけてエツジ強調処理を行 Ό。  In step 2 13, the image processing unit 106 performs edge enhancement processing on the difference image by applying a differential filter such as a Laplacian filter.
ステップ 2 1 4では、 状態推定部 1 0 4で 2値化処理を行うときのし きい値を設定する。  In step 2 14, a threshold value for performing the binarization processing in the state estimating unit 104 is set.
ここで、 2値化処理を行うときのしきい値の設定方法について述べる, 圧延材 3 0 1 は奥から手前に流れている。 圧延材 3 0 1 が奥にあるとき には、 プラント装置によって光がさえぎられるので圧延材 3 0 1 の輝度 は小さく、 圧延材 3 0 1 が手前にあるときには圧延材 3 0 1 は光にさら されるので輝度は大きいものとする。 このように圧延材 3 0 1 の輝度は 圧延材の位置に関係するので、 推定した圧延材の位置情報から圧延材の エッジの輝度を推定することができる。 このような場合、 推定した圧延 材のエツジの輝度情報から、 2値化処理のしきい値を求めることができ る。 例えば、 圧延材 3 0 1の先端位置の y座標が 0 [画素] 以上 6 0 [画 素] 未満のとき、 2値化のしきい値を 5と設定し、 6 0 [画素] 以上 1 5 0 [画素] 未満のとき、 2値化のしきい値を 8と設定し、 1 5 0 [画素] 以上 2 4 0 [画素] 未満のとき、 2値化のしきい値を 1 2と設 定する。 ここでしきい値は輝度を表し、 本実施例では輝度は 2 5 6階調 である。 Here, a method of setting the threshold value when performing the binarization process will be described. The rolled material 301 flows from the back to the front. When the rolled material 301 is in the back, light is blocked by the plant equipment, so that the brightness of the rolled material 301 is low.When the rolled material 301 is in front, the rolled material 301 is exposed to light. Therefore, it is assumed that the luminance is large. As described above, since the luminance of the rolled material 301 is related to the position of the rolled material, the luminance of the edge of the rolled material can be estimated from the estimated position information of the rolled material. In such a case, the threshold value of the binarization process can be obtained from the estimated brightness information of the edge of the rolled material. For example, when the y-coordinate of the leading end position of the rolled material 301 is greater than or equal to 0 [pixels] and less than 60 [pixels], the threshold value for binarization is set to 5, and the threshold is set to 60 or more [pixels] 15 When the value is less than 0 [pixels], the threshold value for binarization is set to 8, and when it is greater than or equal to 150 [pixels] and less than 240 [pixels], the threshold value for binarization is set to 12. Set. Here, the threshold value indicates luminance, and in this embodiment, the luminance is 256 gradations.
こうすることにより、 変化するプラン卜の状態に適した画像の 2値化 処理ができる。  By doing so, it is possible to perform image binarization processing suitable for changing plant conditions.
ステップ 2 1 5では、 画像処理部 1 0 6において、 ステップ 2 1 4で 求めたしきい値を用いて 2値化処理を行い、 画像から圧延材のエッジ部 分を抽出する。  In step 2 15, the image processing unit 106 performs binarization processing using the threshold value obtained in step 2 14, and extracts the edge portion of the rolled material from the image.
ステップ 2 1 6からステップ 2 2 0では、 画像認識部 1 0 7において、 2値化処理された画像から圧延材のエツジの位置を検出する。 そして、 ステップ 2 2 1 において、 圧延材の端点を検出する。 圧延材の端点の検 出は、 圧延材のエッジの検出を行い、 そのエッジとエッジの交点を検出 することによって行われる。  From step 216 to step 220, the image recognition unit 107 detects the edge position of the rolled material from the binarized image. Then, in step 222, the end point of the rolled material is detected. The end point of the rolled material is detected by detecting the edge of the rolled material and detecting the intersection of the edge and the edge.
第 6図はエッジの位置検出の方法を示す図である。 画像 6 0 0は、 画 像認識部 1 0 7において 2値化処理された画像である。 画像 6 0 0には、 先端部エッジ 6 1 0と右端部エッジ 6 1 1の 2つのエッジがある。 先端 部エツジ 6 1 0と右端部エツジ 6 1 1はノィズの影響で断続的になって いる。 そして、 エッジ部分以外にもノイズがある。  FIG. 6 is a diagram showing a method of detecting an edge position. The image 600 is an image that has been binarized by the image recognition unit 107. Image 600 has two edges, a leading edge 610 and a right edge 611. The leading edge 6110 and the rightmost edge 611 are intermittent due to noise. And there is noise other than the edge part.
そのため、 画像 6 0 0のヒストグラムのみを用いてエッジを抽出する ことは困難である。  Therefore, it is difficult to extract edges using only the histogram of the image 600.
画像 6 0 0には、 画像左上点 6 0 1 を原点として、 画像上端 6 0 2を X軸、 画像左端 6 0 3を y軸とした座標系を設定する。 そして、 その座 標系は画像下方向と画像左方向を正とする。 また、 画像 6 0 0上に設定 された座標系を基準座標系とし、 基準座標系の y軸に 2値画像を投影し たときの画素数を y軸投影値と呼ぶ。 For the image 600, a coordinate system is set in which the upper left point of the image is the origin, the upper end of the image is the X axis, and the left end of the image is the y axis. And the throne In the reference system, the image downward direction and the image left direction are defined as positive. The coordinate system set on the image 600 is set as a reference coordinate system, and the number of pixels when the binary image is projected on the y-axis of the reference coordinate system is called a y-axis projection value.
2値画像 6 3 0は画像 6 0 0をァフィ ン変換した後の画像である。 画 像 6 3 0の y軸投影値 6 4 0はノィズの影響でエツジ部分でない所にも 値がでて、 エッジ部分の判別を困難にしている。 エッジ部分の y軸投影 値のピーク 6 4 1 はエッジ部分と y軸が垂直になるとき最大値をとる。 そこで 2値画像 6 0 0を少しずつ回転させながら y軸投影値のピーク 6 4 1 を求め、 y軸投影値のピーク 6 4 1 が最大になる所を探索する。 y軸投影値のピーク 6 4 1 が最大になった時の画像の回転角度がエツジ の傾きである。  The binary image 630 is an image obtained by subjecting the image 600 to affinity conversion. The y-axis projection value 640 of the image 630 is given a value even in places other than the edge part due to noise, making it difficult to determine the edge part. The peak 6 41 of the y-axis projection value of the edge portion takes the maximum value when the edge portion and the y-axis are perpendicular. Therefore, the peak 641 of the y-axis projection value is obtained while rotating the binary image 600 little by little, and a search is made for a place where the peak 641 of the y-axis projection value becomes maximum. The angle of rotation of the image when the peak 641 of the y-axis projection value is maximum is the edge inclination.
画像 6 6 0は、 y軸投影値のピークが最大になったときの 2値画像で ある。 画像 6 6 0には、 画像左上点 6 6 1 に原点、 画像上端部 6 6 2に X軸、 画像左端部 6 6 3に y軸を持つ座標系を設定している。 画像 660 は画像 6 0 0を Θ [rad] 回転させたものである。 画像 6 6 0の y軸投影 値のピーク 6 7 1 のところにエツジがある。 エッジと y軸は垂直であリ ピーク 6 7 1 の y軸座標値 6 7 2 を bとすると基準座標系における画像 6 6 0上のエツジの方程式は y = b となる。  Image 660 is a binary image when the peak of the y-axis projection value is at a maximum. For the image 660, a coordinate system having an origin at the upper left point 661 of the image, an X axis at the upper end 626 of the image, and a y axis at the left end 666 of the image is set. Image 660 is obtained by rotating image 600 by Θ [rad]. There is an edge at the peak 671 of the y-axis projection value of the image 660. The edge is perpendicular to the y-axis, and the y-axis coordinate value 672 of the peak 671 is b, and the edge equation on the image 660 in the reference coordinate system is y = b.
基準座標系における画像 6 6 0上のエッジの方程式を画像 6 6 0の座 標系に座標変換することによって、 画像上の座標系におけるエツジの方 程式が求められる。  By converting the equation of the edge on the image 660 in the reference coordinate system into the coordinate system of the image 660, an edge equation in the coordinate system on the image is obtained.
ここで、 ステップ 2 1 6からステップ 2 1 9 までの処理をループ処理 と呼び、 そのループ処理の回数をループ回数と呼ぶ。 また、 はじめての ループ処理のループ回数を 1回とする。 エッジ検出は、 はじめに先端部 エッジを検出してから、 その次に右端部エッジを検出する。 先端部エツ ジは、 画像 6 0 0上で必ず右下がりになっていて、 X軸とのなす角度は 小さいものとする。 また、 右端部エッジと先端部エッジはほぼ垂直であ るものとする。 Here, the processing from step 216 to step 219 is called loop processing, and the number of times of the loop processing is called the number of loops. The number of loops in the first loop processing is set to one. Edge detection first detects the leading edge and then the right edge. Tip tip It is assumed that the image is always downward-sloping on the image 600, and the angle between the image and the X axis is small. Also, the right edge and the tip edge are assumed to be almost perpendicular.
ステップ 2 1 6では、 基準座標系の原点を中心として、 2値画像 600 を右回りに ( 0 . 0 2 Xループ回数 +初期値) [ rad] 回転するようにァ フィ ン変換する。 最初に検出するエツジである先端エツジを検出する場 合、 初期値は 0 [ rad] とする。  In step 211, the affine transformation is performed so that the binary image 600 is rotated clockwise (0.02 X loop times + initial value) [rad] around the origin of the reference coordinate system. When detecting the leading edge, which is the first edge to be detected, the initial value is 0 [rad].
ステップ 2 1 7では、 ァフィ ン変換後の 2値画像 6 3 0の y軸投影値 6 4 0を求める。  In step 217, the y-axis projection value 640 of the binary image 630 after the affinity conversion is obtained.
ステップ 2 1 8では、 ステップ 2 1 7で求めた y軸投影値 6 4 0の中 からピーク 6 1 を求める。  In step 218, a peak 61 is obtained from the y-axis projection values 640 obtained in step 217.
ステップ 2 1 9では、 ステップ 2 1 8で求めた y軸投影値のピークと, 1 回前のループ処理で求めた y軸投影値のピークとを比較して、 y軸投 影値のピークの中で最も大きな値を持つところを求める。 ステップ 218 で求めた y軸投影値のピークが大きい場合にはステップ 2 1 6に戻り、 小さい場合にはステップ 2 2 0に進む。 また、 ループ回数が 1 回である 場合には、 ステップ 2 1 6に戻る。  In step 211, the peak of the y-axis projection value obtained in step 218 is compared with the peak of the y-axis projection value obtained in the previous loop processing, and the peak of the y-axis projection value is calculated. Find the place with the largest value. If the peak of the y-axis projection value obtained in step 218 is large, the process returns to step 2 16. If it is small, the process proceeds to step 220. If the number of loops is one, the process returns to step 2 16.
ステツプ 2 2 0では、 ァフィ ン変換後の画像 6 6 0からエツジの方程 式を求める。 y軸投影値のピークが最大値をとる時のァフィ ン変換の角 度がエッジの傾きであり、 ァフィ ン変換の角度 0 と y軸投影値の最大値 を持つ y座標値 b ( 6 7 2 ) を用いて画像 6 6 0の座標系に座標変換す ることによって、 エッジ部分の方程式がわかる。  In step 220, an edge equation is obtained from the image 660 after the affinity conversion. The angle of the affinity transformation when the peak of the y-axis projection value takes the maximum value is the edge inclination, and the y-coordinate value b (6 7 2) having the affinity transformation angle 0 and the maximum value of the y-axis projection value ), The equation of the edge part can be found by performing coordinate transformation to the coordinate system of the image 660.
ここで、 ァフィ ン変換の角度と y軸投影値のピークの y座標値からェ ッジ部分の方程式を求める方法を説明する。 ァフィ ン変換後の画像 660 は、 画像 6 0 0を 0 [rad] 回転させている。 画像 6 6 0の先端部エツジ 6 7 0は基準座標系で直線 y = b ( 6 7 3 ) の上にある。 画像 6 6 0に は、 画像左上部 6 6 1 に原点をと り、 画像上端部 6 6 2に X軸、 左端部Here, a method for obtaining the equation of the edge portion from the angle of the affinity conversion and the y-coordinate value of the peak of the y-axis projection value will be described. The image 660 after the affinity conversion is obtained by rotating the image 600 by 0 [rad]. Image 660 tip edge 670 is on the straight line y = b (673) in the reference coordinate system. For the image 660, the origin is at the upper left part 661 of the image, the X axis is at the upper part 626 of the image, and the left end is
6 6 3に y軸をとる座標系を設定する。 ァフィ ン変換前の画像 6 0 0上 の、 画像 6 0 0の座標系 (基準座標系) での先端部エッジ 6 1 0の方程 式を求めるために、 基準座標系で記述されている画像 6 6 0の先端部ェ ッジ 6 1 0を表す直線 y = b ( 6 7 3 ) を画像 6 6 0の座標系に座標変 換すると、 エッジの方程式は以下のようになる。 6 Set the coordinate system that takes the y-axis in 3. The image 6 described in the reference coordinate system to obtain the equation of the leading edge 6 10 in the coordinate system (reference coordinate system) of the image 600 on the image 600 before the affinity conversion If the straight line y = b (673) representing the leading edge 610 of 60 is coordinate-transformed to the coordinate system of the image 660, the equation of the edge is as follows.
y = - tan ( θ ) · x + b /cos ( Θ )  y =-tan (θ) x + b / cos (Θ)
ステップ 2 2 0において、 検出したエツジが先端部エツジであるのか 右端部エッジであるのかを判別し (ステップ 2 2 0の処理が 1 回目か 2 回目かを判別し) 、 先端部エッジである場合、 右端部エッジを検出でき るように、 ァフィ ン変換の回転角度の初期値 π 2 [ rad ] を設定してか ら、 ステップ 2 1 6に戻り、 右端部エッジである場合には、 ステップ 2 2 1 に進む。  In step 220, it is determined whether the detected edge is a leading edge or a right edge (determining whether the processing in step 220 is the first or second time), and if the detected edge is a leading edge. After setting the initial value of the rotation angle of the affinity transformation π 2 [rad] so that the right edge can be detected, return to step 2 16 and if it is the right edge, go to step 2 2 Proceed to 1.
ステップ 2 2 1 では、 圧延材のエッジの端点を検出するために、 ステ ップ 2 1 6からステップ 2 2 0で求めた 2つのエツジの直線の交点を求 める。  In step 221, the intersection of the straight lines of the two edges obtained in step 220 from step 216 is determined in order to detect the end point of the edge of the rolled material.
ステップ 2 2 2では、 制御部 1 0 8において圧延材の位置ずれを検出 する。  In step 222, the control unit 108 detects the displacement of the rolled material.
第 7図は、 圧延材の位置ずれの検出方法を示す図である。 画面 7 0 0 では、 圧延材 7 0 1 の端点 7 1 0の軌跡 7 2 0が描かれている。 点 71 1 と点 7 1 2と点 7 1 3 と点 7 1 4 と点 7 1 5は、 本システムで検出した 端点の位置を画面 7 0 0にブロッ トしたものである。 ユーザは、 圧延材 FIG. 7 is a diagram showing a method for detecting a displacement of a rolled material. On the screen 700, a trajectory 720 of an end point 70 of the rolled material 701 is drawn. The points 711, 712, 713, 713, 714, and 715 are the locations of the end points detected by this system, which are blocked on the screen 700. User can use rolled material
7 0 1の端点の正しい軌道を示すガイ ドライン 7 3 0を予め設定できる < また、 ユーザは圧延材の板幅の種類に応じてガイ ドラインを設定できる, 例えば、 板幅が 4 7 0 mm, 5 6 O mni, 6 4 0 mmの 3種類の圧延材がプラ ン卜に流れる場合、 ユーザはそれぞれ板幅の種類に応じて 3種類のガイ ドラインを指定する。 A guide line 730 indicating the correct trajectory of the end point of 70 1 can be set in advance <Also, the user can set a guide line according to the type of sheet width of the rolled material, For example, if three types of rolled material with a plate width of 470 mm, 56 Omni and 640 mm flow through the plant, the user specifies three types of guide lines according to the type of plate width. I do.
そして、 ガイ ドライン 7 3 0と圧延材の端点 7 1 0との距離が予め設 定したしきい値を越えた場合、 圧延材の先端部の位置がずれているもの と判断しステップ 2 2 4に進み、 またしきい値を越えない場合には、 圧 延材の先端部の位置が正しいと判断しステツプ 2 2 3に進む。  If the distance between the guide line 730 and the end point 710 of the rolled material exceeds a preset threshold value, it is determined that the position of the leading end of the rolled material is deviated and step 2 2 4 If the threshold value is not exceeded, it is determined that the position of the leading end of the rolled material is correct, and the process proceeds to step 223.
ステップ 2 2 3では、 画像認識部 1 0 7において、 圧延材の先端部分 が画面の下端部を越えたかどうかを判別し、 先端部分が画像下端部を越 えた場合にはステップ 2 2 5に進み、 越えていない場合には、 ステップ 2 0 4に戻り、 再び圧延材の端点の位置の検出を行う。  In step 222, the image recognition unit 107 determines whether the leading end of the rolled material has passed the lower end of the screen.If the leading end has passed the lower end of the image, the process proceeds to step 225. If not, the flow returns to step 204 to detect the position of the end point of the rolled material again.
ステップ 2 2 4では、 謇報発令部 1 1 0において、 圧延材の位置ずれ をユーザに知らせ、 ステップ 2 2 5に進む。  In step 224, the newsletter 110 notifies the user of the displacement of the rolled material, and proceeds to step 225.
ステップ 2 2 5では本システムの終了処理を行う。  In step 225, the system is terminated.
実施例 2 Example 2
第 8図に示すシステム構成を用いて本発明の第 2の実施例を説明する < 本実施例は、 圧延材先端部の位置ずれの検出をパターンマツチングを 用いて行う例である。  A second embodiment of the present invention will be described with reference to the system configuration shown in FIG. 8. <This embodiment is an example in which the positional deviation of the leading end of a rolled material is detected using pattern matching.
本システムは、 I T Vカメラ 1 0 1 と, 画像取り込み部 1 0 2と, プ ラントの制御情報 (ロールの回転速度, ロール位置, 板の種類) を取り 込む制御情報取得部 8 0 1 と, 制御情報取得部 8 0 1において取り込ん だプラン卜の制御情報を用いて、 圧延材の位置, 圧延材の輝度, 可視な 部分など画像処理対象の状態を推定する状態推定部 8 0 2と, 状態推定 部 8 0 2で推定された圧延材の位置および可視な部分から画像処理する 領域を設定し、 制御情報取得部 8 0 1において取り込んだ板の種類情報 を用いて、 2値化のしきい値を設定し、 制御情報取得部 8 0 1 において 取り込んだロールの位置情報を用いて圧延材の端点検出をするためのパ ターンマッチングのテンプレー トを設定する画像処理条件設定部 8 0 3 と, 取り込んだ画像の背景除去と 2値化処理を行う画像処理部 8 0 4 と : 画像処理条件設定部 8 0 3において設定されたテンプレー 卜を用いて、 圧延材の端点をパターンマッチングする画像認識部 8 0 5 と, 画像取り 込み処理, 画像状態推定処理, 終了処理などの本システム全体の制御を 行う制御部 8 0 6 と, 画像表示部 1 0 9 と, 警報発令部 1 1 0 とからな る。 This system consists of an ITV camera 101, an image capture unit 102, a control information acquisition unit 8001, which captures plant control information (roll rotation speed, roll position, and plate type). A state estimator 8002 for estimating the state of the image processing target such as the position of the rolled material, the brightness of the rolled material, and the visible portion using the control information of the plant captured by the information acquisition unit 8001, and a state estimator. The area of image processing is set from the position of the rolled material estimated by the part 800 and the visible part, and the type information of the plate taken in by the control information acquisition part 801 The threshold value for binarization is set using the control information acquisition unit 8001, and the template for pattern matching for detecting the end point of the rolled material is set using the position information of the roll taken in by the control information acquisition unit 800. An image processing condition setting unit 803, and an image processing unit 804 that performs background removal and binarization processing of the captured image and : rolling is performed using the template set in the image processing condition setting unit 803. An image recognition unit 805 that performs pattern matching on the end points of the material, a control unit 806 that controls the entire system such as image capture processing, image state estimation processing, and termination processing, and an image display unit 109 , And the alarm issuing section 110.
第 9図は本実施例の認識対象である圧延材の挙動を示す図である。 画面 9 0 0上で、 圧延材 9 0 1 は可動ロール 9 0 2とロール 9 0 3の 間をプラン 卜の奥 (画面中央部) からプラン 卜の手前方向 (画面下部) に向かって進む。 可動ロール 9 0 2は上下に動き、 圧延材 9 0 1 は、 可 動ロール 9 0 2の真下を通過すると可動ロール 9 0 2 とロール 9 0 3の 間に挟まれる。 圧延材 9 0 1 は、 可動ロール 9 0 2に挟まれていないと き、 先端部エッジ 9 0 4 を画面に向けて、 画面正面方向に進む。 そして, 圧延材 9 0 1 は、 可動ロール 9 0 2 とロール 9 0 3に挟まれたとき、 圧 延材表面を画面に向けて、 ロール 9 0 3に巻き込まれるように画面下方 に向かって進んでいく。 圧延材 9 0 1 は、 ロールに挟まれていないとき には、 圧延材のエッジ 9 0 4の輝度が大きく、 また、 ロールに挟まれて いるときには、 画面 9 5 0上の圧延材の表面 9 5 1の輝度が大きいもの とする。  FIG. 9 is a diagram showing the behavior of a rolled material to be recognized in the present embodiment. On the screen 900, the rolled material 900 advances from the back of the plant (center of the screen) toward the front of the plant (bottom of the screen) between the movable rolls 902 and 903. The movable roll 902 moves up and down, and the rolled material 901 is sandwiched between the movable roll 902 and the roll 903 when passing directly below the movable roll 902. When the rolled material 901 is not sandwiched by the movable roll 902, the rolled material 901 advances in the front direction of the screen with the leading edge 904 facing the screen. Then, when the rolled material 90 1 is sandwiched between the movable rolls 90 2 and the rolls 90 3, the rolled material 90 1 advances toward the screen with the surface of the rolled material facing the screen, and moves down the screen so as to be rolled up by the rolls 90 3. Go out. When the rolled material 901 is not sandwiched between the rolls, the brightness of the edge 904 of the rolled material is large, and when the rolled material 901 is sandwiched between the rolls, the surface 9 5. Assume that the brightness of 1 is large.
次に本実施例の動作例について説明する。 第 1 0図 ( a ) , ( b ) は本 実施例のフローチヤ一卜である。  Next, an operation example of the present embodiment will be described. FIGS. 10 (a) and (b) are flowcharts of the present embodiment.
はじめにステップ 1 0 0 2では、 制御情報取得部 8 0 1 において、 口 —ルの回転速度情報を取り込む。 First, in step 1002, the control information acquisition section 8001 —Acquires the rotation speed information of the
ステップ 1 0 0 3では、 画像取り込み部 1 0 2において、 画像を取り 込む。  In step 1003, the image is taken in the image taking section 102.
ステップ 1 0 0 4では画像取り込み部 1 0 2において、 ステップ 1002 で取り込んだプラン卜画像の中に圧延材が進入したか否かを、 1つ前の フレームの画像との差分をとることで判別する。  In step 104, the image capturing unit 102 determines whether or not the rolled material has entered the plant image captured in step 1002 by taking a difference from the image of the immediately preceding frame. I do.
ステップ 1 0 0 5では、 制御情報取得部 8 0 1 において制御情報であ るロールの位置、 およびロールの回転速度、 および板の種類をプラン卜 から取り込む。  In step 1005, the control information acquisition unit 801 fetches the roll position, roll rotation speed, and plate type, which are control information, from the plant.
ステップ 1 0 0 6では、 I T Vカメラ 1 0 1 で撮影したプラン卜画像 を画像取り込み部 1 0 2において取り込み、 取リ込んだ画像を画像表示 部 1 0 9に表示する。  In step 106, the plant image captured by the ITV camera 101 is captured by the image capturing unit 102, and the captured image is displayed on the image display unit 109.
ステップ 1 0 0 7では、 制御部 8 0 6において、 制御情報取得部 801 において取り込んだ可動ロールの位置情報から、 圧延材がロールに挟ま れているか否かを判別する。  In step 107, the control unit 806 determines whether or not the rolled material is sandwiched between the rolls based on the position information of the movable roll captured by the control information acquisition unit 801.
ここでは、 可動ロールが最上位置から下方に 0 . 9 m 以上移動したと き圧延材に挟まれたものと判断する。 そして、 制御部 8 0 6では、 圧延 材がロールに挟まれている場合にはステツプ 1 0 1 1 に処理を進行させ. 挟まれていない場合には、 ステップ 1 0 0 8に処理を進行させる。  Here, when the movable roll moves 0.9 m or more downward from the uppermost position, it is determined that the movable roll has been caught by the rolled material. Then, in the control unit 806, if the rolled material is sandwiched between the rolls, the process proceeds to step 1101. If not, the process proceeds to step 1008. .
圧延材 9 0 1がロールに挟まれる前は、 ロール 9 0 3の上方に圧延材 9 0 1があるので、 可動ロール 9 0 2とローソレ 9 0 3の間に画像処理領 域 9 1 0を設ける。 そして、 圧延材 9 0 1がロールに挟まれた後は、 口 —ル 9 0 3部分に圧延材 9 0 1があるので、 ロール 9 0 3部分に画像処 理領域 9 6 0を設ける。  Before the rolled material 901 is sandwiched between the rolls, since the rolled material 901 is located above the roll 903, the image processing area 910 is located between the movable roll 902 and the roll sole 903. Provide. Then, after the rolled material 901 is sandwiched between the rolls, since the rolled material 901 is present at the portal 903, an image processing area 960 is provided at the roll 903.
また、 圧延材がロールに挟まれる前は圧延材の先端エツジ部分の輝度 が大きく、 圧延材がロールに挟まれた後は圧延材の表面部分の輝度が大 きくなるので、 ロールに挟まれる前は先端部エツジ検出用のテンプレー トを設定し、 挟まれた後は表面部検出用のテンプレー 卜を設定する。 ステップ 1 0 0 8からステップ 1 0 1 ◦では、 圧延材がロールに挟ま れていない場合の処理を行い、 ステップ 1 0 1 1 からステップ 1 ◦ 1 2 では、 圧延材がロールに挟まれている場合の処理を行う。 Before the rolled material is sandwiched between rolls, the brightness of the edge of the rolled material After the rolled material is sandwiched between the rolls, the brightness of the surface of the rolled material increases, so a template for detecting the edge at the tip is set before the rolled material is sandwiched, and the surface is Set a template for part detection. In steps 1008 to 1101, the processing is performed when the rolled material is not sandwiched between the rolls.In steps 101 to 1, the rolled material is sandwiched between the rolls. Perform the processing for the case.
ステップ 1 0 0 8では、 画像処理条件設定部 8 0 3において、 可動口 ール 9 0 2 とロール 9 0 3の間に画像処理領域 9 1 0 (以下、 上部画像 処理領域という) を設ける。  In step 1008, an image processing area 910 (hereinafter, referred to as an upper image processing area) is provided in the image processing condition setting unit 803 between the movable door 902 and the roll 903.
ステップ 1 0 0 9では、 画像処理条件設定部 8 0 3において、 圧延材 先端部エツジをパターンマッチンングするための圧延材の先端部エツジ 検出用のテンプレー 卜を設定する。  At step 109, the image processing condition setting unit 803 sets a template for detecting the edge of the rolled material for pattern matching of the edge of the rolled material.
ステップ 1 0 1 0では、 画像処理条件設定部 8 0 3において、 可動口 ールによって圧延材の隠れる部分を推定し、 その隠れている部分が上部 画像処理領域内に入らないように領域の大きさを変更する。  In step 110, the image processing condition setting section 803 estimates a portion where the rolled material is hidden by the movable mallet, and determines the size of the area so that the hidden part does not enter the upper image processing area. To change.
ステップ 1 0 1 1 では、 画像処理条件設定部 8 0 3において、 ロール 9 0 3部分に画像処理領域 9 6 0 (以下、 下部画像処理領域という) を 設ける。  In step 101, the image processing condition setting unit 803 sets an image processing area 960 (hereinafter referred to as a lower image processing area) in the roll 903.
ステップ 1 0 1 2では、 画像処理条件設定部 8 0 3において、 圧延材 表面部をパターンマッチンングするための圧延材の表面部検出用のテン プレー 卜を設定する。  In step 1102, the image processing condition setting unit 803 sets a template for detecting the surface portion of the rolled material for performing pattern matching on the surface portion of the rolled material.
ステップ 1 0 1 3では、 画像取り込み部 1 0 2において、 画像処理条 件設定部 8 0 3で設定された画像処理領域を切り出す。  In step 101, in the image capturing unit 102, the image processing area set by the image processing condition setting unit 803 is cut out.
ステップ 1 0 1 4では、 画像処理領域の画像から背景を除去する。 ステップ 1 0 1 5では、 画像処理条件設定部 8 0 3において、 制御情 報取得部 8 0 1で取り込んだ板の種類情報から、 2値化処理のしきい値 を設定する。 In step 104, the background is removed from the image in the image processing area. In step 1 0 15, the image processing condition setting section 8 03 The threshold value of the binarization processing is set from the type information of the plate taken in by the information acquisition unit 8001.
ここで、 2値化のしきい値の設定方法について説明する。  Here, a method of setting a threshold value for binarization will be described.
板の輝度は、 その種類によって異なる。 そこで、 板の種類によって 2 値化処理のしきい値を変更する。 例えば、 本実施例の圧延プラントでは, 鉄板, 銅板, アルミ板が搬送される。 板の輝度は、 アルミ板が最も大き く、 銅板がその次に大きく、 鉄板が最も小さい。 ここでは、 取り込んだ 画像から異なる種類の板を抽出するために、 板の輝度の上限値と下限値 を設定し、 上限と下限の間にある値を 1 としそれ以外を全て 0として 2 値化処理を行う。 こうすることで、 画像から異なる種類の板を抽出する ことができる。 ここでは、 2値化処理のしきい値をそれぞれ、 アルミ板 の場合、 下限値 3 0, 上限値 4 0とし、 銅板の場合、 下限値 2 2 , 上限 値 3 2とし、 鉄板の場合、 下限値 1 5, 上限値 2 5とする。  The brightness of the board depends on the type. Therefore, the threshold value of the binarization process is changed according to the type of plate. For example, in the rolling plant of this embodiment, iron plates, copper plates, and aluminum plates are transported. Aluminum plate has the highest brightness, copper plate has the next highest brightness, and iron plate has the lowest brightness. Here, in order to extract different types of boards from the captured image, the upper and lower limits of the board brightness are set, the value between the upper and lower limits is set to 1, and all other values are set to 0 and binarized. Perform processing. In this way, different types of boards can be extracted from the image. Here, the threshold values of the binarization process are set to lower limit 30 and upper limit 40 for aluminum plate, lower limit 2 2 and upper limit 32 for copper plate, and lower limit for iron plate. The value is 15 and the upper limit is 25.
本実施例の圧延プラントでは、 鉄板が搬送されているので、 2値化処 理のしきい値を下限値 1 5, 上限値 2 5とする。  In the rolling plant of the present embodiment, since the iron plate is transported, the threshold values of the binarization processing are set to the lower limit value 15 and the upper limit value 25.
なお、 しきい値は輝度を表し、 輝度は 2 5 6階調である。  The threshold value indicates luminance, and the luminance is 256 gradations.
ステツブ 1 0 1 6では、 画像処理部 8 0 4において、 画像処理領域の 画像を画像処理条件設定部 8 0 3で設定したしきい値を用いて 2値化処 理し、 圧延材を抽出する。  In step 106, the image processing section 804 binarizes the image in the image processing area using the threshold value set in the image processing condition setting section 803, and extracts the rolled material. .
ステップ 1 0 1 7では、 画像認識部 8 0 5において、 画像処理条件設 定部 8 0 3で設定されたテンプレー卜を用いて、 パターンマッチングを 行い、 マッチングした位置から圧延材の端点を検出する。  In step 107, the image recognition unit 805 performs pattern matching using the template set in the image processing condition setting unit 803, and detects the end point of the rolled material from the matched position. .
ここで、 圧延材の端点の検出方法について説明する。  Here, a method of detecting the end point of the rolled material will be described.
第 1 1図は、 パターンマッチングを用いて圧延材の端点の位髭の検出 方法を示す図である。 2値化処理された後の上部画像処理領域 9 1 0の画像 1 1 0 0は圧延 材のエツジ 9 04が抽出されていて、 2値化処理された後の下部画像処 理領域 9 6 0の画像 1 1 5 0は圧延材の表面 9 5 1 が抽出されている。 上部画像処理領域 9 1 0では、 2値化処理後の画像 1 1 0 0とステップ 1 0 0 9で選択された先端エツジ検出用テンプレー 卜 1 1 1 0とをバタ ーンマッチングさせる。 下部画像処理領域 9 6 0では、 2値化処理後の 画像 1 1 5 0とステップ 1 0 1 2で選択された表面部検出用テンプレー ト 1 1 6 0とをパターンマッチングさせる。 FIG. 11 is a diagram showing a method for detecting a beard at an end point of a rolled material using pattern matching. The image 110 of the upper image processing area 910 after the binarization processing has the edge 904 of the rolled material extracted, and the lower image processing area 960 after the binarization processing has been extracted. In the image 1150, the surface 951 of the rolled material is extracted. In the upper image processing area 9110, pattern matching is performed between the image 1100 after binarization processing and the tip edge detection template 1110 selected in step 1109. In the lower image processing area 960, the image 1150 after binarization processing is subjected to pattern matching with the surface detection template 1160 selected in step 1102.
画面 9 0 0において、 画面上端 1 1 2 1 を X軸とし右方向を正とし、 画面左端 1 1 2 2を y軸とし下方向を正とし、 左上端 1 1 2 0を原点と するように座標系をとる。 そして、 画面 9 5 0において、 画面上端 1171 を X軸とし右方向を正とし、 画面左端 1 1 7 2 を y軸とし下方向を正と し、 左上端 1 1 7 0を原点とするように座標系をとる。  On screen 900, the upper end of the screen is set to the positive direction with the upper end of the screen as the X axis, the left end of the screen as the y axis, the lower direction is set as the positive direction, and the upper left end of the screen is set as the origin. Take a coordinate system. Then, on the screen 950, the upper end 1171 of the screen is set as the X axis, the right direction is set to the positive direction, the left end 1172 of the screen is set as the y axis, the lower direction is set as the positive direction, and the upper left end 1170 is set as the origin. Take a coordinate system.
また、 先端エッジ検出用テンプレー 卜 1 1 1 0の位置をテンブレー 卜 1 1 1 0内の圧延材の端点の位置 (x l, y l ) ( 1 1 1 1 ) とし、 表 面検出用テンプレー ト 1 1 6 0の位置をテンプレー ト 1 1 6 0内の圧延 材の端点部分の位置 (x 2, y 2 ) ( 1 1 6 1 ) とする。  Further, the position of the leading edge detection template 111 is defined as the end point position (xl, yl) (111) of the rolled material in the template 111, and the surface detection template 111 is used. The position 60 is the position (x2, y2) (1161) of the end point of the rolled material in the template 1160.
こうすることで、 パターンマッチングしたテンプレー 卜の位置から、 圧延材の端点の位置がわかる。  By doing so, the position of the end point of the rolled material can be determined from the position of the template subjected to pattern matching.
ステップ 1 0 1 8では、 画像認識部 8 0 5において圧延材の位置ずれ を検出する。 ここでは、 圧延材の位置ずれ検出を圧延材の端点と予め設 定したガイ ドラインとの距離を計算し、 その距離が予め設定したしきい 値を越えるか否かによって行う。  In step 11018, the image recognition unit 805 detects a displacement of the rolled material. Here, the displacement of the rolled material is detected by calculating the distance between the end point of the rolled material and a preset guide line, and determining whether the distance exceeds a preset threshold value.
そして、 制御部 8 0 6において、 圧延材の先端部の位置がずれている 場合、 ステップ 1 0 2 0に処理を進行させ、 圧延材の先端部の位置がず れていない場合、 ステップ 1 0 1 9に処理を進行させる。 When the position of the leading end of the rolled material is shifted in the control unit 806, the process proceeds to step 120, where the position of the leading end of the rolled material is not shifted. If not, the process proceeds to step 109.
ステップ 1 0 1 9では、 制御部 8 0 6において、 圧延材の先端部分が 画面の下端部を越えたかどうかを判別し、 先端部分が画像下端部を越え た場合にはステツプ 1 0 2 1 に進み、 越えていない場合には、 ステップ In step 109, the control unit 806 determines whether or not the leading end of the rolled material has passed the lower end of the screen, and if the leading end has exceeded the lower end of the image, proceeds to step 1021. Proceed and if not, step
1 0 0 5に戻り、 再び圧延材の端点の位置の検出を行う。 Returning to the step 105, the position of the end point of the rolled material is detected again.
ステップ 1 0 2 0では、 警報発令部 1 1 0において、 圧延材の位置ず れをユーザに知らせる。 そして、 圧延材を正常な位置に復帰させるよう に、 画面表示部 1 0 9に操作手順を表示する。  In step 1020, the alarm issuing unit 110 notifies the user of the displacement of the rolled material. Then, an operation procedure is displayed on the screen display section 109 so as to return the rolled material to a normal position.
ステップ 1 0 2 1では、 本システムの終了処理を行う。  In step 1021, the end processing of the present system is performed.
以上のように構成した画像処理システムによれば、 以下のような効果 がある。  The image processing system configured as described above has the following effects.
( 1 ) プラント機器から取得した制御情報を用いて、 対象物の輝度, 彩 度, 色相, 可視な部分、 および背景の変化を知ることにより、 認識対象 および背景の状態に応じた画像認識処理をすることができるので、 認識 の精度がよくなリ、 認識処理が簡単化できる。  (1) Using control information obtained from plant equipment to know the brightness, saturation, hue, visible part, and background change of an object, image recognition processing according to the recognition target and the state of the background can be performed. Since the recognition accuracy is high, the recognition process can be simplified.
( 2 ) ロールの位置情報を取り込み、 該情報に基づき、 ロールが画像処 理する領域に入らないように該領域の位置, 大きさを設定することによ り、 ロールの動きに関係なく、 圧延材の蛇行検出ができる。 産業上の利用可能性  (2) Roll position information is acquired, and based on the information, the position and size of the area are set so that the roll does not enter the image processing area. The meandering of the material can be detected. Industrial applicability
以上のように、 本発明にかかる画像処理システムは、 プラン卜機器等 から取得した制御情報を用いて画像処理条件を決定するので、 認識の精 度向上, 認識処理の簡単化に有用である。  As described above, the image processing system according to the present invention determines image processing conditions using control information acquired from a plant device or the like, and is useful for improving recognition accuracy and simplifying recognition processing.

Claims

1 . 制御情報によって動きを制御される機器に係わる画像を取り込んで. 該画像について画像処理を行う画像処理システムにおいて、 前記制御情 報を取り込む制御情報取得手段と、 前記手段で取り込んだ前記制御情報 に基づいて前記画像処理に係わる設定条件を決める画像処理条件設定手 段とを有することを特徴とする画像処理システム。 1. An image processing system that performs image processing on the image by capturing an image related to a device whose movement is controlled by control information. A control information acquisition unit that captures the control information, and the control information that is captured by the unit. An image processing condition setting means for determining setting conditions relating to the image processing based on the image processing system.
2 . 請求項 1 の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて画像処理フィルタの内容を設定することを 特徴とする画像処理システム。  2. The image processing system according to claim 1, wherein the image processing condition setting means sets the contents of an image processing filter based on the control information.
3 . 請求項 2の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて前記画像処理フィルタのマ 卜 リ ックスのパ ラメ一タを設定することを特徴とする画像処理システム。  3. The image processing system according to claim 2, wherein the image processing condition setting means sets a parameter of a matrix of the image processing filter based on the control information. .
4 . 請求項 1 の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて画像の 2値化処理における 2値化のしきい 値を設定することを特徴とする画像処理システム。  4. The image processing system according to claim 1, wherein the image processing condition setting means sets a binarization threshold in an image binarization process based on the control information. .
5 . 請求項 1 の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて背景除去のときに参照する背景画像の内容 を設定することを特徴とする画像処理システム。  5. The image processing system according to claim 1, wherein the image processing condition setting means sets the content of a background image to be referred to at the time of background removal based on the control information.
6 . 請求項 1 の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて認識する対象を設定することを特徴とする 画像処理システム。  6. The image processing system according to claim 1, wherein the image processing condition setting means sets a recognition target based on the control information.
7 . 請求項 6の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて認識対象をパターンマッチングするときの テンプレー 卜を設定することを特徴とする画像処理システム。  7. The image processing system according to claim 6, wherein the image processing condition setting means sets a template for pattern matching of a recognition target based on the control information.
8 . 請求項 1の画像処理システムにおいて、 前記画像処理条件設定手段 は、 前記制御情報に基づいて画像処理する領域の位置, 大きさ, 形状の うちの少なく とも一つを設定することを特徴とする画像処理システム。 9 . 請求項 1の画像処理システムにおいて、 状態推測手段を更に備え、 該状態推測手段は、 前記制御情報に基づいて認識対象の状態を推測する ことを特徴とする画像処理システム。 8. The image processing system according to claim 1, wherein the image processing condition setting means is provided. The image processing system according to claim 1, wherein at least one of a position, a size, and a shape of an area to be image-processed is set based on the control information. 9. The image processing system according to claim 1, further comprising a state estimating unit, wherein the state estimating unit estimates a state of a recognition target based on the control information.
1 0 . 請求項 9の画像処理システムにおいて、 前記状態推測手段は、 前 記制御情報に基づいて認識対象の明度, 彩度, 色相のうち少なく とも一 つを推測することを特徴とする画像処理システム。  10. The image processing system according to claim 9, wherein the state estimating unit estimates at least one of brightness, saturation, and hue of the recognition target based on the control information. system.
1 1 . 請求項 9の画像処理システムにおいて、 前記状態推測手段は、 前 記制御情報に基づいて認識対象の位置, 速度のうち少なく とも一つを推 測することを特徴とする画像処理システム。  11. The image processing system according to claim 9, wherein the state estimating unit estimates at least one of a position and a speed of the recognition target based on the control information.
1 2 . 請求項 9の画像処理システムにおいて、 前記状態推測手段は、 前 記制御情報に基づいて認識対象の形状, 大きさのうち少なく とも一つを 推測することを特徴とする画像処理システム。  12. The image processing system according to claim 9, wherein the state estimating unit estimates at least one of a shape and a size of the recognition target based on the control information.
1 3 . 制御情報によって動きを制御される機器に係わる画像を取り込ん で、 該画像について画像処理を行う画像処理方法において、 前記制御情 報を取り込む制御情報取得ステップと、 前記ステツブで取リ込んだ前記 制御情報に基づいて前記画像処理に係わる設定条件を決める画像処理条 件設定ステップとを包含することを特徴とする画像処理方法。  13. An image processing method for capturing an image related to a device whose movement is controlled by control information and performing image processing on the image, the control information acquiring step of capturing the control information, and the step of capturing the control information. An image processing condition setting step of determining a setting condition for the image processing based on the control information.
1 4 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて画像処理フィルタの内容を設定するこ とを特徴とする画像処理方法。  14. The image processing method according to claim 13, wherein the image processing condition setting step sets contents of an image processing filter based on the control information.
1 5 . 請求項 1 4の画像処理方法において、 前記画像処理条件設定ステ ッブは、 前記制御情報に基づいて前記画像処理フィルタのマ卜リックス のパラメータを設定することを特徴とする画像処理方法。 15. The image processing method according to claim 14, wherein the image processing condition setting step sets a matrix parameter of the image processing filter based on the control information. .
1 6 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて画像の 2値化処理における 2値化のし きい値を設定することを特徴とする画像処理方法。 16. The image processing method according to claim 13, wherein the image processing condition setting step sets a binarization threshold value in an image binarization process based on the control information. Image processing method.
1 7 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて背景除去のときに参照する背景画像の 内容を設定することを特徴とする画像処理方法。  17. The image processing method according to claim 13, wherein the image processing condition setting step sets the content of a background image to be referred to at the time of background removal based on the control information. Method.
1 8 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて認識する対象を設定することを特徴と する画像処理方法。  18. The image processing method according to claim 13, wherein the image processing condition setting step sets an object to be recognized based on the control information.
1 9 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて認識対象をパターンマッチングすると きのテンプレー 卜を設定することを特徴とする画像処理方法。  19. The image processing method according to claim 13, wherein the image processing condition setting step sets a template for pattern matching of a recognition target based on the control information. .
2 0 . 請求項 1 3の画像処理方法において、 前記画像処理条件設定ステ ップは、 前記制御情報に基づいて画像処理する領域の位置, 大きさ, 形 状のうちの少なく とも一つを設定することを特徴とする画像処理方法。 2 1 . 認識画像をァフィ ン変換し、 ァフィ ン変換後の任意の軸に投影さ れる濃度分布によって画像内の直線成分を認識することを特徴とする画 像処理方法。 20. The image processing method according to claim 13, wherein the image processing condition setting step sets at least one of a position, a size, and a shape of an area to be image-processed based on the control information. An image processing method comprising: 2 1. An image processing method characterized by affinity-converting a recognized image and recognizing a linear component in the image based on a density distribution projected on an arbitrary axis after the affinity conversion.
2 2 . 制御情報によって動きを制御される圧延ロールによって圧延され る圧延材の画像を取り込んで、 該画像について画像処理を行い圧延材の 蛇行を検出する圧延材の蛇行検出システムにおいて、 前記制御情報を取 り込む制御情報取得手段と、 前記手段で取リ込んだ前記制御情報に基づ いて前記画像処理に係わる設定条件を決める画像処理条件設定手段とを 有することを特徴とする圧延材の蛇行検出システム。  22. In a rolling material meandering detection system that captures an image of a rolled material rolled by a rolling roll whose movement is controlled by control information and performs image processing on the image to detect the meandering of the rolled material, A control information acquiring unit for acquiring setting information, and an image processing condition setting unit for determining a setting condition relating to the image processing based on the control information acquired by the unit. Detection system.
2 3 . 請求項 2 2の蛇行検出システムにおいて、 前記制御情報取得手段 において前記ロールの位置情報を取り込み、 前記画像処理条件設定手段 において前記ロールの位置情報に基づき、 前記ロールが画像処理する領 域に入らないように領域の位置, 大きさ, 形状のうちの少なく とも一つ を設定することを特徴とする蛇行検出システム。 23. The meandering detection system according to claim 22, wherein the control information obtaining means is provided. The position information of the roll is fetched in the image processing condition setting means. Based on the position information of the roll, at least one of the position, size, and shape of the area is set so that the roll does not enter the area where the image processing is performed. A meandering detection system characterized by setting one.
2 4 . 請求項 2 2の蛇行検出システムにおいて、 更に状態推定手段を有 し、 前記制御情報取得手段において前記ロールの回転速度情報を取り込 み、 前記状態推定手段において前記ロールの回転速度情報に基づき、 取 り込んだ画像中での圧延材の位置を推定することを特徴とする蛇行検出 システム。  24. The meandering detection system according to claim 22, further comprising state estimating means, wherein the control information acquiring means fetches the rotation speed information of the roll, and the state estimating means stores the rotation speed information of the roll in the rotation speed information. A meandering detection system that estimates the position of a rolled material in a captured image based on the information.
2 5 . 請求項 2 4の画像処理システムにおいて、 前記状態推定手段にお いて推定した圧延材の位置情報に基づき、 圧延材の認識したい部分が画 像処理する領域内に入るように、 領域の位置, 大きさ, 形状のうち少な く とも一つを設定することを特徴とする蛇行検出システム。  25. The image processing system according to claim 24, wherein, based on the position information of the rolled material estimated by the state estimating means, the region to be recognized of the rolled material falls within the region to be image-processed. A meandering detection system characterized by setting at least one of a position, a size, and a shape.
2 6 . 請求項 2 2の画像処理システムにおいて、 前記制御情報取得手段 において圧延材の板幅情報を取り込み、 圧延材の板幅情報に基づき、 前 記画像処理条件設定手段において、 圧延材が正常に搬送されるときの軌 道と実際に搬送する軌道との位置ずれを測定するためのガイ ドラインを 設定することを特徴とする蛇行検出システム。 26. The image processing system according to claim 22, wherein the control information acquisition means captures the width information of the rolled material, and the image processing condition setting means determines that the rolled material is normal based on the width information of the rolled material. A meandering detection system characterized by setting a guide line for measuring a positional deviation between a track when a sheet is conveyed and a track actually conveyed.
PCT/JP1995/000591 1995-03-29 1995-03-29 Image processing system and image processing method WO1996030870A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP1995/000591 WO1996030870A1 (en) 1995-03-29 1995-03-29 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1995/000591 WO1996030870A1 (en) 1995-03-29 1995-03-29 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
WO1996030870A1 true WO1996030870A1 (en) 1996-10-03

Family

ID=14125814

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/000591 WO1996030870A1 (en) 1995-03-29 1995-03-29 Image processing system and image processing method

Country Status (1)

Country Link
WO (1) WO1996030870A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6162186A (en) * 1984-09-01 1986-03-31 Sumitomo Electric Ind Ltd Musical score reader
JPS62200486A (en) * 1986-02-28 1987-09-04 Toshiba Corp Character reader
JPH02194305A (en) * 1989-01-24 1990-07-31 Kawasaki Steel Corp Two-dimensional shape measuring instrument for light emission body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6162186A (en) * 1984-09-01 1986-03-31 Sumitomo Electric Ind Ltd Musical score reader
JPS62200486A (en) * 1986-02-28 1987-09-04 Toshiba Corp Character reader
JPH02194305A (en) * 1989-01-24 1990-07-31 Kawasaki Steel Corp Two-dimensional shape measuring instrument for light emission body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method

Similar Documents

Publication Publication Date Title
US8848978B2 (en) Fast obstacle detection
JP4516516B2 (en) Person detection device, person detection method, and person detection program
US6842531B2 (en) Vehicle area detecting apparatus and vehicle area determining method
WO2001084844A1 (en) System for tracking and monitoring multiple moving objects
JPH11252587A (en) Object tracking device
CN108921813A (en) Unmanned aerial vehicle detection bridge structure crack identification method based on machine vision
CN110751669A (en) Novel CBOCP online infrared converter tapping steel flow automatic detection and tracking method and system
JP2002228423A (en) Tire detecting method and device
CN108492306A (en) A kind of X-type Angular Point Extracting Method based on image outline
CN111753650A (en) Camera rotation control method for automatically tracking human face
JPH11195127A (en) Method for recognizing white line and device therefor
CN106530292B (en) A kind of steel strip surface defect image Fast Identification Method based on line scan camera
JP2829934B2 (en) Mobile vehicle environment recognition device
WO1996030870A1 (en) Image processing system and image processing method
JP3453952B2 (en) Traffic flow measurement device
JPH10124676A (en) Method for tracing shape and device therefor
JP2962799B2 (en) Roadside detection device for mobile vehicles
JP2000048183A (en) Traveling lane recognizing device
CN112837285B (en) Edge detection method and device for panel image
CN114581447A (en) Conveying belt deviation identification method and device based on machine vision
CN115255565A (en) Global pattern recognition based narrow gap welding notch edge vision sensing detection method and application
JP3230509B2 (en) Moving image processing device
JP2995813B2 (en) Traffic flow speed measurement method
Zhang et al. A new method for pedestrian counting
CN117412180B (en) Welding machine based on multi-camera linkage target monitoring and target monitoring method

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN FI JP KR NO US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: CA