WO2024004478A1 - 板部材位置検出装置、板部材運搬方法及び板部材の製造方法 - Google Patents

板部材位置検出装置、板部材運搬方法及び板部材の製造方法 Download PDF

Info

Publication number
WO2024004478A1
WO2024004478A1 PCT/JP2023/019848 JP2023019848W WO2024004478A1 WO 2024004478 A1 WO2024004478 A1 WO 2024004478A1 JP 2023019848 W JP2023019848 W JP 2023019848W WO 2024004478 A1 WO2024004478 A1 WO 2024004478A1
Authority
WO
WIPO (PCT)
Prior art keywords
plate member
uppermost
information
steel plate
image
Prior art date
Application number
PCT/JP2023/019848
Other languages
English (en)
French (fr)
Inventor
勇輝 ▲高▼木
敬弘 腰原
有介 吉成
Original Assignee
Jfeスチール株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jfeスチール株式会社 filed Critical Jfeスチール株式会社
Priority to JP2023552179A priority Critical patent/JP7473858B1/ja
Publication of WO2024004478A1 publication Critical patent/WO2024004478A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/22Control systems or devices for electric drives

Definitions

  • the present invention relates to a plate member position detection device, a plate member transport method, and a plate member manufacturing method.
  • a plate factory at a steelworks has rolling equipment that rolls bulk steel plates to the desired thickness, cutting the rolled steel plates into shipping sizes, deburring edges, cleaning surface flaws, inspecting internal flaws, etc.
  • the facility will be equipped with refining equipment for processing, and a product warehouse to store steel plates awaiting shipment. Steel plates in progress at refining equipment and steel plates waiting to be shipped at product warehouses are stored in stacks of several to ten or more sheets due to space constraints.
  • a crane lifting device
  • an electromagnetic lifting magnet as adsorption mechanism, also called a ⁇ rifmag''
  • Patent Document 1 proposes a method for obtaining the shape and center of gravity of a stack of steel plates through image processing that separates and extracts a plane image and a side image of the steel plate from an image taken by a camera from diagonally above the steel plate. .
  • Patent Document 1 is a method of detecting the step shape of stacked steel plates by image processing, dividing the stacked steel plates at the step portion, and calculating the installation position of each steel plate.
  • the upper and lower steel plates are detected as if they were integrated, and only the position of the topmost steel plate to be lifted is detected. It's difficult.
  • the present invention has been made in view of the above problems, and its purpose is to detect the position of a plate member that can accurately detect the position of the highest plate member to be lifted from among stacked plate members.
  • An object of the present invention is to provide an apparatus, a method for transporting a plate member, and a method for manufacturing a plate member.
  • a plate member position detection device detects the position of the uppermost plate member when the uppermost plate member of the stacked plate members is lifted by a lifting device.
  • an image acquisition unit that acquires an image of the stacked plate members including the entire uppermost plate member, and template information of the uppermost plate member created in advance and the image.
  • a calculation unit that detects the position of the uppermost plate member by comparing the above.
  • the uppermost plate member of the stacked plate members is sucked and lifted by a suction mechanism of a lifting device, and the uppermost plate member is handled and transported.
  • the method for transporting plate members includes the steps of: acquiring an image of the stacked plate members including the entire uppermost plate member by an image acquisition unit; and template information of the uppermost plate member created in advance and the image. Detecting the position of the uppermost plate member by comparing the position of the uppermost plate member; and after positioning the suction mechanism based on the detected position of the uppermost plate member, the suction mechanism detects the position of the uppermost plate member.
  • the present invention is summarized as follows: adsorbing a plate member, and lifting the uppermost plate member by the lifting device to carry out cargo handling and transportation.
  • the method for manufacturing a plate member includes a step of lifting the uppermost plate member and carrying out cargo handling based on the position of the uppermost plate member detected by the plate member position detection device.
  • the gist is to include the following.
  • the plate member position detection device the plate member transport method, and the plate member manufacturing method of the present invention, it is possible to accurately detect the position of the uppermost plate member to be lifted from among the stacked plate members. .
  • FIG. 1 is a schematic configuration diagram of a crane to which an embodiment of a plate member position detection device, a plate member transport method, and a plate member manufacturing method of the present invention is applied.
  • 2 is a block diagram of a system installed in the crane of FIG. 1.
  • FIG. FIG. 3 is a block diagram of a calculation unit in FIG. 2;
  • FIG. 4 is an explanatory diagram of the content of arithmetic processing performed in the plate member peripheral edge detection section of FIG. 3; 4 is an explanatory diagram of template information created by the plate member template information creation section of FIG. 3.
  • FIG. FIG. 6 is an explanatory diagram of a method for creating template information in FIG. 5;
  • FIG. 4 is an explanatory diagram of the content of calculation processing performed by the plate member position calculation section of FIG.
  • FIG. 4 is an explanatory diagram of the content of calculation processing performed by the plate member position calculation section of FIG. 3;
  • FIG. 4 is an explanatory diagram of a method for calculating the real space center of gravity position performed by the plate member position calculating section in FIG. 3; It is an explanatory view of the arrangement state of the plate member in an example.
  • FIG. 1 is a schematic configuration diagram of a crane (lifting device) 1 showing an embodiment of a plate member position detection device, a plate member transport method, and a plate member manufacturing method.
  • the crane 1 lifts the uppermost steel plate P among the steel plates (plate members) P stacked in a stockyard in a crane building to perform cargo handling and transportation.
  • the crane 1 of this embodiment includes an electromagnetic riffmag 2 as an adsorption mechanism, and the rifmag 2 attracts (magnetically attaches) and holds the uppermost steel plate P and lifts it.
  • an electromagnetic type rifmag 2 is desirable, but it is also possible to use a permanent magnet type riffmag or a holding mechanism such as a clamp.
  • the crane 1 of this embodiment is a so-called overhead crane, and is configured such that a trolley 51 on which a rifuger mag 2 is suspended travels on a girder 52, and the girder 52 travels on a running rail (runway) 53. There is.
  • the lifting and lowering of the lift mag 2, the traversing of the trolley 51, and the running of the girder 52 are executed by a drive unit equipped with a drive source and a drive mechanism (not shown), and each drive unit is driven by a control device 3 that controls the overall operation of the crane 1. be done.
  • a riff mag 2 as shown in FIG. 2, a riff mag (adsorption mechanism in the figure) driving section 21 is provided for driving the riff mag 2.
  • the operations of these mechanisms are stored as logic (programs) in an arithmetic processing unit provided in the control device 3, for example, a programmable logic controller, and the steel plate P is automatically operated according to instructions from a host computer (not shown). Performs cargo handling and transportation.
  • the arithmetic processing unit in the control device 3 includes an arithmetic processing unit capable of performing advanced arithmetic processing, a storage unit capable of storing programs and data, and an input/output unit that controls input/output with the outside. It is one of the computer systems. Of course, it is also configured so that the operator can operate each mechanism individually. Further, the configuration of the crane 1 is not limited to the above.
  • the position of the uppermost steel plate P among the stacked steel plates P is detected as described below, and only that steel plate P is sucked by the rifmag 2 and lifted by the crane 1.
  • the center position of the Riff Mag 2 is aligned with the detected position of the steel plate P, more specifically, the center of gravity, and the Riff Mag 2 is lowered onto the steel plate P.
  • the electromagnet is excited to attract the steel plate P. (magnetize).
  • arithmetic processing unit in the control device 3 described above, for example, a programmable logic controller, and the position of the steel plate P is calculated from the arithmetic unit 4 of the plate member position detection device (also referred to as "steel plate position detection device").
  • the (center of gravity position) is output, it is configured to be automatically executed continuously.
  • the riff mag 2 as shown in FIG. 2, it includes a riff mag (adsorption mechanism) control section 31 that controls the driving state of the riff mag (adsorption mechanism) driving section 21.
  • the calculation unit 4 that detects (calculates) the position (center of gravity) of the uppermost steel plate P among the stacked steel plates P is incorporated in the control device 3 that controls the crane 1. Therefore, this arithmetic unit 4 is also configured by an arithmetic processing unit in the control device 3, for example, an arithmetic processing performed by a programmable logic controller.
  • This calculation unit 4 constitutes the main part of a steel plate (plate member) position detection device that detects the position of the uppermost steel plate P among the stacked steel plates P. Note that, instead of being built within the control device 3 of the crane 1, the calculation unit 4 may be configured using, for example, a personal computer.
  • this steel plate position detection device acquires an image of the stacked steel plates P in the stockyard, including the entire uppermost steel plate P, in order to accurately detect the position of the uppermost steel plate P in the calculation unit 4.
  • An image acquisition section 5 is provided.
  • the steel plate position detection device includes a vertical distance detection unit 6 that detects a vertical distance (vertical distance) h between the image acquisition unit 5 and the uppermost steel plate P.
  • the image acquisition unit 5 is configured with, for example, a 4K camera (video camera), and this camera is used to capture the steel plates P from diagonally above the stockyard so that all the steel plates P stacked in the stockyard are captured and the riff mug 2 is not easily captured. was positioned so that it could be imaged.
  • the arrangement of the image acquisition unit 5 is not limited to this.
  • the vertical distance detection unit 6 is configured with, for example, a laser rangefinder, and measures the height from the same height as the camera, which is the image acquisition unit 5, to the topmost steel plate P (top surface) of the stacked steel plates P. Detected as vertical distance h.
  • other well-known distance detection means such as an ultrasonic radar or a 3D scanner can be used.
  • FIG. 3 is a block diagram of the calculation unit 4 of the steel plate position detection device, and each block indicates a function performed by calculation processing or the like. That is, each block represents a functional step in the flowchart of arithmetic processing. Details of each functional block will be described later.
  • This calculation unit 4 detects the peripheral edge of the steel plate (plate member) P from the image of the stacked steel plates P in the stockyard acquired by the image acquisition unit 5, and information ( It includes a plate member peripheral edge detection section 7 that outputs plate member information).
  • Plate member information is information on a plurality of polygons made up of a plurality of detected steel plate peripheries, and has vertex coordinates of each polygon in a coordinate system set in the image (hereinafter referred to as the coordinate system set in the image). .
  • this calculation unit 4 also obtains dimensional information of the steel plate (plate member) P that will be lifted and transported for cargo handling, as well as the orientation and position of the image acquisition unit 5 (more precisely, the relationship between the image acquisition unit 5 and the topmost steel plate P).
  • An information storage section 8 is provided that stores information on relative positions.
  • the dimensional information of the steel plate P that is about to be lifted is selected based on the steel plate information from a host computer such as a process computer.
  • the orientation and position of the image acquisition unit 5 (relative position with respect to the uppermost steel plate P) will be explained later.
  • this calculation unit 4 calculates the maximum height based on the vertical distance h between the detected highest steel plate P and the image acquisition unit 5, and the steel plate dimension information and image acquisition unit position information provided from the information storage unit 8.
  • a plate member template information creation unit 9 is provided that creates template information for the upper steel plate P. This template information indicates how the uppermost steel plate P is imaged, that is, it is polygonal information that serves as a standard for the image of the uppermost steel plate P, and the vertex coordinates of the polygon in the coordinate system set in the image. has. Then, this calculation unit 4 compares the template information provided from the plate member template information creation unit 9 with the detected plate member information, and calculates the position of the uppermost steel plate P, specifically, its center of gravity position.
  • a plate member position calculation section 10 is provided.
  • the center of gravity position of the uppermost steel plate P is output after being converted from the coordinate system set in the image to the coordinate system in real space so that the rifuger mag 2 of the crane 1 can be easily aligned.
  • the plate member template information creation section 9 is referred to as a "creation" section to make it easier to understand the template information creation procedure described below, but the plate member template information creation section 9 may be Template information created in advance may be stored.
  • FIG. 4a is an image of a plurality of steel plates P1 to P3 acquired by the image acquisition unit 5.
  • the number of steel plates P was set to three. From this image, the peripheral edges of each of the steel plates P1 to P3 are detected and converted into polygonal diagrams Q1 to Q3 as shown in FIG. 4b, for example.
  • the peripheral edges of the steel plates P1 to P3 the portion where the shadows and colors that can be detected from the image change greatly can be regarded as the peripheral edge.
  • the peripheral edge of the steel plate P is detected from shadows and color changes, but machine learning is performed using a machine learning model for so-called object detection, and this is used to directly detect the peripheral edge of the steel plate P. It may also be possible to detect it visually.
  • each of the plural pieces of polygon information obtained in this way is extracted as plate member information R1 to R3, as shown in FIG. 4c.
  • Each of the polygonal plate member information R1 to R3 has vertex coordinates in a coordinate system set within the image, as will be described later. Pattern matching is performed between the obtained plural plate member information R1 to R3 and the template information created according to the topmost steel plate P1, and one of the plate member information is identified as belonging to the topmost steel plate P1. do.
  • FIG. 5 shows template information T of the uppermost steel plate P created by the plate member template information creation unit 9 for the stacked steel plates P shown in FIG. 4a.
  • this template information T is polygon (quadrangular) information of the uppermost steel plate P in the image, and the coordinates of each vertex of the rectangle are point 1 (x1, y1) to point 4 (x4, y4). ).
  • This rectangle includes the dimensions (vertical and horizontal dimensions) of the uppermost steel plate P, the position where the uppermost steel plate P is placed, and the vertical distance (height) from the uppermost steel plate P (top surface) to the image acquisition unit 5. )h, changes depending on the orientation of the image acquisition unit (camera) 5. Therefore, when performing pattern matching with the extracted plurality of plate member information R1 to R3, it is necessary to use template information T that matches the actual topmost steel plate P.
  • FIG. 6a is a front view showing the arrangement of the uppermost steel plate P and the image acquisition unit (camera) 5, and FIG. 6b is a plan view thereof.
  • the vertical direction in FIG. 6b is defined as the vertical direction
  • the horizontal direction is defined as the horizontal direction. Let it be 2 ⁇ w.
  • the angle between the center of the viewing angle of the image acquisition unit (camera) 5 and the vertical, that is, the orientation of the image acquisition unit 5 with respect to the vertical is ⁇ c.
  • the above values are default values.
  • the center of the image to be acquired is set as the origin
  • the horizontal direction of the image relative to the origin is set as the x-axis
  • the vertical direction is set as the y-axis
  • the right direction of the x-axis is set as the positive x-coordinate
  • the upward direction of the y-axis is set as the positive
  • the y-coordinate of Further the vertical direction (y-axis direction) dimension of the uppermost steel plate P is assumed to be b, and the horizontal direction (x-axis direction) dimension is assumed to be a. These are the dimensional specifications of the steel plate P.
  • the vertical distance from the uppermost steel plate P (top surface) detected by the vertical distance detection unit 6 to the image acquisition unit (camera) 5 is assumed to be h. This is a detected value (measured value).
  • the vertical direction (y-axis direction) distance from the image acquisition unit (camera) 5 to the uppermost steel plate P is d1
  • the distance be w1.
  • the distances d1 and w1 as constant values, but as will be described later, assuming that these are variables, template information T for a plurality of different distances d1 and w1 is created in advance and stored. Good too.
  • the viewing angle with respect to the vertical direction of the y-axis direction image acquisition unit side end (hereinafter referred to as the near side end) of the uppermost steel plate P that is assumed to be imaged by the image acquisition unit 5 is set to ⁇ 1, and the opposite
  • ⁇ 1 and ⁇ 2 are expressed by the following equations 1 and 2.
  • the y-coordinate of the far end of the uppermost steel plate P that is assumed to be imaged by the image acquisition unit 5 is expressed as tan ( ⁇ 2- ⁇ c), and the y-coordinate of the near-side edge is expressed as -tan ( ⁇ c- ⁇ 1).
  • the x-coordinate of the apex at the x-axis negative direction end (hereinafter referred to as the left end) and the far end of the uppermost steel plate P that is assumed to be imaged by the image acquisition unit 5 is -(a /2-w1)/(d1+b).
  • the x-coordinate of the vertex at the positive end of the x-axis (hereinafter referred to as the right end) and the far end is (a/2+w1)/(d1+b)
  • the x-coordinate of the vertex at the left end and the near end is -(a/2 -w1)/d1
  • the x-coordinate of the vertex at the right end and near side end is (a/2+w1)/d1. Therefore, the coordinates of each vertex of the rectangle shown in FIG. 5, point 1 (x1, y1) to point 4 (x4, y4), are expressed by the following equations 3 to 6.
  • the fact that the distances d1 and w1 are fixed values means that at least the corresponding steel plates P are placed at approximately the same position.
  • template information T is created individually in advance for a plurality of different distances d1 and w1, and this is used during pattern matching with plate member information R1 to R3, which will be described later. It can be used for Similarly, for the distance h from (the surface of) the topmost steel plate P to the image acquisition unit 5, a plurality of template information T is created in advance for each of a plurality of different distances h, and the template information T is used for the plate member information R1 to R3. It can be used for pattern matching with.
  • the angle ⁇ c between the center of the viewing angle and the vertical is set to 0, and the y-axis direction from the image acquisition unit 5 to the uppermost steel plate P is set to 0.
  • the calculation may be performed using the distance d1 as a negative value.
  • FIG. 7 shows three pieces of plate member information R1 to R3 extracted as shown in FIG.
  • FIG. 2 is a conceptual diagram showing pattern matching of template information T of .
  • pattern matching is performed by matching the lower left vertex of the polygon information of the steel plate P with point 3 of the template information T.
  • FIG. 7a only the coordinates of point 3 match.
  • the plate member information with the highest pattern matching rate that is, the plate member information R1 in FIG. 7c, is regarded as the highest steel plate P to be handled and transported.
  • the position of the center of gravity g of the plate member information R1 is determined. Since the rolled steel plate has a uniform thickness and a uniform material, the center of gravity of the steel plate P coincides with the centroid. In this example, as shown in FIG. 8, the intersection of the diagonals of the rectangle is set as the center of gravity g. Since the coordinates of points 1 to 4 are known, the center of gravity coordinates (xg, yg) can also be calculated.
  • the topmost coordinate in the real space for setting the center of the riff mug 2 is determined. Convert to the center of gravity coordinates (Xg, Yg) of the steel plate P.
  • the origin in real space is the position of the image acquisition unit 5 in the horizontal plane.
  • the viewing angle (deviation angle of the viewing angle) in the horizontal direction (x-axis direction) of the center of gravity g with respect to the viewing angle center ⁇ c is ⁇ 3
  • the vertical direction (y-axis direction) The viewing angle (displacement angle of the viewing angle) is assumed to be ⁇ 4.
  • the viewing angle deviation angles ⁇ 3 and ⁇ 4 are expressed by the following equations 7 and 8, respectively.
  • each element of the center of gravity coordinates (Xg, Yg) in the real space with the image acquisition unit 5 as the origin is expressed by the following equations 9 and 10.
  • the center of gravity position of the uppermost steel plate P in real space is obtained in this way, the center of the riff mag 2 is aligned with the center of gravity of the steel plate P, and then the rif mag 2 is lowered onto the steel plate P as described above. Then, in this state, the rifmag 2 is energized to magnetically attach the uppermost steel plate P, and in this state, the uppermost steel plate P is lifted by the crane 1 to carry out cargo handling and transportation.
  • the vertical distance h between the uppermost steel plate P and the image acquisition unit 5 is detected, and the template information T is obtained based on this vertical distance h, the dimension information of the uppermost steel plate P, and the position information of the image acquisition unit 5. create.
  • the plate member information R1 to R3 and template information T are compared to find the best one. Calculate the position of the upper plate member. Thereby, even if steel plates P with particularly small thickness are stacked, the position of the uppermost steel plate P to be lifted can be accurately detected.
  • the position of the highest steel plate P is calculated from the plate member information with a high matching rate by comparing the plate member information R1 to R3 with the template information T. This makes it possible to detect the position of the uppermost steel plate P even more accurately.
  • the It is easy to align the center with the center of gravity g of the topmost steel plate P.
  • the vertical distance h from (the surface of) the uppermost steel plate P1 to the image acquisition unit 5 is 4.94 m
  • the vertical distance d1 between the uppermost steel plate P1 and the image acquisition unit 5 is 0.8 m
  • the vertical distance h from the uppermost steel plate P1 to the image acquisition unit 5 is 0.8 m.
  • the lateral distance w1 between the center of gravity and the origin (center of viewing angle) was 0.2 m. Other conditions are shown in Table 1.
  • the example of the present invention is based on the steel plate position detection device of the above embodiment (FIG. 3), and the comparative example is such that the plate member detected by the plate member peripheral edge detection unit 7 of FIG. shall be deemed as such. That is, in the steel plate position detecting device of the embodiment, pattern matching is performed on the template information T created according to the conditions in Table 1 with the detected plate member information R1 to R3 to identify the uppermost steel plate P1. First, three steel plates having a thickness of t20 were stacked as shown in FIG. 10, and the center of gravity position of the uppermost steel plate P1 was calculated using the steel plate position detection device of the example and comparative example. Table 2 shows the calculation results of the example. As is clear from the table, the center of gravity position of the uppermost steel plate P1 can be detected with high accuracy.
  • Table 3 shows the calculation results using the steel plate position detection device of the comparative example.
  • the steel plate position detection device of the comparative example was also able to detect the center of gravity position of the uppermost steel plate P1 with high accuracy.
  • Table 5 shows the calculation results using the steel plate position detection device of the comparative example. As is clear from the table, the steel plate position detection device of the comparative example cannot detect the center of gravity position of the uppermost steel plate P1 with high precision.
  • the peripheral edge of the steel plate P is detected by the shadow and color change of the superimposed steel plates P, so if the thickness of the steel plate P is small, for example, 10 mm or less, the shadow will be detected. As a result, it may be difficult to detect the peripheral edge of the thin steel plate P. Then, the uppermost steel plate P1 and the steel plates P2 and P3 that overlap below it are mistakenly recognized as one steel plate, and as a result, the position of the uppermost steel plate P1 cannot be detected correctly.
  • the steel plate position detection device of the comparative example cannot detect the uppermost steel plate P1 while distinguishing it from the steel plates P2 and P3 stacked below it, and as a result, it is difficult to identify the uppermost steel plate P1. I can't.
  • template information T is created in accordance with the specifications of the uppermost steel plate P1 and the installation conditions of the steel plate. It can be seen that the topmost steel plate P1 can be accurately identified by pattern matching the created template information T and plate member information R1 to R3.
  • the present invention is not limited to the configuration described in the above embodiments.
  • a coordinate system is set within the image, and the image of the steel plate P is geometrically considered using that coordinate system.
  • the steel plate P in the coordinate system set in real space You may also consider whether Similarly, any known method can be used to analyze the captured image of the steel plate P.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Control And Safety Of Cranes (AREA)
  • Load-Engaging Elements For Cranes (AREA)

Abstract

積み重ねられた板部材のうちから吊り上げ対象である最上位の板部材の位置を正確に検出することが可能な板部材位置検出装置を提供する。積み重ねられた鋼板(板部材)のうちの最上位の鋼板をクレーン(1)で吊り上げるに際し、最上位の鋼板全体を含む積み重ねられた鋼板の画像を画像取得部(5)で取得する。そして、最上位の鋼板のテンプレート情報と画像と比較して最上位の鋼板の位置を検出することにより、板厚の小さい鋼板が積み重ねられている場合であっても、吊り上げ対象である最上位の鋼板の位置を正確に検出することができる。特に、リフマグ(2)などの吸着機構によって最上位の鋼板を吸着して吊り上げる場合に、吸着して吊り上げられている鋼板の安定性を確保することができる。

Description

板部材位置検出装置、板部材運搬方法及び板部材の製造方法
 本発明は、板部材位置検出装置、板部材運搬方法及び板部材の製造方法に関する。
 製鉄所の厚板工場は、塊状の鋼板を所望の厚みまで圧延する圧延設備と、圧延された鋼板の出荷サイズへの切り出しや、端部のバリ取り、表面疵の手入れ、内部疵の検査などを行う精整設備と、出荷待ちの鋼板を保管する製品倉庫と、を備える。精整設備での仕掛り品の鋼板や製品倉庫での出荷待ちの鋼板は、置き場所の制約上、数枚~十数枚積み重なった状態で保管されている。鋼板の配置替えや出荷の際には、例えば電磁石式のリフティングマグネット(吸着機構、「リフマグ」ともいう)などを取り付けたクレーン(吊り上げ装置)を使用して、1枚~数枚の対象の鋼板を吊り上げて移動させる作業が行われる。
 この作業を行う際には、吊り上げ対象の鋼板の位置を正確に把握する必要がある。特に、製鉄所の厚板工場では、クレーンのリフマグで100mm以上の板厚の厚い鋼板を吸着(磁着)して吊り上げることがある。このような場合に、吊り上げ対象の鋼板の重心とリフマグの中心とがずれていると、荷重が偏って最悪鋼板を落下させるおそれがあるため、鋼板の位置、特に重心位置を正確に把握する手段が必要となる。
 このような課題に対して、吊り上げ対象の鋼板の位置を検出する方法として、例えば特許文献1に記載のものがある。この先行技術では、鋼板の斜め上方からカメラによって撮像した画像を鋼板の平面画像と側面画像とに別けてそれぞれ抽出する画像処理によって、積み重ねた鋼板の形状及び重心位置を得る方法が提案されている。
特開平7-330287号公報
 特許文献1の方法は、積み重ねた鋼板の段差形状を画像処理によって検出し、段差部分で切り分けて鋼板1枚ごとの設置位置を算出する方法である。しかしながら、板厚が10mm以下程度の薄い鋼板が複数枚重なっているような状態では、上下の鋼板が一体になっているように検出され、吊り上げ対象である最上位の鋼板の位置のみを検出することが難しい。
 本発明は、上記課題に鑑みてなされたものであり、その目的は、積み重ねられた板部材のうちから吊り上げ対象である最上位の板部材の位置を正確に検出することができる板部材位置検出装置、板部材運搬方法及び板部材の製造方法を提供することにある。
 上記目的を達成するため、本発明の一態様に係る板部材位置検出装置は、積み重ねられた板部材のうちの最上位の板部材を吊り上げ装置で吊り上げるに際し、前記最上位の板部材の位置を検出する板部材位置検出装置において、前記最上位の板部材全体を含む前記積み重ねられた板部材の画像を取得する画像取得部と、予め作成された前記最上位の板部材のテンプレート情報と前記画像とを比較することで前記最上位の板部材の位置を検出する演算部と、を備えたことを要旨とする。
 また、本発明の一態様に係る板部材運搬方法は、積み重ねられた板部材のうちの最上位の板部材を吊り上げ装置の吸着機構で吸着して吊り上げ、前記最上位の板部材の荷役運搬を行う板部材運搬方法において、前記最上位の板部材全体を含む前記積み重ねられた板部材の画像を画像取得部によって取得するステップと、予め作成された前記最上位の板部材のテンプレート情報と前記画像とを比較することで前記最上位の板部材の位置を検出するステップと、検出された前記最上位の板部材の位置に基づいて前記吸着機構を位置決めした後、前記吸着機構で前記最上位の板部材を吸着し、前記吊り上げ装置によって前記最上位の板部材を吊り上げて荷役運搬を行うステップと、を備えたことを要旨とする。
 また、本発明の一態様に係る板部材の製造方法は、上記板部材位置検出装置で検出された最上位の板部材の位置に基づいて前記最上位の板部材を吊り上げて荷役運搬を行う工程を含むことを要旨とする。
 本発明の板部材位置検出装置、板部材運搬方法及び板部材の製造方法によれば、積み重ねられた板部材のうちから吊り上げ対象である最上位の板部材の位置を正確に検出することができる。
本発明の板部材位置検出装置、板部材運搬方法及び板部材の製造方法の一実施形態が適用されたクレーンの概略構成図である。 図1のクレーンに設けられたシステムのブロック図である。 図2の演算部のブロック図である。 図3の板部材周縁部検出部で行われる演算処理の内容の説明図である。 図3の板部材テンプレート情報作成部で作成されるテンプレート情報の説明図である。 図5のテンプレート情報の作成方法の説明図である。 図3の板部材位置算出部で行われる演算処理の内容の説明図である。 図3の板部材位置算出部で行われる演算処理の内容の説明図である。 図3の板部材位置算出部で行われる実空間重心位置の算出方法の説明図である。 実施例における板部材の配置状態の説明図である。
 以下に、本発明の板部材位置検出装置、板部材運搬方法及び板部材の製造方法の一実施形態について図面を参照して詳細に説明する。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記の実施形態に特定するものではない。また、図面は模式的なものである。そのため、厚みと平面寸法との関係、比率等は現実のものとは異なることに留意すべきであり、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれている。
 図1は、板部材位置検出装置、板部材運搬方法及び板部材の製造方法の一実施形態を示すクレーン(吊り上げ装置)1の概略構成図である。この実施形態では、クレーン建屋内のストックヤードに積み重ねられた鋼板(板部材)Pのうちの最上位の鋼板Pをクレーン1で吊り上げて荷役運搬を行う。この実施形態のクレーン1は、電磁石式のリフマグ2を吸着機構として備え、このリフマグ2で最上位の鋼板Pを吸着(磁着)保持して吊り上げる。この鋼板Pを保持する機構としては、電磁石式のリフマグ2が望ましいが、永久磁石式のリフマグや、クランプなどの保持機構を用いることも可能である。
 この実施形態のクレーン1はいわゆる天井クレーンであり、リフマグ2が吊り下げられているトロリ51がガーダ52上を横行し、このガーダ52が走行レール(ランウエイ)53上を走行するように構成されている。リフマグ2の昇降、トロリ51の横行、ガーダ52の走行は、図示しない駆動源や駆動機構を備えた駆動部によって実行され、各駆動部は、クレーン1の動作全般を制御する制御装置3によって駆動される。リフマグ2に関しては、図2に示すように、リフマグ2を駆動するためのリフマグ(図では吸着機構)駆動部21を備える。そして、これらの機構の動作は、制御装置3内に設けられた演算処理装置、例えばプログラマブルロジックコントローラにロジック(プログラム)として記憶されており、図示しない上位コンピュータからの指令にしたがって自動的に鋼板Pの荷役運搬を行う。制御装置3内の演算処理装置は、高度な演算処理を行うことが可能な演算処理部の他に、プログラムやデータを記憶可能な記憶部、外部との入出力を司る入出力部を備えたコンピュータシステムの1つである。もちろん、オペレータが各機構を個々に操作できるようにも構成されている。また、クレーン1の構成は、上記に限定されない。
 この実施形態では、後述のようにして積み重ねられた鋼板Pのうちの最上位の鋼板Pの位置を検出し、その鋼板Pのみをリフマグ2で吸着してクレーン1で吊り上げる。吸着に際しては、検出された鋼板Pの位置、より具体的には重心位置にリフマグ2の中心位置を合わせてリフマグ2を鋼板P上に降下し、その状態で電磁石を励磁して鋼板Pを吸着(磁着)する。これらのロジックも、前述した制御装置3内の演算処理装置、例えばプログラマブルロジックコントローラに記憶されており、板部材位置検出装置(「鋼板位置検出装置」ともいう)の演算部4から鋼板Pの位置(重心位置)が出力されると、それに継続して自動的に実施されるように構成されている。リフマグ2に関しては、図2に示すように、リフマグ(吸着機構)駆動部21の駆動状態を制御するリフマグ(吸着機構)制御部31を備える。
 この実施形態では、積み重ねられた鋼板Pのうちの最上位の鋼板Pの位置(重心位置)を検出(算出)する演算部4は、クレーン1を制御する制御装置3内に組み込まれている。したがって、この演算部4も、制御装置3内の演算処理部、例えばプログラマブルロジックコントローラで行われる演算処理によって構成される。この演算部4が、積み重ねられた鋼板Pのうちの最上位の鋼板Pの位置を検出する鋼板(板部材)位置検出装置の主要部を構成している。なお、演算部4は、クレーン1の制御装置3内に構築される以外に、例えばパーソナルコンピュータなどを用いて構成してもよい。
 また、この鋼板位置検出装置は、演算部4で最上位の鋼板Pの位置を正確に検出するために、最上位の鋼板P全体を含むストックヤード内の積み重ねられた鋼板Pの画像を取得する画像取得部5を備える。また、鋼板位置検出装置は、この画像取得部5と最上位の鋼板Pの鉛直方向の距離(鉛直距離)hを検出する鉛直距離検出部6を備えている。画像取得部5は、例えば4Kカメラ(ビデオカメラ)で構成され、このカメラを、ストックヤードに積み重ねられた全ての鋼板Pが写り且つリフマグ2が写り込みにくいようにストックヤードの斜め上方から鋼板Pが撮像されるように配置した。画像取得部5の配置は、これに限定されない。また、鉛直距離検出部6は、例えばレーザー距離計で構成され、例えば画像取得部5であるカメラと同じ高さから積み重ねられた鋼板Pの最上位の鋼板P(の上面)までの高さを鉛直距離hとして検出する。鉛直距離検出部6には、他に超音波式レーダーや3Dスキャナなどの周知の距離検出手段を用いることができる。
 図3は、鋼板位置検出装置の演算部4のブロック図であり、各ブロックは、演算処理などによって行われる機能を表示している。すなわち、各ブロックは、演算処理のフローチャートにおける機能ステップを表す。各機能ブロックの詳細は後述する。この演算部4は、画像取得部5で取得されたストックヤード内の積み重ねられた鋼板Pの画像から鋼板(板部材)Pの周縁部を検出し、その結果から検出される板部材の情報(板部材情報)を出力する板部材周縁部検出部7を備える。板部材情報は、検出された複数の鋼板周縁部からなる複数の多角形の情報であり、画像内に設定された座標系(以下、画像内設定座標系)における各多角形の頂点座標を有する。また、この演算部4は、これから吊り上げられて荷役運搬される鋼板(板部材)Pの寸法情報や、画像取得部5の向きや位置(正確には画像取得部5と最上位の鋼板Pの相対位置)の情報を記憶している情報記憶部8を備える。これから吊り上げられる鋼板Pの寸法情報は、プロセスコンピュータなどの上位コンピュータからの鋼板情報によって選択される。画像取得部5の向きや位置(最上位の鋼板Pとの相対位置)については後段で説明する。
 また、この演算部4は、検出された最上位の鋼板Pと画像取得部5の鉛直距離hと、情報記憶部8から提供される鋼板寸法情報や画像取得部位置情報と、に基づいて最上位の鋼板Pのテンプレート情報を作成する板部材テンプレート情報作成部9を備える。このテンプレート情報は、最上位の鋼板Pがどのように撮像されているか、すなわち最上位の鋼板Pの画像の規範となる多角形情報であり、画像内設定座標系における、その多角形の頂点座標を有する。そして、この演算部4は、板部材テンプレート情報作成部9から提供されるテンプレート情報と検出された板部材情報を比較して最上位の鋼板Pの位置、具体的にはその重心位置を算出する板部材位置算出部10を備える。この例では、最上位の鋼板Pの重心位置は、クレーン1のリフマグ2を合わせやすいように、画像内設定座標系から実空間における座標系に変換して出力される。なお、板部材テンプレート情報作成部9は、後述するテンプレート情報の作成手順を理解しやすいように「作成」部と表しているが、各鋼板Pの寸法や画像取得部5との相対位置に応じて予め作成したテンプレート情報を記憶しておいてもよい。
 次に、板部材周縁部検出部7で行われる演算処理の内容について図4を用いて説明する。図4aは、画像取得部5によって取得された複数の鋼板P1~P3の画像である。鋼板Pの数は、便宜上、3つとした。この画像から、各鋼板P1~P3の周縁部を検出し、例えば、図4bに示すような多角形の線図Q1~Q3に変換する。鋼板P1~P3の周縁部は、画像から検出できる影や色彩が大きく変化している部分を周縁部とみなすことができる。この例では、影や色彩変化から鋼板Pの周縁部を検出しているが、いわゆるオブジェクト検出のための機械学習モデルを用いて機械学習させておき、それを用いて鋼板Pの周縁部を直接的に検出できるようにしてもよい。そして、このようにして得られた複数の多角形情報のそれぞれを図4cに示すように板部材情報R1~R3として抽出する。多角形の板部材情報R1~R3は、それぞれ、後述するように画像内に設定された座標系における頂点座標を有する。この得られた複数の板部材情報R1~R3と最上位の鋼板P1に合わせて作成されたテンプレート情報をパターンマッチングして、何れかの板部材情報を最上位の鋼板P1のものであると特定する。
 次に、板部材テンプレート情報作成部9で行われる演算処理の内容について図5、図6を用いて説明する。図5は、図4aの積み重ね状態の鋼板Pに対して、この板部材テンプレート情報作成部9で作成された最上位の鋼板Pのテンプレート情報Tである。前述のように、このテンプレート情報Tは、画像内における最上位の鋼板Pの多角形(四角形)情報であり、その四角形の各頂点座標として点1(x1、y1)~点4(x4、y4)を有する。この四角形は、最上位の鋼板Pの寸法(縦寸法、横寸法)、最上位の鋼板Pが置かれる位置、最上位の鋼板P(の上面)から画像取得部5までの鉛直距離(高さ)h、画像取得部(カメラ)5の向きに応じて変化する。したがって、抽出された複数の板部材情報R1~R3とパターンマッチングする際には、実際の最上位の鋼板Pに合わせたテンプレート情報Tとする必要がある。
 このテンプレート情報作成手順について図6を用いて説明する。図6aは、最上位の鋼板Pと画像取得部(カメラ)5の配置を示す正面図、図6bは、その平面図である。例えば、図6bの上下方向を縦方向、横方向を横方向と規定し、画像取得部(カメラ)5の縦(=上下)方向の視野角(画角)を2θd、横方向の視野角を2θwとする。また、図6aに示すように、画像取得部(カメラ)5の視野角中心が鉛直となす角度、すなわち鉛直に対する画像取得部5の向きをθcとする。以上は既定値である。また、取得される画像の中心を原点とし、原点に対する図の横方向をx軸、縦方向をy軸と設定し、且つx軸の右方向を正のx座標、y軸の上方向を正のy座標とする。また、最上位の鋼板Pの縦方向(y軸方向)寸法をb、横方向(x軸方向)寸法をaとする。これは鋼板Pの寸法諸元である。また、鉛直距離検出部6で検出される最上位の鋼板P(の上面)から画像取得部(カメラ)5までの鉛直距離をhとする。これは検出値(測定値)である。また、画像取得部(カメラ)5から最上位の鋼板Pまでの縦方向(y軸方向)距離をd1、原点(画像中心)から最上位の鋼板Pの重心位置までの横方向(x軸方向)距離をw1とする。ここでは、距離d1、w1を一定値として説明するが、後述するように、これらが変数であるとして、複数の異なる距離d1、w1に対するテンプレート情報Tを予め作成し、それを記憶しておいてもよい。
 図6aに示すように、画像取得部5で撮像されると想定される最上位の鋼板Pにおけるy軸方向画像取得部側端(以下、手前側端)の鉛直方向に対する視野角をθ1、反対側端(以下、遠方端)の鉛直方向に対する視野角をθ2とすると、θ1、θ2は、下記1式及び2式で表れる。
Figure JPOXMLDOC01-appb-M000001
 また、画像取得部5で撮像されると想定される最上位の鋼板Pの遠方端のy座標はtan(θ2-θc)、手前側端のy座標は-tan(θc-θ1)で表れる。また、図6bに示すように、画像取得部5で撮像されると想定される最上位の鋼板Pのx軸負方向端(以下、左端)で且つ遠方端の頂点のx座標は-(a/2-w1)/(d1+b)である。同様に、x軸正方向端(以下、右端)で且つ遠方端の頂点のx座標は(a/2+w1)/(d1+b)、左端で且つ手前側端の頂点のx座標は-(a/2-w1)/d1、右端で且つ手前側端の頂点のx座標は(a/2+w1)/d1である。したがって、図5に示す四角形の各頂点座標、点1(x1、y1)~点4(x4、y4)は下記3式~6式で表れる。
Figure JPOXMLDOC01-appb-M000002
 なお、距離d1、w1が固定値であるということは、少なくとも該当する鋼板Pはほぼ同じ位置に置かれることを意味する。鋼板Pの置き位置が変化すると考えられる場合には、複数の異なる距離d1、w1についてテンプレート情報Tを個別に予め作成しておき、それを後述する板部材情報R1~R3とのパターンマッチングの際に用いればよい。同様に、最上位の鋼板P(の表面)から画像取得部5までの距離hについても複数の異なる距離h毎に複数のテンプレート情報Tを予め作成しておき、それを板部材情報R1~R3とのパターンマッチングの際に用いればよい。また、例えば、画像取得部5が鋼板Pの真上に配置される場合には、視野角の中心が鉛直となす角度θcを0、画像取得部5から最上位の鋼板Pまでのy軸方向距離d1を負値として計算を行えばよい。
 次に、板部材位置算出部10で行われる演算処理の内容について図7~図9を用いて説明する。この板部材位置算出部10では、まず抽出された板部材情報R1~R3と作成されたテンプレート情報Tのパターンマッチングを行う。図7は、板部材周縁部検出部7で図4cのように抽出された3つの板部材情報R1~R3、すなわち鋼板Pの多角形情報と板部材テンプレート情報作成部9で作成された図5のテンプレート情報Tをパターンマッチングしている概念図である。この例では、鋼板Pの多角形情報の図示左下の頂点をテンプレート情報Tの点3に合わせてパターンマッチングを行っている。例えば、図7aの板部材情報R3とテンプレート情報Tのパターンマッチングでは点3の座標しか一致していない。また、図7bの板部材情報R2とテンプレート情報Tのパターンマッチングでは点1、点3、点4の座標が一致しているが、点2の座標は一致していない。これに対し、図7cの板部材情報R1とテンプレートTのパターンマッチングでは全ての頂点座標がほぼ一致している。このように、この実施形態では、パターンマッチングの一致率が最も高い板部材情報、すなわち図7cの板部材情報R1を荷役運搬すべき最上位の鋼板Pとみなす。
 このように最上位の鋼板Pとみなされる板部材情報R1が選出(特定)されたら、その板部材情報R1の重心gの位置を求める。圧延鋼板は、厚さ一様、材質一様であるから、鋼板Pの重心位置は図心と一致する。この例では、図8に示すように、四角形の対角線の交点を重心gとした。点1~点4の座標は既知であるから、重心座標(xg、yg)も算出することができる。このように画像内に設定される座標系の最上位の鋼板Pの重心座標(xg、yg)が得られたら、前述のように、リフマグ2の中心を設定するための実空間における最上位の鋼板Pの重心座標(Xg、Yg)に変換する。実空間における原点は、水平面内における画像取得部5の位置とする。図9bに示すように、視野角中心θcに対する重心gの横方向(x軸方向)の視野角(視野角のずれ角)をθ3とし、図9aに示すように、縦方向(y軸方向)の視野角(視野角のずれ角)をθ4とする。この視野角のずれ角θ3、θ4は、それぞれ下記7式、8式で表れる。
Figure JPOXMLDOC01-appb-M000003
 図9に示す幾何学関係から画像取得部5を原点とする実空間における重心座標(Xg、Yg)の各要素は下記9式、10式で表れる。
Figure JPOXMLDOC01-appb-M000004
 このようにして最上位の鋼板Pの実空間における重心位置が得られたら、前述のようにリフマグ2の中心を鋼板Pの重心に合わせてからリフマグ2を鋼板P上に降下する。そして、その状態でリフマグ2に通電して最上位の鋼板Pを磁着し、その状態で最上位の鋼板Pをクレーン1で吊り上げて荷役運搬を行う。
 このように、この実施形態では、積み重ねられた鋼板(板部材)Pのうちの最上位の鋼板Pをクレーン1で吊り上げるに際し、最上位の鋼板P全体を含む積み重ねられた鋼板Pの画像を取得する。そして、最上位の鋼板Pのテンプレート情報Tと画像を比較して最上位の鋼板Pの位置を検出することにより、板厚の小さい鋼板Pが積み重ねられている場合であっても、吊り上げ対象である最上位の鋼板Pの位置を正確に検出することができる。特に、リフマグ2などの吸着機構によって最上位の鋼板Pを吸着して吊り上げる場合に、吸着して吊り上げられている鋼板Pの安定性を確保することができる。
 また、最上位の鋼板Pと画像取得部5との鉛直距離hを検出し、この鉛直距離h、最上位の鋼板Pの寸法情報、及び画像取得部5の位置情報に基づいてテンプレート情報Tを作成する。これにより、撮像される最上位の鋼板Pの画像の規範となる適正なテンプレート情報Tを取得することができ、その結果、最上位の鋼板Pの位置をより一層正確に検出することが可能となる。
 また、積み重ねられた鋼板Pの画像から最上位の鋼板Pの周縁部を検出して板部材情報R1~R3を作成する場合に、板部材情報R1~R3とテンプレート情報Tとを比較して最上位の板部材の位置を算出する。これにより、特に板厚の小さい鋼板Pが積み重ねられている場合であっても、吊り上げ対象である最上位の鋼板Pの位置を正確に検出することができる。特に、複数の板部材情報R1~R3が存在する場合、それらの板部材情報R1~R3とテンプレート情報Tを比較して一致率が高い板部材情報から最上位の鋼板Pの位置を算出することにより、最上位の鋼板Pの位置をより一層正確に検出することが可能となる。
 また、最上位の鋼板Pと画像取得部5との鉛直距離hを検出し、この鉛直距離hに基づいて最上位の鋼板Pの実空間における重心gの位置を算出することにより、リフマグ2の中心を最上位の鋼板Pの重心gに合わせやすい。
 本発明の板部材位置検出装置、板部材運搬方法及び板部材の製造方法の評価を行うために以下の試験を行った。画像取得部(カメラ)5には、約1000万画素(3648×2736)の4Kカメラを用いた。また、横寸法1.4m、縦寸法2.1mの大きさの種々の板厚の鋼板P1~P3を準備し、図10に示すように3枚重ねておくものとした。最上位の鋼板P1(の表面)から画像取得部5までの鉛直距離hは4.94m、最上位の鋼板P1と画像取得部5の縦方向距離d1は0.8m、最上位の鋼板P1の重心と原点(視野角中心)の横方向距離w1は0.2mとした。その他の条件を表1に示す。
Figure JPOXMLDOC01-appb-T000005
 本発明の実施例は、上記実施形態(図3)の鋼板位置検出装置によるものとし、比較例は、図3の板部材周縁部検出部7によって検出された板部材をそのまま最上位の鋼板P1とみなすものとした。すなわち、実施例の鋼板位置検出装置では、表1の条件にしたがって作成されたテンプレート情報Tを検出された板部材情報R1~R3とパターンマッチングを行って最上位の鋼板P1を特定する。まず、板厚t20の鋼板3枚を図10のように積み重ねて最上位の鋼板P1の重心位置を実施例及び比較例の鋼板位置検出装置で算出した。実施例の算出結果を表2に示す。表から明らかなように、最上位の鋼板P1の重心位置を高精度に検出することができている。
Figure JPOXMLDOC01-appb-T000006
 また、比較例の鋼板位置検出装置による算出結果を表3に示す。表から明らかなように、比較例の鋼板位置検出装置でも最上位の鋼板P1の重心位置を高精度に検出することができている。
Figure JPOXMLDOC01-appb-T000007
 次に、板厚t20、t10、t5の鋼板3枚を下から順に図10のように積み重ねて最上位の鋼板P1の重心位置を実施例及び比較例の鋼板位置検出装置で算出した。すなわち、最上位の鋼板P1の板厚はt5である。実施例の算出結果を表4に示す。表から明らかなように、最上位の鋼板P1の重心位置を高精度に検出することができている。
Figure JPOXMLDOC01-appb-T000008
 また、比較例の鋼板位置検出装置による算出結果を表5に示す。表から明らかなように、比較例の鋼板位置検出装置では、最上位の鋼板P1の重心位置を高精度に検出することができない。
Figure JPOXMLDOC01-appb-T000009
 前述のように、画像内では重ね合わせた鋼板Pの影や色彩変化で鋼板Pの周縁部を検出しているので、鋼板Pの厚さが小さい、例えば板厚が10mm以下であると、影や色彩変化を判定しにくく、その結果、薄い鋼板Pの周縁部を検出できないおそれがある。すると、最上位の鋼板P1とそれより下方に重なっている鋼板P2、P3を1つの鋼板と誤認識し、その結果、最上位の鋼板P1の位置を正しく検出することができない。すなわち、比較例の鋼板位置検出装置では、最上位の鋼板P1をそれより下方に積み重ねられた鋼板P2、P3と区別して検出することができず、その結果、最上位の鋼板P1を特定することができない。これに対し、実施例の鋼板位置検出装置では、最上位の鋼板P1の諸元や鋼板の設置条件に合わせてテンプレート情報Tが作成される。そして、作成されたテンプレート情報Tと板部材情報R1~R3をパターンマッチングすることにより最上位の鋼板P1を正確に特定することができていることが分かる。
 以上、実施形態に係る板部材位置検出装置、板部材運搬方法及び板部材の製造方法について説明したが、本件発明は、上記実施の形態で述べた構成に限定されるものではなく、本件発明の要旨の範囲内で種々変更が可能である。例えば、上記実施形態では、画像内に座標系を設定し、その座標系で鋼板Pの画像を幾何学的に考察したが、例えば、実空間に設定した座標系で鋼板Pがどの位置にあるかを考察するようにしてもよい。同様に、撮像された鋼板Pの画像を解析するために周知のあらゆる手法を用いることが可能である。
 1 クレーン(吊り上げ装置)
 2 リフマグ(吸着機構)
 3 制御装置
 4 演算部
 5 画像取得部
 6 鉛直距離検出部
 7 板部材周縁部検出部
 8 情報記憶部
 9 板部材テンプレート情報作成部
 10 板部材位置算出部

Claims (7)

  1.  積み重ねられた板部材のうちの最上位の板部材を吊り上げ装置で吊り上げるに際し、前記最上位の板部材の位置を検出する板部材位置検出装置において、
     前記最上位の板部材全体を含む前記積み重ねられた板部材の画像を取得する画像取得部と、
     予め作成された前記最上位の板部材のテンプレート情報と前記画像とを比較することで前記最上位の板部材の位置を検出する演算部と、を備えたことを特徴とする板部材位置検出装置。
  2.  前記最上位の板部材と前記画像取得部との鉛直方向の距離を鉛直距離として検出する鉛直距離検出部を有し、
     前記演算部は、前記鉛直距離、前記最上位の板部材の寸法情報、及び前記画像取得部の位置情報に基づいて前記テンプレート情報を作成する板部材テンプレート情報作成部を有することを特徴とする請求項1に記載の板部材位置検出装置。
  3.  前記演算部は、前記画像から前記最上位の板部材の周縁部を検出して板部材情報を作成する板部材周縁部検出部と、前記板部材情報と前記テンプレート情報とを比較して前記最上位の板部材の位置を算出する板部材位置算出部と、を有することを特徴とする請求項2に記載の板部材位置検出装置。
  4.  前記板部材周縁部検出部は、前記最上位の板部材の板部材情報を含む前記積み重ねられた板部材の複数の板部材情報を作成し、前記板部材位置算出部は、前記複数の板部材情報と前記テンプレート情報とを比較して前記テンプレート情報と一致率が高い前記板部材情報に基づいて前記最上位の板部材の位置を算出する請求項3に記載の板部材位置検出装置。
  5.  前記板部材位置算出部は、前記鉛直距離に基づいて前記最上位の板部材の実空間における重心の位置を算出することを特徴とする請求項4に記載の板部材位置検出装置。
  6.  積み重ねられた板部材のうちの最上位の板部材を吊り上げ装置の吸着機構で吸着して吊り上げ、前記最上位の板部材の荷役運搬を行う板部材運搬方法において、
     前記最上位の板部材全体を含む前記積み重ねられた板部材の画像を画像取得部によって取得するステップと、
     予め作成された前記最上位の板部材のテンプレート情報と前記画像とを比較することで前記最上位の板部材の位置を検出するステップと、
     検出された前記最上位の板部材の位置に基づいて前記吸着機構を位置決めした後、前記吸着機構で前記最上位の板部材を吸着し、前記吊り上げ装置によって前記最上位の板部材を吊り上げて荷役運搬を行うステップと、を備えたことを特徴とする板部材運搬方法。
  7.  請求項1乃至5の何れか1項に記載の板部材位置検出装置で検出された最上位の板部材の位置に基づいて前記最上位の板部材を吊り上げて荷役運搬を行う工程を含む、板部材の製造方法。
PCT/JP2023/019848 2022-06-30 2023-05-29 板部材位置検出装置、板部材運搬方法及び板部材の製造方法 WO2024004478A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023552179A JP7473858B1 (ja) 2022-06-30 2023-05-29 板部材位置検出装置、板部材運搬方法及び板部材の製造方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022105680 2022-06-30
JP2022-105680 2022-06-30

Publications (1)

Publication Number Publication Date
WO2024004478A1 true WO2024004478A1 (ja) 2024-01-04

Family

ID=89382747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/019848 WO2024004478A1 (ja) 2022-06-30 2023-05-29 板部材位置検出装置、板部材運搬方法及び板部材の製造方法

Country Status (2)

Country Link
JP (1) JP7473858B1 (ja)
WO (1) WO2024004478A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01242392A (ja) * 1988-03-18 1989-09-27 Kawasaki Steel Corp スラブ荷姿の検出方法
JPH07330287A (ja) * 1994-06-10 1995-12-19 Nippon Steel Corp 鋼片等の吊り荷の自動吊り上げ方法
JPH11353488A (ja) * 1998-06-04 1999-12-24 Amada Co Ltd 板材の形状認識装置
JP2019189398A (ja) * 2018-04-25 2019-10-31 株式会社日立プラントメカニクス 鋼片搬送用天井クレーン

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01242392A (ja) * 1988-03-18 1989-09-27 Kawasaki Steel Corp スラブ荷姿の検出方法
JPH07330287A (ja) * 1994-06-10 1995-12-19 Nippon Steel Corp 鋼片等の吊り荷の自動吊り上げ方法
JPH11353488A (ja) * 1998-06-04 1999-12-24 Amada Co Ltd 板材の形状認識装置
JP2019189398A (ja) * 2018-04-25 2019-10-31 株式会社日立プラントメカニクス 鋼片搬送用天井クレーン

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
OHBA HIROAKI, OKADA KOICHI: "Recognition of Objects Piled On by Image Processing for Automatic Picking", PROCEEDINGS OF THE 1999 IEICE GENERAL CONFERENCE, 2; 1999.03.25-28, IEICE, JP, 1 January 1999 (1999-01-01) - 28 March 1999 (1999-03-28), JP, pages 236, XP009551655 *

Also Published As

Publication number Publication date
JP7473858B1 (ja) 2024-04-24
JPWO2024004478A1 (ja) 2024-01-04

Similar Documents

Publication Publication Date Title
CN111776762B (zh) 具有自动化包裹扫描和登记机构的机器人系统及其操作方法
JP6461712B2 (ja) 荷役装置及びその動作方法
US10192315B2 (en) Apparatus and method for holding objects
JP5447483B2 (ja) ロボットシステムおよび被加工物の製造方法
JP2010005769A (ja) デパレタイズ装置および方法
JP4655309B2 (ja) ピッキング順序決定方法、装置及びそのプログラム、並びにピッキングシステム
US8264697B2 (en) Object detection device
JP2019509559A (ja) センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング
CN109775376B (zh) 不规则随机物料的机器人拆垛方法
US11516359B2 (en) Systems and methods for identifying and transferring sheets
JP2006300929A (ja) 物体の3次元位置認識装置およびデパレタイズシステム
CN110422521B (zh) 不规则随机物料的机器人侧边拆垛方法及其装置
WO2024004478A1 (ja) 板部材位置検出装置、板部材運搬方法及び板部材の製造方法
JP5868257B2 (ja) ワークの位置検出方法及びそれを用いたワークの搬送方法
JP7126667B1 (ja) 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法
JP2019218216A (ja) 取出装置および方法
JP2011173188A (ja) 自動面取り加工装置
JP7408425B2 (ja) クレーンシステム
WO2023145939A1 (ja) クレーン、運搬方法及び板部材の製造方法
JP6600026B2 (ja) 取出装置および方法
CN110405810B (zh) 自动包裹配准系统、装置和方法
JP2622394B2 (ja) 搬送台自動搬送装置
JPH09178428A (ja) 物品位置検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23830928

Country of ref document: EP

Kind code of ref document: A1