JP2021182267A - Tracking device - Google Patents

Tracking device Download PDF

Info

Publication number
JP2021182267A
JP2021182267A JP2020087506A JP2020087506A JP2021182267A JP 2021182267 A JP2021182267 A JP 2021182267A JP 2020087506 A JP2020087506 A JP 2020087506A JP 2020087506 A JP2020087506 A JP 2020087506A JP 2021182267 A JP2021182267 A JP 2021182267A
Authority
JP
Japan
Prior art keywords
image
local
tracking
local region
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020087506A
Other languages
Japanese (ja)
Inventor
慎太郎 深見
Shintaro Fukami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2020087506A priority Critical patent/JP2021182267A/en
Publication of JP2021182267A publication Critical patent/JP2021182267A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To enable tracking an object to be tracked even when no feature points are obtainable.SOLUTION: A moving speed estimation device 10 includes: a feature amount extraction section 54 for, as to each image at each time when an object to be tracked is photographed, extracting feature amounts from each of multiple local areas; a tracking section 56 for, as to each of multiple local areas in an image, searching for local areas to which the feature amounts correspond, among the local areas in the image at a following time; an invalidation section 58 for, when a distance on the image to the searched local areas in the image at the following time as to the local areas in the image is equal to a threshold or greater, invalidating a searched result as to the local areas in the image; and a moving speed calculation section 60 for calculating a moving speed of the object to be tracked by averaging the moving speeds based on moving distances calculated from each correspondence of the local areas between the current image and the image at the following time.SELECTED DRAWING: Figure 2

Description

本発明は、追跡対象物を追跡するトラッキング装置に関する。 The present invention relates to a tracking device that tracks a tracking object.

従来より、圧延ラインを上から撮影し、その画像中に含まれる鋼材の輪郭を捉え、その時間変化でトラッキングを行う方法が知られている(例えば、特許文献1)。 Conventionally, there has been known a method in which a rolling line is photographed from above, the contour of a steel material contained in the image is captured, and tracking is performed according to the time change (for example, Patent Document 1).

また、鋼板のエッジラインを検出しトラッキングを行う手法が知られている(例えば、特許文献2)。 Further, a method of detecting an edge line of a steel sheet and performing tracking is known (for example, Patent Document 2).

特開昭62−104615号公報Japanese Unexamined Patent Publication No. 62-104615 特表2011−505257号公報Japanese Patent Publication No. 2011-505257

しかしながら、上記特許文献1、2に記載の方法では、鋼材が連結される場合などで先尾端が視野に入らない場合には特徴点が得られないため、トラッキングをすることができない。
また、熱間圧延ライン上の鋼材を対象とする場合には、撮像する鋼材の表面上で、スケールの発生や脱落などで特徴点が消失したり発生したりするが、上記特許文献1、2に記載の方法では、特徴点が得られなければトラッキングをすることができない。
However, with the methods described in Patent Documents 1 and 2, tracking cannot be performed because feature points cannot be obtained when the tail end is not in the field of view, such as when steel materials are connected.
Further, when a steel material on a hot rolling line is targeted, characteristic points may disappear or occur on the surface of the steel material to be imaged due to scale generation or dropout, but the above-mentioned Patent Documents 1 and 2 In the method described in the above, tracking cannot be performed unless feature points are obtained.

本発明は、上記事情に鑑みてなされたものであり、特徴点が得られない場合であっても、追跡対象物を追跡することができるトラッキング装置を提供するものである。 The present invention has been made in view of the above circumstances, and provides a tracking device capable of tracking a tracking object even when a feature point cannot be obtained.

上記目的を達成するために、本発明の第1態様に係るトラッキング装置は、追跡対象物を追跡するトラッキング装置であって、前記追跡対象物を撮像した各時刻の画像の各々について、前記追跡対象物を表す領域を含む対象領域を、複数の局所領域に分割し、前記複数の局所領域の各々から特徴量を抽出する特徴量抽出部と、前記画像の前記複数の局所領域の各々について、次の時刻の前記画像の局所領域の中から、前記特徴量が対応する局所領域を探索する追跡部と、を含んで構成されている。
本発明の第1態様に係るトラッキング装置によれば、前記追跡対象物を表す領域を含む対象領域を、複数の局所領域に分割し、前記複数の局所領域の各々から特徴量を抽出し、前記画像の前記複数の局所領域の各々について、次の時刻の前記画像の局所領域の中から、前記特徴量が対応する局所領域を探索することにより、特徴点がない局所領域についても特徴量を抽出して、次の時刻の前記画像から対応する局所領域を探索するため、特徴点が得られない場合であっても、追跡対象物を追跡することができる。また、対象領域を、複数の局所領域に分割し、局所領域単位で探索するため、探索にかかる計算量を抑制することができる。
ここで、特徴点とは、周囲の点と区別できる、画像内の特徴的な点であり、例えば、エッジ点等である。また、特徴量とは、局所領域について計算される、局所領域の特徴を表す量である。
In order to achieve the above object, the tracking device according to the first aspect of the present invention is a tracking device that tracks a tracking object, and the tracking target is for each of the images at each time when the tracking object is imaged. The target area including the area representing an object is divided into a plurality of local areas, and the feature amount extraction unit for extracting the feature amount from each of the plurality of local areas and each of the plurality of local areas of the image are as follows. It is configured to include a tracking unit for searching a local region corresponding to the feature amount from the local region of the image at the time of.
According to the tracking device according to the first aspect of the present invention, the target area including the region representing the tracking object is divided into a plurality of local regions, and the feature amount is extracted from each of the plurality of local regions. For each of the plurality of local regions of the image, the feature quantity is extracted even for the local region having no feature point by searching the local region corresponding to the feature quantity from the local region of the image at the next time. Then, since the corresponding local region is searched from the image at the next time, the tracking object can be tracked even when the feature point cannot be obtained. Further, since the target area is divided into a plurality of local areas and the search is performed in units of local areas, the amount of calculation required for the search can be suppressed.
Here, the feature point is a feature point in the image that can be distinguished from the surrounding points, and is, for example, an edge point or the like. The feature quantity is a quantity that represents the characteristics of the local region, which is calculated for the local region.

本発明の第2態様に係るトラッキング装置は、前記追跡部によって前記画像の局所領域について探索された前記次の時刻の前記画像の局所領域との画像上の距離が閾値以上である場合には、前記画像の局所領域について探索した結果を無効化する無効化部を更に含む。 In the tracking device according to the second aspect of the present invention, when the distance on the image from the local region of the image at the next time searched by the tracking unit for the local region of the image is equal to or larger than the threshold value. It further includes an invalidation unit that invalidates the result of searching for the local area of the image.

本発明の第3態様に係るトラッキング装置は、前記無効化部による無効化後の、前記次の時刻の前記画像との間の局所領域の対応の各々から求められる移動距離に基づく移動速度を平均することによって、前記追跡対象物の移動速度を算出する移動速度算出部を更に含む。 The tracking device according to the third aspect of the present invention averages the moving speed based on the moving distance obtained from each of the correspondences of the local region between the image and the image at the next time after the invalidation by the invalidating unit. This further includes a movement speed calculation unit that calculates the movement speed of the tracking object.

本発明の第4態様に係るトラッキング装置において、前記特徴量抽出部は、前記局所領域内の画素の輝度値の分布を、n次多項式(nは2以上の整数)で近似したときの前記n次多項式の係数を、前記特徴量として抽出する。 In the tracking device according to the fourth aspect of the present invention, the feature amount extraction unit approximates the distribution of the luminance values of the pixels in the local region by an nth-order polynomial (n is an integer of 2 or more). The coefficient of the order polynomial is extracted as the feature quantity.

本発明の第5態様に係るトラッキング装置において、前記追跡部は、前記局所領域の画素と、次の時刻の画像の局所領域の画素とが一様に移動するとの仮定の上で、前記特徴量が対応する局所領域を探索する。 In the tracking device according to the fifth aspect of the present invention, the tracking unit has the feature amount on the assumption that the pixels in the local region and the pixels in the local region of the image at the next time move uniformly. Search for the corresponding local area.

本発明の第6態様に係るトラッキング装置において、前記追跡対象物は、熱間圧延ラインを搬送中の鋼材である。 In the tracking device according to the sixth aspect of the present invention, the tracking object is a steel material being conveyed on a hot rolling line.

本発明の第7態様に係るトラッキング装置において、前記熱間圧延ラインは、連続圧延ラインである。 In the tracking device according to the seventh aspect of the present invention, the hot rolling line is a continuous rolling line.

本発明によれば、特徴点が得られない場合であっても、追跡対象物を追跡することができる。 According to the present invention, the trackable object can be tracked even when the feature points cannot be obtained.

熱間圧延システムの概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of a hot rolling system. 移動速度推定装置の構成図である。It is a block diagram of the movement speed estimation device. フレーム毎の画像の一例を示す図である。It is a figure which shows an example of the image for every frame. 追跡された局所領域の無効化方法を説明するための図である。It is a figure for demonstrating the invalidation method of the tracked local area. 移動速度推定処理のフローチャートである。It is a flowchart of a moving speed estimation process.

以下、図面を用いて、本発明の実施形態について説明する。なお、本発明の実施形態では、トラッキング装置を、スラブの移動速度を推定する移動速度推定装置に適用した場合を例に説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment of the present invention, the case where the tracking device is applied to the movement speed estimation device for estimating the movement speed of the slab will be described as an example.

<本発明の実施の形態の概要>
鋼材は搬送中に溶接で連結されるため、先尾端を目印としたトラッキングは困難である。
<Outline of Embodiment of the present invention>
Since the steel materials are connected by welding during transportation, tracking using the tail end as a mark is difficult.

また、鋼材には鋼片No.等のマーキングやマークなど識別対象が無いため、それらを目印としたトラッキングは困難である。 In addition, since there is no identification target such as a marking or mark such as a steel piece No. on the steel material, it is difficult to track using them as a mark.

そこで、本発明の実施の形態では、連続圧延ラインを搬送される鋼片の映像を固定カメラにて撮影し、各フレームの画像について、鋼材を表す領域内の局所領域毎に特徴量を抽出し、特徴量を用いて、次のフレームにて同じ局所領域が存在するか探索を行う。そして、同じ局所領域があれば画像内の座標の差分を計算し移動量として算出する。その際に現実的に存在しえない値を移動量として持つものは除外する。そして、画像内に複数の移動量が検出された場合、平均値や中央値を用いて鋼材の走行速度として推定する。 Therefore, in the embodiment of the present invention, the image of the steel piece conveyed on the continuous rolling line is photographed by a fixed camera, and the feature amount is extracted for each local region in the region representing the steel material for the image of each frame. , The feature quantity is used to search for the existence of the same local region in the next frame. Then, if there is the same local area, the difference between the coordinates in the image is calculated and calculated as the movement amount. At that time, those having a value that cannot exist as a movement amount are excluded. When a plurality of movement amounts are detected in the image, the running speed of the steel material is estimated using the average value and the median value.

<熱間圧延システムの構成の概略>
図1は、移動速度推定装置10の適用先の一例である熱間圧延システムの概略構成の一例を示す図である。
<Outline of hot rolling system configuration>
FIG. 1 is a diagram showing an example of a schematic configuration of a hot rolling system, which is an example of an application destination of the moving speed estimation device 10.

図1において、熱間圧延システムは、加熱炉11と、溶接機12と、幅方向圧延機13と、粗圧延機14と、仕上圧延機15と、冷却装置(ランアウトテーブル)16と、巻取装置(コイラー)17と、を有する。 In FIG. 1, the hot rolling system includes a heating furnace 11, a welding machine 12, a widthwise rolling mill 13, a rough rolling mill 14, a finishing rolling mill 15, a cooling device (runout table) 16, and winding. It has a device (coiler) 17.

加熱炉11は、スラブ(鋼材)Sを加熱する。 The heating furnace 11 heats the slab (steel material) S.

溶接機12は、走行台車(図示省略)を用いて、加熱炉11で加熱されたスラブSの搬送中に溶接して連結する。 The welding machine 12 is welded and connected while the slab S heated in the heating furnace 11 is being conveyed by using a traveling carriage (not shown).

幅方向圧延機13は、溶接機12で連結されたスラブSを幅方向に圧延する。 The width direction rolling mill 13 rolls the slab S connected by the welding machine 12 in the width direction.

粗圧延機14は、幅方向圧延機13で幅方向に圧延されたスラブSを上下方向から圧延して粗バーにする。図1に示す例では、粗圧延機14は、ワークロールのみからなる圧延スタンド14aと、ワークロールとバックアップロールとを有する圧延スタンド14b〜14eとを有する。 The rough rolling mill 14 rolls the slab S rolled in the width direction by the width rolling mill 13 from the vertical direction into a rough bar. In the example shown in FIG. 1, the rough rolling mill 14 has a rolling stand 14a made of only a work roll and rolling stands 14b to 14e having a work roll and a backup roll.

仕上圧延機15は、粗圧延機14で製造された粗バーをさらに所定の厚みまで連続して熱間仕上圧延を行う。図1に示す例では、仕上圧延機15は、7つの圧延スタンド15a〜15gを有する。 The finish rolling mill 15 continuously hot finish rolls the rough bar manufactured by the rough rolling mill 14 to a predetermined thickness. In the example shown in FIG. 1, the finishing rolling mill 15 has seven rolling stands 15a to 15g.

冷却装置16は、仕上圧延機15により熱間仕上圧延が行われた熱延鋼板H(以下、単に鋼板Hと称する)を冷却水により冷却する。 The cooling device 16 cools the hot-rolled steel sheet H (hereinafter, simply referred to as the steel sheet H) that has been hot-finished and rolled by the finish rolling mill 15 with cooling water.

巻取装置17は、冷却装置16により冷却された鋼板Hをコイル状に巻き取る。 The winding device 17 winds the steel plate H cooled by the cooling device 16 into a coil shape.

尚、熱間圧延システムは、公知の技術で実現することができ、図1に示す構成に限定されるものではない。 The hot rolling system can be realized by a known technique and is not limited to the configuration shown in FIG. 1.

また、溶接機12の設置箇所において、スラブSの側面側に、固定カメラCが設けられている。これにより、固定カメラCは、スラブSの側面を撮影し、各フレームの画像を出力する。 Further, at the installation location of the welding machine 12, a fixed camera C is provided on the side surface side of the slab S. As a result, the fixed camera C captures the side surface of the slab S and outputs an image of each frame.

<移動速度推定装置の構成>
次に、移動速度推定装置の構成について説明する。図2には、移動速度推定装置10の機能的な構成を示した。
<Configuration of moving speed estimation device>
Next, the configuration of the moving speed estimation device will be described. FIG. 2 shows the functional configuration of the moving speed estimation device 10.

図2に示すように、移動速度推定装置10は、画像取得部52、特徴量抽出部54、追跡部56、無効化部58、移動速度推定部60、及び表示部62を備える。 As shown in FIG. 2, the movement speed estimation device 10 includes an image acquisition unit 52, a feature amount extraction unit 54, a tracking unit 56, an invalidation unit 58, a movement speed estimation unit 60, and a display unit 62.

固定カメラCは、図2では図示を省略した溶接機12による溶接により連結されたスラブSの搬送方向Aに対して垂直かつスラブSの側面を撮影するように配置されている。 The fixed camera C is arranged so as to be perpendicular to the transport direction A of the slab S connected by welding by the welding machine 12 (not shown in FIG. 2) and to photograph the side surface of the slab S.

固定カメラCは、スラブSの側面を表す画像(例えば、カラー画像)をフレーム毎に撮影する。 The fixed camera C captures an image (for example, a color image) representing the side surface of the slab S frame by frame.

画像取得部52は、固定カメラCにより撮影された画像をフレーム毎に取得する。 The image acquisition unit 52 acquires an image taken by the fixed camera C for each frame.

図3に示すように、フレーム毎に画像を取得し、フレーム毎に取得した画像の各々について、スラブSの側面を表す領域を含む対象領域を検出する。 As shown in FIG. 3, an image is acquired for each frame, and a target area including a region representing a side surface of the slab S is detected for each of the acquired images for each frame.

特徴量抽出部54は、画像取得部52によってフレーム毎に取得した画像の各々について、スラブSの側面を表す領域を含む対象領域を、複数の局所領域に分割し、複数の局所領域の全てから特徴量を各々抽出する。 The feature amount extraction unit 54 divides the target area including the area representing the side surface of the slab S into a plurality of local areas for each of the images acquired for each frame by the image acquisition unit 52, and from all of the plurality of local areas. Each feature quantity is extracted.

具体的には、特徴量抽出部54は、局所領域内の画素の輝度値の分布を、n次多項式(nは2以上の整数)で近似したときのn次多項式の係数を、特徴量として抽出する。 Specifically, the feature amount extraction unit 54 uses the coefficient of the nth-order polynomial when the distribution of the luminance values of the pixels in the local region is approximated by the nth-order polynomial (n is an integer of 2 or more) as the feature amount. Extract.

例えば、以下の2次元多項式で近似したときの2次多項式の係数A1、b1、c1を、特徴量として抽出する。 For example, the coefficients A 1 , b 1 , and c 1 of the quadratic polynomial when approximated by the following two-dimensional polynomial are extracted as features.

Figure 2021182267

(1)
Figure 2021182267

(1)

ただし、f1(x)は、局所領域内の画素xの輝度値を表す。また、xは、画素の画像座標を表す2次元ベクトルである。 However, f 1 (x) represents the luminance value of the pixel x in the local region. Further, x is a two-dimensional vector representing the image coordinates of the pixels.

追跡部56は、特徴量抽出部54によってフレーム毎に複数の局所領域の全てから抽出された特徴量に基づいて、各フレームを対象フレームとし、対象フレームの画像の全ての局所領域の各々について、次のフレームの画像の局所領域の中から、特徴量が対応する局所領域を探索する。 The tracking unit 56 sets each frame as a target frame based on the feature amount extracted from all of a plurality of local regions for each frame by the feature amount extraction unit 54, and for each of all the local regions of the image of the target frame. From the local area of the image of the next frame, the local area corresponding to the feature amount is searched.

具体的には、対象フレームの画像の全ての局所領域の各々について、次のフレームの画像の全ての局所領域の特徴量と比較して、次のフレームの画像の局所領域の中から、当該局所領域と特徴量が対応する局所領域を探索する。 Specifically, for each of all the local areas of the image of the target frame, the local area of the image of the next frame is compared with the feature amount of all the local areas of the image of the next frame. Search for a local area where the area and the feature amount correspond.

ここで、対象フレームの局所領域が、次のフレームの画像においてdだけ移動したと仮定すると、次のフレームの画像においてdだけ移動した局所領域内の画素の輝度値の分布を、2次多項式で近似したときの2次多項式は、以下の式で表される。 Here, assuming that the local region of the target frame is moved by d in the image of the next frame, the distribution of the brightness values of the pixels in the local region moved by d in the image of the next frame is distributed by a quadratic polynomial. The quadratic polynomial when approximated is expressed by the following equation.

Figure 2021182267

(2)
Figure 2021182267

(2)

ただし、dは、各座標軸の移動量を表す2次元ベクトルである。 However, d is a two-dimensional vector representing the amount of movement of each coordinate axis.

そこで、本実施の形態では、例えば、対象フレームの局所領域の特徴量A1、b1、c1に対して、以下の式の関係を満たす、次のフレームの画像の局所領域の特徴量A2、b2、c2を探索する。 Therefore, in the present embodiment, for example, the feature amount A of the local region of the image of the next frame satisfying the relationship of the following equation with respect to the feature quantities A 1 , b 1 , and c 1 of the local region of the target frame. Search for 2 , b 2 , and c 2.

Figure 2021182267

(3)
Figure 2021182267

(3)

ただし、上記式におけるdは、対象フレームの局所領域を基準とした、次のフレームの画像の局所領域の移動量を表す2次元ベクトルである。 However, d in the above equation is a two-dimensional vector representing the amount of movement of the local region of the image of the next frame with respect to the local region of the target frame.

無効化部58は、追跡部56によって対象フレームの画像の局所領域について探索された次のフレームの画像の局所領域との画像上の移動距離が閾値以上である場合には、対象フレームの画像の当該局所領域について探索した結果を無効化する。 When the moving distance on the image from the local area of the image of the next frame searched by the tracking unit 56 for the local area of the image of the target frame is equal to or larger than the threshold value, the invalidation unit 58 of the image of the target frame The result of searching for the local area is invalidated.

具体的には、対象フレームの画像の全ての局所領域の各々について、次のフレームの画像の局所領域の中から、特徴量が対応する局所領域が探索された場合、局所領域の移動方向が、スラブSの搬送方向と対応し、かつ、局所領域の移動距離が、スラブSの基準搬送速度に基づく移動距離の所定倍未満であるか否かを判定し、局所領域の移動方向が、スラブSの搬送方向と対応しない場合、又は、局所領域の移動距離が、スラブSの基準搬送速度に基づく移動距離の所定倍以上である場合に、当該局所領域について探索した結果を無効化する。 Specifically, for each of the local regions of the image of the target frame, when the local region corresponding to the feature amount is searched from the local regions of the image of the next frame, the moving direction of the local region is determined. It is determined whether or not the moving distance of the local region corresponds to the transport direction of the slab S and is less than a predetermined time of the moving distance based on the reference transport speed of the slab S, and the moving direction of the local region is the slab S. If it does not correspond to the transport direction of the local region, or if the travel distance of the local region is a predetermined time or more of the travel distance based on the reference transport speed of the slab S, the result of searching for the local region is invalidated.

例えば、図4に示すように、対象フレームの局所領域のx座標x1と、次のフレームの対応する局所領域のx座標x2の差分(x1−x2)の正負が、スラブSの搬送方向と対応していない場合(例えば、x1−x2>0)には、局所領域の移動方向が、スラブSの搬送方向と対応していないと判断する。また、スラブS上のスケールの飛散等を誤検出しないように定められた所定倍(例えば、1.1倍)を用いて、局所領域のx軸方向の移動距離(x1−x2)が、スラブSの基準搬送速度に基づく移動距離の1.1倍未満であるか否かを判定する。 For example, as shown in FIG. 4, the positive / negative of the difference (x 1 − x 2 ) between the x coordinate x 1 of the local region of the target frame and the x coordinate x 2 of the corresponding local region of the next frame is the slab S. When it does not correspond to the transport direction (for example, x 1 − x 2 > 0), it is determined that the movement direction of the local region does not correspond to the transport direction of the slab S. In addition, the moving distance (x 1 − x 2 ) in the x-axis direction of the local region is determined by using a predetermined multiple (for example, 1.1 times) determined so as not to erroneously detect scale scattering on the slab S. , It is determined whether or not it is less than 1.1 times the moving distance based on the reference transport speed of the slab S.

移動速度推定部60は、無効化部58による無効化後の、次のフレームの画像との間の局所領域の対応の各々から求められる移動距離に基づく移動速度を平均することによって、スラブSの移動速度を算出する。 The movement speed estimation unit 60 of the slab S by averaging the movement speeds based on the movement distances obtained from each of the correspondences of the local regions with the image of the next frame after the invalidation by the invalidation unit 58. Calculate the moving speed.

具体的には、対象フレームの画像の全ての局所領域の各々について、次のフレームの画像の局所領域の中から、特徴量が対応する局所領域が探索され、かつ、無効化部58によって無効化されなかった場合、対応する局所領域の各々の位置から求められる局所領域の移動距離に基づく移動速度を算出し、算出された移動速度の平均を、スラブSの移動速度として算出する。なお、移動速度を平均するのではなく、算出された移動速度の中央値を、スラブSの移動速度として算出してもよい。 Specifically, for each of all the local areas of the image of the target frame, the local area corresponding to the feature amount is searched from the local area of the image of the next frame, and the invalidation unit 58 invalidates the local area. If not, the movement speed based on the movement distance of the local region obtained from each position of the corresponding local region is calculated, and the average of the calculated movement speeds is calculated as the movement speed of the slab S. Instead of averaging the moving speeds, the median value of the calculated moving speeds may be calculated as the moving speeds of the slab S.

表示部62は、移動速度推定部60の推定結果を表示する。 The display unit 62 displays the estimation result of the moving speed estimation unit 60.

次に、移動速度推定装置10で実行される移動速度推定処理について、図5に示すフローチャートを参照して説明する。なお、図5に示す処理は、固定カメラCの撮像範囲において、溶接機12により連結されたスラブSが搬送されているときに、固定カメラCにより撮像される画像のフレーム毎に繰り返し実行される。 Next, the movement speed estimation process executed by the movement speed estimation device 10 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 5 is repeatedly executed for each frame of the image captured by the fixed camera C while the slab S connected by the welding machine 12 is being conveyed in the imaging range of the fixed camera C. ..

ステップS100では、画像取得部52は、固定カメラCからt番目のフレームの画像とt+1番目のフレームの画像とを取得する。 In step S100, the image acquisition unit 52 acquires the image of the t-th frame and the image of the t + 1-th frame from the fixed camera C.

ステップS102では、特徴量抽出部54は、画像取得部52によって取得したt番目、t+1番目のフレームの画像の各々について、スラブSの側面を表す領域を含む対象領域を、複数の局所領域に分割する。 In step S102, the feature amount extraction unit 54 divides the target area including the area representing the side surface of the slab S into a plurality of local areas for each of the images of the t-th and t + 1-th frames acquired by the image acquisition unit 52. do.

ステップS104では、t番目、t+1番目のフレームの画像の各々について、複数の局所領域の全てから特徴量を各々抽出する。 In step S104, the feature amount is extracted from all of the plurality of local regions for each of the images of the t-th and t + 1-th frames.

ステップS106では、t番目のフレームの画像の局所領域を選択する。 In step S106, a local region of the image of the t-th frame is selected.

ステップS108では、追跡部56は、t番目のフレームの画像の選択された局所領域について、次のフレームの画像の局所領域の中から、特徴量が対応する局所領域を探索し、選択された局所領域の位置と探索された局所領域の位置とから求められる移動距離を計算する。 In step S108, the tracking unit 56 searches the local area of the image of the next frame for the selected local area of the image of the t-th frame, and searches for the local area corresponding to the feature amount, and selects the local area. The moving distance obtained from the position of the region and the position of the searched local region is calculated.

ステップS110では、上記ステップS108で計算された移動距離が有効であるか否かを判定する。局所領域の移動方向が、スラブSの搬送方向と対応し、かつ、局所領域の移動距離が、スラブSの基準搬送速度に基づく移動距離の所定倍未満である場合に、有効であると判定して、ステップS112へ移行し、一方、そうでない場合に、無効であると判定し、ステップS116へ移行する。 In step S110, it is determined whether or not the travel distance calculated in step S108 is valid. It is determined to be effective when the moving direction of the local region corresponds to the transport direction of the slab S and the moving distance of the local region is less than a predetermined time of the moving distance based on the reference transport speed of the slab S. Then, the process proceeds to step S112, and if not, it is determined that the process is invalid, and the process proceeds to step S116.

ステップS112では、上記ステップS108で計算された移動距離を、t番目のフレームの画像上に描画し、ステップS114において、上記ステップS108で計算された移動距離と、フレームの間隔に対応する時間とに基づいて、移動距離を算出する。 In step S112, the moving distance calculated in step S108 is drawn on the image of the t-th frame, and in step S114, the moving distance calculated in step S108 and the time corresponding to the frame interval are set. Based on this, the travel distance is calculated.

ステップS116では、t番目のフレームの画像のすべての局所領域について上記ステップS106〜ステップS114の処理を実行したか否かを判定し、上記ステップS106〜ステップS114の処理を実行していない局所領域が存在する場合には、ステップS106へ戻り、当該局所領域を選択する。一方、t番目のフレームの画像のすべての局所領域について上記ステップS106〜ステップS114の処理を実行した場合には、ステップS118において、上記ステップS114で算出された移動速度を平均化して、表示部62に表示して、移動速度推定処理を終了する。 In step S116, it is determined whether or not the processing of steps S106 to S114 has been executed for all the local regions of the image of the t-th frame, and the local regions that have not executed the processing of steps S106 to S114 are If it exists, the process returns to step S106 and the local region is selected. On the other hand, when the processes of steps S106 to S114 are executed for all the local regions of the image of the t-th frame, the movement speed calculated in step S114 is averaged in step S118, and the display unit 62 Is displayed and the movement speed estimation process is completed.

このように、本実施形態では、連続圧延ラインを搬送される鋼片の映像を固定カメラにて撮影し、各フレームの画像について、鋼材を表す領域内の局所領域毎に特徴量を抽出し、特徴量を用いて、次のフレームにて同じ局所領域が存在するか探索を行う。そして、同じ局所領域があれば画像内の座標の差分を計算し移動量として算出する。その際に現実的に存在しえない値を移動量として持つものは除外する。これにより、連続圧延ラインで搬送中のスラブの先尾端が視野に入らない場合など、特徴点が得られない場合であっても、搬送中のスラブを追跡することができる。 As described above, in the present embodiment, the image of the steel piece conveyed on the continuous rolling line is captured by a fixed camera, and the feature amount is extracted for each local region in the region representing the steel material for the image of each frame. The feature quantity is used to search for the existence of the same local region in the next frame. Then, if there is the same local area, the difference between the coordinates in the image is calculated and calculated as the movement amount. At that time, those having a value that cannot exist as a movement amount are excluded. This makes it possible to track the slab being conveyed even when the feature points cannot be obtained, such as when the tip and tail ends of the slab being conveyed on the continuous rolling line are not in the field of view.

また、局所領域内の画素の輝度値の分布を二次多項式で近似したときの係数を特徴量として抽出することにより、輝度値などに関する通常の特徴量を用いる場合と比較して、局所領域の正確な一致度を判定することができ、搬送中のスラブを精度よく追跡することができる。 In addition, by extracting the coefficient when the distribution of the brightness value of the pixel in the local area is approximated by a quadratic polynomial as the feature amount, the local area can be compared with the case where the normal feature amount related to the brightness value etc. is used. It is possible to determine the exact degree of matching, and it is possible to accurately track the slab being transported.

また、模様等が不明な場合であっても、全ての局所領域から、特徴量が対応する局所領域を探索するため、局所領域を追跡することができる。このとき、誤対応が探索された場合であっても、移動距離に応じて無効化することができる。 Further, even when the pattern or the like is unknown, the local region can be traced because the local region corresponding to the feature amount is searched from all the local regions. At this time, even if an erroneous response is searched for, it can be invalidated according to the travel distance.

<変形例>
上記の実施の形態では、局所領域内の画像の輝度値の分布を近似した2次元多項式の係数を特徴量として抽出し、対応する特徴量を有する局所領域を探索して追跡する場合を例に説明したが、これに限定されるものではなく、画像の局所領域が一様に移動すると仮定して、対応する局所領域を探索するようにしてもよい。
<Modification example>
In the above embodiment, a case where a coefficient of a two-dimensional polynomial that approximates the distribution of the luminance value of the image in the local region is extracted as a feature quantity, and a local region having the corresponding feature quantity is searched for and tracked is taken as an example. As described above, the present invention is not limited to this, and the corresponding local region may be searched by assuming that the local region of the image moves uniformly.

この場合には、特徴量抽出部54は、局所領域内の各画素の輝度値を特徴量として抽出する。 In this case, the feature amount extraction unit 54 extracts the luminance value of each pixel in the local region as the feature amount.

追跡部56は、局所領域の画素と、次のフレームの画像の局所領域の画素とが一様に移動するとの仮定の上で、以下に説明する方法により対象フレームの画像の全ての局所領域の各々について、次のフレームの画像の局所領域の中から、特徴量が対応する局所領域を探索する。 On the assumption that the pixels in the local region and the pixels in the local region of the image of the next frame move uniformly, the tracking unit 56 covers all the local regions of the image of the target frame by the method described below. For each, the local area corresponding to the feature amount is searched from the local area of the image of the next frame.

まず、以下のエネルギー関数を考える。 First, consider the following energy function.

Figure 2021182267

(4)
Figure 2021182267

(4)

ここで、Bは、画素xを中心とする矩形の局所領域を表し、dはその局所領域の任意の位置を表すパラメータである。すなわち、t番目のフレームからt+1番目のフレームまでの移動をvtとしたときの、画素xの移動前後での局所領域内の対応点間の輝度差の2乗和である。もし、局所領域内のすべての画素が同じ輝度で同一方向に同じ分だけ移動したとすれば、上記式(4)は0となる。上記式(4)の右辺を一次のテーラー展開で近似すると以下の式が得られる。 Here, B represents a rectangular local region centered on the pixel x, and d is a parameter representing an arbitrary position of the local region. That is, it is the sum of squares of the luminance differences between the corresponding points in the local region before and after the movement of the pixel x when the movement from the t-th frame to the t + 1th frame is v t. If all the pixels in the local region move in the same direction by the same amount with the same brightness, the above equation (4) becomes 0. By approximating the right-hand side of the above equation (4) with a first-order Taylor expansion, the following equation is obtained.

Figure 2021182267

(5)
Figure 2021182267

(5)

ただし、

Figure 2021182267

である。 However,
Figure 2021182267

Is.

∇ftは、画素xでの画像ftの水平方向と垂直方向の差分値を表し、ftは画素xでの隣接フレーム間での時間差分値を表している。この2乗輝度差の総和を最小とする移動量vを各画素x毎に求める。 ∇f t represents a difference value in the horizontal direction and the vertical direction of the image f t at pixel x, f t denotes the time difference between adjacent frames at the pixel x. The movement amount v that minimizes the sum of the squared luminance differences is obtained for each pixel x.

式(5)をvtで微分して0とおくことで、最適な移動量vtが次式のように得られる。 By differentiating Eq. (5) with v t and setting it to 0, the optimum amount of movement v t can be obtained as shown in the following equation.

Figure 2021182267

(6)
Figure 2021182267

(6)

各画素での移動量は独立ではないため、以下の式の計算処理の繰り返しをすべての画素xでvt k+1(x)が変化しなくなるまで行い、移動量を決定する。 Since the movement amount in each pixel is not independent, the calculation process of the following formula is repeated until v t k + 1 (x) does not change in all pixels x to determine the movement amount.

Figure 2021182267

(7)
Figure 2021182267

(7)

また、本実施形態では、溶接機12の設置箇所に固定カメラCを設置した場合について説明したが、設置箇所はこれに限られるものではない。 Further, in the present embodiment, the case where the fixed camera C is installed at the installation location of the welding machine 12 has been described, but the installation location is not limited to this.

10 移動速度推定装置
11 加熱炉
12 溶接機
13 幅方向圧延機
14 粗圧延機
15 仕上圧延機
16 冷却装置
17 巻取装置
52 画像取得部
54 特徴量抽出部
56 追跡部
58 無効化部
60 移動速度推定部
62 表示部
C 固定カメラ
H 鋼板
S スラブ
10 Moving speed estimation device 11 Heating furnace 12 Welding machine 13 Width rolling machine 14 Rough rolling machine 15 Finishing rolling machine 16 Cooling device 17 Winding device 52 Image acquisition unit 54 Feature quantity extraction unit 56 Tracking unit 58 Invalidation unit 60 Movement speed Estimating unit 62 Display unit C Fixed camera H Steel plate S Slab

Claims (7)

追跡対象物を追跡するトラッキング装置であって、
前記追跡対象物を撮像した各時刻の画像の各々について、前記追跡対象物を表す領域を含む対象領域を、複数の局所領域に分割し、前記複数の局所領域の各々から特徴量を抽出する特徴量抽出部と、
前記画像の前記複数の局所領域の各々について、次の時刻の前記画像の局所領域の中から、前記特徴量が対応する局所領域を探索する追跡部と、
を含むトラッキング装置。
A tracking device that tracks objects to be tracked.
For each of the images at each time when the tracking object is imaged, the target area including the region representing the tracking object is divided into a plurality of local regions, and the feature amount is extracted from each of the plurality of local regions. Volume extractor and
For each of the plurality of local regions of the image, a tracking unit that searches for a local region corresponding to the feature amount from the local regions of the image at the next time.
Tracking device including.
前記追跡部によって前記画像の局所領域について探索された前記次の時刻の前記画像の局所領域との画像上の距離が閾値以上である場合には、前記画像の局所領域について探索した結果を無効化する無効化部を更に含む請求項1記載のトラッキング装置。 When the distance on the image from the local area of the image at the next time searched for the local area of the image by the tracking unit is equal to or more than the threshold value, the result of searching for the local area of the image is invalidated. The tracking device according to claim 1, further comprising an invalidation unit. 前記無効化部による無効化後の、前記次の時刻の前記画像との間の局所領域の対応の各々から求められる移動距離に基づく移動速度を平均することによって、前記追跡対象物の移動速度を算出する移動速度算出部を更に含む請求項2記載のトラッキング装置。 The movement speed of the tracked object is determined by averaging the movement speeds based on the movement distances obtained from each of the correspondences of the local region with the image at the next time after invalidation by the invalidation unit. The tracking device according to claim 2, further including a moving speed calculation unit for calculation. 前記特徴量抽出部は、前記局所領域内の画素の輝度値の分布を、n次多項式(nは2以上の整数)で近似したときの前記n次多項式の係数を、前記特徴量として抽出する請求項1〜請求項3の何れか1項記載のトラッキング装置。 The feature amount extraction unit extracts the coefficient of the nth-order polynomial when the distribution of the brightness values of the pixels in the local region is approximated by an nth-order polynomial (n is an integer of 2 or more) as the feature amount. The tracking device according to any one of claims 1 to 3. 前記追跡部は、前記局所領域の画素と、次の時刻の画像の局所領域の画素とが一様に移動するとの仮定の上で、前記特徴量が対応する局所領域を探索する請求項1〜請求項3の何れか1項記載のトラッキング装置。 The tracking unit searches for a local region corresponding to the feature amount on the assumption that the pixel of the local region and the pixel of the local region of the image at the next time move uniformly. The tracking device according to any one of claims 3. 前記追跡対象物は、熱間圧延ラインを搬送中の鋼材である請求項1〜請求項5の何れか1項記載のトラッキング装置。 The tracking device according to any one of claims 1 to 5, wherein the tracking object is a steel material being conveyed in a hot rolling line. 前記熱間圧延ラインは、連続圧延ラインである請求項6記載のトラッキング装置。 The tracking device according to claim 6, wherein the hot rolling line is a continuous rolling line.
JP2020087506A 2020-05-19 2020-05-19 Tracking device Pending JP2021182267A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087506A JP2021182267A (en) 2020-05-19 2020-05-19 Tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087506A JP2021182267A (en) 2020-05-19 2020-05-19 Tracking device

Publications (1)

Publication Number Publication Date
JP2021182267A true JP2021182267A (en) 2021-11-25

Family

ID=78606577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087506A Pending JP2021182267A (en) 2020-05-19 2020-05-19 Tracking device

Country Status (1)

Country Link
JP (1) JP2021182267A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055866A (en) * 2022-05-30 2023-05-02 荣耀终端有限公司 Shooting method and related electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055866A (en) * 2022-05-30 2023-05-02 荣耀终端有限公司 Shooting method and related electronic equipment
CN116055866B (en) * 2022-05-30 2023-09-12 荣耀终端有限公司 Shooting method and related electronic equipment

Similar Documents

Publication Publication Date Title
JP5075672B2 (en) Object detection apparatus and method
CN109816645B (en) Automatic detection method for steel coil loosening
CN103383776B (en) A kind of laddering Stereo Matching Algorithm based on two stage cultivation and Bayesian Estimation
RU2562413C2 (en) Method and system identifying and determining geometrical, spatial and position characteristics of products transported by continuously acting conveyor, in particular unmachined, coarse profiled, coarse machined or partially machined steel products
JP6524529B2 (en) Building limit judging device
CN112365439B (en) Method for synchronously detecting forming characteristics of GMAW welding seam of galvanized steel and direction of welding gun in real time
US7221789B2 (en) Method for processing an image captured by a camera
JP2021182267A (en) Tracking device
JP5288440B2 (en) Human body detection apparatus and human body detection method
CN104200492A (en) Automatic detecting and tracking method for aerial video target based on trajectory constraint
JP2016004446A (en) Motion estimation device
Novikov et al. Contour analysis in the tasks of real and virtual images superimposition
CN110264510A (en) A method of image zooming-out depth of view information is acquired based on binocular
CN113551748A (en) Real-time online measuring method and system for weight of rod and wire steel billet body
CN107084677A (en) A kind of heat- treated steel band deformation detection method and device based on machine vision
KR101328204B1 (en) Apparatus for detecting scratch of hot slab and method using thereof
WO2023035404A1 (en) Method for estimating comprised angle between camera plane and target plane based on monocular vision
Yoo et al. Camber detection algorithm using the image stitching technique in hot-rolling process
JP4269781B2 (en) Optical flow detection system, detection method and detection program
US20240091835A1 (en) Steel-sheet meandering amount measurement device, steel-sheet meandering amount measurement method, hot-rolling equipment for hot-rolled steel strip, and hot-rolling method of hot-rolled steel strip
JP4839330B2 (en) Image processing apparatus and image processing program
Abdelgawad et al. A robust fuzzy logic-based real-time automatic camber detection and measurement in hot rolling mill
WO2022163177A1 (en) Steel-sheet walking amount measurement device, steel-sheet walking amount measurement method, hot-rolling equipment for hot-rolled steel strip, and hot-rolling method for hot-rolled steel strip
KR101595368B1 (en) Method for eliminating hot atmosphere for feature tracking in thermal infrared images
Jianzhao et al. Width Measurement and Head Tail Shape Detection for Iron Slab using Machine Vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240528