JP5549536B2 - Analysis device, analysis method, and computer program - Google Patents

Analysis device, analysis method, and computer program Download PDF

Info

Publication number
JP5549536B2
JP5549536B2 JP2010239171A JP2010239171A JP5549536B2 JP 5549536 B2 JP5549536 B2 JP 5549536B2 JP 2010239171 A JP2010239171 A JP 2010239171A JP 2010239171 A JP2010239171 A JP 2010239171A JP 5549536 B2 JP5549536 B2 JP 5549536B2
Authority
JP
Japan
Prior art keywords
image
feature amount
analysis
data
tail end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010239171A
Other languages
Japanese (ja)
Other versions
JP2012093862A (en
Inventor
章 藤井
辰一郎 下井
英都 中村
雅浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2010239171A priority Critical patent/JP5549536B2/en
Publication of JP2012093862A publication Critical patent/JP2012093862A/en
Application granted granted Critical
Publication of JP5549536B2 publication Critical patent/JP5549536B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、分析装置、分析方法およびコンピュータプログラムに関し、より詳細には、プロセスデータと画像等のマルチメディア情報とを用いたモデリング技術により現象を分析する分析装置、分析方法およびコンピュータプログラムに関する。   The present invention relates to an analysis apparatus, an analysis method, and a computer program. More specifically, the present invention relates to an analysis apparatus, an analysis method, and a computer program for analyzing a phenomenon by a modeling technique using process data and multimedia information such as an image.

IT技術の発展によって、画像、音声等のマルチメディア情報をデジタルデータとして容易に扱うことが可能となった。一方で、近年のデータ解析技術の発展も目覚ましく、計算機性能の飛躍的向上と相まって、大量のデータから特徴量や関係式を効率よく導出できるデータ解析技術の実用化が急進している。   With the development of IT technology, multimedia information such as images and sounds can be easily handled as digital data. On the other hand, the development of data analysis technology has been remarkable in recent years, and coupled with a dramatic improvement in computer performance, the practical application of data analysis technology that can efficiently derive feature quantities and relational expressions from a large amount of data is rapidly progressing.

従来のモデリング技術は、基本的に、重回帰モデル等のようにプロセスデータ等のスカラ値の連続測定量を用いた相関解析によるものである。例えば、特許文献1には、ビジュアルフィードバック制御に画像予測機能を持つモデルを持たせることにより予測制御を実現するビジュアルフィードバック制御装置が開示されている。   The conventional modeling technique is basically based on correlation analysis using a continuous measurement amount of scalar values such as process data such as a multiple regression model. For example, Patent Literature 1 discloses a visual feedback control device that realizes predictive control by providing a model having an image predicting function in visual feedback control.

また、特許文献2には、下水処理プロセスの曝気槽から流れ出る下水を撮影する撮影手段と、この撮影手段により撮影された画像の特徴量を抽出する画像処理手段と、下水処理プロセスに与えられる操作量と前記画像処理手段により抽出された特徴量に基づき、所定時間後の特徴量を予測する特徴量予測手段と、この特徴量予測手段により予測された特徴量と目標とする特徴量とが一致するよう、前記操作量の修正量を求める操作量修正手段と、この操作量修正手段によって求められた操作量の修正量を前記操作量に加算する加算手段とを備える下水処理プロセス制御装置が開示されている。   Further, Patent Document 2 discloses a photographing unit for photographing sewage flowing out from an aeration tank in a sewage treatment process, an image processing unit for extracting a feature amount of an image photographed by the photographing unit, and an operation given to the sewage treatment process. A feature quantity predicting means for predicting a feature quantity after a predetermined time based on the quantity and the feature quantity extracted by the image processing means, and the feature quantity predicted by the feature quantity predicting means matches the target feature quantity. A sewage treatment process control device comprising: an operation amount correction unit that determines a correction amount of the operation amount; and an addition unit that adds the correction amount of the operation amount determined by the operation amount correction unit to the operation amount. Has been.

特開平6−266410号公報JP-A-6-266410 特開平8−52459号公報JP-A-8-52459 特許第4150322号公報Japanese Patent No. 4150322 特開2008−163381号公報JP 2008-163381 A

しかし、従来のモデリング技術では、独立変数や従属変数が増加すると、その解析には多大な時間が必要となり、オンラインで分析結果を用いることは困難であった。また、プロセスデータに基づくモデリング技術では、プロセス解明が進んでいない現象を推定するには限界がある。その一方で、人の五感に基づき定性的・主観的な基準でユーザが判断している現象を、定量的・客観的なモデルで分析して現象を推定できるようにすることも望まれている。すなわち、定量的・客観的なモデルを用いて現象を分析できると、画像や音声のようなマルチメディア情報のままの形式として予測・推定することができるようになる。これによって、人間の高い知覚能力を活かした評価判断を行うことも可能となり、例えば、かかる評価判断を用いて異常状態やそれらの前兆を認識し、異常を回避した望ましい制御状態へ導く操作アクションを行うことができるようになる。   However, in the conventional modeling technique, when the independent variables and the dependent variables increase, the analysis requires a lot of time, and it is difficult to use the analysis results online. In addition, modeling techniques based on process data have limitations in estimating phenomena that have not been elucidated. On the other hand, it is also desirable to be able to estimate phenomena by analyzing quantitatively and objectively the phenomena that users judge based on qualitative and subjective criteria based on the human senses. . In other words, if a phenomenon can be analyzed using a quantitative / objective model, it can be predicted and estimated as a multimedia information such as an image or sound. This makes it possible to make evaluation judgments that make use of the high human perception ability.For example, an operation action that recognizes abnormal states and their precursors using such evaluation judgments and leads to a desirable control state that avoids abnormalities. Will be able to do.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、マルチメディア情報を利用して、定量的・客観的なモデリング技術によって現象を、画像や音声のようなマルチメディア情報のままの形式として予測・推定することが可能な、新規かつ改良された分析装置、分析方法およびコンピュータプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to use multimedia information to quantitate phenomena using images and audio, using quantitative and objective modeling techniques. It is an object of the present invention to provide a new and improved analysis apparatus, analysis method, and computer program that can be predicted and estimated as such multimedia information.

上記課題を解決するために、本発明のある観点によれば、分析対象物を生成するプロセスにおいて、当該プロセスにて生成される分析対象物を分析する分析装置が提供される。分析装置は、分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する第1の特徴量抽出部と、分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出部と、第1の特徴量抽出部により抽出された画像特徴量と、第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、プロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測部と、を備えることを特徴とする。   In order to solve the above problems, according to an aspect of the present invention, an analysis apparatus for analyzing an analysis object generated in the process is provided in a process of generating the analysis object. The analysis apparatus includes: a first feature amount extraction unit that extracts an image feature amount representing a shape feature appearing in an image from an analysis target image of the analysis target; and process data from the process data in the process of generating the analysis target to the process data A second feature quantity extraction unit that extracts data feature quantities representing characteristics on the data that appears, an image feature quantity extracted by the first feature quantity extraction unit, and data extracted by the second feature quantity extraction unit A prediction unit that calculates a predicted image feature amount predicted for the analysis target generated in the process based on the correlation with the feature amount.

画像特徴量は、分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、第1の特徴量抽出部は、独立成分分析を用いて分析対象物の分析対象画像に対する基底画像への寄与率を取得してもよい。このとき、予測部は、第1の特徴量抽出部により取得された基底画像の寄与率と第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出する。   The image feature amount is a contribution ratio of the analysis target object to the base image representing the characteristic shape with respect to the analysis target image, and the first feature amount extraction unit uses the independent component analysis to analyze the analysis target object. You may acquire the contribution rate to the base image with respect to an image. At this time, the prediction unit is generated by a process based on the correlation between the contribution ratio of the base image acquired by the first feature amount extraction unit and the data feature amount extracted by the second feature amount extraction unit. The estimated contribution rate to the base image for the analyzed object is calculated.

予測部は、データ特徴量と分析対象物を生成する過程における各プロセスデータとのユークリッド距離をそれぞれ算出し、各ユークリッド距離が最小となるプロセスデータに関連付けられた画像特徴量を分析対象物の予測画像特徴量としてもよい。   The prediction unit calculates the Euclidean distance between the data feature quantity and each process data in the process of generating the analysis object, and predicts the image feature quantity associated with the process data that minimizes each Euclidean distance. It may be an image feature amount.

あるいは、予測部は、データ特徴量と分析対象物を生成する過程における各プロセスデータとのユークリッド距離をそれぞれ算出し、各ユークリッド距離が所定値以下となる複数のプロセスデータを類似プロセスデータとして抽出し、類似プロセスデータに関連付けられた画像特徴量の加重平均を分析対象物の予測画像特徴量としてもよい。   Alternatively, the prediction unit calculates the Euclidean distance between the data feature amount and each process data in the process of generating the analysis object, and extracts a plurality of process data in which each Euclidean distance is a predetermined value or less as similar process data. A weighted average of image feature amounts associated with similar process data may be used as the predicted image feature amount of the analysis object.

また、第2の特徴量抽出部は、分析対象物を生成する過程におけるプロセスデータに含まれる項目データのうち、少なくとも1つの項目データの値を正規化して、データ特徴量としてもよい。   Further, the second feature quantity extraction unit may normalize the value of at least one item data among the item data included in the process data in the process of generating the analysis object, and obtain the data feature quantity.

分析装置は、予測部により算出された予測画像特徴量と、基底画像とに基づいて、分析対象物の形状を推定する推定部をさらに備えることもできる。   The analysis apparatus may further include an estimation unit that estimates the shape of the analysis target based on the predicted image feature amount calculated by the prediction unit and the base image.

分析対象物は、例えば圧延プロセスにおける圧延材料であり、圧延材料の尾端の形状を表す尾端画像を分析対象画像としてもよい。
The analysis object is, for example, a rolling material in a rolling process, and a tail end image representing the shape of the tail end of the rolling material may be used as the analysis target image.

また、上記課題を解決するために、本発明の別の観点によれば、分析対象物を生成するプロセスにおいて、当該プロセスにて生成される分析対象物を分析する分析方法が提供される。分析方法は、分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する第1の特徴量抽出ステップと、分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出ステップと、画像特徴量とデータ特徴量との相関関係に基づいて、プロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測ステップと、を含み、画像特徴量は、分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、第1の特徴量抽出ステップは、独立成分分析を用いて分析対象物の分析対象画像に対する基底画像への寄与率を取得し、予測ステップは、第1の特徴量抽出ステップにより取得された基底画像の寄与率と第2の特徴量抽出ステップにより抽出されたデータ特徴量との相関関係に基づいて、プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出することを特徴とする。
Moreover, in order to solve the said subject, according to another viewpoint of this invention, in the process which produces | generates an analysis target object, the analysis method which analyzes the analysis target object produced | generated in the said process is provided. The analysis method includes a first feature amount extraction step for extracting an image feature amount representing a shape feature appearing in an image from an analysis target image of the analysis target, and a process data in a process of generating the analysis target to the process data. Based on the correlation between the image feature quantity and the data feature quantity, the second feature quantity extraction step for extracting the data feature quantity representing the characteristic on the data that appears, and the analysis object generated in the process is predicted seen including a prediction step of calculating the predicted image feature amount, the image feature amount, for analyzing the target image of an analyte, a contribution rate to the underlying image representing a characteristic shape, a first feature quantity extraction The step acquires the contribution ratio of the analysis object to the base image with respect to the analysis target image using independent component analysis, and the prediction step is acquired by the first feature amount extraction step. Based on the correlation between the contribution rate and the data feature value extracted by the second feature extraction step of the base image, and calculates the contribution rate to the underlying image to be predicted for the analyte to be generated in the process It is characterized by that.

さらに、上記課題を解決するために、本発明の別の観点によれば、コンピュータをして、分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する
第1の特徴量抽出部と、分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出部と、第1の特徴量抽出部により抽出された画像特徴量と、第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、分析対象物を生成するプロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測部と、を備え、画像特徴量は、分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、第1の特徴量抽出部は、独立成分分析を用いて分析対象物の分析対象画像に対する基底画像への寄与率を取得し、予測部は、第1の特徴量抽出部により取得された基底画像の寄与率と第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出することを特徴とする、分析対象物を生成するプロセスにて生成される分析対象物を分析する分析装置として機能させるためのコンピュータプログラムが提供される。
Furthermore, in order to solve the above-described problem, according to another aspect of the present invention, a computer is used to extract an image feature amount representing a shape feature appearing in an image from an analysis target image of the analysis target. A feature amount extraction unit; a second feature amount extraction unit that extracts data feature amounts representing characteristics on data appearing in the process data from process data in the process of generating the analysis target; and a first feature amount extraction unit Based on the correlation between the image feature amount extracted by the above and the data feature amount extracted by the second feature amount extraction unit, the analysis target generated in the process of generating the analysis target is predicted A prediction unit that calculates a predicted image feature amount, wherein the image feature amount is a contribution rate of the analysis object to the base image representing the characteristic shape with respect to the analysis target image, and the first feature amount extraction unit Is The contribution ratio of the analysis object to the analysis target image with respect to the analysis target image is acquired using the standing component analysis, and the prediction unit includes the contribution ratio of the base image acquired by the first feature value extraction unit and the second feature value. Based on the correlation with the data feature value extracted by the extraction unit, the analysis target is generated by calculating the predicted contribution rate to the base image for the analysis target generated in the process. There is provided a computer program for causing an analysis apparatus to analyze an analysis object generated in a process.

以上説明したように本発明によれば、マルチメディア情報を利用して、定量的・客観的なモデリング技術によって現象、画像や音声のようなマルチメディア情報のままの形式として予測・推定することが可能な、分析装置、分析方法およびコンピュータプログラムを提供することができる。   As described above, according to the present invention, multimedia information can be used to predict and estimate phenomena, as multimedia information such as images and sounds, using quantitative and objective modeling techniques. Possible analysis devices, analysis methods and computer programs can be provided.

本発明の実施形態に係る分析装置の処理概要を示す説明図である。It is explanatory drawing which shows the process outline | summary of the analyzer which concerns on embodiment of this invention. 同実施形態に係る圧延プロセスにおけるデータを収集するシステム構成を示す説明図である。It is explanatory drawing which shows the system configuration | structure which collects the data in the rolling process which concerns on the same embodiment. 同実施形態に係る分析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the analyzer which concerns on the same embodiment. 尾端画像の一例を示す説明図である。It is explanatory drawing which shows an example of a tail end image. 尾端局所画像から取得した輝度分布を示すグラフである。It is a graph which shows the luminance distribution acquired from the tail end local image. 図5に示す輝度分布を正規化した状態を示すグラフである。It is a graph which shows the state which normalized the luminance distribution shown in FIG. 図6の輝度分布を表すコンター図である。FIG. 7 is a contour diagram showing the luminance distribution of FIG. 6. 独立成分分析による画像特徴量抽出処理を示す説明図である。It is explanatory drawing which shows the image feature-value extraction process by independent component analysis. 独立成分分析による混合行列と独立成分行列との関係を示す説明図である。It is explanatory drawing which shows the relationship between the mixing matrix by an independent component analysis, and an independent component matrix. 正常なコイルの尾端形状を示す基底画像である。It is a base image which shows the tail end shape of a normal coil. WS側に尖りのあるコイルの尾端形状を示す基底画像である。It is a base image which shows the tail end shape of a coil with a sharp point on the WS side. DS側に尖りのあるコイルの尾端形状を示す基底画像である。It is a base image which shows the tail end shape of a coil with a sharp point on the DS side. 冷却水がある場合のコイルの尾端形状を示す基底画像である。It is a base image which shows the tail end shape of a coil in case there exists cooling water. 冷却水がない場合のコイルの尾端形状を示す基底画像である。It is a base image which shows the tail end shape of a coil when there is no cooling water. 尾端局所画像から取得した独立成分ベクトルの意味を説明する説明図である。It is explanatory drawing explaining the meaning of the independent component vector acquired from the tail end local image. レベリングに関するプロセスデータのデータ特徴量の算出処理を示す説明図である。It is explanatory drawing which shows the calculation process of the data feature-value of the process data regarding leveling. レベリングに関するプロセスデータのヒストグラムの一例を示す説明図である。It is explanatory drawing which shows an example of the histogram of the process data regarding leveling. 重回帰モデルを用いたモデリングを行う分析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the analyzer which performs modeling using a multiple regression model. モデリングデータ格納部の一構成例を示す説明図である。It is explanatory drawing which shows the example of 1 structure of a modeling data storage part. 実施例1において検証する、WS尖りとDS尖りの尾端局所画像および輝度行列を示す説明図である。It is explanatory drawing which shows the tail end local image and brightness | luminance matrix of WS sharpness and DS sharpness which are verified in Example 1. FIG. 図16のWS尖りのコイルにレベリングが類似する類似レベリングコイルのレベリングを示すグラフである。It is a graph which shows the leveling of the similar leveling coil whose leveling is similar to the WS sharp coil of FIG. 図16のWS尖りのコイルにレベリングが類似する類似レベリングコイルの輝度行列の一例を示す説明図である。It is explanatory drawing which shows an example of the brightness | luminance matrix of the similar leveling coil whose leveling is similar to the WS sharp coil of FIG. 図16のWS尖りのコイルにレベリングが類似する類似レベリングコイルの独立成分ベクトルを示すグラフである。It is a graph which shows the independent component vector of the similar leveling coil whose leveling is similar to the coil of WS sharp of FIG. 図16のDS尖りのコイルにレベリングが類似する類似レベリングコイルのレベリングを示すグラフである。FIG. 17 is a graph showing leveling of a similar leveling coil whose leveling is similar to the DS-pointed coil of FIG. 16. 図16のDS尖りのコイルにレベリングが類似する類似レベリングコイルの輝度行列の一例を示す説明図である。It is explanatory drawing which shows an example of the brightness | luminance matrix of the similar leveling coil in which leveling is similar to the DS sharp coil of FIG. 図16のDS尖りのコイルにレベリングが類似する類似レベリングコイルの独立成分ベクトルを示すグラフである。It is a graph which shows the independent component vector of the similar leveling coil in which leveling is similar to the coil of DS sharpness of FIG. 独立成分ベクトルのユークリッド距離よりWS尖り傾向を有する尾端局所画像と、それらのプロセスデータのグラフである。It is a graph of the tail end local image which has WS sharp tendency from the Euclidean distance of an independent component vector, and those process data. 独立成分ベクトルのユークリッド距離よりDS尖り傾向を有する尾端局所画像と、それらのプロセスデータのグラフである。It is a graph of the tail end local image which has DS sharpness tendency from the Euclidean distance of an independent component vector, and those process data. 独立成分ベクトルのユークリッド距離よりフィッシュテール形状傾向を有する尾端画像と、それらのプロセスデータのグラフである。It is a graph of the tail end image which has a fishtail shape tendency from the Euclidean distance of an independent component vector, and those process data. 独立成分ベクトルのユークリッド距離より正常形状を有する尾端局所画像と、それらのプロセスデータのグラフである。It is a graph of the tail end local image which has a normal shape from the Euclidean distance of an independent component vector, and those process data.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.マルチメディアモデリングの概要>
まず、図1に基づいて、本発明の実施形態に係るマルチメディアモデリングに基づく分析装置の概要を説明する。なお、図1は本実施形態に係る分析装置の処理概要を示す説明図である。
<1. Overview of multimedia modeling>
First, based on FIG. 1, the outline | summary of the analyzer based on the multimedia modeling which concerns on embodiment of this invention is demonstrated. FIG. 1 is an explanatory diagram showing a processing outline of the analyzer according to the present embodiment.

本実施形態に係る分析装置は、鋼板等の金属板の圧延プロセスにおける熱延仕上圧延の尾端形状と、圧延プロセスデータとの相関に基づきモデリングを行う装置である。分析装置は、圧延プロセスの仕上圧延出側における圧延材料12の尾端をCCDカメラ等のカメラで撮影して尾端画像を取得し、尾端画像に基づく画像特徴量(Y)を抽出する。画像特徴量とは、画像に現われる形状的特徴を表す定量的な情報であって、画像特徴量に基づいてその画像を特定することができる。本実施形態においては、後述するICAを用いて取得される独立成分ベクトルが画像特徴量となる。   The analysis device according to the present embodiment is a device that performs modeling based on the correlation between the tail end shape of hot rolling finish rolling in a rolling process of a metal plate such as a steel plate and rolling process data. The analysis device captures the tail end of the rolling material 12 on the finish rolling delivery side of the rolling process with a camera such as a CCD camera to acquire a tail end image, and extracts an image feature amount (Y) based on the tail end image. The image feature amount is quantitative information representing the shape feature appearing in the image, and the image can be specified based on the image feature amount. In the present embodiment, an independent component vector acquired using ICA described later is an image feature amount.

圧延材料12の尾端は、例えば図1に示すように、正常状態であるときには両端が丸みを帯びた舌状の形状となる。しかし、圧延材料12を挟み込む圧延機の圧下力にばらつきが生じたり、圧延ロール14の平行度が低かったりする場合には、圧延材料12にかかる圧力にばらつきが生じてしまい、圧延材料12の尾端は、片尖り形状や、両端に尖りのあるフィッシュテール形状となる。分析装置は、このような圧延材料12の尾端の形状の特徴を画像特徴量として抽出する。   For example, as shown in FIG. 1, the tail end of the rolled material 12 has a tongue-like shape with both ends rounded when in a normal state. However, when the rolling force of the rolling machine 12 that sandwiches the rolling material 12 varies or the parallelism of the rolling roll 14 is low, the pressure applied to the rolling material 12 varies and the rolling material 12 tails. The ends have a single-pointed shape or a fishtail shape with sharpened ends. The analysis device extracts the feature of the shape of the tail end of the rolled material 12 as an image feature amount.

また、分析装置は、圧延プロセスの操業における設定値やセンサ測定値等のスカラ値として表されたプロセスデータからデータ特徴量(X)を抽出する。データ特徴量とは、プロセスデータに現われるデータ上の特性を表す情報である。プロセスデータは圧延材料12毎に異なる値を示すため、プロセスデータを分析してその特性をデータ特徴量として抽出し、圧延材料12の特徴を見出すための情報として使用することができる。プロセスデータは、圧延プロセスにおける設定値や、板温や板厚等の測定値の時系列データであり、圧延プロセスの設定に応じた圧延材料12の状態を表している。分析装置は、プロセスデータに基づき、データ特徴量を抽出する。   Further, the analysis device extracts the data feature amount (X) from the process data expressed as a scalar value such as a set value or a sensor measurement value in the rolling process operation. The data feature amount is information representing characteristics on data appearing in the process data. Since the process data shows different values for each rolled material 12, the process data can be analyzed and its characteristics can be extracted as data feature amounts and used as information for finding the characteristics of the rolled material 12. The process data is time series data of set values in the rolling process and measured values such as plate temperature and plate thickness, and represents the state of the rolling material 12 according to the setting of the rolling process. The analysis device extracts a data feature amount based on the process data.

分析装置は、画像特徴量(Y)とデータ特徴量(X)とに基づいて、圧延プロセスで生成または製造されるコイルの状態を推定するためのモデルF(Y=F(X))を構築する。構築されたモデルに基づき、分析装置は、例えばその後に生成される圧延材料12の尾端の形状を推定し、推定された尾端の形状から、圧延プロセスの設備の異常を検出したり、生成される圧延材料12の品質を予測したりすることができる。   The analyzer builds a model F (Y = F (X)) for estimating the state of the coil generated or manufactured in the rolling process based on the image feature (Y) and the data feature (X). To do. Based on the constructed model, the analysis device estimates, for example, the shape of the tail end of the rolled material 12 to be subsequently generated, detects an abnormality in the equipment of the rolling process from the estimated shape of the tail end, and generates it. The quality of the rolled material 12 to be produced can be predicted.

従来は、圧延材料12の尾端の形状をユーザが視認して定性的・主観的基準に基づき判断し、圧延プロセスの設備の異常発生等を検知していた。しかし、本実施形態に係る分析装置では、従来、人が五感に基づき判断していた情報を定量的・客観的なモデルに基づき判断することができる。すなわち、定量的・客観的なモデルを用いて現象を分析できると、画像や音声のようなマルチメディア情報のままの形式として予測・推定することができるようになる。これによって、人間の高い知覚能力を活かした評価判断を行うことも可能となり、例えば、かかる評価判断を用いて異常状態やそれらの前兆を認識し、異常を回避した望ましい制御状態へ導く操作アクションを行うことができるようになる。以下、このような評価判断の可能な、本実施形態に係る分析装置の構成と、これによる分析処理について、詳細に説明していく。   Conventionally, a user visually recognizes the shape of the tail end of the rolled material 12 and makes a judgment based on a qualitative / subjective standard to detect the occurrence of an abnormality in a rolling process facility. However, in the analysis apparatus according to the present embodiment, information that has been conventionally determined based on the five senses can be determined based on a quantitative and objective model. In other words, if a phenomenon can be analyzed using a quantitative / objective model, it can be predicted and estimated as a multimedia information such as an image or sound. This makes it possible to make evaluation judgments that make use of the high human perception ability.For example, an operation action that recognizes abnormal states and their precursors using such evaluation judgments and leads to a desirable control state that avoids abnormalities. Will be able to do. Hereinafter, the configuration of the analysis apparatus according to the present embodiment capable of making such an evaluation determination, and the analysis processing performed thereby will be described in detail.

<2.システム構成>
[圧延プロセスにおけるデータ収集]
まず、図2に基づいて、本実施形態に係る圧延プロセス10におけるデータを収集するシステム構成について説明する。図2は、本実施形態に係る圧延プロセス10におけるデータを収集するシステム構成を示す説明図である。
<2. System configuration>
[Data collection in rolling process]
First, based on FIG. 2, the system configuration | structure which collects the data in the rolling process 10 which concerns on this embodiment is demonstrated. FIG. 2 is an explanatory diagram showing a system configuration for collecting data in the rolling process 10 according to the present embodiment.

本実施形態に係る分析装置は、圧延プロセスにおけるプロセスデータと圧延材料12の尾端の形状とに基づき、圧延プロセス10の設備の異常の検出や、生成される圧延材料12の品質予測を行う。このため、分析装置の分析対象となるプロセスデータおよび尾端の形状の画像を、圧延プロセス10から取得する必要がある。   The analysis apparatus according to the present embodiment detects an abnormality of equipment in the rolling process 10 and predicts the quality of the generated rolling material 12 based on the process data in the rolling process and the shape of the tail end of the rolling material 12. For this reason, it is necessary to obtain from the rolling process 10 process data and an image of the shape of the tail end to be analyzed by the analyzer.

圧延プロセス10は、加熱された圧延材料12をロール14で上下に挟んで押し延ばして薄くする熱間圧延からなる。圧延プロセス10の各工程における圧延材料12の状態は、板厚測定センサや温度センサ等によって取得された圧延材料12の板厚や温度等から把握することができる。また、圧延材料12を圧延中の設備の状態は、センサにより検出される各ロール14での圧延荷重やレベリング等によって把握することができる。これらのセンサによって取得されたコイルの状態、および設備の状態から成るプロセスデータは、図2に示すように、時系列データとして、ネットワーク15を介してデータ収集サーバ20へ送信される。データ収集サーバ20は、受信したプロセスデータをプロセスデータDB22に記憶する。   The rolling process 10 consists of hot rolling in which a heated rolling material 12 is sandwiched between rolls 14 and stretched to make it thinner. The state of the rolling material 12 in each step of the rolling process 10 can be grasped from the plate thickness, temperature, etc. of the rolling material 12 acquired by a plate thickness measurement sensor, a temperature sensor, or the like. Moreover, the state of the equipment in rolling the rolling material 12 can be grasped | ascertained by the rolling load, leveling, etc. in each roll 14 detected by the sensor. As shown in FIG. 2, the process data including the coil state and the equipment state acquired by these sensors is transmitted to the data collection server 20 via the network 15 as time series data. The data collection server 20 stores the received process data in the process data DB 22.

また、圧延プロセス10における圧延材料12の状態は、所定の位置に設置された1台または複数台のカメラ(例えばビデオカメラ)31、32により取得される動画を用いても監視される。カメラ31、32により取得された動画データは、現場に設置されたモニタ33、34で確認することができる。また、動画データは、ネットワーク35を介して動画収集サーバ40へ送信される。動画収集サーバ40は、受信した動画データを動画DB42に記憶する。分析装置は、動画DB42に記憶された動作データから、分析に用いる圧延材料12の尾端部の静止画像(尾端画像)を取得する。尾端画像の取得処理については後述する。   The state of the rolling material 12 in the rolling process 10 is also monitored using moving images acquired by one or a plurality of cameras (for example, video cameras) 31 and 32 installed at a predetermined position. The moving image data acquired by the cameras 31 and 32 can be confirmed on monitors 33 and 34 installed at the site. The moving image data is transmitted to the moving image collection server 40 via the network 35. The moving image collection server 40 stores the received moving image data in the moving image DB 42. The analysis device acquires a still image (tail end image) of the tail end portion of the rolling material 12 used for analysis from the operation data stored in the moving image DB 42. The tail end image acquisition process will be described later.

このようなシステムにより、操業する圧延プロセス10のプロセスデータおよび尾端画像を得るための動画データが自動的にデータ収集サーバ20や動画収集サーバ40に蓄積される。   With such a system, the process data of the rolling process 10 to be operated and the moving image data for obtaining the tail end image are automatically stored in the data collection server 20 and the moving image collection server 40.

[分析装置の構成と分析処理]
図2に示したようなシステム構成によって収集されたプロセスデータおよび動画データを用いて、分析装置100は分析処理を実行する。分析装置100の構成を図3に示す。分析装置100は、図3に示すように、画像特徴量分析部110と、モデリング部120と、モデル部130と、基底画像DB140と、モデリングデータ格納部150とからなる。
[Analyzer configuration and analysis processing]
Using the process data and moving image data collected by the system configuration as shown in FIG. 2, the analysis apparatus 100 executes an analysis process. The configuration of the analyzer 100 is shown in FIG. As shown in FIG. 3, the analysis apparatus 100 includes an image feature amount analysis unit 110, a modeling unit 120, a model unit 130, a base image DB 140, and a modeling data storage unit 150.

(1)画像特徴量分析部110
画像特徴量分析部110は、動画収集サーバ40の動画DB42に記憶された動画データから、圧延材料12の尾端画像を取得し、尾端画像の画像特徴量を抽出する。画像特徴量分析部110は、第1の特徴量抽出部に対応する。画像特徴量分析部110は、まず、動画データから分析対象画像として尾端画像を取得する。圧延プロセス10では1日あたり約600〜800本の材料が圧延され、画像特徴量分析部110は、各圧延材料の尾端画像をそれぞれ取得する。これにより、例えば図4に示すような圧延材料12の尾端画像200が得られる。
(1) Image feature amount analysis unit 110
The image feature amount analysis unit 110 acquires the tail end image of the rolling material 12 from the moving image data stored in the moving image DB 42 of the moving image collection server 40, and extracts the image feature amount of the tail end image. The image feature quantity analysis unit 110 corresponds to a first feature quantity extraction unit. First, the image feature quantity analysis unit 110 acquires a tail end image as an analysis target image from moving image data. In the rolling process 10, about 600 to 800 materials are rolled per day, and the image feature amount analysis unit 110 acquires a tail end image of each rolled material. Thereby, for example, a tail end image 200 of the rolled material 12 as shown in FIG. 4 is obtained.

なお、図4の各画像において、左側は「WS」はワークサイドであり、右側は「DS」は圧延機を駆動するミルモーター等が設置されているドライブサイドである。ここで、動画データに含まれる映像は、コイラーに巻き取られる前の圧延材料12を定点観察した映像であり、画像特徴量分析部110は圧延機上を流れる圧延材料12の映像から尾端部の形状を含む静止画像(尾端画像)を抽出しなければならない。そこで、画像特徴量分析部110は、以下の尾端画像取得処理により、尾端画像を取得する。   In each image of FIG. 4, “WS” is a work side on the left side, and “DS” on the right side is a drive side on which a mill motor or the like for driving a rolling mill is installed. Here, the image included in the moving image data is an image obtained by observing the rolling material 12 before being wound by the coiler at a fixed point, and the image feature amount analysis unit 110 determines the tail end portion from the image of the rolling material 12 flowing on the rolling mill. A still image (tail image) including the shape of the image must be extracted. Therefore, the image feature amount analysis unit 110 acquires the tail end image by the following tail end image acquisition processing.

(尾端画像取得処理)
動画データは、圧延材料1本毎に1つずつ作成されている。画像特徴量分析部110は、まず、圧延材料12の動画データから尾端近傍の静止画像を、静止画キャプチャ装置44を用いて切り出す。静止画キャプチャ装置44は、圧延材料12の尾端が圧延ロール14を抜けたときに出力される信号を受けてキャプチャ処理を実行し、動画データから尾端近傍の静止画像を取得する。
(Tail edge image acquisition process)
One moving image data is created for each rolling material. The image feature amount analysis unit 110 first cuts out a still image near the tail end from the moving image data of the rolling material 12 using the still image capturing device 44. The still image capturing device 44 receives a signal output when the tail end of the rolling material 12 passes through the rolling roll 14 and executes a capture process to acquire a still image near the tail end from the moving image data.

次いで、画像特徴量分析部110は、静止画キャプチャ装置44により取得された尾端近傍の静止画像の尾端局所部分(以下、「尾端局所画像」と呼ぶ。)から画像特徴量を抽出するために、尾端局所画像の輝度を表す数値データである輝度行列を正規化する。これは、圧延材料毎に抽出した尾端局所画像の輝度行列のサイズ(行数と列数)にバラつきがあるためであり、正規化することによって、例えば20×50のように全尾端局所画像の輝度行列のサイズを統一することを目的としている。尾端局所画像の輝度行列を3次元グラフによって表すと、例えば図5のようになる。突出した箇所程明るい箇所となる。なお、板幅方向および圧延方向の目盛は画像を構成する列数(画素数)を表している。   Next, the image feature amount analysis unit 110 extracts an image feature amount from the tail end local portion (hereinafter referred to as “tail end local image”) of the still image near the tail end acquired by the still image capture device 44. Therefore, the luminance matrix which is numerical data representing the luminance of the tail end local image is normalized. This is because the size (number of rows and number of columns) of the luminance matrix of the tail edge local image extracted for each rolling material varies, and by normalization, for example, 20 × 50 The purpose is to unify the size of the luminance matrix of the image. When the luminance matrix of the tail end local image is represented by a three-dimensional graph, for example, FIG. The protruding part becomes brighter. The scales in the sheet width direction and the rolling direction represent the number of columns (number of pixels) constituting the image.

画像特徴量分析部110は、後に画像特徴量を抽出するために、尾端局所画像の行列を正規化する。例えば、図6に示すように、20×50の正規化行列としてもよく、20×40の正規化行列としてもよく、10×20の正規化行列としてもよく、正規化の程度は適宜決定することができる。図6に示した正規化行列を2次元化すると、図7に示すような輝度変化を表すコンター図となる。図7では、輝度値が高い箇所を淡い色で表し、輝度値が低い箇所を濃い色で表している。   The image feature amount analysis unit 110 normalizes the matrix of the tail end local image in order to extract the image feature amount later. For example, as shown in FIG. 6, it may be a 20 × 50 normalization matrix, a 20 × 40 normalization matrix, or a 10 × 20 normalization matrix, and the degree of normalization is appropriately determined. be able to. When the normalization matrix shown in FIG. 6 is two-dimensionalized, a contour diagram representing a luminance change as shown in FIG. 7 is obtained. In FIG. 7, a portion having a high luminance value is represented by a light color, and a portion having a low luminance value is represented by a dark color.

さらに、画像特徴量分析部110は、コンター図で表された2次元の輝度行列を、1次元の列ベクトルに変換する。例えば図8に示すように、尾端局所画像のコンター図は、2次元(例えば、20×40)の輝度行列を表している。画像特徴量分析部110は、この輝度行列の各行を一列に並べて、1次元(例えば、800×1)の列ベクトルに変換する。輝度行列から列ベクトルへの変換は各尾端局所画像について行われる。以上が、尾端局所画像から画像特徴量を抽出するための準備処理である。   Further, the image feature amount analysis unit 110 converts the two-dimensional luminance matrix represented by the contour diagram into a one-dimensional column vector. For example, as shown in FIG. 8, the contour diagram of the tail end local image represents a two-dimensional (for example, 20 × 40) luminance matrix. The image feature amount analysis unit 110 arranges each row of the luminance matrix in a column and converts it into a one-dimensional (for example, 800 × 1) column vector. The conversion from the luminance matrix to the column vector is performed for each tail end local image. The above is the preparation processing for extracting the image feature amount from the tail end local image.

(ICAを用いた画像特徴量抽出処理)
画像特徴量分析部110は、各圧延材料の尾端局所画像から1次元の列ベクトルを所定数取得すると、これらの尾端局所画像を分析し、画像特徴量を抽出する。すなわち、画像特徴量分析部110は、第1の特徴量抽出部として機能する。本実施形態では、未知の信号源が混合された信号を統計的に独立な信号に変換する集合である独立成分分析(Independent Component Analysis;ICA)を用いて、尾端局所画像から画像特徴量を抽出する。ICAを用いた画像特徴量抽出は、例えば特許文献3、4に記載の方法により行うことができる。
(Image feature extraction processing using ICA)
When a predetermined number of one-dimensional column vectors are acquired from the tail end local images of each rolling material, the image feature amount analyzing unit 110 analyzes these tail end local images and extracts image feature amounts. That is, the image feature amount analysis unit 110 functions as a first feature amount extraction unit. In this embodiment, an independent component analysis (ICA), which is a set for converting a signal in which unknown signal sources are mixed into a statistically independent signal, is used to obtain an image feature amount from a tail end local image. Extract. Image feature extraction using ICA can be performed by the methods described in Patent Documents 3 and 4, for example.

信号行列Xは、ICAを用いて混合行列Aと独立成分行列sの積に分解される。すなわち、信号行列Xと混合行列Aと独立成分行列sとの間には、下記数式1のような関係がある。
X=A・s ・・・(数式1)
The signal matrix X is decomposed into a product of the mixing matrix A and the independent component matrix s using ICA. That is, there is a relationship represented by the following formula 1 among the signal matrix X, the mixing matrix A, and the independent component matrix s.
X = A · s (Formula 1)

本実施形態では、例えば図8に示すように、画像特徴量分析部110は、各尾端局所画像から取得された800×1の列ベクトルを、1日の操業により取得された尾端局所画像の数m(例えば、m=600〜800)を配列して、800×mの信号行列Xを生成する。また、ICAの結果として得られる混合行列Aは、基底画像を表す列ベクトルを基底数kだけ配列した800×kの行列である。ここで、基底画像とは、尾端部の独立性の強い特徴形状を示す画像である。また、基底数kはICAを実行するに当たってのパラメータである。   In the present embodiment, for example, as illustrated in FIG. 8, the image feature amount analysis unit 110 uses the 800 × 1 column vector acquired from each tail end local image as the tail end local image acquired by the daily operation. Are arranged (for example, m = 600 to 800) to generate an 800 × m signal matrix X. Also, the mixing matrix A obtained as a result of ICA is an 800 × k matrix in which column vectors representing the base image are arranged by the basis number k. Here, the base image is an image showing a feature shape with strong independence at the tail end. The basis number k is a parameter for executing ICA.

ここで、基底数kを5としてICAの結果得られた基底画像の一例を図10A〜図10Eに示す。図10Aは、正常な圧延材料12の尾端形状を示す基底画像と解釈することができる。正常な圧延材料12の尾端は、仕上出側の輝度値が高い、舌状の形状を有している。図10Bは、WS側に尖りのある圧延材料12の尾端形状を示す基底画像と解釈することができる。WS側である図10B左側に、輝度値の高い部分が偏った形状となっている。一方、図10Cは、DS側に尖りのある圧延材料12の尾端形状を示す基底画像と解釈することができる。かかる基底画像は、WS反対側にあるDS側に輝度値の高い部分が偏っている。また、図10Dは、冷却水がある場合の圧延材料12の尾端形状を示す基底画像と解釈することができ、図11Eは、冷却水がない場合の圧延材料12の尾端形状を示す基底画像と解釈することができる。混合行列Aは、ICAの結果として得られるものであり、図10A〜図10Eに示すような基底画像を表す列ベクトルの集合である。   Here, FIG. 10A to FIG. 10E show examples of base images obtained as a result of ICA when the base number k is 5. FIG. 10A can be interpreted as a base image showing the tail end shape of the normal rolled material 12. The tail end of the normal rolled material 12 has a tongue-like shape with a high brightness value on the finish side. FIG. 10B can be interpreted as a base image showing the tail end shape of the rolled material 12 having a sharp point on the WS side. On the left side of FIG. 10B that is the WS side, a portion with a high luminance value is biased. On the other hand, FIG. 10C can be interpreted as a base image showing a tail end shape of the rolling material 12 having a sharp point on the DS side. In such a base image, a portion having a high luminance value is biased toward the DS side on the opposite side of WS. Further, FIG. 10D can be interpreted as a base image showing the tail end shape of the rolling material 12 when there is cooling water, and FIG. 11E shows the base showing the tail end shape of the rolling material 12 when there is no cooling water. It can be interpreted as an image. The mixing matrix A is obtained as a result of ICA, and is a set of column vectors representing base images as shown in FIGS. 10A to 10E.

信号行列Xは、ICAの結果、上記数式1に表されるように混合行列Aと独立成分行列sに分解される。独立成分行列sは、信号行列Xと線形関係にある、k×mの行列である。独立成分行列sを構成する各列は、各尾端局所画像に対応しており、その尾端局所画像の特徴を示す画像特徴量となるものであり、以下では独立成分ベクトルとも呼ぶ。   As a result of ICA, the signal matrix X is decomposed into a mixing matrix A and an independent component matrix s as expressed in Equation 1 above. The independent component matrix s is a k × m matrix that is linearly related to the signal matrix X. Each column constituting the independent component matrix s corresponds to each tail end local image and serves as an image feature amount indicating the feature of the tail end local image, and is hereinafter also referred to as an independent component vector.

図9に基づき、信号行列X、混合行列A、独立成分行列sの関係をより簡単な例で説明する。図9では、1つの尾端局所画像を表す信号行列Xの第i列に対して、基底数k=3としたときの混合行列Aおよび独立成分ベクトルSiすなわち独立成分行列sの第i列の関係を示している。この場合、尾端局所画像を表す信号行列Xの第i列は、800×1の列ベクトルである。そして、混合行列Aは、基底数k=3より、3つの基底画像を表す列ベクトルからなる800×3の行列である。このとき、独立成分ベクトルSi=[s1、s2、s3]は、混合行列Aの各行に対する寄与率を表す。すなわち、成分s1は、尾端局所画像における混合行列Aの第1列から構成される基底画像(1)の重みを表し、成分s2は、尾端局所画像における混合行列Aの第2列から構成される基底画像(2)の重みを表し、成分s3は、尾端局所画像における混合行列Aの第3列から構成される基底画像(3)の重みを表している。 Based on FIG. 9, the relationship between the signal matrix X, the mixing matrix A, and the independent component matrix s will be described with a simpler example. In FIG. 9, the mixing matrix A and the independent component vector Si, that is, the i-th column of the independent component matrix s when the basis number k = 3 is set for the i-th column of the signal matrix X representing one tail local image. Showing the relationship. In this case, the i-th column of the signal matrix X representing the tail end local image is an 800 × 1 column vector. The mixing matrix A is an 800 × 3 matrix composed of column vectors representing three base images based on the base number k = 3. At this time, the independent component vector Si = [s1, s2, s3] T represents a contribution rate for each row of the mixing matrix A. That is, the component s1 represents the weight of the base image (1) composed of the first column of the mixing matrix A in the tail end local image, and the component s2 is composed of the second column of the mixing matrix A in the tail end local image. The component s3 represents the weight of the base image (3) composed of the third column of the mixing matrix A in the tail end local image.

換言すると、独立成分行列sは、各基底画像に対する寄与率を表しており、尾端局所画像に各基底画像が寄与する程度を表す画像特徴量となっている。これより、図8に示す独立成分行列sは、信号行列Xに含まれる尾端局所画像の各画像特徴量を表していることがわかる。   In other words, the independent component matrix s represents the contribution rate to each base image, and is an image feature amount representing the degree to which each base image contributes to the tail end local image. From this, it can be seen that the independent component matrix s shown in FIG. 8 represents each image feature quantity of the tail end local image included in the signal matrix X.

画像特徴量分析部110は、上述した一連の処理を行うことで、各圧延材料12の動画データから尾端局所画像を抽出し、各尾端局所画像の輝度行列を算出した上でそれらを列ベクトルとして組み合わせた信号行列を作成し、ICAに基づき混合行列Aと独立成分行列sを算出する。この結果得られた独立成分行列sの各列が各尾端局所画像の独立成分ベクトルを表す。図11に示す尾端局所画像に対して算出された独立成分ベクトルの値は、WS側に尖りのある基底画像(図10B)の寄与率が高い一方、DS側に尖りのある基底画像(図10C)の寄与率は低いことがわかる。したがって、当該尾端局所画像に対応する圧延材料12は、WS側に尖りのある尾端を有するものと考えられる。このように、画像特徴量分析部110は、圧延プロセス10において生成された圧延材料12の尾端を分析し、独立成分ベクトルによって尾端画像毎の尾端形状を定量化することができる。   The image feature amount analysis unit 110 extracts the tail end local image from the moving image data of each rolling material 12 by performing the above-described series of processes, calculates the luminance matrix of each tail end local image, and then stores them. A signal matrix combined as a vector is created, and a mixing matrix A and an independent component matrix s are calculated based on ICA. Each column of the independent component matrix s obtained as a result represents an independent component vector of each tail end local image. The value of the independent component vector calculated for the tail-end local image shown in FIG. 11 has a high contribution ratio of the base image with sharp points on the WS side (FIG. 10B), while the base image with sharp points on the DS side (FIG. It can be seen that the contribution ratio of 10C) is low. Therefore, it is considered that the rolling material 12 corresponding to the tail end local image has a tail with a sharp point on the WS side. As described above, the image feature amount analysis unit 110 can analyze the tail end of the rolling material 12 generated in the rolling process 10 and quantify the tail end shape for each tail end image using the independent component vector.

画像特徴量分析部110によって取得された各独立成分ベクトルはモデリングデータ格納部150に記憶され、混合行列Aは各列を基底画像として基底画像DB140に記憶される。また、画像特徴量分析部110は、ICAにおいて信号行列Xから互いに統計的に独立な復元信号行列を生成するための実数行列である分離行列Wも生成する。なお、分離行列Wの詳細は、上記特許文献3、4に基づく。   Each independent component vector acquired by the image feature quantity analysis unit 110 is stored in the modeling data storage unit 150, and the mixing matrix A is stored in the base image DB 140 with each column as a base image. The image feature amount analysis unit 110 also generates a separation matrix W that is a real number matrix for generating restored signal matrices that are statistically independent from the signal matrix X in the ICA. The details of the separation matrix W are based on Patent Documents 3 and 4 above.

(2)モデリング部120
図3の説明に戻り、モデリング部120は、プロセスデータに基づいて、圧延材料12の尾端形状との相関関係を表すモデルを作成する。モデリング部120は、画像特徴量である独立成分ベクトルSiとプロセスデータPiとを記憶する後述のモデリングデータ格納部150に格納されるデータと、制御計算機60から出力される制御条件Poとを用いて、モデルを作成する。
(2) Modeling unit 120
Returning to the description of FIG. 3, the modeling unit 120 creates a model representing a correlation with the tail end shape of the rolled material 12 based on the process data. The modeling unit 120 uses data stored in a modeling data storage unit 150 (to be described later) that stores an independent component vector Si and process data Pi that are image feature amounts, and a control condition Po output from the control computer 60. Create a model.

すなわち、モデリング部120は、モデリングデータ格納部150から、画像特徴量分析部110により取得された画像特徴量である独立成分ベクトルSiとプロセスデータPiとを取得する。また、モデリング部120には、制御計算機60より、当該制御計算機60が製造条件に基づき算出した制御条件(設定値)が入力される。制御条件は、モデリング部120により多次元化、正規化されて、プロセスデータPoとなる。   That is, the modeling unit 120 acquires, from the modeling data storage unit 150, the independent component vector Si and the process data Pi that are image feature amounts acquired by the image feature amount analysis unit 110. Further, the control condition (set value) calculated by the control computer 60 based on the manufacturing condition is input to the modeling unit 120 from the control computer 60. The control conditions are multidimensionalized and normalized by the modeling unit 120 to become process data Po.

(プロセスデータPoの取得(データ特徴量の抽出処理))
まず、プロセスデータPoの取得について説明する。プロセスデータPoは、操業知見に基づき、圧延プロセス10における各種条件のうち尾端の形状と関係の強い項目を選択して生成することができる。本実施形態では、例えば、対向する圧延ロール14間に形成される隙間の傾き具合を示すレベリング(L)や、圧延ロール14の両端における差荷重(G)、圧延材料12の搬送方向に隣接する圧延ロール14間において圧延材料12にかかる張力(T)等を用いる。その他にも、プロセスデータPoを生成するための対象データとして、例えば、圧延ロール14の両端における板温差等を用いることもできる。
(Acquisition of process data Po (data feature extraction processing))
First, acquisition of the process data Po will be described. The process data Po can be generated by selecting items closely related to the shape of the tail end among various conditions in the rolling process 10 based on operational knowledge. In the present embodiment, for example, leveling (L) indicating the inclination of the gap formed between the opposing rolling rolls 14, the differential load (G) at both ends of the rolling roll 14, and the conveyance direction of the rolling material 12 are adjacent. The tension (T) applied to the rolling material 12 between the rolling rolls 14 is used. In addition, as the target data for generating the process data Po, for example, a plate temperature difference at both ends of the rolling roll 14 can be used.

モデリング部120は、プロセスデータPoのデータ特徴量として、項目別に、圧延スタンド毎の代表値を算出する。一例として、レベリングに関する圧延スタンド毎の代表値の算出方法について、図12を用いて説明する。i番目の圧延スタンド(#i−std)におけるレベリング(L)は、図12に示すように、圧延材料12が圧延ロール14間を通過し圧延が開始された時点(ON)でレベリング値は大きくなり、圧延材料12が圧延ロール14間を通過し終え圧延が終了した時点(OFF)でレベリング値は小さくなっている。   The modeling unit 120 calculates a representative value for each rolling stand for each item as the data feature amount of the process data Po. As an example, a method of calculating a representative value for each rolling stand related to leveling will be described with reference to FIG. Leveling (L) in the i-th rolling stand (# i-std) has a large leveling value when the rolling material 12 passes between the rolling rolls 14 and rolling starts (ON) as shown in FIG. Thus, the leveling value is small when the rolling material 12 passes between the rolling rolls 14 and rolling is finished (OFF).

このとき、i番目の圧延スタンドのレベリングの代表値は、例えば圧延中のレベリングの値の平均値とすることができる。ここで、圧延開始時点(ON)および圧延終了時点(OFF)付近では、値の変動が大きいため、例えば圧延開始後所定の時間および圧延終了前所定の時間のデータは、代表値を算出するためのデータから除外してもよい。所定の時間は、例えば5秒程度とすることができる。これを考慮すると、図12の時間ts〜teまでのデータを用いて算出された平均値がi番目の圧延スタンドのレベリングの代表値となる。このように、モデリング部120は、項目別に、圧延スタンド毎の代表値を算出する。   At this time, the representative value of the leveling of the i-th rolling stand can be, for example, an average value of the leveling values during rolling. Here, since the fluctuation of the value is large in the vicinity of the rolling start time (ON) and the rolling end time (OFF), for example, data for a predetermined time after the start of rolling and a predetermined time before the end of rolling calculate a representative value. May be excluded from the data. The predetermined time can be, for example, about 5 seconds. Considering this, the average value calculated using the data from time ts to te in FIG. 12 becomes the representative value of the leveling of the i-th rolling stand. Thus, the modeling unit 120 calculates a representative value for each rolling stand for each item.

その後、モデリング部120は、項目別に、算出された圧延スタンド毎の代表値を集計し、ヒストグラムを生成する。図13に、レベリングに関する圧延スタンド毎の代表値の集計ヒストグラムを示す。図13において、F1〜F4は圧延スタンドの番号を示しており、図13の圧延スタンドの番号iに対応する。また、各ヒストグラムの横軸はレベリング代表値、横軸は圧延材料12の枚数を示している。ここでは、640枚の圧延材料12についてのデータを集計している。図13より、各圧延スタンドにおけるレベリング代表値の分布がわかる。なお、各ヒストグラムにおいて、ハッチングで示された部分は3σの範囲を示しており、太線で示す位置は各圧延スタンドにおけるレベリング代表値の平均値を示している。   Thereafter, the modeling unit 120 aggregates the calculated representative values for each rolling stand for each item, and generates a histogram. In FIG. 13, the total histogram of the representative value for every rolling stand regarding leveling is shown. In FIG. 13, F <b> 1 to F <b> 4 indicate the number of the rolling stand, and corresponds to the number i of the rolling stand in FIG. 13. Further, the horizontal axis of each histogram indicates a leveling representative value, and the horizontal axis indicates the number of rolling materials 12. Here, data on 640 sheets of rolled material 12 is tabulated. FIG. 13 shows the distribution of leveling representative values in each rolling stand. In each histogram, the hatched portion indicates the 3σ range, and the position indicated by the thick line indicates the average value of the leveling representative values in each rolling stand.

図13に示すように、各圧延スタンドにおけるレベリング代表値の平均値は必ずしもゼロとはならない。例えば、2番目の圧延スタンド(F2)のようにWS側にレベリング代表値が偏っており、WS側の圧延ロール14間のギャップが大きい場合や、3番目の圧延スタンド(F3)のようにDS側にレベリング代表値が偏っており、DS側の圧延ロール14間のギャップが大きい場合がある。このように、各圧延スタンドにおけるレベリング代表値の分布から、各圧延スタンドについてN(0,1)で正規化したi次元ベクトル(図13ではi=7)で各コイルのレベリング特性、すなわちプロセスデータPoが表される。   As shown in FIG. 13, the average value of the leveling representative values in each rolling stand is not necessarily zero. For example, the leveling representative value is biased toward the WS side as in the second rolling stand (F2) and the gap between the WS-side rolling rolls 14 is large, or the DS as in the third rolling stand (F3). The leveling representative value is biased to the side, and the gap between the DS-side rolling rolls 14 may be large. Thus, the leveling characteristics of each coil, i.e., process data, is obtained from the distribution of the leveling representative values in each rolling stand by an i-dimensional vector (i = 7 in FIG. 13) normalized by N (0, 1) for each rolling stand. Po is represented.

以上、レベリングについてのプロセスデータPoのデータ特徴量の抽出処理について説明したが、他の圧延プロセス10における各種条件のうち尾端の形状と関係の強い項目についても同様に、プロセスデータPoを生成することができる。すなわち、モデリング部120は、第2の特徴量抽出部として機能する。   As described above, the process of extracting the data feature amount of the process data Po for leveling has been described, but the process data Po is similarly generated for items having a strong relationship with the shape of the tail end among various conditions in the other rolling processes 10. be able to. That is, the modeling unit 120 functions as a second feature amount extraction unit.

(独立成分ベクトルSoの取得)
モデリング部120は、取得したプロセスデータPoと、モデリングデータ格納部150に記憶されたデータ(Pi、Si)とを用いて、当該分析装置100の分析処理による予測結果である独立成分ベクトルSoを取得する。まず、モデリング部120が取得したプロセスデータPoおよびPiは、下記数式2および3で表される。
(Acquisition of independent component vector So)
The modeling unit 120 uses the acquired process data Po and the data (Pi, Si) stored in the modeling data storage unit 150 to acquire an independent component vector So that is a prediction result by the analysis processing of the analysis apparatus 100. To do. First, the process data Po and Pi acquired by the modeling unit 120 are expressed by the following mathematical formulas 2 and 3.

Po=[p1o,p2o,・・・,pmo] ・・・(数式2)
Pi=[p1i,p2i,・・・,pmi] (i=1,2,・・・,n)
・・・(数式3)
Po = [p1o, p2o,..., Pmo] (Expression 2)
Pi = [p1i, p2i,..., Pmi] (i = 1, 2,..., N)
... (Formula 3)

モデリング部120は、プロセスデータPoおよびPiを用いて、独立成分ベクトルSoを算出するため、まず、プロセスデータPoと各Piとのユークリッド距離Liを算出する。ユークリッド距離Liは、下記数式4で表される。   In order to calculate the independent component vector So using the process data Po and Pi, the modeling unit 120 first calculates the Euclidean distance Li between the process data Po and each Pi. The Euclidean distance Li is expressed by Equation 4 below.

Li=|Po−Pi| (i=1,2,・・・,n) ・・・(数式4)   Li = | Po−Pi | (i = 1, 2,..., N) (Formula 4)

プロセスデータPoと各Piとのユークリッド距離Liを算出すると、モデリング部120は、これらを距離の小さい順に並べ、ユークリッド距離が最小となるプロセスデータPjを1つ選択する。そして、モデリングデータ格納部150に格納されているデータMからプロセスデータPjと関連付けられている独立成分ベクトルSjを取得し、当該独立成分ベクトルSjをSoとして採用する。このようにして、モデリング部120は、独立成分ベクトルSoを予測することができる。   When the Euclidean distance Li between the process data Po and each Pi is calculated, the modeling unit 120 arranges them in ascending order of the distance, and selects one process data Pj that minimizes the Euclidean distance. Then, the independent component vector Sj associated with the process data Pj is acquired from the data M stored in the modeling data storage unit 150, and the independent component vector Sj is adopted as So. In this way, the modeling unit 120 can predict the independent component vector So.

なお、本例においてはプロセスデータPoとPiとのユークリッド距離Liが最小となるプロセスデータPjに関連付けられた独立成分ベクトルSjを独立成分ベクトルSoとしたが、独立成分ベクトルSoは、他の手法によっても取得することができる。例えば、算出したプロセスデータPoと各Piとのユークリッド距離Liから、距離の小さい順にプロセスデータを類似プロセスデータとしてd個選択し、Pr1〜Prdとする。このとき、類似プロセスデータPr1〜Prdのそれぞれと、プロセスデータPoとのユークリッド距離をLr1〜Lrdとする。すなわち、ユークリッド距離をLr1〜Lrdは、下記数式5で表される。   In this example, the independent component vector Sj associated with the process data Pj that minimizes the Euclidean distance Li between the process data Po and Pi is the independent component vector So. However, the independent component vector So is obtained by other methods. Can also get. For example, from the calculated Euclidean distance Li between the process data Po and each Pi, d pieces of process data are selected as similar process data in ascending order of distance, and are designated as Pr1 to Prd. At this time, the Euclidean distance between each of the similar process data Pr1 to Prd and the process data Po is Lr1 to Lrd. That is, the Euclidean distances Lr1 to Lrd are expressed by the following formula 5.

Lrk=|Po−Prk| (k=1,2,・・・,d) ・・・(数式5)   Lrk = | Po−Prk | (k = 1, 2,..., D) (Formula 5)

また、モデリングデータ格納部150に格納されているデータMのうち、類似プロセスデータPr1〜Prdと関連付けられている独立成分ベクトルをSr1〜Srdとする。独立成分ベクトルSr1〜Srdは、下記数式6で表される。   In addition, among the data M stored in the modeling data storage unit 150, independent component vectors associated with similar process data Pr1 to Prd are denoted as Sr1 to Srd. The independent component vectors Sr1 to Srd are expressed by the following mathematical formula 6.

(Prk,Srk)∈M (k=1,2,・・・,d) ・・・(数式6)   (Prk, Srk) εM (k = 1, 2,..., D) (Formula 6)

そして、モデリング部120は、独立成分ベクトルSr1〜Srdの加重平均をとり、独立成分ベクトルSoとする。すなわち、独立成分ベクトルSoは、下記数式7で表される。重みw1〜wdは、ユークリッド距離Lr1〜Lrdの逆数とする。   Then, the modeling unit 120 takes the weighted average of the independent component vectors Sr1 to Srd and sets it as the independent component vector So. That is, the independent component vector So is expressed by the following formula 7. The weights w1 to wd are reciprocals of the Euclidean distances Lr1 to Lrd.

So=(w1×Sr1+w2×Sr2+・・・+wd×Srd)
/(w1+w2+・・・+wd)
wk=1/Lrk (k=1,2,・・・,d) ・・・(数式7)
So = (w1 × Sr1 + w2 × Sr2 +... + Wd × Srd)
/(W1+w2+...+wd)
wk = 1 / Lrk (k = 1, 2,..., d) (Expression 7)

このように、モデリング部120は、プロセスデータPoおよびPiを用いて、独立成分ベクトルSoを予測することができる。すなわち、モデリング部120は、独立成分ベクトルSoを予測する予測部としても機能する。モデリング部120は、予測した独立成分ベクトルSoを、モデル部130へ出力する。   Thus, the modeling unit 120 can predict the independent component vector So using the process data Po and Pi. That is, the modeling unit 120 also functions as a prediction unit that predicts the independent component vector So. The modeling unit 120 outputs the predicted independent component vector So to the model unit 130.

(3)モデル部130
モデル部130は、モデリング部120により予測された独立成分ベクトルSoと、後述する基底画像DB140に記憶された基底画像とに基づいて、圧延プロセス10において生成される圧延材料12の尾端の形状の予測推定画像を生成する予測部である。モデル部130は、独立成分ベクトルSoと各列が基底画像を表す混合行列から下記数式8に基づき信号ベクトルXoと算出し、当該信号ベクトルXoを復元して予測推定画像を生成する。その際、信号ベクトルXoから予測推定画像の生成は、図8の列ベクトル変換の逆の処理で行う。すなわち、列ベクトルXoを1×20のベクトルに40分割し、それら40個の列ベクトルを列方向に並べて結合することによって得られる20×40の輝度行列が予測推定画像である。
(3) Model unit 130
The model unit 130 has the shape of the tail end of the rolling material 12 generated in the rolling process 10 based on the independent component vector So predicted by the modeling unit 120 and a base image stored in the base image DB 140 described later. It is a prediction part which produces | generates a prediction estimated image. The model unit 130 calculates a signal vector Xo from the independent component vector So and a mixing matrix in which each column represents a base image based on the following Equation 8, and restores the signal vector Xo to generate a predicted estimated image. At that time, the generation of the prediction estimated image from the signal vector Xo is performed by the reverse process of the column vector conversion of FIG. That is, a 20 × 40 luminance matrix obtained by dividing the column vector Xo into 40 1 × 20 vectors and arranging the 40 column vectors in the column direction is a predicted estimated image.

Xo=A・So ・・・(数式8)   Xo = A · So (Formula 8)

予測推定画像は、例えば、オペレータに通知される。オペレータは、予測推定画像に現われた圧延材料12の尾端の形状からシステム状態を判断し、必要に応じて設定値を修正する。制御計算機60は、修正された設定値に基づき、新たな制御条件(設定値)を算出し、分析装置100のモデリング部120へ出力する。分析装置100は上述した処理を行い、新たな設定値による操業において取得されたプロセスデータから独立成分ベクトルを用いてSoを予測する。   The predicted estimated image is notified to the operator, for example. The operator determines the system state from the shape of the tail end of the rolled material 12 appearing in the predicted estimated image, and corrects the set value as necessary. The control computer 60 calculates a new control condition (setting value) based on the corrected setting value, and outputs it to the modeling unit 120 of the analyzer 100. The analysis apparatus 100 performs the above-described processing, and predicts So using the independent component vector from the process data acquired in the operation with the new set value.

(4)基底画像DB140
基底画像DB140には、図10A〜図10Eに示すような、圧延材料12の尾端部の独立性の強い特異形状を基底画像として記憶する記憶部である。基底画像DB140に記憶された基底画像に基づき、モデル部130は予測推定画像を生成する。基底画像DB140に記憶される基底画像は、画像特徴量分析部110においてICAを用いて得られた混合行列Aの各列から構成されるものである。
(4) Base image DB 140
The base image DB 140 is a storage unit that stores, as a base image, a singular shape with strong independence at the tail end of the rolled material 12 as shown in FIGS. 10A to 10E. Based on the base image stored in the base image DB 140, the model unit 130 generates a prediction estimated image. The base image stored in the base image DB 140 is composed of each column of the mixing matrix A obtained by the image feature amount analysis unit 110 using ICA.

(5)モデリングデータ格納部150
モデリングデータ格納部150は、画像特徴量分析部110により算出された独立成分ベクトルSiと、データ収集サーバ20のプロセスデータDB22に記憶されたプロセスデータPiとを記憶する。モデリングデータ格納部150は、同一圧延材料12に関する独立成分ベクトルSiとこれに対応するプロセスデータPiとを関連付けて、データM={(Pi,Si)}(i=1,2,・・・,n)として記憶している。
(5) Modeling data storage unit 150
The modeling data storage unit 150 stores the independent component vector Si calculated by the image feature quantity analysis unit 110 and the process data Pi stored in the process data DB 22 of the data collection server 20. The modeling data storage unit 150 associates the independent component vector Si related to the same rolled material 12 with the process data Pi corresponding thereto, and data M = {(Pi, Si)} (i = 1, 2,..., n).

以上、本実施形態に係る分析装置100の構成と、これによる分析処理について説明した。本実施形態に係る分析装置100は、圧延材料12の尾端局所画像から画像特徴量を取得するとともに、プロセスデータからデータ特徴量を取得する。分析装置100は、これらの画像特徴量およびデータ特徴量の相関関係に基づき、圧延プロセス10において生成される圧延材料12の尾端の形状を推定することで、生成される圧延材料12の品質や圧延プロセス10の設備状態を推定し、操業における各種条件を適切に設定することが可能となる。   Heretofore, the configuration of the analysis apparatus 100 according to the present embodiment and the analysis processing performed thereby have been described. The analysis apparatus 100 according to the present embodiment acquires an image feature amount from the tail end local image of the rolling material 12 and acquires a data feature amount from the process data. The analysis apparatus 100 estimates the shape of the tail end of the rolling material 12 generated in the rolling process 10 based on the correlation between the image feature amount and the data feature amount, and thereby the quality of the generated rolling material 12 and It is possible to estimate the equipment state of the rolling process 10 and appropriately set various conditions in operation.

本実施形態に係る分析装置100による分析処理を、特許文献1と比較すると、特許文献1には、過去の画像と過去の操作量とを入力とし予測画像を出力とする、ニューラルネットワークを用いたモデリング手法が記載されている。特許文献1に記載の手法では、ニューラルネットワークの入出力点数が膨大となり、学習および予測に要する時間が長くなることが推測される。これを解決するために、例えば、特許文献2で述べられているように、画像全体の面積に対する特定部分の面積の割合や特定部分の輪郭線の長さ等のような、前処理で定量化した画像特徴量をニューラルネットワークモデルの入出力とすることが考えられる。しかし、前処理のアルゴリズムは人間の知見や判断に依存するため、有効性が限定的となる。また、学習の結果取得されるニューラルネットワークモデルの制度を確証することは困難である。   When the analysis processing by the analysis apparatus 100 according to the present embodiment is compared with Patent Document 1, the Patent Document 1 uses a neural network that inputs a past image and a past operation amount and outputs a predicted image. Modeling techniques are described. In the method described in Patent Document 1, it is estimated that the number of input / output points of the neural network becomes enormous and the time required for learning and prediction becomes longer. In order to solve this, for example, as described in Patent Document 2, quantification is performed by preprocessing such as the ratio of the area of the specific part to the area of the entire image, the length of the outline of the specific part, etc. It is conceivable that the obtained image feature amount is used as an input / output of the neural network model. However, the effectiveness of the preprocessing algorithm is limited because it depends on human knowledge and judgment. Moreover, it is difficult to confirm the system of the neural network model acquired as a result of learning.

これに対して、本実施形態に係る分析装置100による、独立成分分析を用いた手法では、行列演算のアルゴリズムであるため高速計算が可能となる。また、モデリングは、プロセスデータと寄与率(すなわち、独立成分ベクトル)とを独立変数と従属変数とするJust−In−Timeモデル等のオンラインプロセス制御でも実績のある手法を用いるため、処理速度が問題となることはない。さらに、分析装置100の分析により、サンプル画像に共通する基本画像成分といえる複数の基底画像と、各サンプル画像が有する基底画像への寄与率を取得することができる。したがって、取得された基底画像が、実操業における「正常状態の画像」や「異常状態の画像」のように、特異なプロセス状態や操業状態を表すことを確認することによって、画像特徴量である寄与率に明確な意味を持たせることができ、モデルの信頼性も確保できる。   On the other hand, the method using independent component analysis performed by the analysis apparatus 100 according to the present embodiment is a matrix operation algorithm, so that high-speed calculation is possible. In addition, since modeling uses a method that has been proven in online process control such as a Just-In-Time model in which process data and contribution rate (that is, independent component vectors) are independent variables and dependent variables, processing speed is a problem. It will never be. Furthermore, by the analysis of the analysis apparatus 100, it is possible to acquire a plurality of base images that can be said to be basic image components common to the sample images, and the contribution rate to the base images that each sample image has. Therefore, it is an image feature amount by confirming that the acquired base image represents a unique process state or operation state, such as “normal state image” or “abnormal state image” in actual operation. The contribution rate can be given a clear meaning, and the reliability of the model can be secured.

(重回帰モデリングの適用)
なお、上記説明においては、モデリング部120は、いわゆるJust−In−Timeモデルを用いてモデルの同定を行ったが、本発明はかかる例に限定されない。例えば、モデリング部120は、画像特徴量とプロセスデータとの各実績データとに基づき、最小二乗法等を用いて重回帰モデルを同定するようにしてもよい。以下、図14および図15に基づいて、重回帰モデルを用いたモデリング方法を説明する。なお、図14は、重回帰モデルを用いたモデリングを行う分析装置300の構成を示すブロック図である。図15は、モデリングデータ格納部350の一構成例を示す説明図である。なお、図3に示す分析装置100と同一の構成および機能を有する構成要素についての詳細な説明は省略する。
(Application of multiple regression modeling)
In the above description, the modeling unit 120 identifies a model using a so-called Just-In-Time model, but the present invention is not limited to this example. For example, the modeling unit 120 may identify the multiple regression model using the least square method or the like based on the image feature amount and each result data of the process data. Hereinafter, a modeling method using a multiple regression model will be described with reference to FIGS. 14 and 15. FIG. 14 is a block diagram illustrating a configuration of an analysis apparatus 300 that performs modeling using a multiple regression model. FIG. 15 is an explanatory diagram illustrating a configuration example of the modeling data storage unit 350. Detailed description of components having the same configuration and function as those of the analyzer 100 shown in FIG. 3 is omitted.

重回帰モデルを用いたモデリングを行う分析装置300は、図14に示すように、画像特徴量分析部310と、モデリング部320と、モデル部330と、基底画像DB340と、モデリングデータ格納部350とからなる。   As shown in FIG. 14, the analysis apparatus 300 that performs modeling using a multiple regression model includes an image feature amount analysis unit 310, a modeling unit 320, a model unit 330, a base image DB 340, and a modeling data storage unit 350. Consists of.

(1)画像特徴量分析部310
画像特徴量分析部310は、動画収集サーバ40の動画DB42に記憶された動画データから、圧延材料12の尾端画像を取得し、尾端画像の画像特徴量を抽出する。画像特徴量分析部310は、図3に示した画像特徴量分析部110と同様の構成および機能を有する。画像特徴量分析部310の抽出した画像特徴量Siは、モデリングデータ格納部350に格納される。
(1) Image feature amount analysis unit 310
The image feature amount analysis unit 310 acquires the tail end image of the rolling material 12 from the moving image data stored in the moving image DB 42 of the moving image collection server 40, and extracts the image feature amount of the tail end image. The image feature quantity analysis unit 310 has the same configuration and function as the image feature quantity analysis unit 110 shown in FIG. The image feature amount Si extracted by the image feature amount analysis unit 310 is stored in the modeling data storage unit 350.

(2)モデリング部320、モデリングデータ格納部350
モデリング部320は、モデリングデータ格納部350に格納された画像特徴量SiとプロセスデータPiの各実績データに基づき、重回帰モデルを同定する。さらに、同定した重回帰モデルを用いて、制御計算機60より入力される制御条件(プロセスデータPo)から独立成分ベクトルSoを算出する。モデリングデータ格納部350には、画像特徴量分析部310から入力された画像特徴量Siと、プロセスデータの各実績データとが、例えば図15に示すように格納されている。
(2) Modeling unit 320 and modeling data storage unit 350
The modeling unit 320 identifies a multiple regression model based on the actual data of the image feature amount Si and the process data Pi stored in the modeling data storage unit 350. Furthermore, the independent component vector So is calculated from the control condition (process data Po) input from the control computer 60 using the identified multiple regression model. In the modeling data storage unit 350, the image feature amount Si input from the image feature amount analysis unit 310 and each result data of the process data are stored as shown in FIG. 15, for example.

図15では、圧延材料12を特定するためのコイル番号351と、画像特徴量352、プロセスデータ353とが、圧延材料12毎に関連付けて記憶されている。画像特徴量352には、u個の基底画像に対する各寄与率が格納されており、プロセスデータ353には、各圧延材料12の荷重やレベリング等のm個の実績データが格納されている。なお、モデリングデータ格納部350には、n個の圧延材料12に対するデータが格納されているとする。   In FIG. 15, a coil number 351 for specifying the rolling material 12, an image feature amount 352, and process data 353 are stored in association with each rolling material 12. The image feature quantity 352 stores each contribution rate to the u number of base images, and the process data 353 stores m pieces of record data such as the load and leveling of each rolling material 12. It is assumed that the modeling data storage unit 350 stores data for n rolling materials 12.

モデリング部320は、モデリングデータ格納部350に格納された画像特徴量SiとプロセスデータPiの各実績データに基づいて同定された重回帰モデルを用いて、制御計算機60より入力される制御条件(プロセスデータPo)から画像特徴量の寄与率、すなわち独立成分ベクトルSoを算出する。このとき、独立成分ベクトルSoは、下記数式9で表すことができる。また、プロセスデータPoは上記数式2で表されている。モデリング部320は、算出した独立成分ベクトルSoを、モデル部330へ出力する。   The modeling unit 320 uses the multiple regression model identified based on the actual data of the image feature amount Si and the process data Pi stored in the modeling data storage unit 350 to control conditions (processes) input from the control computer 60. The contribution ratio of the image feature quantity, that is, the independent component vector So is calculated from the data Po). At this time, the independent component vector So can be expressed by Equation 9 below. Further, the process data Po is expressed by Equation 2 above. The modeling unit 320 outputs the calculated independent component vector So to the model unit 330.

So1=A01+A11×p1o+A21×p2o+・・・+Am1×pmo
So2=A02+A12×p1o+A22×p2o+・・・+Am2×pmo

Sou=A0u+A1u×p1o+A2u×p2o+・・・+Amu×pmo
・・・(数式9)
So1 = A01 + A11 × p1o + A21 × p2o +... + Am1 × pmo
So2 = A02 + A12 × p1o + A22 × p2o +... + Am2 × pmo
:
Sou = A0u + A1u × p1o + A2u × p2o +... + Amu × pmo
... (Formula 9)

(3)モデル部330、基底画像DB340
モデル部330は、モデリング部220により予測された独立成分ベクトルSo、および基底画像DB440に記憶された基底画像に基づいて、圧延プロセス10において生成される圧延材料12の尾端の形状の予測推定画像を生成する。基底画像DB440には、例えば図10A〜図10Eに示すような、圧延材料12の尾端部の独立性の強い特異形状を表す基底画像が記憶されている。
(3) Model unit 330 and base image DB 340
Based on the independent component vector So predicted by the modeling unit 220 and the base image stored in the base image DB 440, the model unit 330 predicts and estimates the shape of the tail end of the rolling material 12 generated in the rolling process 10. Is generated. In the base image DB 440, for example, a base image representing a singular shape having a strong independence of the tail end portion of the rolled material 12 as illustrated in FIGS. 10A to 10E is stored.

モデル部330は、独立成分ベクトルSo、および基底画像を用いて上記モデル部130と同様の処理によって予測推定画像を生成する。予測推定画像は、例えば、オペレータに通知され、予測推定画像に現われた圧延材料12の尾端の形状からシステム状態を判断する材料として用いられる。オペレータは、必要に応じて設定値を修正し、制御計算機60は、修正された設定値に基づき、新たな制御条件(設定値)を算出し、分析装置300のモデル部330へ出力する。分析装置300は上述した処理を行い、新たな設定値による操業において取得されたプロセスデータから独立成分ベクトルを用いてSoを予測する。   The model unit 330 uses the independent component vector So and the base image to generate a predicted estimated image by the same process as the model unit 130 described above. The predicted estimated image is used, for example, as a material for notifying the operator and determining the system state from the shape of the tail end of the rolled material 12 appearing in the predicted estimated image. The operator corrects the setting value as necessary, and the control computer 60 calculates a new control condition (setting value) based on the corrected setting value, and outputs it to the model unit 330 of the analyzer 300. The analysis apparatus 300 performs the above-described processing, and predicts So using the independent component vector from the process data acquired in the operation with the new set value.

このように、重回帰モデルを用いたモデリング方法によって、圧延材料12の尾端の形状の予測推定画像を取得することもできる。   In this way, a predicted estimated image of the shape of the tail end of the rolled material 12 can also be obtained by a modeling method using a multiple regression model.

<3.実施例>
以下、分析装置100により取得された圧延材料12の尾端局所画像の画像特徴量とプロセスデータのデータ特徴量との相関関係について、実施例に沿って説明する。
<3. Example>
Hereinafter, the correlation between the image feature amount of the tail end local image of the rolled material 12 acquired by the analysis apparatus 100 and the data feature amount of the process data will be described according to examples.

実施例1では、図16に示す2つの圧延材料12の尾端の形状について、尾端局所画像の画像特徴量とプロセスデータのデータ特徴量との相関関係を説明する。ここでは、尾端の形状がWS側に尖りがある場合(分析1)とDS側に尖りがある場合(分析2)とについて考察する。   In Example 1, the correlation between the image feature amount of the tail end local image and the data feature amount of the process data will be described for the shapes of the tail ends of the two rolled materials 12 shown in FIG. Here, the case where the shape of the tail end is sharp on the WS side (Analysis 1) and the case where the tail end is sharp on the DS side (Analysis 2) will be considered.

(分析1:WS尖り)
まず、図16〜図19に基づき、尾端の形状がWS側に尖りがある場合について検討する。尾端の形状がWS側に尖りがある場合、尾端局所画像では、図16の上図に示すように、WS側(紙面左側)がDS側(紙面右側)に比べて明るく、輝度行列においても、WS側(紙面左側)に輝度値の高い箇所が多く分布していることがわかる。このように、代表的なWS側に尖りがある尾端の形状が現われている画像を代表画像として、代表画像とユークリッド距離の近いレベリング特性(段落0054参照)を有する圧延材料を10本抽出する。抽出された圧延材料を、類似レベリング材料と称する。類似レベリング材料は、図17に示すように、各圧延スタンドにおける各レベリングの値がそれぞれ近い値を有していることがわかる。
(Analysis 1: WS sharp)
First, a case where the shape of the tail end has a sharp point on the WS side will be considered based on FIGS. When the shape of the tail end is sharp on the WS side, in the tail end local image, the WS side (left side on the paper surface) is brighter than the DS side (right side on the paper surface) as shown in the upper diagram of FIG. Also, it can be seen that many locations with high luminance values are distributed on the WS side (left side of the drawing). Thus, ten rolling materials having leveling characteristics (see paragraph 0054) that are close to the representative image and the Euclidean distance are extracted with the representative image as an image in which the shape of the tail with a sharp point on the WS side appears. . The extracted rolled material is referred to as a similar leveling material. As shown in FIG. 17, it is understood that the leveling values of the similar leveling materials have values close to each other in each rolling stand.

類似レベリング材料の尾端局所画像から生成された輝度行列の一部を図18に示す。図18に示している6つの輝度行列を視覚的に図16の上図に示す代表画像の輝度行列と比較すると、代表画像の輝度行列と類似するWS側に尾端が尖っている傾向があることがわかる。また、類似レベリング材料の画像特徴量を示す独立成分ベクトルをみると、図19に示すように、一部傾向が異なるものもあるが、WS尖りの基底画像に対する寄与率が高く、DS尖りの基底画像に対する寄与率が低い傾向があることがわかる。   FIG. 18 shows a part of the luminance matrix generated from the tail end local image of the similar leveling material. When the six luminance matrices shown in FIG. 18 are visually compared with the luminance matrix of the representative image shown in the upper diagram of FIG. 16, the tail end tends to be sharp on the WS side similar to the luminance matrix of the representative image. I understand that. In addition, as shown in FIG. 19, the independent component vector indicating the image feature amount of the similar leveling material has a partly different tendency, but the contribution ratio of the WS-pointed base image is high, and the base of the DS-pointed base is high. It can be seen that the contribution ratio to the image tends to be low.

(分析2:DS尖り)
次に、図16、図20〜図22に基づき、尾端の形状がDS側に尖りがある場合について検討する。尾端の形状がDS側に尖りがある場合、尾端局所画像では、図16の下図に示すように、DS側(紙面右側)がWS側(紙面左側)に比べて明るく、輝度行列においても、DS側(紙面右側)に輝度値の高い箇所が多く分布していることがわかる。このように、代表的なDS側に尖りがある尾端の形状が現われている画像を代表画像として、分析1と同様、代表画像とユークリッド距離の近いレベリング特性を有する圧延材料(類似レベリング材料)を10本抽出する。類似レベリング材料は、図20に示すように、各圧延スタンドにおける各レベリング特性がそれぞれ近い値を有していることがわかる。
(Analysis 2: DS sharpness)
Next, based on FIGS. 16 and 20 to 22, a case where the shape of the tail end is sharp on the DS side will be considered. When the shape of the tail edge is sharp on the DS side, in the tail edge local image, the DS side (right side on the paper surface) is brighter than the WS side (left side on the paper surface) as shown in the lower diagram of FIG. It can be seen that many locations with high luminance values are distributed on the DS side (right side of the drawing). In this way, a representative material is an image in which the shape of the tail with a sharp point on the DS side appears, and a rolling material having a leveling characteristic close to the representative image and the Euclidean distance (similar leveling material) as in Analysis 1. 10 are extracted. As shown in FIG. 20, it is understood that the leveling characteristics of the similar leveling materials have close values in the respective rolling stands.

類似レベリング材料の尾端局所画像から生成された輝度行列の一部を図21に示す。図21に示している6つの輝度行列を視覚的に図16の下図に示す代表画像の輝度行列と比較すると、代表画像の輝度行列と類似するDS側に尾端が尖っている傾向があることがわかる。また、類似レベリング材料の画像特徴量を示す独立成分ベクトルをみると、図22に示すように、一部傾向が異なるものもあるが、DS尖りの基底画像に対する寄与率が高く、WS尖りの基底画像に対する寄与率が低い傾向があることがわかる。   A part of the luminance matrix generated from the tail end local image of the similar leveling material is shown in FIG. When the six luminance matrices shown in FIG. 21 are visually compared with the luminance matrix of the representative image shown in the lower diagram of FIG. 16, the tail end tends to be sharp on the DS side similar to the luminance matrix of the representative image. I understand. In addition, as shown in FIG. 22, the independent component vector indicating the image feature amount of the similar leveling material has some different tendencies, but the contribution rate of the DS sharp base to the base image is high, and the WS sharp base is high. It can be seen that the contribution ratio to the image tends to be low.

分析1、2より、レベリング特性が類似する圧延材料は、独立成分ベクトルも類似した特徴を有しており、独立成分ベクトルとレベリング特性との間に相関関係があるといえる。   From analyzes 1 and 2, it can be said that the rolled material having similar leveling characteristics has similar characteristics of the independent component vectors, and there is a correlation between the independent component vectors and the leveling characteristics.

次に、実施例2として、図23〜図26に基づいて、画像特徴量、すなわち独立成分ベクトルのユークリッド距離が近い尾端局所画像を分類し、分類された尾端局所画像間のプロセスデータの関連性について検証する。実施例2では、尾端局所画像を、独立成分ベクトルのユークリッド距離に基づき、WS尖り傾向を有する画像(分類1:図23)、DS尖り傾向を有する画像(分類2:図24)、フィッシュテール形状傾向を有する画像(分類3:図25)、そして正常形状を有する画像(分類4:図26)の4つに分類した。そして、分類された圧延材料12のプロセスデータのうち、差荷重およびレベリングの値について、その関連性を検証した。なお、本実施例では、各分類について、それぞれ3つの尾端局所画像を用いて、プロセスデータの関連性を検証する。   Next, as a second embodiment, based on FIGS. 23 to 26, image feature amounts, that is, tail local images having a close Euclidean distance of independent component vectors are classified, and process data of the classified tail local images are classified. Verify relevance. In Example 2, based on the Euclidean distance of the independent component vector, the tail end local image is an image having a WS sharp tendency (Category 1: FIG. 23), an image having a DS sharp tendency (Category 2: FIG. 24), and a fishtail. The images were classified into four types: images having a shape tendency (Category 3: FIG. 25) and images having a normal shape (Category 4: FIG. 26). And the relationship was verified about the value of a differential load and leveling among the process data of the classified rolling material 12. FIG. In the present embodiment, the relevance of process data is verified using three tail end local images for each classification.

(分類1:WS尖り)
まず、WS尖り傾向を有する画像として分類された尾端局所画像のプロセスデータの関連性について検証する。図23に示すように、WS尖り傾向を有する画像として分類された尾端局所画像に現われる尾端の形状は、ともにWS側(紙面左側)に尖りを有しており、視覚的にも類似している。一方、これらの尾端局所画像に対応する圧延材料12のプロセスデータについてみると、差荷重およびレベリングともに各圧延スタンドにおける値が類似することがわかる。
(Category 1: WS sharp)
First, the relevance of the process data of the tail end local image classified as an image having a WS sharp tendency is verified. As shown in FIG. 23, the shape of the tail end appearing in the local image of the tail end classified as an image having a WS sharpness tendency has a sharpness on the WS side (left side of the paper) and is visually similar. ing. On the other hand, looking at the process data of the rolling material 12 corresponding to these tail end local images, it can be seen that the values at the respective rolling stands are similar for both the differential load and the leveling.

(分類2:DS尖り)
次いで、DS尖り傾向を有する画像として分類された尾端局所画像のプロセスデータの関連性について検証する。図24に示すように、DS尖り傾向を有する画像として分類された尾端局所画像に現われる尾端の形状は、ともにDS側(紙面右側)に尖りを有しており、視覚的にも類似している。一方、これらの尾端局所画像に対応する圧延材料12のプロセスデータについてみると、分類1と同様に、差荷重およびレベリングともに各圧延スタンドにおける値が類似することがわかる。
(Category 2: DS sharpness)
Then, the relevance of the process data of the tail-tip local image classified as an image having a DS sharpness tendency is verified. As shown in FIG. 24, the shape of the tail end that appears in the local image of the tail end classified as an image having a DS sharpness tendency has a sharpness on the DS side (right side of the paper) and is visually similar. ing. On the other hand, looking at the process data of the rolling material 12 corresponding to these local images at the tail end, it can be seen that the values at the respective rolling stands are similar for both the differential load and the leveling as in the case of the classification 1.

(分類3:フィッシュテール)
さらに、フィッシュテール形状傾向を有する画像として分類された尾端局所画像のプロセスデータの関連性について検証する。図25に示すように、フィッシュテール形状傾向を有する画像として分類された尾端局所画像に現われる尾端の形状は、WS側、DS側の両方に尖りを有しており、視覚的にも類似している。一方、これらの尾端局所画像に対応する圧延材料12のプロセスデータについてみると、差荷重については各圧延スタンドにおける値が類似しているが、レベリングについては圧延スタンドによっては各プロセスデータの値が相違していることがわかる。
(Category 3: Fishtail)
Furthermore, the relevance of the process data of the tail end local image classified as an image having a fishtail shape tendency is verified. As shown in FIG. 25, the shape of the tail end that appears in the local image of the tail end classified as an image having a fishtail shape tendency has a sharp point on both the WS side and the DS side, and is visually similar. doing. On the other hand, regarding the process data of the rolling material 12 corresponding to these tail end local images, the value at each rolling stand is similar for the differential load, but the value of each process data is different depending on the rolling stand for leveling. It can be seen that there is a difference.

(分類4:正常)
最後に、正常形状を有する画像として分類された尾端局所画像のプロセスデータの関連性について検証する。図26に示すように、正常形状を有する画像として分類された尾端局所画像に現われる尾端の形状は、ともに舌状となっており、視覚的にも類似している。一方、これらの尾端局所画像に対応する圧延材料12のプロセスデータについてみると、分類1、2と同様に、差荷重およびレベリングともに各圧延スタンドにおける値が類似することがわかる。
(Category 4: Normal)
Finally, the relevance of the process data of the tail end local image classified as an image having a normal shape is verified. As shown in FIG. 26, the shape of the tail end appearing in the tail end local image classified as an image having a normal shape is both tongue-like and visually similar. On the other hand, when looking at the process data of the rolling material 12 corresponding to these tail end local images, it can be seen that the values at the respective rolling stands are similar for both the differential load and the leveling as in the case of classifications 1 and 2.

以上の分類1〜4についての検証より、画像特徴量の類似する圧延材料のプロセスデータは、概ね類似する傾向があることがわかる。しかし、分類3のように、画像特徴量が類似している場合であっても、一部のプロセスデータについてはデータ特徴量の類似性が弱いものもある。この原因として、圧延材料の尾端の形状に尖りが発生する場合には複数の要因があり、1つのプロセスデータにはその傾向が現れ難いことが考えられる。また、画像特徴量を抽出する尾端局所画像の品質のばらつきによる影響も考えられる。   From the verification of the above classifications 1 to 4, it can be seen that the process data of the rolled material having similar image feature amounts tend to be generally similar. However, even if the image feature amounts are similar as in Category 3, some of the process data may have weak data feature amounts. As this cause, there are a plurality of factors in the case where the shape of the tail end of the rolled material is sharp, and it is considered that the tendency does not easily appear in one process data. Moreover, the influence by the dispersion | variation in the quality of the tail end local image which extracts image feature-value is also considered.

このような原因は、例えばプロセスデータの代表値の算出方法によって改善できる可能性もある。例えば、圧延スタンドのうち、終端に近い側の圧延スタンドでの値を用いて代表値を算出したり、圧延材料の圧延方向において隣接するスタンド間の差分を用いて代表値を算出したりすること等が考えられる。   Such a cause may be improved by, for example, a method for calculating a representative value of process data. For example, a representative value is calculated using a value at a rolling stand near the end of the rolling stands, or a representative value is calculated using a difference between adjacent stands in the rolling direction of the rolling material. Etc. are considered.

実施例1、2より、尾端局所画像から抽出された画像特徴量とプロセスデータから抽出されたデータ特徴量との相関関係を確認することができる。したがって、本実施形態に係る分析装置100によれば、このような相関関係に基づき予測された独立成分ベクトルから圧延プロセス10が正常に稼働しているか、異常があるか等を分析することができる。また、目標とするコイルの尾端局所画像(目標画像)を設定し、モデル部130により推定された予測推定画像と目標画像との差分より、オペレータは、制御条件を修正して、圧延プロセス10の制御条件に反映させることで、生成される圧延材料の品質を維持することが可能となる。   From Examples 1 and 2, the correlation between the image feature amount extracted from the tail end local image and the data feature amount extracted from the process data can be confirmed. Therefore, according to the analysis apparatus 100 according to the present embodiment, it is possible to analyze whether the rolling process 10 is operating normally, whether there is an abnormality, or the like from the independent component vector predicted based on such correlation. . Moreover, the tail end local image (target image) of the target coil is set, and the operator corrects the control condition from the difference between the predicted estimated image estimated by the model unit 130 and the target image, and the rolling process 10 It is possible to maintain the quality of the produced rolling material by reflecting it in the control conditions.

<4.ハードウェア構成例>
上述した本実施形態に係る分析装置100は、例えばコンピュータ等の情報処理装置により実現することができる。情報処理装置は、例えば、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、バスと、インタフェースと、入力装置と、出力装置と、ストレージ装置と、通信装置とを備えるように構成することができる。
<4. Hardware configuration example>
The analysis apparatus 100 according to the present embodiment described above can be realized by an information processing apparatus such as a computer. The information processing apparatus includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a bus, an interface, an input device, an output device, a storage device, a communication device, and the like. And a device.

CPUは、演算処理装置および制御装置として機能し、各種プログラムに従って分析装置100内の動作全般を制御する。また、CPUは、マイクロプロセッサであってもよい。ROMは、CPUが使用するプログラムや演算パラメータ等を記憶する。RAMは、CPUの実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはバスにより相互に接続されている。バスは、入力装置、出力装置、ストレージ装置、および通信装置を相互に接続するインタフェースと接続されている。   The CPU functions as an arithmetic processing device and a control device, and controls the overall operation in the analysis device 100 according to various programs. The CPU may be a microprocessor. The ROM stores programs used by the CPU, calculation parameters, and the like. The RAM temporarily stores programs used in the execution of the CPU, parameters that change as appropriate during the execution, and the like. These are connected to each other by a bus. The bus is connected to an interface that interconnects the input device, the output device, the storage device, and the communication device.

入力装置は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPUに出力する入力制御回路などから構成されている。   The input device includes input means for a user to input information such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU. It is composed of

出力装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置は、スピーカおよびヘッドホンなどの音声出力装置を含む。   The output device includes display devices such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a lamp. Furthermore, the output device includes a sound output device such as a speaker and headphones.

ストレージ装置は、分析装置100の記憶部の一例として構成されたデータ格納用の装置であり、例えば、HDD(Hard Disk Drive)で構成される。ストレージ装置は、例えばハードディスクを駆動し、CPUが実行するプログラムや各種データを格納している。また、通信装置は、例えば、通信網に接続するための通信デバイス等で構成された通信インタフェースである。通信装置としては、例えば、無線LAN(Local Area Network)対応通信装置や、ワイヤレスUSB対応通信装置、有線による通信を行う通信装置等を用いることができる。   The storage device is a data storage device configured as an example of a storage unit of the analysis device 100, and includes, for example, an HDD (Hard Disk Drive). The storage device drives a hard disk, for example, and stores programs executed by the CPU and various data. The communication device is a communication interface configured by a communication device or the like for connecting to a communication network, for example. As the communication device, for example, a wireless LAN (Local Area Network) compatible communication device, a wireless USB compatible communication device, a communication device that performs wired communication, or the like can be used.

なお、かかる情報処理装置は、例えば、当該情報処理装置に内蔵、あるいは外付けされる記憶媒体用リーダライタを備えることもできる。記憶媒体用リーダライタは、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAMに出力する。また、情報処理装置は、外部機器と接続されるインタフェースを備えることもでき、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口として用いることができる。   In addition, this information processing apparatus can also be provided with the reader / writer for storage media incorporated in the information processing apparatus or attached externally, for example. The storage medium reader / writer reads information recorded on a mounted removable recording medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM. The information processing apparatus can also be provided with an interface connected to an external device, and can be used as a connection port with an external device capable of transmitting data by, for example, USB (Universal Serial Bus).

また、上述した本実施形態に係る分析装置100による分析方法は、それぞれ専用のハードウェアにより実行させてもよいが、ソフトウェアにより実行させてもよい。一連の処理をソフトウェアにより行う場合、例えば、汎用または専用のコンピュータにプログラムを実行させることにより、上記の一連の処理を実現することができる。   Further, the analysis method by the analysis apparatus 100 according to the present embodiment described above may be executed by dedicated hardware, but may be executed by software. When a series of processing is performed by software, for example, the above-described series of processing can be realized by causing a general-purpose or dedicated computer to execute the program.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、分析装置100を圧延プロセス10の分析に適用したが、本発明はかかる例に限定されない。例えば、圧延プロセス10以外のプロセス制御分野に適用してもよい。   For example, in the above embodiment, the analysis apparatus 100 is applied to the analysis of the rolling process 10, but the present invention is not limited to such an example. For example, the present invention may be applied to a process control field other than the rolling process 10.

また、上記実施形態では、画像特徴量を独立成分分析(ICA)により算出したが、本発明はかかる例に限定されない。例えば、主成分分析(PCA)等によって画像特徴量を算出してもよい。   Moreover, in the said embodiment, although the image feature-value was calculated by independent component analysis (ICA), this invention is not limited to this example. For example, the image feature amount may be calculated by principal component analysis (PCA) or the like.

10 圧延プロセス
12 コイル
14 圧延ロール
20 データ収集サーバ
22 プロセスデータDB
31、32 カメラ
33、34 モニタ
40 動画収集サーバ
42 動画DB
100 分析装置
110 分析部
120 モデリング部
122 操業分析DB
124 条件入力部
126 モデル生成部
130 推定部
132 加算部
140 基底画像DB
DESCRIPTION OF SYMBOLS 10 Rolling process 12 Coil 14 Rolling roll 20 Data collection server 22 Process data DB
31, 32 Camera 33, 34 Monitor 40 Video collection server 42 Video DB
DESCRIPTION OF SYMBOLS 100 Analysis apparatus 110 Analysis part 120 Modeling part 122 Operation analysis DB
124 condition input unit 126 model generation unit 130 estimation unit 132 addition unit 140 base image DB

Claims (8)

分析対象物を生成するプロセスにおいて、当該プロセスにて生成される分析対象物を分析する分析装置であって、
分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する第1の特徴量抽出部と、
前記分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出部と、
前記第1の特徴量抽出部により抽出された画像特徴量と、前記第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、前記プロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測部と、
を備え
前記画像特徴量は、前記分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、
前記第1の特徴量抽出部は、独立成分分析を用いて前記分析対象物の分析対象画像に対する基底画像への寄与率を取得し、
前記予測部は、前記第1の特徴量抽出部により取得された前記基底画像の寄与率と前記第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、前記プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出することを特徴とする、分析装置。
In the process of generating an analysis object, an analysis device for analyzing the analysis object generated in the process,
A first feature amount extraction unit that extracts an image feature amount representing a shape feature appearing in the image from the analysis target image of the analysis target;
A second feature amount extraction unit for extracting a data feature amount representing a characteristic on data appearing in the process data from the process data in the process of generating the analysis object;
Analytical object generated by the process based on the correlation between the image feature quantity extracted by the first feature quantity extraction unit and the data feature quantity extracted by the second feature quantity extraction unit A prediction unit that calculates a predicted image feature amount predicted for
Equipped with a,
The image feature amount is a contribution rate to the base image representing a characteristic shape with respect to the analysis target image of the analysis target,
The first feature amount extraction unit obtains a contribution rate of the analysis object to the base image with respect to the analysis image using independent component analysis,
The prediction unit performs the process based on the correlation between the contribution rate of the base image acquired by the first feature amount extraction unit and the data feature amount extracted by the second feature amount extraction unit. An analysis device that calculates a contribution rate to a base image predicted for an analysis object generated in this manner .
前記予測部は、
前記データ特徴量と前記分析対象物を生成する過程における各プロセスデータとのユークリッド距離をそれぞれ算出し、
前記各ユークリッド距離が最小となる前記プロセスデータに関連付けられた前記画像特徴量を前記分析対象物の予測画像特徴量とすることを特徴とする、請求項1に記載の分析装置。
The prediction unit
Calculating the Euclidean distance between each of the data feature and each process data in the process of generating the analysis object,
The analysis apparatus according to claim 1, wherein the image feature amount associated with the process data that minimizes each Euclidean distance is a predicted image feature amount of the analysis target.
前記予測部は、
前記データ特徴量と前記分析対象物を生成する過程における各プロセスデータとのユークリッド距離をそれぞれ算出し、
前記各ユークリッド距離が所定値以下となる前記複数のプロセスデータを類似プロセスデータとして抽出し、前記類似プロセスデータに関連付けられた前記画像特徴量の加重平均を前記分析対象物の予測画像特徴量とすることを特徴とする、請求項1に記載の分析装置。
The prediction unit
Calculating the Euclidean distance between each of the data feature and each process data in the process of generating the analysis object,
The plurality of process data in which each Euclidean distance is equal to or less than a predetermined value is extracted as similar process data, and a weighted average of the image feature amounts associated with the similar process data is used as a predicted image feature amount of the analysis object. The analyzer according to claim 1, wherein:
前記第2の特徴量抽出部は、前記分析対象物を生成する過程におけるプロセスデータに含まれる項目データのうち、少なくとも1つの前記項目データの値を正規化して、前記データ特徴量とすることを特徴とする、請求項1〜のいずれか1項に記載の分析装置。 The second feature amount extraction unit normalizes a value of at least one item data among the item data included in the process data in the process of generating the analysis target object to obtain the data feature amount. The analyzer according to any one of claims 1 to 3 , wherein the analyzer is characterized. 前記予測部により算出された予測画像特徴量と、前記基底画像とに基づいて、分析対象物の形状を推定する推定部をさらに備えることを特徴とする、請求項のいずれか1項に記載の分析装置。 The predicted image feature amount calculated by the prediction unit, based on said base image, further comprising an estimation unit that estimates a shape of the analyte and wherein any one of claims 1 to 4 The analyzer described in 1. 前記分析対象物は、圧延プロセスにおける圧延材料であり、
前記圧延材料の尾端の形状を表す尾端画像を分析対象画像とすることを特徴とする、請求項1〜のいずれか1項に記載の分析装置。
The analysis object is a rolling material in a rolling process,
Characterized by a tail end image representing the shape of the tail end of the rolled material and the analysis target image, the analyzer according to any one of claims 1-5.
分析対象物を生成するプロセスにおいて、当該プロセスにて生成される分析対象物を分析する分析方法であって、
分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する第1の特徴量抽出ステップと、
前記分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出ステップと、
前記画像特徴量と前記データ特徴量との相関関係に基づいて、前記プロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測ステップと、
を含み、
前記画像特徴量は、前記分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、
前記第1の特徴量抽出ステップは、独立成分分析を用いて前記分析対象物の分析対象画像に対する基底画像への寄与率を取得し、
前記予測ステップは、前記第1の特徴量抽出ステップにより取得された前記基底画像の寄与率と前記第2の特徴量抽出ステップにより抽出されたデータ特徴量との相関関係に基づいて、前記プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出することを特徴とする、分析方法。
In the process of generating an analysis object, an analysis method for analyzing the analysis object generated in the process,
A first feature amount extraction step of extracting an image feature amount representing a shape feature appearing in the image from the analysis target image of the analysis target;
A second feature amount extraction step of extracting a data feature amount representing a characteristic on data appearing in the process data from the process data in the process of generating the analysis object;
A prediction step of calculating a predicted image feature amount predicted for the analysis target generated in the process based on a correlation between the image feature amount and the data feature amount;
Only including,
The image feature amount is a contribution rate to the base image representing a characteristic shape with respect to the analysis target image of the analysis target,
The first feature amount extraction step obtains a contribution rate of the analysis object to the base image with respect to the analysis image using independent component analysis,
The prediction step performs the process based on the correlation between the contribution ratio of the base image acquired by the first feature amount extraction step and the data feature amount extracted by the second feature amount extraction step. An analysis method characterized by calculating a contribution rate to a base image predicted for an analysis object generated in this way.
コンピュータをして、
分析対象物の分析対象画像から画像に現われる形状的特徴を表す画像特徴量を抽出する第1の特徴量抽出部と、
前記分析対象物を生成する過程におけるプロセスデータから当該プロセスデータに現われるデータ上の特性を表すデータ特徴量を抽出する第2の特徴量抽出部と、
前記第1の特徴量抽出部により抽出された画像特徴量と、前記第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、分析対象物を生成するプロセスにて生成される分析対象物について予測される予測画像特徴量を算出する予測部と、
を備え
前記画像特徴量は、前記分析対象物の分析対象画像に対する、特徴的形状を表した基底画像への寄与率であり、
前記第1の特徴量抽出部は、独立成分分析を用いて前記分析対象物の分析対象画像に対する基底画像への寄与率を取得し、
前記予測部は、前記第1の特徴量抽出部により取得された前記基底画像の寄与率と前記第2の特徴量抽出部により抽出されたデータ特徴量との相関関係に基づいて、前記プロセスにて生成される分析対象物について予測される基底画像への寄与率を算出することを特徴とする、分析対象物を生成するプロセスにて生成される分析対象物を分析する分析装置として機能させるためのコンピュータプログラム。
Computer
A first feature amount extraction unit that extracts an image feature amount representing a shape feature appearing in the image from the analysis target image of the analysis target;
A second feature amount extraction unit for extracting a data feature amount representing a characteristic on data appearing in the process data from the process data in the process of generating the analysis object;
Generated by the process of generating the analysis object based on the correlation between the image feature quantity extracted by the first feature quantity extraction unit and the data feature quantity extracted by the second feature quantity extraction unit A prediction unit that calculates a predicted image feature amount predicted for the analysis target to be analyzed;
Equipped with a,
The image feature amount is a contribution rate to the base image representing a characteristic shape with respect to the analysis target image of the analysis target,
The first feature amount extraction unit obtains a contribution rate of the analysis object to the base image with respect to the analysis image using independent component analysis,
The prediction unit performs the process based on the correlation between the contribution rate of the base image acquired by the first feature amount extraction unit and the data feature amount extracted by the second feature amount extraction unit. In order to function as an analysis device for analyzing an analysis object generated in the process of generating the analysis object, which calculates a contribution rate to the base image predicted for the analysis object generated Computer program.
JP2010239171A 2010-10-26 2010-10-26 Analysis device, analysis method, and computer program Expired - Fee Related JP5549536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010239171A JP5549536B2 (en) 2010-10-26 2010-10-26 Analysis device, analysis method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010239171A JP5549536B2 (en) 2010-10-26 2010-10-26 Analysis device, analysis method, and computer program

Publications (2)

Publication Number Publication Date
JP2012093862A JP2012093862A (en) 2012-05-17
JP5549536B2 true JP5549536B2 (en) 2014-07-16

Family

ID=46387138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010239171A Expired - Fee Related JP5549536B2 (en) 2010-10-26 2010-10-26 Analysis device, analysis method, and computer program

Country Status (1)

Country Link
JP (1) JP5549536B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059990B2 (en) * 2019-08-27 2022-04-26 Jfeスチール株式会社 Shape prediction model generation method, rolling shape prediction method, metal plate rolling method, metal plate manufacturing method, and metal plate rolling equipment
JP2022081819A (en) * 2020-11-20 2022-06-01 東芝三菱電機産業システム株式会社 Method for automatically measuring crop length

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0852459A (en) * 1994-08-11 1996-02-27 Toshiba Corp Sewage treatment process controller
JP2001255929A (en) * 2000-03-10 2001-09-21 Toshiba Corp Device for supporting plant operation
JP4901462B2 (en) * 2006-12-27 2012-03-21 新日本製鐵株式会社 Gas flow state monitoring method, monitoring apparatus, and computer program for furnace top

Also Published As

Publication number Publication date
JP2012093862A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
Younus et al. Intelligent fault diagnosis of rotating machinery using infrared thermal image
WO2021000524A1 (en) Hole protection cap detection method and apparatus, computer device and storage medium
JP6624963B2 (en) Information processing apparatus, information processing method and program
CN115993807B (en) Production monitoring optimization control method and system for silicon carbide
JP5113721B2 (en) Media information attention measuring device, media information attention measuring method, media information attention measuring program, and recording medium recording the program
JP6903142B2 (en) Anomaly detection device, anomaly detection method and program
CN116758491B (en) Printing monitoring image analysis method and system applied to 3D printing
CN108664986B (en) Based on lpNorm regularized multi-task learning image classification method and system
CN109675935A (en) A kind of IPCA operation of rolling on-line fault diagnosis method becoming control limit
CN117355038B (en) X-shaped hole processing method and system for circuit board soft board
JP5549536B2 (en) Analysis device, analysis method, and computer program
CN115861210A (en) Transformer substation equipment abnormity detection method and system based on twin network
CN113607546A (en) Crack measuring method
CN117562311A (en) Detection system of high-performance electronic cigarette atomizer
CN106682604B (en) Blurred image detection method based on deep learning
CN116883412A (en) Graphene far infrared electric heating equipment fault detection method
JP2004109105A (en) Flaw type classification boundary setting method in surface defect detection, and defect detection method
Yu et al. A hybrid learning-based model for on-line monitoring and diagnosis of out-of-control signals in multivariate manufacturing processes
JP4894747B2 (en) Partial region detection device, object identification device, and program
CN104198491B (en) Based on expansive cut tobacco ratio measuring method in the tobacco shred of computer vision
CN113033469A (en) Tool damage identification method, device, equipment, system and readable storage medium
JP2019124633A (en) Flaw inspection apparatus and flaw inspection method for steel sheet
CN114648532B (en) Polyester film mechanical property detection device based on optical recognition
JP7484569B2 (en) Image processing device, image processing method, and program
CN117350967B (en) Optical detection-based wafer appearance defect detection system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R151 Written notification of patent or utility model registration

Ref document number: 5549536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees