KR20200089450A - Device and method for generating image to monitor state of power plant - Google Patents

Device and method for generating image to monitor state of power plant Download PDF

Info

Publication number
KR20200089450A
KR20200089450A KR1020190006170A KR20190006170A KR20200089450A KR 20200089450 A KR20200089450 A KR 20200089450A KR 1020190006170 A KR1020190006170 A KR 1020190006170A KR 20190006170 A KR20190006170 A KR 20190006170A KR 20200089450 A KR20200089450 A KR 20200089450A
Authority
KR
South Korea
Prior art keywords
situation
image
score
sensing data
power generation
Prior art date
Application number
KR1020190006170A
Other languages
Korean (ko)
Other versions
KR102253820B1 (en
Inventor
김익재
최희승
임현기
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020190006170A priority Critical patent/KR102253820B1/en
Publication of KR20200089450A publication Critical patent/KR20200089450A/en
Application granted granted Critical
Publication of KR102253820B1 publication Critical patent/KR102253820B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4184Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by fault tolerance, reliability of production system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/0227Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
    • G05B23/0235Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions based on a comparison with predetermined threshold or range, e.g. "classical methods", carried out during normal operation; threshold adaptation or choice; when or how to compare with the threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Embodiments relate to an image generating device for monitoring a situation of a power generation facility and to a method thereof. Provided are the image generating device, which comprises a data obtaining unit obtaining sensing data of a plurality of sensors installed in a power generation facility, and an image generating unit generating a situation image representing a situation of the power generation facility based on a situation score in a monitoring time range, and the method thereof.

Description

발전 설비의 상황을 모니터링하기 위한 이미지 생성 장치 및 방법{DEVICE AND METHOD FOR GENERATING IMAGE TO MONITOR STATE OF POWER PLANT}DEVICE AND METHOD FOR GENERATING IMAGE TO MONITOR STATE OF POWER PLANT}

본 발명은 발전 설비의 상황을 모니터링하는 기술에 관한 것으로서, 보다 상세하게는 발전 설비에 설치된 복수의 센서를 통해 획득된 다차원 센싱 데이터에 기초하여 발전 설비의 상황를 나타내는 이미지를 생성하는 장치 및 방법에 관한 것이다. The present invention relates to a technology for monitoring the status of a power generation facility, and more particularly, to an apparatus and method for generating an image representing the status of a power generation facility based on multidimensional sensing data obtained through a plurality of sensors installed in the power generation facility. will be.

발전 설비를 구동함에 있어 가장 필요한 작업은 발전 설비의 구동 상황 및/또는 주변 상황의 이상 여부를 모니터링하는 작업이다. 이를 위해 다수의, 그리고 다양한 유형의 센서를 이용하여 발전 설비의 동작에 있는지를 모니터링하는 작업이 수행된다. The most necessary operation in driving the power generation facility is to monitor the operation status of the power generation facility and/or the abnormality of the surrounding situation. To this end, a number of and various types of sensors are used to monitor the operation of the power plant.

도 1은, 종래의 일 실시예에 따른, 발전 설비의 센싱 데이터를 도시한 도면이다. 1 is a view showing sensing data of a power generation facility according to an exemplary embodiment.

도 1을 참조하면, 발전 설비에 설치된 복수의 기압 센서를 통해 각 기압 센서 별 기압 데이터를 획득할 수 있다. 상기 기압 데이터 값에 기초하여 발전 설비의 상황이 기압 측면에서 정상 상황인지, 고장 상황인지 모니터링 작업이 수행된다. 기압 측면에서의 상황 모니터링은 각 센서별로 수행되는 것이 일반적이다. 예를 들어, 제1 기압 센서의 기압 데이터에 기초하여 제1 기압 센서 주변의 기압 상황이 정상인지 판단되며, 이와 개별적으로 제2 기압 센서의 기압 데이터에 기초하여 제2 기압 센서 주변의 기압 상황이 정상인지 판단된다. Referring to FIG. 1, air pressure data for each air pressure sensor may be acquired through a plurality of air pressure sensors installed in a power generation facility. Based on the air pressure data value, monitoring is performed to determine whether the situation of the power generation facility is a normal situation or a failure situation in terms of air pressure. It is common to monitor the situation in terms of air pressure for each sensor. For example, it is determined whether the air pressure surrounding the first air pressure sensor is normal based on the air pressure data of the first air pressure sensor, and individually the air pressure situation around the second air pressure sensor is based on the air pressure data of the second air pressure sensor. It is judged whether it is normal.

그러나, 발전 설비 및 센서 기술이 고도화됨에 따라서, 발전 설비 모니터링을 위해 요구되는 센서의 유형이 다양해지고, 센서의 수가 적게는 수천, 많게는 수만개 설치되고 있다. 이 경우, 센서별 센싱 데이터의 양이 방대하여 센싱 데이터 자체를 사용자에게 제공할 경우, 사용자는 발전 설비의 상황에 대하여 정확한 판단을 내리는 것이 거의 불가능하다. However, as the power generation facilities and sensor technologies have been advanced, the types of sensors required for monitoring the power generation facilities have been diversified, and the number of sensors has been installed with as few as tens and tens of thousands. In this case, when the amount of sensing data for each sensor is large and the sensing data itself is provided to the user, it is almost impossible for the user to make an accurate judgment on the situation of the power generation facility.

또한, 각 센서별로 센서의 센싱 데이터에 기초하여 발전 설비의 상황을 판단하는 것은 시간이 오래 걸릴 수 있다. 나아가, 발전 설비 전체에 대한 상황을 종합적으로 판단할 수 있는 정보를 효율적으로 제공하는데 한계가 있다.In addition, it may take a long time to determine the situation of the power generation facility based on the sensor's sensing data for each sensor. Furthermore, there is a limit to efficiently providing information capable of comprehensively determining the situation of the entire power generation facility.

특허공개공보 제10-2016-0055622호Patent Publication No. 10-2016-0055622

본 발명의 일 측면에 따르면 발전 설비에 설치된 복수의 센서를 통해 획득된 다차원 센싱 데이터에 기초하여 발전 설비의 상황를 나타내는 이미지를 생성하는 장치를 제공할 수 있다.According to an aspect of the present invention, it is possible to provide an apparatus for generating an image representing a situation of a power generation facility based on multidimensional sensing data obtained through a plurality of sensors installed in the power generation facility.

본 발명의 일 측면에 따른 모니터링을 위한 이미지 생성 장치에 의해 수행되는 이미지 생성 방법은 상기 발전 설비에 설치된 복수의 센서의 센싱 데이터를 획득하는 단계; 상기 센싱 데이터를 점수 모델에 적용하여 상황 점수를 산출하는 단계; 및 모니터링 시간 범위에서의 상황 점수에 기초하여 발전 설비의 상황을 나타내는 상황 이미지를 생성하는 단계를 포함할 수 있다. 여기서, 상기 점수 모델은 센싱 데이터로부터 통계적 특징 값을 추출하도록 구성된 통계적 특징 추출 레이어, 및 상기 센싱 데이터로부터 추출된 통계적 특징 값에 기초하여 상황 점수를 산출하도록 구성된 점수 산출 레이어를 포함한다.An image generation method performed by an image generation device for monitoring according to an aspect of the present invention includes obtaining sensing data of a plurality of sensors installed in the power generation facility; Calculating a situation score by applying the sensing data to a score model; And generating a situation image representing the situation of the power generation facility based on the situation score in the monitoring time range. Here, the score model includes a statistical feature extraction layer configured to extract statistical feature values from the sensing data, and a score calculating layer configured to calculate a situation score based on the statistical feature values extracted from the sensing data.

일 실시예에서, 상기 점수 모델은, 정상 상황에서의 샘플을 미리 모델링된 통계적 특징 추출 레이어에 적용하여 샘플별로 통계적 특징 값을 추출하는 단계 - 상기 샘플은 정상 상황에서의 복수의 센서의 센싱 데이터를 샘플 데이터로 포함함; 상기 샘플 데이터의 통계적 특징 값에 기초하여 각 센서별 샘플 데이터에 대한 평균 및 공분산을 산출하는 단계; 상기 각 센서별 샘플 데이터에 대한 평균 및 공분산에 기초하여 상황 점수를 산출하는 점수 산출 레이어를 모델링하는 단계; 및 상기 통계적 특징 추출 레이어 및 점수 산출 레이어를 포함한 점수 모델을 생성하는 단계가 수행되어 생성될 수 있다. In one embodiment, the score model extracts statistical feature values for each sample by applying a sample in a normal situation to a pre-modeled statistical feature extraction layer-the sample receives sensing data of a plurality of sensors in a normal situation. Included as sample data; Calculating an average and a covariance for sample data for each sensor based on the statistical characteristic values of the sample data; Modeling a score calculation layer for calculating a situation score based on the average and covariance of the sample data for each sensor; And generating a score model including the statistical feature extraction layer and the score calculation layer.

일 실시예에서, 상기 통계적 특징 값은, 평균 값, 중앙 값, 최대 값, 최소 값, 표준 편차, RMS(root mean squre), 왜도(Skewness), 첨도(kurtosis) 및 이들의 조합 중 하나 이상을 포함할 수 있다. In one embodiment, the statistical feature value is one or more of an average value, median value, maximum value, minimum value, standard deviation, root mean squre (RMS), skewness, kurtosis, and combinations thereof. It may include.

일 실시예에서, 상기 통계적 특징 추출 레이어는 입력된 센싱 데이터에 대한 통계적 특징 값을 추출하도록 구성될 수 있다. In one embodiment, the statistical feature extraction layer may be configured to extract statistical feature values for input sensing data.

일 실시예에서, 상기 통계적 특징 추출 레이어는 입력된 센싱 데이터의 변화량 데이터에 대한 통계적 특징 값을 추출하도록 구성될 수 있다.In one embodiment, the statistical feature extraction layer may be configured to extract a statistical feature value for the variation data of the input sensing data.

일 실시예에서, 상기 점수 산출 레이어는 다음의 수학식 1으로 모델링될 수 있다.In one embodiment, the score calculation layer may be modeled by Equation 1 below.

Figure pat00001
Figure pat00001

여기서, Fk는 시각(tk)에서 상기 복수의 센서의 센싱 데이터로부터 추출된 통계적 특징 값을 포함한 통계적 특징 값 세트로서 Fk는 i번째 센서의 센싱 데이터로부터 추출된 통계적 특징 값을 포함하고, n은 센서의 개수, fn은 통계적 특징 값의 유형의 개수, mi는 i번째 센서의 통계적 특징 값에 대한 평균, covi는 i번째 센서의 통계적 특징에 대한 공분산, T는 행렬의 선형 변환을 나타낸다. Here, F k is a statistical characteristic value set including a statistical feature values extracted from the sensed data of the plurality of sensor at time (t k) F k comprises a statistical feature values extracted from the sensed data of the i-th sensor, n is the number of sensors, fn is the number of types of statistical feature values, m i is the mean for the statistical characteristic values of the i-th sensor, cov i is the covariance for the statistical characteristics of the i-th sensor, T is a linear transformation of the matrix Shows.

일 실시예에서, 상기 상황 점수는 상기 센싱 데이터가 복수의 센서로부터 획득된 다차원 센싱 데이터인 경우, 상기 다차원 센싱 데이터가 1차원 시계열 데이터로 변환되어 점수화된 것이다. In one embodiment, when the sensing data is multi-dimensional sensing data obtained from a plurality of sensors, the multi-dimensional sensing data is converted into one-dimensional time series data and scored.

일 실시예에서, 상기 상황 이미지를 생성하는 단계는 상기 이미지 생성부는 상기 모니터링 시간 범위에 기초하여 상황 이미지를 형성하는 픽셀의 수를 결정하는 단계; 및 픽셀과 관련된 상황 점수에 기초하여 색상을 결정하는 단계를 포함할 수 있다.In one embodiment, the generating of the context image may include: determining, by the image generator, the number of pixels forming the context image based on the monitoring time range; And determining a color based on a situation score associated with the pixel.

일 실시예에서, 상기 픽셀의 수를 결정하는 단계는, 상기 모니터링 시간 범위에 기초하여 상기 상황 이미지의 수평 픽셀의 수 및 수직 픽셀의 수를 결정하는 단계를 포함할 수 있다. In an embodiment, determining the number of pixels may include determining the number of horizontal pixels and the number of vertical pixels of the context image based on the monitoring time range.

일 실시예에서, 상기 픽셀의 위치는 수평 좌표로서 상기 모니터링 시간 범위 내 시간에 대응하는 값, 그리고 수직 좌표로서 상기 모니터링 시간 범위 내 시간에 대응하는 값으로 표현할 수 있다.In one embodiment, the position of the pixel may be expressed as a value corresponding to a time in the monitoring time range as horizontal coordinates, and a value corresponding to a time in the monitoring time range as vertical coordinates.

일 실시예에서, 상기 모니터링 시간 범위는 제1 시간과 제2 시간 사이의 시간 범위로서, 상기 제2 시간은 상기 제1 시간으로부터 이전 시간일 수 있다.In one embodiment, the monitoring time range is a time range between the first time and the second time, and the second time may be a previous time from the first time.

일 실시예에서, 상기 제1 시간은 실시간일 수 있다. In one embodiment, the first time may be real time.

일 실시예에서, 상기 색상을 결정하는 단계는, 상기 픽셀과 관련된 시간에서의 상황 점수 간의 차이를 이미지 색상 값으로 산출하는 단계; 산출된 이미지 색상 값의 최대 값 및 최소 값을 미리 저장된 색상 중 적어도 일부를 포함하는 색상 집합의 수치 범위로 설정하여 이미지 색상 테이블을 생성하는 단계; 및 상기 산출된 이미지 색상 값에 대응하는 상기 이미지 색상 테이블의 색상을 각 픽셀의 색상으로 결정하는 단계를 포함할 수 있다.In one embodiment, the step of determining the color comprises: calculating a difference between situation scores in time related to the pixel as an image color value; Generating an image color table by setting a maximum value and a minimum value of the calculated image color value to a numerical range of a color set including at least some of the pre-stored colors; And determining the color of the image color table corresponding to the calculated image color value as the color of each pixel.

일 실시예에서, 상기 이미지 색상 값은 수직 좌표(v)에 대응하는 시간(tv)에서의 상황 점수와 수평 좌표(h)에 대응하는 시간(th)에서의 상황 점수 간의 차이를 나타내는 것으로서, 상기 이미지 색상 값은 다음의 수학식에 의해 산출될 수 있다.In one embodiment, the image color value represents a difference between a situation score at a time (t v ) corresponding to the vertical coordinate (v) and a situation score at a time (t h ) corresponding to the horizontal coordinate (h). , The image color value may be calculated by the following equation.

Figure pat00002
Figure pat00002

여기서, image(v, h)는 수직 좌표(v) 및 수평 좌표(h)를 갖는 픽셀의 이미지 색상 값인 것을 특징으로 하는 이미지 생성 방법.Here, the image (v, h) is an image generation method characterized in that the image color value of the pixel having the vertical coordinates (v) and horizontal coordinates (h).

일 실시예에서, 상기 상황 이미지에 기초하여 발전 설비의 상황을 판단하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include determining a situation of the power generation facility based on the situation image.

일 실시예에서, 상기 발전 설비의 상황을 판단하는 단계는, 상기 상황 이미지를 상황 판단 모델에 적용하여 발전 설비의 상황을 판단하는 단계를 포함할 수 있다. 상기 상황 판단 모델은 CNN(Convolution Neural Network) 기반 기계 학습 모델로서, 정상 상황에서의 상황 이미지 및 비정상 상황에서의 상황 이미지를 분류하도록 기계 학습된 것이다.In one embodiment, the step of determining the situation of the power generation facility may include determining the situation of the power generation facility by applying the situation image to the situation determination model. The situation determination model is a machine learning model based on a convolution neural network (CNN), and is machine-learned to classify a situation image in a normal situation and a situation image in an abnormal situation.

본 발명의 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장할 수 있다. 여기서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 전술한 실시예에 따른 이미지 생성 방법을 수행할 수 있다.The computer-readable recording medium according to another aspect of the present invention may store program instructions readable by a computing device and operable by the computing device. Here, when the program instruction is executed by a processor of the computing device, the processor may perform an image generation method according to the above-described embodiment.

본 발명의 또 다른 일 측면에 따른 발전 설비의 상황을 모니터링하기 위한 이미지 생성 장치는, 상기 발전 설비에 설치된 복수의 센서의 센싱 데이터를 획득하는 데이터 획득부; 미리 모델링된 점수 모델을 저장하는 저장부; 상기 센싱 데이터를 상기 점수 모델에 적용하여 상황 점수를 산출하는 점수 산출부; 및 모니터링 시간 범위에서의 상황 점수에 기초하여 발전 설비의 상황을 나타내는 상황 이미지를 생성하는 이미지 생성부를 포함할 수 있다. 여기서, 상기 점수 모델은 센싱 데이터로부터 통계적 특징 값을 추출하도록 구성된 통계적 특징 추출 레이어, 및 상기 센싱 데이터로부터 추출된 통계적 특징 값에 기초하여 상황 점수를 산출하도록 구성된 점수 산출 레이어를 포함한다.An image generating apparatus for monitoring the situation of a power generation facility according to another aspect of the present invention includes: a data acquisition unit that acquires sensing data of a plurality of sensors installed in the power generation facility; A storage unit for storing the pre-modeled score model; A score calculating unit that calculates a situation score by applying the sensing data to the score model; And an image generation unit that generates a situation image representing the situation of the power generation facility based on the situation score in the monitoring time range. Here, the score model includes a statistical feature extraction layer configured to extract statistical feature values from the sensing data, and a score calculating layer configured to calculate a situation score based on the statistical feature values extracted from the sensing data.

본 발명의 일 측면에 따른 이미지 생성 장치는 발전 설비에 설치된 복수의 센서의 다차원 데이터에 기초하여 발전 설비의 상황을 종합적으로 나타내는 상황 이미지를 생성하고 사용자에게 제공할 수 있다. 따라서, 사용자는 상황 이미지를 통해 보다 직관적으로 발전 설비의 상황를 판단할 수 있어, 사용자의 상황 판단 능력을 향상시키는데 도움을 줄 수 있다. The image generating apparatus according to an aspect of the present invention may generate a situation image comprehensively representing a situation of a power generation facility and provide the user with a multidimensional data of a plurality of sensors installed in the power generation facility. Therefore, the user can more intuitively determine the situation of the power generation facility through the situation image, which can help to improve the user's situation judgment ability.

이미지 생성 장치는 상황 이미지를 통해 사용자에게 발전 설비의 상황에 대한 종합적이고, 직관적인 정보를 제공할 수 있다. 즉, 사용자는 비 수치적인 모니터링 결과를 제공받음으로써, 센서의 수치 결과 자체를 제공받고 다시 이를 해석해야 할 필요가 없어, 사용자의 편의성이 증가한다. The image generating device may provide the user with comprehensive and intuitive information on the situation of the power generation facility through the situation image. That is, the user is provided with a non-numeric monitoring result, so that the numerical result of the sensor itself is provided and there is no need to interpret it again, thus increasing user convenience.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 종래의 일 실시예에 따른, 발전 설비의 센싱 데이터를 도시한 도면이다.
도 2는, 본 발명의 일 실시예에 따른, 발전 설비의 상황을 모니터링하기 위한 이미지 생성 장치의 개략적인 블록도이다.
도 3은, 본 발명의 일 실시예에 따른, 이미지 생성 장치의 동작을 개략적으로 설명하기 위한 도면이다.
도 4는, 본 발명의 일 실시예에 따른, 점수 모델을 생성하는 과정을 설명하기 위한 흐름도이다.
도 5a 내지 도 5c는, 본 발명의 일 실시예에 따른, 상황 이미지를 생성하는 과정을 설명하기 위한 도면이다.
도 6은, 본 발명의 일 실시예에 따른, 발전 설비의 상황에 따른 상황 이미지의 의미를 설명하기 위한 도면이다.
도 7은, 본 발명의 일 실시예에 따른, 상황 판단 모델의 구조를 개략적으로 도시한 도면이다.
도 8은, 본 발명의 일 실시예에 따른, 발전 설비의 상황을 나타내는 이미지 생성 방법의 개략적인 흐름도이다.
도 9는, 본 발명의 일 실시예에 따른, 도 8의 방법의 단계별 결과를 개략적으로 도시한 도면이다.
BRIEF DESCRIPTION OF DRAWINGS To describe the technical solutions in the embodiments of the present invention or in the prior art more clearly, the drawings required in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for the purpose of describing the embodiments of the present specification and not for the purpose of limitation. In addition, some elements to which various modifications such as exaggeration and omission are applied may be illustrated in the drawings below for clarity.
1 is a view showing sensing data of a power generation facility according to an exemplary embodiment.
2 is a schematic block diagram of an image generating device for monitoring the situation of a power generation facility, according to an embodiment of the present invention.
3 is a diagram for schematically explaining the operation of the image generating apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a process of generating a score model according to an embodiment of the present invention.
5A to 5C are diagrams for explaining a process of generating a context image according to an embodiment of the present invention.
6 is a view for explaining the meaning of a situation image according to a situation of a power generation facility according to an embodiment of the present invention.
7 is a diagram schematically showing a structure of a situation determination model according to an embodiment of the present invention.
8 is a schematic flowchart of an image generating method showing a situation of a power generation facility according to an embodiment of the present invention.
9 is a diagram schematically showing step-by-step results of the method of FIG. 8 according to an embodiment of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only to refer to a specific embodiment and is not intended to limit the invention. The singular forms used herein also include plural forms unless the phrases clearly indicate the opposite. As used herein, the meaning of “comprising” embodies a particular property, region, integer, step, action, element, and/or component, and the presence or presence of another property, region, integer, step, action, element, and/or component. It does not exclude addition.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical terms and scientific terms used herein have the same meaning as those generally understood by those skilled in the art to which the present invention pertains. Commonly used dictionary-defined terms are additionally interpreted as having meanings consistent with related technical documents and currently disclosed contents, and are not interpreted in an ideal or very formal meaning unless defined.

본 명세서에서, 비정상 상황은 발전 설비의 고장, 작동 중단 등과 같은, 미리 설정된 발전 설비의 구동 결과에 영향을 미치는 모든 상황 및/또는 고장, 작동 중단 등과 같은 전술한 상황을 야기할 가능성이 매우 높은 상황을 포함한다. 예를 들어, 비정상 상황은 고장 상황 및 위험 상황을 포함할 수 있다. 정상 상황은 비정상 상황 이외의 상황으로서, 미리 설정된 발전 설비의 동작 결과를 얻을 수 있는 상황을 지칭한다. 예를 들어, 정격 범위 내 오차의 경우 정상 상황으로 지칭될 수 있다.In the present specification, the abnormal situation is very likely to cause all the situations affecting the driving result of the preset power generation facility, such as failure of the power generation facility, operation interruption, etc., and/or the above-described situation such as failure, operation interruption, etc. It includes. For example, abnormal situations may include failure situations and dangerous situations. The normal situation is a situation other than the abnormal situation, and refers to a situation in which an operation result of a preset power generation facility can be obtained. For example, an error in the rated range may be referred to as a normal situation.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 2는, 본 발명의 일 실시예에 따른, 이미지 생성 장치의 동작을 개략적으로 설명하기 위한 도면이다.2 is a diagram for schematically explaining the operation of the image generating apparatus according to an embodiment of the present invention.

도 2를 참조하면, 이미지 생성 장치(10)는 복수의 센서를 통해 획득된 센싱 데이터를 (예컨대, 도 1의 센싱 데이터를) 도 2의 상황 점수로 변환하고, 모니터링 시간 범위(M1, M2)에서의 상황 점수에 기초하여 상황 이미지(I1, I2)를 생성한다. 복수의 센서를 통해 획득된 센싱 데이터가 다차원 센싱 데이터인 경우, 상기 상황 점수는 다차원 센싱 데이터가 1차원 시계열 데이터로 변환되어 점수화된 데이터이다. 이미지 생성 장치(10)는 상황 이미지를 통해 사용자에게 발전 설비의 상황에 대한 종합적이고, 직관적인 정보를 제공할 수 있다. 즉, 사용자는 비 수치적인 모니터링 결과를 제공받음으로써, 센서의 수치 결과 자체를 제공받고 다시 이를 해석해야 할 필요가 없다. 이와 같이 사용자의 부담이 감소하고, 결국 사용자의 모니터링 편의성이 증가한다. Referring to FIG. 2, the image generating apparatus 10 converts sensing data acquired through a plurality of sensors (eg, sensing data of FIG. 1) to the situation scores of FIG. 2, and monitors time ranges M 1 and M A situation image I 1 , I 2 is generated based on the situation score in 2 ). When the sensing data obtained through a plurality of sensors is multidimensional sensing data, the situation score is data that is multidimensionally sensed and converted into one-dimensional time series data. The image generating device 10 may provide the user with comprehensive and intuitive information on the situation of the power generation facility through the situation image. That is, the user is provided with a non-numeric monitoring result, so that the sensor's numerical result itself is provided and there is no need to interpret it again. As such, the burden on the user is reduced, and eventually the user's monitoring convenience is increased.

도 3은, 본 발명의 일 실시예에 따른, 발전 설비의 상황 이미지를 생성하는 장치의 개략적인 블록도이다. 3 is a schematic block diagram of an apparatus for generating a situation image of a power generation facility, according to an embodiment of the present invention.

도 3 참조하면, 발전 설비의 모니터링을 위해 발전 설비의 상황을 나타내는 상황 이미지를 생성하는 장치(이하, "이미지 생성 장치")(10)는 센싱 데이터를 획득하는 데이터 획득부(100); 획득된 센싱 데이터에 기초하여 발전 설비의 상황 점수를 산출하는 점수 산출부(300) 및 모니터링 시간 범위에서의 상황 점수에 기초하여 상황 이미지를 생성하는 이미지 생성부(400)를 포함한다. 또한, 이미지 생성 장치(10)는 상황 이미지에 기초하여 발전 설비의 상황을 판단하는 상황 판단부(500)를 더 포함할 수 있다. 일부 실시예에서, 이미지 생성 장치(10)는 상황 점수를 산출하는 점수 모델 및/또는 상황을 판단하는 예측 모델을 모델링하는 모델 생성부(200)를 더 포함할 수도 있다. Referring to FIG. 3, an apparatus for generating a situation image representing a situation of a power generation facility (hereinafter referred to as an “image generation device”) 10 for monitoring the power generation facility includes: a data acquisition unit 100 that acquires sensing data; It includes a score calculating unit 300 for calculating the situation score of the power generation facility based on the obtained sensing data and an image generating unit 400 for generating a situation image based on the situation score in the monitoring time range. In addition, the image generating device 10 may further include a situation determination unit 500 for determining the situation of the power generation facility based on the situation image. In some embodiments, the image generating apparatus 10 may further include a model generator 200 for modeling a score model for calculating a situation score and/or a prediction model for determining the situation.

실시예들은 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 이미지 생성 장치(10)는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치", 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Embodiments may have aspects that are entirely hardware, entirely software, or partially hardware and partially software. For example, the image generating apparatus 10 may collectively refer to hardware equipped with data processing capability and operating software for driving the same. In this specification, the terms “unit”, “module”, “device”, or “system” are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing device including a central processing unit (CPU), a graphics processing unit (GPU), or other processor. Also, the software may refer to a running process, an object, an executable, a thread of execution, a program, or the like.

데이터 획득부(100)는 발전 설비의 모니터링을 위해 발전 설비의 상황과 관련된 센싱 데이터를 획득한다. The data acquisition unit 100 acquires sensing data related to the situation of the power generation facility for monitoring the power generation facility.

센싱 데이터는 발전 설비에 설치된 복수의 센서를 통해 획득된다. 일 실시예에서, 모니터링을 위한 센싱 데이터는 실시간 센싱 데이터일 수 있다. 또는 사용자가 모니터링을 원하는 사용자 설정 시간에서의 센싱데이터일 수 있다.Sensing data is obtained through a plurality of sensors installed in a power generation facility. In one embodiment, sensing data for monitoring may be real-time sensing data. Or it may be sensing data at a user set time that the user wants to monitor.

센서는 발전 설비의 구동 상황 및/또는 주변 상황(즉, 발전 설비의 상황)에 대한 정보를 얻을 수 있는 다양한 센서를 포함한다. 예를 들어, 센서는 온도 센서, 압력 센서, 수분 센서, 중력 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 기울임 센서, 밝기 센서, 후각 센서, 뎁스 센서, 밴딩 센서, 오디오 센서, 이미지 센서, 및 이들의 조합을 포함할 수 있다. The sensor includes various sensors capable of obtaining information on the driving situation and/or the surrounding situation of the power generation facility (ie, the situation of the power generation facility). For example, sensors include temperature sensor, pressure sensor, moisture sensor, gravity sensor, geomagnetic sensor, motion sensor, gyro sensor, acceleration sensor, tilt sensor, brightness sensor, olfactory sensor, depth sensor, banding sensor, audio sensor, image sensor , And combinations thereof.

센싱 데이터는 발전 설비에 설치된 복수의 센서가 발전 설비의 상황을 감지한 결과 데이터로서, 감지 시간 및 감지 결과로 구성되는 데이터이다. 감지 결과는 센서에 따라 다양한 정보를 포함할 수 있다. 예를 들어, 감지 결과는 열, 온도, 습도, 압력, 이미지, 음성, 속도, 위치 정보 또는 이들의 조합일 수 있다. The sensing data is a result data of a plurality of sensors installed in a power generation facility detecting a situation of the power generation facility, and is data composed of a detection time and a detection result. The detection result may include various information depending on the sensor. For example, the sensing results can be heat, temperature, humidity, pressure, image, voice, speed, location information, or a combination thereof.

센싱 데이터는 정상 상황인 경우의 센싱 데이터 및/또는 비정상 상황(예컨대, 위험 상황, 고장 상황 등)인 경우의 센싱 데이터를 포함한다. 또한, 복수의 센서로부터 획득된 센싱 데이터는 각 센서가 감지한 센싱 데이터를 포함한다. 센싱 데이터는 발전 설비에 미리 설치된 센서의 종류가 하나 이상인 경우, 다차원 센싱 데이터일 수 있다. The sensing data includes sensing data in a normal situation and/or sensing data in an abnormal situation (eg, a dangerous situation, a failure situation, etc.). In addition, the sensing data obtained from a plurality of sensors includes sensing data sensed by each sensor. The sensing data may be multi-dimensional sensing data when there is more than one type of sensor pre-installed in the power generation facility.

획득된 센싱 데이터는 도 1에 도시된 바와 같이 각 센서별로 시간에 따른 그래프로 표현될 수 있다. 또한, 센싱 데이터는 l×n 행렬로 표현될 수 있으며, l은 시간, n은 발전 설비에 설치된 센서의 개수를 나타낸다. 센싱 데이터의 행렬은 각 센서가 시간에서 감지된 감지 결과로 구성된다. The obtained sensing data may be represented as a graph over time for each sensor, as shown in FIG. 1. In addition, the sensing data may be represented by an l×n matrix, where l is time and n is the number of sensors installed in the power generation facility. The matrix of sensing data is composed of the sensing results detected by each sensor in time.

일 실시예에서, 센싱 데이터를 획득한 시간은 모니터링 동작이 시작된 시간에 기초하여 표현될 수 있다. 예를 들어, 도 2의 1000초는 모니터링 시작 후 1000초를 나타낼 수 있다. 그러나, 이에 제한되지 않으며, 발전 설비 구동 시작 시간으로부터의 시간과 같은 다양한 기준에 의해 표현될 수 있다. 또한, 센싱 데이터 획득 시간은 초 단위에 제한되지 않으며, 분 단위, 밀리초 단위 등과 같은 다양한 단위에 의해 표현될 수 있다.In one embodiment, the time at which the sensing data is acquired may be expressed based on the time at which the monitoring operation is started. For example, 1000 seconds in FIG. 2 may represent 1000 seconds after starting monitoring. However, the present invention is not limited thereto, and may be expressed by various criteria such as time from the start time of driving the power generation facility. In addition, the sensing data acquisition time is not limited to seconds, and may be expressed by various units such as minutes and milliseconds.

추가적으로, 데이터 획득부(100)는 센싱 데이터와 관련된 데이터를 더 획득할 수 있다. 예를 들어, 센싱 데이터와 관련된 데이터는 발전 설비 정보(예컨대, 발전 설비에 할당된 식별자 등)를 포함할 수 있다. Additionally, the data acquisition unit 100 may further acquire data related to sensing data. For example, the data related to the sensing data may include power plant information (eg, an identifier assigned to the power plant).

점수 산출부(300)는 모니터링 센싱 데이터를 점수 모델에 적용하여 상황 점수를 산출한다. 상기 점수 모델은 모니터링 센싱 데이터로부터 통계적 특징 값을 추출하도록 구성된 통계적 특징 추출 레이어 및 상기 모니터링 센싱 데이터로부터 추출된 통계적 특징 값에 기초하여 상황 점수를 산출하도록 구성된 점수 산출 레이어를 포함한다. The score calculation unit 300 calculates the situation score by applying the monitoring sensing data to the score model. The score model includes a statistical feature extraction layer configured to extract statistical feature values from monitoring sensing data and a score calculating layer configured to calculate a situation score based on the statistical feature values extracted from the monitoring sensing data.

본 발명의 일 실시예에 따른 이미지 생성 장치(10)는 미리 생성된 모델을 이용하여 상황 이미지를 생성한다. 예를 들어, 상황 점수를 산출하는 점수 모델은 모델 생성부(200)에 의해 모델링되어 생성될 수 있다. The image generating apparatus 10 according to an embodiment of the present invention generates a context image using a pre-generated model. For example, a score model for calculating a situation score may be modeled and generated by the model generator 200.

상기 모델 생성부(200)는 이미지 생성 장치(10)가 하나 이상의 모델을 이용하는 경우, 하나 이상의 모델을 구성하도록 구성될 수 있다. 일 실시예에서, 모델 생성부(200)는 상황 점수를 산출하는 점수 모델 및/또는 상황 판단을 위한 판단 모델을 생성하도록 구성될 수 있다. 예를 들어, 모델 생성부(200)는 점수 모델 생성부(230) 및 상황 판단 모델 생성부(250)를 포함할 수 있다. The model generation unit 200 may be configured to configure one or more models when the image generation device 10 uses one or more models. In one embodiment, the model generator 200 may be configured to generate a score model for calculating a situation score and/or a judgment model for situation judgment. For example, the model generation unit 200 may include a score model generation unit 230 and a situation determination model generation unit 250.

점수 모델 생성부(230)는 각 센서별 정상 상황에 대한 확률적 모델을 나타낸 점수 모델을 생성한다. 상기 확률적 모델은 각 센서별 정상 상황에 대한 센싱 데이터의 통계적 분포에 기초하여 모델링될 수 있다. The score model generation unit 230 generates a score model showing a probabilistic model for a normal situation for each sensor. The probabilistic model can be modeled based on a statistical distribution of sensing data for a normal situation for each sensor.

도 4는, 본 발명의 일 실시예에 따른, 점수 모델을 생성하는 과정을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a process of generating a score model according to an embodiment of the present invention.

도 4를 참조하면, 점수 모델 생성부(230)는 정상 상황에서의 센싱 데이터를 포함한 정상 상황 샘플을 이용하여 샘플의 센싱 데이터의 통계적 특징 값을 추출하는 단계(S231); 추출된 통계적 특징 값에 있어서, 통계적 특징 값에 대한 평균 및 공분산을 산출하는 단계(S233); 상기 통계적 특징 값에 대한 평균 및 공분산에 기초하여 상황 점수를 산출하는 점수 산출 레이어를 모델링하는 단계(S235); 및 점수 산출 레이어를 포함한 점수 모델을 생성하는 단계(S237)를 수행하여 점수 모델을 생성할 수 있다. Referring to FIG. 4, the score model generation unit 230 extracts a statistical characteristic value of the sensing data of the sample using a normal situation sample including sensing data in the normal situation (S231); In the extracted statistical feature value, calculating the mean and covariance for the statistical feature value (S233); Modeling a score calculation layer for calculating a situation score based on the mean and covariance of the statistical feature value (S235); And generating a score model including a score calculation layer (S237), thereby generating a score model.

점수 모델 생성부(230)는 정상 상황에서의 센싱 데이터를 점수 모델을 생성하기 위한 샘플로 이용한다. 상기 샘플은 정상 상황에서의 센싱 데이터를 포함하며, 발전 설비에 설치된 센서가 복수인 경우 샘플의 센싱 데이터는 각 센서별 센싱 데이터를 포함한다. The score model generation unit 230 uses sensing data in a normal situation as a sample for generating a score model. The sample includes sensing data in a normal situation, and when there are multiple sensors installed in the power generation facility, the sensing data of the sample includes sensing data for each sensor.

정상 상황에서의 센싱 데이터를 포함한 샘플의 획득은 사용자에 의한 입력, 발전 설비에 미리 설치된 센서로부터 수신, 유/무선 통신을 통한 수신 등에 의해 획득될 수 있다.The acquisition of a sample including sensing data in a normal situation may be obtained by input by a user, reception from a sensor pre-installed in a power generation facility, reception through wired/wireless communication, and the like.

샘플의 센싱 데이터가 발전 설비에 설치된 복수의 센서에 의해 획득된 경우, 모니터링에 사용할 센싱 데이터와 동일하게 행렬로 표현될 수 있다. 예를 들어, 샘플은 다음의 수학식 1과 같이 표현될 수 있다. When the sensing data of a sample is obtained by a plurality of sensors installed in a power generation facility, it can be expressed in a matrix like the sensing data to be used for monitoring. For example, the sample may be expressed as Equation 1 below.

[수학식 1] [Equation 1]

Figure pat00003
Figure pat00003

여기서, Si는 i번째 샘플을, N은 샘플의 개수를 나타낸다. 각 샘플은, 전술한 센싱 데이터와 동일하게, l×n 행렬로 표현될 수 있으며, l은 시간, n은 발전 설비에 설치된 센서의 개수를 나타낸다. 샘플의 행렬은 각 센서가 갖는 시간에 따른 센싱 데이터를 나타낸다. Here, S i is the i-th sample, and N is the number of samples. Each sample, like the sensing data described above, may be represented by an l×n matrix, where l is time and n is the number of sensors installed in the power generation facility. The matrix of samples represents sensing data according to the time of each sensor.

예를 들어, 1~300초 동안의 센싱 데이터를 포함한 샘플(S1)에 있어서, 샘플(S1)은 1~300초에서의 제1 센서(예컨대, 압력 센서)의 센싱 데이터, 1~300초에서의 제2 센서(예컨대, 온도)의 센싱 데이터, ... , 1~300초 에서의 제n 센서(예컨대, 수분)의 센싱 데이터를 포함한다. For example, in the sample S 1 containing the sensing data for 1 to 300 seconds, the sample S 1 is the sensing data of the first sensor (eg, pressure sensor) at 1 to 300 seconds, 1 to 300 It includes the sensing data of the second sensor (eg, temperature) in seconds, and the sensing data of the nth sensor (eg, moisture) in 1,300 seconds.

단계(S231)에서, 복수의 샘플에 포함된 센싱 데이터로부터 통계적 특징을 샘플별로 추출한다. 통계적 특징 값은 미리 모델링된 통계적 특징 추출 레이어를 이용하여 추출된다. 정상 상황에서의 센싱 데이터를 포함한 샘플로부터 통계적 특징 값을 추출하는 과정은 수학식 2를 통해 개략적으로 표현될 수 있다. In step S231, statistical characteristics are extracted for each sample from sensing data included in the plurality of samples. Statistical feature values are extracted using a pre-modeled statistical feature extraction layer. The process of extracting a statistical feature value from a sample including sensing data in a normal situation can be schematically expressed through Equation (2).

[수학식 2][Equation 2]

Figure pat00004
Figure pat00004

여기서, extFunc는 통계적 특징 추출 레이어를 나타내며, Fi는 i번째 샘플(Si)에서 추출된 통계적 특징 값을 나타낸다. 추출된 특징Fi는 fn×n 행렬로 표현될 수 있으며, fn추출되는 통계적 특징 값의 유형의 개수, n은 센서의 개수를 나타낸다. 통계적 특징 값의 행렬은 센서별로 산출된 센싱 데이터에 대한 통계적 특징 값으로 구성된다. Here, extFunc represents a statistical feature extraction layer, and F i represents a statistical feature value extracted from the i-th sample (S i ). The extracted feature F i may be represented by an fn×n matrix, fn denotes the number of types of statistical feature values extracted, and n denotes the number of sensors. The matrix of statistical feature values consists of statistical feature values for sensing data calculated for each sensor.

통계적 특징 값은 데이터 분포의 특징을 나타낼 수 있는 다양한 통계 값들을 포함할 수 있다. 예를 들어, 통계적 특징 값은 평균 값(mean), 중간 값(median), 최대 값, 최소 값, 표준 편차, RMS(root mean squre) 값, 왜도(Skewness) 값, 첨도(kurtosis) 값 등을 포함할 수 있다. 그러나, 이에 제한되지 않으며 센싱 데이터의 분포의 특징을 나타낼 수 있는 다른 값이 통계적 특징 값으로 추출될 수 있다. 전술한 통계적 특징 값을 산출하는 과정은 통상의 기술자에게 알려져 있으므로, 자세한 설명은 생략한다. Statistical feature values may include various statistical values that may indicate characteristics of the data distribution. For example, statistical characteristic values include mean, median, maximum, minimum, standard deviation, root mean squre (RMS), skewness, and kurtosis values. It may include. However, the present invention is not limited thereto, and other values capable of representing characteristics of distribution of sensing data may be extracted as statistical characteristic values. The process of calculating the above-described statistical feature values is known to those skilled in the art, and thus detailed descriptions thereof will be omitted.

일 실시예에서, 단계(S231)에서 추출되는 통계적 특징 값은 샘플의 센싱 데이터에 대한 통계적 특징 값일 수 있다. 예를 들어, 샘플에 포함된 온도 센싱 데이터의 평균 값일 수 있다. In one embodiment, the statistical characteristic value extracted in step S231 may be a statistical characteristic value for the sensing data of the sample. For example, it may be an average value of temperature sensing data included in the sample.

추가적으로, 단계(S231)에서 추출되는 통계적 특징 값은 샘플의 센싱 데이터에 기초하여 변환된 이차원적인 데이터에 대한 통계적 특징 값을 포함할 수 있다. 예를 들어, 상기 이차적인 데이터는 원시 센싱 데이터를 시간에 따른 변화량에 기초하여 변환한 변화량 데이터일 수도 있다. 이 경우, 단계(S231)에서 추출되는 통계적 특징 값은 센싱 데이터에 대한 통계적 특징 값 및 변화량 데이터에 대한 통계적 특징 값을 포함할 수 있다. 여기서, 변화량과 관련된 통계적 특징 값(예컨대, 첨도)은 변화량 데이터에 대한 통계적 특징 값에서 제외된다. Additionally, the statistical characteristic values extracted in step S231 may include statistical characteristic values for the two-dimensional data converted based on the sensing data of the sample. For example, the secondary data may be change data obtained by converting raw sensing data based on a change amount over time. In this case, the statistical characteristic values extracted in step S231 may include statistical characteristic values for sensing data and statistical characteristic values for variation data. Here, the statistical characteristic values (eg, kurtosis) related to the variation amount are excluded from the statistical characteristic values for the variation amount data.

단계(S231)의 수행 결과, 통계적 특징 추출 레이어 extFunc에서 통계적 특징 값은 하나 이상 추출될 수 있으며, 다음과 같이 샘플별로 통계적 특징 값 세트로 표현될 수 있다. As a result of performing step S231, one or more statistical feature values may be extracted from the statistical feature extraction layer extFunc, and may be expressed as a set of statistical feature values for each sample as follows.

[수학식 3][Equation 3]

Figure pat00005
Figure pat00005

, 여기서 N은 자연수, Where N is a natural number

일 예에서, 통계적 특징 값으로 평균 값, 최대 값, 최소 값, RMS 값이 추출되는 경우, 샘플(S1)로부터 추출된 통계적 특징 값 세트(F1)는 샘플(S1)에 포함된 제1 센서(예컨대, 압력 센서)의 1~300초 동안의 센싱 데이터의 평균 값, 최대 값, 최소 값, 및 RMS를 포함하고, 샘플(S1)에 포함된 제2 센서(예컨대, 온도)에 대한 1~300초 동안의 센싱 데이터의 평균 값, 최대 값, 최소 값, 및 RMS를 포함하며, ... , 제n 센서(예컨대, 수분)의 1~300초 동안의 센싱 데이터의 평균 값, 최대 값, 최소 값, RMS을 포함한 행렬로 표현될 수 있다. 이 경우, 통계적 특징 값 레이어는 센싱 데이터의 평균 값, 최대 값, 최소 값, 및 RMS 값을 산출하도록 미리 모델링된다. In one example, when the average value, the maximum value, the minimum value, and the RMS value are extracted as the statistical feature values, the set of statistical feature values F 1 extracted from the sample S 1 is the first included in the sample S1. 1 for the second sensor (e.g., temperature) included in the sample S1, including the average value, the maximum value, the minimum value, and the RMS of the sensing data for 1 to 300 seconds of the sensor (e.g., pressure sensor) Contains the average value, maximum value, minimum value, and RMS of sensing data for ~300 seconds, ..., the average value, maximum value of sensing data for 1 to 300 seconds of the nth sensor (e.g., moisture) , Minimum value, and RMS. In this case, the statistical feature value layer is pre-modeled to calculate the average value, maximum value, minimum value, and RMS value of the sensing data.

즉, 수학식 2에서 extFunc로 표시된 통계적 특징 추출 레이어는 각각의 통계적 특징 값을 추출할 수 있다는 의미를 나타내기 위한 기호에 불과하며, 특정 변수 및/또는 상수로 구성된 하나의 수학식(예컨대, 함수)을 지칭하는 것이 아니다. That is, the statistical feature extraction layer indicated by extFunc in Equation 2 is only a symbol for indicating that each statistical feature value can be extracted, and one mathematical expression (eg, a function) composed of a specific variable and/or constant ).

단계(S233)에서, 점수 모델 생성부(230)는 단계(S231)에서 추출된 통계적 특징 값에 기초하여 통계적 특징 값에 대한 평균 및 공분산을 각 센서별로 산출한다.In step S233, the score model generation unit 230 calculates the average and covariance of the statistical feature values for each sensor based on the statistical feature values extracted in step S231.

예를 들어, 수학식 3과 같이 통계적 특징 값 세트가 N개(F1 내지 FN)인 경우, 제1 센서의 특징 값(예컨대, 평균 값) 또한 N개이다. 이러한 각 센서별 통계적 특징 값 세트에 기초하여 각 센서별 정상 상황에 대한 통계적 특징 값들의 평균 및 공분산(covariance)을 각각 산출한다(S233). 정상 상황에서는 복수의 샘플로부터 추출된 통계적 특징 값들의 분포 경향이 가우시안 분포와 동일 또는 유사하기 때문이다. For example, when the set of statistical feature values is N (F 1 to F N ) as in Equation 3, the feature values (eg, average values) of the first sensor are also N. Based on the set of statistical feature values for each sensor, the average and covariance of the statistical feature values for the normal situation for each sensor is calculated (S233). This is because, under normal circumstances, the distribution tendency of statistical feature values extracted from a plurality of samples is the same or similar to the Gaussian distribution.

단계(S235)에서, 점수 모델 생성부(230)는 단계(S233)에서 산출된 각 센서별 평균 및 공분산에 기초하여 상황 점수를 산출하는 점수 산출 레이어를 모델링한다. 상기 상황 점수는 각 센서에 대한 평균으로 정규화된 점수로서, 상기 점수 산출 레이어는 다음의 수학식 4로 표현될 수 있다. In step S235, the score model generator 230 models a score calculation layer that calculates a situation score based on the average and covariance for each sensor calculated in step S233. The situation score is a score normalized as an average for each sensor, and the score calculation layer may be expressed by the following equation (4).

[수학식 4][Equation 4]

Figure pat00006
Figure pat00006

여기서, Fk는 복수의 센서(예컨대, 제1 센서 내지 제n 센서)가 시각(tk)에서 획득한 센싱 데이터로부터 추출된 통계적 특징 값 세트로서 상기 Fk는 i번째 센서의 센싱 데이터로부터 추출된 통계적 특징 값을 포함한다. mi, covi는 단계(S233)에서 산출된 i번째 센서에 대한 통계적 특징 값의 평균 및 공분산을 나타낸다. T는 행렬의 선형 변환을 나타낸다.Here, F k is a set of statistical feature values extracted from sensing data acquired by a plurality of sensors (eg, the first sensor to the n-th sensor) at time t k , and F k is extracted from the sensing data of the i-th sensor Includes statistical feature values. m i and cov i represent the mean and covariance of statistical feature values for the i-th sensor calculated in step S233. T represents the linear transformation of the matrix.

전술한 과정을 통해 생성된 점수 모델은 발전 설비에 미리 설치된 다양한 유형의 센싱 데이터를 1차원 시계열 데이터로 변환한다. 즉, 온도 데이터, 바람 데이터, 속도 데이터 등등 다차원 센싱 데이터를 상황 점수라는 동일 범주로 변환한다. 또한, 센싱 데이터에 포함된 감지 결과에 포함된 크기가 상황 점수에 반영되어, 실제 감지 결과와의 연관성이 높다. 일 실시예에서, 모델 생성부(200)는 도 2에 도시된 바와 같이, 이미지 생성 장치(10)에 포함된 구성요소일 수 있다. 그러나, 본 발명은 이에 제한되지 않는다. 다른 일 실시예에서, 모델 생성부(200)는 이미지 생성 장치(10)에 원격 위치하는 구성요소일 수 있다. 이 경우, 이미지 생성 장치(10)는 원격 위치한 모델 생성부(200)에 의해 미리 생성된 점수 모델을 모니터링 이전에 수신하여 저장하고 상황 점수를 산출하기 위해 사용할 수 있다. 이 경우, 이미지 생성 장치(10)는 점수 모델을 저장하기 위한 저장 장치(미도시)를 더 포함할 수 있다. 상기 저장 장치는 휘발성 메모리(미도시), 비휘발성 메모리(미도시) 및 외장형 메모리(미도시) 중 적어도 하나를 포함하여 구성될 수 있다. 예를 들어, 휘발성 메모리는 읽기 전용 메모리(RAM) 또는 동기 동적 읽기 전용 메모리(synchronous DRAM, SDRAM), 2배속(DDR) SDRAM, 또는 램버스 DRAM(RDRAM) 등과 같은 동적 임의 접근 메모리 중 어느 하나일 수도 있고, 비휘발성 메모리는 읽기 전용 메모리(ROM), 플래시 메모리 중 어느 하나일 수도 있으며, 외장형 메모리는 MMC형, SD형, 및 CF형 메모리 카드 중 어느 하나일 수도 있다.The score model generated through the above-described process converts various types of sensing data pre-installed in the power generation facility into one-dimensional time series data. That is, multi-dimensional sensing data such as temperature data, wind data, speed data, and the like are converted into the same category called a situation score. In addition, the size included in the detection result included in the sensing data is reflected in the situation score, so that the correlation with the actual detection result is high. In one embodiment, the model generator 200 may be a component included in the image generating device 10, as shown in FIG. 2. However, the present invention is not limited to this. In another embodiment, the model generator 200 may be a component remotely located in the image generating device 10. In this case, the image generation device 10 may receive and store the score model previously generated by the remotely located model generation unit 200 before monitoring and use it to calculate the situation score. In this case, the image generating device 10 may further include a storage device (not shown) for storing the score model. The storage device may include at least one of a volatile memory (not shown), a non-volatile memory (not shown), and an external memory (not shown). For example, the volatile memory may be any of dynamic random access memory such as read-only memory (RAM) or synchronous dynamic read-only memory (synchronous DRAM, SDRAM), double-speed (DDR) SDRAM, or Rambus DRAM (RDRAM). The non-volatile memory may be any one of a read-only memory (ROM) and a flash memory, and the external memory may be any of the MMC type, SD type, and CF type memory cards.

일 실시예에서, 이미지 생성 장치(10)는 전원 공급의 차단 등으로 인해 리셋이 수행되더라도 저장된 데이터가 소실되지 않는 비휘말성 메모리에 미리 학습된 모델을 다시 전원 공급이 시작된 이후에도 활용할 수 있도록 비휘말성 메모리에 미리 학습된 모델을 저장할 수 있다.In one embodiment, the image generating device 10 is non-amplified so that a model previously learned in a non-volatile memory in which stored data is not lost even after a power supply is started again is restored even when a reset is performed due to a power supply interruption or the like. The pre-trained model can be stored in the sex memory.

이미지 생성부(400)는 모니터링 시간 범위에서의 센싱 데이터에 기초하여 상기 특정 시간 동안의 발전 설비의 상황을 나타내는 상황 이미지를 생성할 수 있다. The image generator 400 may generate a situation image indicating the situation of the power generation facility during the specific time based on the sensing data in the monitoring time range.

일 실시예에서, 이미지 생성부(400)는 모니터링 시간 범위의 단위 시간에 기초하여 픽셀의 수를 결정할 수 있다. 예를 들어, 모니터링 시간 범위의 단위 시간은 초 단위로서, 초 단위와 픽셀은 대응할 수 있다. 일부 실시예에서, 상황 이미지의 수평 픽셀의 수 및 수직 픽셀의 수는 모니터링 시간 범위에 기초하여 결정된다.In one embodiment, the image generator 400 may determine the number of pixels based on the unit time of the monitoring time range. For example, the unit time in the monitoring time range is in seconds, and the seconds and pixels may correspond. In some embodiments, the number of horizontal pixels and number of vertical pixels in the context image is determined based on a monitoring time range.

도 5a 내지 도 5d는, 본 발명의 일 실시예에 따른, 상황 이미지를 생성하는 과정을 설명하기 위한 도면이다. 도 5의 실시예는 모니터링 시간 범위가 7초로서, 7초 동안의 상황 점수를 이용하여 상황 이미지를 생성한다. 5A to 5D are diagrams for explaining a process of generating a context image according to an embodiment of the present invention. In the embodiment of FIG. 5, the monitoring time range is 7 seconds, and a situation image is generated using the situation score for 7 seconds.

그러나, 상기 모니터링 시간 범위로서 7초는 단지 예시적인 것으로서, 발전 설비의 종류, 구동 특성 등에 기초하여 다양하게 설정될 수도 있다. 예를 들어, 즉각적인 대응이 필요한 매우 정밀한 모니터링이 요구되는 발전 설비의 경우, 이미지 생성을 위한 시간 범위는 7초 미만의 범위로 설정될 수도 있다. 반면, 장시간 동안의 발전 설비 동작 현황 등을 단순 모니터링하는 경우, 보다 긴 시간(예컨대, 100초) 범위로 설정될 수도 있다. However, 7 seconds as the monitoring time range is merely exemplary, and may be variously set based on the type of power generation facility, driving characteristics, and the like. For example, in the case of a power generation facility that requires very precise monitoring that requires immediate response, the time range for image generation may be set to a range of less than 7 seconds. On the other hand, when simply monitoring the current status of power generation facilities for a long time, it may be set to a longer time range (for example, 100 seconds).

도 5a에 도시된 바와 같이 1초에서 7초까지의 상황 점수가 산출된 경우. 이미지 생성부(400)는 모니터링 시간 범위인 7초에 기초하여 상황 이미지를 형성하는 픽셀의 수를 결정하도록 구성된다. As shown in Figure 5a when the situation scores from 1 to 7 seconds are calculated. The image generator 400 is configured to determine the number of pixels forming the context image based on the monitoring time range 7 seconds.

예를 들어, 도 5a의 모니터링 시간 범위인 경우, 모니터링 시간 범위는 7초이므로, 상황 이미지의 수평 픽셀의 수는 7개, 수직 픽셀의 수는 7개로 결정된다. 즉, 이미지 생성부(400)는 도 5a의 7초 동안의 상황 점수를 수신한 경우, 7×7 픽셀을 사이즈로 갖는 상황 이미지를 생성할 수 있다. For example, in the case of the monitoring time range of FIG. 5A, since the monitoring time range is 7 seconds, the number of horizontal pixels in the situation image is determined to be 7 and the number of vertical pixels is 7. That is, when receiving the situation score for 7 seconds of FIG. 5A, the image generator 400 may generate a situation image having 7×7 pixels in size.

이미지 생성부(400)는 픽셀의 수를 결정하고, 각 픽셀의 색상을 결정하여 픽셀에 해당 색상을 부여한다. The image generator 400 determines the number of pixels, and determines the color of each pixel to give a corresponding color to the pixel.

일 실시예에서, 이미지 생성부(400)는 각 픽셀의 위치를 시간과 연관시키고, 픽셀에 연관된 시간에서의 상황 점수 간의 차이를 이미지 색상 값으로 산출한다. 그리고, 상기 이미지 색상 값에 기초하여 각 픽셀의 색상을 부여한다.In one embodiment, the image generator 400 associates the position of each pixel with time, and calculates the difference between the situation scores at the time associated with the pixel as an image color value. Then, the color of each pixel is assigned based on the image color value.

이미지 생성부(400)는 픽셀의 수평 좌표 및 수직 좌표를 모니터링 시간과 연관시킬 수 있다. 예를 들어, 7초의 모니터링 시간에 의해 7×7의 픽셀의 수가 결정된 경우, 1 내지 7의 가로 좌표, 1 내지 7의 세로 좌표가 설정될 수 있다. 이와 같이, 픽셀과 관련된 시간은 픽셀의 위치와 관련된 시간을 포함한다. The image generator 400 may associate the horizontal and vertical coordinates of the pixel with the monitoring time. For example, when the number of 7×7 pixels is determined by the monitoring time of 7 seconds, horizontal coordinates of 1 to 7 and vertical coordinates of 1 to 7 may be set. As such, time associated with a pixel includes time associated with the location of the pixel.

그 결과, 이미지 생성부(400)는 모니터링 시간 범위의 단위 시간에 기초하여 픽셀의 수를 결정하고, 각 픽셀에 모니터링 시간을 연관시킴으로써, 픽셀의 위치를 모니터링 시간으로 표현할 수 있다. As a result, the image generator 400 may determine the number of pixels based on the unit time of the monitoring time range, and associate the monitoring time with each pixel, thereby expressing the position of the pixel as the monitoring time.

그러면, 이미지 생성부(400)는 아래의 수학식 5에 의해 상기 이미지 색상 값을 각 픽셀별로 산출한다. Then, the image generator 400 calculates the image color value for each pixel by Equation 5 below.

[수학식 5][Equation 5]

Figure pat00007
Figure pat00007

여기서, image(v, h)는 수직 좌표(v) 및 수평 좌표(h)를 갖는 픽셀의 이미지 색상 값으로서, 상기 이미지 색상 값은 수직 좌표(v)에 대응하는 시간(tv)에서의 상황 점수와 수평 좌표(h)에 대응하는 시간(th)에서의 상황 점수 간의 차이를 나타낸다. Here, image(v, h) is an image color value of a pixel having vertical coordinates (v) and horizontal coordinates (h), and the image color value is a situation at a time (t v ) corresponding to the vertical coordinate (v). It represents the difference between the score and the situation score at the time (t h ) corresponding to the horizontal coordinate (h).

도 5a의 상황 점수를 이용하여 각 픽셀별 이미지 색상 값을 산출한 결과는 도 5b에 도시된 바와 같이 나타난다. 도 5b를 참조하면, 상황 이미지(Ix)에서 1초에 대응하는 수평 좌표는 1로, ??. 7초에 대응하는 수평 좌표는 7로 표현된다. 이 경우, 픽셀(P1)의 수직 좌표(v)는 3이고 수평 좌표(h)는 1이므로, 픽셀(P1)의 이미지 색상 값은 다음과 같이 산출된다: image(3, 1) = abs(score(3) - score(1)) = abs(3-2.5) = 0.5. 또한, 픽셀(P2)의 수직 좌표(v)는 2이고 수평 좌표(h)는 4이므로, 픽셀(P2)의 이미지 색상 값은 다음과 같이 산출된다: image(2, 4) = abs(score(2)-score(4)) = abs(4.5-3) = 1.5.The result of calculating the image color value for each pixel using the situation score of FIG. 5A is shown as shown in FIG. 5B. 5B, in the situation image Ix, the horizontal coordinate corresponding to 1 second is 1, ??. The horizontal coordinate corresponding to 7 seconds is represented by 7. In this case, since the vertical coordinate (v) of the pixel P1 is 3 and the horizontal coordinate (h) is 1, the image color value of the pixel P1 is calculated as follows: image(3, 1) = abs(score (3)-score(1)) = abs(3-2.5) = 0.5. Also, since the vertical coordinate (v) of the pixel P2 is 2 and the horizontal coordinate (h) is 4, the image color value of the pixel P2 is calculated as follows: image(2, 4) = abs(score( 2)-score(4)) = abs(4.5-3) = 1.5.

이와 같은 과정에 의해 이미지 생성부(400)는 픽셀의 이미지 색상 값을 산출한 이후, 이미지 색상 값에 대응하는 색상을 픽셀에 부여함으로써 색상을 포함한 상황 이미지를 생성한다. Through the above process, the image generating unit 400 calculates the image color value of the pixel, and then generates a context image including the color by applying the color corresponding to the image color value to the pixel.

일 실시예에서, 이미지 생성부(400)는 미리 저장된 색상 집합에 포함된 색상을 수치화한 이미지 색상 테이블을 생성하도록 구성된다. 그 후, 이미지 색상 테이블을 이용하여 산출된 이미지 색상 값에 대응하는 색상을 결정한다.In one embodiment, the image generator 400 is configured to generate an image color table quantifying colors included in a pre-stored color set. Then, a color corresponding to the calculated image color value is determined using the image color table.

색상 집합은 복수의 색상을 포함한다. 일 예에서, 색상 집합은, 도 5c에 도시된 바와 같이, RGB 색상 모델(즉, RGB 색상 계열) 중 적어도 일부 색상을 포함할 수 있다. 그러나, 이에 제한되지 않으며 (예컨대, HSV, YCbCr, CMY 등과 같은) 다양한 색상 모델의 적어도 일부 색상을 포함할 수 있다. 다른 일예에서, 색상 집합은 흰색 및 검은색 등으로 구성된 그레이 색상 모델의 색상 모두를 포함할 수도 있다. The color set includes a plurality of colors. In one example, the color set may include at least some colors of an RGB color model (ie, RGB color series), as shown in FIG. 5C. However, it is not limited thereto and may include at least some colors of various color models (eg, HSV, YCbCr, CMY, etc.). In another example, the color set may include all of the colors of the gray color model composed of white and black, and the like.

일부 실시예에서, 색상 집합의 색상은 연속된 색으로 표현될 수 있다. 여기서, 연속은 색상 모델을 분류하는 기준으로 표현된다. 예를 들어, 상기 색상 집합이 그레이 색상 모델의 적어도 일부 색상을 포함한 경우, 색상의 연속 여부는 밝기로 표현된다. In some embodiments, the colors of the color set may be represented as continuous colors. Here, continuity is expressed as a criterion for classifying color models. For example, when the color set includes at least some colors of the gray color model, whether the colors are continuous or not is expressed as brightness.

이미지 생성부(400)는 산출된 이미지 색상 값에 기초하여 색상 집합에 포함된 색상을 수치화한다. 상기 수치화는 하나의 색상을 하나의 수치 범위로 설정하는 동작을 나타낸다. The image generator 400 quantizes the colors included in the color set based on the calculated image color values. The digitization represents an operation of setting one color to one numerical range.

일 실시예에서, 이미지 생성부(400)는 산출된 이미지 색상 값 중 최대 값 및 최소 값을 이용하여 색상 집합에 포함된 색상을 수치화한다. 다시 도 5b를 참조하면, 산출된 이미지 색상 값의 최소 값은 0, 산출된 이미지 색상 값의 최대 값은 2.5이다. 이미지 생성부(400)는 색상 집합의수치 범위를 0과 2.5 로 설정하고, 0과 2.5 범위 내에 수치로 색상을 수치화할 수 있다. In one embodiment, the image generator 400 quantizes the colors included in the color set using the maximum and minimum values of the calculated image color values. Referring back to FIG. 5B, the minimum value of the calculated image color value is 0 and the maximum value of the calculated image color value is 2.5. The image generating unit 400 may set a numerical range of the color set to 0 and 2.5, and numerically color the numerical value within the range of 0 and 2.5.

색상의 수치화는 다양하게 수행될 수 있다. 일 실시예에서, 이미지 생성부(400)는 색상 집합의 색상을 (예컨대, 밝기(intensity), 색조(Hue), 채도(Saturation), 색차 정보(Cr, Cb) 등의) 분류 기준에 따라 색상을 배열하고, 배열된 색상을 수치 범위의 비율에 기초하여 수치화할 수 있다. Digitization of color can be performed in various ways. In one embodiment, the image generator 400 colors the colors of the color set according to the classification criteria (eg, intensity, hue, saturation, color difference information (Cr, Cb), etc.). You can arrange and colorize the arranged colors based on the ratio of the numerical range.

예를 들어, 색상 집합이 그레이 색상 모델의 색상을 포함하는 경우, 밝기가 100%에 해당하는 색(즉, 흰색)은 최대 값, 밝기가 0%에 해당하는 색(즉, 검은색)은 최소 값, 밝기가 50%에 해당하는 색은 최대 값과 최소 값의 중간 값으로 수치화될 수 있다. For example, if the color set contains the color of the gray color model, the color with 100% brightness (i.e. white) is the maximum, and the color with 0% brightness (i.e. black) is the minimum. The color whose value and brightness correspond to 50% can be quantified as the middle value between the maximum value and the minimum value.

그러나, 이에 제한되지 않으며, 색상 집합에 포함된 색상이 연속적인지, 불연속적인지, 색상의 개수 등에 기초하여 다양하게 설정될 수 있다. 예를 들어, 색상 집합이 연속적인 경우 하나의 값으로 유사한 여러 색을 나타낼 수 있는 일대다의 방식으로 수치화가 수행될 수 있고, 또는 색상 집합이 불연속적인 경우 하나의 색상에 여러 값이 설정되는 다대일 방식으로 수치화가 수행될 수도 있다. However, the present invention is not limited thereto, and may be variously set based on whether the colors included in the color set are continuous, discontinuous, or the number of colors. For example, if a set of colors is continuous, digitization can be performed in a one-to-many manner that can represent multiple similar colors with a single value, or if a set of colors is discontinuous, multiple values are set for a single color. Numericalization may be performed in a one-to-one manner.

그 후, 이미지 생성부(400)는 수치화 완료된 이미지 색상 테이블을 이용하여 각 픽셀별로 산출된 이미지 색상 값에 대응하는 색상을 해당 픽셀에 부여한다. 도 5b 및 도 5c를 참조하면, 이미지 색상 값으로 0을 갖는 픽셀에는 0에 대응하는 색상인 짙은 청색이 부여되고, 이미지 색상 값으로 0.5를 갖는 픽셀에는 0.5에 대응하는 색상인 청색이 부여되며, 이미지 색상 값으로 1을 갖는 픽셀에는 1에 대응하는 색상인 옅은 청색이 부여되고, 이미지 색상 값으로 1.5를 갖는 픽셀에는 1.5에 대응하는 색상인 짙은 초록색이 대응되고, 이미지 색상 값으로 2를 갖는 픽셀에는 2에 대응하는 색상인 짙은 노란색이 부여되고, 2.5를 갖는 이미지 픽셀에는 2.5에 대응하는 색상인 노란색이 부여된다. Thereafter, the image generator 400 assigns a color corresponding to the image color value calculated for each pixel to the corresponding pixel by using the digitized image color table. Referring to FIGS. 5B and 5C, a dark blue color corresponding to 0 is assigned to a pixel having 0 as an image color value, and a blue color corresponding to 0.5 is assigned to a pixel having 0.5 as an image color value, Pixels having an image color value of 1 are assigned a light blue color corresponding to 1, and pixels having an image color value of 1.5 correspond to dark green, a color corresponding to 1.5, and pixels having an image color value of 2. A color corresponding to 2 is dark yellow, and an image pixel having 2.5 is yellow.

결국, 이미지 생성부(400)는 도 5a의 7초 동안의 상황 점수로부터 도 5d의 상황 이미지를 생성할 수 있다. As a result, the image generator 400 may generate the situation image of FIG. 5D from the situation score for 7 seconds in FIG. 5A.

이와 같이 색상은 이미지 픽셀 값에 기초하여 결정된다. 픽셀의 수직 좌표(v) 및 수평 좌표(h)의 값이 동일한 경우, 동일 시간에서의 상황 점수가 이미지 색상 값을 산출하기 위해 사용되기 때문에, 도 5c에 도시된 바와 같이, 해당 픽셀의 이미지 색상 값은 0이다. 따라서, 상황 이미지는 대각선을 기준으로 대칭으로 구성된다. As such, the color is determined based on the image pixel values. When the values of the vertical coordinate (v) and the horizontal coordinate (h) of the pixel are the same, since the situation score at the same time is used to calculate the image color value, as shown in FIG. 5C, the image color of the pixel. The value is 0. Therefore, the situation image is constructed symmetrically with respect to the diagonal.

도 6은, 본 발명의 일 실시예에 따른, 발전 설비의 상황에 따른 상황 이미지의 의미를 설명하기 위한 도면이다. 6 is a view for explaining the meaning of a situation image according to a situation of a power generation facility according to an embodiment of the present invention.

이미지 생성부(400)가 생성한 상황 이미지는 모니터링 시간 범위에서의 발전 설비의 상황이 정상 상황인지 비정상 상황인지를 나타낸다. The situation image generated by the image generator 400 indicates whether the situation of the power generation facility in the monitoring time range is normal or abnormal.

상황 이미지가 발전 설비의 상황이 정상 상황인지 또는 정상 상황일 확률이 높은 지를 나타내는 것은 이미지의 복잡도, 즉 이미지 엔트로피에 기초한다. It is based on the complexity of the image, that is, the image entropy, that the situation image indicates whether the situation of the power generation facility is normal or likely to be normal.

도 6에는 이미지 생성부(400)가 이미지 생성을 위해 사용하는 색상 집합이 도시되어 있다. 도 6 왼편의 색상 집합의 색상은 아직 수치화 이전 단계이다. 이미지 생성부(400)는 픽셀별 색상 값에 기초하여 색상 집합의 색상을 수치화한다. 일 실시예에서, 이미지 생성부(400)는 수치 범위를 설정하여 색상 집합의 색상을 수치화할 수 있다. 6 illustrates a set of colors used by the image generator 400 to generate images. The color of the color set on the left side of FIG. 6 is still in the pre-digitization stage. The image generator 400 quantizes the color of the color set based on the color value for each pixel. In one embodiment, the image generator 400 may set the numerical range to quantify the color of the color set.

상기 수학식 4에 따르면 정상 상황에서의 샘플의 데이터 분포와 상이한 데이터 분포를 가질수록 상황 점수가 커지는 경향이 있다. According to Equation (4), the situation score tends to increase as the sample has a data distribution different from the data distribution in the normal situation.

따라서, 모니터링 시간 동안 발전 설비에 대한 비정상 상황이 발생하지 않은 경우, 상기 모니터링 시간에서의 상황 점수는 서로 간의 변동이 거의 없는 좁은 범위 내의 값을 갖도록 산출된다. 이로 인해, 시간에 따른 상황 점수의 차이를 나타내는 픽셀별 이미지 색상 값의 최대 값이 0에 가까운 낮은 값(예컨대, 10 이하)으로 산출되고, 색상 집합의 색상은 좁은 범위의 값으로 수치화된다. Therefore, when an abnormal situation for the power generation facility does not occur during the monitoring time, the situation score at the monitoring time is calculated to have a value within a narrow range with little variation between each other. For this reason, the maximum value of the image color value for each pixel representing the difference in the situation score over time is calculated as a low value close to 0 (for example, 10 or less), and the color of the color set is quantified as a narrow range of values.

반면, 모니터링 시간 동안 발전 설비에 대한 비정상 상황이 발생한 경우, 비정상 상황에서의 상황 점수는 정상 상황에서의 상황 점수에 비해 큰 값을 가진다. 비정상 상황에서의 데이터 분포는 정상 상황에서의 샘플의 데이터 분포와 상이하기 때문이다. 일반적으로 비정상 상황일수록 데이터 분포의 차이가 매우 크기 때문에, 비정상 상황에서의 상황 점수는 정상 상황에서의 상황 점수에 비해 매우 큰 값을 가진다. 이로 인해, 수학식 5에 의해 산출된 시간에 따른 픽셀별 이미지 색상 값은 비정상 상황이 있는 경우의 최대 값이 비정상 상황이 없는 경우의 최대 값에 비해 훨씬 큰 값이 산출된다. 결국, 비정상 상황이 발생하면, 색상 집합의 색상은 상대적으로 넓은 범위의 값으로 수치화된다. On the other hand, when an abnormal situation for the power generation facility occurs during the monitoring time, the situation score in the abnormal situation has a larger value than the situation score in the normal situation. This is because the data distribution in the abnormal situation is different from the data distribution in the sample in the normal situation. In general, the more the abnormal situation, the greater the difference in data distribution, so the situation score in the abnormal situation has a very large value compared to the situation score in the normal situation. For this reason, the image color value for each pixel according to the time calculated by Equation 5 is much larger than the maximum value in the absence of an abnormal situation. As a result, when an abnormal situation occurs, the colors of the color set are numerically measured with a relatively wide range of values.

즉, 이미지 생성부(400)가 동일한 색상 집합을 사용하더라도 모니터링 시간 동안 비정상 상황이 발생하는 지 여부에 따라서 색상 집합의 색상은 상이한 수치 범위로 수치화된다. That is, even if the image generating unit 400 uses the same color set, the colors of the color set are numerically divided into different numerical ranges depending on whether an abnormal situation occurs during the monitoring time.

일 예에서, 특정 발전 설비에 대하여 모니터링 시간 동안 정상 상황이 유지된 경우, 도 5에 도시된 바와 같이, 픽셀별 이미지 색상 값의 최대 값, 최소 값이 각각 0 및 2.5로 산출될 수 있다. 따라서, 도 6의 색상 집합의 색상은 0과 2.5 사이의 값으로 수치화되고, 도 6의 하부에 도시된 이미지 색상 테이블이 이미지 생성을 위해 사용된다. 도 6의 하부의 이미지 색상 테이블을 이용할 경우, 도 6의 하부의 색상 분포가 복잡한 상황 이미지(I3)가 생성된다.In one example, when a normal situation is maintained for a monitoring time for a specific power generation facility, as illustrated in FIG. 5, maximum and minimum values of image color values for each pixel may be calculated as 0 and 2.5, respectively. Therefore, the color of the color set in FIG. 6 is numerically valued between 0 and 2.5, and the image color table shown at the bottom of FIG. 6 is used for image generation. When the image color table at the bottom of FIG. 6 is used, a situation image I 3 having a complex color distribution at the bottom of FIG. 6 is generated.

반면, 동일한 예에서, 모니터링 시간 동안 비정상 상황이 발생한 경우, 비정상 상황에서의 급격한 센싱 데이터 변화로 인해 픽셀별 이미지 색상 값의 최대 값은 1000이 산출될 수도 있다. 따라서, 동일한 도 6의 색상 집합은 0 내지 1000 사이의 값으로 수치화되고, 도 6의 상부에 도시된 이미지 색상 테이블이 이미지 생성을 위해 사용된다. On the other hand, in the same example, when an abnormal situation occurs during the monitoring time, the maximum value of the image color value for each pixel may be 1000 due to a sudden change in sensing data in the abnormal situation. Accordingly, the same color set of FIG. 6 is numerically valued from 0 to 1000, and the image color table shown at the top of FIG. 6 is used for image generation.

이 경우, 픽셀과 관련된 시간이 정상 상황인 경우, 해당 픽셀에 대한 이미지 색상 값은 대략 0 내지 2.5의 값으로 산출될 수 있다. 도 6의 상부의 이미지 색상 테이블에서 0 내지 2.5의 값에 대응하는 색상은 동일 또는 유사한 색상이므로, 정상 상황과 관련된 픽셀의 색상은 동일 또는 유사하다. 이와 같이, 비정상 상황이 발생한 경우 상황 이미지(I4)는 도 6의 상부에 도시된 바와 같이 단순한 색상 분포 경향을 갖도록 생성된다. In this case, when the time associated with the pixel is a normal situation, the image color value for the pixel may be calculated as a value of approximately 0 to 2.5. Since the colors corresponding to values of 0 to 2.5 in the image color table at the top of FIG. 6 are the same or similar colors, the colors of pixels related to the normal situation are the same or similar. In this way, when an abnormal situation occurs, the situation image I 4 is generated to have a simple color distribution tendency as illustrated in the upper part of FIG. 6.

이와 같이 수치 범위의 상이함으로 인해, 모니터링 시간 범위 동안 비정상 상황이 발생하지 않은 경우 상황 이미지는 복잡한 색상 분포를 갖도록 구성된다. 그리고, 모니터링 시간 범위 동안 비정상 상황이 발생한 경우 상황 이미지는 단순한 색상 분포를 갖도록 구성된다. Due to the differences in the numerical range, the situation image is configured to have a complex color distribution when an abnormal situation does not occur during the monitoring time range. And, when an abnormal situation occurs during the monitoring time range, the situation image is configured to have a simple color distribution.

이러한 이미지의 색상 분포의 복잡도는 다음의 수학식 6을 통해 엔트로피로 나타낼 수 있다. The complexity of the color distribution of the image can be expressed by entropy through Equation 6 below.

[수학식 6][Equation 6]

Figure pat00008
Figure pat00008

여기서, pi는 이미지 색상 값 분포에서 i번째 이미지 색상 값이 나타날 확률을 나타낸다. 예를 들어, 도 5b의 경우 0 내지 2.5 사이의 이미지 색상 값 분포를 가진다. 이 경우, 이미지 픽셀 값이 0일 확률은 9/49이다. Here, pi represents the probability that the i-th image color value appears in the image color value distribution. For example, in FIG. 5B, the image color value distribution is between 0 and 2.5. In this case, the probability that the image pixel value is 0 is 9/49.

도 6의 상황 이미지에 대하여 이미지 엔트로피를 산출할 경우, 상황 이미지(I3)의 이미지 엔트로피는 6.32를 가지며, 상황 이미지(I4)의 이미지 엔트로피는 2.75를 가진다. When calculating the image entropy for the context image of FIG. 6, the image entropy of the context image I 3 has 6.32, and the image entropy of the context image I 4 has 2.75.

이와 같이, 상황 이미지(I3)는 상황 이미지(I4)와 비교할 때, 상대적으로 복잡한 이미지로서, 상대적으로 높은 엔트로피를 가진다. 결국, 엔트로피가 낮을수록 이미지의 색상 분포의 복잡도가 증가하고, 이는 발전 설비의 상황이 정상 상황을 나타낸다는 정보를 제공한다.As described above, the context image I 3 is a relatively complex image when compared to the context image I 4 , and has a relatively high entropy. After all, the lower the entropy, the more complex the color distribution of the image is, which provides information that the situation of the power plant represents a normal situation.

이미지 생성 장치(10)는 이러한 상황 이미지를 사용자에게 제공하여, 사용자가 발전 설비의 상황을 모니터링하게 한다.The image generating device 10 provides this situation image to the user, so that the user can monitor the situation of the power generation facility.

추가적으로, 이미지 생성 장치(10)는 소정 시간 사이의 상황 이미지를 실시간으로 연속적으로 사용자에게 제공할 수 있다. Additionally, the image generating device 10 may continuously provide the user with a situational image between predetermined times in real time.

추가적으로, 이미지 생성 장치(10)는 상황 이미지가 나타내는 발전 설비의 상황을 판단하도록 더 구성될 수 있다. 나아가, 이미지 생성 장치(10)는 상황 이미지에 기초한 판단 결과를 사용자에게 제공할 수도 있다. Additionally, the image generating device 10 may be further configured to determine the situation of the power generation facility indicated by the situation image. Furthermore, the image generating device 10 may provide a user with a determination result based on the context image.

다시 도 2를 참조하면, 일 실시예에서, 이미지 생성 장치(10)는 상황 판단부(500)를 더 포함할 수 있다. Referring back to FIG. 2, in one embodiment, the image generating apparatus 10 may further include a situation determination unit 500.

일 실시예에서, 상황 판단부(500)는 상황 이미지의 엔트로피를 산출하고, 상황 이미지의 엔트로피가 소정 임계치 이상 미만인 경우 정상 상황으로 판단할 수 있다. 소정 임계치는 발전 설비의 성능, 센서의 유형, 센서의 성능 등에 기초하여 결정될 수 있다. In one embodiment, the situation determination unit 500 may calculate the entropy of the situation image, and determine that the situation is normal if the entropy of the situation image is less than or equal to a predetermined threshold. The predetermined threshold may be determined based on the performance of the power generation facility, the type of sensor, the performance of the sensor, and the like.

다른 일 실시예에서, 상황 판단부(500)는 상황 이미지를 상황 판단 모델에 적용하여 발전 설비의 상황을 판단한다. 상기 상황 판단 모델은 정상 상황에서의 상황 이미지 및 비정상 상황에서의 상황 이미지를 분류하도록 기계 학습 모델이다. In another embodiment, the situation determination unit 500 determines the situation of the power generation facility by applying the situation image to the situation determination model. The situation determination model is a machine learning model to classify a situation image in a normal situation and a situation image in an abnormal situation.

도 7은, 본 발명의 일 실시예에 따른, 상황 판단 모델의 구조를 개략적으로 도시한 도면이다. 7 is a diagram schematically showing a structure of a situation determination model according to an embodiment of the present invention.

일 실시예에서, 상기 상황 판단 모델은 CNN(Convolution Neural Network) 기반 기계 학습 모델일 수 있다. 상황 판단 모델은 컨볼루션 필터를 이용하여 입력 이미지를 적어도 두 그룹(예컨대, 정상 상황 그룹과 비정상 상황 그룹, 또는 정상 상황 그룹, 위기 상황 그룹, 및 고장 상황 그룹)으로 분류하도록 기계학습된 모델이다. In one embodiment, the situation determination model may be a machine learning model based on a convolution neural network (CNN). The situation determination model is a machine trained model that classifies an input image into at least two groups (eg, a normal situation group and an abnormal situation group, or a normal situation group, a crisis situation group, and a failure situation group) using a convolution filter.

일 실시예에서, 상황 판단 모델은 상황 이미지가 입력되는 입력 레이어(L1), 정상 상황 여부를 판단하기 위한 특징을 추출하는 특징 추출 레이어(L2), 및 입력된 상황 이미지를 정상 상황인지, 비정상 상황인지 분류하는 분류 레이어(L3)을 포함한다. In one embodiment, the situation determination model is an input layer (L 1 ) to which the situation image is input, a feature extraction layer (L 2 ) to extract features for determining whether the situation is normal, and whether the input situation image is a normal situation, It includes a classification layer (L 3 ) for classifying whether the situation is abnormal.

입력 레이어(L1)은 강화(augmentation) 처리가 수행되도록 더 구성될 수 있다. 예를 들어, 상황 이미지에 대해 보다 강한 학습 결과를 도출하기 위해, 랜덤 플립(random filp), 랜덤 로테이션(random rotation), 랜덤 밝기 조정(random brightness adjustment), 랜덤 콘트라스트 조정(random contrast adjustment) 등이 수행될 수 있다. The input layer L 1 may be further configured to perform augmentation processing. For example, in order to derive a stronger learning result for the situation image, random flip, random rotation, random brightness adjustment, random contrast adjustment, etc. Can be performed.

특징 추출 레이어(L2)는 하나 이상의 컨볼루션 레이어(convolution layer)를 포함할 수 있다. 또한, 특징 추출 레이어(L2)는 풀링 레이어(pooling layer)를 더 포함할 수 있다. The feature extraction layer L 2 may include one or more convolutional layers. Further, the feature extraction layer L 2 may further include a pooling layer.

분류 레이어(L3)는 최종 판별을 담당하는 완전 연결 레이어(full-connected layer)를 포함할 수 있다. 또한, 분류 레이어(L3)는 완전 연결 에이어에서 출력된 출력 값에 기초하여 입력된 상황 이미지가 정상 상황 그룹 및/또는 비정상 상황 그룹에 속할 확률을 산출하도록 구성된 확률 레이어를 더 포함할 수 있다. 상기 확률 레이어는 예를 들어 소프트맥스 알고리즘에 의해 확률을 산출하도록 구성될 수 있다. The classification layer L 3 may include a full-connected layer responsible for final determination. In addition, the classification layer L 3 may further include a probability layer configured to calculate a probability that the input situation image belongs to the normal situation group and/or the abnormal situation group based on the output value output from the fully connected air. . The probability layer may be configured to calculate the probability by, for example, a softmax algorithm.

일 실시예에서, 상기 상황 판단 모델은 도 2에 도시된 모델 생성부(200)의 판단 모델 생성부(250)에 의해 생성될 수 있다. 판단 모델 생성부(250)는 정상 상황에서 생성된 정상 상황을 나타내는 상황 이미지(예컨대, I1, I3) 및/또는 비정상 상황에서 생성된 비정상 상황을 나타내는 이미지(예컨대, I2, I4)를 기계 학습 샘플로 이용하여 상황 판단 모델의 파라미터들을 학습한다. 구체적으로, 입력된 상황 이미지의 분류 결과(즉, 모델 적용 결과)와 샘플의 실제 결과를 비교하여 오차를 줄여나감으로써 파라미터를 학습한다. 이를 위해, 기계 학습 샘플은 상황 이미지 및 실제 결과를 나타내는 라벨링 데이터를 포함할 수 있다. In one embodiment, the situation determination model may be generated by the determination model generation unit 250 of the model generation unit 200 illustrated in FIG. 2. The judgment model generation unit 250 is a situation image (eg, I 1 , I 3 ) representing a normal situation generated in a normal situation and/or an image (eg, I 2 , I 4 ) representing an abnormal situation generated in an abnormal situation. Use as a machine learning sample to learn the parameters of the situation judgment model. Specifically, the parameters are learned by reducing the error by comparing the classification result (ie, the model application result) of the input situation image with the actual result of the sample. To this end, the machine learning sample may include contextual images and labeling data representing actual results.

상황 판단부(500)는 미리 학습된 상황 판단 모델을 이용하여 이미지 생성부(400)에 의해 생성된 상황 이미지가 정상 상황을 나타내는지 판단할 수 있다. 미리 학습된 상황 판단 모델은 이미지 생성 장치(10)의 저장 장치(미도시)에 저장될 수 있다. The situation determination unit 500 may determine whether the situation image generated by the image generation unit 400 represents a normal situation using a previously learned situation determination model. The pre-trained situation determination model may be stored in a storage device (not shown) of the image generating device 10.

상기 이미지 생성 장치(10)가 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 이미지 생성 장치(10)는 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to one skilled in the art that the image generating device 10 may include other components not described herein. For example, the image generating device 10 includes other hardware elements necessary for the operations described herein, including a network interface, an input device for data entry, and an output device for display, printing or other data display. It may include.

도 8은, 본 발명의 일 실시예에 따른, 발전 설비의 상황을 나타내는 이미지 생성 방법의 개략적인 흐름도이고, 도 9는, 본 발명의 일 실시예에 따른, 도 8의 방법의 단계별 결과를 개략적으로 도시한 도면이다.8 is a schematic flowchart of an image generating method showing a situation of a power generation facility according to an embodiment of the present invention, and FIG. 9 is a schematic step-by-step result of the method of FIG. 8 according to an embodiment of the present invention It is a drawing shown.

도 8 및 도 9를 참조하면, 이미지 생성 장치(10)에 의해 수행되는 이미지 생성 방법은 발전 설비에 설치된 복수의 센서를 통해 모니터링을 위한 센싱 데이터를 획득한다(S810). 그 후, 센싱 데이터를 점수 모델에 적용하여 상황 점수를 산출한다(S830). 8 and 9, the image generation method performed by the image generation device 10 acquires sensing data for monitoring through a plurality of sensors installed in a power generation facility (S810). Thereafter, the situation data is calculated by applying the sensing data to the score model (S830).

예를 들어, 도 9에 도시된 바와 같이, 6개의 기압 센서에 의해 1000초~1600초 사이의 센싱 데이터가 획득된다(S810). 점수 생성부(300)는 센싱 데이터를 점수 모델에 적용하여 상황 점수를 산출한다(S830). 센싱 데이터가 점수 모델에 적용되면, 점수 모델의 특징 추출 레이어를 통해 6개의 기압 센서 각각에 대해 복수의 통계적 특징 값을 추출한다. 즉, 도 9의 왼편의 센싱 데이터로부터 추출된 통계적 특징 값은 제1 내지 제6 기압 센서에 대한 통계적 특징 값을 포함하며, 점수 모델을 통해 제1 내지 제6 기압 센서로부터 획득된 다차원 센싱 데이터가 1차원 시계열 데이터인 상황 점수로 변환된다. 즉, 발전 설비의 상황이 종합적으로 고려되어 상황 점수로 수치화된다.For example, as illustrated in FIG. 9, sensing data between 1000 and 1600 seconds is obtained by six air pressure sensors (S810 ). The score generator 300 calculates the situation score by applying the sensing data to the score model (S830). When the sensing data is applied to the score model, a plurality of statistical feature values are extracted for each of the six air pressure sensors through the feature extraction layer of the score model. That is, the statistical feature values extracted from the sensing data on the left side of FIG. 9 include statistical feature values for the first to sixth air pressure sensors, and multidimensional sensing data obtained from the first to sixth air pressure sensors through the score model It is converted to situation score, which is one-dimensional time series data. That is, the situation of the power generation facility is comprehensively considered and quantified by the situation score.

그러면, 이미지 생성 장치(10)는 모니터링 시간 범위에서의 상황 점수에 기초하여 상황 이미지를 생성한다(S840). 모니터링 시간 범위가 100초인 경우, 이미지 생성 장치(10)는 1000초 내지 1100초 사이에서의 상황 점수를 이용하여 100×100 픽셀을 갖는 상황 이미지(I1)를 생성한다. 또한, 이미지 생성 장치(10)는 1200초 내지 1300초 사이에서의 상황 점수를 이용하면 100×100 픽셀을 갖는 상황 이미지(I2)를 생성한다. Then, the image generating device 10 generates a situation image based on the situation score in the monitoring time range (S840). When the monitoring time range is 100 seconds, the image generating device 10 generates a situation image I 1 having 100×100 pixels using a situation score between 1000 seconds and 1100 seconds. In addition, the image generating apparatus 10 generates a situation image I 2 having 100×100 pixels by using a situation score between 1200 seconds and 1300 seconds.

도 9의 상황 이미지(I2)의 복잡도, 즉 이미지 엔트로피가 상대적으로 낮으므로, 상황 이미지(I2)는 1200초 ~ 1300초 동안 발전 설비의 상황이 비정상 상황인 것을 나타낸다. 사용자는 상황 이미지(I2)를 통해 발전 설비의 상황을 직관적이고 간편하게 모니터링할 수 있고, 나아가 비정상 상황이라고 판단할 수 있다. Since the complexity of the situation image I 2 of FIG. 9, that is, the image entropy is relatively low, the situation image I 2 indicates that the situation of the power generation facility is abnormal for 1200 seconds to 1300 seconds. The user can intuitively and conveniently monitor the situation of the power generation facility through the situation image I 2 , and furthermore, determine that the situation is abnormal.

추가적으로, 이미지 생성 장치(10)가 상황 판단부(500)를 포함하는 경우, 단계(S840)에서 생성된 상황 이미지를 상황 판단 모델에 적용함으로써 모니터링 시간 범위에서의 상황을 판단할 수 있다. Additionally, when the image generating apparatus 10 includes the situation determination unit 500, the situation in the monitoring time range may be determined by applying the situation image generated in step S840 to the situation determination model.

이상에서 설명한 실시예들에 따른 발전 설비의 상황을 모니터링하기 위한 이미지 생성 장치 및 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. According to the embodiments described above The operation by the image generating apparatus and method for monitoring the situation of the power generation facility may be implemented at least partially as a computer program, and recorded in a computer-readable recording medium. For example, implemented with a program product consisting of a computer-readable medium comprising program code, which may be executed by a processor for performing any or all of the steps, operations, or procedures described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be a desktop computer, a laptop computer, a laptop, a smart phone, or a computing device such as the like, or any device that may be integrated. A computer is a device that has one or more alternative and special purpose processors, memory, storage space, and networking components (either wireless or wired). The computer may, for example, run an operating system such as Microsoft's Windows compatible operating system, Apple OS X or iOS, Linux distribution, or Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of record identification devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage identification devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be readily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention described above has been described with reference to the embodiments shown in the drawings, but this is only exemplary, and those skilled in the art will understand that various modifications and modifications of the embodiments are possible therefrom. However, it should be considered that such modifications are within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

본 발명의 일 측면에 따른 이미지 생성 장치는, 센서의 감지 결과를 단순히 수치적으로 사용자에게 전달하는 것에 불과하거나, 또는 감지 결과가 특정 기준(예컨대, 미리 설정된 임계치)을 초과하였는지 여부를 전달하는 것에 불과한 종래의 모니터링 기술과 달리, 종합적이면서 직관적인 상황 이미지를 통해 사용자의 판단 부담을 최소화함으로써, 사용자의 편의성을 극대화할 수 있다. 나아가, 서 4차 산업 기술 중 하나인 기계 러닝(machine learning)을 이용하여 발전 설비의 상황이 비정상 상황인지 여부를 판단할 수 있다.An image generating apparatus according to an aspect of the present invention merely transmits a sensor detection result to a user numerically or transmits whether a detection result exceeds a specific criterion (eg, a preset threshold). Unlike conventional monitoring technology, it is possible to maximize user convenience by minimizing the user's judgment burden through a comprehensive and intuitive situation image. Furthermore, it is possible to determine whether the situation of the power generation facility is abnormal using machine learning, which is one of the 4th industrial technologies.

Claims (17)

프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 이미지 생성 방법에 있어서,
상기 발전 설비에 설치된 복수의 센서의 센싱 데이터를 획득하는 단계;
상기 센싱 데이터를 점수 모델에 적용하여 상황 점수를 산출하는 단계; 및
모니터링 시간 범위에서의 상황 점수에 기초하여 발전 설비의 상황을 나타내는 상황 이미지를 생성하는 단계를 포함하되,
상기 점수 모델은 센싱 데이터로부터 통계적 특징 값을 추출하도록 구성된 통계적 특징 추출 레이어, 및 상기 센싱 데이터로부터 추출된 통계적 특징 값에 기초하여 상황 점수를 산출하도록 구성된 점수 산출 레이어를 포함하는 것을 특징으로 하는 이미지 생성 방법.
In the image generation method performed by a computing device including a processor,
Obtaining sensing data of a plurality of sensors installed in the power generation facility;
Calculating a situation score by applying the sensing data to a score model; And
Generating a situation image representing the situation of the power generation facility based on the situation score in the monitoring time range,
The score model includes a statistical feature extraction layer configured to extract statistical feature values from the sensing data, and a score calculating layer configured to calculate a situation score based on the statistical feature values extracted from the sensing data. Way.
제1항에 있어서, 상기 점수 모델은,
정상 상황에서의 샘플을 미리 모델링된 통계적 특징 추출 레이어에 적용하여 샘플별로 통계적 특징 값을 추출하는 단계 - 상기 샘플은 정상 상황에서의 복수의 센서의 센싱 데이터를 샘플 데이터로 포함함;
상기 샘플 데이터의 통계적 특징 값에 기초하여 각 센서별 샘플 데이터에 대한 평균 및 공분산을 산출하는 단계;
상기 각 센서별 샘플 데이터에 대한 평균 및 공분산에 기초하여 상황 점수를 산출하는 점수 산출 레이어를 모델링하는 단계; 및
상기 통계적 특징 추출 레이어 및 점수 산출 레이어를 포함한 점수 모델을 생성하는 단계가 수행되어 생성된 것을 특징으로 하는 이미지 생성 방법.
According to claim 1, The score model,
Applying a sample in a normal situation to a pre-modeled statistical feature extraction layer to extract statistical feature values for each sample, wherein the sample includes sensing data of a plurality of sensors in a normal situation as sample data;
Calculating an average and a covariance for sample data for each sensor based on the statistical characteristic values of the sample data;
Modeling a score calculation layer for calculating a situation score based on the average and covariance of the sample data for each sensor; And
And generating a score model including the statistical feature extraction layer and the score calculation layer.
제1항에 있어서, 상기 통계적 특징 값은,
평균 값, 중앙 값, 최대 값, 최소 값, 표준 편차, RMS(root mean squre), 왜도(Skewness), 첨도(kurtosis) 및 이들의 조합 중 하나 이상을 포함하는 것을 특징으로 하는 이미지 생성 방법.
According to claim 1, The statistical feature value,
An image generation method comprising one or more of mean, median, maximum, minimum, standard deviation, root mean squre (RMS), skewness, kurtosis, and combinations thereof.
제1항에 있어서,
상기 통계적 특징 추출 레이어는 입력된 센싱 데이터에 대한 통계적 특징 값을 추출하도록 구성되는 것을 특징으로 하는 이미지 생성 방법.
According to claim 1,
The statistical feature extraction layer is configured to extract statistical feature values for input sensing data.
제1항에 있어서,
상기 통계적 특징 추출 레이어는 입력된 센싱 데이터의 변화량 데이터에 대한 통계적 특징 값을 추출하도록 구성되는 것을 특징으로 하는 이미지 생성 방법.
According to claim 1,
The statistical feature extraction layer is configured to extract a statistical feature value for the variation data of the input sensing data.
제2항에 있어서, 상기 점수 산출 레이어는 다음의 수학식 1으로 모델링되며,
[수학식 1]
Figure pat00009

여기서, Fk는 시각(tk)에서 상기 복수의 센서의 센싱 데이터로부터 추출된 통계적 특징 값을 포함한 통계적 특징 값 세트로서 Fk는 i번째 센서의 센싱 데이터로부터 추출된 통계적 특징 값을 포함하고, n은 센서의 개수, fn은 통계적 특징 값의 유형의 개수, mi는 i번째 센서의 통계적 특징 값에 대한 평균, covi는 i번째 센서의 통계적 특징에 대한 공분산, T는 행렬의 선형 변환을 나타내는 것을 특징으로 하는 이미지 생성 방법.
According to claim 2, The score calculation layer is modeled by the following equation (1),
[Equation 1]
Figure pat00009

Here, F k is a statistical characteristic value set including a statistical feature values extracted from the sensed data of the plurality of sensor at time (t k) F k comprises a statistical feature values extracted from the sensed data of the i-th sensor, n is the number of sensors, fn is the number of types of statistical feature values, m i is the mean for the statistical characteristic values of the i-th sensor, cov i is the covariance for the statistical characteristics of the i-th sensor, T is a linear transformation of the matrix Method for generating an image, characterized in that it represents.
제1항에 있어서, 상기 상황 이미지를 생성하는 단계는,
상기 이미지 생성부는 상기 모니터링 시간 범위에 기초하여 상황 이미지를 형성하는 픽셀의 수를 결정하는 단계; 및
픽셀과 관련된 상황 점수에 기초하여 색상을 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 생성 방법.
The method of claim 1, wherein the generating of the context image comprises:
Determining, by the image generator, the number of pixels forming a context image based on the monitoring time range; And
And determining a color based on the context score associated with the pixel.
제7항에 있어서, 상기 픽셀의 수를 결정하는 단계는,
상기 모니터링 시간 범위에 기초하여 상기 상황 이미지의 수평 픽셀의 수 및 수직 픽셀의 수를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 생성 방법.
The method of claim 7, wherein the step of determining the number of pixels,
And determining the number of horizontal pixels and the number of vertical pixels of the context image based on the monitoring time range.
제7항에 있어서,
상기 픽셀의 위치는 수평 좌표로서 상기 모니터링 시간 범위 내 시간에 대응하는 값, 그리고 수직 좌표로서 상기 모니터링 시간 범위 내 시간에 대응하는 값으로 표현할 수 있는 것을 특징으로 하는 이미지 생성 방법.
The method of claim 7,
The position of the pixel can be expressed as a value corresponding to a time in the monitoring time range as horizontal coordinates, and a value corresponding to a time in the monitoring time range as vertical coordinates.
제7항에 있어서,
상기 모니터링 시간 범위는 제1 시간과 제2 시간 사이의 시간 범위로서,
상기 제2 시간은 상기 제1 시간으로부터 이전 시간인 것을 특징으로 하는 이미지 생성 방법.
The method of claim 7,
The monitoring time range is a time range between the first time and the second time,
The second time is an image generation method, characterized in that the previous time from the first time.
제10항에 있어서,
상기 제1 시간은 실시간인 것을 특징으로 하는 이미지 생성 방법.
The method of claim 10,
The first time is an image generation method, characterized in that in real time.
제7항에 있어서, 상기 색상을 결정하는 단계는,
상기 픽셀과 관련된 시간에서의 상황 점수 간의 차이를 이미지 색상 값으로 산출하는 단계;
산출된 이미지 색상 값의 최대 값 및 최소 값을 미리 저장된 색상 중 적어도 일부를 포함하는 색상 집합의 수치 범위로 설정하여 이미지 색상 테이블을 생성하는 단계; 및
상기 산출된 이미지 색상 값에 대응하는 상기 이미지 색상 테이블의 색상을 각 픽셀의 색상으로 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 생성 방법.
The method of claim 7, wherein the step of determining the color,
Calculating a difference between situation scores at the time associated with the pixel as an image color value;
Generating an image color table by setting a maximum value and a minimum value of the calculated image color value to a numerical range of a color set including at least some of the pre-stored colors; And
And determining the color of the image color table corresponding to the calculated image color value as the color of each pixel.
제12항에 있어서,
상기 이미지 색상 값은 수직 좌표(v)에 대응하는 시간(tv)에서의 상황 점수와 수평 좌표(h)에 대응하는 시간(th)에서의 상황 점수 간의 차이를 나타내는 것으로서, 상기 이미지 색상 값은 다음의 수학식에 의해 산출되며,
[수학식 2]
Figure pat00010

여기서, image(v, h)는 수직 좌표(v) 및 수평 좌표(h)를 갖는 픽셀의 이미지 색상 값인 것을 특징으로 하는 이미지 생성 방법.
The method of claim 12,
The image color value represents the difference between the situation score at the time t v corresponding to the vertical coordinate v and the situation score at the time t h corresponding to the horizontal coordinate h, and the image color value Is calculated by the following equation,
[Equation 2]
Figure pat00010

Here, the image (v, h) is an image generation method characterized in that the image color value of the pixel having the vertical coordinates (v) and horizontal coordinates (h).
제1항에 있어서,
상기 상황 이미지에 기초하여 발전 설비의 상황을 판단하는 단계를 더 포함하는 이미지 생성 방법.
According to claim 1,
And determining a situation of the power generation facility based on the situation image.
제14항에 있어서, 상기 발전 설비의 상황을 판단하는 단계는,
상기 상황 이미지를 상황 판단 모델에 적용하여 발전 설비의 상황을 판단하는 단계를 포함하되,
상기 상황 판단 모델은 CNN(Convolution Neural Network) 기반 기계 학습 모델로서, 정상 상황에서의 상황 이미지 및 비정상 상황에서의 상황 이미지를 분류하도록 기계 학습된 것을 특징으로 하는 이미지 생성 방법.
The method of claim 14, wherein the step of determining the situation of the power generation facility,
Including the step of determining the situation of the power generation equipment by applying the situation image to the situation determination model,
The situation determination model is a CNN (Convolution Neural Network)-based machine learning model, the image generation method characterized in that the machine learning to classify the situation image in the normal situation and the situation image in the abnormal situation.
컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제15항 중 어느 하나의 항에 따른 이미지 생성 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
A computer-readable recording medium that stores program instructions readable by a computing device and operable by the computing device, wherein the processor is executed when the program instructions are executed by a processor of the computing device. A computer-readable recording medium for performing the image generation method according to any one of the preceding claims.
발전 설비의 상황을 모니터링하기 위한 이미지 생성 장치에 있어서,
상기 발전 설비에 설치된 복수의 센서의 센싱 데이터를 획득하는 데이터 획득부;
미리 모델링된 점수 모델을 저장하는 저장부;
상기 센싱 데이터를 상기 점수 모델에 적용하여 상황 점수를 산출하는 점수 산출부; 및
모니터링 시간 범위에서의 상황 점수에 기초하여 발전 설비의 상황을 나타내는 상황 이미지를 생성하는 이미지 생성부를 포함하되,
상기 점수 모델은 센싱 데이터로부터 통계적 특징 값을 추출하도록 구성된 통계적 특징 추출 레이어, 및 상기 센싱 데이터로부터 추출된 통계적 특징 값에 기초하여 상황 점수를 산출하도록 구성된 점수 산출 레이어를 포함하는 것을 특징으로 하는 이미지 생성 장치.
In the image generating device for monitoring the situation of the power generation equipment,
A data acquisition unit that acquires sensing data of a plurality of sensors installed in the power generation facility;
A storage unit for storing the pre-modeled score model;
A score calculating unit that calculates a situation score by applying the sensing data to the score model; And
Including the image generating unit for generating a situation image representing the situation of the power generation facility based on the situation score in the monitoring time range,
The score model includes a statistical feature extraction layer configured to extract statistical feature values from the sensing data, and a score calculating layer configured to calculate a situation score based on the statistical feature values extracted from the sensing data. Device.
KR1020190006170A 2019-01-17 2019-01-17 Device and method for generating image to monitor state of power plant KR102253820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190006170A KR102253820B1 (en) 2019-01-17 2019-01-17 Device and method for generating image to monitor state of power plant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190006170A KR102253820B1 (en) 2019-01-17 2019-01-17 Device and method for generating image to monitor state of power plant

Publications (2)

Publication Number Publication Date
KR20200089450A true KR20200089450A (en) 2020-07-27
KR102253820B1 KR102253820B1 (en) 2021-05-21

Family

ID=71894051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190006170A KR102253820B1 (en) 2019-01-17 2019-01-17 Device and method for generating image to monitor state of power plant

Country Status (1)

Country Link
KR (1) KR102253820B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160055622A (en) 2014-11-10 2016-05-18 현대자동차주식회사 Apparatus for diagnosing the failure of lamp in vehicle and method thereof
KR20170086308A (en) * 2016-01-18 2017-07-26 주식회사 피에이치엠솔루션즈 Apparatus and method for monitoring machine state
KR101818394B1 (en) * 2017-05-11 2018-01-12 울산대학교 산학협력단 Method and apparatus for diagnosing facility condition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160055622A (en) 2014-11-10 2016-05-18 현대자동차주식회사 Apparatus for diagnosing the failure of lamp in vehicle and method thereof
KR20170086308A (en) * 2016-01-18 2017-07-26 주식회사 피에이치엠솔루션즈 Apparatus and method for monitoring machine state
KR101818394B1 (en) * 2017-05-11 2018-01-12 울산대학교 산학협력단 Method and apparatus for diagnosing facility condition

Also Published As

Publication number Publication date
KR102253820B1 (en) 2021-05-21

Similar Documents

Publication Publication Date Title
US10977521B2 (en) Multi-scale aware pedestrian detection method based on improved full convolutional network
US10706334B2 (en) Type prediction method, apparatus and electronic device for recognizing an object in an image
KR102342476B1 (en) System and method for determining situation of facility by imaging seinsing data of facility
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
US11593299B2 (en) Data analysis device, data analysis method and data analysis program
US20220036068A1 (en) Method and apparatus for recognizing image, electronic device and storage medium
TWI776176B (en) Device and method for scoring hand work motion and storage medium
US10346988B2 (en) Method for generating foreground using multiple background models and apparatus thereof
US11741685B2 (en) Commodity identification device, non-transitory computer-readable storage medium, and learning method
CN112750162A (en) Target identification positioning method and device
KR20210155655A (en) Method and apparatus for identifying object representing abnormal temperatures
US20230021551A1 (en) Using training images and scaled training images to train an image segmentation model
CN113177449A (en) Face recognition method and device, computer equipment and storage medium
CN114529750A (en) Image classification method, device, equipment and storage medium
US20220129693A1 (en) State determination apparatus and image analysis apparatus
KR100553850B1 (en) System and method for face recognition / facial expression recognition
KR20200080387A (en) Display apparatus and control method thereof
KR102253820B1 (en) Device and method for generating image to monitor state of power plant
CN113642635A (en) Model training method and device, electronic device and medium
KR102441135B1 (en) Deep learning based method for estimating multi-output value of power plant and system for permoing the same
CN113408517B (en) Image display method and device and electronic equipment
CN114549809A (en) Gesture recognition method and related equipment
CN113298753A (en) Sensitive muscle detection method, image processing method, device and equipment
JP7060107B2 (en) Environment similarity display device, environment similarity display method and environment similarity display algorithm
TWI745808B (en) Situation awareness system and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right