KR20190105429A - Apparatus and method for release modeling of toxic gases - Google Patents
Apparatus and method for release modeling of toxic gases Download PDFInfo
- Publication number
- KR20190105429A KR20190105429A KR1020180025971A KR20180025971A KR20190105429A KR 20190105429 A KR20190105429 A KR 20190105429A KR 1020180025971 A KR1020180025971 A KR 1020180025971A KR 20180025971 A KR20180025971 A KR 20180025971A KR 20190105429 A KR20190105429 A KR 20190105429A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- toxic gas
- release
- variable
- autoencoder
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 독성 가스 릴리스 모델링 장치 및 모델링 방법에 관한 것이다.The present invention relates to a toxic gas release modeling device and modeling method.
화학 산업이 꾸준히 성장함에 따라 화학 물질에 의한 치명적인 사고에 대한 우려도 커지고 있다. 화학 공정에서의 다양한 유형의 사고 중 독성 가스 누출은 누출 범위가 광범위하기 때문에 특히 위험하다. 독성 가스의 농도가 특정 수준 이상이면 현지 주민은 심각한 위험에 노출되고, 인구 밀집 지역에서 사고가 발생하면 도시 지역일수록 그 위험은 더욱 커진다. 따라서 독성 가스 분산을 예측하는 방법이 필요하다. As the chemical industry continues to grow, concerns about fatal accidents caused by chemicals are growing. Toxic gas leaks during various types of accidents in chemical processes are particularly dangerous because of the wide range of leaks. If the concentration of toxic gases is above a certain level, the local population is at serious risk, and if an accident occurs in a densely populated area, the danger is greater in urban areas. Therefore, a method of predicting toxic gas dispersion is needed.
독성 가스 분산을 모델링 하기 위한 ALOHA, PHAST 등의 컴퓨터 시뮬레이션이 개발되었으나 3차원 장애물이 있는 실제 상황에서는 정확도가 낮아 사용되기 어렵다. 전산 유체 역학(CFD)은 지리 정보와 독성 화학 물질의 특성을 고려하여 널리 사용되나, 계산 시간이 오래 걸려 비상 상황 및 실시간 경보 시스템에는 적합하지 않다. 이처럼 독성 가스 분산 예측은 비용, 위험성 및 기술적 요구 사항 등으로 인해 구현되기가 쉽지 않다.Computer simulations such as ALOHA and PHAST have been developed to model toxic gas dispersion, but are difficult to use due to their low accuracy in real-world situations with three-dimensional obstacles. Computational Fluid Dynamics (CFD) is widely used in view of geographic information and the nature of toxic chemicals, but it is time-consuming to calculate and is not suitable for emergency situations and real-time alarm systems. As such, toxic gas dispersion predictions are difficult to implement due to cost, risk and technical requirements.
상기와 같은 문제점을 해결하기 위하여, 본 발명은 신뢰도가 높은 독성 가스 릴리스 모델링 장치를 제공한다.In order to solve the above problems, the present invention provides a highly reliable toxic gas release modeling device.
본 발명은 상기 장치를 이용한 독성 가스 릴리스 모델링 방법을 제공한다.The present invention provides a method for modeling toxic gas release using the device.
본 발명의 다른 목적들은 다음의 상세한 설명과 첨부한 도면으로부터 명확해 질 것이다.Other objects of the present invention will become apparent from the following detailed description and the accompanying drawings.
본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 장치는 독성 가스 분산 데이터를 변환하는 변환 모듈 및 상기 변환 모듈에 연결되어 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 생성 모듈을 포함할 수 있다.The toxic gas release modeling apparatus according to the embodiments of the present invention may include a conversion module for converting toxic gas dispersion data and a generation module connected to the conversion module to generate a prediction model by mapping the converted data to a predetermined variable. Can be.
상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습할 수 있다.The transformation module and the generation module may repeatedly learn based on an artificial neural network.
상기 독성 가스 분산 데이터는 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터를 포함하고, 상기 시뮬레이션 데이터는 상기 변수를 이용하여 샘플링되고, 상기 변환 모듈에 입력되도록 전처리될 수 있다.The toxic gas dispersion data includes data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed, and the simulation data is sampled using the variable and preprocessed to be input to the conversion module. Can be.
상기 시뮬레이션 데이터는 프로빗(Probit) 함수에 의해 계산된 사망 확률(P death ) 데이터를 포함하고, 상기 프로빗 함수는 (a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고, 상기 사망 확률은 일 수 있다.The simulation data includes P death data calculated by a Probit function, and the Probit function is (a, b, and n is a constant according to the type of the toxic gas, c is the concentration by volume of the toxic gas), the probability of death Can be.
상기 변환 모듈은 상기 독성 가스 분산 데이터를 압축하여 변환시키는 오토인코더 (Autoencoder)를 포함하고, 상기 오토인코더는 상기 독성 가스 분산 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어(Convolutional layer)를 포함할 수 있다.The conversion module may include an autoencoder for compressing and converting the toxic gas dispersion data, and the auto encoder may include a convolutional layer for detecting and extracting a feature of the toxic gas dispersion data. have.
상기 오토인코더는 상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용할 수 있다.The autoencoder may use a variable inference that is calculated by parameterizing the extracted feature of the toxic gas dispersion data and approximating it to a normal distribution using the average value and the logarithmic value of the variable data as parameters.
상기 오토인코더는 손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함할 수 있다.The autoencoder may further include a variational layer for comparing and evaluating the toxic gas dispersion data and the data converted by the autoencoder using a loss function.
상기 생성 모듈은 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함할 수 있다.The generation module may include a fully connected layer that maps and converts the converted data into the variable.
상기 생성 모듈은 상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화할 수 있다.The generation module may normalize the distribution of the converted data between the fully connected layer and the fully connected layer.
상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.The variable may include one or more of wind speed, wind direction, release rate of the toxic gas, emission duration, emission point, emission material and temperature.
본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 방법은 독성 가스 분산 데이터를 입력하는 단계, 상기 입력된 데이터를 변환하는 단계 및 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 단계를 포함할 수 있다.The toxic gas release modeling method according to the embodiments of the present invention includes the steps of inputting toxic gas dispersion data, converting the input data, and mapping the converted data into a constant variable to generate a prediction model. can do.
상기 변환 단계 및 상기 생성 단계는 인공 신경망을 기반으로 반복적으로 학습할 수 있다.The transforming step and the generating step may be repeatedly learned based on an artificial neural network.
상기 모델링 방법은 상기 데이터 입력 단계 전에, 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션하는 단계 및 상기 시뮬레이션 데이터를 상기 변수를 이용하여 샘플링하고, 상기 입력 단계가 수행되도록 상기 시뮬레이션 데이터를 전처리하는 단계를 더 포함할 수 있다.The modeling method may include numerically analyzing and simulating the behavior of the toxic gas before the data input step and dispersing the toxic gas, sampling the simulation data using the variable, and performing the input step. The method may further include preprocessing the simulation data.
상기 시뮬레이션 단계는 프로빗 함수에 의해 사망 확률(P death ) 데이터 계산을 수행하는 것을 포함하고, 상기 프로빗 함수는 (a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고, 상기 사망 확률은 일 수 있다.The simulation step includes performing P death data calculation by a probit function, wherein the probit function (a, b, and n is a constant according to the type of the toxic gas, c is the concentration by volume of the toxic gas), the probability of death Can be.
상기 변환 단계는 상기 입력된 데이터의 특징을 감지하여 추출하는 단계를 포함할 수 있다.The converting step may include detecting and extracting a feature of the input data.
상기 변환 단계는 상기 입력된 데이터의 추출된 특징을 변수화하는 단계, 상기 변수화된 데이터를 변환하여 복원하는 단계, 및 상기 입력 데이터와 상기 복원 데이터를 손실 함수를 이용하여 비교하는 단계를 더 포함하고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론을 수행할 수 있다.The converting step may further include parameterizing the extracted feature of the input data, converting and restoring the variable data, and comparing the input data with the restored data using a loss function, Variable inference can be performed by approximating a normal distribution using the average value of the variable data and the logarithm of the variance as parameters.
상기 생성 단계는 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 단계를 포함할 수 있다.The generating may include mapping and converting the converted data into the variable.
상기 생성 단계는 상기 변환된 데이터의 분포를 정규화시키는 배치 정규화를 수행하는 단계를 더 포함할 수 있다.The generating step may further include performing batch normalization to normalize the distribution of the transformed data.
상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.The variable may include one or more of wind speed, wind direction, release rate of the toxic gas, emission duration, emission point, emission material and temperature.
본 발명의 실시예들에 따르면 계산 시간이 짧고 신뢰도가 높은 독성 가스 릴리스 모델링 장치를 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a toxic gas release modeling device having a short calculation time and high reliability.
본 발명의 실시예들에 따르면 상기 장치를 이용한 독성 가스 릴리스 모델링 방법을 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a toxic gas release modeling method using the apparatus.
도 1은 본 발명의 일 실시예에 따른 울산 미포 단지의 형상을 나타낸다.
도 2는 본 발명의 일 실시예에 따른 데이터 샘플링 및 전처리의 흐름도를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 대리 모델의 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)의 구조를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)로부터의 잠재 공간과 가변 공간을 매핑하기 위한 상세한 심층 신경망(DNN) 구성을 나타낸다.
도 5는 본 발명의 일 실시예에 따른 대리 모델과 다른 유형의 대리 모델의 성능을 비교한 것을 나타낸다.
도 6은 에포크에 대한 다양한 대리 모델의 손실 함수 그래프를 비교한 것을 나타낸다.
도 7은 본 발명의 일 실시예에 따라 추출된 테스트 데이터 세트의 평균 제곱 오차를 나타낸다.
도 8은 본 발명의 일 실시예에 따른 다양한 모델에 따른 Pdeath 이미지를 나타낸다.
도 9는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 가변 공간 워킹(Walking in the variable space)의 결과를 나타낸다.Figure 1 shows the shape of the Ulsan Mipo complex according to an embodiment of the present invention.
2 shows a flow diagram of data sampling and preprocessing according to one embodiment of the invention.
3 illustrates a structure of a variational auto encoder (VAEDC) having a deep convolutional layer of a surrogate model according to an embodiment of the present invention.
4 illustrates a detailed deep neural network (DNN) configuration for mapping latent space and variable space from a variational autoencoder (VAEDC) having a deep convolutional layer in accordance with an embodiment of the present invention.
5 shows a comparison between the performance of a surrogate model and another type of surrogate model according to an embodiment of the present invention.
6 shows a comparison of loss function graphs of various surrogate models for epochs.
7 illustrates the mean squared error of the extracted test data set according to an embodiment of the present invention.
8 illustrates P death images according to various models according to an exemplary embodiment of the present invention.
9 shows the results of walking in the variable space of a deep neural network using a variational autoencoder with a deep convolutional layer.
이하, 실시예들을 통하여 본 발명을 상세하게 설명한다. 본 발명의 목적, 특징, 장점은 이하의 실시예들을 통해 쉽게 이해될 것이다. 본 발명은 여기서 설명되는 실시예들에 한정되지 않고, 다른 형태로 구체화될 수도 있다. 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. 따라서, 이하의 실시예들에 의하여 본 발명이 제한되어서는 안 된다.Hereinafter, the present invention will be described in detail through examples. The objects, features and advantages of the present invention will be readily understood through the following examples. The invention is not limited to the embodiments described herein, but may be embodied in other forms. The embodiments introduced herein are provided so that the disclosure may be made thorough and complete, and the spirit of the present invention may be sufficiently delivered to those skilled in the art. Therefore, the present invention should not be limited by the following examples.
본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 장치는 변환 모듈 및 생성 모듈을 포함할 수 있다. 상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습할 수 있다. 상기 인공 신경망(Artificial Neural Network, ANN)은 뇌와 같은 생물학의 신경망을 구현하는 통계학적 학습 알고리즘으로, 데이터를 받는 입력 레이어(input layer), 상기 데이터가 처리되어 최종 결과가 출력되는 출력 레이어(output layer) 및 상기 입력 레이어 및 상기 출력 레이어 사이에 배치되는 하나 또는 둘 이상의 히든 레이어(hidden layer)를 포함할 수 있다. 상기 인공 신경망은 상기 히든 레이어가 둘 이상 포함된 심층 신경망(Deep Neural Network, DNN)을 포함할 수 있다. The toxic gas release modeling apparatus according to embodiments of the present invention may include a conversion module and a generation module. The transformation module and the generation module may repeatedly learn based on an artificial neural network. The artificial neural network (ANN) is a statistical learning algorithm for implementing a biological neural network such as a brain. An artificial neural network (ANN) includes an input layer for receiving data and an output layer for processing the data and outputting a final result. layer) and one or more hidden layers disposed between the input layer and the output layer. The artificial neural network may include a deep neural network (DNN) including two or more hidden layers.
변환 모듈은 독성 가스 분산 데이터를 변환할 수 있다. 상기 독성 가스 분산 데이터는 누출 사고 등으로 인해 상기 독성 가스가 분산되기 전에, 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터, 예를 들어 전산유체역학(CFD)으로 시뮬레이션한 데이터를 포함할 수 있다. 상기 시뮬레이션 데이터는 일정 변수를 이용하여 모델링에 필요한 데이터 수로 샘플링될 수 있다. 또한, 상기 시뮬레이션 데이터는 상기 변환 모듈에 입력될 수 있도록 다양한 유틸리티를 이용하여 전처리될 수 있다. The conversion module can convert toxic gas dispersion data. The toxic gas dispersion data may include data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed due to a leakage accident, for example, data obtained by computational fluid dynamics (CFD). Can be. The simulation data may be sampled by the number of data required for modeling using a constant variable. In addition, the simulation data may be preprocessed using various utilities to be input to the conversion module.
상기 시뮬레이션된 데이터는 프로빗 함수에 의해 계산된 사망 확률(P death ) 데이터를 포함할 수 있고, 상기 프로빗 함수는 이고, 상기 사망 확률은 으로 나타날 수 있다. 상기 프로빗 함수에서 a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도이다. 상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다. The simulated data may include death probability ( P death ) data calculated by a probit function, wherein the probit function is And the probability of death is May appear. In the probit function, a, b, and n are constants according to the type of the toxic gas, and c is the volumetric concentration of the toxic gas. The variable may include one or more of wind speed, wind direction, release rate of the toxic gas, emission duration, emission point, emission material and temperature.
상기 변환 모듈은 오토인코더(Autoencoder)를 포함할 수 있다. 상기 오토인코더는 상기 독성 가스 분산 데이터를 부호화하는 인코더(Encoder) 및 상기 부호화된 데이터를 입력된 상기 독성 가스 분산 데이터와 유사하게 복원하는 디코더(Decoder)를 포함할 수 있다. 상기 오토인코더는 상기 데이터를 압축하여 변환할 수 있고, 이를 통해 상기 입력된 데이터와 상기 복원된 데이터의 차원을 달리할 수 있다. 예를 들어, 상기 복원된 데이터의 차원을 상기 입력된 데이터의 차원보다 감소시킬 수 있다. 즉, 상기 오토인코더는 상기 복원된 데이터가 더 적은 수의 값으로 상기 입력된 데이터와 유사하게 복원될 수 있는 압축의 효과를 가질 수 있다. 상기 오토인코더는 다양한 조합으로 작동될 수 있기 때문에 비선형성이 강한 데이터, 예를 들어 상기 사망 확률의 이미지 데이터에 대해서도 충분히 차원 감소를 달성할 수 있다. The conversion module may include an autoencoder. The autoencoder may include an encoder for encoding the toxic gas dispersion data and a decoder for reconstructing the encoded data similarly to the input toxic gas dispersion data. The autoencoder may compress and convert the data, thereby allowing the input data and the restored data to have different dimensions. For example, the dimension of the restored data may be reduced than the dimension of the input data. That is, the autoencoder may have the effect of compression that the restored data can be restored similarly to the input data with a smaller number of values. Since the autoencoder can be operated in various combinations, it is possible to achieve a sufficient dimensional reduction even for nonlinear data, for example, image data of the probability of death.
상기 오토인코더는 상기 독성 가스 분산 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어를 더 포함할 수 있다. 상기 컨볼루션 레이어(convolutional layer)는 상기 독성 가스 분산 데이터의 특징을 감지하여 연산하는 레이어로, 하나 또는 둘 이상 포함될 수 있다. 상기 컨볼루션 레이어들 사이에는 풀링 레이어가 포함될 수 있다. 상기 풀링 레이어(pooling layer)는 상기 컨볼루션 레이어의 출력 데이터를 입력으로 받아서 상기 출력 데이터(Activation Map)의 크기를 줄이거나 특정 데이터를 강조할 수 있다. 상기 풀링 레이어의 처리 방법에는 맥스 풀링(Max Pooling), 평균 풀링(Average Pooling) 및 민 풀링(Min Pooling) 등이 있다. The autoencoder may further include a convolutional layer that detects and extracts features of the toxic gas dispersion data. The convolutional layer is a layer that detects and computes a characteristic of the toxic gas dispersion data, and may include one or two or more. A pooling layer may be included between the convolutional layers. The pooling layer may receive output data of the convolutional layer as an input and may reduce the size of the output map or emphasize specific data. Processing methods of the pooling layer include Max Pooling, Average Pooling, and Min Pooling.
상기 오토인코더는 상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고, 상기 변수화된 데이터의 평균값과 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용하는 베리에이셔널 오토인코더(Variational AutoEncoder,VAE)를 사용할 수 있다. 또한, 상기 오토인코더는 손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함할 수 있다. 상기 컨볼루션 레이어를 가진 베리에이셔널 오토인코더는 성능이 보다 향상되어 복잡한 이미지 데이터에 대해서도 명확한 특징을 감지하고 추출할 수 있다. The autoencoder is variable using a variational inference (Variational Inference) that is calculated by parameterizing the extracted characteristics of the toxic gas dispersion data and approximating the average value of the parameterized data and the log value of the variance as a normal distribution. You can use a null autoencoder (VAE). The autoencoder may further include a variational layer for comparing and evaluating the toxic gas dispersion data and the data converted by the autoencoder using a loss function. The variational autoencoder with the convolutional layer is further improved in performance to detect and extract clear features even in complex image data.
생성 모듈은 상기 변환 모듈에 연결되어 상기 변환된 데이터를 상기 변수로 매핑하여 예측 모델을 생성할 수 있다. 상기 생성 모듈은 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함할 수 있다. The generation module may be connected to the transformation module to generate a prediction model by mapping the transformed data into the variable. The generation module may include a fully connected layer that maps and converts the converted data into the variable.
상기 생성 모듈은 상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화할 수 있다. 이를 배치 정규화(Batch Normalization)라고 한다. 기울기 소실(gradient vanishing) 등의 문제를 해결하기 위해 상기 배치 정규화가 이용될 수 있다. 이 외에도 활성함수를 시그모이드에서 ReLU(Rectified Linear Unit)로 교체하는 방법을 이용할 수 있다. 상기 완전 연결된 레이어들 사이에서 상기 레이어를 거친 뒤에 상기 배치 정규화가 수행될 수 있어, 상기 배치 정규화가 일종의 레이어라 생각하고 구현될 수 있다.The generation module may normalize the distribution of the converted data between the fully connected layer and the fully connected layer. This is called batch normalization. The batch normalization can be used to solve problems such as gradient vanishing. In addition, the active function can be replaced with sigmoid to rectified linear unit (ReLU). The batch normalization may be performed after passing the layer between the fully connected layers, so that the batch normalization may be implemented as a kind of layer.
본 발명의 실시예들에 따른 상기 독성 가스 릴리스 모델링 장치를 이용한 독성 가스 릴리스 모델링 방법은 독성 가스 분산 데이터를 입력하는 단계, 상기 입력된 데이터를 변환하는 단계 및 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 단계를 포함할 수 있다. 상기 변환 단계 및 상기 생성 단계는 인공 신경망을 기반으로 반복적으로 학습할 수 있다.In the toxic gas release modeling method using the toxic gas release modeling apparatus according to embodiments of the present invention, the method includes: inputting toxic gas dispersion data, converting the input data, and mapping the converted data to a predetermined variable; Generating a predictive model. The transforming step and the generating step may be repeatedly learned based on an artificial neural network.
상기 모델링 방법은 상기 데이터 입력 단계 전에, 상기 독성 가스의 누출 사고 등으로 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션하는 단계 및 상기 시뮬레이션 데이터를 상기 변수를 이용하여 샘플링하고, 상기 입력 단계가 수행될 수 있도록 상기 시뮬레이션 데이터를 전처리하는 단계를 더 포함할 수 있다,The modeling method may include numerically analyzing and simulating the behavior of the toxic gas before dispersing the toxic gas due to leakage of the toxic gas or the like before the data input step, and sampling the simulation data using the variable. And preprocessing the simulation data so that the input step can be performed.
상기 시뮬레이션 단계는 프로빗 함수에 의해 사망 확률(P death ) 데이터가 계산될 수 있고, 상기 프로빗 함수는 이고, 상기 사망 확률은 으로 나타날 수 있다. 상기 프로빗 함수에서 a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도이다. 상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.In the simulation step, P death data may be calculated by a probit function, and the probit function may be calculated. And the probability of death is May appear. In the probit function, a, b, and n are constants according to the type of the toxic gas, and c is the volumetric concentration of the toxic gas. The variable may include one or more of wind speed, wind direction, release rate of the toxic gas, emission duration, emission point, emission material and temperature.
변환 단계는 상기 입력된 데이터의 특징을 감지하여 추출하는 단계를 포함할 수 있다. 또한, 상기 변환 단계는 상기 입력된 데이터의 추출된 특징을 변수화하는 단계, 상기 변수화된 데이터를 복원하는 단계, 및 상기 입력 데이터와 상기 복원 데이터를 손실 함수를 이용하여 비교하는 단계를 더 포함할 수 있고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론을 수행할 수 있다.The converting step may include detecting and extracting a feature of the input data. The converting step may further include parameterizing an extracted feature of the input data, restoring the variable data, and comparing the input data with the restored data using a loss function. In addition, variable inference may be performed by approximating a normal distribution using the average value of the variable data and the log value of the variance as parameters.
상기 손실 함수는 상기 입력된 데이터와 상기 모델링 장치를 통한 예측 값을 비교할 수 있는 지표로, 상기 손실 함수의 값이 적다면, 상기 예측 값이 정확하다고 판단할 수 있다. 상기 손실 함수는 평균 제곱 오차(Mean squared error), 교차 엔트로피 오차(Cross entropy error) 등을 포함할 수 있다. The loss function is an index for comparing the input data with a prediction value through the modeling apparatus. If the value of the loss function is small, it may be determined that the prediction value is accurate. The loss function may include a mean squared error, a cross entropy error, and the like.
생성 단계는 수개의 레이어를 가진 인공 신경망, 즉 심층 신경망을 기반으로 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 단계를 포함할 수 있고, 상기 변환된 데이터의 분포를 정규화시키는 배치 정규화를 수행하는 단계를 더 포함할 수 있다. 상기 배치 정규화는 배치 단위로 정규화가 진행되는 것으로, 각각의 차원을 독립적으로 보고, 차원마다 정규화가 따로 진행되어 계산이 간편한 장점을 가진다.The generating may include mapping and reconstructing the transformed data into the variable based on an artificial neural network having several layers, that is, a deep neural network, and performing batch normalization to normalize the distribution of the converted data. It may further comprise a step. The batch normalization is a normalization is performed in batch units, and each dimension is independently viewed, and normalization proceeds separately for each dimension, and thus the calculation is easy.
[실시예]EXAMPLE
[FLACS(CFD)를 이용한 독성 가스 릴리스 모델][Toxic Gas Release Model Using FLACS (CFD)]
본 발명의 일 실시예에서는 화염 가속 시뮬레이터(FLACS; Flame Acceleration Simulator)를 가스 분산 전산 유체 역학(CFD; Computational fluid dynamics) 도구로 활용하였다. 사용된 화염 가속 시뮬레이터의 버전은 2015년 7월 27일에 나온 10.4 버전이며 객스콘(Gexcon)에서 개발되었다. 상기 화염 가속 시뮬레이터는 폭발 시뮬레이션을 위해 개발되었으나 가스 분산 및 화재 모델 또한 시뮬레이션할 수 있다.In one embodiment of the present invention, the Flame Acceleration Simulator (FLACS) was used as a gas dispersion computational fluid dynamics (CFD) tool. The version of the flame acceleration simulator used was version 10.4, released on July 27, 2015, and was developed by Gexcon. The flame acceleration simulator was developed for explosion simulation but can also simulate gas dispersion and fire models.
도 1은 본 발명의 일 실시예에 따른 울산 미포 단지의 형상을 나타낸다. 한국의 울산 미포 단지는 인근에 거주지 뿐만 아니라 많은 산업 공장이 있다. 따라서, 이 지역은 가스 누출 사고 뿐만 아니라 그러한 사고로 인해 상당한 피해를 줄 높은 잠재성을 가진다. 그러므로 가상 가스 누출 사고 현장으로 선정되었다. Figure 1 shows the shape of the Ulsan Mipo complex according to an embodiment of the present invention. Ulsan Mipo Complex in Korea has many industrial factories as well as residences nearby. Thus, this area has a high potential to cause significant damage as well as gas leakage incidents. Therefore, it was selected as the site of the virtual gas leak accident.
도 1을 참조하면, (a)는 울산 미포 단지의 기하학적 모습이고, (b)와 (c)는 각각 화염 가속 시뮬레이터에서의 캐드(CAD) 이미지의 평면도 및 3D 뷰이다. (a)는 수천 개의 건물이 있는 평평한 지형이 가정되었다. 전체 영역의 크기는 x방향으로 약 4,000m, y방향으로 3,000m, z방향 지면에서 약 80m 이다. 500 이상의 시뮬레이션 데이터 포인트가 필요하므로, 계산 비용을 줄이기 위해 20m×20m×20m의 균일한 격자 해상도가 사용되었다.Referring to FIG. 1, (a) is a geometric figure of Ulsan Mipo complex, and (b) and (c) are plan and 3D views of CAD images in a flame acceleration simulator, respectively. (a) assumes a flat terrain with thousands of buildings. The size of the whole area is about 4,000 m in the x direction, 3,000 m in the y direction, and about 80 m on the ground in the z direction. Since more than 500 simulation data points were required, a uniform grid resolution of 20m × 20m × 20m was used to reduce the computational cost.
이 지역에서는 대량의 액화 염소가 산업적 목적으로 사용되므로, 상기 염소가 가상 방출 시나리오의 재료로 선택되었다. 구별되는 시뮬레이션 샘플을 생성하기 위해 세 가지 주요 변수가 특정 경계 내에서 무작위로 선택되었다. 풍향은 0~2π, 풍속은 0.5~5m/s, 방출률은 10~100kg/s 범위에서 선택되었다. 방출 지속 시간(60초), 방출 지점, 방출 물질 및 온도(20℃)를 포함한 기타 모든 변수들은 고정되었다. 모든 경우의 전체 시뮬레이션 시간은 1000초로 설정되었다. 시뮬레이션 조건은 표 1에 요약되어 있다.Since large quantities of liquefied chlorine are used in this area for industrial purposes, the chlorine was chosen as the material for the hypothetical release scenario. Three key variables were randomly selected within certain boundaries to generate distinct simulation samples. Wind direction was selected from 0 to 2π, wind speed from 0.5 to 5m / s and emission rate from 10 to 100kg / s. All other variables were fixed, including the duration of release (60 seconds), the point of release, the release material and the temperature (20 ° C.). The total simulation time in all cases was set to 1000 seconds. Simulation conditions are summarized in Table 1.
화염 가속 시뮬레이터는 질량, 에너지 및 운동량에 대한 보존 방정식을 사용하여 압축성 유체 흐름을 계산할 수 있다. 상기 화염 가속 시뮬레이터는 비균일 데카르트 메쉬(Cartesian mesh)에서 k-ε 난류 모델을 기반으로, 전산 유체 역학에서 널리 사용되는 3차원 레이놀즈 평균 나이버-스톡스(Naiver-Stokes)(3D RANS)방정식을 해결할 수 있다. 상기 k-ε 모델은 난류 운동 에너지 방정식의 난류 운동 에너지 전달 및 소멸을 갖는 와류 점도 모델(eddy viscosity model)이다. 특히, 상기 화염 가속 시뮬레이터는 유체 흐름에서 서브 그리드(sub-grid)보다 더 작은 장애물 효과를 효율적으로 계산하기 위해 분산된 다공성 개념을 사용할 수 있다. 이 접근법은 작은 장애물을 고려할 뿐만 아니라 계산 비용도 줄일 수 있다. 본 발명의 일 실시예에서는 상기 압축성 유체 흐름에 대한 지배 방정식(governing equations)인 질량 및 운동량 보존 방정식이 사용될 수 있다. 상기 질량 보존 방정식은 다음 식 (1)과 같다.The flame acceleration simulator can calculate compressive fluid flow using conservation equations for mass, energy and momentum. The flame acceleration simulator solves the three-dimensional Reynolds mean Naver-Stokes (3D RANS) equation widely used in computational fluid dynamics, based on a k-ε turbulence model in a non-uniform Cartesian mesh. Can be. The k-ε model is an eddy viscosity model with turbulent kinetic energy transfer and dissipation of the turbulent kinetic energy equation. In particular, the flame acceleration simulator can use a distributed porosity concept to efficiently calculate smaller obstacle effects than sub-grids in fluid flow. This approach not only considers small hurdles but also reduces computational costs. In one embodiment of the present invention, mass and momentum conservation equations, which are governing equations for the compressible fluid flow, may be used. The mass conservation equation is represented by the following equation (1).
(1) (One)
여기서 β v 는 체적 공극률(volume porosity), β j 는 j 방향에서의 면적 공극률(area porosity)를 나타낸다. j 는 직교 좌표 x, y 및 z 에 의해 결정되는 임의의 방향이다. 상기 운동량 보존 방정식은 다음과 같이 쓸 수 있다.Wherein β v represents volume porosity and β j represents area porosity in the j direction. j is any direction determined by Cartesian coordinates x, y and z. The momentum conservation equation can be written as
(2) (2)
여기서 F o,i 는 서브 그리드 장애물에 의해 생성된 유동 저항이고, F w,i 는 벽에 의해 생성된 유동 저항이며, σ ij 는 응력 텐서(stress tensor)이다. 여기서 F o,i 와 σ ij 는 다음과 같이 정의된다.Where F o, i is the flow resistance generated by the subgrid obstacle, and F w, i Is the flow resistance produced by the wall, and σ ij is the stress tensor. Where F o, i and σ ij are defined as
(3) (3)
(4) (4)
여기서 μ eff 는 다음과 같이 정의되는 유효 점도이다.Where μ eff is the effective viscosity defined as
(5) (5)
여기서 k 는 난류 운동 에너지이고 ε는 그것의 소산(dissipation)이다. 두 번째 항은 난류 점도 또는 와류 점도이다.Where k is the turbulent kinetic energy and ε is its dissipation. The second term is turbulent viscosity or vortex viscosity.
염소는 독성이 매우 강한 물질이다. 독성 가스에 노출될 위험을 평가하는데 사용될 수 있는 여러 지표가 있다. 이 중 급성 노출 지침 레벨(AEGLs), 응급 대응 계획 지침(ERPGs) 및 임시 응급 노출 제한(TEELs) 등이 사용될 수 있다. 게다가, 프로빗(probit) 함수를 사용하여 사망 확률(P death )을 정량적으로 계산할 수 있다. 상기 프로빗 함수를 사용하는 방법의 방정식은 다음과 같다.Chlorine is a very toxic substance. There are several indicators that can be used to assess the risk of exposure to toxic gases. Among them, acute exposure guidance levels (AEGLs), emergency response plan guidelines (ERPGs), and temporary emergency exposure limits (TEELs) can be used. In addition, a probit function can be used to quantitatively calculate the probability of death ( P death ). The equation of the method using the probit function is as follows.
(6) (6)
(7) (7)
여기서 Pr 은 프로빗이고, c 는 부피별 농도(ppm 단위)이며, a, b, n 은 상수이다. 염소의 경우, a 는 -0.829, b 는 0.92, n 은 2 이다. 본 실시예에서 상기 프로빗 값은 누출이 시작된 후 최대 10분까지 적분된다. 사전 시뮬레이션 단계에서, 독성 가스는 약 10분 동안 주거 지역으로 유입되었기 때문에 10분이 골든 타임으로 간주될 수 있다.Where Pr is the probit, c is the volume-specific concentration in ppm, and a, b, and n are constants. In the case of chlorine, a is -0.829, b is 0.92, n is 2. In this example, the probit value is integrated up to 10 minutes after the onset of leakage. In the pre-simulation phase, 10 minutes can be considered golden time because toxic gases have been introduced into the residential area for about 10 minutes.
화염 가속 시뮬레이터는 유한 체적법을 이용하여 3D 데카르트 격자의 각 셀에 대한 보존 방정식을 풀 수 있다. 상기 화염 가속 시뮬레이터에서 사용되는 수치 시간 단계 알고리즘은 1차 백워드 오일러 음해법(Implicit first-order backward Euler method)을 기반으로 한다. 과도상태(transient) 시뮬레이션의 시간 단계는 솔루션이 제 시간에 원활하고 안정적으로 전개되도록 설정될 수 있다. 쿠란트-프리드리히-레위(Courant-Friedrich-Levy, CFL)수는 상기 화염 가속 시뮬레이터의 압축성 솔버(solver)에서 안정적인 솔루션을 산출하는 최대 시간 단계에 대한 솔버 고유 기준을 제공할 수 있다. CFLV와 CFLC의 두 CFL수는 최대 시간 단계를 결정하기 위해 사용될 수 있다. 상기 CFLV는 유체 속도를 기반으로 하는 반면, 상기 CFLC는 음속을 기반으로 한다. 전산 유체 역학 솔버는 CFLV 와 CFLC 사이의 최소값을 선택할 수 있다.The flame acceleration simulator can solve the conservation equations for each cell of the 3D Cartesian grid using finite volume method. The numerical time step algorithm used in the flame acceleration simulator is based on the implicit first-order backward Euler method. The time step of the transient simulation can be set so that the solution develops smoothly and reliably in time. The Courant-Friedrich-Levy (CFL) number can provide a solver-specific criterion for the maximum time step that yields a stable solution in the compressible solver of the flame acceleration simulator. Two CFL numbers, CFLV and CFLC, can be used to determine the maximum time step. The CFLV is based on fluid velocity, while the CFLC is based on sound velocity. The computational fluid dynamics solver can select the minimum value between CFLV and CFLC.
(8) (8)
(9) (9)
(10) 10
여기서 Δx i 는 i 방향의 셀 길이를 나타내고 Δt 는 시간 단계를 나타낸다. 본 발명의 실시예에서 CFLV는 1.0으로, CFLC는 10으로 분산 시뮬레이션에서 일반적인 값으로 고정되었다. 각 시뮬레이션은 12개의 CPU 스레드를 가진 병렬 컴퓨터에 의해 수행된다. 상기 실시예에 사용된 컴퓨터는 24-코어 인텔 엑손(Intel Xeon) E5-2697v2(2.7GHz) 프로세서와 256GB DDR3 램을 가진다.Where Δx i represents the cell length in the i direction and Δt represents the time step. In the embodiment of the present invention, CFLV is set to 1.0, and CFLC is set to 10, which is a general value in the dispersion simulation. Each simulation is performed by a parallel computer with 12 CPU threads. The computer used in this embodiment has a 24-core Intel Xeon E5-2697v2 (2.7GHz) processor and 256GB DDR3 RAM.
[신경망을 이용한 모델링][Modeling Using Neural Networks]
도 2는 본 발명의 일 실시예에 따른 데이터 샘플링 및 전처리의 흐름도를 나타낸다. 신경망(Neural Network,NN)을 사용한 대리 모델(surrogate model)을 생성하기 위해서 수백가지 샘플 데이터 포인트가 훈련을 위해 요구된다. 그러나 많은 양의 데이터를 수동으로 수집하는 것은 비용이 많이 들기에, 자동화된 프로세스가 상기 데이터를 생성하기 위해 사용될 수 있다. 이것은 화염 가속 시뮬레이터와 파이썬 코드(Python code)의 연결에 의해 수행될 수 있다. 또한, 대리 모델 훈련에서 화염 가속 시뮬레이터로부터 얻은 결과를 직접 사용하는 것은 어렵다. 따라서 전처리가 필요하다.2 shows a flow diagram of data sampling and preprocessing according to one embodiment of the invention. Hundreds of sample data points are required for training to create a surrogate model using Neural Networks (NN). However, collecting large amounts of data manually is expensive, so an automated process can be used to generate the data. This can be done by linking the Flame Acceleration Simulator with Python code. It is also difficult to directly use the results obtained from the flame acceleration simulator in surrogate model training. Therefore, pretreatment is necessary.
도 2를 참조하면, 처음에는 각 샘플에 적용된 입력 변수 중 세 가지 변수, 예를 들어, 풍속, 풍향 및 방출률이 특정 범위 내에서 무작위로 선택된다. 상기 선택된 변수를 이용하면, CS(시나리오) 및 CL(누출) 파일들이 생성된다. 화염 가속 시뮬레이터 계산을 시작하려면, CS(시나리오), CL(누출), CO(지오메트리), CG(격자) 및 CP(공극률) 파일이 필요하다. 그 중 시뮬레이션이 단일 지오메트리(single geometry)로 수행되기 때문에 상기 CO, 상기 CG 및 상기 CP 파일은 고정된다. 상기 CS 및 상기 CL 파일의 변수만 변경되어 각 샘플에 대한 상기 파일이 생성된다. 상기 화염 가속 시뮬레이터 시뮬레이션이 완료되면, 결과인 r3 파일(바이너리 형식)이 화염 가속 시뮬레이터 유틸리티를 사용하여 a3 파일(ASCII 형식)로 변환될 수 있다. 이렇게 얻어진 결과는 4차원 데이터(x, y, z 및 시간)이다. 그 후, Pdeath는 최대 10분까지 적분하여 계산된다. 인구에 직접적으로 영향을 미치는 높이, z = 2m 지점의 데이터만이 축소된 3D 데이터로부터 추출되어 2D 데이터(150 × 200)로 되며, 이는 x 및 y 좌표에 해당하는 Pdeath 값이다. 이에 따라 550 개의 샘플이 생성될 수 있다.Referring to FIG. 2, initially three of the input variables applied to each sample, for example, wind speed, wind direction, and emission rate, are randomly selected within a specific range. Using the selected variable, CS (scenario) and CL (leak) files are created. To start calculating the flame acceleration simulator, you need CS (scenario), CL (leak), CO (geometric), CG (lattice), and CP (porosity) files. Among them, the CO, the CG and the CP file are fixed because the simulation is performed with a single geometry. Only variables of the CS and CL files are changed to generate the file for each sample. When the flame acceleration simulator simulation is completed, the resulting r3 file (binary format) can be converted into an a3 file (ASCII format) using the flame acceleration simulator utility. The result thus obtained is four-dimensional data (x, y, z and time). Then P death is calculated by integrating up to 10 minutes. Only data at height, z = 2m, which directly affects the population is extracted from the reduced 3D data to be 2D data (150 × 200), which is the P death value corresponding to the x and y coordinates. Accordingly, 550 samples may be generated.
주성분 분석(Principal Component Analysis, PCA) 및 심층 오토인코더(Deep Autoencoder,DAE)는 반응기 모델링, 가스 분산 모델링, 및 공정 데이터 모니터링과 같은 화학 공학 문제에 대한 감소 차수 모델에서 데이터 감소 및 특징 추출을 위해 사용될 수 있다. 상기 주성분 분석은 특정 경우에 선형 상관 데이터를 효과적으로 감소시킬 수 있고, 비선형 차원 감소 또는 매니폴드 학습을 위한 커널-주성분 분석(kernel-PCA)과 같은 여러 응용 프로그램을 포함할 수 있지만, 상기 심층 오토인코더는 상기 주성분 분석 및 쉘로우(shallow) 오토인코더와 비교하여 비선형 데이터 감소에서 더 우수한 성능을 나타내므로 대리 모델을 설계할 때 유용하게 사용될 수 있다. 따라서 상기 주성분 분석의 장점을 유지하면서 상기 오토인코더를 사용하여 데이터 감소 성능을 향상시킬 수 있다. 게다가, 상기 오토인코더는 잠재적 변수 모델과의 이론적인 관계로 인해 생성 모델에 적용될 수 있다. 이는 결정론적이고 엄격한 데이터뿐만 아니라 추상적이고 확률론적 데이터도 이해될 수 있고 그 특징이 효율적으로 추출될 수 있음을 의미한다. Principal Component Analysis (PCA) and Deep Autoencoder (DAE) can be used for data reduction and feature extraction in reduced order models for chemical engineering problems such as reactor modeling, gas dispersion modeling, and process data monitoring. Can be. The principal component analysis can effectively reduce linear correlation data in certain cases, and may include several applications such as kernel-PCA for nonlinear dimensional reduction or manifold learning, but the deep autoencoder Compared to the Principal Component Analysis and Shallow autoencoder, it shows better performance in nonlinear data reduction and can be useful when designing surrogate models. Therefore, the data reduction performance can be improved by using the autoencoder while maintaining the advantages of the principal component analysis. In addition, the autoencoder can be applied to a generation model due to a theoretical relationship with the latent variable model. This means that not only deterministic and rigorous data but also abstract and probabilistic data can be understood and its features can be extracted efficiently.
전산 유체 역학 가스 분산 모델에서 생성된 Pdeath 이미지는 건물, 산, 하천 등의 복잡한 기하학적 요인으로 인해 매우 비선형적이기에, 상기 모델로부터 특징을 추출하는 것은 상당히 어렵다. 따라서 베리에이셔널 오토인코더(Variational Autoencoder, VAE)에 기반한 대리 모델은 잠재 변수에 대한 우선 순위를 중심의 등방성 다변량 가우시안(N(z;0,1))에 두게 하는 베리에이셔널 베이즈(variational Bayes)에 의해 확률적 인코더(q φ (z|x))와 생성기로서 확률적 디코더(p θ (x|z))를 이용하여 출력 이미지 데이터 를 잠재 공간 으로 압축하기 위해 도입될 수 있고, 여기서 NZ 는 잠재 변수의 수이다. 마지막으로, 잠재 공간 z는 v로만 이미지를 재구성하기 위해 가변 공간 에 의해 맵핑될 수 있다.Since the P death image generated in the computational fluid dynamics gas dispersion model is very nonlinear due to complex geometrical factors such as buildings, mountains, rivers, etc., it is quite difficult to extract features from the model. Thus, a surrogate model based on Variational Autoencoder (VAE) puts Variation Bayes, which puts priorities for latent variables in the central isotropic multivariate Gaussian (N (z; 0,1)). output image data using a stochastic encoder ( q φ (z | x)) and a stochastic decoder ( p θ (x | z)) as a generator by variational Bayes Latent space Can be introduced, where N Z is the number of latent variables. Finally, latent space z is a variable space to reconstruct the image with only v Can be mapped by
화염 가속 시뮬레이터에 의해 채택된 전산 유체 역학 가스 방출 모델 f(v)의 대리 모델 f * (v)을 개발하기 위해, 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(Variational Autoencoder with Deep Convolutional layer, VAEDC)와 배치 정규화(Batch Normalization, BN) 레이어가 수반된 완전 연결된 심층 신경망(Deep Neural Network, DNN)이 사용될 수 있다. 기존의 전산 유체 역학 모델과 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 - 심층 신경망(VAEDC-DNN) 대리 모델의 입력은 , 즉 풍속(m/s), 풍향(rad) 및 가스 방출률(kg/s)로 표현될 수 있다. 상기 모델의 출력은 로 표현되고, 이는 Pdeath의 등고선 이미지이다. 따라서 이 문제는 고성능, 최소 평균 제곱 오차의, f(v)의 사전 계산된 데이터 세트를 이용한 기존 전산 유체 역학 모델 의 대리 모델 을 개발하는 것으로 정의될 수 있다.In order to develop a surrogate model f * (v) of the computational fluid dynamics gas emission model f (v) adopted by the flame acceleration simulator, a Variantional Autoencoder with Deep Convolutional layer, VAEDC) and a fully connected deep neural network (DNN) with a batch normalization (BN) layer may be used. The input of the conventional computational fluid dynamics model and the variational auto-encoder-depth neural network (VAEDC-DNN) surrogate model with the deep convolution layer , Wind speed (m / s), wind direction (rad) and gas emission rate (kg / s). The output of the model This is the contour image of P death . Therefore, this problem can be solved by conventional computational fluid dynamics models using a high-performance, least mean square error, f (v) precomputed data set. Surrogate model It can be defined as developing.
500개의 데이터 포인트는 훈련 세트(vtrain, xtrain) 및 유효성 검증 세트 (vvalidation, xvalidation)로 사용될 수 있다. 400개의 샘플은 500개의 샘플에서 무작위로 추출되어 훈련 세트로 사용되었고, 100개의 샘플은 추출되어 유효성 검증 세트로 사용되었다. 50개 데이터 포인트는 의 생성된 이미지 데이터와 xtest의 사이의 최종 메트릭(평균 제곱 오차)을 테스트(vtest, xtest)하기 위해 사용되었다.500 data points can be used as a training set (v train , x train ) and a validation set (v validation , x validation ). 400 samples were randomly extracted from 500 samples and used as training sets, and 100 samples were extracted and used as validation sets. 50 data points It was used to test (v test , x test ) the final metric (mean squared error) between the generated image data of and x test .
본 발명의 일 실시예에 따른 대리 모델인 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 - 심층 신경망(VAEDC-DNN)은 두 부분으로 구성될 수 있다. 첫 번째 부분은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용하는 인코더 및 디코더로 구성될 수 있다. 두 번째 부분은 심층 신경망을 사용하여 가변 공간(v)을 잠재 공간(z)에 매핑할 수 있다. 상기 두 단계 방법은 상기 대리 모델이 변수(v)에 대해 Pdeath 이미지(x)를 효과적으로 회귀시키는 것을 가능하게 한다.A variant auto-encoder-deep neural network (VAEDC-DNN) having a deep convolutional layer, which is a surrogate model according to an embodiment of the present invention, may be composed of two parts. The first part can consist of an encoder and decoder using a variational autoencoder with a deep convolutional layer. The second part uses a deep neural network to map the variable space v to the latent space z. The two step method enables the surrogate model to effectively regress the P death image (x) for the variable (v).
도 3은 본 발명의 일 실시예에 따른 대리 모델의 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)의 구조를 나타낸다.3 illustrates a structure of a variational auto encoder (VAEDC) having a deep convolutional layer of a surrogate model according to an embodiment of the present invention.
도 3을 참조하면, (3,3)의 커널 크기, 1의 스트라이드(stride), He 초기화, ReLU(Rectified Linear Unit) 활성 함수 및 동일 차원의 패딩을 갖는 3개의 컨볼루션 레이어가 사용된다. 각 컨볼루션 레이어 다음에, (2,2) 필터와 스트라이드 2의 맥스 풀링 레이어는 차원 감소에 사용된다. 결과적으로 152×200의 입력 레이어 차원은 이미지의 너비와 높이의 1/8인 19×25로 감소된다. 그런 다음, 19×25×8(필터 수) 레이어는 상기 ReLU 활성 함수를 가진 3800-128-64의 완전 연결된 밀도 레이어를 구성하기 위해 1×3800 벡터로 재형성된다. 평행한 μ와 log(σ2) 레이어는 각각 잠재 변수의 평균과 분산의 로그를 나타낸다. 따라서, μ 레이어, log(σ2) 레이어 및 z 레이어의 차원은 1×NZ 이고, NZ는 잠재 변수의 수이다. 인코딩 프로세스가 완료된 후, 상기 인코딩 프로세스의 역인 디코딩 프로세스가 시작된다. 마지막으로, 베리에이셔널 하한에 의해 표현되는 손실 함수는 베리에이셔널 레이어에서 xtrain 과 을 사용하여 계산된다.Referring to FIG. 3, three convolutional layers with a kernel size of (3, 3), a stride of 1, a He initialization, a Rectified Linear Unit (ReLU) activation function, and padding of the same dimension are used. After each convolution layer, the (2,2) filter and
도 4는 본 발명의 일 실시예에 따른 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)로부터의 잠재 공간과 가변 공간을 매핑하기 위한 상세한 심층 신경망(DNN) 구성을 나타낸다.4 illustrates a detailed deep neural network (DNN) configuration for mapping latent space and variable space from a variational autoencoder (VAEDC) having a deep convolutional layer in accordance with an embodiment of the present invention.
도 4를 참조하면, 배치 정규화, ReLU 활성 함수, 및 He 초기화를 가진 5 레이어의 완전 연결된 심층 신경망은 가변 공간을 잠재 공간으로 매핑하는데 사용될 수 있다. 훈련 단계(Training Phase)에서, 네트워크는 400개의 리샘플링 훈련 세트(xtrain', vtrain')와 100개의 유효성 검증 세트(xvalidation',vvalidation')를 사용하여 훈련될 수 있다. 출력으로 설계된 잠재 변수의 평균은 이미 훈련된 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더의 인코더 부분을 사용하여 추출될 수 있다. 일대일 대응으로 매핑된 변수 세트 vtrain'은 입력으로 사용되었다. 마지막으로, 생성 단계에서 모델은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더와 심층 신경망 모두에서 훈련 또는 유효성 검증 세트로 사용되지 않았던 테스트 세트를 사용한다. xtest는 vtest와 훈련된 심층 신경망에 의해 예측되고, 는 훈련된 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더의 디코더에 의해 생성될 수 있다. 성능은 와 xtest 사이의 평균 제곱 오차를 비교함으로써 평가될 수 있다.Referring to FIG. 4, a five layer fully connected deep neural network with batch normalization, ReLU activation function, and He initialization can be used to map variable space to latent space. In the training phase, the network may be trained using 400 resampling training sets (x train ' , v train' ) and 100 validation sets (x validation ' , v validation' ). The mean of the latent variables designed as the output can be extracted using the encoder portion of the variational autoencoder with a deep convolutional layer already trained. The variable set v train ' , mapped in a one-to-one correspondence, was used as input. Finally, in the generation phase, the model uses a set of tests that were not used as a training or validation set in both the variational autoencoder with the deep convolutional layer and the deep neural network. x test is predicted by v test and trained deep neural networks, May be generated by a decoder of a variational autoencoder having a trained deep convolutional layer. Performance Can be evaluated by comparing the mean squared error between and x test .
손실 함수는 효율적인 오토인코더를 구성하기 위한 가장 중요한 설정 중 하나이다. 본 발명의 일 실시예에서, 주변 우도(marginal likelihood)에 대한 베리에이셔널 하한이 사용될 수 있다. 상기 하한은 다음 방정식에 의해 주어질 수 있다.The loss function is one of the most important settings for configuring an efficient autoencoder. In one embodiment of the invention, a variation lower bound for marginal likelihood may be used. The lower limit can be given by the following equation.
(11) (11)
여기서 D KL 은 쿨백-라이블러 발산(Kullback-Leibler divergence)을 나타내고, p θ (x│z)는 생성 매개 변수θ를 갖는 확률적 디코더 및 q φ (z|x)는 변동 매개 변수φ를 갖는 확률적 인코더이다. Where D KL represents the Kullback-Leibler divergence, p θ (x│z) is a stochastic decoder with generation parameter θ and q φ (z | x) has variation parameter φ Probabilistic encoder.
훈련은 상기 변동 매개 변수φ와 상기 생성 매개 변수θ를 통해 데이터 포인트i 의 주변 우도에 대한 베리에이셔널 하한을 최대화하는 것으로 구성될 수 있다. 신경망 프레임워크에서 이 통계적 접근법을 사용하기 위해, 상기 손실 함수는 최대화 문제에서 최소화 문제로의 전환을 위한 로 정의된다. 또한, q φ (z|x)로부터 샘플을 생성하고 근사 사후의 평균(μ) 및 표준 편차(σ)를 갖는 대각 공분산 구조의 다변량 가우시안으로서 φ를 재매개변수화하기 위해, 다음 식이 샘플링에 적용된다.The training may consist of maximizing the variation lower limit for the peripheral likelihood of the data point i via the variation parameter φ and the generation parameter θ . To use this statistical approach in the neural network framework, the loss function is used to convert from the maximization problem to the minimization problem. Is defined as In addition, to generate a sample from q φ (z | x) and to reparameterize φ as a multivariate Gaussian of a diagonal covariance structure with approximate post mean ( μ ) and standard deviation ( σ ), the following equation is applied to the sampling: .
(12) (12)
이 샘플링은 도 3의 μ 와 log(σ2) 레이어 뒤에 위치된 z 레이어에서 수행될 수 있다. KL 발산은 추정 없이 계산 및 차별화될 수 있고, 상기 식(11)의 베리에이셔널 하한의 두번째 항은 이진 크로스엔트로피(binary crossentropy) 손실 함수로서 취급될 수 있다. 마지막으로 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더와 데이터 포인트 x (i) 에 대해 제안된 손실 함수는 다음과 같다.This sampling may be performed on the z layer located behind the μ and log (σ 2 ) layers of FIG. 3. KL divergence can be calculated and differentiated without estimation, and the second term of the lower variation of Equation (11) can be treated as a binary crossentropy loss function. Finally, a variational autoencoder with a deep convolution layer and data point x (i) The loss function proposed for
(13) (13)
대리 모델의 성능을 정확하게 평가하는 것은 매우 중요하다. 상기 대리 모델의 목적은 단순히 이미지 데이터를 인코딩 및 디코딩하거나 가변 공간을 잠재 공간으로 매핑하는 대신, 상기 가변 공간을 이용하여 Pdeath 이미지를 정확하게 예측하는 것이다. 따라서, 상기 잠재 공간이 상기 Pdeath 이미지를 나타내는 특징을 정확하게 반영하는지 및 상기 가변 공간과 생성된 이미지 데이터가 일대일 대응인지 여부를 결정할 필요가 있다. 즉, 상기 이미지 데이터가 단순히 잠재 공간에 기억되거나 또는 과적합(overfitting)되지 않도록 보장되어야 한다. 따라서 상기 대리 모델의 성능은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 및 심층 신경망의 각 손실 함수에 의해 평가되는 것이 아니라 와 xtest 사이의 평균 제곱 오차를 이용하고, 이 테스트 세트는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 및 심층 신경망 모두에서 훈련 또는 유효성 검증 세트로 사용되지 않은 것이다.It is very important to accurately evaluate the performance of the surrogate model. The purpose of the surrogate model is to accurately predict the P death image using the variable space instead of simply encoding and decoding the image data or mapping the variable space to the latent space. Therefore, it is necessary to determine whether the latent space accurately reflects the features representing the P death image and whether the variable space and the generated image data correspond one-to-one. That is, it should be ensured that the image data is not simply stored in the latent space or overfitting. Therefore, the performance of the surrogate model is not evaluated by the angular loss function of the variational autoencoder with the deep convolutional layer and the deep neural network. Using the mean squared error between and x test , this test set was not used as a training or validation set in both a variational autoencoder and a deep neural network with deep convolutional layers.
도 5는 본 발명의 일 실시예에 따른 대리 모델과 다른 유형의 대리 모델의 성능을 비교한 것을 나타낸다.5 shows a comparison between the performance of a surrogate model and another type of surrogate model according to an embodiment of the present invention.
도 5를 참조하면, 오토인코더 신경망 기반의 대리 모델의 다른 유형과의 모델 성능 비교를 위해, 오토인코더 없이 하나의 히든 레이어를 가진 신경망(NN), 오토인코더 없이 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 신경망 및 심층 신경망(DAE-NN, DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 신경망 및 심층 신경망(DCAE-NN, DCAE-DNN), 단순 베리에이셔널 오토인코더를 이용한 심층 신경망(VAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)이 동일한 하이퍼 매개 변수(hyperparameter)를 사용하여 비교될 수 있다. Referring to FIG. 5, in order to compare model performance with other types of surrogate models based on an autoencoder neural network, a neural network (NN) with one hidden layer without an autoencoder, three hidden layers without an autoencoder, and batch normalization are used. Deep Neural Network (DNN), Neural Network with Simple Auto Encoder (AE-NN), Neural Network with Deep Auto Encoder and Deep Neural Network (DAE-NN, DAE-DNN), Neural Network with Deep Convolution Auto Encoder (DCAE) NN, DCAE-DNN), deep neural network (VAE-DNN) using simple variant autoencoder and deep neural network (VAEDC-DNN) using variant autoencoder with deep convolution layer It can be compared using a hyperparameter.
모델을 공정하게 비교하기 위해 오토인코더 및 신경망의 에포크(epoch) 수는 1,500으로 설정되었고, 모든 모델에서 잠재 공간(NZ)의 크기는 32로 설정되었다. 가변 공간(NV)의 크기는 3, 즉 풍속(m/s), 풍향(rad) 및 방출률(kg/s)로 설정되었다. 아담 최적화기(Adam optimizer)는 손실 함수를 최적화하기위해 사용될 수 있다. 모든 모델은 텐서플로우 백엔드(Tensorflow backend)가 있는 파이썬(Python) 딥 러닝 라이브러리 케라스(Keras)를 사용하여 코드화되었다. 훈련은 8GB GDDR5가 장착된 NVDIA GeForce GTX 1070을 사용하여 수행되었다.In order to compare the models fairly, the epoch number of autoencoder and neural network was set to 1,500, and the size of latent space (N Z ) was set to 32 in all models. The size of the variable space N V was set to 3, ie wind speed (m / s), wind direction (rad) and emission rate (kg / s). Adam optimizer (Adam optimizer) may be used to optimize the loss function. All models were coded using the Python deep learning library Keras with the Tensorflow backend. Training was performed using NVDIA GeForce GTX 1070 with 8GB GDDR5.
[결과][result]
도 6은 에포크에 대한 다양한 대리 모델의 손실 함수 그래프를 비교한 것을 나타낸다. 6 shows a comparison of loss function graphs of various surrogate models for epochs.
도 6을 참조하면, 오토인코더 없이 하나의 히든 레이어를 가진 신경망(NN), 오토인코더 없이 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 신경망 및 심층 신경망(DAE-NN, DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 신경망 및 심층 신경망(DCAE-NN, DCAE-DNN), 단순 베리에이셔널 오토인코더를 이용한 심층 신경망(VAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN) 모델의 다양한 훈련 측면이 에포크에 대한 각 손실 함수의 변화를 통해 조사될 수 있다. 모든 훈련을 위한 최대 에포크는 1500으로 설정된다. 이 수가 맞지 않으면, 훈련은 적합하지 않거나 과적합이 될 수 있다. 이것은 유효성 검증 세트의 손실 함수와 테스트 세트의 손실 함수를 비교하여 결정될 수 있다. 1500은 시행 착오를 통해 설정되므로 전체 훈련 프로세서는 모든 모델에 대해 적합하다고 간주될 수 있다.Referring to FIG. 6, a neural network (NN) having one hidden layer without an autoencoder, three hidden layers without an autoencoder, a deep neural network (DNN) using batch normalization, a neural network using a simple autoencoder (AE-NN), Neural and deep neural networks with deep autoencoder (DAE-NN, DAE-DNN), neural and deep neural networks with deep convolutional autoencoder (DCAE-NN, DCAE-DNN), deep with simple variational autoencoder Various training aspects of the deep neural network (VAEDC-DNN) model using a variational autoencoder with a neural network (VAE-DNN) and a deep convolutional layer can be investigated through the change of each loss function for the epoch. The maximum epoch for all trainings is set to 1500. If this number is not correct, training may be inappropriate or overfitting. This can be determined by comparing the loss function of the validation set with the loss function of the test set. Since 1500 is set by trial and error, the entire training processor can be considered suitable for all models.
신경망(NN)의 경우, 상당히 불안정한 훈련 프로세스는 에포크가 70 이상으로 높아짐에 따라 발현된다. 완전히 연결된 고밀도 히든 레이어에서 상당히 낮은 차원으로부터 더 높은 차원의 예측은 매개 변수의 수(30,434,400)가 과도하게 크고 부가적인 정규화 프로세스가 추가되지 않기 때문에 불안정한 훈련 프로세스를 초래한다. 그러나 그것은 에포크가 800을 초과할 때까지 프로세스가 어느 정도 안정화되는 것처럼 보이기 때문에 비교를 위해 사용될 수 있다. In the case of neural networks (NN), a fairly unstable training process is manifested as the epochs are elevated above 70. Higher dimension prediction from significantly lower dimensions in a fully connected high density hidden layer results in an unstable training process because the number of parameters (30,434,400) is excessively large and no additional normalization process is added. However, it can be used for comparison because the process appears to stabilize to some extent until the epoch exceeds 800.
심층 네트워크의 기울기 값의 소멸 문제(vanishing gradient problem)를 완화하기 위해 각 레이어 후에 적용되는 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN)을 고려하면, 훈련 프로세서는 과적합없이 보다 안정적이며 빠른 수렴을 보여줄 수 있다. Considering three hidden layers applied after each layer and a deep neural network (DNN) using batch normalization to mitigate the vanishing gradient problem of deep networks, the training processor is more stable and faster without overfitting. Can show convergence
단순 오토인코더를 이용한 신경망(AE-NN)과 관련하여 오토인코더 부분과 신경망 또는 심층 신경망 부분은 별도로 고려될 수 있다. 청색 선으로 표시되는 오토인코더 훈련 프로세서에서는 심층 오토인코더의 경우에만 에포크 100 이후 과적합이 약간 발생한다. 그러나 오토인코더, 심층 컨볼루션 오토인코더, 베리에이셔널 오토인코더 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더에서는 훈련 종료시 손실 함수 값이 적절하다. 빨간색 선으로 표시된 신경망은 오토인코더가 없는 신경망과 달리 매우 안정적인 훈련 프로세서를 보여준다. 게다가, 훈련 오류 및 유효성 검사 오류 간에는 차이가 없다. 따라서 과적합이 없다. With respect to the neural network (AE-NN) using a simple autoencoder, the autoencoder portion and the neural network or the deep neural network portion may be considered separately. In the auto-encoder training processor, which is indicated by a blue line, there is a slight overfit after
심층 신경망의 경우, 후반에는 약간의 진동이 있다. 그럼에도 불구하고 단조롭게 감소하는 훈련 프로세서를 나타내기 때문에 잘 훈련된 것처럼 보이고, 유효성 검증 오류 및 테스트 오류간에 거의 차이가 없다. 그러나, 훈련 오류와 비교하여 더 낮은 유효성 검증 오류가 나타나는 것은 임의로 추출된 유효성 검증 세트, xvalidation' 및 vvalidation' 가 예측 가능한 서브 세트를 포함하기 때문이다.In the case of deep neural networks, there is some vibration in the second half. Nevertheless, it appears to be well trained because it exhibits a monotonically decreasing training processor, and there is little difference between validation error and test error. However, the lower validation error appears in comparison with the training error because the randomized validation set, x validation ' and v validation' contains a predictable subset.
도 7은 본 발명의 일 실시예에 따라 추출된 테스트 데이터 세트의 평균 제곱 오차를 나타낸다.7 illustrates the mean squared error of the extracted test data set according to an embodiment of the present invention.
도 7을 참조하면, 새로 추출된 50개의 테스트 데이터 세트(xtest, vtest) 각각에 대해 와 xtest 사이의 평균 제곱 오차가 표시되고, 가우시안 분포 피팅 (Gaussian distribution fitting)을 가진 모든 테스트 데이터 세트의 평균 및 표준 편차도 제공된다. Referring to FIG. 7, for each of the 50 newly extracted test data sets (x test , v test ) The mean squared error between and x test is shown, and the mean and standard deviation of all test data sets with Gaussian distribution fitting are also provided.
심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)을 사용하여 구성된 대리 모델이 가장 높은 성능을 보였다. 평균값은 0.00246으로 가장 낮고, 50개의 테스트 데이터 세트의 표준 편차가 가장 좁은 것으로 나타났다. 즉, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 훈련 세트에서 얻은 Pdeath 이미지 정보를 단지 기억하는 것이 아니라, 잠재 공간에 대한 가장 적합한 형식으로 특징을 추출하고 이를 명시적으로 가변 공간에 매핑하는 능력을 갖추고 있다. The surrogate model constructed using the deep neural network (VAEDC-DNN) using a variational autoencoder with a deep convolution layer showed the highest performance. The mean value was the lowest at 0.00246, with the smallest standard deviation of the 50 test data sets. That is, the deep neural network using the variational autoencoder with the deep convolution layer does not simply store the P death image information obtained from the training set, but extracts the feature in the most suitable format for the latent space and expresses it explicitly. It has the ability to map to variable spaces.
신경망(NN)이 사용될 때, 오토인코더 압축의 효율성에 관계없이 성능이 상당히 떨어지는 것을 볼 수 있다. 이는 잠재 공간 및 가변 공간 사이의 관계가 명확하게 포착되지 않는다는 것으로 볼 수 있다. 그러나, 잠재 공간에 저장된 각 변수가 가변 공간과 비선형 상관 관계를 명확하게 나타나도록 인코딩될 때, 성능이 향상된다. 상기 신경망은 베리에이셔널 오토인코더, 심층 컨볼루션 오토인코더, 심층 오토인코더, 오토인코더 순으로 성능이 향상됨을 확인할 수 있다. 결론적으로 최상의 성능은 베리에이셔널 오토인코더 기반의 오토인코더 및 컨볼루션 레이어가 사용될 때 달성될 수 있다. 오토인코더가 없는 신경망의 경우, 매개 변수의 수는 30,434,400인 반면, 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망에서 상기 매개 변수의 수는 이전의 3.31%인 1,007,641이다. 우수한 성능은 적은 수의 매개 변수로도 효율적으로 훈련 및 특징 추출할 수 있다.When the neural network NN is used, it can be seen that performance is significantly reduced regardless of the efficiency of autoencoder compression. It can be seen that the relationship between the latent space and the variable space is not clearly captured. However, when each variable stored in latent space is encoded such that the variable space and nonlinear correlation are clearly shown, performance is improved. The neural network can be confirmed that the performance is improved in the order of the variational auto encoder, the deep convolution auto encoder, the deep auto encoder, and the auto encoder. In conclusion, the best performance can be achieved when a variational autoencoder-based autoencoder and convolutional layer are used. For neural networks without autoencoder, the number of parameters is 30,434,400, whereas the number of parameters in a deep neural network using a variational autoencoder with a deep convolutional layer is 1,007,641, the previous 3.31%. Good performance can be efficiently trained and characterized with fewer parameters.
도 8은 본 발명의 일 실시예에 따른 다양한 모델에 따른 Pdeath 이미지를 나타낸다.8 illustrates P death images according to various models according to an exemplary embodiment of the present invention.
도 8을 참조하면, 평균 제곱 오차의 측면에서 오토인코더가 없는 신경망 및 심층 신경망은 오토인코더와 신경망의 여러 조합과 비교하여 더 잘 수행되는 것으로 나타나지만, 가 등고선 그래프에 직접 그려지면, 오토인코더가 없는 신경망 및 심층 신경망은 심각한 노이즈를 나타내는 것을 볼 수 있다. 화염 가속 시뮬레이터(전산 유체 역학), 신경망(NN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 심층 심경망(DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 심층 신경망(DCAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)으로부터 생성된 의 임의 선택된 다섯개의 등고선 그래프로 이를 시각화할 수 있다.Referring to FIG. 8, in terms of mean squared error, neural networks and deep neural networks without autoencoder appear to perform better compared to various combinations of autoencoder and neural network, If drawn directly on the contour plot, it can be seen that neural networks and deep neural networks without autoencoder exhibit severe noise. Flame Acceleration Simulator (Computational Fluid Dynamics), Neural Networks (NN), Neural Networks with Simple Auto Encoder (AE-NN), Deep Deep Networks with Deep Auto Encoder (DAE-DNN), Deep Neural Networks with Deep Convolution Auto Encoder ( DCAE-DNN) and generated from deep neural network (VAEDC-DNN) using variant autoencoder with deep convolution layer You can visualize this with any of the five contour plots.
오토인코더가 없는 신경망 또는 심층 신경망을 이용하면, 심각한 노이즈가 나타난다. 이는 훈련 프로세서에서 이미지의 특징만을 효율적으로 추출하는 것이 어렵기 때문이다. 따라서 다른 훈련 데이터 이미지가 기억되어 결과에 반영될 수 있다. 더욱이, 비선형 이미지의 특성 때문에 가변 공간만을 사용하여 전체 이미지를 예측하는 것은 어려워 일부 경우에 오도될 수 있다. If you use a neural network or a deep neural network without an autoencoder, serious noise will appear. This is because it is difficult to efficiently extract only the features of the image from the training processor. Thus, other training data images can be stored and reflected in the results. Moreover, because of the nature of nonlinear images, it is difficult to predict the entire image using only variable space and can be misleading in some cases.
노이즈는 오토인코더에 의한 데이터 압축 후, 예측으로부터 사라진다. 그러나 오토인코더에 의한 특징 추출 및 신경망에 의한 가변 공간의 잠재 공간으로의 매핑 실패는 대리 모델의 성능을 저하시킨다. 이러한 현상은 단순 오토인코더를 이용한 신경망에서 직접 관찰될 수 있다. 노이즈의 소실은 중요하나 대략적인 경향만 예측 가능하다. 예를 들어, 두 번째 열 데이터의 경우 예측이 상당히 부정확하지만, 반면에 다섯 번째 열 데이터는 매우 정확하다. 여기에서, 배치 정규화 모델을 이용한 심층 신경망 모델의 도입이 전반적인 성능 향상을 위해 필요함이 알 수 있다. 특징 추출은 심층 컨볼루션 레이어를 통해 활성화될 수 있고 이미지 압축은 베리에이셔널 오토인코더를 통한 사후 분포의 예측에 의해 잠재 공간으로 정확하게 수행될 수 있다.The noise disappears from the prediction after data compression by the autoencoder. However, the feature extraction by the autoencoder and the mapping failure of the variable space into the latent space by the neural network degrades the performance of the surrogate model. This phenomenon can be observed directly in neural networks using simple autoencoder. Loss of noise is important but only a rough trend can be predicted. For example, the prediction is quite inaccurate for the second column data, while the fifth column data is very accurate. Here, it can be seen that the introduction of a deep neural network model using a batch normalization model is necessary for improving overall performance. Feature extraction can be activated through a deep convolutional layer and image compression can be accurately performed in latent space by prediction of post-distribution through a variational autoencoder.
심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망 및 심층 컨볼루션 오토인코더를 이용한 심층 신경망과 같은 가장 우수한 두 모델 사이에서, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 화염 가속 시뮬레이터(전산 유체 역학)와 비교하여 우수한 예측을 제공할 수 있다. 첫번째 열에서, Pdeath는 상측에 경미하게 퍼지는데, 이것은 상기 심층 컨볼루션 오토인코더를 이용한 심층 신경망에 의해 감지될 수 없지만, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 감지할 수 있다. 세 번째 열에서는 다른 모델은 폭과 크기를 명확하게 예측할 수 없지만, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 예측은 거의 일치한다. 네 번째와 다섯 번째 열의 데이터에서는, 형상이 많은 균열 특성을 가지고 복잡하더라도 우수한 특성 추출을 보여준다. 마지막으로, 크랙되고 볼록하지 않은 복잡한 이미지도 예측된다는 것을 알 수 있다.Between two best models, a deep neural network with a variational autoencoder with a deep convolutional layer and a deep neural network with a deep convolutional autoencoder, a variational autoencoder with the deep convolutional layer Deep neural networks can provide better predictions compared to flame acceleration simulators (computational fluid dynamics). In the first column, P death spreads slightly upward, which cannot be detected by the deep neural network using the deep convolutional autoencoder, but the deep neural network using the variational autoencoder with the deep convolutional layer It can be detected. In the third column, the other models cannot clearly predict the width and size, but the prediction of the deep neural network using the variational autoencoder with the deep convolutional layer is almost identical. The data in the fourth and fifth columns show good feature extraction even if the shape has many cracking properties and is complex. Finally, it can be seen that complex images that are cracked and not convex are also predicted.
도 9는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 가변 공간 워킹(Walking in the variable space)의 결과를 나타낸다. "잠재 공간 워킹(walking in the latent space)"에서 볼 수 있듯이, 잠재 공간에서의 워킹을 통해 기억을 감지하는 것이 가능하기 때문에 잠재 공간의 랜드스케이프(landscape)를 이해하는 것은 매우 중요하다. 잠재 공간이 붕괴되었음을 의미하는 선명한 이미지 전환이 있는 경우, 모델은 관련된 표시를 배우지 못한다. 본 발명의 실시예들에서는 가변 공간이 이미 잠재 공간에 매핑되었으므로 "가변 공간 워킹"은 매니폴드의 학습 여부를 결정하는 데 적합할 수 있다. 9 shows the results of walking in the variable space of a deep neural network using a variational autoencoder with a deep convolutional layer. As can be seen in "walking in the latent space," it is very important to understand the landscape of the latent space because it is possible to sense the memory through walking in the latent space. If there is a sharp image transition that means that the latent space has collapsed, the model does not learn the associated representation. In embodiments of the present invention, since variable space has already been mapped to latent space, “variable space walking” may be suitable for determining whether the manifold is to be learned.
도 9를 참조하면, 가변 공간(v)이 3 차원이기 때문에, 독성 가스 방출률(방전율)은 50kg/s로 고정되고 Pdeath는 풍속 및 풍향에서 10 포인트의 선형 시리즈로 시각화되었다. 모든 방향에서 부드러운 전환이 관찰되었다. Pdeath는 풍속이 증가함에 따라 넓어지고, Pdeath의 확산 방향은 풍향에 따라 부드럽게 변하며, 이 지역의 지형과 장애물은 비대칭 운동에 의해 반영되었다. 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 단지 바람 방향을 보간하고 대칭적으로 회전시키지 않도록 훈련되어, Pdeath 특징을 정확하게 추출할 수 있다.Referring to FIG. 9, since the variable space v is three-dimensional, the toxic gas emission rate (discharge rate) is fixed at 50 kg / s and P death is visualized as a linear series of 10 points in wind speed and wind direction. Smooth transitions were observed in all directions. P death widens as wind speed increases, and the direction of P death spreads smoothly with wind direction, and the terrain and obstacles in this area are reflected by asymmetrical motion. Deep neural networks using variational autoencoders with deep convolutional layers are trained to only interpolate the wind direction and not rotate symmetrically, allowing accurate extraction of P death features.
표 2는 전산 유체 역학 모델과 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망 사이의 CPU 계산 시간, 모델을 저장하기 위한 저장 공간 및 실시간 경보 시스템에서의 사용에 대해 비교한 것이다.Table 2 compares the computation time of CPUs between deep computational networks using computational fluid dynamics models and variant autoencoders with deep convolutional layers, storage space to store models, and use in real-time alert systems.
VAEDC-DNN
VAEDC-DNN
< 1 s with single core
<1 s with single core
KB scale
KB scale
대리 모델은 모든 변수를
예측할 수 있음Hundreds of cases,
The surrogate model
Predictable
실시간 경보 시스템의 경우, 화학 물질 방출 사고가 발생하면 풍속, 풍향 및 방출률이 외부 센서로부터 경보 시스템에 제공된다. 이어서, Pdeath 또는 독성 화학 물질의 농도가 계산된다. Pdeath 계산을 위해 전산 유체 역학 모델을 사용하면, CPU 시간이 인텔 엑손(Intel Xeon)의 16 코어 E5-2667v3(3.2GHz) 프로세서를 사용하여 700초가 넘는다. 따라서 골든 타임(10분)전에 이 정보를 얻는 것은 불가능하다. 또한, 전산 유체 역학 데이터를 저장하기 위한 저장 요구 사항은 케이스 당 GB 스케일이기 때문에 사전에 모든 시나리오를 사전 계산하기가 어렵고, 지오메트리의 복잡성으로 인해 결과가 대체로 가변 공간을 통해 비선형으로 나타난다.For real-time alarm systems, wind speed, wind direction and emission rate are provided to the alarm system from external sensors in the event of a chemical release. The concentration of P death or toxic chemical is then calculated. Using computational fluid dynamics models for P death calculations, the CPU time is over 700 seconds using a 16-core E5-2667v3 (3.2GHz) processor from Intel Xeon. Therefore, it is impossible to obtain this information before the Golden Time (10 minutes). In addition, the storage requirement for storing computational fluid dynamics data is the GB scale per case, making it difficult to precalculate all scenarios in advance, and the complexity of the geometry results in nonlinearity through the variable space.
따라서 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 미리 계산된 전산 유체 역학 데이터의 최소 양으로 대리 모델을 개발하는 데 특히 유용할 수 있다. 훈련 후, 단일 코어로 최대 1초의 CPU 시간이 요구된다. 위에서 언급했듯이 Pdeath 분포와 가변 공간을 통한 지오메트리 효과 간의 비선형 상관 관계는 베리에이셔널 오토인코더에 의해 달성될 수 있다. 따라서 수백 개의 사전 계산된 전산 유체 역학의 결과로, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 임의의 가변 공간을 통해 Pdeath 윤곽을 성공적으로 예측할 수 있다.Thus, deep neural networks using variational autoencoder with deep convolutional layers can be particularly useful for developing surrogate models with minimal amounts of precomputed computational fluid dynamics data. After training, up to 1 second of CPU time is required with a single core. As mentioned above, the nonlinear correlation between the P death distribution and the effect of geometry through variable space can be achieved by a variational autoencoder. Thus, as a result of hundreds of precomputed computational fluid dynamics, a deep neural network using a variational autoencoder with the deep convolutional layer can successfully predict the P death contour through any variable space.
이제까지 본 발명에 대한 구체적인 실시예들을 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, specific embodiments of the present invention have been described. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
Claims (19)
상기 변환 모듈에 연결되어 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 생성 모듈을 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.A conversion module for converting the toxic gas dispersion data; And
And a generation module connected to the conversion module to generate a prediction model by mapping the converted data into a predetermined variable.
상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 1,
The conversion module and the generation module is a toxic gas release modeling apparatus, characterized in that for learning repeatedly based on the artificial neural network.
상기 독성 가스 분산 데이터는,
상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터를 포함하고,
상기 시뮬레이션 데이터는 상기 변수를 이용하여 샘플링되고, 상기 변환 모듈에 입력되도록 전처리되는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 1,
The toxic gas dispersion data,
It includes data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed,
And the simulation data is sampled using the variable and preprocessed to be input to the conversion module.
상기 시뮬레이션 데이터는 프로빗(Probit) 함수에 의해 계산된 사망 확률(P death ) 데이터를 포함하고,
상기 프로빗 함수는
(a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고,
상기 사망 확률은
인 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 3, wherein
The simulation data includes P death data calculated by a Probit function,
The probit function is
(a, b, and n is a constant according to the type of the toxic gas, c is the concentration by volume of the toxic gas),
The probability of death is
Toxic gas release modeling device, characterized in that.
상기 변환 모듈은,
상기 독성 가스 분산 데이터를 압축하여 변환시키는 오토인코더 (Autoencoder)를 포함하고,
상기 오토인코더는 상기 독성 가스 분산 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어(Convolutional layer)를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 1,
The conversion module,
An autoencoder for compressing and converting the toxic gas dispersion data;
The autoencoder includes a convolutional layer (Convolutional layer) for detecting and extracting the characteristics of the toxic gas dispersion data.
상기 오토인코더는,
상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고,
상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 5,
The auto encoder,
Parameterize the extracted features of the toxic gas dispersion data,
Toxic gas release modeling apparatus characterized in that it uses the variation inference (Variational Inference) to calculate the approximation to the normal distribution with the average value and the logarithm of the variance of the parameterized data.
상기 오토인코더는,
손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 6,
The auto encoder,
And a variational layer for comparing and evaluating the toxic gas dispersion data and the data converted by the autoencoder using a loss function.
상기 생성 모듈은,
상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 1,
The generation module,
And a fully connected layer configured to map and convert the converted data into the variable.
상기 생성 모듈은,
상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 8,
The generation module,
Wherein the distribution of the transformed data is normalized between the fully connected layer and the fully connected layer.
상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.The method of claim 1,
Wherein said variable includes at least one of wind speed, wind direction, release rate of said toxic gas, duration of release, point of release, release material and temperature.
상기 입력된 데이터를 변환하는 단계; 및
상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.Inputting toxic gas dispersion data;
Converting the input data; And
And generating a predictive model by mapping the converted data into a predetermined variable.
상기 변환 단계 및 상기 생성 단계는 인공 신경망을 기반으로 반복적으로 학습하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 11,
The transformation step and the generation step is a toxic gas release modeling method, characterized in that the learning repeatedly based on the artificial neural network.
상기 모델링 방법은,
상기 데이터 입력 단계 전에,
상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션하는 단계 및 상기 시뮬레이션 데이터를 상기 변수를 이용하여 샘플링하고, 상기 입력 단계가 수행되도록 상기 시뮬레이션 데이터를 전처리하는 단계를 더 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법. The method of claim 11,
The modeling method,
Before the data entry step,
Numerically analyzing and simulating the behavior of the toxic gas before the toxic gas is dispersed, and sampling the simulation data using the variable, and preprocessing the simulation data to perform the input step. Toxic gas release modeling method, characterized in that.
상기 시뮬레이션 단계는 프로빗 함수에 의해 사망 확률(P death ) 데이터 계산을 수행하는 것을 포함하고,
상기 프로빗 함수는
(a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고,
상기 사망 확률은
인 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 13,
The simulation step includes performing a P death data calculation by a probit function,
The probit function is
(a, b, and n is a constant according to the type of the toxic gas, c is the concentration by volume of the toxic gas),
The probability of death is
Toxic gas release modeling method, characterized in that.
상기 변환 단계는,
상기 입력된 데이터의 특징을 감지하여 추출하는 단계를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 11,
The conversion step,
Toxic gas release modeling method comprising the step of detecting and extracting the characteristics of the input data.
상기 변환 단계는,
상기 입력된 데이터의 추출된 특징을 변수화하는 단계, 상기 변수화된 데이터를 변환하여 복원하는 단계, 및 상기 입력 데이터와 상기 복원 데이터를 손실 함수를 이용하여 비교하는 단계를 더 포함하고,
상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론을 수행하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 15,
The conversion step,
Parameterizing the extracted feature of the input data, converting and restoring the variable data, and comparing the input data with the restored data using a loss function,
Toxic gas release modeling method characterized in that for performing the calculation of the approximation to the normal distribution with the average value and the logarithm of the variance of the parameterized data as a parameter.
상기 생성 단계는,
상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 단계를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법. The method of claim 11,
The generating step,
Mapping the converted data to the variable and reconstructing the toxic gas release model.
상기 생성 단계는,
상기 변환된 데이터의 분포를 정규화시키는 배치 정규화를 수행하는 단계를 더 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 17,
The generating step,
And performing batch normalization to normalize the distribution of the transformed data.
상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 방법.The method of claim 11,
Wherein said variable comprises at least one of wind speed, wind direction, release rate of said toxic gas, duration of release, point of release, release material and temperature.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025971A KR102196820B1 (en) | 2018-03-05 | 2018-03-05 | Apparatus and method for release modeling of toxic gases |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025971A KR102196820B1 (en) | 2018-03-05 | 2018-03-05 | Apparatus and method for release modeling of toxic gases |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190105429A true KR20190105429A (en) | 2019-09-17 |
KR102196820B1 KR102196820B1 (en) | 2020-12-30 |
Family
ID=68070171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180025971A KR102196820B1 (en) | 2018-03-05 | 2018-03-05 | Apparatus and method for release modeling of toxic gases |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102196820B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144055A (en) * | 2019-12-27 | 2020-05-12 | 苏州大学 | Method, device and medium for determining toxic heavy gas leakage concentration distribution in urban environment |
KR20210109400A (en) * | 2020-02-27 | 2021-09-06 | 주식회사 센서위드유 | Hazardous gas sensor platform with deep-learning technology to improve target gas detection and prediction in the in the mixed gas environment |
WO2021177500A1 (en) * | 2020-03-05 | 2021-09-10 | 한성대학교 산학협력단 | Method and system for training self-converging generative network |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120062161A (en) * | 2010-12-06 | 2012-06-14 | 경북대학교 산학협력단 | Wireless gas detection system and detection method using thereof |
US20170148226A1 (en) * | 2015-11-19 | 2017-05-25 | Kla-Tencor Corporation | Generating simulated images from design information |
KR101778891B1 (en) * | 2016-08-22 | 2017-09-15 | 서울대학교산학협력단 | Apparatus and method for gas diffusion modeling and risk evaluation |
-
2018
- 2018-03-05 KR KR1020180025971A patent/KR102196820B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120062161A (en) * | 2010-12-06 | 2012-06-14 | 경북대학교 산학협력단 | Wireless gas detection system and detection method using thereof |
US20170148226A1 (en) * | 2015-11-19 | 2017-05-25 | Kla-Tencor Corporation | Generating simulated images from design information |
KR101778891B1 (en) * | 2016-08-22 | 2017-09-15 | 서울대학교산학협력단 | Apparatus and method for gas diffusion modeling and risk evaluation |
Non-Patent Citations (1)
Title |
---|
"지능형 실시간 대기확산 시스템에 관한 연구", Journal of the Korean Institute of GAS Vol. 16 No. 4(pp. 44-51), 2012년 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144055A (en) * | 2019-12-27 | 2020-05-12 | 苏州大学 | Method, device and medium for determining toxic heavy gas leakage concentration distribution in urban environment |
CN111144055B (en) * | 2019-12-27 | 2024-02-02 | 苏州大学 | Method, device and medium for determining concentration distribution of toxic heavy gas leakage in urban environment |
KR20210109400A (en) * | 2020-02-27 | 2021-09-06 | 주식회사 센서위드유 | Hazardous gas sensor platform with deep-learning technology to improve target gas detection and prediction in the in the mixed gas environment |
WO2021177500A1 (en) * | 2020-03-05 | 2021-09-10 | 한성대학교 산학협력단 | Method and system for training self-converging generative network |
Also Published As
Publication number | Publication date |
---|---|
KR102196820B1 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Conn et al. | A guide to Bayesian model checking for ecologists | |
Na et al. | Toxic gas release modeling for real-time analysis using variational autoencoder with convolutional neural networks | |
Guo et al. | Data‐driven flood emulation: Speeding up urban flood predictions by deep convolutional neural networks | |
Dupuy et al. | DiceDesign and DiceEval: Two R packages for design and analysis of computer experiments | |
CN113779675B (en) | Physical-data driven intelligent shear wall building structure design method and device | |
Shi et al. | Probabilistic real-time deep-water natural gas hydrate dispersion modeling by using a novel hybrid deep learning approach | |
KR102196820B1 (en) | Apparatus and method for release modeling of toxic gases | |
CN104636449A (en) | Distributed type big data system risk recognition method based on LSA-GCC | |
Tomar et al. | Active learning method for risk assessment of distributed infrastructure systems | |
Chen et al. | Learning spatial-temporal varying graphs with applications to climate data analysis | |
CN114978613B (en) | Network intrusion detection method based on data enhancement and self-supervision feature enhancement | |
US20240084561A1 (en) | Systems and methods for water distribution network leakage detection and/or localization | |
CN113962164B (en) | Organic gas leakage diffusion real-time intelligent early warning method considering uncertainty reasoning | |
Zhong et al. | Reduced-order digital twin and latent data assimilation for global wildfire prediction | |
Chiachío-Ruano et al. | Bayesian Inverse Problems | |
Segura et al. | Expected seismic performance of gravity dams using machine learning techniques | |
Rundle et al. | Nowcasting earthquakes with stochastic simulations: Information entropy of earthquake catalogs | |
Gauchy et al. | Uncertainty quantification and global sensitivity analysis of seismic fragility curves using kriging | |
Virupaksha et al. | Modeling transient natural convection in heterogeneous porous media with Convolutional Neural Networks | |
Inzunza-Aragón et al. | Use of artificial neural networks and response surface methodology for evaluating the reliability index of steel wind towers | |
Sire et al. | Quantizing rare random maps: application to flooding visualization | |
CN115828414A (en) | Reliability and sensitivity analysis method for uncertainty of distributed parameters of radome structure | |
Bernier et al. | Neural networks for estimating storm surge loads on storage tanks | |
Zhang et al. | Reduced order digital twin and latent data assimilation for global wildfire prediction | |
Oh et al. | Application of data driven modeling and sensitivity analysis of constitutive equations for improving nuclear power plant safety analysis code |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |