KR20090114926A - 아세틸렌의 선택적 수소화 반응의 최적화 방법 - Google Patents

아세틸렌의 선택적 수소화 반응의 최적화 방법 Download PDF

Info

Publication number
KR20090114926A
KR20090114926A KR1020080040809A KR20080040809A KR20090114926A KR 20090114926 A KR20090114926 A KR 20090114926A KR 1020080040809 A KR1020080040809 A KR 1020080040809A KR 20080040809 A KR20080040809 A KR 20080040809A KR 20090114926 A KR20090114926 A KR 20090114926A
Authority
KR
South Korea
Prior art keywords
neural network
artificial neural
input
variable
reaction
Prior art date
Application number
KR1020080040809A
Other languages
English (en)
Other versions
KR101152870B1 (ko
Inventor
이원재
최용진
이종구
Original Assignee
주식회사 엘지화학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지화학 filed Critical 주식회사 엘지화학
Priority to KR1020080040809A priority Critical patent/KR101152870B1/ko
Publication of KR20090114926A publication Critical patent/KR20090114926A/ko
Application granted granted Critical
Publication of KR101152870B1 publication Critical patent/KR101152870B1/ko

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C07ORGANIC CHEMISTRY
    • C07CACYCLIC OR CARBOCYCLIC COMPOUNDS
    • C07C5/00Preparation of hydrocarbons from hydrocarbons containing the same number of carbon atoms
    • C07C5/02Preparation of hydrocarbons from hydrocarbons containing the same number of carbon atoms by hydrogenation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J19/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J19/24Stationary reactors without moving elements inside
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J8/00Chemical or physical processes in general, conducted in the presence of fluids and solid particles; Apparatus for such processes
    • B01J8/02Chemical or physical processes in general, conducted in the presence of fluids and solid particles; Apparatus for such processes with stationary particles, e.g. in fixed beds
    • CCHEMISTRY; METALLURGY
    • C07ORGANIC CHEMISTRY
    • C07CACYCLIC OR CARBOCYCLIC COMPOUNDS
    • C07C7/00Purification; Separation; Use of additives
    • C07C7/148Purification; Separation; Use of additives by treatment giving rise to a chemical modification of at least one compound
    • C07C7/163Purification; Separation; Use of additives by treatment giving rise to a chemical modification of at least one compound by hydrogenation

Landscapes

  • Chemical & Material Sciences (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • General Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Oil, Petroleum & Natural Gas (AREA)
  • Water Supply & Treatment (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)

Abstract

본 발명은 하나 이상의 촉매 베드를 포함하는 반응기 내에서 원료 중 아세틸렌의 선택적 수소화 반응을 진행시키는 방법에 있어서, 상기 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하는 제 1 단계; 및 도입된 입력 변수를 인공 신경망으로 처리하여, 상기 선택적 수소화 반응의 결과와 관련된 출력 변수를 산출하는 제 2 단계를 포함하는 아세틸렌 선택적 수소화 반응의 최적화 방법에 관한 것이다. 본 발명에서는 인공 신경망을 통해 아세틸렌의 선택적 수소화 반응을 모사하여, 반응 속도식을 사용한 기존의 방법에 비해 시간 및 비용을 획기적으로 절감하면서도, 반응 조건과 관련된 다양한 독립 변수(입력 변수)와 반응 및 반응기의 거동과의 관계를 정확하게 예측할 수 있다.
인공 신경망, 아세틸렌, 에틸렌, 선택적 수소화, 뉴런, 입력 변수, 출력 변수, 입력층, 은닉층, 출력층

Description

아세틸렌의 선택적 수소화 반응의 최적화 방법 {Optimizing method for selective hydrogenation of acetylene}
본 발명은 인공 신경망을 사용하여, 아세틸렌의 선택적 수소화 반응 조건을 최적화하는 방법에 관한 것이다.
나프타(naphtha)는 원유의 증류 시에 35℃ 내지 220℃의 끓는점 범위에서 유출되는 탄화수소의 혼합체이다. 나프타의 열분해에 의해 생성된 다종의 화합물들은 일련의 회수 공정을 거쳐 분리되는데, 그 과정에서 에탄 분리탑(deethanizer) 탑정에서 분리된 C2 유분은 통상 1 몰% 내지 2 몰%의 아세틸렌을 함유한다.
따라서, C2 유분에 포함되는 에틸렌을 중합 공정에 적용하기 위해서는, 적절한 분리 또는 반응 공정을 통해 아세틸렌을 제거할 필요가 있다. 일반적으로 아세틸렌의 제거를 위해서는 특정 촉매(ex. Pd-Ag/Al2O3 등)의 존재 하에 아세틸렌을 선택적으로 수소화시켜 에틸렌으로 전환시키는 방법이 주로 사용되고, 이를 통해 최 종적으로 1 ppm 내지 3 ppm의 아세틸렌 농도를 갖는 에틸렌을 생산하고 있다. 그런데, 상기와 같은 아세틸렌의 선택적 수소화 반응 중에는, 아세틸렌이 에틸렌으로 전환되는 주반응(하기 반응식 1)과 함께, C2 유분 중의 에틸렌이 수소화되어 에탄으로 전환되는 부반응(반응식 2)도 동시에 일어난다. 따라서, 아세틸렌의 선택적 수소화 반응 시에는 아세틸렌의 전환률을 높이는 동시에 에틸렌의 부반응을 억제할 수 있는 반응 조건에 대한 연구가 필요하다.
[반응식 1]
C2H2 + H2 → C2H4 △H298K = -172 kJ/mol
[반응식 2]
C2H4 + H2 → C2H6 △H298K = -137 kJ/mol
한편, 상기 선택적 수소화 반응의 진행 중에는 녹유(green oil)와 같은 올리고머가 촉매의 표면 위에 형성되면서, 촉매의 비활성화가 진행된다. 이와 같은 녹유의 생성은 반응계 내의 수소 및 아세틸렌(수소/아세틸렌)의 비율이 낮고, 에틸렌의 선택도 향상을 위해 주입하는 일산화탄소 농도가 높을 때 더욱 촉진되는 것으로 알려져 있다.
따라서, 상기와 같은 촉매의 비활성화 속도를 저하시키고, 부반응을 억제하여 아세틸렌의 전환률을 최대화하기 위해서는 운전 경험에 의한 시행 오차(trial-error) 방식이 아닌, 반응 조건(ex. 각 촉매 베드 입구에서의 주입 온도, 수소 및 아세틸렌의 비율 또는 일산화탄소 농도와 같은 운전 변수 등)이 반응 결과에 미치 는 영향을 반영하는 반응기 모델을 구성하여, 종합적이고 정량적으로 반응을 평가하고, 이를 바탕으로 운전 가이드 라인을 확립할 필요가 있다. 상기와 같은 목적을 달성하기 위해서는 주반응(아세틸렌의 수소화) 및 부반응(에틸렌의 수소화)을 포괄하는 전체 반응 속도에 관한 연구가 선행되어야 하며, 이와 관련하여 여러 연구자들에 의해 다양한 반응 속도식이 제안되어 있다(Borodzinski, A. Hydrogenation of acetylene-ethylene mixtures on a commercial palladium catalyst. Catal. Lett. 63 (1999) 35 ~ 42 등). 또한, 상기 반응 속도식을 이용하여 수소화 반응이 수행되는 반응기를 모사하는 방안도 제안되어 있다 (Mostoufi, N. et al., Hydrogenation of acetylene: kinetic studies and reactor modeling. Ind. J. Chem. Reactor Eng. 3 (2005) 1 ~ 18 등).
상기와 같이 여러 반응 속도식을 사용한 모사 방법들이 보고되고 있으나, 사용되는 촉매나 온도 등을 포함한 반응 조건이 실제 반응 시스템과 상이할 경우에는, 반응기 모사에 의해 예측된 결과는 실제로 측정된 결과와 큰 오차를 보인다. 이러한 오차는 정확한 반응 속도식이라도, 이는 매우 이상적인 실험 조건에서 도출된 것이어서, 비이상적 반응이나 반응기 거동을 정확하게 표현할 수 없기 때문에 발생한다. 또한, 화학 반응에서는 반응 조건과 관련된 독립 변수들간의 관계가 매우 비선형적인 경우가 많아서, 수학적 모델인 반응 속도식을 이용해 수소화 반응기의 운전 거동을 정확히 예측 및 제어하는 것은 불가능하다. 이러한 문제점은 특히 아세틸렌의 수소화 반응 시에 주입되는 반응물 유량의 변동이 크거나, 원료 내 에틸렌과 아세틸렌의 농도가 급격히 변화할 경우에 더욱 커진다. 따라서 수소화 반 응에서의 반응 조건 및 그에 따른 반응 결과의 관계를 정확하게 예측할 수 있는 기술의 개발이 요구된다.
본 발명은 상기와 같은 종래 기술의 문제점을 고려하여 이루어진 것으로, 인공 신경망을 통해 아세틸렌의 선택적 수소화 반응 및 상기 반응이 수행되는 반응기의 거동을 정확하게 예측할 수 있는 방법을 제공하는 것을 목적으로 한다.
본 발명은 상기 과제를 해결하기 위한 수단으로서, 하나 이상의 촉매 베드를 포함하는 반응기 내에서 원료 중 아세틸렌의 선택적 수소화 반응을 진행시키는 방법에 있어서,
상기 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하는 제 1 단계; 및
도입된 입력 변수를 인공 신경망으로 처리하여, 상기 선택적 수소화 반응 또는 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수를 산출하는 제 2 단계를 포함하는 아세틸렌 선택적 수소화 반응의 최적화 방법을 제공한다.
본 발명에서는 인공 신경망을 통하여 아세틸렌의 선택적 수소화 반응 및 상기 반응이 수행되는 반응기의 거동을 매우 높은 정확도로 모사할 수 있는 방법을 제공한다. 이에 따라 본 발명에서는 반응 속도식을 사용한 기존 방법에 비해 시간 과 비용을 획기적으로 절감하면서도, 반응 조건과 관련된 다양한 독립 변수(입력 변수)와 반응 및 반응기의 거동의 관계를 정확하게 예측할 수 있다.
본 발명은, 하나 이상의 촉매 베드를 포함하는 반응기 내에서 원료 중 아세틸렌의 선택적 수소화 반응을 진행시키는 방법에 있어서,
상기 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하는 제 1 단계; 및
도입된 입력 변수를 인공 신경망으로 처리하여, 상기 선택적 수소화 반응 또는 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수를 산출하는 제 2 단계를 포함하는 아세틸렌의 선택적 수소화 반응의 최적화 방법에 관한 것이다.
이하, 본 발명의 최적화 방법을 상세히 설명한다.
본 발명의 방법은 C2 유분과 같은 원료 내에 포함된 아세틸렌을 선택적으로 수소화시키는 반응에 적용되는 것이다. 이와 같은 선택적 수소화 반응은 통상 하나 이상의 촉매 베드를 포함하는 반응기 내에서 수행된다. 상기와 같은 반응기는 각 촉매 베드의 사이에 열교환기를 설치하고, 상기 열교환기를 통해 반응 과정에서 생성되는 반응열을 효율적으로 제거함으로써, 에틸렌 선택도를 크게 향상시킬 수 있는 장점이 있다. 상기와 같은 반응기의 대표적인 예로는 3개의 촉매 베드(제 1, 제 2 및 제 3 촉매 베드)를 포함하는 고정층 단열 반응기(fixed-bed adiabatic reactor)를 들 수 있고, 본 발명에서도 상기와 같은 반응기를 사용하는 것이 바람직하지만, 이에 제한되는 것은 아니다.
본 발명의 제 1 단계는 상기 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하는 단계이다. 본 발명에서 사용하는 용어 『반응 조건과 관련된 입력 변수』는 선택적 수소화 반응의 반응조건, 예를 들면 반응기의 각 베드 입구에서의 주입 온도, 수소/아세틸렌의 비율 및 일산화탄소의 농도 등과 같이 선택적 수소화 반응 및/또는 상기 반응이 수행되는 반응기의 거동에 영향을 주는 요인들을 의미하고, 이 때 상기 입력 변수는 공정 운전원(process operator)이 측정 및 조절 가능한 변수인 것이 바람직하지만, 이에 제한되는 것은 아니다.
본 발명의 제 1 단계에서는 상기와 같은 입력 변수를 아세틸렌의 선택적 수소화 반응 및/또는 상기 반응이 수행되는 반응기 내의 거동을 모사(simulation)하도록 훈련된 인공 신경망으로 도입한다. 이와 같은 인공 신경망의 기본적인 구조는 도 1에 나타나 있다. 도 1은 한 개의 입력층(input layer), 한 개의 은닉층(hidden layer) 및 한 개의 출력층(output layer)을 갖는 인공 신경망을 나타낸다. 도면에 나타난 바와 같이, 인공 신경망에 포함되는 입력층, 은닉층 및 출력층은 뉴런(neuron, processing element, unit, cell 또는 node 등의 다양한 명칭으로 호칭됨)에 의하여 상호 연결되고, 그 관계는 전달 함수로 규정된다.
첨부된 도면을 참조로, 인공 신경망에 포함되는 단위 뉴런의 동작 상태를 설명하면, 다음과 같다. 도 2는 도 1과 같은 인공 신경망 네트워크에 포함되는 단위 뉴런의 연산 과정을 나타내는 도면이다. 도 2에 나타난 바와 같이 단위 뉴런은 복 수의 입력 변수(X1, X2 ··· Xn)를 수령하여, 하나의 출력 변수(Y)를 산출하는 다입력, 1 출력 구조를 가지며, 상기 입력 변수 및 출력 변수의 관계는 하기 수학식 1에 나타난 바와 같은 전달 함수(f)에 의해 규정된다.
[수학식 1]
Figure 112008031454043-PAT00001
상기 수학식 1에서 전달 함수에 도입되는 변수 X는 하기 수학식 2에 나타난 바와 같이, 단일 뉴런의 각 라인으로 도입되는 입력 변수 및 가중값(W1, W2 ··· Wn)의 곱을 합산한 것에 편향값(b, bias)을 더한 수치이다.
[수학식 2]
Figure 112008031454043-PAT00002
따라서, 도 1에 나타난 인공 신경망의 각 뉴런의 관계를 규정하는 전달 함수는 하기 수학식 3과 같이 나타날 수 있다.
[수학식 3]
Figure 112008031454043-PAT00003
상기 수학식 3에서, ak는 출력 변수를 나타내고, Wi ,j는 가중값 (weight)을 나타내며, pi는 입력 변수를 나타내고, bj는 편향값(bias)을 나타낸다.
상기 수학식 1 내지 3에 대한 설명으로부터 알 수 있는 바와 같이, 인공 신경망의 각 뉴런의 관계를 규정하는 전달함수는 가중값(W) 및 편향값(b)의 두 개의 매개 변수를 가지는 함수이며, 이는 선형 또는 비선형 함수일 수 있다. 또한, 인공 신경망의 입력층 및 출력층에 포함되는 뉴런의 수는 각각 상기 층으로 도입되는 입력 변수(P1, P2)의 수 및 출력되는 출력 변수(a1)의 수와 같다. 추가로, 인공 신경망에 포함되는 은닉층의 개수 및 각각의 은닉층에 포함되는 뉴런의 개수는 변할 수 있는데, 상기 개수가 증가할수록 입력 변수 및 출력 변수간의 관계의 복잡성을 모사하는 신경망의 능력이 증가한다.
본 발명에서는 상기와 같이 입력 변수가 도입되는 인공 신경망을 훈련(training)시키는 과정이 선행될 필요가 있다. 즉, 인공 신경망은 인간 두뇌의 신경 체계를 모방한 것으로서, 자가 학습 기능을 가지는데, 본 발명에서 사용하는 용어 『인공 신경망의 훈련』은 인공 신경망이 아세틸렌의 선택적 수소화 반응 및/또는 반응기의 거동을 정확하게 모사할 수 있도록 학습시키는 과정이다. 이와 같은 인공 신경망의 훈련은 도 3에 나타난 바와 같은 방식으로 수행될 수 있다.
즉, 인공 신경망의 학습을 위해서는 우선 장기간의 반응기 운전을 통해 수집된 복수의 입력 변수 및 상기 각각의 입력 변수에 대응하는 출력 변수의 세트를 포함하는 이력 데이터(history data)를 준비한다. 이어서, 인공 신경망의 네트워크를 구성하는 매개 변수인 가중값 및 편향값을 임의의 초기값으로 설정하고, 상기 이력 데이터의 입력 변수를 인공 신경망으로 도입한다. 그 후 도입된 입력 변수를 인공 신경망으로 처리한 출력 변수를 이력 데이터의 출력 변수와 비교하여, 상기 양자의 오차와 최소화되도록 가중값 및 편향값을 조절하는 과정을 반복하여 최적의 가중값 및 편향값을 산출하게 된다(supervised learning).
즉, 본 발명에서는 (1) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수 및 상기 입력 변수에 대응되는 출력 변수의 세트를 포함하는 이력 데이터 중의 입력 변수를 인공 신경망에 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
(2) 상기 단계 (1)에서 도입된 입력 변수에 대응하는 이력 데이터 중의 출력 변수 및 상기 단계 (1)에서 산출된 출력 변수의 오차가 최소화되도록, 인공 신경망의 전달 함수의 가중값 및 편향값을 조절하는 단계를 포함하는 방법에 의해 구축된 인공 신경망을 사용하는 것이 바람직하다.
본 발명의 상기 훈련 과정에서는 또한 인공 신경망의 과최적화 (overfitting)를 방지하고, 학습에 사용되지 않은 데이터에서도 최적화된 인공 신경망이 동일하게 일반화(generalization)될 수 있는지를 검증하는 과정을 포함하는 것이 바람직하다.
즉, 본 발명의 상기 인공 신경망은, (a) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수 및 상기 입력 변수에 대응하는 출력 변수의 세트를 포함하는 이력 데이터를 학습 데이터 세트, 검증 데이터 세트 및 시험 데이터 세트로 분할하는 단계;
(b) 상기 학습 데이터 중의 입력 변수를 인공 신경망으로 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계;
(c) 상기 단계 (b)에서 도입된 입력 변수에 대응하는 상기 학습 데이터의 출력 변수 및 상기 단계 (b)에서 산출된 출력 변수의 오차가 최소화되도록, 인공 신경망의 전달 함수의 가중값 및 편향값을 조절하는 단계;
(d) 상기 단계 (c)에서 가중값 및 편향값이 조절된 인공 신경망에 상기 검증 데이터 중의 입력 변수를 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
(e) 상기 단계 (d)에서 도입된 입력 변수에 대응하는 상기 검증 데이터의 출력 변수 및 상기 단계 (d)에서 산출된 출력 변수를 비교하여 오차를 산출하는 단계를 포함하는 방법으로 구축된 것이 바람직하고,
경우에 따라서는, (f) 상기 단계 (c)에서 가중값 및 편향값이 조절된 인공 신경망에 상기 시험 데이터 중의 입력 변수를 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계;
(g) 상기 단계 (f)에서 도입된 입력 변수에 대응하는 상기 시험 데이터의 출력 변수 및 상기 단계 (f)에서 산출된 출력 변수를 비교하여 오차를 산출하는 단계; 및
(h) 상기 단계 (g)에서 산출된 오차 및 상기 단계 (e)에서 산출된 오차를 비교하는 단계를 추가로 포함하는 방법으로 구축된 것이 바람직하다.
상기와 같은 단계는 인공 신경망의 학습에 있어서, 과최적화를 방지하기 위해서 수행된다. 이 때 『과최적화』란 특정의 이력 데이터를 사용하여 인공 신경망을 최적화한 후, 학습에 사용되지 않는 제 2의 이력 데이터를 인공 신경망에 적용할 경우에, 상기 제 2의 이력 데이터 중의 입력 변수를 상기 신경망에 도입하여 산출된 출력 변수의 값이 상기 제 2의 이력 데이터에 포함된 출력 변수의 값과 오차를 나타내는 경우를 의미한다.
본 발명에서는 상기와 같은 과최적화를 방지하기 위하여, 수집된 이력 데이터인 전체 공정 데이터 세트를 학습 데이터 세트, 검증 데이터 세트 및 시험 데이터 세트로 나눈 후, 이 중 학습 데이터를 사용하여 인공 신경망을 최적화하면서, 동시에 검증 데이터 세트에 의해 발생하는 오차를 지속적으로 관찰하는 것이 바람직하다.
이 경우 학습 초기 단계에서는 학습 데이터 세트에서 발생하는 오차 및 검증 데이터 세트에서 발생하는 오차가 모두 감소하나, 인공 신경망이 과최적화되는 순 간 검증 데이터 세트에서 발생하는 오차가 증가하기 시작한다. 이 경우 계속적으로 최적화를 진행하면, 학습 데이터 세트에 대한 인공 신경망의 최적화는 우수해질 수 있으나, 신경망의 일반화가 이루어지지 않을 우려가 있으므로, 검증 데이터 세트의 오차가 증가하기 시작할 때에 인공 신경망의 학습을 중지하는 것이 바람직하다.
본 발명의 인공 신경망의 학습 과정에서는 또한 추가적인 시험 데이터 세트를 사용한 검증 과정을 수행할 수도 있다. 이 경우에 상기 시험 데이터 세트는 상기 (a) 내지 (e) 단계의 학습 과정에서는 사용되지 않고, 상기 검증 데이터 세트에 의한 오차를 평가하는데 사용될 수 있다. 즉, (a) 내지 (e) 단계 후에 상기 시험 데이터 세트를 사용한 경우의 오차 및 상기 검증 데이터 세트를 사용한 경우의 오차가 큰 차이를 보일 경우에는 전체 공정 데이터 세트(이력 데이터)에서 학습 데이터 및 검증 데이터가 차지하는 비율을 조절하여 인공 신경망의 학습을 수행하는 것이 바람직하고, 이와 같은 공정을 거침으로써 과최적화 현상을 방지하고, 선택적 수소화 반응의 거동을 정확하게 모사할 수 있는 인공 신경망을 얻을 수 있는 이점이 있다.
또한, 상기 인공 신경망의 훈련 과정에서 이력 데이터 내에 포함되는 출력 변수 및 인공 신경망을 통해 산출된 출력 변수의 오차가 최소화되도록 전달 함수의 가중값 및 편향값을 조절하는 과정(최적화 과정)에서는 Levenberg-Marquardt법, BFGS quasi-Newton법, Fletcher-Reeves conjugate gradient법, Polak-Ribiere conjugate gradient법, Powell-Beale conjugate gradient법, Gradient descent법 또는 Resilient backpropagation법 등을 사용할 수 있으나, 이에 제한되는 것은 아니다.
본 발명에서는 또한 상기 인공 신경망의 훈련을, 이력 데이터를 사용하지 않는 방법으로 수행할 수도 있다. 이 경우 인공 신경망의 훈련은 실험자가 의도하는 수소화 반응의 바람직한 출력 변수 (목표값)를 설정하고, 도입된 임의의 입력 변수에 대응하는 출력 변수 및 상기 목표값의 오차를 최소화시키는 방향으로 가중값 및 편향값을 조정하는 과정을 반복하여 수행할 수 있다(unsupervised learning).
이 경우, 본 발명에서 사용되는 인공 신경망은 (i) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
(ii) 상기 단계 (i)에서 산출된 출력 변수를 수소화 반응 또는 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수의 목표값과 비교하여, 상기 양자의 오차가 최소화되도록 인공 신경망의 전달 함수의 가중값 및 편향값을 조정하는 단계를 포함하는 방법에 의해 구축되는 것이 바람직하다.
본 발명에서는 또한 인공 신경망으로 도입될 각 입력 변수들을 표준화하는 과정을 추가로 수행하는 것이 바람직하다. 상기 표준화 공정은 인공 신경망을 훈련시키는 과정에서 매우 중요한 역할을 한다. 예를 들어, 인공 신경망으로 도입될 하나의 입력 변수(P1)의 값이 10이고, 다른 입력 변수(P2)의 값이 105이라면, 전달 함수를 통하여 출력 변수에 미치는 P2의 영향력은 필연적으로 P1보다 커지게 된다. 이 경우, 인공 신경망 내에서 상기와 같은 단점을 보완하기 위해서는 P2에 부여되는 가중값보다 훨씬 큰 가중값을 P1에 부여할 필요가 있다. 그러나, 상기와 같이 가중값을 조절하면, 최적의 매개 변수(가중값 및 편향값)을 발견하는 학습 과정이 효율적으로 운영되지 않을 우려가 있다. 추가로, 인공 신경망을 규정하는 전달 함수가 시그모이드 함수(sigmoid function) 등의 형태로 표현될 경우에는, 입력 변수의 값이 커지거나 작아질수록, 출력 변수의 값이 일정한 수로 수렴하는 경향으로 나타날 문제점도 가지고 있다. 본 발명에서는 상기와 같은 문제점을 해결하기 위하여, 도입될 입력 변수의 값을 표준화하는 과정을 거치는 것이 바람직하고, 이와 같은 표준화 과정은 크게 하기 세 가지 방법으로 수행될 수 있다.
첫 번째 표준화 방법은 입력 변수 Xi를 최대 입력 변수 Xi . max로 나누어 입력 변수를 0과 1 사이의 값으로 표준화하는 방법이다. 그러나, 이 방법의 경우 표준화된 값의 범위가 0과 1 사이에 포함되는 특정 범위로 한정된다는 단점이 있다.
표준화를 위한 두 번째 방법은 하기 수학식 4에 나타난 바와 같은 연산을 수행하여, 입력 변수의 최소값이 0이고, 최대값이 1이 되도록 표준화하는 방법이다.
[수학식 4]
Figure 112008031454043-PAT00004
상기 수학식 4에서 Xi ,n은 표준화된 각 입력 변수를 나타내고, Xi는 표준화 전의 각 입력 변수를 나타내며, Xi , min은 입력 변수의 최소값을 나타내고, Xi.max는 입력 변수의 최대값을 나타낸다.
세 번째 표준화 방법은 입력 변수들의 평균값을 0으로 설정하고, 모든 변수값이 -1 내지 1의 범위에 포함되도록 하는 것이며, 이에 의해 입력 변수는 평균값이 0(μ=0)이고, 표준편차가 1(δ=1)이 되도록 표준화된다.
본 발명에서는 상기 중 어느 표준화 방법도 채용할 수 있으나, 이 중 세 번째 방법을 사용하는 것이 가장 바람직하다.
본 발명의 최적화 방법에서는 또한 주성분 분석(PCA, Principal Component Analysis)을 수행하여 인공 신경망으로 도입될 입력 변수를 결정하는 단계를 추가로 포함하는 것이 바람직하다. 이 때 주성분 분석에 도입되는 입력 변수는 전술한 표준화 과정을 거친 후의 변수인 것이 바람직하지만, 이에 제한되는 것은 아니다. 이와 같은 주성분 분석 과정을 수행함으로써, 서로 상관 관계가 높은 다변량 변수의 데이터 행렬을 통계적으로 독립적인 새로운 변수들로 변환시켜, 데이터 분포 정 보를 그대로 사용하면서도 처리 및 해석을 용이하게 할 수 있는 이점이 있다. 본 발명에서는 상기와 같은 주성분 분석을 이 분야의 일반적인 방법을 적용하여 수행할 수 있으며, 이는 특별히 제한되지 않는다.
본 발명의 방법에서는 또한 인공 신경망으로 도입되는 입력 변수가 수소화 반응기의 운전시간, 원료의 주입 유량, 촉매 베드 입구에서의 아세틸렌 몰분율, 촉매 베드 입구에서의 에탄 몰분율, 촉매 베드 입구에서의 수소 몰분율, 촉매 베드 입구에서의 일산화탄소 몰분율; 및 촉매 베드 입구에서의 온도로 이루어진 군으로부터 선택된 하나 이상인 것이 바람직하다. 본 발명에서는 상기와 같은 입력 변수의 구체적인 개수는 사용되는 반응기의 종류에 따라 자유롭게 변경될 수 있다. 예를 들어, 본 발명의 상기 수소화 반응이 3개의 촉매 베드(제 1, 제 2 및 제 3 촉매 베드)를 포함하는 고정층 단열 반응기(fixed bed adiabatic reactor)에서 수행될 경우에는, 인공 신경망으로 도입되는 입력 변수가 수소화 반응기의 운전시간, 원료의 주입 유량, 제 1 베드 입구에서의 아세틸렌 몰분율, 제 1 베드 입구에서의 에탄 몰분율, 제 1 베드 입구에서의 수소 몰분율, 제 1 베드 입구에서의 일산화탄소 몰분율; 제 1 베드 입구에서의 온도; 제 2 베드 입구에서의 수소 몰분율, 제 2 베드 입구에서의 일산화탄소의 몰분율; 제 2 베드 입구에서의 온도; 제 3 베드 입구에서의 수소 몰분율, 제 3 베드 입구에서의 일산화탄소의 몰분율 및 제 3 베드 입구에서의 온도로 이루어진 군으로부터 선택된 하나 이상일 수 있으며, 이와 같은 입력 변수는 전술한 바와 같이 표준화 및 주성분 분석 단계를 거친 후의 입력 변수일 수 있다.
본 발명에서는 또한 상기와 같은 입력 변수가 도입되는 인공 신경망이, 하나 이상의 뉴런을 가지는 입력층; 상기 입력층의 뉴런과 연결된 하나 이상의 뉴런을 가지는 하나 이상의 은닉층; 및 상기 은닉층의 뉴런과 연결된 하나 이상의 뉴런을 가지는 출력층을 포함하는 것이 바람직하다. 이 때 개개의 층에 포함되는 뉴런의 개수 및/또는 은닉층의 개수는 본 발명의 최적화 방법이 적용되는 구체적인 반응기의 형태 및/또는 반응 조건에 따라서 변경될 수 있다. 예를 들어, 본 발명의 방법이 3개의 촉매 베드를 포함하는 고정층 단열 반응기에서 수행될 경우, 인공 신경망은, 11개 내지 15개의 뉴런을 포함하는 입력층; 상기 입력층의 뉴런과 연결된 25개 내지 35개의 뉴런을 포함하는 제 1 은닉층; 상기 제 1 은닉층의 뉴런과 연결된 10개 내지 20개의 뉴런을 포함하는 제 2 은닉층; 및 상기 제 2 은닉층의 뉴런과 연결된 7개 내지 11개의 뉴런을 포함하는 출력층을 포함하는 것이 바람직하지만, 이에 제한되는 것은 아니다.
본 발명에서는 또한 상기와 같은 인공 신경망의 네트워크 구조에 있어서, 입력층에 포함되는 뉴런 및 은닉층에 포함되는 뉴런의 연결 관계; 또는 인공 신경망이 복수의 은닉층을 포함할 경우에 상기 복수의 은닉층에 포함되는 뉴런 간의 연결 관계가 하이퍼볼릭 탄젠트 시그모이드 함수, 로그 시그모이드(log sigmoid) 함수, 라디얼 베이시스(radial basis) 함수 및 트라이앵귤러 베이시스(triangular basis) 함수로 이루어진 군으로부터 선택된 하나 이상의 함수에 의해 규정되는 것이 바람직하다. 예를 들어, 본 발명의 인공 신경망이 전술한 바와 같이, 하나의 입력층, 제 1 및 제 2의 두 개의 은닉층 및 하나의 출력층을 포함할 경우, 입력층에 포함되는 뉴런 및 제 1 은닉층에 포함되는 뉴런의 연결 관계; 그리고 제 1 은닉층에 포함되는 뉴런 및 제 2 은닉층에 포함되는 뉴런의 연결 관계가 상기 함수에 의해 규정되는 것이 바람직하다. 본 발명에서는 상기 연결 관계가 예를 들면 하기 수학식 5와 같이 나타나는 하이퍼볼릭 탄젠트 시그모이드 함수에 의해 규정되는 것이 바람직하지만, 이에 제한되는 것은 아니다.
[수학식 5]
Figure 112008031454043-PAT00005
본 발명에서는 또한 상기 인공 신경망에 있어서, 은닉층(ex. 제 2 은닉층)에 포함되는 뉴런 및 출력층에 포함되는 뉴런의 연결 관계가 선형 함수에 의해 규정되는 것이 바람직하다.
본 발명의 제 2 단계는 상기와 같이 훈련된 인공 신경망으로 도입된 입력 변수를 사용한 인공 신경망 처리 과정을 통하여, 상기 선택적 수소화 반응 및 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수를 산출하는 단계이다. 본 발명에서 사용하는 용어 『선택적 수소화 반응 및 상기 반응이 수행되는 반응기의 거 동과 관련된 출력 변수』는 선택적 수소화 반응 및/또는 상기 반응이 수행되는 반응기의 거동과 관련된 변수, 즉 아세틸렌의 전환율 또는 에틸렌의 선택도 등을 의미한다. 보다 구체적으로, 본 발명의 제 2 단계에서 산출되는 출력 변수는, 전술한 입력 변수에 대응하여 산출되는 것으로, 촉매 베드 출구에서의 아세틸렌 전환율, 촉매 베드 출구에서의 에틸렌 수율 및 촉매 베드 출구 온도로 이루어진 군으로부터 선택된 하나 이상일 수 있다. 상기 출력 변수 역시 반응이 수행되는 반응기 또는 반응 조건 등에 따라 다양하게 변경될 수 있으며, 예를 들어 수소화 반응이 3개의 촉매 베드를 포함하는 고정층 단열 반응기에서 수행될 경우, 상기 출력 변수는 제 1 촉매 베드 출구에서의 아세틸렌 전화율, 제 1 촉매 베드 출구에서의 에틸렌 수율, 제 1 촉매 베드 출구 온도, 제 2 촉매 베드 출구에서의 아세틸렌 전환율, 제 2 촉매 베드 출구에서의 에틸렌 수율, 제 2 촉매 베드 출구 온도, 제 3 촉매 베드 출구에서의 아세틸렌 전환율, 제 3 촉매 베드 출구에서의 에틸렌 수율 및 제 3 촉매 베드 출구 온도일 수 있다.
본 발명에서는 이상 설명한 바와 같이 아세틸렌의 선택적 수소화 반응을 모사하도록 훈련된 인공 신경망에 도입된 입력 변수에 따른 출력 변수를 산출하는 단계를 수행한다.
이러한 과정을 거쳐, 본 발명에서는 실제 반응 공정에서 반응기에 도입되는 입력 변수에 따른 출력 변수를 정확하게 예측할 수 있다. 이에 따라 본 발명에서는 반응 속도식을 사용한 모사와 같은 기존의 방법에 비해 시간 및 비용을 획기적으로 절감하면서도, 수소화 반응의 조건과 관련된 다양한 독립 변수(입력 변수)와 반응 및 반응기 거동의 상관 관계를 정확하게 예측할 수 있다.
이하 본 발명에 따르는 실시예 및 본 발명에 따르지 않는 비교예를 통하여 본 발명을 보다 상세히 설명하나, 본 발명의 범위가 하기 제시된 실시예에 의해 제한되는 것은 아니다.
실시예 1. 인공 신경망을 사용한 반응의 모사
3개의 촉매 베드를 포함하는 고정층 단열 반응기의 장기간에 걸친 운전을 통해 수집된 276개의 선택적 수소화 반응의 운전 데이터(이력 데이터)를 사용한 훈련 과정을 통하여, 도 5에 나타난 바와 같이, 13개의 뉴런을 포함하는 입력층, 30개의 뉴런을 포함하는 제 1 은닉층, 15개의 뉴런을 포함하는 제 2 은닉층 및 9개의 뉴런을 포함하는 출력층을 갖는 인공 신경망을 구축하였다.
이 때 훈련에 사용된 입력 변수는 표준화 과정(평균값=0, 표준편차=1) 및 주성분 분석을 거쳐 선택된 것으로서, 반응기의 운전시간(t), 원료의 주입 유량(F), 제 1 베드 입구에서의 아세틸렌 몰분류(Ac1), 제 1 베드 입구에서의 에탄 몰분율(Ea1), 제 1 베드 입구에서의 수소 몰분율(H1), 제 1 베드 입구에서의 일산화탄소 몰분율(CO1), 제 1 베드 입구에서의 온도(T1), 제 2 베드 입구에서의 수소 몰분율(H2), 제 2 베드 입구에서의 일산화탄소 몰분율(CO2), 제 2 베드 입구에서의 온 도(T2), 제 3 베드 입구에서의 수소 몰분율(H3), 제 3 베드 입구에서의 일산화탄소 몰분율(CO3) 및 제 3 베드 입구에서의 온도(T3)를 사용하였다.
본 실시예에서 훈련에 사용된 상기 입력 변수의 실례는 하기 표 1에 나타나 있다.
[표 1]
t(day) F(MT/hr) Ac1 Ea1 H1 CO1 T1(℃)
3.0 61 0.02 0.10 0.02 7.2 × 10-8 23
4.0 62 0.02 0.10 0.02 6.9 × 10-8 23
상기 표 1에 나타난 바와 같이 입력 변수 중 F는 다른 입력 변수인 CO1에 비해 약 109배 이상 크며, 이 경우 인공 신경망 처리를 통해 산출되는 출력 변수에 대한 F의 영향력은 필연적으로 CO1에 비해 커지게 된다. 이와 같은 점은 각 입력 변수에 대해 부여되는 가중값의 조절을 통해 어느 정도 해결될 수 있으나, 이와 같이 가중값을 조절하게 되면, 최적의 매개 변수(가중값 및 편향값)을 발견하는 학습 과정이 효율적으로 운영되지 않을 우려가 있다. 이에 따라 상기 학습 과정에서는 모든 입력 변수가 -1 및 1의 사이에 포함될 수 있도록 조정하는 표준화하는 과정을 수행하였다.
그 후, 표준화된 입력 변수 중에서 통계적으로 상호 상관 관계가 큰 변수는 주성분 분석법에 의해 제외하여 데이터 분석을 용이하게 하였다. 첨부된 도 4에 나타난 바와 같이 주성분 분석법에 의해 입력 변수가 10개로 줄어들 경우, 인공 신경망에 의해 계산된 평균 제곱 오차가 제일 작았으며, 변수가 10개 미만이 될 경우 에는 입력 변수의 고유의 독립 특성을 상실하여 평균 제곱 오차가 증가하였다.
본 발명에서는 상기와 같이 선택된 입력 변수를 사용하여 인공 신경망을 학습시켰다. 이 때 인공 신경망의 입력층 및 제 1 은닉층; 그리고 제 1 및 제 2 은닉층의 계산을 위한 전달 함수로는 상기 수학식 5에 나타난 바와 같은 하이퍼볼릭 탄젠트 시그모이드 함수를 사용하였으며, 출력층 계산을 위한 전달 함수로는 선형 함수를 사용하였고, 인공 신경망의 가중값 및 편향값을 최적화하기 위한 수단으로는 Levenberg-Marquardt법을 사용하였다. 또한, 상기 학습 과정에서는 인공 신경망의 과최적화를 방지하기 위하여, 상기 이력 데이터(전체 공정 데이터)를 세 세트(학습, 검증 및 시험 데이터 세트)로 분할하여 수행하였는데, 이 때 상기 세 세트의 비율은 6:2:2(학습 데이터 세트:검증 데이터 세트:시험 데이터 세트)였다.
구축된 인공 신경망을 사용하여 선택적 수소화 반응을 모사한 경우에, 운전 시간에 따른 전환율 및 수율(gain)의 %에러(%error)를 도 6에 나타내었다.
이 때 상기 %에러는 하기 수학식 6에 의해 계산하였다.
[수학식 6]
Figure 112008031454043-PAT00006
도 6의 결과로부터, 본 발명에 따른 인공 신경망에 의해 산출된 수율 및 전환율이 실제의 계측값과 큰 오차를 보이지 않으며, 특히 반응물 주입 유속 및 반응물 농도가 급격히 변하는 구간에서도 반응 및 반응기의 거동을 효과적으로 모사하고 있음을 알 수 있었다.
비교예 1. 반응 속도식을 사용한 반응의 모사
선택적 수소화 반응의 모사에 관한 종래의 기술인 반응 속도식 모델을 사용하여 반응 및 반응기의 거동을 모사하였다. 수소화 반응의 주반응인 아세틸렌의 에틸렌으로의 전환 반응(상기 반응식 1)과 부반응인 에틸렌의 에탄으로의 전환 반응(상기 반응식 2)에 대한 반응 속도식 모델은 멱수 법칙 속도식(power-law rate equation)에 따라 하기 수학식 7과 같이 나타날 수 있다.
[수학식 7]
Figure 112008031454043-PAT00007
또한, 하기 수학식 8은 수소화 반응의 멱수 법칙 반응 속도 모델(power-law kinetic model)에 촉매의 비활성화에 의한 영향(
Figure 112008031454043-PAT00008
) 및 일산화탄소에 의한 영향(
Figure 112008031454043-PAT00009
)을 모두 고려한 것이다.
[수학식 8]
Figure 112008031454043-PAT00010
상기 수학식 8에서, α i , β i, 및 γ i는 각각 운전 데이터로부터 추정되는 파라미터이며, t는 운전시간(run length)(day)을 나타낸다.
수학식 8에 나타낸 반응 속도식은 확산 한계(diffusional limitation)를 포함하는 유효 속도(effective rate)이기 때문에, 반응기 모델링을 위해서는 pseudohomogenous PFR 모델을 사용하였다. 이에 따라 C2H2 및 C2H4에 대한 연속 방 정식(continuity equation)은 하기 수학식 9와 같다.
[수학식 9]
Figure 112008031454043-PAT00011
또한, 에너지 방정식은 하기 수학식 10과 같이 나타날 수 있다.
[수학식 10]
Figure 112008031454043-PAT00012
상기 식에서,
Figure 112008031454043-PAT00013
는 아세틸렌의 전환률,
Figure 112008031454043-PAT00014
는 아세틸렌의 에틸렌으로의 전환률(즉, 에틸렌 수율), W는 베드 당 촉매의 무게,
Figure 112008031454043-PAT00015
는 공급 C2H2 몰유속(feed C2H2 molar flow rate)(mol/s),
Figure 112008031454043-PAT00016
은 질량 유속(mass flow rate)(kg/s),
Figure 112008031454043-PAT00017
는 열용량(heat capacity)(kJ/(kg K)) 그리고
Figure 112008031454043-PAT00018
는 반응열(kg/mol)을 나타낸다.
반응 속도식 모델에서
Figure 112008031454043-PAT00019
Figure 112008031454043-PAT00020
는 하기 수학식 11과 같이 정의할 수 있고, 에틸렌의 수율은 하기 수학식 12와 같이 정의할 수 있다.
[수학식 11]
Figure 112008031454043-PAT00021
[수학식 12]
Figure 112008031454043-PAT00022
상기 수학식 12에서, WC2H2는 반응기 출구에서의 에틸렌 질량 유속을 나타내고, W0 C2H2는 반응기 입구에서의 질량 유속을 나타낸다.
반응기의 촉매 베드 내의 압력 강하는 10% 이내이므로, 본 비교예에서 운동량 방정식(momentum equation)은 고려하지 않았다. 수소화 반응기의 운전 조건(total feed flow rate, 농도 및 온도)에 대하여, 상기 수학식 9, 10, 11 및 12를 동시에 수치 적분하여 각각의 촉매 베드에 대해, 촉매 반응기 길이에 따른 내부 농도 및 온도의 분포를 계산하였다. 최종적으로는, 각 베드 출구에서의 농도 및 온도를 실제 반응기 운전 데이터와 비교하여 그 차이가 최소화되도록 파라미터를 조절하였다. 첨부된 도 7은 상기와 같은 반응 속도식 모델을 사용한 모사 결과를 나타낸다. 도 7에 나타난 바와 같이, 수율 및 전환률의 %에러는 운전 시간의 경과에 따라 더욱 커졌다. 즉, 운전 시간의 경과에 따라 모델에 의해 계산한 수율 및 전환률의 실제 계측값과의 차이가 점점 커지는 것을 알 수 있다. 이와 같은 오차는 특히 60 내지 80일 부근에서 매우 컸다. 이는 반응기의 운전 중 촉매의 비활성화가 급격히 진행되고, 반응물 주입 유속 및 반응물 농도의 급격한 변동으로 인해 정확도가 감소하기 때문이다.
도 1은 기본적인 인공 신경망의 구조를 나타내는 도면이다.
도 2는 인공 신경망에 포함되는 단위 뉴런의 동작을 나타내는 도면이다.
도 3은 인공 신경망의 훈련 과정을 개략적으로 나타낸 모식도이다.
도 4는 본 발명의 실시예에서 수행된 주성분 분석 과정에서 결정된 입력 변수의 개수 및 평균 제곱 오차의 관계를 나타내는 그래프이다.
도 5는 본 발명의 일 태양에 따라 구축된 인공 신경망의 네트워크 구조를 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 아세틸렌의 선택적 수소화 반응의 모사 결과를 나타내는 도면이다.
도 7은 본 발명의 비교예에 따른 아세틸렌의 선택적 수소화 반응의 모사 결과를 나타내는 도면이다.

Claims (14)

  1. 하나 이상의 촉매 베드를 포함하는 반응기 내에서 원료 중 아세틸렌의 선택적 수소화 반응을 진행시키는 방법에 있어서,
    상기 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하는 제 1 단계; 및
    도입된 입력 변수를 인공 신경망으로 처리하여, 상기 선택적 수소화 반응 또는 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수를 산출하는 제 2 단계를 포함하는 아세틸렌의 선택적 수소화 반응의 최적화 방법.
  2. 제 1 항에 있어서,
    인공 신경망은, (1) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수 및 상기 입력 변수에 대응되는 출력 변수의 세트를 포함하는 이력 데이터 중의 입력 변수를 인공 신경망에 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
    (2) 상기 단계 (1)에서 도입된 입력 변수에 대응하는 이력 데이터 중의 출력 변수 및 상기 단계 (1)에서 산출된 출력 변수의 오차가 최소화되도록, 인공 신경망의 전달 함수의 가중값 및 편향값을 조절하는 단계를 포함하는 방법에 의해 구축된 것임을 특징으로 하는 방법.
  3. 제 1 항에 있어서,
    인공 신경망은, (a) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수 및 상기 입력 변수에 대응하는 출력 변수의 세트를 포함하는 이력 데이터를 학습 데이터 세트, 검증 데이터 세트 및 시험 데이터 세트로 분할하는 단계;
    (b) 상기 학습 데이터 중의 입력 변수를 인공 신경망으로 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계;
    (c) 상기 단계 (b)에서 도입된 입력 변수에 대응하는 상기 학습 데이터의 출력 변수 및 상기 단계 (b)에서 산출된 출력 변수의 오차가 최소화되도록, 인공 신경망의 전달 함수의 가중값 및 편향값을 조절하는 단계;
    (d) 상기 단계 (c)에서 가중값 및 편향값이 조절된 인공 신경망에 상기 검증 데이터 중의 입력 변수를 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
    (e) 상기 단계 (d)에서 도입된 입력 변수에 대응하는 상기 검증 데이터의 출력 변수 및 상기 단계 (d)에서 산출된 출력 변수를 비교하여 오차를 산출하는 단계를 포함하는 방법에 의해 구축된 것임을 특징으로 하는 방법.
  4. 제 3 항에 있어서,
    인공 신경망은, (f) 단계 (c)에서 가중값 및 편향값이 조절된 인공 신경망에 시험 데이터 중의 입력 변수를 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계;
    (g) 상기 단계 (f)에서 도입된 입력 변수에 대응하는 상기 시험 데이터의 출력 변수 및 상기 단계 (f)에서 산출된 출력 변수를 비교하여 오차를 산출하는 단계; 및
    (h) 상기 단계 (g)에서 산출된 오차 및 단계 (e)에서 산출된 오차를 비교하는 단계를 추가로 포함하는 방법에 의해서 구축된 것임을 특징으로 하는 방법.
  5. 제 2 항 또는 제 3 항에 있어서,
    전달 함수의 가중값 및 편향값의 조절은 Levenberg-Marquardt법, BFGS quasi-Newton법, Fletcher-Reeves conjugate gradient법, Polak-Ribiere conjugate gradient법, Powell-Beale conjugate gradient법, Gradient descent법 또는 Resilient backpropagation법에 의해 수행되는 것을 특징으로 하는 방법.
  6. 제 1 항에 있어서,
    인공 신경망은, (i) 아세틸렌의 선택적 수소화 반응의 반응 조건과 관련된 입력 변수를 인공 신경망에 도입하고, 상기 인공 신경망으로 처리하여 출력 변수를 산출하는 단계; 및
    (ii) 상기 단계 (i)에서 산출된 출력 변수를 수소화 반응 또는 상기 반응이 수행되는 반응기의 거동과 관련된 출력 변수의 목표값과 비교하여, 상기 양자의 오차가 최소화되도록 인공 신경망의 전달 함수의 가중값 및 편향값을 조절하는 단계를 포함하는 방법에 의해 구축된 것임을 특징으로 하는 방법.
  7. 제 1 항에 있어서,
    입력 변수를 표준화하는 단계를 추가로 수행하는 것을 특징으로 하는 방법.
  8. 제 7 항에 있어서,
    표준화는 각 입력 변수를 최대 입력 변수로 나누어 0 및 1의 사이의 값으로 표준화하는 방법; 하기 수학식 4에 나타난 바와 같은 연산을 수행하여, 입력 변수의 최소값이 0이고, 최대값이 1이 되도록 표준화하는 방법; 또는 입력 변수의 평균값(μ)이 0이고, 표준편차(δ)가 1이 되도록 표준화하는 방법에 의해 수행하는 것을 특징으로 하는 방법:
    [수학식 4]
    Figure 112008031454043-PAT00023
    상기 수학식 4에서 Xi ,n은 표준화된 각 입력 변수를 나타내고, Xi는 표준화 전의 각 입력 변수를 나타내며, Xi , min은 입력 변수의 최소값을 나타내고, Xi . max는 입력 변수의 최대값을 나타낸다.
  9. 제 1 항에 있어서,
    주성분 분석을 통하여 인공 신경망으로 도입될 입력 변수를 결정하는 단계를 추가로 수행하는 것을 특징으로 하는 방법.
  10. 제 1 항에 있어서,
    입력 변수가 반응기의 운전시간, 원료의 주입 유량, 촉매 베드 입구에서의 아세틸렌 몰분율, 촉매 베드 입구에서의 에탄 몰분율, 촉매 베드 입구에서의 수소 몰분율, 촉매 베드 입구에서의 일산화탄소 몰분율 및 촉매 베드 입구에서의 온도로 이루어진 군으로부터 선택된 하나 이상인 것을 특징으로 하는 방법.
  11. 제 1 항에 있어서,
    인공 신경망은 하나 이상의 뉴런을 가지는 입력층; 상기 입력층의 뉴런과 연결된 하나 이상의 뉴런을 가지는 하나 이상의 은닉층 및 상기 은닉층의 뉴런과 연결된 하나 이상의 뉴런을 가지는 출력층을 포함하는 것을 특징으로 하는 방법.
  12. 제 11 항에 있어서,
    입력층에 포함되는 뉴런 및 은닉층에 포함되는 뉴런의 연결 관계가 하이퍼볼릭 탄젠트 시그모이드 함수, 로그 시그모이드 함수, 라디얼 베이시스 함수 및 트라이앵귤러 베이시스 함수로 이루어진 군으로부터 선택된 하나 이상의 함수에 의해 규정되는 것을 특징으로 하는 방법.
  13. 제 11 항에 있어서,
    은닉층에 포함되는 뉴런 및 출력층에 포함되는 뉴런의 연결 관계가 선형 함수에 의해 규정되는 것을 특징으로 하는 방법.
  14. 제 1 항에 있어서,
    출력 변수가 촉매 베드 출구에서의 아세틸렌 전환율, 촉매 베드 출구에서의 에틸렌 수율 및 촉매 베드 출구 온도로 이루어진 군으로부터 선택된 하나 이상인 것을 특징으로 하는 방법.
KR1020080040809A 2008-04-30 2008-04-30 아세틸렌의 선택적 수소화 반응의 최적화 방법 KR101152870B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080040809A KR101152870B1 (ko) 2008-04-30 2008-04-30 아세틸렌의 선택적 수소화 반응의 최적화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080040809A KR101152870B1 (ko) 2008-04-30 2008-04-30 아세틸렌의 선택적 수소화 반응의 최적화 방법

Publications (2)

Publication Number Publication Date
KR20090114926A true KR20090114926A (ko) 2009-11-04
KR101152870B1 KR101152870B1 (ko) 2012-06-12

Family

ID=41556112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080040809A KR101152870B1 (ko) 2008-04-30 2008-04-30 아세틸렌의 선택적 수소화 반응의 최적화 방법

Country Status (1)

Country Link
KR (1) KR101152870B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102139358B1 (ko) * 2020-04-22 2020-07-29 한국생산기술연구원 머신러닝 기반 플랫폼을 이용한 공정제어방법, 그를 수행하기 위한 컴퓨터 프로그램 매체 및 공정제어장치
CN114509951A (zh) * 2022-04-21 2022-05-17 浙江浙能航天氢能技术有限公司 一种基于神经网络的加氢自适应控制方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102139358B1 (ko) * 2020-04-22 2020-07-29 한국생산기술연구원 머신러닝 기반 플랫폼을 이용한 공정제어방법, 그를 수행하기 위한 컴퓨터 프로그램 매체 및 공정제어장치
CN114509951A (zh) * 2022-04-21 2022-05-17 浙江浙能航天氢能技术有限公司 一种基于神经网络的加氢自适应控制方法及装置

Also Published As

Publication number Publication date
KR101152870B1 (ko) 2012-06-12

Similar Documents

Publication Publication Date Title
Zhang et al. A weighted auto regressive LSTM based approach for chemical processes modeling
CN104804761B (zh) 一种加氢裂化装置的收率实时预测方法
Ayodele et al. Modelling and optimization of syngas production from methane dry reforming over ceria-supported cobalt catalyst using artificial neural networks and Box–Behnken design
Bhutani et al. First-principles, data-based, and hybrid modeling and optimization of an industrial hydrocracking unit
Arce-Medina et al. Artificial neural network modeling techniques applied to the hydrodesulfurization process
Bellos et al. Modelling of the performance of industrial HDS reactors using a hybrid neural network approach
CN104361153B (zh) 一种预测重油催化裂化沉降器结焦量的方法
Karimi et al. Improving thermal efficiency and increasing production rate in the double moving beds thermally coupled reactors by using differential evolution (DE) technique
CN110456756A (zh) 一种适用于连续生产过程全局运行状况在线评估的方法
ITMI980734A1 (it) Procedimento per determinare il tenore in azoto dell'effluente del reattore di pretrattamento in un impianto di cracking catalitico
Ancheyta-Juarez et al. Modeling and simulation of four catalytic reactors in series for naphtha reforming
Sadighi et al. Predictive modeling for an industrial naphtha reforming plant using artificial neural network with recurrent layers
CN104463343A (zh) 一种预测催化裂化轻质油产率的方法
Sadighi et al. Optimizing an industrial scale naphtha catalytic reforming plant using a hybrid artificial neural network and genetic algorithm technique
KR101152870B1 (ko) 아세틸렌의 선택적 수소화 반응의 최적화 방법
Abdolkarimi et al. Robust prediction and optimization of gasoline quality using data-driven adaptive modeling for a light naphtha isomerization reactor
CN104765347A (zh) 一种渣油延迟焦化过程中收率实时预测方法
Vieira et al. Identification and predictive control of a FCC unit using a MIMO neural model
Nabavi et al. Modeling of thermal cracking of LPG: application of artificial neural network in prediction of the main product yields
Sharma et al. Fischer–Tropsch synthesis with Co/SiO2–Al2O3 catalyst and steady-state modeling using artificial neural networks
Ehsani et al. Modeling of oxidative coupling of methane over Mn/Na2WO4/SiO2 catalyst using artificial neural network
Jiang et al. Reactor model of counter-current continuous catalyst-regenerative reforming process toward real time optimization
Ahmad et al. Virtual sensing of catalytic naphtha reforming process under uncertain feed conditions
Sadighi et al. EVALUATING THE ABILITY OF R FOR MODELING A COMMERCIAL SCALE VGO HYDROCRACKING PLANT USING ARTIFICIAL NEURAL NETWORK (ANN).
Zahedi et al. A neural network approach for identification and modeling of delayed coking plant

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080430

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20100525

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20080430

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20111118

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20120519

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20120529

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20120530

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20150416

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20150416

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20160523

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20160523

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20170328

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20180418

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20180418

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20190401

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20200421

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20210322

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20220502

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20230323

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20240320

Start annual number: 13

End annual number: 13