KR20210058548A - 인공 신경망을 이용한 자동변속기 모델링 방법 - Google Patents

인공 신경망을 이용한 자동변속기 모델링 방법 Download PDF

Info

Publication number
KR20210058548A
KR20210058548A KR1020190146139A KR20190146139A KR20210058548A KR 20210058548 A KR20210058548 A KR 20210058548A KR 1020190146139 A KR1020190146139 A KR 1020190146139A KR 20190146139 A KR20190146139 A KR 20190146139A KR 20210058548 A KR20210058548 A KR 20210058548A
Authority
KR
South Korea
Prior art keywords
neural network
fcnn
layer
artificial neural
rnn
Prior art date
Application number
KR1020190146139A
Other languages
English (en)
Inventor
정동훈
전병욱
국재창
박광희
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190146139A priority Critical patent/KR20210058548A/ko
Priority to US16/944,845 priority patent/US20210150108A1/en
Publication of KR20210058548A publication Critical patent/KR20210058548A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H59/00Control inputs to control units of change-speed-, or reversing-gearings for conveying rotary motion
    • F16H59/14Inputs being a function of torque or torque demand
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H59/00Control inputs to control units of change-speed-, or reversing-gearings for conveying rotary motion
    • F16H59/36Inputs being a function of speed
    • F16H59/38Inputs being a function of speed of gearing elements
    • F16H59/40Output shaft speed
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H59/00Control inputs to control units of change-speed-, or reversing-gearings for conveying rotary motion
    • F16H59/36Inputs being a function of speed
    • F16H59/44Inputs being a function of speed dependent on machine speed of the machine, e.g. the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H59/00Control inputs to control units of change-speed-, or reversing-gearings for conveying rotary motion
    • F16H59/14Inputs being a function of torque or torque demand
    • F16H2059/147Transmission input torque, e.g. measured or estimated engine torque
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H61/00Control functions within control units of change-speed- or reversing-gearings for conveying rotary motion ; Control of exclusively fluid gearing, friction gearing, gearings with endless flexible members or other particular types of gearing
    • F16H2061/0075Control functions within control units of change-speed- or reversing-gearings for conveying rotary motion ; Control of exclusively fluid gearing, friction gearing, gearings with endless flexible members or other particular types of gearing characterised by a particular control method
    • F16H2061/0093Control functions within control units of change-speed- or reversing-gearings for conveying rotary motion ; Control of exclusively fluid gearing, friction gearing, gearings with endless flexible members or other particular types of gearing characterised by a particular control method using models to estimate the state of the controlled object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 인공 신경망을 이용한 자동변속기 모델링 방법에 관한 것으로, 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN이 조합된 인공 신경망에서, 초기값과 RNN 블록의 출력을 이용하여 예측한 결과와 상기 RNN 블록의 출력을 각각 다음 계층의 RNN 블록에 입력함으로써, 계층 내 RNN 블록의 수는 물론 상기 계층의 수가 증가하더라도 정확도 높은 최종 출력값을 예측해 낼 수 있는 인공 신경망을 이용한 자동변속기 모델링 방법을 제공하고자 한다.
이를 위하여, 본 발명은 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN(Recurrent Neural Network)을 조합하여 인공 신경망을 생성하는 단계; 자동변속기의 입력데이터와 출력데이터를 이용하여 상기 인공 신경망을 학습시키는 단계; 및 상기 학습이 완료된 인공 신경망을 자동변속기의 모델로 결정하는 단계를 포함한다.

Description

인공 신경망을 이용한 자동변속기 모델링 방법{METHOD FOR MODELING AUTOMATIC TRANSMISSION USING ARTIFICIAL NEURAL NETWORK}
본 발명은 인공 신경망을 이용하여 자동변속기의 입력신호와 출력신호 간의 관계를 나타내는 모델을 생성하는 기술에 관한 것이다.
일반적으로, 심층 학습(Deep Learning or Deep Neural Network)은 기계 학습(Machine Learning)의 한 종류로서, 입력과 출력 사이에 여러 층의 인공 신경망(ANN, Artificial Neural Network)이 구성되어 있으며, 이러한 인공 신경망은 구조와 해결할 문제 및 목적 등에 따라 콘볼루션 신경망(CNN, Convolution Neural Network) 또는 순환 신경망(RNN, Recurrent Neural Network) 등을 포함할 수 있다.
콘볼루션 신경망에 입력되는 데이터는 트레이닝 셋과 테스트 셋으로 구분되는데, 콘볼루션 신경망은 트레이닝 셋을 통해 신경망의 가중치를 학습하고, 이렇게 학습된 결과를 테스트 셋을 통해 확인한다.
이러한 콘볼루션 신경망에서는 데이터가 입력되면 입력층(Input Layer)에서 은닉층(Hidden Layer)까지 연산이 차근차근 진행되어 그 결과가 출력되는데, 이 과정에서 입력 데이터는 모든 노드를 한번씩만 경유하게 된다. 이렇게 입력 데이터가 모든 노드를 한번씩만 경유한다는 것은 데이터의 순서 즉 시간적인 측면을 고려하지 않는 구조라는 것을 의미한다. 결국, 콘볼루션 신경망은 입력 데이터의 시간 순서에 상관없이 학습을 수행한다.
반면, 순환 신경망은 이전 노드의 은닉층의 결과가 다음 노드의 은닉층의 입력으로 사용되는 구조를 갖는다. 이러한 구조는 입력 데이터의 시간 순서가 고려되는 것을 의미한다.
이러한 순환 신경망은 시계열 데이터(time-series data)와 같이 시간의 흐름에 따라 변화하는 데이터를 학습하기 위한 딥 러닝 모델로서, 기준 시점(t)과 다음 시점(t+1)에 네트워크를 연결하여 구성한 인공신경망(Artificial Neural Network, ANN)이다.
순환 신경망은 인공신경망을 구성하는 유닛 사이의 연결이 순환구조(directed cycle)를 구성하는데, FRN(Fully Recurrent Network), SEN(Echo State Network), LSTM(Long Short Term Memory network), CTRNN(Continuous-Time RNN) 등이 대표적이다.
순환 신경망은 시계열 데이터의 수에 따라 복수의 순환 신경망 블록으로 이루어질 수 있고, 이러한 순환 신경망은 복수의 레이어로 적층될 수 있는데, 이때 각 순환 신경망 사이를 연결하기 위해 완전연결 신경망(Fully Connection Neural Network, FCNN)이 이용될 수도 있다.
종래의 자동변속기 모델링 방법은 자동변속기에 대한 운동방정식을 생성한 후, 복수의 시험 데이터와 일치시키기 위해 상기 운동방정식을 수정하는 과정에서 상당한 노하우를 요구하고, 아울러 많은 시간을 필요로 하는 문제점이 있다.
이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로서, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.
본 발명은 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN이 조합된 인공 신경망에서, 초기값과 RNN 블록의 출력을 이용하여 예측한 결과와 상기 RNN 블록의 출력을 각각 다음 계층의 RNN 블록에 입력함으로써, 계층 내 RNN 블록의 수는 물론 상기 계층의 수가 증가하더라도 정확도 높은 최종 출력값을 예측해 낼 수 있는 인공 신경망을 이용한 자동변속기 모델링 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예는, 인공 신경망을 이용한 자동변속기 모델링 방법에 있어서, 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN(Recurrent Neural Network)을 조합하여 인공 신경망을 생성하는 단계; 자동변속기의 입력데이터와 출력데이터를 이용하여 상기 인공 신경망을 학습시키는 단계; 및 상기 학습이 완료된 인공 신경망을 자동변속기의 모델로 결정하는 단계를 포함할 수 있다.
본 발명의 일 실시예에서, 상기 인공 신경망은 초기값과 RNN 블록의 출력을 이용하여 예측한 결과와 상기 RNN 블록의 출력이 각각 다음 계층의 RNN 블록에 입력되는 구조를 갖을 수 있다.
본 발명의 일 실시예에서, 상기 인공 신경망은 복수의 RNN 블록을 구비한 RNN이 복수의 계층을 이루고, 각 계층의 RNN 블록은 FCNN에 의해 각각 연결되는 구조를 갖을 수 있다.
본 발명의 일 실시예에서, 상기 인공 신경망을 학습시키는 단계는, 각 계층에서 초기값과 제1 RNN 블록의 출력을 해당 계층의 제1 FCNN에 입력하는 단계; 및 각 계층에서 제1 FCNN에 의해 예측된 결과를 해당 계층의 다음 FCNN에 입력하는 단계를 포함할 수 있다.
본 발명의 일 실시예에서, 상기 제2 FCNN에 입력하는 단계는, 제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 제2 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 및 제3 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계를 포함할 수 있다.
본 발명의 일 실시예에서, 상기 제2 FCNN에 입력하는 단계는, 제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 계층의 제1 RNN 블록에 입력하는 단계; 제2 계층에서 제1 FCNN에 의해 예측된 결과를 제3 계층의 제1 RNN 블록에 입력하는 단계; 및 제3 계층에서 제1 FCNN에 의해 예측된 결과를 입력값에 대한 출력값으로서 출력하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에서, 상기 입력데이터는 현재 기어단, 목표 기어단, 클러치 유압 액추에이터의 전류신호, 엔진토크 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 일 실시예에서, 상기 출력데이터는 엔진회전수, 터빈회전수, 변속기 출력 회전수, 차량 가속도 중 적어도 하나 이상을 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예는, 인공 신경망을 이용한 자동변속기 모델링 방법에 있어서, 초기값과 RNN(Recurrent Neural Network) 블록의 출력을 이용하여 예측한 결과와, 상기 RNN 블록의 출력이 각각 다음 계층의 RNN 블록에 입력되는 구조를 갖는 인공 신경망을 생성하는 단계; 및 상기 생성한 인공 신경망을 이용하여 자동변속기를 모델링하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에서, 상기 인공 신경망은 복수의 RNN 블록을 구비한 RNN이 복수의 계층을 이루고, 각 계층의 RNN 블록은 FCNN에 의해 각각 연결되는 구조를 갖을 수 있다.
본 발명의 다른 실시예에서, 상기 인공 신경망을 학습시키는 단계는, 각 계층에서 초기값과 제1 RNN 블록의 출력을 해당 계층의 제1 FCNN에 입력하는 단계; 및 각 계층에서 제1 FCNN에 의해 예측된 결과를 해당 계층의 다음 FCNN에 입력하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에서, 상기 제2 FCNN에 입력하는 단계는, 제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 제2 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 및 제3 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에서, 상기 제2 FCNN에 입력하는 단계는, 제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 계층의 제1 RNN 블록에 입력하는 단계; 제2 계층에서 제1 FCNN에 의해 예측된 결과를 제3 계층의 제1 RNN 블록에 입력하는 단계; 및 제3 계층에서 제1 FCNN에 의해 예측된 결과를 입력값에 대한 출력값으로서 출력하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예에서, 상기 입력데이터는 현재 기어단, 목표 기어단, 클러치 유압 액추에이터의 전류신호, 엔진토크 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 다른 실시예에서, 상기 출력데이터는 엔진회전수, 터빈회전수, 변속기 출력 회전수, 차량 가속도 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법은, 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN이 조합된 인공 신경망에서, 초기값과 RNN 블록의 출력을 이용하여 예측한 결과와 상기 RNN 블록의 출력을 각각 다음 계층의 RNN 블록에 입력함으로써, 계층 내 RNN 블록의 수와 상기 계층의 수가 증가하더라도 정확도 높은 최종 출력값을 예측해 낼 수 있다.
도 1 은 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도,
도 2 는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법에 대한 일 실시예 흐름도,
도 3 은 본 발명의 일 실시예에 따른 자동변속기 모델링을 위한 인공 신경망에 대한 일예시도,
도 4 는 본 발명의 일 실시예에 따른 자동변속기 모델링을 위한 인공 신경망에서 초기값의 수평 흐름을 나타내는 도면,
도 5 는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법의 성능을 나타내는 도면이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1 은 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도이다.
도 1을 참조하면, 상술한 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법은 컴퓨팅 시스템을 통해서 구현될 수 있다. 컴퓨팅 시스템(1000)은 시스템 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, SSD(Solid State Drive), 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
도 2 는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법에 대한 일 실시예 흐름도로서, 프로세서(1100)에 의해 수행되는 과정을 나타낸다.
먼저, 프로세서(1100)는 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN(Recurrent Neural Network)을 조합하여 인공 신경망을 생성한다(201). 이때, 상기 인공 신경망은 초기값과 RNN(Recurrent Neural Network) 블록의 출력을 이용하여 예측한 결과와, 상기 RNN 블록의 출력이 각각 다음 계층의 RNN 블록에 입력되는 구조를 갖을 수 있다. 일례로, 프로세서(1100)는 도 3에 도시된 바와 같은 인공 신경망을 생성할 수 있다.
이후, 프로세서(1100)는 테스트 데이터를 이용하여 상기 생성한 인공 신경망을 학습시킨다(202). 일례로, 프로세서(1100)는 입력값으로서 현재 기어단, 목표 기어단, 클러치 유압 액추에이터의 전류신호, 엔진토크를 입력하고, 출력값으로서 엔진회전수, 터빈회전수, 변속기 출력 회전수, 차량 가속도를 출력되도록 학습시킬 수 있다.
이후, 프로세서(1100)는 상기 학습이 완료된 인공 신경망을 자동변속기의 모델로 결정한다(203).
이러한 방식으로 자동변속기를 모델링함으로써, 종래의 운동방정식 기반의 자동변속기 모델링 방식에 비해 짧은 시간에 효율적이면서 정확도 높은 모델링이 가능해 진다.
한편, 자동변속기 모델은 기준시간(T = n) 동안 N개의 변속기입력신호(제어신호)에 대하여 M개의 변속기출력신호 사이의 관계를 함수(f)로 표현될 수 있으며, 이는 일례로 하기의 [수학식 1]과 같다. 이때, 자동변속기는 xi와 yi로 사상하는 함수(f)로 간주할 수 있다.
[수학식 1]
Figure pat00001
입력신호(xi)의 시계열 데이터를 X=(x1, x2, …, yn)이라 하고, 출력신호(yi)의 시계열 데이터를 Y=(y1, y2, …, yn)이라 하면, k개의 시험 데이터(X,Y)를 하기의 [수학식 2]와 같이 집합(D)의 형태로 표현할 수 있다.
[수학식 2]
D = {(X,Y)|(X1,Y1), … (XK,YK)}
결국, 자동변속기 모델링은 함수 f를 근사하는 함수 h 찾기로 정의할 수 있으며, 이는 도 3에 도시된 바와 같은 인공 신경망을 생성하고, 상기 생성된 인공 신경망을 자동변속기의 입/출력 관련 시험 테이터를 이용하여 학습시키는 과정으로 볼 수 있다.
도 3 은 본 발명의 일 실시예에 따른 자동변속기 모델링을 위한 인공 신경망에 대한 일예시도이다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공 신경망은 3개의 계층과 각 계층 내 n개의 RNN 블록으로 구성될 수 있으나, 계층의 수와 각 계층 내 RNN 블록의 수는 설계자의 의도에 따라 변경 가능하다.
제1 계층에서, 제1 RNN 블록(111)은 제1 입력값(x1)을 입력받고 그에 상응하는 출력값을 제1 FCNN(121)과 제2 계층의 제1 RNN 블록(211)에 각각 입력한다. 이때, 제1 RNN 블록(111)의 출력값은 제2 RNN 블록(112)으로도 입력된다. 또한, 제1 FCNN(121)은 초기값(y0)과 제1 RNN 블록(111)으로부터 출력값을 입력받고 그에 상응하는 출력값을 제2 계층의 제1 RNN 블록(211)와 제1 계층의 제2 FCNN(122)에 각각 입력한다.
제1 계층에서, 제2 RNN 블록(112)은 제2 입력값(x2)과 제2 입력값(x2)을 입력받고 그에 상응하는 출력값을 제2 계층의 제1 RNN 블록(212)에 입력한다. 이때, 제1 RNN 블록(112)의 출력값은 제n-1 RNN 블록(113)으로도 입력된다. 또한, 제2 FCNN(122)은 제1 FCNN(121)의 출력값을 입력받고 그에 상응하는 출력값을 제2 계층의 제2 RNN 블록(212)과 제1 계층의 제k-1 FCNN(123)에 각각 입력한다.
이러한 과정은 최종 입력값(xn)에 대한 최종 출력값(
Figure pat00002
)이 예측될 때까지 수행된다.
제2 계층에서, 제1 RNN 블록(211)은 제1 계층의 제1 FCNN(121)의 출력값과 제1 계층의 제1 RNN 블록(111)의 출력값을 입력받고 그에 상응하는 출력값을 제1 FCNN(221)과 제3 계층의 제1 RNN 블록(311)에 각각 입력한다. 이때, 제1 RNN 블록(211)의 출력값은 제2 RNN 블록(212)으로도 입력된다. 또한, 제1 FCNN(221)은 초기값(y0)과 제1 RNN 블록(211)으로부터 출력값을 입력받고 그에 상응하는 출력값을 제3 계층의 제1 RNN 블록(311)와 제2 계층의 제2 FCNN(222)에 각각 입력한다.
제2 계층에서, 제2 RNN 블록(212)은 제1 계층의 제2 FCNN(122)의 출력값과 제1 계층의 제2 RNN 블록(112)의 출력값을 입력받고 그에 상응하는 출력값을 제3 계층의 제2 RNN 블록(312)에 입력한다. 이때, 제2 RNN 블록(212)의 출력값은 제n-1 RNN 블록(213)으로도 입력된다. 또한, 제2 FCNN(222)은 제1 FCNN(221)의 출력값을 입력받고 그에 상응하는 출력값을 제3 계층의 제2 RNN 블록(312)과 제2 계층의 제k-1 FCNN(223)에 각각 입력한다.
이러한 과정은 최종 입력값(xn)에 대한 최종 출력값(
Figure pat00003
)이 예측될 때까지 수행된다.
제3 계층에서, 제1 RNN 블록(311)은 제2 계층의 제1 FCNN(221)의 출력값과 제2 계층의 제1 RNN 블록(211)의 출력값을 입력받고 그에 상응하는 출력값을 제1 FCNN(321)에 입력한다. 이때, 제1 RNN 블록(311)의 출력값은 제2 RNN 블록(312)으로도 입력된다. 또한, 제1 FCNN(321)은 초기값(y0)과 제1 RNN 블록(311)으로부터 출력값을 입력받고 그에 상응하는 출력값을 제2 FCNN(322)로 입력하고, 아울러 제1 입력값(x1)에 대한 최종 출력값(
Figure pat00004
)으로서 출력한다.
제3 계층에서, 제2 RNN 블록(312)은 제2 계층의 제2 FCNN(222)의 출력값과 제2 계층의 제2 RNN 블록(212)의 출력값을 입력받고 그에 상응하는 출력값을 제2 FCNN(322)에 입력한다. 이때, 제2 RNN 블록(312)의 출력값은 제n-1 RNN 블록(313)으로도 입력된다. 또한, 제2 FCNN(322)은 제1 FCNN(321)의 출력값을 입력받고 그에 상응하는 출력값을 제k-1 FCNN(323)에 입력하고, 아울러 제2 입력값(x2)에 대한 최종 출력값(
Figure pat00005
)으로서 출력한다.
이러한 과정은 최종 입력값(xn)에 대한 최종 출력값(
Figure pat00006
)이 예측될 때까지 수행된다.
본 발명의 일실시예에서 인공 신경망을 3개의 계층으로 구성하고, 각 계층 내 RNN 블록을 36개로 구현 경우에 가장 좋은 성능을 나타냈다.
도 4 는 본 발명의 일 실시예에 따른 자동변속기 모델링을 위한 인공 신경망에서 초기값의 수평 흐름을 나타내는 도면이다.
제1 계층에서, 초기값(y0)은 제1 FCNN(121)에 입력되고, 제1 FCNN(121)의 출력은 제2 FCNN(122)에 입력되며, 제2 FCNN(122)의 출력은 제k-1 FCNN(123)에 입력되고, 제k-1 FCNN(123)의 출력은 제k FCNN(124)에 입력된다.
제2 계층에서, 초기값(y0)은 제1 FCNN(221)에 입력되고, 제1 FCNN(221)의 출력은 제2 FCNN(222)에 입력되며, 제2 FCNN(222)의 출력은 제k-1 FCNN(223)에 입력되고, 제k-1 FCNN(223)의 출력은 제k FCNN(224)에 입력된다.
제3 계층에서, 초기값(y0)은 제1 FCNN(321)에 입력되고, 제1 FCNN(321)의 출력은 제2 FCNN(322)에 입력되며, 제2 FCNN(322)의 출력은 제k-1 FCNN(323)에 입력되고, 제k-1 FCNN(323)의 출력은 제k FCNN(324)에 입력된다.
이렇게 초기값이 각 계층별로 수평 방향으로 영항을 미치기 때문에 계층 내 RNN 블록의 수와 상기 계층의 수가 증가하더라도 정확도 높은 최종 출력값을 예측해 낼 수 있다.
도 5 는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 자동변속기 모델링 방법에 의해 생성된 모델의 성능을 나타내는 도면이다.
도 5에 도시된 바와 같이, 종래의 운동방정식 기반의 자동변속기 모델링 방식은 세대 당 데이터의 소실이 커서 예측 성능이 떨어지는 것을 알 수 있다.
반면, 제안 발명은 세대 당 데이터 소실이 작아 예측 성능이 높은 장점이 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1400: 사용자 인터페이스 입력 장치
1500: 사용자 인터페이스 출력 장치
1600: 스토리지
1700: 네트워크 인터페이스

Claims (15)

  1. 복수의 FCNN(Fully Connection Neural Network)과 다층 RNN(Recurrent Neural Network)을 조합하여 인공 신경망을 생성하는 단계;
    자동변속기의 입력데이터와 출력데이터를 이용하여 상기 인공 신경망을 학습시키는 단계; 및
    상기 학습이 완료된 인공 신경망을 자동변속기의 모델로 결정하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  2. 제 1 항에 있어서,
    상기 인공 신경망은,
    초기값과 RNN 블록의 출력을 이용하여 예측한 결과와 상기 RNN 블록의 출력이 각각 다음 계층의 RNN 블록에 입력되는 구조를 갖는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  3. 제 1 항에 있어서,
    상기 인공 신경망은,
    복수의 RNN 블록을 구비한 RNN이 복수의 계층을 이루고, 각 계층의 RNN 블록은 FCNN에 의해 각각 연결되는 구조를 갖는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  4. 제 3 항에 있어서,
    상기 인공 신경망을 학습시키는 단계는,
    각 계층에서 초기값과 제1 RNN 블록의 출력을 해당 계층의 제1 FCNN에 입력하는 단계; 및
    각 계층에서 제1 FCNN에 의해 예측된 결과를 해당 계층의 다음 FCNN에 입력하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  5. 제 4 항에 있어서,
    상기 제2 FCNN에 입력하는 단계는,
    제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계;
    제2 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 및
    제3 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  6. 제 5 항에 있어서,
    상기 제2 FCNN에 입력하는 단계는,
    제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 계층의 제1 RNN 블록에 입력하는 단계;
    제2 계층에서 제1 FCNN에 의해 예측된 결과를 제3 계층의 제1 RNN 블록에 입력하는 단계; 및
    제3 계층에서 제1 FCNN에 의해 예측된 결과를 입력값에 대한 출력값으로서 출력하는 단계
    를 더 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  7. 제 1 항에 있어서,
    상기 입력데이터는,
    현재 기어단, 목표 기어단, 클러치 유압 액추에이터의 전류신호, 엔진토크 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  8. 제 1 항에 있어서,
    상기 출력데이터는,
    엔진회전수, 터빈회전수, 변속기 출력 회전수, 차량 가속도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  9. 초기값과 RNN(Recurrent Neural Network) 블록의 출력을 이용하여 예측한 결과와, 상기 RNN 블록의 출력이 각각 다음 계층의 RNN 블록에 입력되는 구조를 갖는 인공 신경망을 생성하는 단계; 및
    상기 생성한 인공 신경망을 이용하여 자동변속기를 모델링하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  10. 제 9 항에 있어서,
    상기 인공 신경망은,
    복수의 RNN 블록을 구비한 RNN이 복수의 계층을 이루고, 각 계층의 RNN 블록은 FCNN에 의해 각각 연결되는 구조를 갖는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  11. 제 10 항에 있어서,
    상기 인공 신경망을 학습시키는 단계는,
    각 계층에서 초기값과 제1 RNN 블록의 출력을 해당 계층의 제1 FCNN에 입력하는 단계; 및
    각 계층에서 제1 FCNN에 의해 예측된 결과를 해당 계층의 다음 FCNN에 입력하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  12. 제 11 항에 있어서,
    상기 제2 FCNN에 입력하는 단계는,
    제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계;
    제2 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계; 및
    제3 계층에서 제1 FCNN에 의해 예측된 결과를 제2 FCNN에 입력하는 단계
    를 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  13. 제 12 항에 있어서,
    상기 제2 FCNN에 입력하는 단계는,
    제1 계층에서 제1 FCNN에 의해 예측된 결과를 제2 계층의 제1 RNN 블록에 입력하는 단계;
    제2 계층에서 제1 FCNN에 의해 예측된 결과를 제3 계층의 제1 RNN 블록에 입력하는 단계; 및
    제3 계층에서 제1 FCNN에 의해 예측된 결과를 입력값에 대한 출력값으로서 출력하는 단계
    를 더 포함하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  14. 제 9 항에 있어서,
    상기 입력데이터는,
    현재 기어단, 목표 기어단, 클러치 유압 액추에이터의 전류신호, 엔진토크 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
  15. 제 9 항에 있어서,
    상기 출력데이터는,
    엔진회전수, 터빈회전수, 변속기 출력 회전수, 차량 가속도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 인공 신경망을 이용한 자동변속기 모델링 방법.
KR1020190146139A 2019-11-14 2019-11-14 인공 신경망을 이용한 자동변속기 모델링 방법 KR20210058548A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190146139A KR20210058548A (ko) 2019-11-14 2019-11-14 인공 신경망을 이용한 자동변속기 모델링 방법
US16/944,845 US20210150108A1 (en) 2019-11-14 2020-07-31 Automatic Transmission Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190146139A KR20210058548A (ko) 2019-11-14 2019-11-14 인공 신경망을 이용한 자동변속기 모델링 방법

Publications (1)

Publication Number Publication Date
KR20210058548A true KR20210058548A (ko) 2021-05-24

Family

ID=75909082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190146139A KR20210058548A (ko) 2019-11-14 2019-11-14 인공 신경망을 이용한 자동변속기 모델링 방법

Country Status (2)

Country Link
US (1) US20210150108A1 (ko)
KR (1) KR20210058548A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113567904A (zh) * 2021-07-02 2021-10-29 中国电力科学研究院有限公司 一种适用于电容式互感器的计量误差的方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3357159B2 (ja) * 1993-08-10 2002-12-16 三菱自動車工業株式会社 車両運転操作状態の推定方法および車両運転特性制御方法
JP3389774B2 (ja) * 1996-03-22 2003-03-24 トヨタ自動車株式会社 自動変速機の制御装置
US10395144B2 (en) * 2017-07-24 2019-08-27 GM Global Technology Operations LLC Deeply integrated fusion architecture for automated driving systems
US20200082247A1 (en) * 2018-09-07 2020-03-12 Kneron (Taiwan) Co., Ltd. Automatically architecture searching framework for convolutional neural network in reconfigurable hardware design
CA3112406A1 (en) * 2018-09-21 2020-03-26 ePower Engine Systems Inc Ai-controlled multi-channel power divider / combiner for a power-split series electric hybrid heavy vehicle
US11087086B2 (en) * 2019-07-12 2021-08-10 Adp, Llc Named-entity recognition through sequence of classification using a deep learning neural network

Also Published As

Publication number Publication date
US20210150108A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
CN109816032B (zh) 基于生成式对抗网络的无偏映射零样本分类方法和装置
US20130282635A1 (en) Method For The Computer-Assisted Modeling Of A Technical System
US20240086603A1 (en) Device for generating verification vector for circuit design verification, circuit design system, and reinforcement learning method of the device and the circuit design system
CN109919304A (zh) 神经网络搜索方法、装置、可读存储介质和计算机设备
CN109581190B (zh) 一种用于电路故障诊断的最优诊断树生成方法
CN111507459B (zh) 降低神经网络的注解费用的方法和装置
JP7131393B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN112561057B (zh) 一种状态控制方法及装置
TWI785739B (zh) 目標模型的獲取方法、電子設備與儲存媒體
KR20190125029A (ko) 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치
CN111340179A (zh) 一种卷积神经网络拓扑方法
CN115688040A (zh) 一种机械设备故障诊断方法、装置、设备及可读存储介质
KR20210058548A (ko) 인공 신경망을 이용한 자동변속기 모델링 방법
WO2020054345A1 (ja) 電子制御装置、ニューラルネットワーク更新システム
CN116663491B (zh) 基于bdd求解功能覆盖组条件约束语句的方法、设备和介质
CN112749516A (zh) 适应多类型数据特征的体系组合模型可信度智能评估方法
CN117131979A (zh) 基于有向超图及注意力机制的交通流速度预测方法及系统
CN111401530A (zh) 循环神经网络及其训练方法训练方法
US20220067517A1 (en) Artificial neural network
CN114187466A (zh) 人工神经网络的更灵活的迭代运行
CN113269313A (zh) 突触权重训练方法、电子设备和计算机可读介质
KR20210047127A (ko) 반도체 회로를 검증하기 위한 최적화된 검증 벡터를 생성하는 전자 장치 및 그 동작 방법
CN115964661B (zh) 基于域对抗网络的旋转机械故障诊断方法和系统
Ludermir Logical networks capable of computing weighted regular languages
CN113740064B (zh) 滚动轴承故障类型诊断方法、装置、设备及可读存储介质