KR102197724B1 - 충돌 성능 예측 장치 및 충돌 성능 예측 방법 - Google Patents

충돌 성능 예측 장치 및 충돌 성능 예측 방법 Download PDF

Info

Publication number
KR102197724B1
KR102197724B1 KR1020190084999A KR20190084999A KR102197724B1 KR 102197724 B1 KR102197724 B1 KR 102197724B1 KR 1020190084999 A KR1020190084999 A KR 1020190084999A KR 20190084999 A KR20190084999 A KR 20190084999A KR 102197724 B1 KR102197724 B1 KR 102197724B1
Authority
KR
South Korea
Prior art keywords
design data
performance prediction
image
collision performance
impact
Prior art date
Application number
KR1020190084999A
Other languages
English (en)
Inventor
이신선
이태희
박성근
김현석
박민규
Original Assignee
현대자동차주식회사
기아자동차주식회사
순천향대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사, 순천향대학교 산학협력단 filed Critical 현대자동차주식회사
Priority to KR1020190084999A priority Critical patent/KR102197724B1/ko
Priority to US16/675,650 priority patent/US11657272B2/en
Priority to CN201911173467.5A priority patent/CN112231823B/zh
Application granted granted Critical
Publication of KR102197724B1 publication Critical patent/KR102197724B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • G01M17/0078Shock-testing of vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

일 실시예에 따른 충돌 성능 예측 장치는 시험 대상 설계 데이터를 전처리하여 시험 대상 오버랩 이미지를 생성하는 데이터 처리부와 기존 설계 데이터를 전처리한 오버랩 이미지와 상기 기존 설계 데이터에 대응되는 기존 충격량 데이터를 기계 학습하여 충돌 성능 예측 모델에 기초하여 상기 시험 대상 오버랩 이미지의 입력에 대하여 예측 충격값 및 예측 충격 등급값 중 적어도 하나를 출력하는 출력부를 포함한다.

Description

충돌 성능 예측 장치 및 충돌 성능 예측 방법{APPARATUS FOR CRASHWORTHINESS PREDICTION AND METHOD THEREOF}
개시된 발명은 충돌 성능 예측 장치 및 충돌 성능 예측 방법에 관한 발명으로, 더욱 상세하게는 기계 학습 모델에 기반한 충돌 성능 예측 장치 및 충돌 성능 예측 방법에 관한 것이다.
유럽 등 여러 국가에서는 운전자 및 보행자의 안전을 위하여 새로운 차량에 대하여 다양한 테스트가 실시된다.
대표적으로, 유로 NCAP(European New Car Assessment Program) 테스트가 있으며, 상기 테스트에서는 정면 충돌, 측면 충돌 및 보행자 충돌에 관한 시험을 실시하여 차량 안전 성능에 따라 등급을 부여한다.
따라서, 자동차 제조사들은 차량의 안전 성능을 향상 시키기 위해, 차량을 설계하고, 목표 안전 등급의 달성여부를 확인하기 위해 실제 차량을 제작하여 상기 다양한 테스트를 실시하고 그 결과를 차량 설계에 다시 반영하는 절차를 반복적으로 수행하고 있다. 이 경우 많은 비용과 시간이 소요되고, 동일 테스트가 반복 수행됨에 따라 많은 공수(工數)가 발생한다. 또한, 실제 테스트를 위한 차량을 제작할 수 없는 초기 개발 또는 선행 개발 단계에서는 새로운 설계 정보에 대하여 차량의 안전 성능을 테스트할 수 없어 개발 차량의 안전 성능을 확인 할 수가 없다. 따라서, 전술한 단점들을 극복하고, 새로운 차량 설계에 대한 신뢰성 높은 테스트 결과를 획득할 수 있는 방안이 필요하다.
개시된 발명의 일 측면은 설계 정보를 기초로 하여 보행자 안전 성능 평가를 하기 위한 기계 학습 모델을 생성하고, 생성된 기계 학습 모델을 이용하여 높은 신뢰성 및 효율성을 갖는 충돌 성능 예측 장치 및 충돌 성능 예측 방법을 제공하고자 한다.
개시된 발명의 일 실시예에 따른 충돌 성능 예측 장치는 시험 대상 설계 데이터를 전처리하여 시험 대상 오버랩 이미지를 생성하는 데이터 처리부; 및 기존 설계 데이터를 전처리한 오버랩 이미지와 상기 기존 설계 데이터에 대응되는 기존 충격량 데이터를 기계 학습하여 충돌 성능 예측 모델에 기초하여 상기 시험 대상 오버랩 이미지의 입력에 대하여 예측 충격값 및 예측 충격 등급값 중 적어도 하나를 출력하는 출력부를 포함한다.
일 실시예에 따르면, 상기 기존 설계 데이터는, 제1 설계 데이터 및 제2 설계 데이터를 포함하되, 상기 제1 설계 데이터는 차량의 종단면에 대한 설계 이미지이고, 상기 제2 설계 데이터는 차량 횡단면에 대한 설계 이미지이며, 상기 오버랩 이미지는 상기 제1 설계 데이터 및 상기 제2 설계 데이터를 중첩하여 생성된다.
일 실시예에 따르면, 상기 기존 설계 데이터는, 차량의 재질 정보를 포함하고, 상기 재질 정보는 상기 설계 이미지에 상기 차량의 재질이 색상, 채도, 명도, 실선 및 점선 중 적어도 하나로 반영된 것일 수 있다.
일 실시예에 따르면, 상기 오버랩 이미지는, 충격 포인트를 기준으로 상기 제1 설계 데이터 및 상기 제2 설계 데이터 각각에 대응되는 설계 이미지를 동일 사이즈로 각각 크롭(Crop)하여 중첩시킨 것일 수 있다.
일 실시예에 따르면, 상기 오버랩 이미지는, 상기 제1 설계 데이터 및 상기 제2 설계 데이터 중 적어도 어느 하나에 대하여, 상기 설계 이미지를 제외한 이미지 공백이 확대된 것일 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, 기존 설계 데이터를 전처리 하여 생성된 상기 오버랩 이미지와 상기 기존 충격량 데이터를 전처리하여 생성된 충격값 및 충격 등급값 중 적어도 하나를 기계 학습하여 갱신된 가중치 데이터가 포함된 것일 수 있다.
일 실시예에 따르면, 상기 기존 충격량 데이터는, 컬러맵 이미지를 포함하고, 상기 충격값과 상기 충격 등급값은 상기 컬러맵 이미지를 파싱(Parsing)하여 추출될 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, 상기 오버랩 이미지와 상기 충격값을 기반으로 생성된 제1 충돌 성능 예측 모델과, 상기 오버랩 이미지와 상기 충격 등급값을 기반으로 생성된 제2 충돌 성능 예측 모델을 포함할 수 있다.
일 실시예에 따르면, 상기 출력부는, 상기 제1 충돌 성능 예측 모델을 통한 상기 예측 충격값과 상기 제2 충돌 성능 예측 모델을 통한 상기 예측 충격 등급값을 출력할 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, MLP(Multi-Layer Perceptron) 학습 모델 또는 CNN(Convolutional Neural Network) 학습 모델에 의하여 학습될 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, Pre-trained model을 기반으로 전이 학습된 것 일 수 있다.
개시된 발명의 일 실시예에 따른 충돌 성능 예측 방법은 시험 대상 설계 데이터를 전처리하여 시험 대상 오버랩 이미지를 생성하는 단계; 및 기존 설계 데이터를 전처리한 오버랩 이미지와 상기 기존 설계 데이터에 대응되는 기존 충격량 데이터를 기계 학습하여 충돌 성능 예측 모델에 기초하여 상기 시험 대상 오버랩 이미지의 입력에 대하여 예측 충격값 및 예측 충격 등급값 중 적어도 하나를 출력하는 단계를 포함할 수 있다.
일 실시예에 따르면, 상기 기존 설계 데이터는, 제1 설계 데이터 및 제2 설계 데이터를 포함하되, 상기 제1 설계 데이터는 차량의 종단면에 대한 설계 이미지이고, 상기 제2 설계 데이터는 차량 횡단면에 대한 설계 이미지이며, 상기 오버랩 이미지는 상기 제1 설계 데이터 및 상기 제2 설계 데이터를 중첩하여 생성될 수 있다.
일 실시예에 따르면, 상기 기존 설계 데이터는, 차량의 재질 정보를 포함하고, 상기 재질 정보는 상기 설계 이미지에 상기 차량의 재질이 색상, 채도, 명도, 실선 및 점선 중 적어도 하나로 반영된 것일 수 있다.
일 실시예에 따르면, 상기 출력하는 단계는, 충격 포인트를 기준으로 상기 제1 설계 데이터 및 상기 제2 설계 데이터 각각에 대응되는 설계 이미지를 동일 사이즈로 각각 크롭(Crop)하여 중첩하는 단계를 포함할 수 있다.
일 실시예에 따르면, 상기 출력하는 단계는, 상기 제1 설계 데이터 및 상기 제2 설계 데이터 중 적어도 어느 하나에 대하여, 상기 설계 이미지를 제외한 이미지 공백을 확대하는 단계를 포함할 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, 기존 설계 데이터를 전처리 하여 생성된 상기 오버랩 이미지와 상기 기존 충격량 데이터를 전처리하여 생성된 충격값 및 충격 등급값 중 적어도 하나를 기계 학습하여 갱신된 가중치 데이터가 포함된 것일 수 있다.
일 실시예에 따르면, 상기 기존 충격량 데이터는, 컬러맵 이미지를 포함하고, 상기 충격값과 상기 충격 등급값은 상기 컬러맵 이미지를 파싱(Parsing)하여 추출될 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, 상기 오버랩 이미지와 상기 충격값을 기반으로 생성된 제1 충돌 성능 예측 모델과, 상기 오버랩 이미지와 상기 충격 등급값을 기반으로 생성된 제2 충돌 성능 예측 모델을 포함할 수 있다.
일 실시예에 따르면, 상기 출력하는 단계는, 상기 제1 충돌 성능 예측 모델을 통한 상기 예측 충격값과 상기 제2 충돌 성능 예측 모델을 통한 상기 예측 충격 등급값을 출력할 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, MLP(Multi-Layer Perceptron) 학습 모델 또는 CNN(Convolutional Neural Network) 학습 모델에 의하여 학습될 수 있다.
일 실시예에 따르면, 상기 충돌 성능 예측 모델은, Pre-trained model을 기반으로 전이 학습될 수 있다.
개시된 발명의 일 측면에 따르면 기존 충격량 데이터가 없는 설계 데이터에 대하여 실제 차량의 충돌 테스트를 수행하지 않고도 높은 신뢰성을 갖는 충돌 성능 예측 결과를 획득할 수 있다.
도 1은 개시된 발명에서 적용되는 전체 프로세스의 개요를 도시한다.
도 2는 일 실시예에 따른 충돌 성능 예측 장치의 제어 블록도이다.
도 3 및 도 4a 내지 4b는 설계 데이터를 설명하기 위한 도면이다.
도 5는 충격량 데이터를 설명하기 위한 도면이다.
도 6은 개시된 발명에서 적용되는 전처리 과정을 설명하기 위한 순서도이다.
도 7은 일 실시예에 따른 충돌 성능 예측 모델의 학습 과정을 도시한다.
도 8은 일 실시예에 따른 상기 충돌 성능 예측 모델에 의한 충돌 시험 결과를 도출하는 과정을 도시한다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 개시된 발명에서 적용되는 전체 프로세스의 개요를 도시한다.
개시된 발명은 차량 설계 도면을 오버랩 이미지 형태로 가공하고, 기존 설계 데이터 및 이에 대응되는 충격량 데이터에 기반하여 기계 학습 모델을 생성하고, 입력된 정보에 대하여 보행자 충격량 시험 평가 항목 중에서 HIC(Head Injury Criterion) 값과 HIC 등급값의 예측 결과를 제공한다.
먼저, 데이터 전처리 단계에 대하여 상세히 설명한다. 기계 학습 모델은 도 1에 도시된 바와 같이 전처리된 차량의 기존 설계 데이터와 기존 설계 데이터에 대응되는 기존 충격량 데이터의 학습을 통해 생성된다. 이 때, 설계 데이터는 오버랩 이미지를 생성할 수 있고, 오버랩 이미지는 차량의 횡단면 및 종단면 등 서로 다른 측면에서 획득한 설계 도면을 바탕으로 전처리 과정을 수행한 결과에 따라 생성된 데이터를 가리킨다. 구체적인 전처리 과정은 도 4 및 도 5를 참조하여 상세히 설명한다.
충격량 데이터는 전처리 과정을 거쳐 충격값 및 충격 등급값으로 출력될 수 있다. 여기서, 충격값은 충격에 대한 성능을 수치화한 것이며, 충격 등급값은 충격에 관한 등급을 분류한 값에 해당한다. 충격값과 충격 등급값은 HIC 값과 HIC 등급값일 수 있다.
개시된 발명에서 적용되는 학습 단계는 오버랩 이미지와, 충격량 데이터를 기초로 하여 가중치가 갱신된 새로운 기계 학습 모델을 생성할 수 있다. 구체적으로, 학습 단계는 손실 함수(Loss Funtion)와 옵티마이저(Optimizer, Ex-ADAM)을 활용하여 최적의 파라미터를 갖는 기계 학습 모델을 생성할 수 있으며, 오버랩 이미지와 충격량 데이터와의 관계 연산을 통하여 기계 학습 모델을 구성하는 신경망을 갱신할 수 있다.
전술한 신경망은 딥 러닝(deep learning)을 수행할 수 있는 신경 구조를 형상화한 기계 학습을 지칭하므로, 신경망의 구성에 해당하는 가중치(weight) 및 바이어스(bias)가 계속적으로 변화하면서 학습의 신뢰도를 향상시킨다. 즉, 오버랩 이미지는 신경망 구성에 해당하는 가중치 및 바이어스를 계속적으로 갱신시키도록 이용될 수 있다.
다시 말해, 개시된 발명에서 적용되는 기계 학습은 오버랩 이미지 및 그에 대응하는 충격량 데이터에 기초하여 신경망에 포함된 가중치, 바이어스 및 전달함수(activation function)를 계속적으로 갱신함으로써, 신경망의 추론(inference) 결과를 향상시킬 수 있다.
이 때, 신경망은 컴퓨터 프로그램 형태로 데이터 베이스부(미도시)와 같은 저장 수단에 저장될 수 있다. 이하에서는 컴퓨터 프로그램의 코딩 형태로 신경망이 처리하는 연산 수행을 설명하지만, 반드시 신경망이 저장된 컴퓨터 프로그램에 한정되는 것은 아니다.
한편, 신경망은, 오버랩 이미지 및 그에 대응하는 충격량 데이터를 컨볼루션(convolution)하여 출력되는 특징 맵(features map)을 생성하고, 상기 특징 맵을 신경망으로 입력시키는 CNN(convolution neural network)를 포함할 수 있으나, 이에 한정되는 것은 아니며, RNN(recurrent neural networks)을 포함한 다른 딥 러닝의 알고리즘으로 수행될 수도 있다. 즉, 신경망의 유형에는 제한이 없다.
다음으로, 전술한 학습 과정에 의해 기계 학습 모델이 생성되면 시험 대상이 되는 설계 데이터를 기계 학습 모델에 입력한 결과, HIC 예측값 및 HIC 등급 예측값을 출력할 수 있다.
도 2는 일 실시예에 따른 충돌 성능 예측 장치의 제어 블록도이다.
일 실시예에 따른 충돌 성능 예측 장치는 전처리 작업을 수행하는 데이터 처리부(100), 전처리 된 데이터를 신경망으로 구성된 기계 학습에 적용하는 기계 학습부(110) 및 출력부(120)를 포함한다.
데이터 처리부(100)는 충격량 데이터(201) 및 설계 데이터(202)를 수신하고, 수신한 데이터에 대하여 전처리 작업을 수행한다. 충격량 데이터(201)는 머리 모형(Head Form) 충돌 실험을 통한 안전 성능 평가와 관련된 수치 및 등급에 관한 정보를 포함하고, 설계 데이터(202)는 3 차원 오브젝트를 설계 및 개발하기 위한 컴퓨터 지원 설계 프로그램에서 제작된 설계에 관한 정보를 포함한다. 예를 들어, 설계 데이터(202)는 카티아(CATIA)에서 제작된 설계 정보일 수 있다. 개시된 발명에서 적용되는 설계 데이터(202)는 효과적인 전처리 작업을 수행하기 위하여 세분화된 데이터를 이용할 수 있는데 자세한 내용은 도 3 내지 도 5를 참조하여 상세히 설명한다.
데이터 베이스부(210)는 데이터 처리부(100)에서 전처리 작업이 완료된 기계 학습부에 대한 입력 데이터를 저장한다. 예를 들어, 데이터 베이스부(210)는 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM) 등을 포함할 수 있으며, 저장부(미도시)로 기능할 수 있는 다양한 기억 장치를 의미한다.
기계 학습부(110)는 충격 등급 분류 모델 학습부(111) 및 충격량 회귀 모델 학습부(112)를 포함한다.
충격 등급 분류 모델 학습부(111)는 설계 데이터(202)를 전처리 한 결과 생성된 오버랩 이미지 및 이에 대응하는 HIC 등급값을 기초로 학습하여 신경망 구성에 해당하는 가중치를 갱신할 수 있다.
충격량 회귀 모델 학습부(112)는 설계 데이터(202)를 전처리 한 결과 생성된 오버랩 이미지 및 이에 대응하는 HIC 값을 기초로 학습하여 신경망 구성에 해당하는 가중치를 갱신할 수 있다.
출력부(120)는 기계 학습부(110)에서 생성된 기계 학습 모델에 기초하여 시험 대상 데이터의 입력에 대하여 HIC 예측값과 HIC 등급 예측값을 출력한다. 구체적으로, 출력부(120)는 사용자가 보행자 충격량 시험 평가를 하고자 하는 차량의 시험 대상 데이터를 기계 학습부(110)에 입력하면 이에 대한 예측 결과값을 출력할 수 있다.
도 3 및 도 4는 설계 데이터를 설명하기 위한 도면이다. 이하, 도 3 내지 도 4a 내지 4b를 참조하여 개시된 발명에 적용되는 설계 데이터 및 설계 데이터에서 도출되는 오버랩 이미지에 관하여 상세히 설명한다.
먼저, 설계 데이터를 기초로 출력되는 이미지는 차량 전면부의 후드 및 엔진룸의 설계 단면을 기준으로 종단면 및 횡단면 또는 L 섹션 및 T 섹션으로 구분할 수 있다. 도 4a를 참조하면, L 섹션을 기준으로 한 제1 설계 데이터(2021)는 차량의 측면에서 바라본 이미지를 이루는 윤곽선에 충격 포인트를 반영한 정보일 수 있고, T 섹션을 기준으로 한 제2 설계 데이터(2022)는 차량의 정면에서 바라본 이미지를 이루는 윤곽선에 충격 포인트를 반영한 정보일 수 있다.
또한, 설계 데이터는 차량의 재질 정보를 포함할 수 있다. 예를 들어, 설계 데이터를 기초로 출력되는 이미지는 다양한 색상으로 구분될 수 있다. 여기서, 색상은 차량의 재질 정보를 반영할 수 있다. 일 예를 들면, 유리 재질은 녹색이고, 금속 재질은 파란색이고, 플라스틱 재질은 적색일 수 있다. 차량은 다양한 재질로 이루어지고, 충격에 대한 저항력은 재질에 따라 상이하다. 이러한 정보를 반영하기 위해, 설계 데이터는 차량의 재질 정보를 반영한 색상 정보를 포함할 수 있다. 재질 정보는 색상으로 표현되는 것 이외에도, 차량의 재질이 채도, 명도, 실선 및 점선 등을 이용하여 서로 구분될 수 있도록 하여 표현될 수 있다.
다음으로, 제1 설계 데이터(2021) 및 제2 설계 데이터(2022)는 서로 오버랩 과정을 수행하여, 오버랩 이미지(2023)를 생성할 수 있다. 오버랩 이미지(2023)은 도 4a 아래에 도시되어 있다.
한편, 오버랩 이미지(2023)는 제1 설계 데이터(2021) 및 제2 설계 데이터(2022)의 서로 다른 이미지의 일부가 확대되어 오버랩 된 것일 수 있다. 여기서, 이미지의 일부는 출력되는 이미지의 손실을 방지하기 위하여 이미지 공백이 추가될 수 있다. 다시 말해, 이미지 공백을 추가함으로써 오버랩 이미지는 제1 설계 데이터 및 제2 설계 데이터 각각에 대응되는 설계 이미지들이 같은 충격 포인트를 공유할 때, 설계 이미지의 이미지 공백이 발생되지 않고, 각각의 이미지가 동일 사이즈로 크롭(Crop)이 되고, 중첩시킨 이미지로 생성된다.
도 4b을 참조하면, 제1 부분 이미지는 제1 설계 데이터에 포함된 충격 포인트(LP)를 기준으로 추출될 수 있다. 여기서, 제1 부분 이미지는 제2 설계 데이터에 포함된 충격 포인트(TP)를 기준으로 추출된 제2 부분 이미지와 오버랩 되어 오버랩될 수 있다. 한편, 제1 부분 이미지는 충격 포인트(LP)가 좌측 끝단을 기준으로 하므로, 동일한 이미지 크기로 크롭하는 경우, 좌측에 이미지 손실이 발생할 수 있다. 따라서, 제1 설계 데이터의 전체 이미지는 이미지 공백 영역이 확대될 수 있다. 이에 따라, 제1 부분 이미지는 손실되는 부분이 없이 동일한 이미지 크기로써 제2 부분 이미지와 오버랩이 가능하다.
일 실시예에 따르면, 데이터 처리부(100)는 충격 포인트를 기준으로 설정된 부분 이미지의 일부가 설계 데이터의 전체 이미지에서 벗어난 것으로 판단되면, 전체 이미지의 공백 영역을 확장할 수 있다.
이와 같은 오버랩 과정은 신뢰도가 높은 기계 학습을 수행하기 위하여 동일한 크기의 단일 이미지를 인풋 데이터로 정하기 위함이며, 오버랩된 이미지는 적어도 2 개 이상의 차량 단면에 대한 충격 포인트, 위치, 구조, 재질 등의 다양한 정보를 포함한다. 전술한 오버랩 과정은 다양한 차종에 대하여 수행되어 데이터 베이스부에 저장될 수 있다.
일 실시예에서 참조되는 설계 데이터는 제1 설계 데이터 및 제2 설계 데이터를 포함하되, 제1 설계 데이터는 차량 종단면에 대한 설계 이미지이고, 제2 설계 데이터는 차량 횡단면에 대한 설계 이미지이고, 제1 설계 데이터 및 제2 설계 데이터를 오버랩 하여 오버랩 이미지를 생성할 수 있다.
도 5는 충격량 데이터를 설명하기 위한 도면이다.
도 5에 도시된 바와 같이, 충격량 데이터로부터 출력되는 HIC 컬러맵 이미지(2011)는 다양한 색상을 기초로 HIC 등급을 시각적인 정보로 제공할 수 있다.
HIC(Head Injury Criterion)는 차량과 보행자 간에 충돌 사고시에 발생하는 인체 상해를 나타내는 지수를 가리킨다. HIC 컬러맵 이미지(2011)는 자체에 포함된 데이터에 기초하여 HIC 값 및 HIC 등급값이 추출될 수 있다. 추출 과정은 HIC 컬러맵 이미지(2011)에 대한 파싱(Parsing)을 통해 수행될 수 있다. 여기서, HIC 값 및 HIC 등급값은 유로 NCAP 테스트를 기준으로 하여 제작될 수 있다. 예를 들어, 도 5 아래에 도시된 표에 의할 수 있다. 이러한 파싱 과정을 통하여 HIC 값 및 HIC등급값은 각각 회귀 모델 DB 및 분류 모델 DB로 구축될 수 있다.
도 6은 개시된 발명에서 적용되는 전처리 과정을 설명하기 위한 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 6에 도시된 바와 같이, 오버랩 이미지를 생성하는 과정 및 회귀 모델 DB와 분류 모델 DB를 생성하는 과정은 서로 개별적으로 수행되거나 동시에 수행될 수 있음에 유의한다.
데이터 처리부(100)는 사용자에 의해 제1 설계 데이터 및 제2 설계 데이터에 대한 입력을 수신한다(601). 여기서, 입력되는 제1 설계 데이터 및 제2 설계 데이터는 상술한 바와 같다.
데이터 처리부(100)는 제1 설계 데이터 및 제2 설계 데이터의 입력이 완료되면, 각각에 대한 이미지 일부에 대하여 오버랩을 수행하기 앞서 이미지 공백을 추가하고(602), 이미지에 포함된 충격 포인트를 확대한다(603).
데이터 처리부(100)는 제1 설계 데이터에 대한 이미지 일부와 제2 설계 데이터에 대한 이미지 일부와 오버랩을 수행하고(604), 오버랩 이미지를 생성하여(605), 오버랩 이미지를 데이터 베이스부(210)에 저장할 수 있다. 이 때, 저장되는 데이터는 다양한 차종을 포함하는 여러 종류의 오버랩 이미지를 포함할 수 있다.
데이터 처리부(100)는 설계 데이터 전처리 과정과는 별개로, 충격량 데이터에 대한 전처리 과정을 수행한다. 충격량 데이터는 HIC 컬러맵으로 제공될 수 있다.
데이터 처리부(100)는 충격량 데이터로써 입력된 설계 데이터에 대응하는 차량의 HIC 컬러맵에 대하여 파싱(Parsing) 작업을 수행하여 HIC 값 및 HIC 등급값을 추출하여 분류하고(607), 각각을 회귀 모델 DB(211) 및 분류 모델 DB(212)로 데이터 베이스화 시킨다. 여기서, 생성 및 저장된 회귀 모델(211) 및 분류 모델 DB(212)은 기계 학습 모델을 생성하는 학습 과정을 통해 가중치 데이터를 갱신할 수 있다. 기계 학습 모델을 생성하는 학습 과정은 도 7을 참조하여 상세히 설명한다.
도 7은 일 실시예에 따른 충돌 성능 예측 모델의 학습 과정을 도시한다.
개시된 발명에서 참조되는 기계 학습 모델은 충격량 회귀 모델과 등급 분류 모델 2 가지로 구분될 수 있다. 구체적으로, 충격량 회귀 모델은 HIC 값에 관한 학습 결과에 따라 생성된 것이고, 등급 분류 모델은 HIC 등급값에 관한 학습 결과에 따라 생성된 것이다.
충격량 회귀 모델을 생성하기 위한 학습 과정은 회귀 모델 DB(211) 및 설계 데이터(202)에 의해 수행될 수 있다. 도 7은 설계 데이터(202)가 인풋 데이터로 입력되는 것으로 도시하였으나, 입력되는 인풋 데이터는 설계 데이터(202)에서 전처리가 수행된 오버랩 이미지일 수 있다. 회귀 모델 DB(211)은 설계 데이터(202)에 대응되는 충격량 데이터를 포함할 수 있다. 여기서, 충격량 데이터는 HIC 값일 수 있다. 다시 말해, 회귀 모델 DB(211)은 설계 데이터(202) 또는 오버랩 이미지에 대한 기계 학습 결과를 도출하기 위한 답이 될 수 있다.
예를 들어, 오버랩 이미지는 입력 레이어(1131)를 거쳐 특징 추출 레이어(1132)로 전달된다. 특징 추출 레이어(1132)는 전달된 오버랩 이미지를 분석하여 이미지 내의 특징을 추출하고, 예측 레이어(1133)에 전달한다. 예측 레이어(1133)는 결과를 생성하여, 아웃풋 데이터인 회귀 모델 DB(211)를 기반으로 신경망 구성에 해당하는 가중치를 갱신한다. 갱신된 가중치는 가중치 데이터(213)으로 생성되어, 가중치 데이터(213)는 이후에 실제 충돌 성능 테스트를 수행하기 위한 기계 학습 모델에 적용되며, 실제 대상 차량의 시험 대상 데이터를 입력하는 경우 우수한 성능의 HIC 예측값을 도출할 수 있다.
충격량 등급 분류 모델을 생성하기 위한 학습 과정은 분류 모델 DB(212) 및 설계 데이터(202)에 의해 수행될 수 있다. 도 7은 설계 데이터(202)가 인풋 데이터로 입력되는 것으로 도시하였으나, 입력되는 인풋 데이터는 설계 데이터(202)에서 전처리가 수행된 오버랩 이미지일 수 있다. 분류 모델 DB(212)은 설계 데이터(202)에 대응되는 충격량 데이터를 포함할 수 있다. 여기서, 충격량 데이터는 HIC 등급값일 수 있다. 다시 말해, 분류 모델 DB(212)은 설계 데이터(202) 또는 오버랩 이미지에 대한 기계 학습 결과를 도출하기 위한 답이 될 수 있다.
예를 들어, 오버랩 이미지는 입력 레이어(1131)를 거쳐 특징 추출 레이어(1132)로 전달된다. 특징 추출 레이어(1132)는 전달된 오버랩 이미지를 분석하여 이미지 내의 특징을 추출하고, 예측 레이어(1133)에 전달한다. 예측 레이어(1133)는 결과를 생성하여, 아웃풋 데이터인 분류 모델 DB(212)를 기반으로 신경망 구성에 해당하는 가중치를 갱신한다. 여기서, 예측 레이어(1133)가 생성하는 결과는 전체 등급을 5 등급을 기준으로 하되, 예측 등급에 위치할 확률에 대한 데이터를 포함할 수 있다. 갱신되 가중치는 가중치 데이터(213)으로 생성되어, 가중치 데이터(213)는 이후에 실제 충돌 시험 테스트를 수행하기 위한 기계 학습 모델에 적용되며, 실제 대상 차량의 시험 대상 데이터를 입력하는 경우 우수한 성능의 HIC 등급 예측값을 도출할 수 있다.
충돌 성능 예측 모델은 오버랩 이미지와 충격값을 기반으로 생성된 제1 성능 예측 모델과, 오버랩 이미지와 충격 등급값을 기반으로 생성된 제2 성능 예측 모델로 분류될 수 있으나, 충격값과 충격 등급값을 동시에 아웃풋으로 하고, 예측 충격값과 예측 충격 등급값을 모두 출력할 수 있는 모델로도 구현될 수 있다.
도 8은 일 실시예에 따른 상기 충돌 성능 예측 모델에 의한 충돌 시험 결과를 도출하는 과정을 도시한다.
도 8을 참조하면, 기계 학습 모델(113)은 상술한 학습 과정에 의해 갱신된 가중치가 적용된 모델에 해당한다. 기계 학습 모델(113)은 다양한 차종에 대한 설계 데이터를 바탕으로 세부 레이어들에 대한 가중치가 최적화된 것이다.
시험 대상 데이터(203)는 실제 시험 대상이 되는 차량에 대한 설계 데이터를 가리키며, 어느 한 측면에 대한 이미지 또는 상술한 오버랩 이미지 형식으로 입력될 수 있다. 예측 결과값(233)은 시험 대상 데이터(203)의 입력에 대한 결과를 나타낸다. 예측 결과값(233)은 컬러 맵 형태의 이미지로 출력될 수 있으며, 실제 HIC 절대값, 예측 HIC 절대값, 실제 HIC 등급값, 예측 HIC 등급값과 해당 등급을 예측한 확률에 관한 정보를 포함할 수 있다.
일 실시예에 따른 충돌 성능 예측 장치는 설계 데이터 및 충격량 데이터를 수신하고, 설계 데이터에 대한 전처리 작업을 수행하여 오버랩 이미지를 생성하고, 충격량 데이터에 대한 전처리 작업을 수행하여 HIC 절대값 및 HIC 등급 중 적어도 하나를 추출하는 데이터 처리부를 포함하되, 데이터 처리부가 전처리 작업을 수행한 결과를 기계 학습부에 제공한다. 기계 학습부는 오버랩 이미지와 HIC 절대값 및 HIC 등급 중 적어도 하나를 기계 학습을 위한 인풋과 아웃풋으로 결정하고, 인풋 및 아웃풋에 기초하여 갱신된 가중치 데이터가 포함된 충돌 성능 예측 모델을 생성하고, 출력부는 충돌 성능 예측 모델에 기초한 시험 대상 데이터의 HIC 회귀 예측값 및 HIC 등급 예측값 중 적어도 하나를 출력한다.
상기 충돌 성능 예측 장치가 채용하는 충돌 성능 예측 모델은 MLP(Multi-Layer Perceptron) 또는 CNN(Convolutional Neural Network) 중에서 ResNet, DenseNet, Inception model와 같이 Pre-trained model을 기반으로 전이 학습을 수행하는 것일 수 있다. 단, 충돌 성능 예측 모델은 상술한 네트워크 이외에도 신경망의 가중치를 갱신할 수 있는 다양한 기법이 채용될 수 있다.
개시된 발명은 보행자 충격량 시험 평가에 적용됨은 물론이며, 설계도 상에서 해석을 통해 안정성을 검증하는 다양한 테스트에도 적용될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (22)

  1. 시험 대상 설계 데이터를 전처리하여 시험 대상 오버랩 이미지를 생성하는 데이터 처리부; 및
    기존 설계 데이터를 전처리한 오버랩 이미지와 상기 기존 설계 데이터에 대응되는 기존 충격량 데이터를 기초로 신경망의 매개변수가 학습으로 갱신된 충돌 성능 예측 모델에 기초하여 상기 시험 대상 오버랩 이미지의 입력에 대하여 예측 충격값 및 예측 충격 등급값 중 적어도 하나를 출력하는 출력부를 포함하는 충돌 성능 예측 장치.
  2. 제 1 항에 있어서,
    상기 기존 설계 데이터는,
    제1 설계 데이터 및 제2 설계 데이터를 포함하되, 상기 제1 설계 데이터는 차량의 종단면에 대한 설계 이미지이고, 상기 제2 설계 데이터는 차량 횡단면에 대한 설계 이미지이며,
    상기 오버랩 이미지는 상기 제1 설계 데이터 및 상기 제2 설계 데이터를 중첩하여 생성되는 충돌 성능 예측 장치.
  3. 제 2 항에 있어서,
    상기 기존 설계 데이터는,
    차량의 재질 정보를 포함하고, 상기 재질 정보는 상기 설계 이미지에 상기 차량의 재질이 색상, 채도, 명도, 실선 및 점선 중 적어도 하나로 반영된 것인 충돌 성능 예측 장치.
  4. 제 2 항에 있어서,
    상기 오버랩 이미지는,
    충격 포인트를 기준으로 상기 제1 설계 데이터 및 상기 제2 설계 데이터 각각에 대응되는 설계 이미지를 동일 사이즈로 각각 크롭(Crop)하여 중첩시킨 것인 충돌 성능 예측 장치.
  5. 제 4 항에 있어서,
    상기 오버랩 이미지는,
    상기 제1 설계 데이터 및 상기 제2 설계 데이터 중 적어도 어느 하나에 대하여, 상기 설계 이미지를 제외한 이미지 공백이 확대된 것인 충돌 성능 예측 장치.
  6. 제 1 항에 있어서,
    상기 충돌 성능 예측 모델은,
    기존 설계 데이터를 전처리 하여 생성된 상기 오버랩 이미지와 상기 기존 충격량 데이터를 전처리하여 생성된 충격값 및 충격 등급값 중 적어도 하나를 기계 학습하여 갱신된 가중치 데이터가 포함된 것인 충돌 성능 예측 장치.
  7. 제 6 항에 있어서,
    상기 기존 충격량 데이터는,
    컬러맵 이미지를 포함하고,
    상기 충격값과 상기 충격 등급값은 상기 컬러맵 이미지를 파싱(Parsing)하여 추출되는 충돌 성능 예측 장치.
  8. 제 6 항에 있어서,
    상기 충돌 성능 예측 모델은,
    상기 오버랩 이미지와 상기 충격값을 기반으로 생성된 제1 충돌 성능 예측 모델과, 상기 오버랩 이미지와 상기 충격 등급값을 기반으로 생성된 제2 충돌 성능 예측 모델을 포함하는 것을 특징으로 하는 충돌 성능 예측 장치.
  9. 제 8 항에 있어서,
    상기 출력부는,
    상기 제1 충돌 성능 예측 모델을 통한 상기 예측 충격값과 상기 제2 충돌 성능 예측 모델을 통한 상기 예측 충격 등급값을 출력하는 충돌 성능 예측 장치.
  10. 제 1 항에 있어서,
    상기 충돌 성능 예측 모델은,
    MLP(Multi-Layer Perceptron) 학습 모델 또는 CNN(Convolutional Neural Network) 학습 모델에 의하여 학습된 충돌 성능 예측 장치.
  11. 제 1 항에 있어서,
    상기 충돌 성능 예측 모델은,
    Pre-trained model을 기반으로 전이 학습된 충돌 성능 예측 장치.
  12. 시험 대상 설계 데이터를 전처리하여 시험 대상 오버랩 이미지를 생성하는 단계; 및
    기존 설계 데이터를 전처리한 오버랩 이미지와 상기 기존 설계 데이터에 대응되는 기존 충격량 데이터를 기초로 신경망의 매개변수가 학습으로 갱신된 충돌 성능 예측 모델에 기초하여 상기 시험 대상 오버랩 이미지의 입력에 대하여 예측 충격값 및 예측 충격 등급값 중 적어도 하나를 출력하는 단계를 포함하는 충돌 성능 예측 방법.
  13. 제 12 항에 있어서,
    상기 기존 설계 데이터는,
    제1 설계 데이터 및 제2 설계 데이터를 포함하되, 상기 제1 설계 데이터는 차량의 종단면에 대한 설계 이미지이고, 상기 제2 설계 데이터는 차량 횡단면에 대한 설계 이미지이며,
    상기 오버랩 이미지는 상기 제1 설계 데이터 및 상기 제2 설계 데이터를 중첩하여 생성되는 충돌 성능 예측 방법.
  14. 제 13 항에 있어서,
    상기 기존 설계 데이터는,
    차량의 재질 정보를 포함하고, 상기 재질 정보는 상기 설계 이미지에 상기 차량의 재질이 색상, 채도, 명도, 실선 및 점선 중 적어도 하나로 반영된 것인 충돌 성능 예측 방법.
  15. 제 13 항에 있어서,
    상기 출력하는 단계는,
    충격 포인트를 기준으로 상기 제1 설계 데이터 및 상기 제2 설계 데이터 각각에 대응되는 설계 이미지를 동일 사이즈로 각각 크롭(Crop)하여 중첩하는 단계를 포함하는 충돌 성능 예측 방법.
  16. 제 15 항에 있어서,
    상기 출력하는 단계는,
    상기 제1 설계 데이터 및 상기 제2 설계 데이터 중 적어도 어느 하나에 대하여, 상기 설계 이미지를 제외한 이미지 공백을 확대하는 단계를 포함하는 충돌 성능 예측 방법.
  17. 제 12 항에 있어서,
    상기 충돌 성능 예측 모델은,
    기존 설계 데이터를 전처리 하여 생성된 상기 오버랩 이미지와 상기 기존 충격량 데이터를 전처리하여 생성된 충격값 및 충격 등급값 중 적어도 하나를 기계 학습하여 갱신된 가중치 데이터가 포함된 것인 충돌 성능 예측 방법.
  18. 제 17 항에 있어서,
    상기 기존 충격량 데이터는,
    컬러맵 이미지를 포함하고,
    상기 충격값과 상기 충격 등급값은 상기 컬러맵 이미지를 파싱(Parsing)하여 추출되는 충돌 성능 예측 방법.
  19. 제 17 항에 있어서,
    상기 충돌 성능 예측 모델은,
    상기 오버랩 이미지와 상기 충격값을 기반으로 생성된 제1 충돌 성능 예측 모델과, 상기 오버랩 이미지와 상기 충격 등급값을 기반으로 생성된 제2 충돌 성능 예측 모델을 포함하는 것을 특징으로 하는 충돌 성능 예측 방법.
  20. 제 19 항에 있어서,
    상기 출력하는 단계는,
    상기 제1 충돌 성능 예측 모델을 통한 상기 예측 충격값과 상기 제2 충돌 성능 예측 모델을 통한 상기 예측 충격 등급값을 출력하는 충돌 성능 예측 방법.
  21. 제 12 항에 있어서,
    상기 충돌 성능 예측 모델은,
    MLP(Multi-Layer Perceptron) 학습 모델 또는 CNN(Convolutional Neural Network) 학습 모델에 의하여 학습된 충돌 성능 예측 방법.
  22. 제 12 항에 있어서,
    상기 충돌 성능 예측 모델은,
    Pre-trained model을 기반으로 전이 학습된 충돌 성능 예측 방법.
KR1020190084999A 2019-07-15 2019-07-15 충돌 성능 예측 장치 및 충돌 성능 예측 방법 KR102197724B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190084999A KR102197724B1 (ko) 2019-07-15 2019-07-15 충돌 성능 예측 장치 및 충돌 성능 예측 방법
US16/675,650 US11657272B2 (en) 2019-07-15 2019-11-06 Apparatus for crash performance prediction and method thereof
CN201911173467.5A CN112231823B (zh) 2019-07-15 2019-11-26 碰撞性能预测装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190084999A KR102197724B1 (ko) 2019-07-15 2019-07-15 충돌 성능 예측 장치 및 충돌 성능 예측 방법

Publications (1)

Publication Number Publication Date
KR102197724B1 true KR102197724B1 (ko) 2021-01-04

Family

ID=74111245

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190084999A KR102197724B1 (ko) 2019-07-15 2019-07-15 충돌 성능 예측 장치 및 충돌 성능 예측 방법

Country Status (3)

Country Link
US (1) US11657272B2 (ko)
KR (1) KR102197724B1 (ko)
CN (1) CN112231823B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819308B (zh) * 2021-01-23 2024-04-02 罗家德 一种基于双向图卷积神经网络的头部企业识别方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724532A (zh) * 2021-08-31 2021-11-30 中汽院(重庆)汽车检测有限公司 商用车前向碰撞预警的测试评价系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178671A (ja) * 1995-12-25 1997-07-11 Shitara Seisakusho:Kk 缶内検査装置
JP2008064686A (ja) * 2006-09-08 2008-03-21 Dainippon Printing Co Ltd 検査画像取得方法
JP2013072846A (ja) * 2011-09-29 2013-04-22 Dainippon Screen Mfg Co Ltd 画像検査装置
JP2017198508A (ja) * 2016-04-26 2017-11-02 西日本高速道路エンジニアリング四国株式会社 構造物の劣化検査装置
KR101881915B1 (ko) * 2018-06-14 2018-07-26 에스브이디 주식회사 차량 설계를 위한 플러그인 시스템
KR101908680B1 (ko) * 2016-08-30 2018-10-17 주식회사 루닛 약한 지도 학습 기반의 기계 학습 방법 및 그 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US5729463A (en) 1995-09-01 1998-03-17 Ulsab Trust Designing and producing lightweight automobile bodies
JPH1143009A (ja) * 1996-07-13 1999-02-16 Automot Technol Internatl Inc パターン認識を利用した車両用光学式確認および監視システム
JP4461840B2 (ja) * 2004-03-03 2010-05-12 トヨタ自動車株式会社 車両用頭部衝撃吸収構造の設計支援装置及び車両用頭部衝撃吸収構造の設計支援プログラム
JP4752537B2 (ja) 2006-02-22 2011-08-17 株式会社日立プラントテクノロジー 車両の衝突試験装置
JP5012031B2 (ja) 2007-01-09 2012-08-29 マツダ株式会社 自動車の設計支援装置、設計支援プログラムおよび設計支援方法
US8219365B2 (en) * 2009-03-13 2012-07-10 Honda Motor Co., Ltd. Method of designing a motor vehicle
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
JP5969836B2 (ja) * 2012-06-26 2016-08-17 本田技研工業株式会社 モデル適用装置、モデル適用方法、及びプログラム
US9323886B2 (en) * 2012-06-26 2016-04-26 Honda Motor Co., Ltd. Performance predicting apparatus, performance predicting method, and program
KR102044193B1 (ko) 2013-03-28 2019-12-02 현대모비스 주식회사 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법
KR101850286B1 (ko) 2017-06-27 2018-04-19 한국기술교육대학교 산학협력단 딥 러닝 기반 cctv용 영상 인식 방법
CN107463907B (zh) * 2017-08-08 2021-06-25 东软集团股份有限公司 车辆碰撞检测方法、装置、电子设备及车辆
US20200394278A1 (en) * 2019-06-14 2020-12-17 Abraham Varon-Weinryb Hybrid Finite Element and Artificial Neural Network Method and System for Safety Optimization of Vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178671A (ja) * 1995-12-25 1997-07-11 Shitara Seisakusho:Kk 缶内検査装置
JP2008064686A (ja) * 2006-09-08 2008-03-21 Dainippon Printing Co Ltd 検査画像取得方法
JP2013072846A (ja) * 2011-09-29 2013-04-22 Dainippon Screen Mfg Co Ltd 画像検査装置
JP2017198508A (ja) * 2016-04-26 2017-11-02 西日本高速道路エンジニアリング四国株式会社 構造物の劣化検査装置
KR101908680B1 (ko) * 2016-08-30 2018-10-17 주식회사 루닛 약한 지도 학습 기반의 기계 학습 방법 및 그 장치
KR101881915B1 (ko) * 2018-06-14 2018-07-26 에스브이디 주식회사 차량 설계를 위한 플러그인 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819308B (zh) * 2021-01-23 2024-04-02 罗家德 一种基于双向图卷积神经网络的头部企业识别方法

Also Published As

Publication number Publication date
US11657272B2 (en) 2023-05-23
CN112231823A (zh) 2021-01-15
CN112231823B (zh) 2024-04-19
US20210019563A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
US20210342997A1 (en) Computer Vision Systems and Methods for Vehicle Damage Detection with Reinforcement Learning
JP6857370B2 (ja) ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
WO2021232229A1 (zh) 虚拟场景生成方法、装置、计算机设备和存储介质
CN113486726B (zh) 一种基于改进卷积神经网络的轨道交通障碍物检测方法
KR20200094652A (ko) 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
CN112016476B (zh) 由目标检测引导的复杂交通视觉显著性预测方法及系统
JP2019075116A (ja) トラッキングネットワークを含むCNN(Convolutional Neural Network)を用いてイメージ上の客体に対応するバウンディングボックスを獲得するための方法及びこれを利用した装置
CN111508101B (zh) 通过检测驾驶场景来评估驾驶员的驾驶习惯的方法和装置
KR102197724B1 (ko) 충돌 성능 예측 장치 및 충돌 성능 예측 방법
CN109753913A (zh) 计算高效的多模式视频语义分割方法
CN112150450B (zh) 一种基于双通道U-Net模型的图像篡改检测方法及装置
US20210018590A1 (en) Perception system error detection and re-verification
CN111461221A (zh) 一种面向自动驾驶的多源传感器融合目标检测方法和系统
JP2023506169A (ja) 視覚入力に対する形式的安全シンボリック強化学習
CN110059646A (zh) 训练动作规划模型的方法及目标搜索方法
US20220230418A1 (en) Computer-implemented method for training a computer vision model
JP2020126622A (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
CN114565896A (zh) 一种跨层融合改进的YOLOv4道路目标识别算法
Voynov et al. RPGAN: gans interpretability via random routing
CN115981302A (zh) 车辆跟驰换道行为决策方法、装置及电子设备
CN115565146A (zh) 基于自编码器获取鸟瞰图特征的感知模型训练方法及系统
CN113971795A (zh) 基于自驾车视觉感测的违规巡检系统及其方法
JP2023515476A (ja) 知覚システムのための訓練データ候補の自動特定
KR102582593B1 (ko) 인공지능 모델을 이용한 블랙박스 영상 기반의 교통사고 정보 제공 서버 및 방법
KR20200002770A (ko) 객체 인식을 위한 자가 학습 장치 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant