KR20140118157A - System and Method for alarming collision of vehicle with support vector machine - Google Patents
System and Method for alarming collision of vehicle with support vector machine Download PDFInfo
- Publication number
- KR20140118157A KR20140118157A KR1020130033604A KR20130033604A KR20140118157A KR 20140118157 A KR20140118157 A KR 20140118157A KR 1020130033604 A KR1020130033604 A KR 1020130033604A KR 20130033604 A KR20130033604 A KR 20130033604A KR 20140118157 A KR20140118157 A KR 20140118157A
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- unit
- type
- recognizing
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012706 support-vector machine Methods 0.000 title claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000012880 independent component analysis Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 103
- 238000010801 machine learning Methods 0.000 claims description 21
- 238000000513 principal component analysis Methods 0.000 claims description 14
- 230000006378 damage Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 13
- 208000027418 Wounds and injury Diseases 0.000 claims description 6
- 208000014674 injury Diseases 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 abstract description 2
- 230000007786 learning performance Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000012847 principal component analysis method Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
Abstract
Description
본 발명은 자동차 충돌 경보 시스템 및 방법에 관한 것이다. 더욱 상세하게는 자동 주차 시스템 상에서 기계학습기법을 이용하여 장애물 패턴의 기준을 구축하여, 장애물 분류 속도를 향상시키고 신뢰성을 높인 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법에 관한 것이다.The present invention relates to a vehicle crash alarm system and method. More particularly, the present invention relates to a vehicle crash alarm system and method using a machine learning technique in which a reference of an obstacle pattern is established by using a machine learning technique on an automatic parking system, and an obstacle classification speed is improved and reliability is improved.
차량의 수요 증가로 인한 주차 문제가 사회의 이슈로 등장하고 있으며, 특히 좁은 공간에 차량을 주차시킬 때 운전자가 어려움을 겪는 경우가 많다. 운전을 잘하는 사람이라도 좁은 공간에 주차를 하려면 차를 몇 번 앞뒤로 전진 후진하여 반복해야지 주차를 하는 경우가 많으며, 다른 누군가가 차량이 제대로 주차할 수 있도록 안내를 해주어야 하는 상황이 발생하곤 한다. 이에 따라 자동 주차 시스템을 장착한 차량에 대한 수요가 점점 증가하고 있다.The problem of parking due to the increase in the demand of the vehicle is emerging as a social issue, and in many cases, the driver has difficulty in parking the vehicle in a narrow space. Even if you are a good driver, if you want to park in a small space, you have to go back and forth several times back and forth and repeat the parking. Many people have to guide someone to park their car properly. Accordingly, there is an increasing demand for vehicles equipped with an automatic parking system.
일반적인 자동 주차 시스템은 차량의 각종 센서로부터 정보를 수신하고, 수신된 정보를 이용하여 주차 공간을 판단하고 차량의 주차 목표점을 연산하여 궤적을 산출하고 차량을 제어하여 주차를 하는 방식이다.A typical automatic parking system is a system that receives information from various sensors of a vehicle, judges a parking space by using the received information, calculates a parking target point of the vehicle, calculates a locus, and carries the parking by controlling the vehicle.
기존의 이러한 방식을 이용하여 정확한 자동 주차가 이루어지기 위해서는 주차 공간에 대한 정확한 탐색이 필요하며, 이는 주차 공간 주변의 장애물에 관한 정보를 이용하여 탐색된다.In order to obtain accurate parking by using this conventional method, an accurate search for a parking space is required, and this information is searched using information about an obstacle around the parking space.
도 1을 참조하여 살펴보면, 자동 주차 시스템은 소프트웨어적으로 크게 애플리케이션 소프트웨어(Application software)와 베이스 소프트웨어(Base software)로 구성된다. 애플리케이션 소프트웨어는 시스템 관리부(10)와 HMI(Human Machine Interface)(20)를 포함한다. 그리고 시스템 관리부(10)는 자동 주차 시스템을 구성하는 각 블록, 즉 차량 위치 추종부(11)와 주차 공간 판단부(12) 및 주차 경로 생성/추종부(13)를 통합 관리하는 기능을 수행한다. 차량 위치 추종부(11)는 차량 정보를 받아서 차량의 상태 및 위치를 판단하여 주차 경로 생성/추종부(13)로 전달한다. 그리고 주차 공간 판단부(12)는 초음파 센서로부터 받은 정보를 이용하여 주차 공간을 판단하고, 차량의 주차 목표점을 연산하여 주차 경로 생성/추종부(13)로 전달한다. 주차 경로 생성/추종부(13)는 차량 위치 추종부(11)로부터 전달된 차량의 상태 및 위치 정보와 주차 공간 판단부(12)로부터 전달된 주차 목표점 정보를 받아서 주차 유도 궤적을 산출하며, 주차 공간 판단부(12)로부터 전달된 차량 주변의 장애물 정보와 산출된 주차 유도 궤적을 이용하여 주차 공간 추종을 유도한다. Referring to FIG. 1, the automatic parking system is composed of application software and base software in software. The application software includes a
특히, 주차 공간 판단부(12)에서는 차량에 장착되는 장애물 탐지 장치를 이용하여 운전석에서 사각으로 인지되는 차량의 전후, 좌우 구역의 장애물을 탐지하여 운전자에게 알려준다. 즉, 도 2에 도시된 바와 같이, 차량의 프런트 범퍼 및 리어 범퍼에 각각 2개의 센서가 설치되어 장애물을 감지한다. 여기서, 센서 탐지 구역은 센서를 중심으로한 반구형의 형태로, 상기 센서 탐지 구역 내에 장애물이 감지되면 컨트롤 유닛을 통해 일정 간격으로 알람이 울린다.In particular, the parking
그리고, 카메라 영상으로부터 장애물의 후보 영역을 확보한 후, 장애물의 유무를 판별한다.After securing the candidate region of the obstacle from the camera image, the presence or absence of the obstacle is determined.
이를 위해 장애물 샘플 패턴으로부터 결정 바운더리(decision boundary)를 학습시켜 장애물 인식에 적용한다. 예컨대, 대표적인 방법으로 주어진 샘플 데이터로부터 에러만을 최소화시키는 MLP(Multi Layer Perceptron)가 있다.To do this, decision boundaries are learned from obstacle sample patterns and applied to obstacle recognition. For example, there is MLP (Multi Layer Perceptron) that minimizes only errors from given sample data in an exemplary manner.
그러나, 단순한 센서의 장착만으로는 지상의 돌과 같이 센서 보다 낮게 위치하는 물체를 인지하지 못하여 사고가 발생하는 문제가 있다. 즉, 차량 상하 방향의 장애물 탐지가 곤란한 문제가 있다.However, there is a problem that an object which is located lower than the sensor, such as a stone on the ground, can not be recognized by simply mounting the sensor, thereby causing an accident. That is, there is a problem that obstacle detection in the vehicle vertical direction is difficult.
또한, 센서를 통한 장애물 인지의 경우 장애물의 종류를 판단하지 못하는 문제가 있다.In addition, there is a problem that the type of the obstacle can not be determined in the case of detecting the obstacle through the sensor.
또한, 상기 MLP 방법의 경우 학습 데이터에서는 정확도를 보장받을 수 있으나, 비학습 데이터에서는 낮은 정확도를 보여 신뢰성을 확보하지 못하는 문제가 있다.In the case of the MLP method, the accuracy can be guaranteed in the learning data, but the accuracy is low in the non-learning data and thus the reliability can not be secured.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위한 것으로서, 기계학습기법을 이용하여 장애물 패턴의 기준을 구축하여, 장애물 분류 속도를 향상시키고 신뢰성을 높인 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법을 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the conventional art, and it is an object of the present invention to provide a vehicle crash alarm system and method by building a reference of an obstacle pattern by using a machine learning technique, The purpose is to provide.
상기 목적은 본 발명에 따라, 차량의 위치를 인식하는 차량 위치 인식부와; 초음파를 이용하여 장애물을 탐지하는 센서부와; 장애물의 영상 데이터를 획득하는 영상 장치와; 상기 센서와 상기 영상 장치를 통하여 수집된 정보를 기반으로 장애물의 종류를 판단하는 장애물 패턴 분류부를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템에 의하여 달성된다.According to the present invention, the object is achieved by a vehicle position recognition apparatus comprising: a vehicle position recognition unit for recognizing a position of a vehicle; A sensor unit for detecting an obstacle using ultrasonic waves; An image device for acquiring image data of an obstacle; And an obstacle pattern classifying unit that determines the type of the obstacle based on the information collected through the sensor and the video apparatus.
여기서, 상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 한다.Here, the obstacle pattern classification unit recognizes patterns and types of obstacles extracted through the image device through a machine learning technique (Support Vector Machine) based on the image data collected through the image device.
또한, 상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 상기 기계학습기법의 학습데이터로 이용하여 기계학습기법 모듈을 생성하는 것을 특징으로 한다.The obstacle pattern classifier may generate a machine learning technique module using the image data collected through the imaging device as learning data of the machine learning technique.
여기서, 상기 장애물 패턴 분류부는 상기 영상 데이터를 통하여 장애물 또는 유사 장애물로 분류되는 패턴을 수집하고, 주성분 분석법(PCA, Principle Component Analysis)과 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 장애물 또는 유사 장애물 각각의 기저 벡터를 추출하는 기저 벡터 추출부와; 상기 기저 벡터 추출부로부터 출력된 상기 기저 벡터로부터 특징 벡터를 추출하는 특징 벡터 추출부와; 상기 특징 벡터 추출부의 상기 특징 벡터를 서브 클래스로 분류하는 클러스터링부와; 상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 상기 기계학습기법 모듈을 이용하여 장애물의 종류를 인식하는 SVM 모듈부를 포함하는 것을 특징으로 한다.Here, the obstacle pattern classification unit collects patterns classified as obstacles or similar obstacles through the image data, and performs a principal component analysis (PCA) and an indepependent component analysis (ICA) A base vector extraction unit for extracting a base vector of each obstacle; A feature vector extracting unit for extracting a feature vector from the basis vector output from the basis vector extracting unit; A clustering unit for classifying the feature vectors of the feature vector extracting unit into subclasses; And a SVM module unit for recognizing the type of the obstacle using the machine learning technique module by using the feature vector classified by the clustering unit.
또한, 상기 SVM 모듈부는 상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 이용하여 서포트 벡터를 생성하는 SVM 학습 모듈과; 상기 서포트 벡터와 상기 영상 장치를 통하여 얻어진 장애물의 영상 데이터를 통하여 획득되는 특징 벡터 간의 유사도 비교를 통하여 장애물의 종류를 인식하는 SVM 분류 모듈을 포함하는 것을 특징으로 한다.The SVM module may include an SVM learning module that generates a support vector using the feature vector classified by the clustering unit; And an SVM classification module for recognizing the type of the obstacle by comparing the similarity between the support vector and the feature vector obtained through the image data of the obstacle obtained through the imaging device.
한편, 상기 장애물 패턴 분류부의 판단에 따라 장애물의 종류를 인지시키는 장애물 종류 출력부를 더 포함할 수 있다.The obstacle classifying unit may further include an obstacle type output unit for recognizing the type of the obstacle according to the determination of the obstacle pattern classifying unit.
또한, 상기 장애물 종류 출력부의 장애물 종류 인지에 따라, 장애물의 존재 및 종류를 인지시키는 경보부를 더 포함하며, 상기 경보부는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 한다.The alarm unit may further include an alarm unit for recognizing the presence and the type of the obstacle according to whether the obstacle type is an obstacle type of the obstacle kind output unit and at least one of the electric seat belt and the steering actuator So that it is recognized by using one.
그리고, 상기 경보부는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 한다.In the case of an obstacle that may cause human injury, the alarm unit may be made to recognize by using at least one of an indicator and a buzzer.
상기 목적은 본 발명에 따라, 차량의 위치를 인식하는 단계와; 장애물을 탐지하는 단계와; 장애물의 종류를 판단하는 장애물 패턴 분류부를 이용하여 탐지된 장애물의 종류를 인식하는 단계와; 상기 장애물 종류의 인식에 따라 장애물의 종류를 출력하는 단계와; 출력된 상기 장애물의 종류에 따라 상기 장애물을 인지시키는 단계를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법에 의하여 달성된다.The object is achieved according to the present invention by a method comprising: recognizing a position of a vehicle; Detecting an obstacle; Recognizing a type of the detected obstacle using an obstacle pattern classifying unit for determining the type of the obstacle; Outputting the type of the obstacle according to the recognition of the obstacle type; And recognizing the obstacle in accordance with the type of the obstacle.
여기서, 상기 장애물 패턴 분류부는, 상기 장애물을 탐지 단계에 있어서 장애물을 탐지하는 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 한다.Here, the obstacle pattern classifying unit may classify the obstacle pattern extracted through the imaging device through a machine learning technique (Machine Learning Method) based on the image data collected through the imaging device that detects the obstacle in the detection step And recognizes the type.
그리고, 상기 장애물을 인지시키는 단계에서는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 한다.In the step of recognizing the obstacle, in the case of an obstacle capable of causing physical damage, at least one of a power seat belt and a steering actuator is used to recognize the obstacle.
또한, 상기 장애물을 인지시키는 단계에서는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 한다.Further, in the step of recognizing the obstacle, in the case of an obstacle which may cause human injury, at least one of an indicator lamp and a buzzer may be further used to recognize the obstacle.
상기와 같은 구성을 갖는 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템은 기계학습기법 즉, 주성분 분석법과 독립성분 분석법을 결합하고, 장애물 및 유사장애물의 특징을 표현하는 특징값으로 잔여오차값을 이용함으로써 장애물 학습 및 장애물 검출 성능을 크게 향상시킬 수 있다. The vehicle crash alarm system using the machine learning method according to the present invention having the above configuration combines a machine learning method, that is, a principal component analysis method and an independent component analysis method, and calculates a residual error value The performance of obstacle learning and obstacle detection can be greatly improved.
특히, 데이터의 특징 벡터를 추출하는 기계학습 알고리즘(SVM)을 사용하여 분류함으로써 복잡도가 감소한다.In particular, the complexity is reduced by classifying by using a machine learning algorithm (SVM) that extracts feature vectors of data.
그리고, 장애물 영상뿐만 아니라, 유사장애물 영상을 SVM의 학습데이터로서 이용하여 장애물 패턴 분류시 학습함으로써, 조명이나 포즈 등이 학습된 데이터와는 다른 장애물 영상이 들어오면 장애물이 아니라고 판단하거나, 장애물이 아니지만 장애물과 어느 정도 유사한 패턴을 장애물이라고 판단하는 오류를 크게 줄일 수 있다.By learning not only the obstacle image but also the similar obstacle image as the learning data of the SVM to learn the obstacle pattern classification, it is judged that the illumination or pose is not an obstacle when an obstacle image different from the learned data comes in, It is possible to greatly reduce the error that judges that a pattern similar to the obstacle is an obstacle.
또한, 자동적으로 장애물을 탐지하고 종류를 인식하며, 장애물의 위험 정도에 따라 촉각 정보나 표시등, 버저 등의 경보를 이용하여 장애물을 알려주기 때문에, 운전자가 별도로 조작할 필요가 없어 편리하다.In addition, since the obstacle is automatically detected and the type is recognized, and the obstacle is informed by using the tactile information, the indication, the buzzer or the like according to the degree of danger of the obstacle, it is convenient that the driver does not need to operate it separately.
또한, 장애물 위험군에 따라 경보수단을 달리함으로써, 안전성을 제고할 수 있다.In addition, safety can be improved by changing the warning means according to the risk group of the obstacle.
도 1은 종래의 자동 주차 시스템을 나타내는 블럭도이고,
도 2는 종래의 차량에 설치되는 센서의 위치 및 탐지 범위를 나타내는 도면이고,
도 3은 본 발명에 다른 기계학습기법에 의한 자동차 충돌 경보 시스템을 나타내는 블럭도이고,
도 4 및 도 5는 본 발명의 장애물 패턴 분류부를 나타내는 블럭도 및 흐름도이고,
도 6은 본 발명의 기저 벡터 추출부를 나타내는 흐름도이고,
도 7은 본 발명의 특징 벡터 추출부를 나타내는 흐름도이고,
도 8은 도 4의 SVM 모듈부의 one-against-all 기법이 적용된 것을 나타내는 도면이고,
도 9는 본 발명에 다른 기계학습기법에 의한 자동차 충돌 경보 시스템을 나타내는 흐름도이다.1 is a block diagram showing a conventional automatic parking system,
2 is a view showing the position and detection range of a sensor installed in a conventional vehicle,
FIG. 3 is a block diagram illustrating a vehicle collision alerting system based on a machine learning technique according to the present invention,
4 and 5 are a block diagram and a flowchart showing the obstacle pattern classifying unit of the present invention,
6 is a flowchart showing the basis vector extracting unit of the present invention,
7 is a flowchart showing the feature vector extracting unit of the present invention,
FIG. 8 is a diagram illustrating a one-against-all scheme of the SVM module unit of FIG. 4,
9 is a flowchart illustrating a vehicle collision alerting system using a machine learning technique according to the present invention.
이하, 본 발명의 기술적 과제에 관한 해결 방안을 명확화하기 위해 첨부도면을 참조하여 본 발명의 바람직한 실시 예들을 상세하게 설명한다. 다만, 본 발명을 설명함에 있어서 관련 공지기술에 관한 설명이 오히려 본 발명의 요지를 불명료하게 하는 경우 그에 관한 설명은 생략하기로 한다. 또한, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 설계자, 제조자 등의 의도 또는 관례 등에 따라 달라질 수 있을 것이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 또한, 명세서 전체에 걸쳐서 동일한 도면번호(참조번호)로 표시된 부분은 동일한 요소들을 나타낸다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to clarify the solution to the technical problem of the present invention. In the following description of the present invention, however, the description of related arts will be omitted if the gist of the present invention becomes obscure. In addition, the terms described below are defined in consideration of the functions of the present invention, and may be changed depending on the intention or custom of the designer, the manufacturer, and the like. Therefore, the definition should be based on the contents throughout this specification. In addition, parts denoted by the same reference numerals throughout the specification represent the same elements.
이하, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)에 대하여 살펴보기로 한다.
Hereinafter, a vehicle
도 3을 참조하여 살펴보면, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)은 차량 위치 인식부(100), 센서부(200), 영상 장치(300), 장애물 패턴 분류부(400), 장애물 종류 출력부(500) 및 경보부(600)를 포함할 수 있다.3, the vehicle
차량 위치 인식부(100)는, 도 3에 도시된 바와 같이, 차량 정보에 기반하여 차량의 위치를 인식한다. 여기서, 차량 정보에는 조향각(Steering Angle), 휠 펄스(Wheel Pulse), 요 각속도(Yaw rate), 온도(Temparature) 정보 중 적어도 일부 정보가 포함된다.The vehicle
센서부(200)는 초음파 센서(Ultrasonic sensor)를 이용하여 획득된 센싱 값을 기반으로 차량의 측방 및 전후방의 장애물을 탐지한다. 즉, 상기 센싱 값을 통하여 장애물의 존재 여부를 판단한다.The
영상 장치(300)는 카메라 등으로 영상 데이터 값을 획득한다. 그리고, 획득된 영상 데이터는 장애물 패턴 분류부(400)의 학습 데이터로 이용될 뿐만 아니라, 상기 학습 데이터를 기반으로 장애물의 종류가 인지되고, 인지된 장애물의 종류에 따라 경보부(600)는 운전자에게 장애물을 인지시킨다.The
장애물 패턴 분류부(400)는 차량 위치 인식부(100)에 의한 차량의 위치 정보, 센서부(200)로부터 센싱된 값, 및 영상 장치(300)의 영상 데이터를 기반으로 기계학습기법의 SVM(Support Vector Machine) 모듈을 생성하며, 상기 SVM 모듈을 이용하여 인지된 장애물을 분석하여 장애물 패턴 및 종류를 인식한다.The obstacle
도 4 내지 도 8을 참조하여 살펴보면, 장애물 패턴 분류부(400)는 기저 벡터 추출부(410), 특징 벡터 추출부(420), 클러스터링부(430) 및 SVM 모듈부(440)를 포함할 수 있다.4 to 8, the obstacle
기저 벡터 추출부(410)는, 도 6에 도시된 바와 같이, 장애물 DB(Data Base)(411) 및 유사 장애물 DB(412), PCA 기저 벡터 추출부(413), 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415), ICA 기저 벡터 추출부(416), 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418)를 포함할 수 있다.6, the base
장애물 DB(411)는 다양한 조명과 포즈 등이 반영된 장애물 영상으로부터 구축된다. 또한, 장애물이 아니더라도 장애물과 패턴이 유사하여 오류를 일으킬 수 있는 패턴 또한 수집된다. 이때, 평균 장애물 영상 패턴과 유클리디안 거리(Eculidean Distance)를 이용해 일정 값 이하인 영상 패턴을 수집하여 유사 장애물 DB(412)를 구축하게 된다. 여기서, 장애물이 아닌 패턴들의 경우 그 종류가 다양하기 때문에 모델링에 의미가 없어서 샘플 데이터로 수집하지 않는다. 그리고, 장애물 패턴 분류의 결과값으로 장애물이 아니라고 판단된 패턴의 경우 유사 장애물 샘플 데이터로 수집하여 유사 장애물 DB(412)에 저장해서 학습을 반복적으로 수행한다.The
PCA 기저 벡터 추출부(413)는 장애물 DB(Data Base) 및 유사 장애물 DB로부터 입력된 영상에 주성분 분석법(PCA, Principle Component Analysis)을 수행해 PCA 기저 벡터를 추출한다.The PCA
또한, PCA 기저 벡터 추출부(413)는 장애물 DB(411) 및 유사 장애물 DB(412) 각각으로부터 입력된 영상의 좌표를 통해 장애물 영상의 위치 및 크기를 정규화한다. 그리고, 주성분 분석법을 수행하여 장애물 및 유사 장애물을 표현하는 공간(space)의 PCA 기저 벡터를 추출한다.In addition, the PCA basis
즉, 주성분 분석법을 이용하여 영상 특징 벡터가 표현하고 있던 분산을 최대화하는 방향으로 특징 공간을 선형 사영하여 차원을 줄인다. 그리고, 분산을 이용하여 고유값과 특징 벡터를 구한다. 또한, 고유값들의 크기순으로 나열하여 이에 해당하는 기 설정된 차원의 특징 벡터를 추출한다. 일반적으로 누적 기여율(누적 분산)이 전체 고유값 합의 99%를 차지하는 k개를 선택한다. That is, by using the principal component analysis method, the feature space is linearly projected in the direction of maximizing the variance expressed by the image feature vector, thereby reducing the dimension. Then, the eigenvalue and the feature vector are obtained by using the variance. In addition, the feature vectors are arranged in order of magnitude of the eigenvalues, and feature vectors corresponding to the predetermined dimensions are extracted. Generally, k is selected in which the cumulative contribution (cumulative variance) accounts for 99% of the total eigenvalue sum.
그리고, 상기 PCA 기저 벡터는 각각 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415) 각각에 축적된다.Then, the PCA basis vectors are accumulated in the
그리고, 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415) 각각에 저장된 기저 벡터들 중에 고유값이 큰 기저 벡터들은 ICA 기저 벡터 추출부(416)로 출력된다.Base vectors having a large eigenvalue among the base vectors stored in the
ICA 기저 벡터 추출부(416)는 출력된 기저 벡터들에 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 ICA 기저 벡터를 추출한다. 그리고 추출된 상기 ICA 기저 벡터들은 각각 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418) 각각에 축적된다.The ICA
그리고, 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418)에 각각 축적된 ICA 기저 벡터들은 특징 벡터 추출부(420)로 출력되어 장애물 및 유사 장애물 영상의 특징 벡터 추출에 사용된다.The ICA basis vectors accumulated in the
도 7을 참조하여 살펴보면, 특징 벡터 추출부(420)는 기저 벡터 추출부(410)로부터 추출된 장애물 기저 벡터 및 유사 장애물 기저 벡터에 장애물 DB(411) 및 유사 장애물 DB(412)에 저장되는 장애물 및 유사 장애물 영상을 각각 투영시켜 특징 벡터를 추출한다.7, the feature
예를 들어, 하나의 장애물 영상을 장애물 영상들로부터 추출된 N개의 장애물 기저 벡터에 투영하여 N개의 특징값(투영 계수)들을 추출하고, 동일한 영상을 유사 장애물 영상들로부터 추출한 N개의 유사 장애물 기저 벡터에 투영하여 N개의 특징값(투영 계수)들을 추출하여, 총 2N개의 특징값을 얻는다.For example, N feature values (projection coefficients) are extracted by projecting one obstacle image on N obstacle base vectors extracted from the obstacle images, and N similar obstacle base vectors extracted from the similar obstacle images And extracts N feature values (projection coefficients) to obtain a total of 2N feature values.
또한, 잔여오차값을 계산하여 특징값으로 이용한다. 여기서, 잔여오차값(residual error)이란 각 영상을 N개의 기저 벡터에 투영하여 얻어진 특징값을 상기 기저 벡터에 곱하여 영상을 복원하였을 때 복원된 영상 벡터와 투영 전 실제 영상 벡터 간의 거리를 의미한다.In addition, the residual error value is calculated and used as a feature value. The residual error means a distance between the restored image vector and the actual image vector before projection when the image vector is multiplied by the feature vector obtained by projecting each image on N base vectors.
따라서, 장애물 영상을 장애물 기저 벡터 N개를 이용해서 복원하는 경우에는 잔여오차값이 작지만, 유사 장애물 영상을 장애물 기저 벡터N개를 이용해서 복원하는 경우에는 잔여오차값이 크게 된다.Therefore, when the obstacle image is restored by using N obstacle base vectors, the residual error value is small, but when the similar obstacle image is restored by using N obstacle base vectors, the residual error value becomes large.
종합해보면, 특징 벡터 추출부(420)는 하나의 영상에서 얻어진 2N개의 특징 값과 두 개의 잔여 오차 값을 포함한 2N+2의 특징값을 이용해서 하나의 특징 벡터로 추출한다.In summary, the
그리고, 추출된 장애물 영상에 대한 특징 벡터는 장애물 특징 벡터 DB(421)에 유사 장애물 영상에 대한 특징 벡터는 유사 장애물 특징 벡터 DB(422)에 저장된 후 클러스터링부로 추출된다.Then, the feature vector for the extracted obstacle image is stored in the obstacle
클러스터링부(430)는 k-means clustering 알고리즘에 따라서 장애물 영상특징 벡터들간의 유클리디안 거리를 측정하고, 유클리디안 거리가 가까운 것끼리 묶어서 소정의 서브 클래스로 장애물 특징 벡터를 분류하여 특징 클래스 DB에 저장한다. 그 후, 각 서브 클래스에 저장된 장애물 특징 벡터들의 벡터 평균에 가장 근접한 장애물 특징 벡터를 각 서브 클래스를 대표하는 중심 장애물 특징 벡터로 선정한다. 여기서, 유사 장애물 영상 특징 벡터 또한 동일한 방법으로 수행한다.The
SVM 모듈부(440)는, 도 3에 도시된 바와 같이, SVM 학습 모듈(441)과 SVM 분류 모듈(442)를 포함할 수 있다.The
도 8을 참조하여 살펴보면, 장애물 및 유사 장애물 종류 분류가 다중 클래스 분류이기 때문에 one-against-all 기법을 적용하여 다중 SVM을 설계한다. 따라서, SVM 학습 모듈(441)은 SVM 학습을 통해 서포트 벡터를 생성하며, SVM 분류 모듈(442)은 서포트 벡터와 장애물 또는 유사장애물의 특징 벡터 간의 유사도 비교를 통해 장애물 종류를 인식한다. 8, multiple SVMs are designed by applying one-against-all technique because obstacle and similar obstacle classifications are multi-class classification. Accordingly, the
우선, 전처리된 데이터를 SVM의 학습 데이터로 이용한다. 그리고, 각각의 서브 클래스마다 이진 분류가 가능한 SVM을 생성하여, 총 M개의 SVM을 설계한다. 그 다음 SVM 학습은 학습용 데이터 집합과 학습에 사용되는 내부 커널함수와 조정 파라미터인 C값에 의존한다. 여기서, SVM 커널 함수는 고차원의 비선형의 입력 값을 선형으로 변환시켜줌으로써 SVM의 연산속도를 높이는 역할을 한다. 따라서 실험을 통해 최적의 파라미터를 설정하여 SVM 분류 모듈(442)을 설계한다. First, the preprocessed data is used as learning data of the SVM. Then, SVMs capable of binary classification are generated for each subclass, and a total of M SVMs are designed. The SVM learning then depends on the training data set and the internal kernel function used for learning and the C parameter, the adjustment parameter. Here, the SVM kernel function serves to increase the operation speed of the SVM by linearly converting the nonlinear input values of high dimensional. Therefore, the
그리고, 실제 장애물 탐지 및 종류 인식시, 학습 단계에서 생성된 SVM 분류 모듈(442)에 시험 데이터를 넣어 자동적으로 분류한다. 출력값에 따른 SVM에 해당하는 서브클래스로 장애물 및 유사 장애물 영상 특징 벡터를 분류한다. When the actual obstacle detection and classification are recognized, test data is automatically entered into the
따라서, 도 4의 실선 화살표를 참조하여 살펴보면, 영상 장치(300)에 의하여 입력된 장애물의 영상의 경우 특징 벡터 추출부(420)와 클러스터링부(430)를 이용하여 특징 벡터를 추출하고 서브 클래스를 분류한다. 그 후, SVM 분류 모듈(442)은 SVM 학습 모듈(441)의 서포트 벡터와 영상 장치(300)에 의하여 입력된 장애물의 영상의 특징 벡터 간의 유사도를 비교하여 장애물의 종류를 인식하게 된다.4, in the case of an image of the obstacle input by the
장애물 패턴 분류부(400)의 장애물 분류에 따라, 장애물 종류 출력부(500)는 실시간으로 장애물의 종류가 무엇인지 운전자에게 소리, 문자 또는 영상 등으로 인지시켜 장애물과의 충돌을 회피하게 한다.According to the obstacle classification of the obstacle
경보부(600)는 시스템에 정지 신호를 발생하여 운전자에게 장애물이 탐지됨을 알린다. 예컨데, 경보부(600)는 장애물과의 거리가 약 50㎝가 되면 표시등을 점멸시키고, 버져를 단발적으로 계속 울리게 한다. 또한, 장애물에 가까이 접근함에 따라, 점멸 주기 및 버져 주기를 더욱 빠르게 하고, 장애물과의 거리가 약 20㎝ 이내가 되면 표시등은 연속 점등함과 동시에 버져도 연속적으로 울리게 한다.The
또한, 경보부(600) 인적 손실 및 물적 손실의 가능성에 따라 제1 경보 수단(610)과 제2 경보 수단(620)으로 이원화하여 인지시킬 수 있다.Also, the
제1 경보 수단(610)은 탐지된 장애물이 1군 장애물 위험군에 속하는 경우 전동안전벨트와 조향 엑추에이터 중 어느 하나를 이용하여 운전자의 촉각 정보를 통해 인지시킨다. 여기서, 1군 장애물 위험군이란 예컨데, 박스, 사각기둥 및 원기둥과 같은 장애물과 같이 운전자의 상해를 입히지 않고 차량 손상만을 입힐 수 있는 위험군으로써, 물적 손해만 발생하는 장애물을 의미한다.The first alarm means 610 recognizes the sensed obstacle through the tactile information of the driver by using either the electric seat belt or the steering actuator when the detected obstacle belongs to the first group obstacle danger group. Here, a
제2 경보 수단(620)은 탐지된 장애물이 2군 장애물 위험군에 속하는 경우 상기 촉각 정보를 통하여 운전자에게 인지시킴과 동시에 표시등 및 버져 중 적어도 어느 하나를 통하여 운전자에게 2군 장애물 위험군에 속하는 장애물이 존재함을 알린다. 여기서, 2군 장애물 위험군이란 예컨데, 연석, 자동차, 벽, 사람 등과 같이 차량의 손상뿐만 아니라 운전자 및 사고자의 상해를 입힐 수 있는 위험군으로써, 인적 손해를 동반하는 장해물을 의미한다.When the detected obstacle belongs to the second group obstacle risk group, the
도 5를 참조하여 장애물의 종류를 인식하는 과정을 종합해보면, 장애물 패턴 분류부(400)는 차량 위치 인식부(100), 센서부(200) 및 영상 장치(300)를 통하여 장애물 DB(411)와 유사 장애물 DB(412)를 구축한다(S10). 그리고, 상술 된 바와 같이, PCA 기저 벡터 추출부(413)와 ICA 기저 벡터 추출부(416)를 통하여 기저 벡터를 추출한다(S11). 그 후, 상기 기저 벡터를 기반으로 특징 벡터 추출부(420)에서 장애물 특징 벡터 및 유사 장애물 특징 벡터를 추출하고 잔여 오차값을 계산하여 추출된 장애물 영상에 대한 특징 벡터는 장애물 특징 벡터 DB(421)에 유사 장애물 영상에 대한 특징 벡터는 유사 장애물 특징 벡터 DB(422)에 저장한다(S12). 그리고나서, 클러스터링부(430)는 상기 특징 벡터들을 서브 클래스로 분류한다(S13).5, the obstacle
실제 장애물 탐지 및 종류 인식을 위한 영상이 입력된다(S20). 상기 입력 영상으로부터 특징 벡터를 추출하고(S21), 잔여 오차값을 계산한다(S22). 그에 따라, 입력 영상의 특징 벡터들이 속한 서브 클래스를 분류하고(S23), 서브 클래스의 SVM으로 장애물을 탐지 및 종류를 인식한다(S24).An image for real obstacle detection and type recognition is input (S20). A feature vector is extracted from the input image (S21), and a residual error value is calculated (S22). Accordingly, the subclass to which the feature vectors of the input image belong belong is classified (S23), and the obstacle is detected and the type is recognized by the SVM of the subclass (S24).
이하, 도 9를 참조하여, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)을 이용하여 운전자에게 장애물을 경보하는 방법에 대하여 살펴보기로 한다. Hereinafter, with reference to FIG. 9, a method of alarming an obstacle to a driver by using the automobile
본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 방법(S1)은 차량의 위치를 인식하는 단계(S100), 장애물을 탐지하는 단계(S200), 장애물의 종류를 인식하는 단계(S300), 장애물의 종류를 출력하는 단계(S400), 제1 위험 장애물군에 포함되는지를 판단하는 단계(S500), 제1 경보 수단 발생 단계(S600), 제2 위험 장애물군에 포함되는지를 판단하는 단계(S700) 및 제2 경보 수단 발생 단계(S800)를 포함할 수 있다.The vehicle collision alerting method S1 according to the present invention includes a step S100 of recognizing a position of a vehicle, a step S200 of detecting an obstacle, a step S300 of recognizing the type of the obstacle, (S500), a first alarm generating step (S600), and a step (S700) of determining whether the second dangerous obstacle group is included in the second dangerous obstacle group (S400) And a second alarm means generation step (S800).
차량의 위치를 인식하는 단계(S100)에서는 상술 된 차량 정보에 기반하여 차량의 위치를 인식한다. 그리고, 장애물을 탐지하는 단계(S200)는 센서부(200)의 초음파 센서와 장애물의 영상 데이터를 획득하여 장애물을 탐지한다.In step S100 of recognizing the position of the vehicle, the position of the vehicle is recognized based on the above-described vehicle information. In operation S200, an obstacle is detected by acquiring image data of an obstacle and an ultrasonic sensor of the
장애물의 종류를 인식하는 단계(S300)는 장애물 패턴 분류부(400)의 상기 SVM 모듈을 이용하여 인지된 장애물을 분석하여 장애물 패턴 및 종류를 인식한다.The step of recognizing the type of the obstacle (S300) recognizes the obstacle pattern and the type by analyzing the recognized obstacle using the SVM module of the obstacle pattern classifying unit (400).
장애물의 종류를 출력하는 단계(S400)는 장애물 종류 출력부(500)에 의하여 실시간으로 장애물의 종류가 무엇인지 운전자에게 인지시켜 사전에 장애물과의 충돌을 회피하게 한다.The step S400 of outputting the type of the obstacle allows the obstacle
따라서, 상기 자동차 충돌 경보 시스템(1)은 장애물 종류 출력부(500)에 의하여 송신되는 장애물 종류 신호에 따라, 제1 위험 장애물군에 포함되는 장애물인지를 판단하고(S500), 제1 위험 장애물군에 포함되는 장애물이라면, 제1 경보 수단(610)에 의하여 물적 손해만을 발생시키는 장애물이라는 것을 운전자에게 인지시킨다(S600). 여기서, 제1 경보 수단(610)은 탐지된 장애물이 1군 장애물 위험군에 속하는 경우 전동안전벨트와 조향 엑추에이터 중 어느 하나를 이용하여 운전자의 촉각 정보를 통해 인지시킨다.Accordingly, the automobile
만일, 제1 위험 장애물군에 포함되는 장애물이 아니라면, 제2 위험 장애물군에 포함되는 장애물인지를 판단하고(S700), 제2 위험 장애물군에 포함되는 장애물이라면 제2 경보 수단(620)에 의하여 물적 손해와 인적 손해 모두를 발생시키는 장애물이라는 것을 운전자에게 인지시킨다(S800). 여기서, 제2 경보 수단(620)은 탐지된 장애물이 2군 장애물 위험군에 속하는 경우 상기 촉각 정보를 통하여 운전자에게 인지시킴과 동시에 표시등 및 버져 중 적어도 어느 하나를 통하여 운전자에게 2군 장애물 위험군에 속하는 장애물이 존재함을 알린다.
If it is not an obstacle included in the first dangerous obstacle group, it is determined whether it is an obstacle included in the second dangerous obstacle group (S700). If the obstacle is included in the second dangerous obstacle group, the second warning means 620 The driver is informed that it is an obstacle causing both physical damage and human injury (S800). Here, if the detected obstacle belongs to the second-group obstacle risk group, the
본 발명에 따른 다양한 실시 예들은, 당해 기술 분야는 물론 관련 기술 분야에서 본 명세서에 언급된 내용 이외의 다른 여러 기술적 과제들을 해결할 수 있음은 물론이다.It should be understood that the various embodiments according to the present invention can solve various technical problems other than those mentioned in the specification in the related technical field as well as the related art.
지금까지 본 발명에 대해 실시 예들을 참고하여 설명하였다. 그러나 당업자라면 본 발명의 본질적인 기술적 사상으로부터 벗어나지 않는 범위에서 본 발명이 변형된 형태로 구현될 수 있음을 자명하게 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 즉, 본 발명의 진정한 기술적 범위는 첨부된 특허청구범위에 나타나 있으며, 그와 균등범위 내에 있는 모든 차이점은 본 발명에 포함되는 것으로 해석되어야 할 것이다.The present invention has been described with reference to the embodiments. It will be apparent, however, to one skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. That is, the true technical scope of the present invention is indicated in the appended claims, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
1 : 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템
100 : 차량 위치 인식부 200 : 센서부
300 : 영상 장치 400 : 장애물 패턴 분류부
500 : 장애물 종류 출력부 600 : 경보부1: Automobile collision warning system by the machine learning method according to the present invention
100: Vehicle position recognition unit 200: Sensor unit
300: Imaging apparatus 400: Obstacle pattern classifying unit
500: Obstacle type output unit 600: Alarm unit
Claims (11)
초음파를 이용하여 장애물을 탐지하는 센서부와;
장애물의 영상 데이터를 획득하는 영상 장치와;
상기 센서와 상기 영상 장치를 통하여 수집된 정보를 기반으로 장애물의 종류를 판단하는 장애물 패턴 분류부를 포함하며,
상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.A vehicle position recognizing unit for recognizing a position of the vehicle;
A sensor unit for detecting an obstacle using ultrasonic waves;
An image device for acquiring image data of an obstacle;
And an obstacle pattern classifying unit for determining the type of the obstacle based on the information collected through the sensor and the video apparatus,
Wherein the obstacle pattern classification unit recognizes a pattern and a type of the obstacle extracted through the imaging device through a support vector machine based on the image data collected through the imaging device. Vehicle crash alarm system by.
상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 상기 기계학습기법의 학습데이터로 이용하여 기계학습기법 모듈을 생성하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.The method according to claim 1,
Wherein the obstacle pattern classifier generates a machine learning technique module by using the image data collected through the imaging device as learning data of the machine learning technique.
상기 장애물 패턴 분류부는
상기 영상 데이터를 통하여 장애물 또는 유사 장애물로 분류되는 패턴을 수집하고, 주성분 분석법(PCA, Principle Component Analysis)과 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 장애물 또는 유사 장애물 각각의 기저 벡터를 추출하는 기저 벡터 추출부와;
상기 기저 벡터 추출부로부터 출력된 상기 기저 벡터로부터 특징 벡터를 추출하는 특징 벡터 추출부와;
상기 특징 벡터 추출부의 상기 특징 벡터를 서브 클래스로 분류하는 클러스터링부와;
상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 상기 기계학습기법 모듈을 이용하여 장애물의 종류를 인식하는 SVM 모듈부를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.3. The method according to claim 1 or 2,
The obstacle pattern classifying unit
A pattern classified as an obstacle or a similar obstacle is collected through the image data and a basis vector of each obstacle or similar obstacle is extracted by performing principal component analysis (PCA) and independent component analysis (ICA) A base vector extractor;
A feature vector extracting unit for extracting a feature vector from the basis vector output from the basis vector extracting unit;
A clustering unit for classifying the feature vectors of the feature vector extracting unit into subclasses;
And a SVM module unit for recognizing the type of the obstacle using the machine learning technique module based on the feature vector classified by the clustering unit.
상기 SVM 모듈부는
상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 이용하여 서포트 벡터를 생성하는 SVM 학습 모듈과;
상기 서포트 벡터와 상기 영상 장치를 통하여 얻어진 장애물의 영상 데이터를 통하여 획득되는 특징 벡터 간의 유사도 비교를 통하여 장애물의 종류를 인식하는 SVM 분류 모듈을 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.The method of claim 3,
The SVM module unit
An SVM learning module for generating a support vector using the feature vectors classified by the clustering unit;
And an SVM classification module for recognizing the type of the obstacle by comparing the similarity between the support vector and the feature vector obtained through the image data of the obstacle obtained through the imaging device. .
상기 장애물 패턴 분류부의 판단에 따라 장애물의 종류를 인지시키는 장애물 종류 출력부를 더 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.The method according to claim 1,
And an obstacle type output unit for recognizing the type of the obstacle according to the determination of the obstacle pattern classifying unit.
상기 장애물 종류 출력부의 장애물 종류 인지에 따라, 장애물의 존재 및 종류를 인지시키는 경보부를 더 포함하며,
상기 경보부는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.6. The method of claim 5,
Further comprising an alarm unit for recognizing existence and type of an obstacle according to whether the obstacle type is an obstacle type of the obstacle type output unit,
Wherein the alarm unit recognizes an obstacle capable of causing physical damage using at least one of a power seat belt and a steering actuator.
상기 경보부는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.The method according to claim 6,
Wherein the alarm unit is adapted to recognize at least one of an indicator and a buzzer in the case of an obstacle that may cause human injury.
장애물을 탐지하는 단계와;
장애물의 종류를 판단하는 장애물 패턴 분류부를 이용하여 탐지된 장애물의 종류를 인식하는 단계와;
상기 장애물 종류의 인식에 따라 장애물의 종류를 출력하는 단계와;
출력된 상기 장애물의 종류에 따라 상기 장애물을 인지시키는 단계를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.Recognizing the position of the vehicle;
Detecting an obstacle;
Recognizing a type of the detected obstacle using an obstacle pattern classifying unit for determining the type of the obstacle;
Outputting the type of the obstacle according to the recognition of the obstacle type;
And recognizing the obstacle in accordance with the type of the obstacle that is output.
상기 장애물 패턴 분류부는, 상기 장애물을 탐지 단계에 있어서 장애물을 탐지하는 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.9. The method of claim 8,
The obstacle pattern classifying unit may classify patterns and types of obstacles extracted through the imaging device through a machine learning technique based on image data collected through an imaging device that detects an obstacle in the detection step of the obstacle, Of the vehicle collision warning.
상기 장애물을 인지시키는 단계에서는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.10. The method according to claim 8 or 9,
Wherein the step of recognizing the obstacle is performed by using at least one of a power seat belt and a steering actuator in the case of an obstacle capable of causing physical damage.
상기 장애물을 인지시키는 단계에서는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.12. The method of claim 11,
Wherein the step of recognizing the obstacle is performed by using at least one of an indicator and a buzzer in the case of an obstacle capable of causing personal injury.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130033604A KR102044193B1 (en) | 2013-03-28 | 2013-03-28 | System and Method for alarming collision of vehicle with support vector machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130033604A KR102044193B1 (en) | 2013-03-28 | 2013-03-28 | System and Method for alarming collision of vehicle with support vector machine |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140118157A true KR20140118157A (en) | 2014-10-08 |
KR102044193B1 KR102044193B1 (en) | 2019-12-02 |
Family
ID=51991051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130033604A KR102044193B1 (en) | 2013-03-28 | 2013-03-28 | System and Method for alarming collision of vehicle with support vector machine |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102044193B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180127245A (en) * | 2017-05-19 | 2018-11-28 | 한국과학기술원 | Method for Predicting Vehicle Collision Using Data Collected from Video Games |
CN109131317A (en) * | 2018-07-23 | 2019-01-04 | 同济大学 | Automatic vertical parking system and method based on multisection type planning and machine learning |
KR20190052417A (en) | 2017-11-08 | 2019-05-16 | 한국전자통신연구원 | Method for auto braking of car using learning model and apparatus using the same |
US20190184987A1 (en) * | 2017-12-19 | 2019-06-20 | Hyundai Motor Company | Apparatus and method for deciding a maneuver of a nearby vehicle |
TWI690440B (en) * | 2018-10-17 | 2020-04-11 | 財團法人車輛研究測試中心 | Intelligent driving method for passing intersections based on support vector machine and intelligent driving system thereof |
KR102112585B1 (en) * | 2019-06-20 | 2020-05-19 | 인천대학교 산학협력단 | Smart stroller capable of preventing collisions through obstacle detection and operating method thereof |
KR102348294B1 (en) * | 2020-08-24 | 2022-01-12 | 한국철도기술연구원 | self-driving vehicle control system using cognitive learning data and control method |
CN114435345A (en) * | 2022-01-25 | 2022-05-06 | 岚图汽车科技有限公司 | Automatic parking square column anti-collision method and system |
KR20230001798A (en) * | 2021-06-29 | 2023-01-05 | 주식회사 모토모 | Collision prevention system |
US11657272B2 (en) | 2019-07-15 | 2023-05-23 | Hyundai Motor Company | Apparatus for crash performance prediction and method thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102382219B1 (en) * | 2021-05-10 | 2022-04-05 | 넥스터 주식회사 | The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003344196A (en) * | 2002-05-24 | 2003-12-03 | Denso Corp | Method and apparatus for detecting passenger |
JP2005049914A (en) * | 2003-06-06 | 2005-02-24 | Fujitsu Ten Ltd | Vehicle situation deciding device, on-vehicle information acquiring device, vehicle operation controller, and vehicle situation deciding method |
JP2005284975A (en) * | 2004-03-30 | 2005-10-13 | Honda Motor Co Ltd | Traveling safety device |
KR20090021724A (en) * | 2007-08-28 | 2009-03-04 | 주식회사 만도 | Apparatus for discriminating forward objects of vehicle by using camera and laser scanner |
KR20090126545A (en) * | 2008-06-04 | 2009-12-09 | 주식회사 만도 | Pedestrian recognition method and apparatus using a posteriori probability and pedestrian protection apparatus using same |
KR20130019908A (en) * | 2011-08-18 | 2013-02-27 | 현대모비스 주식회사 | System for predicting the possibility or impossibility of vehicle parking using support vector machine |
-
2013
- 2013-03-28 KR KR1020130033604A patent/KR102044193B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003344196A (en) * | 2002-05-24 | 2003-12-03 | Denso Corp | Method and apparatus for detecting passenger |
JP2005049914A (en) * | 2003-06-06 | 2005-02-24 | Fujitsu Ten Ltd | Vehicle situation deciding device, on-vehicle information acquiring device, vehicle operation controller, and vehicle situation deciding method |
JP2005284975A (en) * | 2004-03-30 | 2005-10-13 | Honda Motor Co Ltd | Traveling safety device |
KR20090021724A (en) * | 2007-08-28 | 2009-03-04 | 주식회사 만도 | Apparatus for discriminating forward objects of vehicle by using camera and laser scanner |
KR20090126545A (en) * | 2008-06-04 | 2009-12-09 | 주식회사 만도 | Pedestrian recognition method and apparatus using a posteriori probability and pedestrian protection apparatus using same |
KR20130019908A (en) * | 2011-08-18 | 2013-02-27 | 현대모비스 주식회사 | System for predicting the possibility or impossibility of vehicle parking using support vector machine |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180127245A (en) * | 2017-05-19 | 2018-11-28 | 한국과학기술원 | Method for Predicting Vehicle Collision Using Data Collected from Video Games |
KR20190052417A (en) | 2017-11-08 | 2019-05-16 | 한국전자통신연구원 | Method for auto braking of car using learning model and apparatus using the same |
US10647316B2 (en) * | 2017-12-19 | 2020-05-12 | Hyundai Motor Company | Apparatus and method for deciding a maneuver of a nearby vehicle |
US20190184987A1 (en) * | 2017-12-19 | 2019-06-20 | Hyundai Motor Company | Apparatus and method for deciding a maneuver of a nearby vehicle |
CN109927727A (en) * | 2017-12-19 | 2019-06-25 | 现代自动车株式会社 | For determining the device and method of the movement of neighbouring vehicle |
KR20190074025A (en) * | 2017-12-19 | 2019-06-27 | 현대자동차주식회사 | Apparatus and method for deciding maneuver of peripheral vehicle |
CN109131317A (en) * | 2018-07-23 | 2019-01-04 | 同济大学 | Automatic vertical parking system and method based on multisection type planning and machine learning |
TWI690440B (en) * | 2018-10-17 | 2020-04-11 | 財團法人車輛研究測試中心 | Intelligent driving method for passing intersections based on support vector machine and intelligent driving system thereof |
KR102112585B1 (en) * | 2019-06-20 | 2020-05-19 | 인천대학교 산학협력단 | Smart stroller capable of preventing collisions through obstacle detection and operating method thereof |
US11657272B2 (en) | 2019-07-15 | 2023-05-23 | Hyundai Motor Company | Apparatus for crash performance prediction and method thereof |
KR102348294B1 (en) * | 2020-08-24 | 2022-01-12 | 한국철도기술연구원 | self-driving vehicle control system using cognitive learning data and control method |
KR20230001798A (en) * | 2021-06-29 | 2023-01-05 | 주식회사 모토모 | Collision prevention system |
CN114435345A (en) * | 2022-01-25 | 2022-05-06 | 岚图汽车科技有限公司 | Automatic parking square column anti-collision method and system |
CN114435345B (en) * | 2022-01-25 | 2023-10-24 | 岚图汽车科技有限公司 | Automatic parking square column anti-collision method and system |
Also Published As
Publication number | Publication date |
---|---|
KR102044193B1 (en) | 2019-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102044193B1 (en) | System and Method for alarming collision of vehicle with support vector machine | |
KR102441085B1 (en) | Apparatus and method for providing guidance information using crosswalk recognition result | |
US11485284B2 (en) | System and method for driver distraction determination | |
KR101912453B1 (en) | Apparatus And Method Detectinc Obstacle And Alerting Collision | |
CN107380164B (en) | Driver assistance system based on computer vision and support system | |
Gandhi et al. | Pedestrian protection systems: Issues, survey, and challenges | |
US20120081542A1 (en) | Obstacle detecting system and method | |
US10011216B1 (en) | Auto turn signal initiation based on lane change and driver history | |
US11453335B2 (en) | Intelligent ultrasonic system and rear collision warning apparatus for vehicle | |
JP4708124B2 (en) | Image processing device | |
KR101188584B1 (en) | Apparatus for Discriminating Forward Objects of Vehicle by Using Camera And Laser Scanner | |
US10525873B2 (en) | Turn by turn activation of turn signals | |
JP5178276B2 (en) | Image recognition device | |
US20050157929A1 (en) | Pedestrian detection apparatus | |
EP1721287A1 (en) | Method and apparatus for detecting a presence | |
JP2004362586A (en) | Image processing system for vehicle | |
JP2011186584A (en) | Object recognition apparatus | |
JP2006508437A (en) | Method for detecting the forward perimeter of a road vehicle by a perimeter sensing system | |
KR20130054637A (en) | Apparatus and method detecting object in automatic parking system | |
KR101687094B1 (en) | Apparatus for recognizing traffic sign and method thereof | |
US11443622B2 (en) | Systems and methods for mitigating a risk of being followed by a vehicle | |
WO2017208601A1 (en) | Image processing device and external recognition device | |
JP6296684B2 (en) | Driving assistance device | |
JP5593217B2 (en) | Vehicle external recognition device and vehicle system using the same | |
KR20130019908A (en) | System for predicting the possibility or impossibility of vehicle parking using support vector machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |