KR20140118157A - System and Method for alarming collision of vehicle with support vector machine - Google Patents

System and Method for alarming collision of vehicle with support vector machine Download PDF

Info

Publication number
KR20140118157A
KR20140118157A KR1020130033604A KR20130033604A KR20140118157A KR 20140118157 A KR20140118157 A KR 20140118157A KR 1020130033604 A KR1020130033604 A KR 1020130033604A KR 20130033604 A KR20130033604 A KR 20130033604A KR 20140118157 A KR20140118157 A KR 20140118157A
Authority
KR
South Korea
Prior art keywords
obstacle
unit
type
recognizing
vehicle
Prior art date
Application number
KR1020130033604A
Other languages
Korean (ko)
Other versions
KR102044193B1 (en
Inventor
김소연
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020130033604A priority Critical patent/KR102044193B1/en
Publication of KR20140118157A publication Critical patent/KR20140118157A/en
Application granted granted Critical
Publication of KR102044193B1 publication Critical patent/KR102044193B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound

Abstract

The present invention relates to a vehicle collision warning system by a support vector machine which includes a vehicle position recognition unit which can recognize a position of a vehicle; a sensor unit which uses ultrasonic waves to detect an obstacle; an image device obtaining an image data of the obstacle; and an obstacle pattern classification unit which determines a type of the obstacle based on information collected from the sensor and the image device. Here, the obstacle pattern classification unit recognizes a pattern and a type of the obstacle extracted by the image device by the support vector machine based on the image data collected by the image device. Accordingly, by using the support vector machine, which is combining a main component analysis method and an independent component analysis method, and using a residual error value as a feature value which can express a feature of an obstacle and a similar obstacle, an obstacle learning performance and an obstacle detection performance can be remarkably improved.

Description

기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법{System and Method for alarming collision of vehicle with support vector machine}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle crash alarm system and method,

본 발명은 자동차 충돌 경보 시스템 및 방법에 관한 것이다. 더욱 상세하게는 자동 주차 시스템 상에서 기계학습기법을 이용하여 장애물 패턴의 기준을 구축하여, 장애물 분류 속도를 향상시키고 신뢰성을 높인 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법에 관한 것이다.The present invention relates to a vehicle crash alarm system and method. More particularly, the present invention relates to a vehicle crash alarm system and method using a machine learning technique in which a reference of an obstacle pattern is established by using a machine learning technique on an automatic parking system, and an obstacle classification speed is improved and reliability is improved.

차량의 수요 증가로 인한 주차 문제가 사회의 이슈로 등장하고 있으며, 특히 좁은 공간에 차량을 주차시킬 때 운전자가 어려움을 겪는 경우가 많다. 운전을 잘하는 사람이라도 좁은 공간에 주차를 하려면 차를 몇 번 앞뒤로 전진 후진하여 반복해야지 주차를 하는 경우가 많으며, 다른 누군가가 차량이 제대로 주차할 수 있도록 안내를 해주어야 하는 상황이 발생하곤 한다. 이에 따라 자동 주차 시스템을 장착한 차량에 대한 수요가 점점 증가하고 있다.The problem of parking due to the increase in the demand of the vehicle is emerging as a social issue, and in many cases, the driver has difficulty in parking the vehicle in a narrow space. Even if you are a good driver, if you want to park in a small space, you have to go back and forth several times back and forth and repeat the parking. Many people have to guide someone to park their car properly. Accordingly, there is an increasing demand for vehicles equipped with an automatic parking system.

일반적인 자동 주차 시스템은 차량의 각종 센서로부터 정보를 수신하고, 수신된 정보를 이용하여 주차 공간을 판단하고 차량의 주차 목표점을 연산하여 궤적을 산출하고 차량을 제어하여 주차를 하는 방식이다.A typical automatic parking system is a system that receives information from various sensors of a vehicle, judges a parking space by using the received information, calculates a parking target point of the vehicle, calculates a locus, and carries the parking by controlling the vehicle.

기존의 이러한 방식을 이용하여 정확한 자동 주차가 이루어지기 위해서는 주차 공간에 대한 정확한 탐색이 필요하며, 이는 주차 공간 주변의 장애물에 관한 정보를 이용하여 탐색된다.In order to obtain accurate parking by using this conventional method, an accurate search for a parking space is required, and this information is searched using information about an obstacle around the parking space.

도 1을 참조하여 살펴보면, 자동 주차 시스템은 소프트웨어적으로 크게 애플리케이션 소프트웨어(Application software)와 베이스 소프트웨어(Base software)로 구성된다. 애플리케이션 소프트웨어는 시스템 관리부(10)와 HMI(Human Machine Interface)(20)를 포함한다. 그리고 시스템 관리부(10)는 자동 주차 시스템을 구성하는 각 블록, 즉 차량 위치 추종부(11)와 주차 공간 판단부(12) 및 주차 경로 생성/추종부(13)를 통합 관리하는 기능을 수행한다. 차량 위치 추종부(11)는 차량 정보를 받아서 차량의 상태 및 위치를 판단하여 주차 경로 생성/추종부(13)로 전달한다. 그리고 주차 공간 판단부(12)는 초음파 센서로부터 받은 정보를 이용하여 주차 공간을 판단하고, 차량의 주차 목표점을 연산하여 주차 경로 생성/추종부(13)로 전달한다. 주차 경로 생성/추종부(13)는 차량 위치 추종부(11)로부터 전달된 차량의 상태 및 위치 정보와 주차 공간 판단부(12)로부터 전달된 주차 목표점 정보를 받아서 주차 유도 궤적을 산출하며, 주차 공간 판단부(12)로부터 전달된 차량 주변의 장애물 정보와 산출된 주차 유도 궤적을 이용하여 주차 공간 추종을 유도한다. Referring to FIG. 1, the automatic parking system is composed of application software and base software in software. The application software includes a system management unit 10 and an HMI (Human Machine Interface) 20. The system management unit 10 performs a function of integrally managing each block constituting the automatic parking system, that is, the vehicle position tracking unit 11, the parking space determination unit 12, and the parking path generation / tracking unit 13 . The vehicle position tracking unit 11 receives the vehicle information, determines the state and position of the vehicle, and transmits the state and position to the parking path generation / tracking unit 13. The parking space determination unit 12 determines the parking space by using the information received from the ultrasonic sensor, calculates the parking target point of the vehicle, and transmits the calculated parking target point to the parking path generation / tracking unit 13. The parking path generation / follow-up unit 13 calculates the parking induction locus by receiving the vehicle state and position information transmitted from the vehicle position tracking unit 11 and the parking target point information transmitted from the parking space determination unit 12, The parking space follow-up is induced by using the calculated parking induction locus and the obstacle information around the vehicle transmitted from the space determining unit 12. [

특히, 주차 공간 판단부(12)에서는 차량에 장착되는 장애물 탐지 장치를 이용하여 운전석에서 사각으로 인지되는 차량의 전후, 좌우 구역의 장애물을 탐지하여 운전자에게 알려준다. 즉, 도 2에 도시된 바와 같이, 차량의 프런트 범퍼 및 리어 범퍼에 각각 2개의 센서가 설치되어 장애물을 감지한다. 여기서, 센서 탐지 구역은 센서를 중심으로한 반구형의 형태로, 상기 센서 탐지 구역 내에 장애물이 감지되면 컨트롤 유닛을 통해 일정 간격으로 알람이 울린다.In particular, the parking space determination unit 12 detects obstacles in the front, rear, and right and left areas of the vehicle, which are perceived as squares in the driver's seat using an obstacle detection device mounted on the vehicle, and notifies the driver of the obstacles. That is, as shown in FIG. 2, two sensors are installed on the front bumper and the rear bumper of the vehicle, respectively, to detect an obstacle. Here, the sensor detection area is a hemispherical shape with the sensor as a center, and when an obstacle is detected in the sensor detection area, an alarm sounds at a predetermined interval through the control unit.

그리고, 카메라 영상으로부터 장애물의 후보 영역을 확보한 후, 장애물의 유무를 판별한다.After securing the candidate region of the obstacle from the camera image, the presence or absence of the obstacle is determined.

이를 위해 장애물 샘플 패턴으로부터 결정 바운더리(decision boundary)를 학습시켜 장애물 인식에 적용한다. 예컨대, 대표적인 방법으로 주어진 샘플 데이터로부터 에러만을 최소화시키는 MLP(Multi Layer Perceptron)가 있다.To do this, decision boundaries are learned from obstacle sample patterns and applied to obstacle recognition. For example, there is MLP (Multi Layer Perceptron) that minimizes only errors from given sample data in an exemplary manner.

그러나, 단순한 센서의 장착만으로는 지상의 돌과 같이 센서 보다 낮게 위치하는 물체를 인지하지 못하여 사고가 발생하는 문제가 있다. 즉, 차량 상하 방향의 장애물 탐지가 곤란한 문제가 있다.However, there is a problem that an object which is located lower than the sensor, such as a stone on the ground, can not be recognized by simply mounting the sensor, thereby causing an accident. That is, there is a problem that obstacle detection in the vehicle vertical direction is difficult.

또한, 센서를 통한 장애물 인지의 경우 장애물의 종류를 판단하지 못하는 문제가 있다.In addition, there is a problem that the type of the obstacle can not be determined in the case of detecting the obstacle through the sensor.

또한, 상기 MLP 방법의 경우 학습 데이터에서는 정확도를 보장받을 수 있으나, 비학습 데이터에서는 낮은 정확도를 보여 신뢰성을 확보하지 못하는 문제가 있다.In the case of the MLP method, the accuracy can be guaranteed in the learning data, but the accuracy is low in the non-learning data and thus the reliability can not be secured.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위한 것으로서, 기계학습기법을 이용하여 장애물 패턴의 기준을 구축하여, 장애물 분류 속도를 향상시키고 신뢰성을 높인 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법을 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the conventional art, and it is an object of the present invention to provide a vehicle crash alarm system and method by building a reference of an obstacle pattern by using a machine learning technique, The purpose is to provide.

상기 목적은 본 발명에 따라, 차량의 위치를 인식하는 차량 위치 인식부와; 초음파를 이용하여 장애물을 탐지하는 센서부와; 장애물의 영상 데이터를 획득하는 영상 장치와; 상기 센서와 상기 영상 장치를 통하여 수집된 정보를 기반으로 장애물의 종류를 판단하는 장애물 패턴 분류부를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템에 의하여 달성된다.According to the present invention, the object is achieved by a vehicle position recognition apparatus comprising: a vehicle position recognition unit for recognizing a position of a vehicle; A sensor unit for detecting an obstacle using ultrasonic waves; An image device for acquiring image data of an obstacle; And an obstacle pattern classifying unit that determines the type of the obstacle based on the information collected through the sensor and the video apparatus.

여기서, 상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 한다.Here, the obstacle pattern classification unit recognizes patterns and types of obstacles extracted through the image device through a machine learning technique (Support Vector Machine) based on the image data collected through the image device.

또한, 상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 상기 기계학습기법의 학습데이터로 이용하여 기계학습기법 모듈을 생성하는 것을 특징으로 한다.The obstacle pattern classifier may generate a machine learning technique module using the image data collected through the imaging device as learning data of the machine learning technique.

여기서, 상기 장애물 패턴 분류부는 상기 영상 데이터를 통하여 장애물 또는 유사 장애물로 분류되는 패턴을 수집하고, 주성분 분석법(PCA, Principle Component Analysis)과 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 장애물 또는 유사 장애물 각각의 기저 벡터를 추출하는 기저 벡터 추출부와; 상기 기저 벡터 추출부로부터 출력된 상기 기저 벡터로부터 특징 벡터를 추출하는 특징 벡터 추출부와; 상기 특징 벡터 추출부의 상기 특징 벡터를 서브 클래스로 분류하는 클러스터링부와; 상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 상기 기계학습기법 모듈을 이용하여 장애물의 종류를 인식하는 SVM 모듈부를 포함하는 것을 특징으로 한다.Here, the obstacle pattern classification unit collects patterns classified as obstacles or similar obstacles through the image data, and performs a principal component analysis (PCA) and an indepependent component analysis (ICA) A base vector extraction unit for extracting a base vector of each obstacle; A feature vector extracting unit for extracting a feature vector from the basis vector output from the basis vector extracting unit; A clustering unit for classifying the feature vectors of the feature vector extracting unit into subclasses; And a SVM module unit for recognizing the type of the obstacle using the machine learning technique module by using the feature vector classified by the clustering unit.

또한, 상기 SVM 모듈부는 상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 이용하여 서포트 벡터를 생성하는 SVM 학습 모듈과; 상기 서포트 벡터와 상기 영상 장치를 통하여 얻어진 장애물의 영상 데이터를 통하여 획득되는 특징 벡터 간의 유사도 비교를 통하여 장애물의 종류를 인식하는 SVM 분류 모듈을 포함하는 것을 특징으로 한다.The SVM module may include an SVM learning module that generates a support vector using the feature vector classified by the clustering unit; And an SVM classification module for recognizing the type of the obstacle by comparing the similarity between the support vector and the feature vector obtained through the image data of the obstacle obtained through the imaging device.

한편, 상기 장애물 패턴 분류부의 판단에 따라 장애물의 종류를 인지시키는 장애물 종류 출력부를 더 포함할 수 있다.The obstacle classifying unit may further include an obstacle type output unit for recognizing the type of the obstacle according to the determination of the obstacle pattern classifying unit.

또한, 상기 장애물 종류 출력부의 장애물 종류 인지에 따라, 장애물의 존재 및 종류를 인지시키는 경보부를 더 포함하며, 상기 경보부는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 한다.The alarm unit may further include an alarm unit for recognizing the presence and the type of the obstacle according to whether the obstacle type is an obstacle type of the obstacle kind output unit and at least one of the electric seat belt and the steering actuator So that it is recognized by using one.

그리고, 상기 경보부는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 한다.In the case of an obstacle that may cause human injury, the alarm unit may be made to recognize by using at least one of an indicator and a buzzer.

상기 목적은 본 발명에 따라, 차량의 위치를 인식하는 단계와; 장애물을 탐지하는 단계와; 장애물의 종류를 판단하는 장애물 패턴 분류부를 이용하여 탐지된 장애물의 종류를 인식하는 단계와; 상기 장애물 종류의 인식에 따라 장애물의 종류를 출력하는 단계와; 출력된 상기 장애물의 종류에 따라 상기 장애물을 인지시키는 단계를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법에 의하여 달성된다.The object is achieved according to the present invention by a method comprising: recognizing a position of a vehicle; Detecting an obstacle; Recognizing a type of the detected obstacle using an obstacle pattern classifying unit for determining the type of the obstacle; Outputting the type of the obstacle according to the recognition of the obstacle type; And recognizing the obstacle in accordance with the type of the obstacle.

여기서, 상기 장애물 패턴 분류부는, 상기 장애물을 탐지 단계에 있어서 장애물을 탐지하는 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 한다.Here, the obstacle pattern classifying unit may classify the obstacle pattern extracted through the imaging device through a machine learning technique (Machine Learning Method) based on the image data collected through the imaging device that detects the obstacle in the detection step And recognizes the type.

그리고, 상기 장애물을 인지시키는 단계에서는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 한다.In the step of recognizing the obstacle, in the case of an obstacle capable of causing physical damage, at least one of a power seat belt and a steering actuator is used to recognize the obstacle.

또한, 상기 장애물을 인지시키는 단계에서는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 한다.Further, in the step of recognizing the obstacle, in the case of an obstacle which may cause human injury, at least one of an indicator lamp and a buzzer may be further used to recognize the obstacle.

상기와 같은 구성을 갖는 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템은 기계학습기법 즉, 주성분 분석법과 독립성분 분석법을 결합하고, 장애물 및 유사장애물의 특징을 표현하는 특징값으로 잔여오차값을 이용함으로써 장애물 학습 및 장애물 검출 성능을 크게 향상시킬 수 있다. The vehicle crash alarm system using the machine learning method according to the present invention having the above configuration combines a machine learning method, that is, a principal component analysis method and an independent component analysis method, and calculates a residual error value The performance of obstacle learning and obstacle detection can be greatly improved.

특히, 데이터의 특징 벡터를 추출하는 기계학습 알고리즘(SVM)을 사용하여 분류함으로써 복잡도가 감소한다.In particular, the complexity is reduced by classifying by using a machine learning algorithm (SVM) that extracts feature vectors of data.

그리고, 장애물 영상뿐만 아니라, 유사장애물 영상을 SVM의 학습데이터로서 이용하여 장애물 패턴 분류시 학습함으로써, 조명이나 포즈 등이 학습된 데이터와는 다른 장애물 영상이 들어오면 장애물이 아니라고 판단하거나, 장애물이 아니지만 장애물과 어느 정도 유사한 패턴을 장애물이라고 판단하는 오류를 크게 줄일 수 있다.By learning not only the obstacle image but also the similar obstacle image as the learning data of the SVM to learn the obstacle pattern classification, it is judged that the illumination or pose is not an obstacle when an obstacle image different from the learned data comes in, It is possible to greatly reduce the error that judges that a pattern similar to the obstacle is an obstacle.

또한, 자동적으로 장애물을 탐지하고 종류를 인식하며, 장애물의 위험 정도에 따라 촉각 정보나 표시등, 버저 등의 경보를 이용하여 장애물을 알려주기 때문에, 운전자가 별도로 조작할 필요가 없어 편리하다.In addition, since the obstacle is automatically detected and the type is recognized, and the obstacle is informed by using the tactile information, the indication, the buzzer or the like according to the degree of danger of the obstacle, it is convenient that the driver does not need to operate it separately.

또한, 장애물 위험군에 따라 경보수단을 달리함으로써, 안전성을 제고할 수 있다.In addition, safety can be improved by changing the warning means according to the risk group of the obstacle.

도 1은 종래의 자동 주차 시스템을 나타내는 블럭도이고,
도 2는 종래의 차량에 설치되는 센서의 위치 및 탐지 범위를 나타내는 도면이고,
도 3은 본 발명에 다른 기계학습기법에 의한 자동차 충돌 경보 시스템을 나타내는 블럭도이고,
도 4 및 도 5는 본 발명의 장애물 패턴 분류부를 나타내는 블럭도 및 흐름도이고,
도 6은 본 발명의 기저 벡터 추출부를 나타내는 흐름도이고,
도 7은 본 발명의 특징 벡터 추출부를 나타내는 흐름도이고,
도 8은 도 4의 SVM 모듈부의 one-against-all 기법이 적용된 것을 나타내는 도면이고,
도 9는 본 발명에 다른 기계학습기법에 의한 자동차 충돌 경보 시스템을 나타내는 흐름도이다.
1 is a block diagram showing a conventional automatic parking system,
2 is a view showing the position and detection range of a sensor installed in a conventional vehicle,
FIG. 3 is a block diagram illustrating a vehicle collision alerting system based on a machine learning technique according to the present invention,
4 and 5 are a block diagram and a flowchart showing the obstacle pattern classifying unit of the present invention,
6 is a flowchart showing the basis vector extracting unit of the present invention,
7 is a flowchart showing the feature vector extracting unit of the present invention,
FIG. 8 is a diagram illustrating a one-against-all scheme of the SVM module unit of FIG. 4,
9 is a flowchart illustrating a vehicle collision alerting system using a machine learning technique according to the present invention.

이하, 본 발명의 기술적 과제에 관한 해결 방안을 명확화하기 위해 첨부도면을 참조하여 본 발명의 바람직한 실시 예들을 상세하게 설명한다. 다만, 본 발명을 설명함에 있어서 관련 공지기술에 관한 설명이 오히려 본 발명의 요지를 불명료하게 하는 경우 그에 관한 설명은 생략하기로 한다. 또한, 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 설계자, 제조자 등의 의도 또는 관례 등에 따라 달라질 수 있을 것이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 또한, 명세서 전체에 걸쳐서 동일한 도면번호(참조번호)로 표시된 부분은 동일한 요소들을 나타낸다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to clarify the solution to the technical problem of the present invention. In the following description of the present invention, however, the description of related arts will be omitted if the gist of the present invention becomes obscure. In addition, the terms described below are defined in consideration of the functions of the present invention, and may be changed depending on the intention or custom of the designer, the manufacturer, and the like. Therefore, the definition should be based on the contents throughout this specification. In addition, parts denoted by the same reference numerals throughout the specification represent the same elements.

이하, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)에 대하여 살펴보기로 한다.
Hereinafter, a vehicle crash alarm system 1 according to the present invention will be described.

도 3을 참조하여 살펴보면, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)은 차량 위치 인식부(100), 센서부(200), 영상 장치(300), 장애물 패턴 분류부(400), 장애물 종류 출력부(500) 및 경보부(600)를 포함할 수 있다.3, the vehicle collision alerting system 1 according to the present invention includes a vehicle position recognizing unit 100, a sensor unit 200, a video device 300, an obstacle pattern classifying unit 400 An obstacle kind output unit 500, and an alarm unit 600.

차량 위치 인식부(100)는, 도 3에 도시된 바와 같이, 차량 정보에 기반하여 차량의 위치를 인식한다. 여기서, 차량 정보에는 조향각(Steering Angle), 휠 펄스(Wheel Pulse), 요 각속도(Yaw rate), 온도(Temparature) 정보 중 적어도 일부 정보가 포함된다.The vehicle position recognition unit 100 recognizes the position of the vehicle based on the vehicle information, as shown in Fig. Here, the vehicle information includes at least some information of a steering angle, a wheel pulse, a yaw rate, and temperature information.

센서부(200)는 초음파 센서(Ultrasonic sensor)를 이용하여 획득된 센싱 값을 기반으로 차량의 측방 및 전후방의 장애물을 탐지한다. 즉, 상기 센싱 값을 통하여 장애물의 존재 여부를 판단한다.The sensor unit 200 detects obstacles on the sides and front and back of the vehicle based on the sensing values obtained using the ultrasonic sensors. That is, the presence or absence of an obstacle is determined through the sensing value.

영상 장치(300)는 카메라 등으로 영상 데이터 값을 획득한다. 그리고, 획득된 영상 데이터는 장애물 패턴 분류부(400)의 학습 데이터로 이용될 뿐만 아니라, 상기 학습 데이터를 기반으로 장애물의 종류가 인지되고, 인지된 장애물의 종류에 따라 경보부(600)는 운전자에게 장애물을 인지시킨다.The video apparatus 300 acquires image data values by a camera or the like. The obtained image data is used as learning data of the obstacle pattern classifying unit 400, and the type of the obstacle is recognized based on the learning data. Depending on the type of the obstacle, the warning unit 600 informs the driver Recognize obstacles.

장애물 패턴 분류부(400)는 차량 위치 인식부(100)에 의한 차량의 위치 정보, 센서부(200)로부터 센싱된 값, 및 영상 장치(300)의 영상 데이터를 기반으로 기계학습기법의 SVM(Support Vector Machine) 모듈을 생성하며, 상기 SVM 모듈을 이용하여 인지된 장애물을 분석하여 장애물 패턴 및 종류를 인식한다.The obstacle pattern classifying unit 400 classifies SVMs of the machine learning techniques based on the vehicle position information by the vehicle position recognizing unit 100, the sensed value from the sensor unit 200, Support Vector Machine) module, and recognizes an obstacle pattern and a type by analyzing a recognized obstacle by using the SVM module.

도 4 내지 도 8을 참조하여 살펴보면, 장애물 패턴 분류부(400)는 기저 벡터 추출부(410), 특징 벡터 추출부(420), 클러스터링부(430) 및 SVM 모듈부(440)를 포함할 수 있다.4 to 8, the obstacle pattern classifying unit 400 may include a basis vector extracting unit 410, a feature vector extracting unit 420, a clustering unit 430, and an SVM module unit 440. have.

기저 벡터 추출부(410)는, 도 6에 도시된 바와 같이, 장애물 DB(Data Base)(411) 및 유사 장애물 DB(412), PCA 기저 벡터 추출부(413), 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415), ICA 기저 벡터 추출부(416), 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418)를 포함할 수 있다.6, the base vector extraction unit 410 includes an obstacle DB 411 and a similar obstacle DB 412, a PCA basis vector extraction unit 413, a first obstacle DB 414, And a first similar obstacle DB 415, an ICA basis vector extractor 416, a second obstacle DB 417, and a second similar obstacle DB 418.

장애물 DB(411)는 다양한 조명과 포즈 등이 반영된 장애물 영상으로부터 구축된다. 또한, 장애물이 아니더라도 장애물과 패턴이 유사하여 오류를 일으킬 수 있는 패턴 또한 수집된다. 이때, 평균 장애물 영상 패턴과 유클리디안 거리(Eculidean Distance)를 이용해 일정 값 이하인 영상 패턴을 수집하여 유사 장애물 DB(412)를 구축하게 된다. 여기서, 장애물이 아닌 패턴들의 경우 그 종류가 다양하기 때문에 모델링에 의미가 없어서 샘플 데이터로 수집하지 않는다. 그리고, 장애물 패턴 분류의 결과값으로 장애물이 아니라고 판단된 패턴의 경우 유사 장애물 샘플 데이터로 수집하여 유사 장애물 DB(412)에 저장해서 학습을 반복적으로 수행한다.The obstacle DB 411 is constructed from obstacle images reflecting various lights and pose. In addition, patterns that may cause errors due to similar patterns of obstacles even if they are not obstacles are also collected. At this time, an image pattern having a predetermined value or less is collected using the average obstacle image pattern and the Eculidean distance to construct a similar obstacle DB 412. Here, patterns that are not obstacles are not collected as sample data because they are not meaningful for modeling because they are various kinds. In the case of a pattern determined to be an obstacle as a result of the obstacle pattern classification, the pattern is collected as similar obstacle sample data, stored in the similar obstacle DB 412, and the learning is repeatedly performed.

PCA 기저 벡터 추출부(413)는 장애물 DB(Data Base) 및 유사 장애물 DB로부터 입력된 영상에 주성분 분석법(PCA, Principle Component Analysis)을 수행해 PCA 기저 벡터를 추출한다.The PCA basis vector extractor 413 extracts a PCA basis vector by performing principal component analysis (PCA) on an image input from an obstacle DB and a similar obstacle DB.

또한, PCA 기저 벡터 추출부(413)는 장애물 DB(411) 및 유사 장애물 DB(412) 각각으로부터 입력된 영상의 좌표를 통해 장애물 영상의 위치 및 크기를 정규화한다. 그리고, 주성분 분석법을 수행하여 장애물 및 유사 장애물을 표현하는 공간(space)의 PCA 기저 벡터를 추출한다.In addition, the PCA basis vector extracting unit 413 normalizes the position and size of the obstacle image through the coordinates of the image input from the obstacle DB 411 and the similar obstacle DB 412, respectively. Then, principal component analysis is performed to extract PCA basis vectors of space representing obstacles and similar obstacles.

즉, 주성분 분석법을 이용하여 영상 특징 벡터가 표현하고 있던 분산을 최대화하는 방향으로 특징 공간을 선형 사영하여 차원을 줄인다. 그리고, 분산을 이용하여 고유값과 특징 벡터를 구한다. 또한, 고유값들의 크기순으로 나열하여 이에 해당하는 기 설정된 차원의 특징 벡터를 추출한다. 일반적으로 누적 기여율(누적 분산)이 전체 고유값 합의 99%를 차지하는 k개를 선택한다. That is, by using the principal component analysis method, the feature space is linearly projected in the direction of maximizing the variance expressed by the image feature vector, thereby reducing the dimension. Then, the eigenvalue and the feature vector are obtained by using the variance. In addition, the feature vectors are arranged in order of magnitude of the eigenvalues, and feature vectors corresponding to the predetermined dimensions are extracted. Generally, k is selected in which the cumulative contribution (cumulative variance) accounts for 99% of the total eigenvalue sum.

그리고, 상기 PCA 기저 벡터는 각각 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415) 각각에 축적된다.Then, the PCA basis vectors are accumulated in the first obstacle DB 414 and the first similar obstacle DB 415, respectively.

그리고, 제1 장애물 DB(414) 및 제1 유사 장애물 DB(415) 각각에 저장된 기저 벡터들 중에 고유값이 큰 기저 벡터들은 ICA 기저 벡터 추출부(416)로 출력된다.Base vectors having a large eigenvalue among the base vectors stored in the first obstacle DB 414 and the first similar obstacle DB 415 are output to the ICA basis vector extraction unit 416.

ICA 기저 벡터 추출부(416)는 출력된 기저 벡터들에 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 ICA 기저 벡터를 추출한다. 그리고 추출된 상기 ICA 기저 벡터들은 각각 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418) 각각에 축적된다.The ICA basis vector extractor 416 extracts an ICA basis vector by performing an independent component analysis (ICA) on the output base vectors. The extracted ICA basis vectors are accumulated in each of the second obstacle DB 417 and the second similar obstacle DB 418, respectively.

그리고, 제2 장애물 DB(417) 및 제2 유사 장애물 DB(418)에 각각 축적된 ICA 기저 벡터들은 특징 벡터 추출부(420)로 출력되어 장애물 및 유사 장애물 영상의 특징 벡터 추출에 사용된다.The ICA basis vectors accumulated in the second obstacle DB 417 and the second similar obstacle DB 418 are output to the feature vector extracting unit 420 and used for extracting the feature vector of the obstacle and the similar obstacle image.

도 7을 참조하여 살펴보면, 특징 벡터 추출부(420)는 기저 벡터 추출부(410)로부터 추출된 장애물 기저 벡터 및 유사 장애물 기저 벡터에 장애물 DB(411) 및 유사 장애물 DB(412)에 저장되는 장애물 및 유사 장애물 영상을 각각 투영시켜 특징 벡터를 추출한다.7, the feature vector extracting unit 420 extracts a feature vector from an obstacle base vector extracted from the base vector extracting unit 410 and an obstacle base vector stored in the obstacle DB 411 and the similar obstacle DB 412, And similar obstacle images are respectively projected to extract feature vectors.

예를 들어, 하나의 장애물 영상을 장애물 영상들로부터 추출된 N개의 장애물 기저 벡터에 투영하여 N개의 특징값(투영 계수)들을 추출하고, 동일한 영상을 유사 장애물 영상들로부터 추출한 N개의 유사 장애물 기저 벡터에 투영하여 N개의 특징값(투영 계수)들을 추출하여, 총 2N개의 특징값을 얻는다.For example, N feature values (projection coefficients) are extracted by projecting one obstacle image on N obstacle base vectors extracted from the obstacle images, and N similar obstacle base vectors extracted from the similar obstacle images And extracts N feature values (projection coefficients) to obtain a total of 2N feature values.

또한, 잔여오차값을 계산하여 특징값으로 이용한다. 여기서, 잔여오차값(residual error)이란 각 영상을 N개의 기저 벡터에 투영하여 얻어진 특징값을 상기 기저 벡터에 곱하여 영상을 복원하였을 때 복원된 영상 벡터와 투영 전 실제 영상 벡터 간의 거리를 의미한다.In addition, the residual error value is calculated and used as a feature value. The residual error means a distance between the restored image vector and the actual image vector before projection when the image vector is multiplied by the feature vector obtained by projecting each image on N base vectors.

따라서, 장애물 영상을 장애물 기저 벡터 N개를 이용해서 복원하는 경우에는 잔여오차값이 작지만, 유사 장애물 영상을 장애물 기저 벡터N개를 이용해서 복원하는 경우에는 잔여오차값이 크게 된다.Therefore, when the obstacle image is restored by using N obstacle base vectors, the residual error value is small, but when the similar obstacle image is restored by using N obstacle base vectors, the residual error value becomes large.

종합해보면, 특징 벡터 추출부(420)는 하나의 영상에서 얻어진 2N개의 특징 값과 두 개의 잔여 오차 값을 포함한 2N+2의 특징값을 이용해서 하나의 특징 벡터로 추출한다.In summary, the feature vector extractor 420 extracts a feature vector using 2N + 2 feature values including 2N feature values and 2 residual error values obtained from one image.

그리고, 추출된 장애물 영상에 대한 특징 벡터는 장애물 특징 벡터 DB(421)에 유사 장애물 영상에 대한 특징 벡터는 유사 장애물 특징 벡터 DB(422)에 저장된 후 클러스터링부로 추출된다.Then, the feature vector for the extracted obstacle image is stored in the obstacle feature vector DB 421, and the feature vector for the similar obstacle image is stored in the similar obstacle feature vector DB 422, and then extracted into the clustering unit.

클러스터링부(430)는 k-means clustering 알고리즘에 따라서 장애물 영상특징 벡터들간의 유클리디안 거리를 측정하고, 유클리디안 거리가 가까운 것끼리 묶어서 소정의 서브 클래스로 장애물 특징 벡터를 분류하여 특징 클래스 DB에 저장한다. 그 후, 각 서브 클래스에 저장된 장애물 특징 벡터들의 벡터 평균에 가장 근접한 장애물 특징 벡터를 각 서브 클래스를 대표하는 중심 장애물 특징 벡터로 선정한다. 여기서, 유사 장애물 영상 특징 벡터 또한 동일한 방법으로 수행한다.The clustering unit 430 measures the Euclidean distance between the obstacle image feature vectors according to the k-means clustering algorithm, classifies the obstacle feature vectors into a predetermined subclass by grouping closest Euclidean distances, . Then, the obstacle feature vector closest to the vector mean of the obstacle feature vectors stored in each sub class is selected as the central obstacle feature vector representing each sub class. Here, similar obstacle image feature vectors are also performed in the same manner.

SVM 모듈부(440)는, 도 3에 도시된 바와 같이, SVM 학습 모듈(441)과 SVM 분류 모듈(442)를 포함할 수 있다.The SVM module 440 may include an SVM learning module 441 and an SVM classification module 442 as shown in FIG.

도 8을 참조하여 살펴보면, 장애물 및 유사 장애물 종류 분류가 다중 클래스 분류이기 때문에 one-against-all 기법을 적용하여 다중 SVM을 설계한다. 따라서, SVM 학습 모듈(441)은 SVM 학습을 통해 서포트 벡터를 생성하며, SVM 분류 모듈(442)은 서포트 벡터와 장애물 또는 유사장애물의 특징 벡터 간의 유사도 비교를 통해 장애물 종류를 인식한다. 8, multiple SVMs are designed by applying one-against-all technique because obstacle and similar obstacle classifications are multi-class classification. Accordingly, the SVM learning module 441 generates a support vector through SVM learning, and the SVM classification module 442 recognizes the obstacle type by comparing the similarity between the support vector and the feature vector of the obstacle or similar obstacle.

우선, 전처리된 데이터를 SVM의 학습 데이터로 이용한다. 그리고, 각각의 서브 클래스마다 이진 분류가 가능한 SVM을 생성하여, 총 M개의 SVM을 설계한다. 그 다음 SVM 학습은 학습용 데이터 집합과 학습에 사용되는 내부 커널함수와 조정 파라미터인 C값에 의존한다. 여기서, SVM 커널 함수는 고차원의 비선형의 입력 값을 선형으로 변환시켜줌으로써 SVM의 연산속도를 높이는 역할을 한다. 따라서 실험을 통해 최적의 파라미터를 설정하여 SVM 분류 모듈(442)을 설계한다. First, the preprocessed data is used as learning data of the SVM. Then, SVMs capable of binary classification are generated for each subclass, and a total of M SVMs are designed. The SVM learning then depends on the training data set and the internal kernel function used for learning and the C parameter, the adjustment parameter. Here, the SVM kernel function serves to increase the operation speed of the SVM by linearly converting the nonlinear input values of high dimensional. Therefore, the SVM classification module 442 is designed by setting optimal parameters through experiments.

그리고, 실제 장애물 탐지 및 종류 인식시, 학습 단계에서 생성된 SVM 분류 모듈(442)에 시험 데이터를 넣어 자동적으로 분류한다. 출력값에 따른 SVM에 해당하는 서브클래스로 장애물 및 유사 장애물 영상 특징 벡터를 분류한다. When the actual obstacle detection and classification are recognized, test data is automatically entered into the SVM classification module 442 generated in the learning stage. Classify obstacle and similar obstacle image feature vectors into subclasses corresponding to SVM according to output value.

따라서, 도 4의 실선 화살표를 참조하여 살펴보면, 영상 장치(300)에 의하여 입력된 장애물의 영상의 경우 특징 벡터 추출부(420)와 클러스터링부(430)를 이용하여 특징 벡터를 추출하고 서브 클래스를 분류한다. 그 후, SVM 분류 모듈(442)은 SVM 학습 모듈(441)의 서포트 벡터와 영상 장치(300)에 의하여 입력된 장애물의 영상의 특징 벡터 간의 유사도를 비교하여 장애물의 종류를 인식하게 된다.4, in the case of an image of the obstacle input by the imaging device 300, the feature vector extraction unit 420 and the clustering unit 430 are used to extract a feature vector and a subclass Classify. Thereafter, the SVM classification module 442 compares the similarity between the support vector of the SVM learning module 441 and the feature vector of the image of the obstacle input by the imaging device 300, thereby recognizing the type of the obstacle.

장애물 패턴 분류부(400)의 장애물 분류에 따라, 장애물 종류 출력부(500)는 실시간으로 장애물의 종류가 무엇인지 운전자에게 소리, 문자 또는 영상 등으로 인지시켜 장애물과의 충돌을 회피하게 한다.According to the obstacle classification of the obstacle pattern classification unit 400, the obstacle type output unit 500 recognizes the type of the obstacle in real time to the driver by sound, character, or image, thereby avoiding collision with the obstacle.

경보부(600)는 시스템에 정지 신호를 발생하여 운전자에게 장애물이 탐지됨을 알린다. 예컨데, 경보부(600)는 장애물과의 거리가 약 50㎝가 되면 표시등을 점멸시키고, 버져를 단발적으로 계속 울리게 한다. 또한, 장애물에 가까이 접근함에 따라, 점멸 주기 및 버져 주기를 더욱 빠르게 하고, 장애물과의 거리가 약 20㎝ 이내가 되면 표시등은 연속 점등함과 동시에 버져도 연속적으로 울리게 한다.The alarm unit 600 generates a stop signal to the system to inform the driver that an obstacle is detected. For example, when the distance from the obstacle is about 50 cm, the alarm unit 600 blinks the indicator and continuously sounds the buzzer. Also, as approaching the obstacle, the blinking cycle and the buzzer cycle are made faster, and when the distance from the obstacle is less than about 20 cm, the indicator lights continuously and the buzzer sounds continuously.

또한, 경보부(600) 인적 손실 및 물적 손실의 가능성에 따라 제1 경보 수단(610)과 제2 경보 수단(620)으로 이원화하여 인지시킬 수 있다.Also, the alarm unit 600 can be recognized by the first alarm means 610 and the second alarm means 620 according to the possibility of human loss and material loss.

제1 경보 수단(610)은 탐지된 장애물이 1군 장애물 위험군에 속하는 경우 전동안전벨트와 조향 엑추에이터 중 어느 하나를 이용하여 운전자의 촉각 정보를 통해 인지시킨다. 여기서, 1군 장애물 위험군이란 예컨데, 박스, 사각기둥 및 원기둥과 같은 장애물과 같이 운전자의 상해를 입히지 않고 차량 손상만을 입힐 수 있는 위험군으로써, 물적 손해만 발생하는 장애물을 의미한다.The first alarm means 610 recognizes the sensed obstacle through the tactile information of the driver by using either the electric seat belt or the steering actuator when the detected obstacle belongs to the first group obstacle danger group. Here, a group 1 dangerous obstacle means an obstacle such as an obstacle such as a box, a square column, and a cylinder, which is a risk group that can only cause damage to the vehicle without injuring the driver, resulting in physical damage only.

제2 경보 수단(620)은 탐지된 장애물이 2군 장애물 위험군에 속하는 경우 상기 촉각 정보를 통하여 운전자에게 인지시킴과 동시에 표시등 및 버져 중 적어도 어느 하나를 통하여 운전자에게 2군 장애물 위험군에 속하는 장애물이 존재함을 알린다. 여기서, 2군 장애물 위험군이란 예컨데, 연석, 자동차, 벽, 사람 등과 같이 차량의 손상뿐만 아니라 운전자 및 사고자의 상해를 입힐 수 있는 위험군으로써, 인적 손해를 동반하는 장해물을 의미한다.When the detected obstacle belongs to the second group obstacle risk group, the second warning unit 620 recognizes the detected tactile information to the driver through the tactile information. At the same time, the second warning unit 620 informs the driver of the obstacle belonging to the group 2 And that it exists. Here, the Group 2 dangerous obstacle group means, for example, a curb, a car, a wall, a person, and the like, as well as an injury to a driver and an accidenter.

도 5를 참조하여 장애물의 종류를 인식하는 과정을 종합해보면, 장애물 패턴 분류부(400)는 차량 위치 인식부(100), 센서부(200) 및 영상 장치(300)를 통하여 장애물 DB(411)와 유사 장애물 DB(412)를 구축한다(S10). 그리고, 상술 된 바와 같이, PCA 기저 벡터 추출부(413)와 ICA 기저 벡터 추출부(416)를 통하여 기저 벡터를 추출한다(S11). 그 후, 상기 기저 벡터를 기반으로 특징 벡터 추출부(420)에서 장애물 특징 벡터 및 유사 장애물 특징 벡터를 추출하고 잔여 오차값을 계산하여 추출된 장애물 영상에 대한 특징 벡터는 장애물 특징 벡터 DB(421)에 유사 장애물 영상에 대한 특징 벡터는 유사 장애물 특징 벡터 DB(422)에 저장한다(S12). 그리고나서, 클러스터링부(430)는 상기 특징 벡터들을 서브 클래스로 분류한다(S13).5, the obstacle pattern classifying unit 400 classifies the obstacle DB 411 through the vehicle position recognizing unit 100, the sensor unit 200, and the video device 300, And a similar obstacle DB 412 are constructed (S10). Then, as described above, the base vector is extracted through the PCA basis vector extraction unit 413 and the ICA basis vector extraction unit 416 (S11). Then, the feature vector extraction unit 420 extracts the obstacle feature vector and the similar obstacle feature vector based on the basis vector, calculates the residual error value, and calculates the feature vector for the extracted obstacle image using the obstacle feature vector DB 421, The feature vector for the similar obstacle image is stored in the similar obstacle feature vector DB 422 (S12). Then, the clustering unit 430 classifies the feature vectors into subclasses (S13).

실제 장애물 탐지 및 종류 인식을 위한 영상이 입력된다(S20). 상기 입력 영상으로부터 특징 벡터를 추출하고(S21), 잔여 오차값을 계산한다(S22). 그에 따라, 입력 영상의 특징 벡터들이 속한 서브 클래스를 분류하고(S23), 서브 클래스의 SVM으로 장애물을 탐지 및 종류를 인식한다(S24).An image for real obstacle detection and type recognition is input (S20). A feature vector is extracted from the input image (S21), and a residual error value is calculated (S22). Accordingly, the subclass to which the feature vectors of the input image belong belong is classified (S23), and the obstacle is detected and the type is recognized by the SVM of the subclass (S24).

이하, 도 9를 참조하여, 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템(1)을 이용하여 운전자에게 장애물을 경보하는 방법에 대하여 살펴보기로 한다. Hereinafter, with reference to FIG. 9, a method of alarming an obstacle to a driver by using the automobile crash alarm system 1 by the machine learning technique according to the present invention will be described.

본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 방법(S1)은 차량의 위치를 인식하는 단계(S100), 장애물을 탐지하는 단계(S200), 장애물의 종류를 인식하는 단계(S300), 장애물의 종류를 출력하는 단계(S400), 제1 위험 장애물군에 포함되는지를 판단하는 단계(S500), 제1 경보 수단 발생 단계(S600), 제2 위험 장애물군에 포함되는지를 판단하는 단계(S700) 및 제2 경보 수단 발생 단계(S800)를 포함할 수 있다.The vehicle collision alerting method S1 according to the present invention includes a step S100 of recognizing a position of a vehicle, a step S200 of detecting an obstacle, a step S300 of recognizing the type of the obstacle, (S500), a first alarm generating step (S600), and a step (S700) of determining whether the second dangerous obstacle group is included in the second dangerous obstacle group (S400) And a second alarm means generation step (S800).

차량의 위치를 인식하는 단계(S100)에서는 상술 된 차량 정보에 기반하여 차량의 위치를 인식한다. 그리고, 장애물을 탐지하는 단계(S200)는 센서부(200)의 초음파 센서와 장애물의 영상 데이터를 획득하여 장애물을 탐지한다.In step S100 of recognizing the position of the vehicle, the position of the vehicle is recognized based on the above-described vehicle information. In operation S200, an obstacle is detected by acquiring image data of an obstacle and an ultrasonic sensor of the sensor unit 200. [

장애물의 종류를 인식하는 단계(S300)는 장애물 패턴 분류부(400)의 상기 SVM 모듈을 이용하여 인지된 장애물을 분석하여 장애물 패턴 및 종류를 인식한다.The step of recognizing the type of the obstacle (S300) recognizes the obstacle pattern and the type by analyzing the recognized obstacle using the SVM module of the obstacle pattern classifying unit (400).

장애물의 종류를 출력하는 단계(S400)는 장애물 종류 출력부(500)에 의하여 실시간으로 장애물의 종류가 무엇인지 운전자에게 인지시켜 사전에 장애물과의 충돌을 회피하게 한다.The step S400 of outputting the type of the obstacle allows the obstacle kind output unit 500 to recognize the type of the obstacle in real time so as to avoid the collision with the obstacle in advance.

따라서, 상기 자동차 충돌 경보 시스템(1)은 장애물 종류 출력부(500)에 의하여 송신되는 장애물 종류 신호에 따라, 제1 위험 장애물군에 포함되는 장애물인지를 판단하고(S500), 제1 위험 장애물군에 포함되는 장애물이라면, 제1 경보 수단(610)에 의하여 물적 손해만을 발생시키는 장애물이라는 것을 운전자에게 인지시킨다(S600). 여기서, 제1 경보 수단(610)은 탐지된 장애물이 1군 장애물 위험군에 속하는 경우 전동안전벨트와 조향 엑추에이터 중 어느 하나를 이용하여 운전자의 촉각 정보를 통해 인지시킨다.Accordingly, the automobile crash alarm system 1 determines whether the obstacle is included in the first dangerous obstacle group according to the obstacle type signal transmitted by the obstacle type output unit 500 (S500) It is recognized by the driver that the first alarm means 610 is an obstacle causing only physical damage (S600). Here, the first alarm means 610 recognizes the detected obstacle by using the tactile information of the driver using either the electric seat belt or the steering actuator when the detected obstacle belongs to the first group obstacle danger group.

만일, 제1 위험 장애물군에 포함되는 장애물이 아니라면, 제2 위험 장애물군에 포함되는 장애물인지를 판단하고(S700), 제2 위험 장애물군에 포함되는 장애물이라면 제2 경보 수단(620)에 의하여 물적 손해와 인적 손해 모두를 발생시키는 장애물이라는 것을 운전자에게 인지시킨다(S800). 여기서, 제2 경보 수단(620)은 탐지된 장애물이 2군 장애물 위험군에 속하는 경우 상기 촉각 정보를 통하여 운전자에게 인지시킴과 동시에 표시등 및 버져 중 적어도 어느 하나를 통하여 운전자에게 2군 장애물 위험군에 속하는 장애물이 존재함을 알린다.
If it is not an obstacle included in the first dangerous obstacle group, it is determined whether it is an obstacle included in the second dangerous obstacle group (S700). If the obstacle is included in the second dangerous obstacle group, the second warning means 620 The driver is informed that it is an obstacle causing both physical damage and human injury (S800). Here, if the detected obstacle belongs to the second-group obstacle risk group, the second warning unit 620 recognizes the detected obstacle to the driver through the tactile information, and informs the driver through at least one of the indicator and the buzzer It informs that the obstacle exists.

본 발명에 따른 다양한 실시 예들은, 당해 기술 분야는 물론 관련 기술 분야에서 본 명세서에 언급된 내용 이외의 다른 여러 기술적 과제들을 해결할 수 있음은 물론이다.It should be understood that the various embodiments according to the present invention can solve various technical problems other than those mentioned in the specification in the related technical field as well as the related art.

지금까지 본 발명에 대해 실시 예들을 참고하여 설명하였다. 그러나 당업자라면 본 발명의 본질적인 기술적 사상으로부터 벗어나지 않는 범위에서 본 발명이 변형된 형태로 구현될 수 있음을 자명하게 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 즉, 본 발명의 진정한 기술적 범위는 첨부된 특허청구범위에 나타나 있으며, 그와 균등범위 내에 있는 모든 차이점은 본 발명에 포함되는 것으로 해석되어야 할 것이다.The present invention has been described with reference to the embodiments. It will be apparent, however, to one skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. That is, the true technical scope of the present invention is indicated in the appended claims, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

1 : 본 발명에 따른 기계학습기법에 의한 자동차 충돌 경보 시스템
100 : 차량 위치 인식부 200 : 센서부
300 : 영상 장치 400 : 장애물 패턴 분류부
500 : 장애물 종류 출력부 600 : 경보부
1: Automobile collision warning system by the machine learning method according to the present invention
100: Vehicle position recognition unit 200: Sensor unit
300: Imaging apparatus 400: Obstacle pattern classifying unit
500: Obstacle type output unit 600: Alarm unit

Claims (11)

차량의 위치를 인식하는 차량 위치 인식부와;
초음파를 이용하여 장애물을 탐지하는 센서부와;
장애물의 영상 데이터를 획득하는 영상 장치와;
상기 센서와 상기 영상 장치를 통하여 수집된 정보를 기반으로 장애물의 종류를 판단하는 장애물 패턴 분류부를 포함하며,
상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
A vehicle position recognizing unit for recognizing a position of the vehicle;
A sensor unit for detecting an obstacle using ultrasonic waves;
An image device for acquiring image data of an obstacle;
And an obstacle pattern classifying unit for determining the type of the obstacle based on the information collected through the sensor and the video apparatus,
Wherein the obstacle pattern classification unit recognizes a pattern and a type of the obstacle extracted through the imaging device through a support vector machine based on the image data collected through the imaging device. Vehicle crash alarm system by.
제1항에 있어서,
상기 장애물 패턴 분류부는 상기 영상 장치를 통하여 수집된 영상 데이터를 상기 기계학습기법의 학습데이터로 이용하여 기계학습기법 모듈을 생성하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
The method according to claim 1,
Wherein the obstacle pattern classifier generates a machine learning technique module by using the image data collected through the imaging device as learning data of the machine learning technique.
제1항 또는 제2항에 있어서,
상기 장애물 패턴 분류부는
상기 영상 데이터를 통하여 장애물 또는 유사 장애물로 분류되는 패턴을 수집하고, 주성분 분석법(PCA, Principle Component Analysis)과 독립 성분 분석법(ICA, Indepependent Component Analysis)을 수행해서 장애물 또는 유사 장애물 각각의 기저 벡터를 추출하는 기저 벡터 추출부와;
상기 기저 벡터 추출부로부터 출력된 상기 기저 벡터로부터 특징 벡터를 추출하는 특징 벡터 추출부와;
상기 특징 벡터 추출부의 상기 특징 벡터를 서브 클래스로 분류하는 클러스터링부와;
상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 상기 기계학습기법 모듈을 이용하여 장애물의 종류를 인식하는 SVM 모듈부를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
3. The method according to claim 1 or 2,
The obstacle pattern classifying unit
A pattern classified as an obstacle or a similar obstacle is collected through the image data and a basis vector of each obstacle or similar obstacle is extracted by performing principal component analysis (PCA) and independent component analysis (ICA) A base vector extractor;
A feature vector extracting unit for extracting a feature vector from the basis vector output from the basis vector extracting unit;
A clustering unit for classifying the feature vectors of the feature vector extracting unit into subclasses;
And a SVM module unit for recognizing the type of the obstacle using the machine learning technique module based on the feature vector classified by the clustering unit.
제3항에 있어서,
상기 SVM 모듈부는
상기 클러스터링부에 의하여 분류된 상기 특징 벡터를 이용하여 서포트 벡터를 생성하는 SVM 학습 모듈과;
상기 서포트 벡터와 상기 영상 장치를 통하여 얻어진 장애물의 영상 데이터를 통하여 획득되는 특징 벡터 간의 유사도 비교를 통하여 장애물의 종류를 인식하는 SVM 분류 모듈을 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
The method of claim 3,
The SVM module unit
An SVM learning module for generating a support vector using the feature vectors classified by the clustering unit;
And an SVM classification module for recognizing the type of the obstacle by comparing the similarity between the support vector and the feature vector obtained through the image data of the obstacle obtained through the imaging device. .
제1항에 있어서,
상기 장애물 패턴 분류부의 판단에 따라 장애물의 종류를 인지시키는 장애물 종류 출력부를 더 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
The method according to claim 1,
And an obstacle type output unit for recognizing the type of the obstacle according to the determination of the obstacle pattern classifying unit.
제5항에 있어서,
상기 장애물 종류 출력부의 장애물 종류 인지에 따라, 장애물의 존재 및 종류를 인지시키는 경보부를 더 포함하며,
상기 경보부는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
6. The method of claim 5,
Further comprising an alarm unit for recognizing existence and type of an obstacle according to whether the obstacle type is an obstacle type of the obstacle type output unit,
Wherein the alarm unit recognizes an obstacle capable of causing physical damage using at least one of a power seat belt and a steering actuator.
제6항에 있어서,
상기 경보부는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 시스템.
The method according to claim 6,
Wherein the alarm unit is adapted to recognize at least one of an indicator and a buzzer in the case of an obstacle that may cause human injury.
차량의 위치를 인식하는 단계와;
장애물을 탐지하는 단계와;
장애물의 종류를 판단하는 장애물 패턴 분류부를 이용하여 탐지된 장애물의 종류를 인식하는 단계와;
상기 장애물 종류의 인식에 따라 장애물의 종류를 출력하는 단계와;
출력된 상기 장애물의 종류에 따라 상기 장애물을 인지시키는 단계를 포함하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.
Recognizing the position of the vehicle;
Detecting an obstacle;
Recognizing a type of the detected obstacle using an obstacle pattern classifying unit for determining the type of the obstacle;
Outputting the type of the obstacle according to the recognition of the obstacle type;
And recognizing the obstacle in accordance with the type of the obstacle that is output.
제8항에 있어서,
상기 장애물 패턴 분류부는, 상기 장애물을 탐지 단계에 있어서 장애물을 탐지하는 영상 장치를 통하여 수집된 영상 데이터를 기반으로 기계학습기법(Support Vector Machine)을 통해 상기 영상 장치를 통하여 추출된 장애물의 패턴 및 종류를 인식하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.
9. The method of claim 8,
The obstacle pattern classifying unit may classify patterns and types of obstacles extracted through the imaging device through a machine learning technique based on image data collected through an imaging device that detects an obstacle in the detection step of the obstacle, Of the vehicle collision warning.
제8항 또는 제9항에 있어서,
상기 장애물을 인지시키는 단계에서는 물적 손해를 발생시킬 수 있는 장애물의 경우, 전동안전벨트와 조향 엑추에이터 중 적어도 어느 하나를 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.
10. The method according to claim 8 or 9,
Wherein the step of recognizing the obstacle is performed by using at least one of a power seat belt and a steering actuator in the case of an obstacle capable of causing physical damage.
제11항에 있어서,
상기 장애물을 인지시키는 단계에서는 인적 손해를 발생시킬 수 있는 장애물의 경우, 표시등 및 버져 중 적어도 어느 하나를 더 이용하여 인지되게 하는 것을 특징으로 하는 기계학습기법에 의한 자동차 충돌 경보 방법.
12. The method of claim 11,
Wherein the step of recognizing the obstacle is performed by using at least one of an indicator and a buzzer in the case of an obstacle capable of causing personal injury.
KR1020130033604A 2013-03-28 2013-03-28 System and Method for alarming collision of vehicle with support vector machine KR102044193B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130033604A KR102044193B1 (en) 2013-03-28 2013-03-28 System and Method for alarming collision of vehicle with support vector machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130033604A KR102044193B1 (en) 2013-03-28 2013-03-28 System and Method for alarming collision of vehicle with support vector machine

Publications (2)

Publication Number Publication Date
KR20140118157A true KR20140118157A (en) 2014-10-08
KR102044193B1 KR102044193B1 (en) 2019-12-02

Family

ID=51991051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130033604A KR102044193B1 (en) 2013-03-28 2013-03-28 System and Method for alarming collision of vehicle with support vector machine

Country Status (1)

Country Link
KR (1) KR102044193B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180127245A (en) * 2017-05-19 2018-11-28 한국과학기술원 Method for Predicting Vehicle Collision Using Data Collected from Video Games
CN109131317A (en) * 2018-07-23 2019-01-04 同济大学 Automatic vertical parking system and method based on multisection type planning and machine learning
KR20190052417A (en) 2017-11-08 2019-05-16 한국전자통신연구원 Method for auto braking of car using learning model and apparatus using the same
US20190184987A1 (en) * 2017-12-19 2019-06-20 Hyundai Motor Company Apparatus and method for deciding a maneuver of a nearby vehicle
TWI690440B (en) * 2018-10-17 2020-04-11 財團法人車輛研究測試中心 Intelligent driving method for passing intersections based on support vector machine and intelligent driving system thereof
KR102112585B1 (en) * 2019-06-20 2020-05-19 인천대학교 산학협력단 Smart stroller capable of preventing collisions through obstacle detection and operating method thereof
KR102348294B1 (en) * 2020-08-24 2022-01-12 한국철도기술연구원 self-driving vehicle control system using cognitive learning data and control method
CN114435345A (en) * 2022-01-25 2022-05-06 岚图汽车科技有限公司 Automatic parking square column anti-collision method and system
KR20230001798A (en) * 2021-06-29 2023-01-05 주식회사 모토모 Collision prevention system
US11657272B2 (en) 2019-07-15 2023-05-23 Hyundai Motor Company Apparatus for crash performance prediction and method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102382219B1 (en) * 2021-05-10 2022-04-05 넥스터 주식회사 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344196A (en) * 2002-05-24 2003-12-03 Denso Corp Method and apparatus for detecting passenger
JP2005049914A (en) * 2003-06-06 2005-02-24 Fujitsu Ten Ltd Vehicle situation deciding device, on-vehicle information acquiring device, vehicle operation controller, and vehicle situation deciding method
JP2005284975A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Traveling safety device
KR20090021724A (en) * 2007-08-28 2009-03-04 주식회사 만도 Apparatus for discriminating forward objects of vehicle by using camera and laser scanner
KR20090126545A (en) * 2008-06-04 2009-12-09 주식회사 만도 Pedestrian recognition method and apparatus using a posteriori probability and pedestrian protection apparatus using same
KR20130019908A (en) * 2011-08-18 2013-02-27 현대모비스 주식회사 System for predicting the possibility or impossibility of vehicle parking using support vector machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344196A (en) * 2002-05-24 2003-12-03 Denso Corp Method and apparatus for detecting passenger
JP2005049914A (en) * 2003-06-06 2005-02-24 Fujitsu Ten Ltd Vehicle situation deciding device, on-vehicle information acquiring device, vehicle operation controller, and vehicle situation deciding method
JP2005284975A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Traveling safety device
KR20090021724A (en) * 2007-08-28 2009-03-04 주식회사 만도 Apparatus for discriminating forward objects of vehicle by using camera and laser scanner
KR20090126545A (en) * 2008-06-04 2009-12-09 주식회사 만도 Pedestrian recognition method and apparatus using a posteriori probability and pedestrian protection apparatus using same
KR20130019908A (en) * 2011-08-18 2013-02-27 현대모비스 주식회사 System for predicting the possibility or impossibility of vehicle parking using support vector machine

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180127245A (en) * 2017-05-19 2018-11-28 한국과학기술원 Method for Predicting Vehicle Collision Using Data Collected from Video Games
KR20190052417A (en) 2017-11-08 2019-05-16 한국전자통신연구원 Method for auto braking of car using learning model and apparatus using the same
US10647316B2 (en) * 2017-12-19 2020-05-12 Hyundai Motor Company Apparatus and method for deciding a maneuver of a nearby vehicle
US20190184987A1 (en) * 2017-12-19 2019-06-20 Hyundai Motor Company Apparatus and method for deciding a maneuver of a nearby vehicle
CN109927727A (en) * 2017-12-19 2019-06-25 现代自动车株式会社 For determining the device and method of the movement of neighbouring vehicle
KR20190074025A (en) * 2017-12-19 2019-06-27 현대자동차주식회사 Apparatus and method for deciding maneuver of peripheral vehicle
CN109131317A (en) * 2018-07-23 2019-01-04 同济大学 Automatic vertical parking system and method based on multisection type planning and machine learning
TWI690440B (en) * 2018-10-17 2020-04-11 財團法人車輛研究測試中心 Intelligent driving method for passing intersections based on support vector machine and intelligent driving system thereof
KR102112585B1 (en) * 2019-06-20 2020-05-19 인천대학교 산학협력단 Smart stroller capable of preventing collisions through obstacle detection and operating method thereof
US11657272B2 (en) 2019-07-15 2023-05-23 Hyundai Motor Company Apparatus for crash performance prediction and method thereof
KR102348294B1 (en) * 2020-08-24 2022-01-12 한국철도기술연구원 self-driving vehicle control system using cognitive learning data and control method
KR20230001798A (en) * 2021-06-29 2023-01-05 주식회사 모토모 Collision prevention system
CN114435345A (en) * 2022-01-25 2022-05-06 岚图汽车科技有限公司 Automatic parking square column anti-collision method and system
CN114435345B (en) * 2022-01-25 2023-10-24 岚图汽车科技有限公司 Automatic parking square column anti-collision method and system

Also Published As

Publication number Publication date
KR102044193B1 (en) 2019-12-02

Similar Documents

Publication Publication Date Title
KR102044193B1 (en) System and Method for alarming collision of vehicle with support vector machine
KR102441085B1 (en) Apparatus and method for providing guidance information using crosswalk recognition result
US11485284B2 (en) System and method for driver distraction determination
KR101912453B1 (en) Apparatus And Method Detectinc Obstacle And Alerting Collision
CN107380164B (en) Driver assistance system based on computer vision and support system
Gandhi et al. Pedestrian protection systems: Issues, survey, and challenges
US20120081542A1 (en) Obstacle detecting system and method
US10011216B1 (en) Auto turn signal initiation based on lane change and driver history
US11453335B2 (en) Intelligent ultrasonic system and rear collision warning apparatus for vehicle
JP4708124B2 (en) Image processing device
KR101188584B1 (en) Apparatus for Discriminating Forward Objects of Vehicle by Using Camera And Laser Scanner
US10525873B2 (en) Turn by turn activation of turn signals
JP5178276B2 (en) Image recognition device
US20050157929A1 (en) Pedestrian detection apparatus
EP1721287A1 (en) Method and apparatus for detecting a presence
JP2004362586A (en) Image processing system for vehicle
JP2011186584A (en) Object recognition apparatus
JP2006508437A (en) Method for detecting the forward perimeter of a road vehicle by a perimeter sensing system
KR20130054637A (en) Apparatus and method detecting object in automatic parking system
KR101687094B1 (en) Apparatus for recognizing traffic sign and method thereof
US11443622B2 (en) Systems and methods for mitigating a risk of being followed by a vehicle
WO2017208601A1 (en) Image processing device and external recognition device
JP6296684B2 (en) Driving assistance device
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
KR20130019908A (en) System for predicting the possibility or impossibility of vehicle parking using support vector machine

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant