KR101770924B1 - System and method for Active Pedestrian Protection - Google Patents

System and method for Active Pedestrian Protection Download PDF

Info

Publication number
KR101770924B1
KR101770924B1 KR1020160135075A KR20160135075A KR101770924B1 KR 101770924 B1 KR101770924 B1 KR 101770924B1 KR 1020160135075 A KR1020160135075 A KR 1020160135075A KR 20160135075 A KR20160135075 A KR 20160135075A KR 101770924 B1 KR101770924 B1 KR 101770924B1
Authority
KR
South Korea
Prior art keywords
candidate
pedestrian
rod
ropp
calculating
Prior art date
Application number
KR1020160135075A
Other languages
Korean (ko)
Inventor
정호기
Original Assignee
한국교통대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교산학협력단 filed Critical 한국교통대학교산학협력단
Priority to KR1020160135075A priority Critical patent/KR101770924B1/en
Application granted granted Critical
Publication of KR101770924B1 publication Critical patent/KR101770924B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians

Abstract

The present invention relates to an active pedestrian protection system and a method thereof for improving real-time property. The active pedestrian protection method includes: a candidate generation step of extracting a pedestrian candidate object from an input image; a risk assessment step of calculating region of danger (ROD) through statistical analysis of the running data and filtering the candidate object of the pedestrian based on the ROD; and a candidate verification step of performing a candidate verification on each of the filtered candidate objects to detect a pedestrian in a dangerous state.

Description

능동적 보행자 보호 시스템 및 방법{System and method for Active Pedestrian Protection}[0001] The present invention relates to a system and method for active pedestrian protection,

본 발명은 능동적 보행자 보호 시스템 및 방법에 관한 것으로, 특히 보행자 검출에 소요되는 시간을 최소화함으로써, 시스템 실시간성을 개선할 수 있도록 하는 능동적 보행자 보호 시스템 및 방법에 관한 것이다. The present invention relates to an active pedestrian protection system and method, and more particularly, to an active pedestrian protection system and method that can improve system real time by minimizing the time required for pedestrian detection.

능동적 보행자 보호시스템은 차대 보행자 사고를 예측하여 긴급 제동 등을 통하여 이를 미연에 방지하는 시스템이다.  The active pedestrian protection system is a system that anticipates pedestrian pedestrian accidents and prevents them by emergency braking.

기존의 능동적 보행자 보호시스템은 일반적으로 후보생성(HG: Hypothesis Generation), 후보검증(HV: Hypothesis Verification), 위험도평가(RA: Risk Assessment)의 3단계를 순차적으로 수행하도록 한다. The existing active pedestrian protection system generally performs three stages of Hypothesis Generation (HG), Hypothesis Verification (HV), and Risk Assessment (RA) in sequence.

HG는 비교적 가벼운 알고리즘으로 구현되며, 영상 전체에서 보행자가 있을 것으로 예상되는 영역을 후보로 골라낸다. HV는 비교적 무겁지만 정확도가 높은 알고리즘으로 구현되며, 생성된 후보가 보행자인지 여부를 평가한다. RA는 검출된 보행자가 차량의 경로 상에 있는지 여부를 평가하여 사고 위험도를 평가한다.HG is implemented as a relatively lightweight algorithm, and candidates are selected for areas where pedestrians are expected to exist in the entire image. The HV is implemented with a relatively heavy but accurate algorithm and evaluates whether the generated candidate is a pedestrian. The RA assesses the risk of an accident by evaluating whether the detected pedestrian is on the route of the vehicle.

이와 같은 능동적 보행자 보호시스템은 단순히 경보만을 제공하는 시스템에 비해 긴급 제동과 같이 돌이킬 수 없는 수단을 사용하기 때문에, 오동작에 의한 비용이 매우 큰 특징이 있다. 오동작은 크게 보행자가 아닌 물체를 보행자로 인식하는 보행자 오검출(false detection)과 차량의 경로를 잘못 예측하여 안전한 보행자를 위험하다고 판단하는 경로예측 오류 때문에 발생한다. 따라서 실용성과 소비자 수용성을 확보하기 위해서는 오동작을 최소화하여야 한다.Such an active pedestrian protection system uses a non-irreversible means such as emergency braking as compared with a system that provides only an alarm, so that the cost due to malfunction is very large. Malfunctions are caused by false detection of pedestrians as false pedestrians and path prediction errors that are considered to be dangerous to safe pedestrians by mistakenly predicting the route of the vehicle. Therefore, in order to secure practicality and consumer acceptability, it is necessary to minimize malfunction.

보행자 오검출 최소화 방안의 대표적인 예로 CNN(Convolutional Neural Network)를 통해 HV를 수행하는 방안이 있다. CNN은 다양한 인식 분야에서 기존 시스템들의 성능을 월등히 앞서는 것으로 보고되고 있으며, 보행자 인식 분야에서도 매우 낮은 오검출율을 보였다. 그러나 CNN은 기존 시스템들에 비해 상당히 무거워서 실시간 구현에 많은 어려움을 겪고 있다. 이에 GPU(Graphic Processing Unit)나 FPGA와 같은 고속화 하드웨어를 사용하는 방안과 ACF(Aggregated Channel Feature)와 같은 비교적 가벼운 검출기를 HG로 활용하여 보행자 후보수를 줄이는 방안이 제안된 바 있으나, 이들 또한 실시간성 확보가 어려운 단점을 가진다. A typical example of a method for minimizing the detection of pedestrian misfire is a method of performing HV through CNN (Convolutional Neural Network). CNN has been reported to outperform existing systems in various recognition fields and has a very low false detection rate in pedestrian recognition. However, CNN is considerably heavier than existing systems and has a lot of difficulties in real-time implementation. Therefore, there have been proposed methods of using high-speed hardware such as GPU (Graphic Processing Unit) or FPGA and reducing the number of pedestrian candidates by using relatively light detector such as ACF (Aggregated Channel Feature) as HG, It has a disadvantage that it is difficult to secure.

따라서 CNN를 통해 구현되는 HV의 실시간성 개선이 당분간 보행자 오검출 최소화의 중요한 수단이 될 것으로 예상된다.Therefore, it is expected that the real - time improvement of HV implemented through CNN will be an important means of minimizing the detection of pedestrian error for the time being.

David Gerㆃnimo, Antonio M. Lㆃpez, Angel D. Sappa, and Thorsten Graf, "Survey of Pedestrian Detection for Advanced Driver Assistance Systems," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 7, Jul. 2010, pp. 1239-1258.David Gerbenimo, Antonio M. L. Pez, Angel D. Sappa, and Thorsten Graf, "Survey of Pedestrian Detection for Advanced Driver Assistance Systems," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 7, Jul. 2010, pp. 1239-1258.

이에 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명은 위험도평가(RA: Risk Assessment)을 통해 위험한 보행자 후보만을 추출한 후 후보검증(HV: Hypothesis Verification)을 수행하도록 함으로써, 상대적으로 무거운 HV의 처리 부담이 경감되어 HV의 실시간성이 개선되도록 하는 능동적 보행자 보호 시스템 및 방법을 제공하고자 한다. In order to solve the above problems, the present invention extracts only a dangerous pedestrian candidate through a risk assessment (RA), and performs a HV (Hypothesis Verification) so that a relatively heavy HV processing burden And to provide an active pedestrian protection system and method for improving the real-time performance of the HV.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성 단계; 주행 데이터의 통계적 분석을 통해 ROD(Region of Danger)을 산출하고, ROD을 기반으로 보행자 후보 객체 필터링을 수행하는 위험도 평가 단계; 및 상기 필터링된 후보자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증 단계를 포함하는 능동적 보행자 보호 방법을 제공할 수 있다. According to an aspect of the present invention, there is provided a method for extracting a pedestrian candidate object from an input image, A risk assessment step of calculating ROD (Region of Danger) through statistical analysis of the running data and filtering the pedestrian candidate object based on the ROD; And a candidate verification step of performing a candidate verification on each of the filtered candidate candidate objects to detect a pedestrian in a dangerous state.

상기 위험도 평가 단계는 상기 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 단계; 상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 단계; 및 상기 후보 생성 단계를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계를 포함할 수 있다.The risk evaluation step may include calculating a region of a prediction path (ROPP), which is an area where a future route of the vehicle may exist, through statistical analysis of the driving data; Expanding the left and right outer regions of the ROPP according to a predetermined criterion to calculate the ROD; And selecting and outputting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generation step.

상기 ROPP을 산출하는 단계는 "

Figure 112016100914017-pat00001
" 및 "
Figure 112016100914017-pat00002
"를 근거로 예측시간 T 동안의 예상 경로 끝점(x(T), y(T))을 계산하는 단계; "Φ(T)=tan-1(y(T)/x(T))"의 식에 따라 상기 예상 경로 끝점의 위상각(Φ(T))을 계산하는 단계; "
Figure 112016100914017-pat00003
"에 근거해 최대 방향 오류(ΔΦmax(v))를 계산하는 단계; 상기 최대 방향 오류(ΔΦmax(v))를 기반하여 "Φ(T)-ΔΦmax(v) ~ Φ(T)+ΔΦmax(v)"를 ROPP의 위상각 범위로 정의하는 단계; "
Figure 112016100914017-pat00004
"에 근거해 최대 가속도(amax(v))를 계산하는 단계; "
Figure 112016100914017-pat00005
"에 근거해 최대 도달거리(smax(v))를 계산하는 단계; 및 반지름이 smax(v)이고 위상각이 Φ(T)-ΔΦmax(v) 범위인 부채꼴로 정의되는 ROPP를 산출하는 단계를 포함하며, 상기 x 및 y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, 상기 v은 속도를, 상기 ω는 각속도를, 상기 t는 시각을, 상기 T는 예측 시간을, 상기 a, b, c, d는 함수의 형태와 최대값, 최소값을 결정하는 매개변수 각각을 나타내는 것을 특징으로 한다. The step of calculating the ROPP may be "
Figure 112016100914017-pat00001
"And"
Figure 112016100914017-pat00002
"Calculating a predicted path end point (x (T), y ( T)) for the prediction time T on the basis of;" Φ (T) = tan -1 (y (T) / x (T)) " of Calculating a phase angle (? (T)) of the expected path endpoint according to the equation:?
Figure 112016100914017-pat00003
"Direction to the maximum error (ΔΦmax (v)) calculating, based on; and based on the direction of maximum error (ΔΦ max (v))" Φ (T) -ΔΦ max (v) ~ Φ (T) + ΔΦ max (v) "as the phase angle range of ROPP;
Figure 112016100914017-pat00004
(A max (v)) based on "
Figure 112016100914017-pat00005
Calculating a maximum reaching distance (s max (v)) on the basis of the radius s max (v) and a phase angle Φ (T) -ΔΦ max (v) Wherein x and y are coordinates on a coordinate system having a front and a left side of the vehicle as an x axis and a y axis, v is a velocity,? Is an angular velocity, t is a time, And a, b, c, and d respectively represent a function type, a parameter for determining a maximum value and a minimum value, respectively.

상기 ROD을 산출하는 단계는 상기 ROPP에 상응하는 부채꼴의 양끝점을 연결하여 차량 횡방향 폭(W)을 파악하는 단계; 및 상기 ROPP의 좌변 및 우변 외측 영역을 상기 차량 횡방향 폭(W)의 절반(W/2)만큼 각각 확장함으로써, 상기 ROD을 획득하는 단계를 포함할 수 있다.The step of calculating the ROD includes: connecting lateral ends of a sector corresponding to the ROPP to obtain a vehicle lateral width (W); And obtaining the ROD by extending each of the left and right lateral outer regions of the ROPP by half (W / 2) of the vehicle lateral width (W), respectively.

상기 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계는 상기 ROD를 상기 입력 영상에 투영하는 단계; 및 상기 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, 상기 ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별 및 출력하는 단계를 포함할 수 있다.Selecting and outputting only the pedestrian candidates located in the ROD may include projecting the ROD onto the input image; And comparing the ROD position projected on the input image with the position of the candidate pedestrian object and selecting and outputting only the pedestrian candidate object positioned in the ROD as a verification object.

상기 ROD를 상기 입력 영상에 투영하는 단계는 "

Figure 112016100914017-pat00006
"에 따라 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환하며, 상기 x(u, v, 1)는 입력 영상 좌표계, 상기 X(X, Y, Z, 1)는 차량 중심 좌표계, 상기 P는 카메라의 투사 매트릭스인 것을 특징으로 한다. Wherein projecting the ROD to the input image comprises:
Figure 112016100914017-pat00006
"Converts the vehicle center coordinate of ROD to the input image coordinate system, the x (u, v, 1) is the input image coordinate system, the X (X, Y, Z, 1) is a vehicle central coordinate system, wherein P is the camera according to the Is a projection matrix of < / RTI >

상기 과제를 해결하기 위한 수단으로서, 본 발명의 다른 실시 형태에 따르면, 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부; 주행 데이터의 통계적 분석을 통해 ROD(Region of Danger)을 산출하고, ROD을 기반으로 보행자 후보 객체 필터링을 수행하는 위험도 평가부; 및 상기 필터링된 후보자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증부를 포함하는 능동적 보행자 보호 시스템을 제공한다. According to another aspect of the present invention, there is provided, as a means for solving the above-mentioned problems, a method for generating a pedestrian candidate object, A risk assessment unit for calculating the ROD (Region of Danger) through statistical analysis of the running data and filtering the pedestrian candidate object based on the ROD; And a candidate verifying unit for performing candidate verification on each of the filtered candidate candidate objects to detect a pedestrian in a dangerous state.

상기 위험도 평가부는 상기 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 ROPP 산출부; 상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 ROD 산출부; 및 상기 후보 생성부를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별하여 상기 후보 검증부에 전달하는 보행자 후보 선별부를 포함할 수 있다. Wherein the risk evaluation unit includes: an ROPP calculation unit for calculating a region of prediction path (ROPP), which is an area where a future route of the vehicle can exist, through a statistical analysis of the traveling data; An ROD calculation unit for calculating the ROD by expanding the left and right outer regions of the ROPP according to predetermined criteria; And a pedestrian candidate selecting unit for selecting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generating unit and transmitting the selected pedestrian candidates to the candidate verifying unit.

본 발명은 후보생성, 후보검증, 위험도평가의 3단계에 따라 능동적 보행자 보호를 위한 보행자를 검출하는 경우, 후보 검증의 처리 부하가 상대적으로 큼을 고려하여, 위험도평가를 후보검증 이전에 수행하도록 한다. 그 결과 후보 검증의 처리 부하가 최소화되어 처리 시간이 감소되게 되며, 이에 따라 시스템 전체의 실시간성이 개선되게 된다. In the present invention, when detecting a pedestrian for active pedestrian protection according to the three steps of candidate generation, candidate verification, and risk evaluation, the risk evaluation is performed before the candidate verification, considering that the processing load of the candidate verification is relatively large. As a result, the processing load of the candidate verification is minimized and the processing time is reduced, thereby improving the real-time performance of the entire system.

도1은 본 발명의 일 실시예에 따른 능동적 보행자 보호 방법을 설명하기 위한 도면이다.
도2는 차량 회전시에 발생될 수 있는 CTRV 모션 모델을 사용한 물리학 기반 경로 예측의 문제점을 나타낸 도면이다.
도3은 속도와 가속도 사이의 관계에 따라 변화되는 종방향 운동 상태 범위를 설명하기 위한 도면이다.
도4은 속도와 방향 오류 사이의 관계에 따라 변화되는 횡방향 운동 상태 범위를 설명하기 위한 도면이다.
도5는 횡방향 운동 상태 범위 분석에 필요한 방향 오류의 정의를 설명하기 위한 도면이다.
도6은 본 발명의 일 실시예에 따른 ROPP 산출 단계를 보다 상세히 설명하기 위한 도면이다.
도7 및 도8은 본 발명의 일 실시예에 따른 ROD 산출 단계를 보다 상세히 설명하기 위한 도면이다.
도9 및 도10은 본 발명의 일 실시예에 따른 보행자 후보 객체 선별 단계를 보다 상세히 설명하기 위한 도면이다.
도11은 본 발명의 일 실시예에 따른 능동적 보행자 보호 시스템을 설명하기 위한 도면이다.
1 is a view for explaining an active pedestrian protection method according to an embodiment of the present invention.
2 is a diagram illustrating a problem of a physics-based path prediction using a CTRV motion model that can be generated at the time of vehicle rotation.
Fig. 3 is a view for explaining a range of longitudinal motion states varying according to the relationship between velocity and acceleration. Fig.
4 is a diagram for explaining the range of the lateral motion state which changes according to the relationship between the velocity and the direction error.
5 is a diagram for explaining the definition of a directional error required for analysis of a lateral motion state range.
6 is a diagram for explaining the ROPP calculation step according to an embodiment of the present invention in more detail.
7 and 8 are views for explaining the ROD calculation step according to an embodiment of the present invention in more detail.
9 and 10 are views for explaining the step of selecting a candidate for a pedestrian according to an embodiment of the present invention in more detail.
11 is a view for explaining an active pedestrian protection system according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms can be understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "comprising" or "comprising" and the like should not be construed as encompassing various elements or various steps of the invention, Or may further include additional components or steps.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복된 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to the same or similar elements, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도1은 본 발명의 일 실시예에 따른 능동적 보행자 보호 방법을 설명하기 위한 도면이다. 1 is a view for explaining an active pedestrian protection method according to an embodiment of the present invention.

도1을 참고하면, 본 발명의 능동적 보행자 보호 방법은 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성(HG) 단계(S10), 주행 데이터로부터 ROD(Region of Danger)을 파악한 후, 이를 기반으로 차량 출동 가능성이 있는 보행자 후보 객체를 선별하는 위험도 평가(RA) 단계(S20), 및 CNN(Convolutional Neural Network)에 기반한 후보 검증 동작을 선별된 보행자 후보 객체 각각에 대해 수행하여, 위험 상태의 보행자를 검출 및 통보하는 후보 검증(HV) 단계(S30) 등을 포함할 수 있다. Referring to FIG. 1, the active pedestrian protection method of the present invention includes a candidate generation (HG) step S10 for extracting a pedestrian candidate object from an input image, an ROD (Region of Danger) from the driving data, A risk evaluation (RA) step S20 for selecting candidates for possible pedestrian candidates and a candidate verification operation based on a CNN (Convolutional Neural Network) are performed for each of the selected candidate pedestrian objects to detect a pedestrian in a dangerous state And a candidate verification (HV) step S30 to notify.

즉, 본 발명에서는 종래에서와 달리 HV 단계(S30) 이전에 RA 단계(S20)를 수행하도록 한다. 이렇게 동작 순서가 변경되면, RA 단계(S20)에서는 종래에 비해 많은 수의 입력을 처리해야 하나, HV 단계(S30)에서는 종래에 비해 작은 수의 입력을 처리하게 된다. 그러나 HV 단계(S30)의 계산 요구량이 RA 단계(S20)에 비해서 월등히 크기 때문에, 결과적으로 본 발명의 방법은 종래에 비해 단축된 동작시간을 가질 수 있게 된다. That is, in the present invention, the RA step S20 is performed before the HV step S30, unlike the conventional method. If the operation sequence is changed, a larger number of inputs must be processed in the RA step S20 than in the conventional case, but a smaller number of inputs are processed in the HV step S30 than in the conventional case. However, since the calculation request amount of the HV step S30 is much larger than that of the RA step S20, the method of the present invention can have a shortened operation time as compared with the conventional method.

예를 들어, 보행자 후보 하나를 처리하는데 HV 단계(S30)과 RA 단계(S20) 각각이 10ms와 0.1ms를 소비한다고 가정하도록 한다(이는 HV 단계(S30)의 계산 요구량이 RA 단계(S20)에 비해서 100배 크다고 가정한 것인데, 일반적으론 더 큰값을 가진다). For example, it is assumed that each of the HV step (S30) and the RA step (S20) consumes 10 ms and 0.1 ms to process one pedestrian candidate (this means that the calculation requirement of the HV step (S30) Assuming that it is 100 times as large as it is, it generally has a larger value).

이러한 경우 HG 단계에서 10개의 보행자 후보를 출력하고 HV가 4개의 보행자를 출력하고 RA 단계에서 2명의 위험한 보행자를 출력한다면, 종래 방식에서는 HV가 10번 작동하고 RA가 4번 작동하므로 HV와 RA가 소비하게 되는 시간은 "10ms×10+0.1ms×4=100.4ms"가 된다. In this case, if 10 pedestrian candidates are output at the HG level, HV outputs 4 pedestrians, and 2 pedestrians are output at the RA stage, HV and RA are operated 10 times and 4 times, respectively, The time consumed is "10 ms × 10 + 0.1 ms × 4 = 100.4 ms".

반면, HG 단계에서 10개의 보행자 후보를 출력하고 RA가 4개의 위험한 보행자 후보를 출력하고 HV가 2명의 위험한 보행자를 출력한다면, 본 발명에서 RA가 10번 작동하고 HV가 4번 작동하므로 HV와 RA가 소비하게 되는 시간은 "0.1ms×10+10ms×4=41ms"가 된다. On the other hand, if 10 pedestrian candidates are output at the HG level, the RA outputs 4 dangerous pedestrian candidates, and the HV outputs 2 dangerous pedestrians, the present invention operates RA 10 times and HV 4 times, Is "0.1 ms x 10 + 10 ms x 4 = 41 ms ".

즉, HV 단계의 수행시간이 RA 단계의 수행시간에 비해 월등히 크기 때문에 시스템 수행시간이 HV 단계가 처리하는 입력의 개수에 근사적으로 비례하게 된다. That is, since the execution time of the HV step is much larger than the execution time of the RA step, the system execution time is approximately proportional to the number of inputs processed by the HV step.

이에 본 발명은 HV 단계에서 정보 처리량을 감소시켜 시스템 전반의 동작 시간이 단축되도록 하고, 그 결과 시스템 실시간성까지 개선되도록 해준다. Therefore, the present invention reduces the information processing amount in the HV step, thereby shortening the operation time of the entire system, and consequently improving system real-time performance.

도1을 계속하여 참고하면, 본 발명의 RA 단계(S20)는 다시 차량의 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 단계(S21), ROPP를 기반으로 보행자가 위험한 영역인 ROD(Region of Danger)을 산출하는 단계(S22), 및 다수의 보행자 후보 중 ROD에 위치하는 보행자 후보만을 차량 출동 가능성이 있는 보행자 후보 객체로 선별한 후, HV 단계(S30)에 전달하는 단계(S23)를 포함할 수 있다. 1, the RA step S20 of the present invention includes a step S21 of calculating a region of a prediction path (ROPP) which is an area where a future route of the vehicle can exist through statistical analysis of the traveling data of the vehicle (Step S22) of calculating a dangerous area ROD (Region of Danger) based on the ROPP, and a step of selecting only a pedestrian candidate located in the ROD among a plurality of pedestrian candidates as a candidate pedestrian candidate , And transmitting it to the HV step S30 (S23).

이하, 도2 내지 도10을 참고하여, 본 발명의 일 실시예에 따른 RA 단계(S20)에 대해 보다 상세히 살펴보면 다음과 같다. Hereinafter, the RA step S20 according to an embodiment of the present invention will be described in more detail with reference to FIG. 2 to FIG.

먼저, 본 발명은 물리학 기반(physics-based) 경로 예측 방법을 활용하여, ROPP를 파악하도록 한다. First, the present invention utilizes a physics-based path prediction method to grasp ROPP.

참고로, 차량 경로 예측은 크게 물리학 기반(physics-based), 의도 기반(maneuver-based), 상호 기반(interaction-based)의 3가지 방법으로 수행될 수 있다. 물리학 기반 예측 방법은 속도, 가속도, 각속도 등 현재의 운동 상태를 연장하여 경로를 예측하는 것으로, 이는 비교적 가벼운 알고리즘으로 실시간 구현이 용이하지만, 예측 가능 시간이 제한적이며 급격한 방향전환이 많은 도심에서 큰 오류가 발생한다. 이와 같은 불확실성의 원인은 차량 운동이 기본적으로 운전자의 의도에 따라 계속적으로 조종되기 때문이다. 의도 기반 예측 방법은 운전자의 의도를 파악함으로써 이런 불확실성을 감소시키는 장점이 있으나, 운전자의 의도를 파악하기 위해서는 지도, 전방 영상, 운전자 영상 등 다양한 대용량 정보를 처리해야 하는 부담이 생기기 때문에, 양산제품 적용은 아직 제한적이라는 단점이 있다. 상호 기반 예측 방법은 차량과 타차의 상호작용까지 고려하는 방법으로, 아직 개발 초기 단계에 머물고 있다. For reference, vehicle path prediction can be largely performed in three ways: physics-based, maneuver-based, and interaction-based. The physics-based prediction method is to predict the path by extending the current motion state such as speed, acceleration, and angular velocity. This is a relatively light algorithm that is easy to implement in real time. However, it has a limited predictable time and a large error Lt; / RTI > The reason for this uncertainty is that the vehicle movement is basically steered continuously according to the intention of the driver. The intention-based prediction method has the advantage of reducing the uncertainty by grasping the driver's intention. However, since it takes a burden to process various large-volume information such as map, forward image, and driver image in order to understand the intention of the driver, Is still limited. The mutual-based prediction method is a method to consider the interaction between vehicle and other vehicle, and it is still in the early stage of development.

이에 본 발명은 물리학 기반(physics-based) 예측 방법을 활용하여 ROPP를 예측하도록 한다. Accordingly, the present invention predicts ROPP using a physics-based prediction method.

물리학 기반(physics-based) 경로 예측은 차속과 각속도가 짧은 시간 동안 일정하다고 가정하는 CTRV(Constant Turn-Rate and Velocity) 모션 모델을 기반으로 예상 경로 끝점(x(t), y(t))을 계산할 수 있다. Physics-based path prediction is based on a predicted path endpoint (x (t), y (t)) based on the Constant Turn-Rate and Velocity (CTRV) motion model assuming that the vehicle velocity and angular velocity are constant over a short period of time. Can be calculated.

[수학식1] [Equation 1]

Figure 112016100914017-pat00007
Figure 112016100914017-pat00007

[수학식2]&Quot; (2) "

Figure 112016100914017-pat00008
Figure 112016100914017-pat00008

이때, x, y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, v은 차속을, ω는 각속도를, t는 시각을 각각 의미한다. t는 현재 시점인 0s에서 최대 예측 시각 T(예를 들면, 3초)까지 증가될 수 있다. In this case, x and y are coordinates on the coordinate system having the x-axis and the y-axis as the front and the left sides of the vehicle, v is the vehicle speed, ω is the angular speed, and t is the time. t can be increased from the current time point 0s to the maximum predicted time T (for example, 3 seconds).

한편, 차량 포즈(pose) 추정에 자주 사용되는 CTRA 모션 모델은 저속 주행을 포함하는 경로 예측에는 적합하지 않는 문제점을 가진다. 저속 주행 시 큰 감속도로 차속이 거의 0m/s에 가까워지는 상황이 자주 발생하는데, 이 경우 CTRA 모션 모델은 미래 경로를 차량 후진방향으로 예측하는 문제점이 있기 때문이다. On the other hand, the CTRA motion model frequently used for vehicle pose estimation has a problem that it is not suitable for path prediction including low-speed travel. It is because the CTRA motion model has a problem of predicting the future route in the vehicle backward direction.

또한 CTRV 모션 모델은 회전시에 큰 오차를 발생시키는 문제점도 가진다. 조향각을 일정하게 유지하는 곡선로와 달리, 회전시에 운전자는 조향각을 점진적으로 크게 했다가 다시 점진적으로 작게 조정하는 데, 이때 회전 반경은 조향각이 커질수록 작아지기 때문에, 현재 상태의 회전 반경을 기준으로 미래 경로를 예측할 경우 큰 오차가 발생되기 때문이다. Also, the CTRV motion model has a problem of generating a large error during rotation. In contrast to the curved line which keeps the steering angle constant, the driver gradually increases the steering angle gradually and then adjusts it gradually smaller. At this time, since the turning radius becomes smaller as the steering angle becomes larger, Because a large error is generated when the future path is predicted.

도2는 차량 회전시에 발생될 수 있는 CTRV 모션 모델을 사용한 물리학 기반 경로 예측의 문제점을 나타낸 도면이다. 2 is a diagram illustrating a problem of a physics-based path prediction using a CTRV motion model that can be generated at the time of vehicle rotation.

도2에서, 청색 점선은 t=0~T 기간 동안의 실제 경로를 표현한 것이고, 적색 점선은 예측 경로를 표현한 것이며, 차량이 왼쪽에서 위쪽으로 녹색 경로를 따라 회전하는 상황이라고 가정하기로 한다. In FIG. 2, it is assumed that the blue dotted line expresses the actual path during the period of t = 0 to T, the red dotted line represents the predicted path, and the vehicle rotates along the green path from the left to the upper right.

도2의 (a)는 좌회전 직전시 차량의 실제 경로와 예측 경로를 보여주는 도면으로, 실제 경로를 보면 차속이 감소하고 위쪽으로 방향 전환이 시작되지만, 물리학 기반 경로 예측 방법은 차량이 현재까지는 직진 중임을 고려하여 현재 속도를 유지하는 직선 경로를 예측하게 된다. 2 (a) is a view showing the actual path and the predicted path of the vehicle immediately before the left turn. In the actual path, the vehicle speed is decreased and the direction change is started upward. However, in the physics-based path prediction method, The straight line path that maintains the current speed is predicted.

도2의 (b)는 좌회전이 거의 완료된 상황에서의 차량의 실제 경로와 예측 경로를 보여주는 도면으로, 실제 경로를 보면 차속이 증가하고 위쪽으로 직진하기 시작하지만, 물리학 기반 경로 예측 방법은 현재까지는 곡선 경로 상에 있기 때문에 현재 회전 반경을 유지하는 곡선 경로를 예측하게 된다. FIG. 2 (b) is a diagram showing an actual path and a predicted path of the vehicle in a situation where the left turn is almost completed. In the actual path, the vehicle speed increases and starts to go straight upward. However, Because it is in the path, it predicts the curved path that maintains the current turning radius.

도2의 (c)는 좌회전하는 동안 실제 경로와 예상 경로를 각각 원에 피팅(fitting)하여 계산한 추정 곡률(실제 곡률로 간주, 청색 실선)과 예상 곡률(적색 실선)의 그래프로, 이를 참고하면 예상 곡률이 추정 곡률보다 작았다가 커지고 그 오차의 크기도 일정하지 않기 때문에, 단순한 방법으로 이를 보상하기 곤란함을 알 수 있다.2 (c) is a graph of estimated curvature (assumed to be an actual curvature, blue solid line) and estimated curvature (red solid line) calculated by fitting a real path and a predicted path to a circle during a left turn, It can be seen that it is difficult to compensate it by a simple method because the estimated curvature is smaller than the estimated curvature and the size of the error is not constant.

이와 같은 물리학 기반 경로예측의 한계는 운전자가 계속적으로 차량 운동을 조정하기 때문에 발생하는데, 저속에서 회전하는 경우 조향각 변화의 크기와 변화율이 모두 크기 때문에 상기와 같은 오류가 필연적으로 발생한다. The limitation of such a physics-based path prediction occurs because the driver constantly adjusts the vehicle motion. In the case of rotating at a low speed, the above-mentioned error necessarily occurs because the magnitude and rate of change of the steering angle are both large.

따라서 정확한 미래 경로를 확정할 수 없다면, 미래 경로가 존재할 수 있는 영역을 최대한 작게 예측하는 방법이 차선책일 것이다. 이에 본 발명에서는 주행 데이터를 통계적으로 분석함으로써, 미래 경로가 존재할 수 있는 영역인 ROPP를 최소의 크기를 가지는 부채꼴 형태로 예측함으로써, 상기와 같은 오류의 발생 가능성을 최소화하도록 한다. Therefore, if it is not possible to determine the precise future path, the next best way is to predict the area where the future path can exist as small as possible. In the present invention, the probability of occurrence of the error is minimized by statistically analyzing the traveling data to predict the ROPP, which is a region where a future route can exist, in a sector shape having a minimum size.

차량은 기본적으로 ESC(Electronic Stability Control)와 같은 전자제어 샤시 제어 시스템 등을 포함하며, ESC는 속도와 각속도 등을 포함하는 주행 데이터를 제공할 수 있다. The vehicle basically includes an electronic control chassis control system such as an electronic stability control (ESC), etc., and the ESC can provide driving data including a speed and an angular speed.

이에 본 발명은 주행 데이터에 포함된 속도와 각속도에 기반하여 차량의 경로를 예측하도록 한다. 특히, 운전자는 차속에 따라서 상당히 다른 운전행태를 보임을 고려하여 차속에 따른 종/횡방향 운동 상태 범위를 모델링한 후, 이들을 근거로 미래 경로가 존재할 수 있는 영역 ROPP를 계산하도록 한다. Therefore, the present invention predicts the vehicle path based on the speed and the angular speed included in the running data. In particular, the driver models the range of longitudinal / lateral motion according to the vehicle speed considering the considerably different driving behavior according to the vehicle speed, and then calculates the area ROPP in which the future route can exist based on the model.

이때, 종방향 운동 상태 범위는 속도와 가속도 사이의 관계에 따라 결정되며, 횡방향 운동 상태 범위 속도와 방향 오류 사이의 관계에 따라 결정되는 특징이 있다. At this time, the range of the longitudinal motion state is determined according to the relation between the velocity and the acceleration, and is determined according to the relationship between the lateral motion state range velocity and the direction error.

먼저, 도3을 참고하여 속도와 가속도 사이의 관계에 따라 변화되는 종방향 운동 상태 범위를 살펴보기로 한다. First, referring to FIG. 3, a description will be made of a range of longitudinal motion state that changes according to the relationship between velocity and acceleration.

도3의 (a) 및 (b)는 주행 데이터와 같은 원본 데이터(row data)로부터 추출한 속도-가속도 발생빈도를 나타내는 도면이다. 더욱 상세하게, 도3의 (a)는 속도에 따른 가속도 범위를 나타낸 것으로, 전체적인 범위를 보여주기 위하여 누적치에 무관하게 점으로 표현한 것이고, (b)는 속도-가속도의 발생 빈도를 나타낸 것으로, 누적치를 높이로 표현하고 3차원적으로 조금 다른 각도에서 표현한 것이다. 3 (a) and 3 (b) are views showing a speed-acceleration occurrence frequency extracted from raw data such as running data. More specifically, FIG. 3 (a) shows the acceleration range according to the speed, which is expressed as a point regardless of the accumulation value to show the overall range, (b) shows the frequency of occurrence of the speed- Is expressed in height and expressed in a different angle in three dimensions.

도3의 (a) 및 (b)을 참고하면, 차속이 커질수록 가속도의 범위가 작아짐을 알 수 있으며, 저속에서의 최대 가속도도 어느 정도 범위 내에 한정된다는 것을 알 수 있다. 이와 같은 가속도의 범위는 수학식3과 같이 최대값과 최소값으로 한정되고 속도에 반비례하는 함수로 표현될 수 있다.3 (a) and 3 (b), it can be seen that as the vehicle speed increases, the range of acceleration decreases, and that the maximum acceleration at low speed is also limited within a certain range. Such a range of the acceleration can be expressed by a function defined by the maximum value and the minimum value and inversely proportional to the speed as shown in Equation (3).

[수학식3]&Quot; (3) "

Figure 112016100914017-pat00009
Figure 112016100914017-pat00009

이때, a max (v)는 속도 v일 때 최대 가속도의 크기를 나타낸다. ab는 함수의 형태를 결정하는 매개변수이고, cd는 각각 최대값과 최소값을 나타내는 매개변수이다. Where a max ( v ) is the magnitude of the maximum acceleration at velocity v . a and b are parameters that determine the type of function, and c and d are parameters that represent the maximum and minimum values, respectively.

도3의 (c)는 속도에 따른 최대 가속도 함수를 나타낸 것으로, 적색 점선은 이 매개변수들을 적절히 설정했을 때의 a max (v)의 형태에 대응된다. 이로부터 최대 가속도의 크기가 결정되면, 현재 속도 v를 근거로 최대 예측시간 T동안 이동할 수 있는 최대 이동거리 s max (v)를 수학식4에 따라 계산할 수 있다. FIG. 3 (c) shows the maximum acceleration function according to the velocity, and the red dotted line corresponds to the form of a max ( v ) when these parameters are properly set. If the magnitude of the maximum acceleration is determined, the maximum movement distance s max ( v ) that can be moved during the maximum predicted time T based on the current velocity v can be calculated according to Equation (4).

[수학식4]&Quot; (4) "

Figure 112016100914017-pat00010
Figure 112016100914017-pat00010

또한, 도4을 참고하여 속도와 방향 오류 사이의 관계에 따라 변화되는 횡방향 운동 상태 범위를 살펴보기로 한다. Referring to FIG. 4, the range of the lateral motion state varying according to the relationship between the velocity and the direction error will be described.

만약, 차량이 도5의 녹색선을 따라 왼쪽에서 위쪽으로 회전하는 상황이라고 가정한다면, t=0~T 사이 실제 경로와 예상 경로는 청색 점선과 적색 점선과 같이 표현되고, 방향 오류(ΔΦ)는 현재 위치에서 실제 경로와 예상 경로의 끝을 잇는 선분 사이 각도로 정의되게 된다. 어떤 시점에서의 최대 방향 오류를 알 수 있다면, 정확한 미래 경로는 알 수 없지만 예상 경로 방향을 기준으로 좌우 일정 범위 내에 미래 경로가 존재한다고 말할 수 있게 된다.If the vehicle if this is assumed that the situation to rotate in the upper left, depending on the blue line 5, t = 0 ~ T between the actual path and the predicted path is represented as blue dotted line and the red dotted line, the direction error (ΔΦ) is It is defined as the angle between the actual path at the current location and the line segment connecting the end of the expected path. If we know the maximum directional error at a certain point in time, we can say that there is a future path within a certain range based on the predicted path direction although the exact future path is unknown.

도4의 (a) 및 (b)는 주행 데이터(row data)로부터 추출한 속도-방향 오류 발생빈도를 나타내는 도면이다. 더욱 상세하게, 도4의 (a)는 속도에 따른 방향 오류의 범위를 나타낸 것으로, 전체적인 범위를 보여주기 위하여 누적치에 무관하게 점으로 표현한 것이고, 도4의 (b)는 누적치를 높이로 표현하고 3차원적으로 조금 다른 각도에서 표현한 것이다. 4 (a) and 4 (b) are views showing the frequency of occurrence of the speed-direction error extracted from the running data (row data). More specifically, FIG. 4 (a) shows a range of directional error, and is expressed as a point regardless of the cumulative value to show the entire range. FIG. 4 (b) It is expressed from a different angle in three dimensions.

도4의 (a) 및 (b)을 참고하면, 최대 가속도와 마찬가지로, 방향 오류의 범위도 차속이 커질수록 작아짐을 알 수 있으며, 저속에서의 최대 오류도 어느 정도 범위 내에 한정된다는 것을 알 수 있다. 4A and 4B, it can be seen that, similarly to the maximum acceleration, the range of the direction error becomes smaller as the vehicle speed becomes larger, and the maximum error at low speed is also limited within a certain range .

따라서 방향 오류의 범위는 수학식5과 같이 최대값과 최소값으로 한정되고 속도에 반비례하는 함수로 표현될 수 있다.Therefore, the range of the direction error can be expressed by a function limited to the maximum value and the minimum value as shown in Equation (5) and inversely proportional to the speed.

[수학식5]&Quot; (5) "

Figure 112016100914017-pat00011
Figure 112016100914017-pat00011

이때, ΔΦ max (v)는 속도 v일 때 최대 방향 오류를 나타낸다. 수학식3에서와 마찬가지로, a, b, c, d는 함수의 형태와 최대값, 최소값을 결정하는 매개변수이다. At this time, ΔΦ max ( v ) represents the maximum directional error at the velocity v. As in Equation (3), a , b , c , and d are parameters for determining the type, maximum value, and minimum value of the function.

도4의 (c)는 속도에 따른 최대 방향 오류 함수를 나타낸 것으로, 적색 점선은 이 매개변수들을 적절히 설정했을 때의 ΔΦ max (v)의 형태를 보여준다.Fig. 4 (c) shows the maximum error function according to the velocity, and the red dotted line shows the form of ?? max ( v ) when these parameters are properly set.

이와 같은 종/횡방향 운동 상태 범위 모델링이 완료되면, 본 발명은 ROPP 산출 단계(S21)를 통해 종/횡방향 운동 상태 범위 모델을 근거로 미래 경로가 존재할 수 있는 영역 ROPP를 계산할 수 있게 된다. When such longitudinal / lateral motion state range modeling is completed, the present invention can calculate a region ROPP in which a future path can exist based on the longitudinal / lateral motion state range model through the ROPP calculation step S21.

도6은 본 발명의 일 실시예에 따른 ROPP 산출 단계(S21)를 보다 상세히 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining the ROPP calculation step S21 according to an embodiment of the present invention in more detail.

먼저, 주행 데이터에 포함된 차량의 현재 속도(v)와 각속도(ω)를 추출 및 획득하도록 한다(S211).First, the current speed v and the angular speed omega of the vehicle included in the running data are extracted and acquired (S211).

그리고 수학식1과 수학식2를 근거로 예상 경로 끝점 (x(T), y(T)) 계산한 후(S212), 예상 경로 끝점의 위상각(Φ(T)=tan-1(y(T)/x(T)))을 계산하도록 한다(S213).And then calculating equation (1) and equation (2) based on a predicted path end point (x (T), y ( T)) to (S212), the phase of the predicted path of each end point (Φ (T) = tan -1 (y ( T ) / x ( T )) (S213).

그리고 수학식5에 근거해 최대 방향 오류(ΔΦ max (v)) 계산한 후(S214), 최대 방향 오류(ΔΦ max (v))을 기반하여 ROPP의 위상각 범위(즉, Φ(T)-ΔΦ max (v) ~ Φ(T)+ΔΦ max (v))를 계산하도록 한다(S215). And based on the equation (5) up to direction errors (ΔΦ max (v)) after the calculation (S214), up to direction errors (ΔΦ max (v)) the phase angle range of ROPP based (that is, Φ (T) - ΔΦ max (v) ~ Φ and to calculate a (T) + ΔΦ max (v )) (S215).

그리고 수학식3에 근거해 최대 가속도 a max (v)를 계산하고(S216), 수학식4에 근거해 최대 도달거리 s max (v) 계산하도록 한다(S217). Then, the maximum acceleration a max ( v ) is calculated based on Equation (3) (S216), and the maximum reaching distance s max ( v ) is calculated based on Equation (4) (S217).

마지막으로 반지름이 s max (v)이고 위상각이 Φ(T)-ΔΦ max (v) 범위인 부채꼴로 정의되는 ROPP를 산출하도록 한다(S218). Finally, the ROPP defined as a sector whose radius is s max ( v ) and whose phase angle is in the range of ? ( T ) - ?? Max ( v ) is calculated (S218).

도6의 ROPP 산출 단계(S21)를 통해 ROPP가 산출되면, 본 발명은 도7에서와 같이 ROPP을 기반으로 ROD을 산출하고, 이를 입력영상에 투영하여 보행자 후보 생성 단계(S10)에서 생성된 보행자 후보 객체를 필터링하도록 한다. When the ROPP is calculated through the ROPP calculation step S21 of FIG. 6, the present invention calculates the ROD based on ROPP as shown in FIG. 7 and projects it to the input image to calculate the ROPP based on the pedestrian candidate generated in the pedestrian candidate generation step S10 Let the candidate objects be filtered.

도7 및 도8은 본 발명의 일 실시예에 따른 ROD 산출 단계(S22)를 보다 상세히 설명하기 위한 도면이다. FIGS. 7 and 8 are views for explaining the ROD calculation step S22 according to an embodiment of the present invention in more detail.

도7을 참고하면, 본 발명의 ROD 산출 단계는 ROPP에 상응하는 부채꼴의 양끝점을 연결하여 차량 횡방향 폭 W을 파악한 후(S221), ROPP의 좌변 외측 영역과 우변 외측 영역을 차량 횡방향 폭 W의 절반(W/2)만큼 각각 확장함으로써, ROD으로 획득하도록 한다(S222). Referring to FIG. 7, in the ROD calculation step of the present invention, the lateral width W of the vehicle connecting the both ends of the sector corresponding to the ROPP is determined (S221), and the outer side region of the left side and the right side outer side region of the ROPP are defined as the vehicle lateral width (W / 2) of W, respectively, so as to obtain ROD (S222).

도8의 (a)의 적색 점선은 속도와 가속도를 근거로 계산한 예상 경로이고, 청색 부채꼴은 최대 도달거리와 최대 방향 오류를 근거로 계산한 ROPP을 나타낸다. 도7의 (b)의 청색 영역은 설정된 ROPP의 양변에서 차량 횡방향 폭의 절반만큼 좌우로 확장하여 설정한 ROD을 나타낸다. The red dotted line in FIG. 8 (a) represents the estimated path calculated based on the velocity and the acceleration, and the blue sector represents the ROPP calculated based on the maximum arrival distance and the maximum direction error. The blue region of FIG. 7 (b) represents the ROD which is extended to the left and right by half of the vehicle lateral width on both sides of the set ROPP.

물론, ROPP의 양변의 확장 정도는 검출 해상도에 따라 다양하게 조정될 수 도 있을 것이다. 예를 들어, 검출 해상도를 높이고자하는 경우에는 ROPP의 양변 확장 정도를 "W/2+α"로 증대시켜 줄 수 있고, 검출 해상도를 낮추고자 하는 경우에는 ROPP의 양변 확장 정도를 "W/2-α"로 낮춰 줄 수 있을 것이다. 이때, α은 양의 실수일 수 있으며, W/2 보다는 작은 값을 가지는 것이 바람직할 것이다. Of course, the degree of expansion of both sides of ROPP may be variously adjusted depending on the detection resolution. For example, in the case of increasing the detection resolution, the degree of expansion of both sides of ROPP can be increased to "W / 2 + α". When the detection resolution is to be lowered, -α ". At this time, alpha may be a positive real number, and it may be preferable to have a value smaller than W / 2.

도9 및 도10은 본 발명의 일 실시예에 따른 보행자 후보 객체 선별 단계(S23)를 보다 상세히 설명하기 위한 도면이다. FIG. 9 and FIG. 10 are views for explaining the pedestrian candidate object selection step S23 according to an embodiment of the present invention in more detail.

도9을 참고하면, 본 발명의 보행자 후보 객체 선별 단계는 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환함으로써, ROD를 입력 영상에 투영하는 단계(S231), 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별한 후, HV 단계(S30)에 전달하는 단계(S232)를 포함하도록 한다. Referring to FIG. 9, the step of selecting a candidate for a pedestrian according to the present invention includes a step of projecting an ROD to an input image (S231) by converting a vehicle center-of-gravity coordinate system of the ROD into an input image coordinate system Comparing the positions of the objects, selecting only the pedestrian candidate objects located in the ROD, and transmitting them to the HV step S30 (S232).

ROD는 주행 데이터의 통계적 분석에 의해 산출된 것이므로 입력 영상과 상이한 좌표계, 즉 차량 중심 좌표계를 가지게 된다. 이에 ROD의 차량 중심 좌표계를 카메라의 투사 매트릭스(projection matrix, P)를 이용하여 입력 영상 좌표계로 변환하도록 해야 한다. Since the ROD is calculated by statistical analysis of the running data, it has a coordinate system different from that of the input image, that is, a vehicle center coordinate system. Therefore, it is necessary to convert the vehicle center coordinate system of the ROD into the input image coordinate system using the projection matrix (P) of the camera.

수학식6에서와 같이 차량 중심 좌표계 상의 한 점 X(X, Y, Z, 1)에 카메라 투사 매트릭스 P를 곱하면 영상 상의 한 점 x(u, v, 1)를 구할 수 있게 되고, 이에 따라 ROD를 입력 영상에 투영할 수 있게 된다. If a camera projection matrix P is multiplied by a point X (X, Y, Z, 1) on the vehicle center coordinate system as in Equation 6, a point x (u, v, 1) on the image can be obtained, The ROD can be projected onto the input image.

[수학식6]&Quot; (6) "

Figure 112016100914017-pat00012
Figure 112016100914017-pat00012

이때, P의 크기는 3×4이고, Xx는 동종(homogeneous) 좌표계를 사용한다. 차량 중심 좌표계 상의 ROD는 지표면에 존재하기 때문에, Z는 카메라 높이의 음수 -H로 설정된다. ROD의 경계를 일정한 개수의 점들로 샘플링하고 이점들에 대응되는 영상 상의 점들을 계산함으로써, 영상 상의 ROD을 계산할 수 있다. At this time, the size of P is 3 × 4, and X and x use a homogeneous coordinate system. Since the ROD on the vehicle center coordinate system exists on the ground surface, Z is set to a negative -H of the camera height. The ROD on the image can be calculated by sampling the boundary of the ROD with a certain number of points and calculating the points on the image corresponding to the points.

도10의 (a)에서 적색 실선으로 그려진 대략적인 부채꼴 모양 도형은 차량 중심 좌표계 상의 ROD을 나타내는 것이고, 도10의 (b)는 이에 대응되는 입력 영상에 투영된 ROD을 나타내는 것이다. 다만, ROD가 대략적으로 부채꼴 모양이지만, 투영변환(perspective transformation) 때문에 입력 영상에 투영된 ROD는 부채꼴 모양으로 나타나지 않을 수도 있다. In FIG. 10 (a), a rough fan-shaped figure drawn with a solid red line represents the ROD on the vehicle center coordinate system, and FIG. 10 (b) represents the ROD projected on the corresponding input image. However, although the ROD is roughly fan-shaped, the ROD projected on the input image may not appear as a sector shape due to perspective transformation.

ROD는 정해진 시간 내에 차량이 점유할 수 있는 영역을 의미하기 때문에, 본 발명에서는 도10의 (c)에서와 같이 어떤 보행자가 ROD 내부에 존재한다면 그 보행자가 위험하다고 판단할 수 있다. 또한 차량 중심 좌표계 ROD을 사용할 경우엔, 보행자 중심 좌표 (X, Y)가 ROD 내부에 존재하는지 여부를 평가할 수 있다. 또한 영상 좌표계 ROD를 사용할 경우엔 보행자 영역 사각형의 밑변 중심이 ROD 내부에 존재하는지 여부를 평가할 수 있다. Since the ROD means an area occupied by the vehicle within a predetermined time, the present invention can determine that the pedestrian is dangerous if any pedestrian exists in the ROD as shown in FIG. 10 (c). In addition, when using the vehicle center coordinate system ROD, it is possible to evaluate whether the pedestrian center coordinate (X, Y) exists in the ROD. In addition, when using the image coordinate system ROD, it is possible to evaluate whether the base center of the pedestrian zone rectangle exists in the ROD.

도10의 (c)에서 적색 실선은 ROD을 나타내는 것으로, 이를 참고하면, 차속이 작은 경우, 최대 도달 거리는 작고 좌우 각도 범위는 넓게 설정된 ROD이 산출됨을 알 수 있다. 그리고 적색 사각형으로 표시된 보행자의 경우 밑면 중심이 ROD 내부에 존재하기 때문에 위험한 보행자로 분류되고, 청색 사각형으로 표시된 보행자는 ROD 외부에 존재하므로 위험하지 않은 보행자로 분류됨을 알 수 있다. The red solid line in FIG. 10 (c) shows the ROD. Referring to this, it can be seen that when the vehicle speed is small, the maximum reachable distance is small and the ROD with the wide angle range is calculated. In the case of a pedestrian marked with a red square, it is classified as a dangerous pedestrian because the center of the bottom exists in the ROD, and a pedestrian marked with a blue square is classified as a non-dangerous pedestrian because it exists outside the ROD.

도11은 본 발명의 일 실시예에 따른 능동적 보행자 보호 시스템을 설명하기 위한 도면이다. 11 is a view for explaining an active pedestrian protection system according to an embodiment of the present invention.

도11을 참고하면, 본 발명의 능동적 보행자 보호 시스템은 전방 카메라와 같은 각종 영상 획득 장치를 통해 입력 영상을 획득 및 제공하는 입력 영상 획득부(10), 전자제어 샤시 제어시스템 등과 통신하여 차속과 각속도 등을 포함하는 주행 데이터를 획득하는 주행 데이터 획득부(20), 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부(30), 주행 데이터로부터 ROD(Region of Danger)을 파악한 후, 이를 기반으로 차량 충돌 가능성이 있는 보행자 후보 객체를 선별하는 위험도 평가부(40), 및 CNN(Convolutional Neural Network) 등에 기반하여 보행자 후보 객체 각각을 검증하여 보행자만을 선별 및 통보하는 후보 검증부(50), 위험 상태의 보행자의 위치 및 차량 주행 상태 등을 고려하여 충돌 방지를 위한 각종 차량 제어 동작을 수행하는 차량 제어부(60) 등을 포함할 수 있다. 11, the active pedestrian protection system of the present invention includes an input image acquiring unit 10 for acquiring and providing an input image through various image acquisition devices such as a front camera, an electronic control chassis control system, A candidate generating unit 30 for extracting a pedestrian candidate object from the input image, and an ROD (Region of Danger) from the running data to obtain a driving data, A candidate evaluation unit 50 for selecting each pedestrian candidate object based on a CNN (Convolutional Neural Network) or the like and selecting and reporting only a pedestrian, A vehicle control unit 60 that performs various vehicle control operations for preventing collision in consideration of the position of the pedestrian and the vehicle running state, The.

더하여, 위험도 평가부(40)는 다시 차량의 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP을 산출하는 ROPP 산출부(41), ROPP를 기반으로 보행자가 위험한 영역인 ROD을 산출하는 ROD 산출부(42), 및 ROD를 기반으로 차량 출동 가능성이 있는 보행자 후보 객체만을 선별하여 후보 검증부(50)에 제공하는 보행자 후보 선별부(43) 등을 포함할 수 있다. In addition, the risk evaluation unit 40 further includes an ROPP calculating unit 41 for calculating ROPP, which is an area where a future route of the vehicle can exist, through a statistical analysis of the running data of the vehicle, a ROPP calculating unit 41 for calculating ROPP, And a pedestrian candidate selecting unit 43 for selecting only the pedestrian candidate objects that are likely to be out of the vehicle based on the ROD and providing the pedestrian candidate objects to the candidate verifying unit 50. [

즉, 본 발명의 능동적 보행자 보호 시스템은 후보 검증부(50)의 처리 부하가 위험도 평가부(40)에 비해 매우 큼을 고려하여, 처리 부하가 상대적으로 작은 위험도 평가부(40)를 통해 후보 검증부(50)에 입력되는 정보의 량을 최소화하도록 한다. 그 결과, 본 발명의 시스템의 동작 시간이 종래에 비해 크게 감소되어, 시스템 실시간성이 될 수 있게 된다. That is, considering that the processing load of the candidate verifying unit 50 is much larger than that of the risk evaluating unit 40, the active pedestrian protection system of the present invention is configured such that the processing load of the candidate verifying unit 40, So that the amount of information input to the memory 50 is minimized. As a result, the operation time of the system of the present invention is greatly reduced compared with the conventional system, and the system real time can be obtained.

상술한 실시예에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다.The features, structures, effects and the like described in the foregoing embodiments are included in at least one embodiment of the present invention and are not necessarily limited to one embodiment. Further, the features, structures, effects, and the like illustrated in the embodiments may be combined or modified in other embodiments by those skilled in the art to which the embodiments belong.

따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. 또한, 이상에서 실시예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, it should be understood that the present invention is not limited to these combinations and modifications. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the present invention. It can be seen that various modifications and applications are possible. For example, each component specifically shown in the embodiments may be modified and implemented. It is to be understood that the present invention may be embodied in many other specific forms without departing from the spirit or essential characteristics thereof.

Claims (8)

입력 영상에서 보행자 후보 객체를 추출하는 후보 생성 단계;
주행 데이터의 통계적 분석을 통해 ROD(Region of Danger)을 산출하고, ROD을 기반으로 보행자 후보 객체 필터링을 수행하는 위험도 평가 단계; 및
상기 필터링된 보행자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증 단계를 포함하며,
상기 위험도 평가 단계는
상기 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 부채꼴 모양의 ROPP(Region of Prediction Path)을 산출하는 단계;
상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 단계; 및
상기 후보 생성 단계를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계를 포함하는 것을 특징으로 하는 능동적 보행자 보호 방법.
A candidate generating step of extracting a pedestrian candidate object from an input image;
A risk assessment step of calculating ROD (Region of Danger) through statistical analysis of the running data and filtering the pedestrian candidate object based on the ROD; And
And a candidate verification step of performing a candidate verification for each of the filtered candidate pedestrian objects to detect a pedestrian in a dangerous state,
The risk assessment step
Calculating a fan-shaped Region of Prediction Path (ROPP) which is an area where a future route of the vehicle can exist through statistical analysis of the travel data;
Expanding the left and right outer regions of the ROPP according to a predetermined criterion to calculate the ROD; And
And selecting and outputting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generation step.
삭제delete 제1항에 있어서, 상기 ROPP을 산출하는 단계는
"
Figure 112017057408994-pat00013
" 및 "
Figure 112017057408994-pat00014
"를 근거로 예측시간 T 동안의 예상 경로 끝점(x(T), y(T))을 계산하는 단계;
"Φ(T)=tan-1(y(T)/x(T))"의 식에 따라 상기 예상 경로 끝점의 위상각(Φ(T))을 계산하는 단계;
"
Figure 112017057408994-pat00015
"에 근거해 최대 방향 오류(ΔΦmax(v))를 계산하는 단계;
상기 최대 방향 오류(ΔΦmax(v))를 기반하여 "Φ(T)-ΔΦmax(v) ~ Φ(T)+ΔΦmax(v)"를 ROPP의 위상각 범위로 정의하는 단계;
"
Figure 112017057408994-pat00016
"에 근거해 최대 가속도(amax(v))를 계산하는 단계;
"
Figure 112017057408994-pat00017
"에 근거해 최대 도달거리(smax(v))를 계산하는 단계; 및
반지름이 smax(v)이고 위상각이 Φ(T)-ΔΦmax(v) 범위인 부채꼴로 정의되는 ROPP를 산출하는 단계를 포함하며,
상기 x 및 y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, 상기 v은 속도를, 상기 ω는 각속도를, 상기 t는 시각을, 상기 T는 예측 시간을, 상기 a, b, c, d는 함수의 형태와 최대값, 최소값을 결정하는 매개변수 각각을 나타내는 것을 특징으로 하는 능동적 보행자 보호 방법.
2. The method of claim 1, wherein calculating the ROPP comprises:
"
Figure 112017057408994-pat00013
"And"
Figure 112017057408994-pat00014
(X (T), y (T)) for the predicted time T based on the estimated path endpoint
Calculating a phase angle? (T) of the expected path end point according to an equation of? (T) = tan -1 (y (T) / x (T));
"
Figure 112017057408994-pat00015
Calculating a maximum directional error [Delta] [phi] max (v);
Defining a direction of the maximum error (ΔΦ max (v)) on the basis of "Φ (T) -ΔΦ max ( v) ~ Φ (T) + ΔΦ max (v)" of the phase angle range of ROPP;
"
Figure 112017057408994-pat00016
"(A max (v)) < / RTI >
"
Figure 112017057408994-pat00017
(S max (v)) on the basis of "
Calculating an ROPP defined by a sector whose radius is s max (v) and whose phase angle is in the range of? (T) -?? Max (v)
Wherein x and y denote coordinates on a coordinate system having x and y axes on the front and left sides of the vehicle, v is a velocity,? Is an angular velocity, t is a time, T is a predicted time, and b, c, and d respectively represent a function type, a maximum value, and a parameter for determining a minimum value, respectively.
제3항에 있어서, 상기 ROD을 산출하는 단계는
상기 ROPP에 상응하는 부채꼴의 양끝점을 연결하여 차량 횡방향 폭(W)을 파악하는 단계; 및
상기 ROPP의 좌변 및 우변 외측 영역을 상기 차량 횡방향 폭(W)의 절반(W/2)만큼 각각 확장함으로써, 상기 ROD을 획득하는 단계를 포함하는 것을 특징으로 하는 능동적 보행자 보호 방법.
4. The method of claim 3, wherein the step of calculating ROD comprises:
Recognizing the transverse width W of the vehicle by connecting both ends of the sector corresponding to the ROPP; And
And obtaining the ROD by expanding the left and right outer regions of the ROPP by half (W / 2) of the vehicle lateral width (W), respectively.
제1항에 있어서, 상기 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계는
상기 ROD를 상기 입력 영상에 투영하는 단계; 및
상기 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, 상기 ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별 및 출력하는 단계를 포함하는 것을 특징으로 하는 능동적 보행자 보호 방법.
2. The method of claim 1, wherein selecting and outputting only the pedestrian candidates located in the ROD comprises:
Projecting the ROD onto the input image; And
Comparing the ROD position projected on the input image with the position of the candidate pedestrian object, and selecting and outputting only the pedestrian candidate objects located in the ROD as the object to be verified.
제5항에 있어서, 상기 ROD를 상기 입력 영상에 투영하는 단계는
"
Figure 112017057408994-pat00018
"에 따라 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환하며, 상기 x(u, v, 1)는 입력 영상 좌표계, 상기 P(X, Y, Z, 1)는 차량 중심 좌표계, 상기 (u, v)는 입력 영상 좌표계 상의 한점, 상기 (X, Y, Z)는 차량 중심 좌표계상의 한 점, 상기 P는 카메라의 투사 매트릭스인 것을 특징으로 하는 능동적 보행자 보호 방법.
6. The method of claim 5, wherein projecting the ROD to the input image comprises:
"
Figure 112017057408994-pat00018
(U, v, 1) is an input image coordinate system, P (X, Y, Z, 1) is a vehicle center coordinate system, v) is a point on the input image coordinate system, (X, Y, Z) is a point on the vehicle center coordinate system, and P is a projection matrix of the camera.
입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부;
주행 데이터의 통계적 분석을 통해 ROD(Region of Danger)을 산출하고, ROD을 기반으로 보행자 후보 객체 필터링을 수행하는 위험도 평가부; 및
상기 필터링된 후보자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증부를 포함하며,
상기 위험도 평가부는
상기 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 부채꼴 모양의 ROPP(Region of Prediction Path)을 산출하는 ROPP 산출부;
상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 ROD 산출부; 및
상기 후보 생성부를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별하여 상기 후보 검증부에 전달하는 보행자 후보 선별부를 포함하는 것을 특징으로 하는 능동적 보행자 보호 시스템.
A candidate generator for extracting a pedestrian candidate object from an input image;
A risk assessment unit for calculating the ROD (Region of Danger) through statistical analysis of the running data and filtering the pedestrian candidate object based on the ROD; And
And a candidate verification unit for performing a candidate verification on each of the filtered candidate candidate objects to detect a pedestrian in a dangerous state,
The risk assessment section
An ROPP calculation unit for calculating a fan-shaped ROPP (Region of Prediction Path) which is a region where a future route of the vehicle can exist through statistical analysis of the travel data;
An ROD calculation unit for calculating the ROD by expanding the left and right outer regions of the ROPP according to predetermined criteria; And
And a pedestrian candidate selecting unit for selecting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generating unit and transmitting the selected pedestrian candidates to the candidate verifying unit.
삭제delete
KR1020160135075A 2016-10-18 2016-10-18 System and method for Active Pedestrian Protection KR101770924B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160135075A KR101770924B1 (en) 2016-10-18 2016-10-18 System and method for Active Pedestrian Protection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160135075A KR101770924B1 (en) 2016-10-18 2016-10-18 System and method for Active Pedestrian Protection

Publications (1)

Publication Number Publication Date
KR101770924B1 true KR101770924B1 (en) 2017-09-05

Family

ID=59924647

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160135075A KR101770924B1 (en) 2016-10-18 2016-10-18 System and method for Active Pedestrian Protection

Country Status (1)

Country Link
KR (1) KR101770924B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947280B1 (en) 2017-09-15 2019-05-08 한국교통대학교산학협력단 System and method for Pedestrian Protection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947280B1 (en) 2017-09-15 2019-05-08 한국교통대학교산학협력단 System and method for Pedestrian Protection

Similar Documents

Publication Publication Date Title
CN115461258B (en) Method for object avoidance during autonomous navigation
US11709058B2 (en) Path planning method and device and mobile device
JP6445497B2 (en) Route determination method for automatic mobile
WO2019124001A1 (en) Moving body behavior prediction device and moving body behavior prediction method
US8924140B2 (en) External environment recognition device for vehicle and vehicle system using same
US11188089B2 (en) Localization for autonomous vehicles using gaussian mixture models
US20190094858A1 (en) Parking Location Prediction
CN110632617B (en) Laser radar point cloud data processing method and device
CN110168312B (en) Method and device for predicting dynamic object based on target
US10449956B2 (en) Object tracking by unsupervised learning
JP2017067756A (en) Object detection device and object detection method
Sales et al. Adaptive finite state machine based visual autonomous navigation system
US20210010814A1 (en) Robust localization
CN110674705A (en) Small-sized obstacle detection method and device based on multi-line laser radar
Santos et al. A sensor fusion layer to cope with reduced visibility in SLAM
US11741720B2 (en) System and method for tracking objects using using expanded bounding box factors
JP4539388B2 (en) Obstacle detection device
JP2011043405A (en) Self position estimation apparatus, self position estimation method, and program
Raja et al. SPAS: Smart pothole-avoidance strategy for autonomous vehicles
JP2021082286A (en) System and method for improving lane change detection, and non-temporary computer-readable medium
JP2017154516A (en) Collision determination device, collision determination method, and program
KR101770924B1 (en) System and method for Active Pedestrian Protection
KR102178992B1 (en) Method and Apparatus for Planning Car Motion
Zhao et al. Moving object classification using horizontal laser scan data
JP2022522298A (en) Recognition of radar reflections using velocity and location information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant