KR101947280B1 - System and method for Pedestrian Protection - Google Patents

System and method for Pedestrian Protection Download PDF

Info

Publication number
KR101947280B1
KR101947280B1 KR1020170118873A KR20170118873A KR101947280B1 KR 101947280 B1 KR101947280 B1 KR 101947280B1 KR 1020170118873 A KR1020170118873 A KR 1020170118873A KR 20170118873 A KR20170118873 A KR 20170118873A KR 101947280 B1 KR101947280 B1 KR 101947280B1
Authority
KR
South Korea
Prior art keywords
ropp
pedestrian
calculating
candidate
rod
Prior art date
Application number
KR1020170118873A
Other languages
Korean (ko)
Inventor
정호기
이연주
Original Assignee
한국교통대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교산학협력단 filed Critical 한국교통대학교산학협력단
Priority to KR1020170118873A priority Critical patent/KR101947280B1/en
Application granted granted Critical
Publication of KR101947280B1 publication Critical patent/KR101947280B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a system and a method for pedestrian protection. According to embodiments of the present invention, the method for pedestrian protection comprises: a candidate generation step of extracting pedestrian candidate objects from an input image; a step of calculating a region of prediction path (ROPP) which is a region where a future path of a vehicle may exist by statistical analysis of driving data; a step of expanding an outer region of a left edge and a right edge of the ROPP in accordance with a preset standard to calculate a region of danger (ROD); a step of selecting and outputting only pedestrian candidates positioned in the ROD among the pedestrian candidate objects extracted by the candidate generation step; and a candidate verification step of performing candidate verification on the filtered pedestrian candidate objects to detect a pedestrian in a danger state. The step of calculating the ROPP uses the speed and angular speed of the vehicle to set a direction error range, and uses the direction error range and maximum acceleration to calculate the ROPP.

Description

보행자 보호 시스템 및 방법{System and method for Pedestrian Protection}{System and method for pedestrian protection}

본 발명은 보행자 보호 시스템 및 방법에 관한 것으로, 보행자 검출에 소요되는 시간을 최소화하며, 특히 속도 및 각속도를 이용하여 방향오류범위를 설정하여 시스템 실시간성을 개선할 수 있도록 하는 보행자 보호 시스템 및 방법에 관한 것이다.The present invention relates to a pedestrian protection system and method, and more particularly, to a pedestrian protection system and method for minimizing a time required for detecting a pedestrian, and in particular, by setting a direction error range using a speed and an angular velocity, .

보행자 보호시스템은 차대 보행자 사고를 예측하여 긴급 제동 등을 통하여 이를 미연에 방지하는 시스템이다. The pedestrian protection system predicts pedestrian pedestrian accidents and prevents them by emergency braking.

기존의 보행자 보호시스템은 일반적으로 후보생성(HG: Hypothesis Generation), 후보검증(HV: Hypothesis Verification), 위험도평가(RA: Risk Assessment)의 3단계를 순차적으로 수행하도록 한다. Conventional pedestrian protection system generally performs three stages of Hypothesis Generation (HG), Hypothesis Verification (HV) and Risk Assessment (RA) in sequence.

HG는 비교적 가벼운 알고리즘으로 구현되며, 영상 전체에서 보행자가 있을 것으로 예상되는 영역을 후보로 골라낸다. HV는 비교적 무겁지만 정확도가 높은 알고리즘으로 구현되며, 생성된 후보가 보행자인지 여부를 평가한다. RA는 검출된 보행자가 차량의 경로 상에 있는지 여부를 평가하여 사고 위험도를 평가한다.HG is implemented as a relatively lightweight algorithm, and candidates are selected for areas where pedestrians are expected to exist in the entire image. The HV is implemented with a relatively heavy but accurate algorithm and evaluates whether the generated candidate is a pedestrian. The RA assesses the risk of an accident by evaluating whether the detected pedestrian is on the route of the vehicle.

이와 같은 보행자 보호시스템은 단순히 경보만을 제공하는 시스템에 비해 긴급 제동과 같이 돌이킬 수 없는 수단을 사용하기 때문에, 오동작에 의한 비용이 매우 큰 특징이 있다. 오동작은 크게 보행자가 아닌 물체를 보행자로 인식하는 보행자 오검출(false detection)과 차량의 경로를 잘못 예측하여 안전한 보행자를 위험하다고 판단하는 경로예측 오류 때문에 발생한다. 따라서 실용성과 소비자 수용성을 확보하기 위해서는 오동작을 최소화하여야 한다.Such a pedestrian protection system uses a non-irreversible means such as emergency braking as compared with a system that provides only an alarm, so that the cost due to malfunction is very large. Malfunctions are caused by false detection of pedestrians as false pedestrians and path prediction errors that are considered to be dangerous to safe pedestrians by mistakenly predicting the route of the vehicle. Therefore, in order to secure practicality and consumer acceptability, it is necessary to minimize malfunction.

보행자 오검출 최소화 방안의 대표적인 예로 CNN(Convolutional Neural Network)를 통해 HV를 수행하는 방안이 있다. CNN은 다양한 인식 분야에서 기존 시스템들의 성능을 월등히 앞서는 것으로 보고되고 있으며, 보행자 인식 분야에서도 매우 낮은 오검출율을 보였다. 그러나 CNN은 기존 시스템들에 비해 상당히 무거워서 실시간 구현에 많은 어려움을 겪고 있다. 이에 GPU(Graphic Processing Unit)나 FPGA와 같은 고속화 하드웨어를 사용하는 방안과 ACF(Aggregated Channel Feature)와 같은 비교적 가벼운 검출기를 HG로 활용하여 보행자 후보 수를 줄이는 방안이 제안된 바 있으나, 이들 또한 실시간성 확보가 어려운 단점을 가진다.A typical example of a method for minimizing the detection of pedestrian misfire is a method of performing HV through CNN (Convolutional Neural Network). CNN has been reported to outperform existing systems in various recognition fields and has a very low false detection rate in pedestrian recognition. However, CNN is considerably heavier than existing systems and has a lot of difficulties in real-time implementation. Therefore, there have been proposed methods of using high-speed hardware such as GPU (Graphic Processing Unit) or FPGA and reducing the number of pedestrian candidates by using relatively light detector such as ACF (Aggregated Channel Feature) as HG, It has a disadvantage that it is difficult to secure.

따라서 CNN를 통해 구현되는 HV의 실시간성 개선이 당분간 보행자 오검출 최소화의 중요한 수단이 될 것으로 예상된다.Therefore, it is expected that the real - time improvement of HV implemented through CNN will be an important means of minimizing the detection of pedestrian error for the time being.

또한, 출원인의 한국 등록 특허 제10-1770924호의 경우, 상기의 문제점을 해결하기 위하여 실시간성이 개선되도록 하는 시스템 및 방법을 제안 하였으나, 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path) 설정 시, 가속도와 방향오류의 최대값을 현재 속도에 따라서만 분석하여, ROPP를 넓게 설정하는 문제점이 존재하며, 가속도와 방향오류의 최대값을 함수로 도출하기 때문에, 형태가 복잡한 경우 적용이 어려운 문제점이 존재하였다.In addition, in the case of Korean Patent No. 10-1770924 of the applicant, a system and a method for improving the real-time property in order to solve the above problems have been proposed. However, the present invention is not limited to the ROPP (Region of Prediction Path) And the maximum value of the acceleration and direction error is analyzed only according to the current speed and there is a problem that the ROPP is set to be wide. Since the maximum value of the acceleration and the direction error is derived as a function, .

한국 등록 특허 제10-1770924호Korean Patent No. 10-1770924

David Gerㆃnimo, Antonio M. Lㆃpez, Angel D. Sappa, and Thorsten Graf, "Survey of Pedestrian Detection for Advanced Driver Assistance Systems," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 7, Jul. 2010, pp. 1239-1258.David Gerbenimo, Antonio M. L. Pez, Angel D. Sappa, and Thorsten Graf, "Survey of Pedestrian Detection for Advanced Driver Assistance Systems," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 7, Jul. 2010, pp. 1239-1258.

본 발명은 상기의 문제점을 해결하기 위한 것으로, 위험도평가(RA: Risk Assessment)을 통해 위험한 보행자 후보만을 추출한 후 후보검증(HV: Hypothesis Verification)을 수행하도록 함으로써, 상대적으로 무거운 HV의 처리 부담이 경감되어 HV의 실시간성이 개선되도록 하는 보행자 보호 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, the present invention extracts only a dangerous pedestrian candidate through a risk assessment (RA) and performs a candidate verification (HV), thereby reducing the burden of relatively heavy HV processing So as to improve the real-time performance of the HV.

또한, 본 발명은 속도 및 각속도를 고려하여 미래 경로가 존재할 수 있는 영역 ROPP를 좁게 설정하여 보행자 검증에 소요되는 시간을 절약하도록 하는 보행자 보호 시스템 및 방법을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a pedestrian protection system and method for reducing the time required for the pedestrian verification by narrowing the area ROPP in which a future route can exist in consideration of the speed and the angular speed.

또한, 본 발명은 속도 및 각속도를 고려하여 미래 경로가 존재할 수 있는 영역 ROPP를 룩업 테이블을 이용하여 학습과 활용이 용이할 수 있도록 하는 보행자 보호 시스템 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a system and method for protecting a pedestrian, which can easily learn and utilize a region ROPP in which a future route may exist, taking a speed and an angular speed into consideration by using a lookup table.

상기와 같은 목적을 달성하기 위한 본 발명의 보행자 보호 방법은, 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성 단계; 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 단계; 상기 ROPP의 좌변 및 우변 외측 영역을 미리 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 단계; 및 상기 후보 생성 단계를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계; 및 상기 필터링된 보행자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증 단계를 포함하고, 상기 ROPP를 산출하는 단계는, 차량의 속도 및 각속도를 이용하여 방향 오류 범위를 설정하고, 상기 방향 오류 범위 및 최대 가속도를 이용하여 ROPP를 산출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a pedestrian protection method comprising: a candidate generation step of extracting a pedestrian candidate object from an input image; Calculating a Region of Prediction Path (ROPP), which is an area where a future route of the vehicle may exist, through statistical analysis of the driving data; Expanding the left and right outer regions of the ROPP according to a preset reference to calculate the ROD; And selecting and outputting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generating step; And a candidate verification step of performing a candidate verification on each of the filtered candidate pedestrian objects to detect a pedestrian in a dangerous state. The step of calculating the ROPP may include setting a direction error range using the speed and angular velocity of the vehicle And the ROPP is calculated using the direction error range and the maximum acceleration.

상기 ROPP를 산출하는 단계는, 상기 최대 가속도와 상기 방향 오류 범위를 이용하여 미리 설정된 룩업 테이블에 의해 ROPP를 산출하는 것을 특징으로 한다.The step of calculating the ROPP may include calculating a ROPP using a preset lookup table using the maximum acceleration and the direction error range.

상기 ROPP를 산출하는 단계가 상기 룩업 테이블에 의할 때, 상기 ROPP를 산출하는 단계는, 차속(v) 및 각속도(ω)를 입력하는 단계; "

Figure 112017090097535-pat00001
" 및 "
Figure 112017090097535-pat00002
"를 근거로 예측시간 T 동안의 예상 경로 끝점(x(T), y(T))을 계산하는 단계; "Φ(T)=tan-1(y(T)/x(T))"의 식에 따라 상기 예상 경로 끝점의 위상각(Φ(T))을 계산하는 단계; CTRV 모션 모델을 근거로 EKF(Extended Kalman Filtering)를 적용하는 CTRV_EKF에 근거해 보정된 차속(v') 및 각속도(ω')가 속하는 셀(cell)을 선택하는 단계; 상기 선택된 셀로부터 방향오류 평균(μ φ )과 표준편차(σ φ )를 추출하여 “Δφ max = μ φ + βσ φ , Δφ min = μ φ - βσ φ 의 식에 따라 최대 방향오류(Δφ max ) 및 최소 방향오류(Δφ min )를 계산하는 단계; 상기 최대 방향오류(Δφ max ) 및 최소 방향오류(Δφ min )를 기반하여 “Φ(T) + Δφ min ~ Φ(T) + Δφ max ”를 ROPP의 위상각 범위로 정의하는 단계; 상기 선택된 셀로부터 가속도의 평균(μ a )과 표준편차(σ a )를 추출하여 “a max = μ a + βσ a ”의 식에 따라 상기 최대가속도(a max )를 계산하는 단계; "
Figure 112017090097535-pat00003
"에 근거해 최대 도달거리(smax(v))를 계산하는 단계; 및 반지름이 smax(v)이고 위상각이 Φ(T) + Δφ min ~ Φ(T) + Δφ max 범위인 부채꼴로 정의되는 ROPP를 산출하는 단계를 포함하며, 상기 셀을 선택하는 단계에서, 해당되는 셀이 없을 경우 거리가 가장 가까운 활성영역의 셀을 선택하고, 상기 x 및 y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, 상기 v은 속도를, 상기 ω는 각속도를, 상기 t는 시각을, 상기 T는 예측 시간을 나타내는 것을 특징으로 한다.When calculating the ROPP according to the lookup table, the step of calculating the ROPP includes: inputting the vehicle speed v and the angular speed omega; "
Figure 112017090097535-pat00001
"And"
Figure 112017090097535-pat00002
"Calculating a predicted path end point (x (T), y ( T)) for the prediction time T on the basis of;" Φ (T) = tan -1 (y (T) / x (T)) " of Calculating a phase angle (? (T)) of the estimated path end point in accordance with the equation (4), calculating a corrected vehicle speed (v ') and angular velocity (?) Based on CTRV_EKF applying Extended Kalman Filtering ω ') is extracted from the selected cell and a direction error average ( μ φ ) and a standard deviation ( σ φ ) are extracted from the selected cell to obtain "Δ φ max = μ φ + βσ φ , Δ φ min = μ φ - calculating a maximum orientation errors (Δ φ max) and the minimum direction errors (Δ φ min) on the basis of a formula βσ φ "; The maximum orientation errors (Δ φ max) and the minimum direction errors (Δ φ min) the base by "Φ (T) + Δ φ min ~ Φ (T) + Δ φ max" the step of defining a phase angle range of ROPP ; From the selected cell by the extracting mean a) and the standard deviation a) of the acceleration "a max = according to the expression of μ a + βσ a "calculating the maximum acceleration (a max); "
Figure 112017090097535-pat00003
"By calculating a maximum reach (s max (v)) based on; a and the radius of s max (v) a phase angle Φ (T) + Δ φ min ~ Φ (T) + Δ φ max range Wherein the step of selecting the cell selects a cell of the active region closest to the cell in the absence of the corresponding cell, wherein x and y are set to x Axis and y-axis, v is a velocity,? Is an angular velocity, t is a time, and T is a predicted time.

상기 ROD을 산출하는 단계는 미리 저장해 둔 차량 횡방향 폭(W)을 파악하는 단계; 및 상기 ROPP의 좌변 및 우변 외측 영역을 상기 차량 횡방향 폭(W)의 절반(W/2)만큼 각각 확장함으로써, 상기 ROD을 획득하는 단계를 포함하는 것을 특징으로 한다.The step of calculating the ROD includes: determining a vehicle lateral width (W) stored in advance; And obtaining the ROD by expanding the left and right outer regions of the ROPP by half (W / 2) of the vehicle lateral width (W), respectively.

상기 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계는 상기 ROD를 상기 입력 영상에 투영하는 단계; 및 상기 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, 상기 ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별 및 출력하는 단계를 포함하는 것을 특징으로 한다.Selecting and outputting only the pedestrian candidates located in the ROD may include projecting the ROD onto the input image; And comparing the ROD position projected on the input image with the position of the candidate pedestrian object and selecting and outputting only the pedestrian candidate objects located in the ROD as a verification object.

상기 ROD를 상기 입력 영상에 투영하는 단계는 "

Figure 112017090097535-pat00004
"에 따라 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환하며, 상기 x(u, v, 1)는 입력 영상 좌표계, 상기 X(X, Y, Z, 1)는 차량 중심 좌표계, 상기 P는 카메라의 투사 매트릭스인 것을 특징으로 한다.Wherein projecting the ROD to the input image comprises:
Figure 112017090097535-pat00004
"Converts the vehicle center coordinate of ROD to the input image coordinate system, the x (u, v, 1) is the input image coordinate system, the X (X, Y, Z, 1) is a vehicle central coordinate system, wherein P is the camera according to the Is a projection matrix of < / RTI >

본 발명의 다른 실시 예에 따른 보행자 보호 시스템은, 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부; 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 ROPP 산출부; 상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 상기 ROD을 산출하는 ROD 산출부; 및 상기 후보 생성부를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별하여 상기 후보 검증부에 전달하는 보행자 후보 선별부; 및 상기 필터링된 후보자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증부를 포함하고, 상기 ROPP 산출부는, 차량의 속도 및 각속도를 이용하여 방향 오류 범위를 설정하고, 상기 방향 오류 범위 및 최대 가속도를 이용하여 ROPP를 산출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a pedestrian protection system including: a candidate generator for extracting a pedestrian candidate object from an input image; An ROPP calculation unit for calculating a region of prediction path (ROPP), which is an area where a future route of the vehicle can exist through statistical analysis of the traveling data; An ROD calculation unit for calculating the ROD by expanding the left and right outer regions of the ROPP according to predetermined criteria; And a pedestrian candidate selecting unit for selecting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generating unit and transmitting the pedestrian candidates to the candidate verifying unit. And a candidate verifying unit for performing a candidate verification on each of the filtered candidate candidate objects to detect a pedestrian in a dangerous state. The ROPP calculating unit sets a direction error range using the speed and angular velocity of the vehicle, And the ROPP is calculated using the error range and the maximum acceleration.

상기 ROPP 산출부는, 상기 최대 가속도와 상기 방향 오류 범위를 이용하여 미리 설정된 룩업 테이블에 의해 ROPP를 산출하는 것을 특징으로 한다.And the ROPP calculator calculates ROPP using a preset lookup table using the maximum acceleration and the direction error range.

상기와 같은 본 발명의 보행자 보호 시스템 및 방법에 따르면, 후보생성, 후보검증, 위험도평가의 3단계에 따라 능동적 보행자 보호를 위한 보행자를 검출하는 경우, 후보 검증의 처리 부하가 상대적으로 큼을 고려하여, 위험도평가를 후보검증 이전에 수행하도록 한다. 그 결과 후보 검증의 처리 부하가 최소화되어 처리 시간이 감소되게 되며, 이에 따라 시스템 전체의 실시간성이 개선되게 된다.According to the pedestrian protection system and method of the present invention, when the pedestrian for active pedestrian protection is detected according to the three steps of candidate generation, candidate verification, and risk evaluation, considering the relatively large processing load of the candidate verification, Risk assessment should be performed prior to candidate verification. As a result, the processing load of the candidate verification is minimized and the processing time is reduced, thereby improving the real-time performance of the entire system.

또한, 본 발명은 속도 및 각속도를 고려하여 미래 경로가 존재할 수 있는 영역 ROPP를 좁게 설정함으로써, ROD를 더 좁게 설정할 수 있으며, 이에 따라 보행자 검증에 소요되는 시간을 절약할 수 있게 된다.Also, according to the present invention, the ROP can be set to be narrower by narrowly setting the area ROPP in which the future route may exist in consideration of the speed and the angular speed, thereby saving time required for the pedestrian verification.

또한, 본 발명은 가속도와 방향오류의 최대값을 속도와 각속도 공간의 룩업 테이블로 구현함으로써, 학습 및 사용이 더욱 용이하게 된다.Further, the present invention implements the maximum value of the acceleration and the direction error as a look-up table of the speed and the angular velocity space, so that the learning and use becomes easier.

도 1은 본 발명의 일 실시 예에 따른 보행자 보호 방법을 설명하기 위한 도면이다.
도 2는 차량 회전 시에 발생될 수 있는 CTRV 모션 모델을 사용한 물리학 기반 경로 예측의 문제점을 나타낸 도면이다.
도 3은 속도-각속도와 가속도 사이의 관계에 따라 변화되는 종방향 운동 상태 범위를 설명하기 위한 도면이다.
도 4는 속도-각속도와 방향오류 사이의 관계에 따라 변화되는 횡방향 운동 상태 범위를 설명하기 위한 도면이다.
도 5는 차량 주행 시 속도에 따른 방향오류의 범위를 비교하여 설명하기 위한 도면이다.
도 6은 방향 오류의 정의를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 룩업 테이블 생성을 위한 속도-각속도 평면의 셀 분할을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 RODPP 산출 단계를 보다 상세히 설명하기 위한 도면이다.
도 9및 도 10은 본 발명의 일 실시 예에 따른 ROD 산출 단계를 보다 상세히 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 보행자 후보 객체 선별 단계를 보다 상세히 설명하기 위한 도면이다.
도 12는 차량 주행 시 다양한 상황에서 설정된 ROPP를 설명하기 위한 도면이다.
도 13은 차량 주행 시 다양한 상황에서 설정된 ROD를 설명하기 위한 도면이다.
도 14 및 도 15는 차량 주행 시 다양한 상황에서 설정된 ROD를 전방 연상 상에서 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시 예에 따른 보행자 보호 시스템을 설명하기 위한 도면이다.
1 is a view for explaining a pedestrian protection method according to an embodiment of the present invention.
2 is a diagram illustrating a problem of a physics-based path prediction using a CTRV motion model that can be generated at the time of vehicle rotation.
Fig. 3 is a view for explaining a range of longitudinal motion state which varies according to the relationship between the velocity-angular velocity and the acceleration. Fig.
4 is a diagram for explaining the range of the lateral motion state, which is changed according to the relationship between the velocity-angular velocity and the direction error.
5 is a view for explaining a range of a direction error according to the speed when the vehicle is running.
6 is a diagram for explaining the definition of a direction error.
FIG. 7 is a diagram for explaining cell division of a velocity-angular velocity plane for generating a look-up table according to an embodiment of the present invention.
8 is a diagram for explaining the RODPP calculation step according to an embodiment of the present invention in more detail.
9 and 10 are views for explaining the ROD calculation step according to an embodiment of the present invention in more detail.
11 is a diagram for explaining the step of selecting a candidate for a pedestrian according to an embodiment of the present invention in more detail.
12 is a diagram for explaining ROPP set in various situations when the vehicle is running.
13 is a view for explaining an ROD set in various situations when driving the vehicle.
Figs. 14 and 15 are diagrams for explaining the ROD set in various situations when driving the vehicle, in a forward-looking manner.
16 is a view for explaining a pedestrian protection system according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms can be understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as " comprising " or " comprising " and the like should not be construed as encompassing various elements or various steps of the invention, Or may further include additional components or steps.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 보행자 보호 방법을 설명하기 위한 도면이다.1 is a view for explaining a pedestrian protection method according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 보행자 보호 방법은 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성(HG) 단계(S10), 주행 데이터로부터 ROD(Region of Danger)을 파악한 후, 이를 기반으로 차량 출동 가능성이 있는 보행자 후보 객체를 선별하는 위험도 평가(RA) 단계(S20), 및 CNN(Convolutional Neural Network)에 기반한 후보 검증 동작을 선별된 보행자 후보 객체 각각에 대해 수행하여, 위험 상태의 보행자를 검출 및 통보하는 후보 검증(HV) 단계(S30) 등을 포함할 수 있다. Referring to FIG. 1, the pedestrian protection method of the present invention includes a candidate generation (HG) step S10 for extracting a pedestrian candidate object from an input image, an ROD (Region of Danger) from the travel data, A risk assessment (RA) step S20 for selecting candidates of possible pedestrian candidates, and a candidate verification operation based on CNN (Convolutional Neural Network) are performed for each of the selected candidate pedestrian objects, And a candidate verification (HV) step S30 to notify.

즉, 본 발명에서는 종래에서와 달리 HV 단계(S30) 이전에 RA 단계(S20)를 수행하도록 한다. 이렇게 동작 순서가 변경되면, RA 단계(S20)에서는 종래에 비해 많은 수의 입력을 처리해야 하나, HV 단계(S30)에서는 종래에 비해 작은 수의 입력을 처리하게 된다. 그러나 HV 단계(S30)의 계산 요구량이 RA 단계(S20)에 비해서 월등히 크기 때문에, 결과적으로 본 발명의 방법은 종래에 비해 단축된 동작시간을 가질 수 있게 된다. That is, in the present invention, the RA step S20 is performed before the HV step S30, unlike the conventional method. If the operation sequence is changed, a larger number of inputs must be processed in the RA step S20 than in the conventional case, but a smaller number of inputs are processed in the HV step S30 than in the conventional case. However, since the calculation request amount of the HV step S30 is much larger than that of the RA step S20, the method of the present invention can have a shortened operation time as compared with the conventional method.

예를 들어, 보행자 후보 하나를 처리하는데 HV 단계(S30)와 RA 단계(S20) 각각이 10ms와 0.1ms를 소비한다고 가정하도록 한다(이는 HV 단계(S30)의 계산 요구량이 RA 단계(S20)에 비해서 100배 크다고 가정한 것인데, 일반적으론 더 큰 값을 가진다). For example, it is assumed that each of the HV step (S30) and the RA step (S20) consumes 10 ms and 0.1 ms to process one pedestrian candidate (this means that the calculation requirement of the HV step (S30) Assuming that it is 100 times as large as it is, it generally has a larger value).

이러한 경우 HG 단계에서 10개의 보행자 후보를 출력하고 HV가 4개의 보행자를 출력하고 RA 단계에서 2명의 위험한 보행자를 출력한다면, 종래 방식에서는 HV가 10번 작동하고 RA가 4번 작동하므로 HV와 RA가 소비하게 되는 시간은 "10ms×10+0.1ms×4=100.4ms"가 된다. In this case, if 10 pedestrian candidates are output at the HG level, HV outputs 4 pedestrians, and 2 pedestrians are output at the RA stage, HV and RA are operated 10 times and 4 times, respectively, The time consumed is "10 ms × 10 + 0.1 ms × 4 = 100.4 ms".

반면, HG 단계에서 10개의 보행자 후보를 출력하고 RA가 4개의 위험한 보행자 후보를 출력하고 HV가 2명의 위험한 보행자를 출력한다면, 본 발명에서 RA가 10번 작동하고 HV가 4번 작동하므로 HV와 RA가 소비하게 되는 시간은 "0.1ms×10+10ms×4=41ms"가 된다. On the other hand, if 10 pedestrian candidates are output at the HG level, the RA outputs 4 dangerous pedestrian candidates, and the HV outputs 2 dangerous pedestrians, the present invention operates RA 10 times and HV 4 times, Is " 0.1 ms x 10 + 10 ms x 4 = 41 ms ".

즉, HV 단계의 수행시간이 RA 단계의 수행시간에 비해 월등히 크기 때문에 시스템 수행시간이 HV 단계가 처리하는 입력의 개수에 근사적으로 비례하게 된다. That is, since the execution time of the HV step is much larger than the execution time of the RA step, the system execution time is approximately proportional to the number of inputs processed by the HV step.

이에 본 발명은 HV 단계에서 정보 처리량을 감소시켜 시스템 전반의 동작 시간이 단축되도록 하고, 그 결과 시스템 실시간성까지 개선되도록 해준다. Therefore, the present invention reduces the information processing amount in the HV step, thereby shortening the operation time of the entire system, and consequently improving system real-time performance.

도 1을 계속하여 참고하면, 본 발명의 RA 단계(S20)는 다시 차량의 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 단계(S21), ROPP를 기반으로 보행자가 위험한 영역인 ROD(Region of Danger)을 산출하는 단계(S22), 및 다수의 보행자 후보 중 ROD에 위치하는 보행자 후보만을 차량 출동 가능성이 있는 보행자 후보 객체로 선별한 후, HV 단계(S30)에 전달하는 단계(S23)를 포함할 수 있다.1, the RA step S20 of the present invention includes a step S21 of calculating a region of a prediction path (ROPP) which is an area where a future route of the vehicle can exist through statistical analysis of the traveling data of the vehicle (Step S22) of calculating a dangerous area ROD (Region of Danger) based on the ROPP, and a step of selecting only a pedestrian candidate located in the ROD among a plurality of pedestrian candidates as a candidate pedestrian candidate , And transmitting it to the HV step S30 (S23).

이하, 도 2 내지 도 14를 참고하여, 본 발명의 일 실시 예에 따른 RA 단계(S20)에 대해 보다 상세히 살펴보면 다음과 같다.Hereinafter, the RA step S20 according to an exemplary embodiment of the present invention will be described in more detail with reference to FIG. 2 to FIG.

참고로, 차량 경로 예측은 크게 물리학 기반(physics-based), 의도 기반(maneuver-based), 상호작용 기반(interaction-based)의 3가지 방법으로 수행될 수 있다. 물리학 기반 예측 방법은 속도, 가속도, 각속도 등 현재의 운동 상태를 연장하여 경로를 예측하는 것으로, 이는 비교적 가벼운 알고리즘으로 실시간 구현이 용이하지만, 예측 가능 시간이 제한적이며 급격한 방향전환이 많은 도심에서 큰 오류가 발생한다. 이와 같은 불확실성의 원인은 차량 운동이 기본적으로 운전자의 의도에 따라 계속적으로 조종되기 때문이다. 의도 기반 예측 방법은 운전자의 의도를 파악함으로써 이런 불확실성을 감소시키는 장점이 있으나, 운전자의 의도를 파악하기 위해서는 지도, 전방 영상, 운전자 영상 등 다양한 대용량 정보를 처리해야 하는 부담이 생기기 때문에, 양산제품 적용은 아직 제한적이라는 단점이 있다. 상호작용 기반 예측 방법은 차량과 타차의 상호작용까지 고려하는 방법으로, 아직 개발 초기 단계에 머물고 있다. For reference, vehicle path prediction can be largely performed in three ways: physics-based, maneuver-based, and interaction-based. The physics-based prediction method is to predict the path by extending the current motion state such as speed, acceleration, and angular velocity. This is a relatively light algorithm that is easy to implement in real time. However, it has a limited predictable time and a large error Lt; / RTI > The reason for this uncertainty is that the vehicle movement is basically steered continuously according to the intention of the driver. The intention-based prediction method has the advantage of reducing the uncertainty by grasping the driver's intention. However, since it takes a burden to process various large-volume information such as map, forward image, and driver image in order to understand the intention of the driver, Is still limited. Interaction-based prediction method is a method to consider interaction between vehicle and other vehicle, and is still in the early stage of development.

이에 본 발명은 물리학 기반(physics-based) 예측 방법을 활용하여 ROPP를 예측하도록 한다. Accordingly, the present invention predicts ROPP using a physics-based prediction method.

물리학 기반(physics-based) 경로 예측은 차속과 각속도가 짧은 시간 동안 일정하다고 가정하는 CTRV(Constant Turn-Rate and Velocity) 모션 모델을 기반으로 예상 경로 끝점(x(t), y(t))을 계산할 수 있다. Physics-based path prediction is based on a predicted path endpoint (x (t), y (t)) based on the Constant Turn-Rate and Velocity (CTRV) motion model assuming that the vehicle velocity and angular velocity are constant over a short period of time. Can be calculated.

[수학식1] [Equation 1]

Figure 112017090097535-pat00005
Figure 112017090097535-pat00005

[수학식2]&Quot; (2) "

Figure 112017090097535-pat00006
Figure 112017090097535-pat00006

이때, x, y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, v은 차속을, ω는 각속도를, t는 시각을 각각 의미한다. t는 현재 시점인 0s에서 최대 예측 시각 T(예를 들면, 3초)까지 증가될 수 있다. In this case, x and y are coordinates on the coordinate system having the x-axis and the y-axis as the front and the left sides of the vehicle, v is the vehicle speed, ω is the angular speed, and t is the time. t can be increased from the current time point 0s to the maximum predicted time T (for example, 3 seconds).

한편, 차량 포즈(pose) 추정에 자주 사용되는 CTRA 모션 모델은 저속 주행을 포함하는 경로 예측에는 적합하지 않는 문제점을 가진다. 저속 주행 시 큰 감속도로 차속이 거의 0m/s에 가까워지는 상황이 자주 발생하는데, 이 경우 CTRA 모션 모델은 미래 경로를 차량 후진방향으로 예측하는 문제점이 있기 때문이다. On the other hand, the CTRA motion model frequently used for vehicle pose estimation has a problem that it is not suitable for path prediction including low-speed travel. It is because the CTRA motion model has a problem of predicting the future route in the vehicle backward direction.

또한 CTRV 모션 모델은 회전 시에 큰 오차를 발생시키는 문제점도 가진다. 조향각을 일정하게 유지하는 곡선로와 달리, 회전 시에 운전자는 조향각을 점진적으로 크게 했다가 다시 점진적으로 작게 조정하는 데, 이때 회전 반경은 조향각이 커질수록 작아지기 때문에, 현재 상태의 회전 반경을 기준으로 미래 경로를 예측할 경우 큰 오차가 발생되기 때문이다.Also, the CTRV motion model has a problem of generating a large error during rotation. In contrast to the curved line which keeps the steering angle constant, the driver gradually increases the steering angle gradually and then adjusts it gradually smaller. At this time, since the turning radius becomes smaller as the steering angle becomes larger, Because a large error is generated when the future path is predicted.

도 2는 차량 회전 시에 발생될 수 있는 CTRV 모션 모델을 사용한 물리학 기반 경로 예측의 문제점을 나타낸 도면이다. 2 is a diagram illustrating a problem of a physics-based path prediction using a CTRV motion model that can be generated at the time of vehicle rotation.

도 2에서, 청색 점선은 t=0~T 기간 동안의 실제 경로를 표현한 것이고, 적색 점선은 예측 경로를 표현한 것이며, 차량이 왼쪽에서 위쪽으로 녹색 경로를 따라 회전하는 상황이라고 가정하기로 한다. In FIG. 2, it is assumed that the blue dotted line expresses the actual path during the period of t = 0 to T, the red dotted line represents the predicted path, and the vehicle rotates along the green path from the left to the upper right.

도 2의 (a)는 좌회전 직전 시 차량의 실제 경로와 예측 경로를 보여주는 도면으로, 실제 경로를 보면 차속이 감소하고 위쪽으로 방향 전환이 시작되지만, 물리학 기반 경로 예측 방법은 차량이 현재까지는 직진 중임을 고려하여 현재 속도를 유지하는 직선 경로를 예측하게 된다. 2 (a) is a view showing the actual path and the predicted path of the vehicle immediately before the left turn. In the actual path, the vehicle speed is decreased and the direction change is started upward. However, in the physics-based path prediction method, The straight line path that maintains the current speed is predicted.

도 2의 (b)는 좌회전이 거의 완료된 상황에서의 차량의 실제 경로와 예측 경로를 보여주는 도면으로, 실제 경로를 보면 차속이 증가하고 위쪽으로 직진하기 시작하지만, 물리학 기반 경로 예측 방법은 현재까지는 곡선 경로 상에 있기 때문에 현재 회전 반경을 유지하는 곡선 경로를 예측하게 된다. FIG. 2 (b) is a diagram showing an actual path and a predicted path of the vehicle in a situation where the left turn is almost completed. In the actual path, the vehicle speed increases and starts to go straight upward. However, Because it is in the path, it predicts the curved path that maintains the current turning radius.

도2의 (c)는 좌회전하는 동안 실제 경로와 예상 경로를 각각 원에 피팅(fitting)하여 계산한 추정 곡률(실제 곡률로 간주, 청색 실선)과 예상 곡률(적색 실선)의 그래프로, 이를 참고하면 예상 곡률이 추정 곡률보다 작았다가 커지고 그 오차의 크기도 일정하지 않기 때문에, 단순한 방법으로 이를 보상하기 곤란함을 알 수 있다.2 (c) is a graph of estimated curvature (assumed to be an actual curvature, blue solid line) and estimated curvature (red solid line) calculated by fitting a real path and a predicted path to a circle during a left turn, It can be seen that it is difficult to compensate it by a simple method because the estimated curvature is smaller than the estimated curvature and the size of the error is not constant.

이와 같은 물리학 기반 경로예측의 한계는 운전자가 계속적으로 차량 운동을 조정하기 때문에 발생하는데, 저속에서 회전하는 경우 조향각 변화의 크기와 변화율이 모두 크기 때문에 상기와 같은 오류가 필연적으로 발생한다. The limitation of such a physics-based path prediction occurs because the driver constantly adjusts the vehicle motion. In the case of rotating at a low speed, the above-mentioned error necessarily occurs because the magnitude and rate of change of the steering angle are both large.

따라서 정확한 미래 경로를 확정할 수 없다면, 미래 경로가 존재할 수 있는 영역을 최대한 작게 예측하는 방법이 차선책일 것이다. 이에 본 발명에서는 주행 데이터를 통계적으로 분석함으로써, 미래 경로가 존재할 수 있는 영역인 ROPP를 최소의 크기를 가지는 부채꼴 형태로 예측함으로써, 상기와 같은 오류의 발생 가능성을 최소화하도록 한다. Therefore, if it is not possible to determine the precise future path, the next best way is to predict the area where the future path can exist as small as possible. In the present invention, the probability of occurrence of the error is minimized by statistically analyzing the traveling data to predict the ROPP, which is a region where a future route can exist, in a sector shape having a minimum size.

차량은 기본적으로 ESC(Electronic Stability Control)와 같은 전자제어 샤시 제어 시스템 등을 포함하며, ESC는 속도와 각속도 등을 포함하는 주행 데이터를 제공할 수 있다. The vehicle basically includes an electronic control chassis control system such as an electronic stability control (ESC), etc., and the ESC can provide driving data including a speed and an angular speed.

이에 본 발명은 주행 데이터에 포함된 속도와 각속도에 기반하여 차량의 경로를 예측하도록 한다. 특히, 운전자는 차속에 따라서 상당히 다른 운전행태를 보임을 고려하여 차속에 따른 종/횡방향 운동 상태 범위를 모델링한 후, 이들을 근거로 미래 경로가 존재할 수 있는 영역 ROPP를 계산하도록 한다.Therefore, the present invention predicts the vehicle path based on the speed and the angular speed included in the running data. In particular, the driver models the range of longitudinal / lateral motion according to the vehicle speed considering the considerably different driving behavior according to the vehicle speed, and then calculates the area ROPP in which the future route can exist based on the model.

이 때, 종방향 운동 상태 범위는 속도-각속도와 가속도 사이의 관계에 따라 결정되며, 횡방향 운동 상태 범위는 속도-각속도와 방향오류 사이의 관계에 따라 결정되는 특징이 있다.At this time, the range of the longitudinal motion state is determined by the relationship between the velocity-angular velocity and the acceleration, and the lateral motion state range is characterized by the relationship between the velocity-angular velocity and the direction error.

먼저, 도 3을 참고하여 속도-각속도와 가속도 사이의 관계에 따라 변화되는 종방향 운동 상태 범위를 살펴보기로 한다.First, referring to FIG. 3, a description will be made of a range of a longitudinal motion state varying according to a relationship between a velocity-angular velocity and an acceleration.

도 3의 (a)는 속도에 따른 가속도의 범위를 나타내는 도면이고, 도 3의 (b)는 각속도에 따른 가속도의 범위를 나타내는 도면이다.Fig. 3 (a) is a diagram showing the range of the acceleration according to the velocity, and Fig. 3 (b) is the diagram showing the range of the acceleration according to the angular velocity.

도 3의 (a)를 참고하면, 차속이 0에 가까울 때에는 가속도의 범위가 비교적 넓고, 일정 속도에 도달하면 가속도의 범위가 크게 감소한다. 이와 같이, 속도에 따른 최대 가속도는 반비례 관계로 근사화할 수 있다.Referring to FIG. 3 (a), when the vehicle speed is close to zero, the range of the acceleration is relatively wide, and when the vehicle speed reaches a certain speed, the range of the acceleration greatly decreases. Thus, the maximum acceleration according to the speed can be approximated in an inverse proportion relation.

도 3의 (b)를 참고하면, 각속도의 경우 절대값이 0.1보다 작은 경우(|ω|<0.1)에는 직진주행 상태로, 0.1보다 크거나 같은 경우(|ω|≥0.1)를 회전 주행 상태로 볼 수 있으며, 가속도의 부호는 회전방향을 나타낸다.Referring to FIG. 3 (b), when the absolute value of the angular velocity is smaller than 0.1 (|? | <0.1), the vehicle is in the straight running state and when the absolute value is greater than or equal to 0.1 (|? |? 0.1) And the sign of the acceleration indicates the direction of rotation.

도 3의 (b)에서 각속도의 절대 값이 0에 가까운 직진주행의 경우에는 속도의 변화가 크게 발생할 가능성이 높기 때문에 가속도의 범위가 넓게 나타나고, 각속도의 절대값이 큰 회전주행의 경우에는 직진주행에 비해 크게 감속 또는 가속을 하는 경우가 거의 없어서 가속도의 범위가 좁게 나타나는 것을 확인할 수 있다. 반면에 최대가속도는 각속도에 상관없이 일정하게 유지되는 것을 확인할 수 있다. ROPP를 결정할 때는 최대가속도만 필요로 하기 때문에, 종방향의 경우에는 각속도에 따른 분석은 큰 의미를 갖지 않는다.3 (b), the range of the acceleration is wide because of a high possibility of occurrence of a large change in the speed in the case of the straight running in which the absolute value of the angular velocity is close to zero. In the case of the rotational running in which the absolute value of the angular velocity is large, It is possible to confirm that the range of the acceleration is narrowed. On the other hand, it can be seen that the maximum acceleration is kept constant regardless of the angular velocity. Since the maximum acceleration is required when determining the ROPP, the analysis according to the angular velocity is not significant in the longitudinal direction.

또한, 도 4를 참고하여 속도-각속도와 방향오류 사이의 관계에 따라 변화되는 횡방향 운동 상태 범위를 살펴보기로 한다.Referring to FIG. 4, a description will be made of a range of a lateral motion state that changes according to a relationship between a velocity-angular velocity and a direction error.

도 4의 (a)는 속도에 따른 방향오류의 범위를 나타내는 도면이고, 도 4의 (b)는 각속도에 따른 방향오류의 범위를 나타낸 도면이다.FIG. 4A is a diagram showing a range of a direction error according to a speed, and FIG. 4B is a diagram showing a range of a direction error according to an angular velocity.

도 4의 (a)를 참고하면, 가속도와 마찬가지로, 방향오류도 속도가 증가함에 따라 그 범위가 감소되는 반비례 관계로 근사화할 수 있다. Referring to FIG. 4 (a), as in the case of the acceleration, the direction error can be approximated to an inverse relationship in which the range decreases as the velocity increases.

반면에, 도 4의 (b)를 참고하면, 각속도의 값에 따라서 방향오류의 범위의 폭은 비교적 일정하지만, 범위의 위치는 달라지는 것을 확인할 수 있다. On the other hand, referring to (b) of FIG. 4, it can be seen that the range of the direction error is relatively constant according to the value of the angular velocity, but the position of the range is different.

각속도가 양의 방향(좌회전)으로 증가할 때는 방향오류의 범위가 음수 값(실제경로가 예상경로를 기준으로 우측에 존재)을 가지며, 각속도가 음의 방향(우회전)으로 그 값이 증가할 때는 방향오류의 범위가 양수 값(실제경로가 예상경로를 기준으로 좌측에 존재)을 갖는다. 즉, 횡방향 운동상태를 분석할 때 직진주행과 회전주행을 구분하지 않고 하나의 운동상태로 분석하게 되면 직진주행과 회전주행 모두에서 불필요하게 넓은 ROPP를 얻게 되는 것이다.When the angular velocity increases in the positive direction (left turn), the range of the direction error has a negative value (the actual path is on the right side with respect to the expected path), and when the angular velocity increases in the negative direction The range of directional errors has a positive value (the actual path is on the left with respect to the expected path). That is, when analyzing the lateral motion state, analyzing into one motion state without distinguishing between the straight travel and the rotational travel results in obtaining an unnecessarily wide ROPP in both the straight travel and the rotation travel.

따라서, 횡방향 운동상태를 분석할 때에는 직진주행과 회전주행을 구분하여 분석하여야 한다.Therefore, when analyzing the lateral motion state, it is necessary to analyze the distinction between the straight running and the running.

도 5는 차량 주행 시 속도에 따른 방향오류의 범위를 비교하여 설명하기 위한 도면이다.5 is a view for explaining a range of a direction error according to the speed when the vehicle is running.

도 5를 참고하면, 각속도를 고려하여 방향오류 범위를 설정할 경우, ROPP가 횡방향으로 감소될 것이라고 예상되는 것을 확인할 수 있다.Referring to FIG. 5, it can be confirmed that when the direction error range is set in consideration of the angular velocity, the ROPP is expected to be reduced in the lateral direction.

방향오류 범위의 설정 방법 중, 한국 등록 특허 제10-1770924호에 제안된 방법인 속도에 따른 방향오류 절대값의 최대 및 최소 함수를 활용하여 설정하는 방법이 있다. 상기 방법은 각속도에 상관없이 동일한 속도에서는 동일한 방향오류 범위를 갖는다고 가정하여 설정한 것이다.Among the methods of setting the direction error range, there is a method of setting using the maximum and minimum functions of the direction error absolute value according to the speed proposed in Korean Patent No. 10-1770924. The above method assumes that the same directional error range is obtained at the same speed regardless of the angular velocity.

그러나, 주행 데이터를 확인해보면 각속도 값에 따라 방향오류 범위가 다르게 나타나는 것을 확인할 수 있다.However, when checking the running data, it can be confirmed that the direction error range is different depending on the angular velocity value.

도 5는 직진 주행 중의 방향오류 분포(녹색 점들)와 좌회전 중의 방향오류 분포(적색 점들)를 나타낸다. 진한 청색 선과 밝은 청색 선은 각각 설정된 최대, 최소 방향오류 함수를 나타낸다. 직진 주행 시의 방향오류 범위는 최대, 최소 방향오류 함수 사이에 포함되지만, 좌회전 시의 방향오류 범위는 두 함수 사이를 벗어날 뿐만 아니라 그 폭도 좁게 나타난다.5 shows the direction error distribution (green dots) during the straight running and the directional error distribution (red dots) during the left turning. The dark blue line and the bright blue line represent the set maximum and minimum error functions, respectively. The direction error range in the straight run is included between the maximum and minimum direction error functions, but the direction error range at the left turn not only goes out between the two functions but also narrows.

예를 들어, 좌회전 중이면서 속도가 5m/s일 때, 한국 등록 특허 제10-1770924호에 제안된 방법은, 방향 오류의 범위를 A로 설정하게 되지만, 각속도를 고려하여 좌회전 중의 데이터만 구분하여 분석하게 되면 방향 오류의 범위를 B로 설정하게 된다. For example, when the speed is 5 m / s and the speed is 5 m / s, the method proposed in Korean Patent No. 10-1770924 sets the range of the direction error to A. However, considering the angular speed, When analyzing, the range of the direction error is set to B.

결과적으로, 한국 등록 특허 제10-1770924호에 제안된 방법은 A-B만큼의 불필요한 영역을 만들어내기 때문에 효율성이 저하되는 것으로 분석되며, 방향오류 범위의 각속도를 고려하여 설정할 수 있다면 ROPP의 위상각 범위를 축소시킬 수 있음을 알 수 있다.As a result, the method proposed in Korean Patent No. 10-1770924 is considered to reduce the efficiency because it generates unnecessary areas as much as AB. If the angular velocity of the direction error range can be set in consideration of the efficiency, the phase angle range of ROPP Can be reduced.

따라서, 상기 도 5에서 방향오류의 범위를 비교한 결과와 같이, ROPP의 위상각 범위를 축소시키기 위하여, 각속도를 고려하여 설정한 방향오류 범위의 정의를 설명한다.Therefore, as shown in FIG. 5, the definition of the direction error range set in consideration of the angular velocity will be described in order to reduce the phase angle range of the ROPP.

도 6은 방향 오류의 정의를 설명하기 위한 도면이다.6 is a diagram for explaining the definition of a direction error.

상기 한국 등록 특허 제10-1770924호에 제안된 방법은, 방향오류를 CTRV를 기반으로 얻은 예상경로의 끝점과 실제 경로의 끝점 사이의 방향각도로 정의한다. The method proposed in Korean Patent No. 10-1770924 defines a direction error as a directional angle between the end point of the expected path obtained based on the CTRV and the end point of the actual path.

상기 방법의 경우, 도 6의 (a)와 같이 나타나며, 실제 경로가 휘어진 경우에는 ROPP가 실제 경로를 모두 포함하지 못하는 문제점이 있다. In the case of the above method, as shown in FIG. 6 (a), there is a problem that ROPP does not include all the actual paths when the actual path is bent.

자차는 녹색 선을 따라 좌회전하는 상황이며, 청색 점선과 적색 점선을 각각 현재부터 T초 사이의 실제 경로와 예상 경로를 나타낸다.The vehicle is a left turn along the green line, and the blue dotted line and the red dotted line represent the actual path and the expected path from the present to the T seconds, respectively.

도 6의 (a)의 방법은, 현재위치 o와 예상 경로의 끝점을 잇는 선분(a)와 o와 실제 경로의 끝점을 잇는 선분(b) 사이의 각도인 Δφ min 만 방향오류로 사용한 것이다. 이 경우, ROPP는 도 6의 (a)와 같이 선분 a를 기준으로 ± Δφ min 범위를 갖는 적색 부채꼴로 설정되고, 이는 T초 한 점을 제외한 나머지 시간 동안의 실제 경로는 포함하지 못하는 문제를 초래한다. 반면, 실제 경로를 지나는 점들 중 선분 a와 가장 큰 각도를 이루는 선분 c로부터 얻어지는 방향오류 Δφ max 를 적용하면 녹색 부채꼴과 같이 실제 경로를 모두 포함하는 ROPP를 얻을 수 있다.6 (a), the direction error is only Δφ min , which is the angle between the line segment a connecting the current position o and the end point of the predicted path and the line segment b connecting o and the end point of the actual path . In this case, the ROPP is set to a red sector having a range of ± Δ φ min based on the segment a as shown in FIG. 6 (a), which does not include the actual path for the remaining time except one T- . On the other hand, if a direction error Δ φ max obtained from a line segment c that has the largest angle with the line segment a among the points passing through the actual path is applied, ROPP including the real path as in the case of the green sector can be obtained.

따라서, 실제경로상의 모든 점에 대한 방향오류 모두를 분석에 사용하면 ROPP가 실제 경로를 모두 포함하도록 설정할 수 있다.Therefore, if all of the direction errors for all points on the actual path are used in the analysis, ROPP can be set to include all the actual paths.

방향오류의 정의는, 도 6의 (b)와 같이 현재 위치 o에서 예상 경로의 끝점을 잇는 선분 a와 T초 동안 이동되는 실제 경로 상의 각각의 점을 잇는 선분들(b1, b2, b3, … , bn) 사이 각도 모두를 방향오류(Δφ 1 , Δφ 2 , Δφ 3 , , Δφ n)로 정의할 수 있다.The definition of the direction error is as shown in FIG. 6 (b), in which the line segment a connecting the end point of the predicted path at the current position o and the line segments b 1 , b 2 , b connecting the respective points on the actual path moved for T seconds 3, ..., b n) angle between the direction of both error (Δ φ 1, Δ φ 2 , Δ φ 3, ..., can be defined as Δ φ n).

상기 방향오류 데이터를 이용하여 최대, 최소 범위를 구하면 ROPP 내 실제 경로의 포함 비율을 보다 향상 시킬 수 있다.If the maximum and minimum ranges are obtained by using the direction error data, the coverage ratio of the actual path in the ROPP can be further improved.

이하, 방향오류 범위의 설정에 있어서, 속도-각속도 공간을 기반으로 하는 3차원 공간 상에서 운동 상태 범위를 결정하기 위하여 룩업 테이블을 활용하는 구현방법에 대하여 설명한다.Hereinafter, an implementation method of using a look-up table to determine a range of motion state on a three-dimensional space based on a velocity-angular velocity space will be described in setting a direction error range.

도 3의 (a) 및 (b)와 도 4의 (a) 및 (b)에서와 같이 2차원 공간 상에서 운동 상태를 분석할 경우에는 속도와 가속도, 각속도와 가속도, 속도와 방향오류, 각속도와 방향오류의 데이터 분포를 각각 단순한 관계식으로 표현하는 것이 가능하다.As shown in FIGS. 3A and 3B and FIGS. 4A and 4B, when the motion state is analyzed in the two-dimensional space, the velocity and acceleration, angular velocity and acceleration, velocity and direction error, angular velocity It is possible to express the data distribution of the direction error by a simple relation.

그러나, 도 3의 (c) 및 도 4의 (c)와 같이 3차원 공간 상에서 속도-각속도에 따른 가속도와 방향오류의 범위를 분석할 경우에는 정형화하기 어려운 복잡한 형태를 가지기 때문에 단순한 관계식으로 표현하는 것이 쉽지 않다. However, as shown in FIGS. 3 (c) and 4 (c), when the acceleration and the range of the direction error are analyzed in the three-dimensional space according to the velocity-angular velocity, It is not easy.

속도-각속도 공간에서의 가속도와 방향오류 범위에 대하여, 학습데이터를 이용하여 룩업 테이블을 사전에 생성하고, 주행 중에는 이를 활용하여 ROPP를 설정하는 방법에 의하면 3차원 공간 상에서도 속도-각속도에 따른 가속도와 방향오류의 범위를 분석하는 것이 가능하다.According to the method of generating the lookup table in advance using the learning data for the acceleration and the direction error range in the velocity-angular velocity space and setting the ROPP by using the lookup table while driving, the acceleration due to the velocity- It is possible to analyze the range of directional errors.

도 7은 본 발명의 일 실시 예에 따른 룩업 테이블 생성을 위한 속도-각속도 평면의 셀 분할을 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining cell division of a velocity-angular velocity plane for generating a look-up table according to an embodiment of the present invention.

우선, 학습데이터로부터 도 7의 (a)와 같이 속도의 최대값과 최소값, 각속도의 최대값과 최소값을 구하고, 속도와 각속도 공간 상에서 학습데이터가 존재하는 영역을 도 7의 (b)의 적색 실선과 같이 설정한다.First, the maximum value and the minimum value of the velocity, the maximum value and the minimum value of the angular velocity are obtained from the learning data as shown in FIG. 7A, and the region where the learning data exists in the velocity and angular velocity space is shown by the solid line .

상기 적색 실선의 영역을 속도와 각속도 축에 대하여 각각 일정한 간격으로 분할 하고, 분할된 특정한 범위의 속도와 각속도와 결정되는 하나의 작은 영역을 셀(cell)이라 정의한다. 학습데이터들은 각 순간의 속도와 각속도에 해당하는 셀에 할당된다.The area of the solid red line is divided at constant intervals with respect to the velocity and the angular velocity axis, and a small area determined by the velocity and the angular velocity in a specific range is defined as a cell. The learning data is assigned to the cell corresponding to the velocity and the angular velocity of each moment.

도 7의 (b)의 녹색 영역은 할당된 데이터가 존재하는 활성 영역을 나타내고, 녹색 이외의 영역은 할당된 데이터가 없는 비활성 영역을 나타낸다. 활성 영역 셀마다 그 셀에 할당된 순간들의 가속도와 방향오류를 구하고, 이들의 평균과 분산을 구해 기록함으로써 종방향 운동 범위와 횡방향 운동범위에 대한 룩업 테이블을 생성할 수 있다.The green region in (b) of FIG. 7 represents the active region in which the allocated data exists, and the region other than green represents the inactive region in which there is no allocated data. A lookup table for the longitudinal motion range and the lateral motion range can be generated by obtaining the acceleration and the direction error of the moments assigned to the cell for each active area cell and obtaining the average and variance thereof.

상기 각 셀은 데이터들이 가우시안 분포를 갖는다고 가정한다. 주행 중에는 현재 차속과 각속도에 해당하는 종방향 룩업 테이블 셀의 정보를 활용하여 최대 가속도를 계산할 수 있고, 횡방향 룩업 테이블 셀의 정보를 활용하여 최대방향오류(예상경로를 기준으로 좌측 방향)와 최소방향오류(예상경로를 기준으로 우측 방향)를 계산할 수 있다.Each cell assumes that the data have a Gaussian distribution. During traveling, the maximum acceleration can be calculated by using the information of the longitudinal lookup table cell corresponding to the current vehicle speed and angular velocity. The maximum acceleration can be calculated using the information of the lateral lookup table cell and the maximum direction error (left direction based on the estimated route) Directional error (rightward with respect to the expected path) can be calculated.

이와 같은 종/횡방향 운동 상태 범위 모델링이 완료되면, 본 발명은 ROPP 산출 단계(S21)를 통해 종/횡방향 운동 상태 범위 모델을 근거로 미래 경로가 존재할 수 있는 영역 ROPP를 계산할 수 있게 된다.When such longitudinal / lateral motion state range modeling is completed, the present invention can calculate a region ROPP in which a future path can exist based on the longitudinal / lateral motion state range model through the ROPP calculation step S21.

도 8은 본 발명의 일 실시 예에 따른 ROPP 산출 단계를 보다 상세히 설명하기 위한 도면이다.8 is a diagram for explaining the ROPP calculation step according to an embodiment of the present invention in more detail.

먼저, 주행 데이터에 포함된 차량의 현재 속도(v)와 각속도(ω)를 추출 및 획득하도록 한다(S211).First, the current speed v and the angular speed omega of the vehicle included in the running data are extracted and acquired (S211).

그리고 수학식1과 수학식2를 근거로 예상 경로 끝점 (x(T), y(T)) 계산한 후(S212), 예상 경로 끝점의 위상각(Φ(T)=tan-1(y(T)/x(T)))을 계산하도록 한다(S213).And then calculating equation (1) and equation (2) based on a predicted path end point (x (T), y ( T)) to (S212), the phase of the predicted path of each end point (Φ (T) = tan -1 (y ( T ) / x ( T )) (S213).

그리고 CTRV_EKF를 통해 보정된 차속(V') 및 각속도(ω')가 속하는 셀을 선택하도록 한다(S214). 이 때, 해당되는 셀이 없을 경우에는, 거리가 가장 가까운 활성영역의 셀을 선택하도록 한다. 상기 CTRV_EKF는 CTRV 모션 모델을 근거로 EKF(Extended Kalman Filtering)를 적용하는 것을 의미하며, 여기서는 차량 거동 특성을 고려하여 차속과 각속도의 노이즈를 제거하는 역할을 수행한다.Then, it selects the cell to which the vehicle speed V 'and the angular velocity?', Corrected through the CTRV_EKF, belongs (S214). At this time, when there is no corresponding cell, the cell of the active region closest to the distance is selected. The CTRV_EKF means applying the EKF (Extended Kalman Filtering) based on the CTRV motion model, and performs the role of removing the noise of the vehicle speed and the angular velocity in consideration of the vehicle behavior characteristics.

그리고 상기 선택된 셀로부터 방향오류 평균(μ φ )과 표준편차(σ φ )를 이용하여 최대 방향오류(Δφ max = μ φ + βσ φ ) 및 최소 방향오류(Δφ min = μ φ - βσ φ )를 계산하도록 한다(S215).Then, a maximum direction error (DELTA phi max ) is calculated from the selected cell using a direction error average ( mu phi ) and a standard deviation ( sigma phi ) = μ φ + βσ φ ) and the minimum direction error (Δ φ min = mu ] - [ beta] [ phi] ) (S215).

그리고 상기 최대 방향오류 및 상기 최소 방향오류를 기반으로 하여 ROPP의 위상각의 범위 (Φ(T) + Δφ min ~ Φ(T) + Δφ max ) 를 계산하도록 한다(S216).And determining a range of phase angles of the ROPP based on the maximum direction error and the minimum direction error ( ? ( T ) + ?? min - ? ( T ) + ?? max ) is calculated (S216).

그리고 상기 선택된 셀로부터 가속도의 평균(μ a )과 표준편차(σ a )를 추출하여 최대 가속도(a max = μ a + βσ a )를 계산하고(S217), 최대 도달거리(

Figure 112017090097535-pat00007
)를 계산하도록 한다(S218).Then, the average ( μ a ) and standard deviation ( σ a ) of the acceleration are extracted from the selected cells and the maximum acceleration ( a max = mu a + beta a ) is calculated (S217), and the maximum reaching distance (
Figure 112017090097535-pat00007
(S218).

마지막으로 반지름이 smax(v)이고 위상각이 Φ(T) + Δφ min ~ Φ(T) + Δφ max 범위인 부채꼴로 정의되는 ROPP를 산출하도록 한다(S219).Finally, ROPP defined as a sector whose radius is s max (v) and whose phase angle is in the range of ? ( T ) + ?? min to ? ( T ) + ?? max is calculated (S219).

도 8의 ROPP 산출 단계(S21)를 통해 ROPP가 산출되면, 본 발명은 도9에서와 같이 ROPP을 기반으로 ROD을 산출하고, 이를 입력영상에 투영하여 보행자 후보 생성 단계(S10)에서 생성된 보행자 후보 객체를 선별하도록 한다.When the ROPP is calculated through the ROPP calculation step S21 of FIG. 8, the present invention calculates the ROD based on the ROPP as shown in FIG. 9 and projects it to the input image, Candidate objects are selected.

도 9 및 도 10은 본 발명의 일 실시 예에 따른 ROD 산출 단계(S22)를 보다 상세히 설명하기 위한 도면이다. FIGS. 9 and 10 are views for explaining the ROD calculation step S22 according to an embodiment of the present invention in more detail.

도 9를 참고하면, 본 발명의 ROD 산출 단계는 미리 저장해 둔 차량 횡방향 폭 W을 파악한 후(S221), ROPP의 좌변 외측 영역과 우변 외측 영역을 차량 횡방향 폭 W의 절반(W/2)만큼 각각 확장함으로써, ROD를 획득하도록 한다(S222). Referring to FIG. 9, in the ROD calculation step of the present invention, the lateral width W of the vehicle stored in advance is determined (S221), and the outer side region and the right lateral side region of the ROPP are divided by half (W / To thereby obtain the ROD (S222).

도 10의 (a)의 적색 점선은 속도와 가속도를 근거로 계산한 예상 경로이고, 청색 부채꼴은 최대 도달거리와 최대 방향 오류를 근거로 계산한 ROPP을 나타낸다. 도 10의 (b)의 청색 영역은 설정된 ROPP의 양변에서 차량 횡방향 폭의 절반만큼 좌우로 확장하여 설정한 ROD을 나타낸다. The red dotted line in FIG. 10 (a) represents the estimated path calculated based on the speed and the acceleration, and the blue sector represents the ROPP calculated based on the maximum arrival distance and the maximum direction error. The blue region in FIG. 10 (b) represents the ROD set to extend horizontally by half of the vehicle lateral width on both sides of the set ROPP.

도 11 및 도 12는 본 발명의 일 실시 예에 따른 보행자 후보 객체 선별 단계(S23)를 보다 상세히 설명하기 위한 도면이다. 11 and 12 are views for explaining the pedestrian candidate object selection step S23 according to an embodiment of the present invention in more detail.

도 11을 참고하면, 본 발명의 보행자 후보 객체 선별 단계는 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환함으로써, ROD를 입력 영상에 투영하는 단계(S231), 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별한 후, HV 단계(S30)에 전달하는 단계(S232)를 포함하도록 한다. Referring to FIG. 11, the step of selecting a candidate for a pedestrian according to the present invention includes a step S231 of projecting an ROD to an input image by converting the center coordinate system of the ROD into an input image coordinate system (S231) Comparing the positions of the objects, selecting only the pedestrian candidate objects located in the ROD, and transmitting them to the HV step S30 (S232).

ROD는 주행 데이터의 통계적 분석에 의해 산출된 것이므로 입력 영상과 상이한 좌표계, 즉 차량 중심 좌표계를 가지게 된다. 이에 ROD의 차량 중심 좌표계를 카메라의 투사 매트릭스(projection matrix, P)를 이용하여 입력 영상 좌표계로 변환하도록 해야 한다. Since the ROD is calculated by statistical analysis of the running data, it has a coordinate system different from that of the input image, that is, a vehicle center coordinate system. Therefore, it is necessary to convert the vehicle center coordinate system of the ROD into the input image coordinate system using the projection matrix ( P ) of the camera.

수학식6에서와 같이 차량 중심 좌표계 상의 한 점 X(X, Y, Z, 1)에 카메라 투사 매트릭스 P를 곱하면 영상 상의 한 점 x(u, v, 1)를 구할 수 있게 되고, 이에 따라 ROD를 입력 영상에 투영할 수 있게 된다. If a camera projection matrix P is multiplied by a point X (X, Y, Z, 1) on the vehicle center coordinate system as in Equation 6, a point x (u, v, 1) on the image can be obtained, The ROD can be projected onto the input image.

[수학식6]&Quot; (6) &quot;

Figure 112017090097535-pat00008
Figure 112017090097535-pat00008

이때, P의 크기는 3×4이고, Xx는 동종(homogeneous) 좌표계를 사용한다. 차량 중심 좌표계 상의 ROD는 지표면에 존재하기 때문에, Z는 카메라 높이의 음수 -H로 설정된다. ROD의 경계를 일정한 개수의 점들로 샘플링하고 이 점들에 대응되는 영상 상의 점들을 계산함으로써, 영상 상의 ROD을 계산할 수 있다. At this time, the size of P is 3 × 4, and X and x use a homogeneous coordinate system. Since the ROD on the vehicle center coordinate system exists on the ground surface, Z is set to a negative -H of the camera height. The ROD on the image can be calculated by sampling the boundary of the ROD with a predetermined number of points and calculating the points on the image corresponding to these points.

도 12의 (a)에서 적색 실선으로 그려진 대략적인 부채꼴 모양 도형은 차량 중심 좌표계 상의 ROD을 나타내는 것이고, 도 12의 (b)는 이에 대응되는 입력 영상에 투영된 ROD을 나타내는 것이다. 다만, ROD가 대략적으로 부채꼴 모양이지만, 투영변환(perspective transformation) 때문에 입력 영상에 투영된 ROD는 부채꼴 모양으로 나타나지 않을 수도 있다. A rough fan-shaped figure drawn with a solid line in FIG. 12 (a) shows the ROD on the vehicle center coordinate system, and FIG. 12 (b) shows the ROD projected on the corresponding input image. However, although the ROD is roughly fan-shaped, the ROD projected on the input image may not appear as a sector shape due to perspective transformation.

ROD는 정해진 시간 내에 차량이 점유할 수 있는 영역을 의미하기 때문에, 본 발명에서는 도 12의 (c)에서와 같이 어떤 보행자가 ROD 내부에 존재한다면 그 보행자가 위험하다고 판단할 수 있다. 또한 차량 중심 좌표계 ROD을 사용할 경우엔, 보행자 중심 좌표 (X, Y)가 ROD 내부에 존재하는지 여부를 평가할 수 있다. 또한 영상 좌표계 ROD를 사용할 경우엔 보행자 영역 사각형의 밑변 중심이 ROD 내부에 존재하는지 여부를 평가할 수 있다. Since the ROD means an area occupied by the vehicle within a predetermined time, the present invention can determine that the pedestrian is dangerous if any pedestrian exists in the ROD as shown in FIG. 12 (c). In addition, when using the vehicle center coordinate system ROD, it is possible to evaluate whether the pedestrian center coordinate (X, Y) exists in the ROD. In addition, when using the image coordinate system ROD, it is possible to evaluate whether the base center of the pedestrian zone rectangle exists in the ROD.

도 12의 (c)에서 적색 실선은 ROD을 나타내는 것으로, 이를 참고하면, 차속이 작은 경우, 최대 도달 거리는 작고 좌우 각도 범위는 넓게 설정된 ROD가 산출됨을 알 수 있다. 그리고 적색 사각형으로 표시된 보행자의 경우 밑면 중심이 ROD 내부에 존재하기 때문에 위험한 보행자로 분류되고, 청색 사각형으로 표시된 보행자는 ROD 외부에 존재하므로 위험하지 않은 보행자로 분류됨을 알 수 있다.The red solid line in FIG. 12 (c) shows the ROD. Referring to this, it can be seen that when the vehicle speed is small, the maximum reachable distance is small and the ROD with the wide angle range is calculated. In the case of a pedestrian marked with a red square, it is classified as a dangerous pedestrian because the center of the bottom exists in the ROD, and a pedestrian marked with a blue square is classified as a non-dangerous pedestrian because it exists outside the ROD.

도 13은 차량 주행 시 다양한 상황에서 설정된 ROPP를 설명하기 위한 도면이다.FIG. 13 is a view for explaining ROPP set in various situations when driving the vehicle.

적색부채꼴은 룩업테이블(방향오류 평균-방향오류 표준편차)(LUT(μ-σ))방식의 ROPP를 나타내고, 흑색부채꼴은 한국 등록 특허 제10-1770924호에 제안된 방법의 ROPP를 나타낸다. 또한, 적색 점선은 CTRV(Constant Turn-Rate and Velocity) 모션모델 기반 예상 경로를 나타내고, 청색 점선은 CTRV 모션모델 기반 실제 경로를 나타낸다.The red sector represents ROPP of the look-up table (direction error average-direction error standard deviation) (LUT ( μ-σ )) scheme, and the black sector represents ROPP of the method proposed in Korean Patent No. 10-1770924. In addition, the red dotted line represents the predicted path based on the Constant Turn-Rate and Velocity (CTRV) motion model, and the blue dotted line represents the CTRV motion model based actual path.

도 13의 (a)와 (b)는 저속 직진 상황과 고속 직진 상황을 나타내는 도면이다. 저속에서는 각속도와 속도를 함께 분석함으로써 방향오류 범위와 최대가속도가 작아지기 때문에 불필요한 범위가 감소되어 ROPP가 더 작게 설정될 수 있다. 고속에서는 회전이 거의 발생하지 않고 직진 상황에 있는 데이터만 존재하기 때문에 한국 등록 특허 제10-1770924호에 제안된 방법과 ROPP의 크기가 거의 유사하다.13 (a) and 13 (b) are diagrams showing a low-speed forward state and a high-speed forward state. By analyzing the angular velocity and velocity together at low speed, the range of direction error and the maximum acceleration become small, so that the unnecessary range is reduced and the ROPP can be set smaller. Since there is only data in a straight line state at high speed with almost no rotation, the method proposed in Korean Patent No. 10-1770924 and the size of ROPP are almost similar.

도 13의 (c), (d), (e)는 각각 회전 초기 시점, 회전 중간 시점, 회전 종료 시점에서의 ROPP를 나타낸다. 회전에 들어가는 초기에는 대부분의 운전자들이 속도를 감소시킨다. 이러한 경우, 한국 등록 특허 제10-1770924호에 제안된 방법을 적용하게 되면 방위각 범위가 180도가 되는 반원형태의 ROPP가 그려지는 반면, 본 발명의 룩업테이블 방식을 이용할 경우, 현재 시점의 속도와 각속도에서의 데이터 분포를 그대로 반영해주기 때문에 보다 더 작은 크기의 ROPP가 나타날 수 있다. 마찬가지로, 회전 중간지점과 종료지점에서도 실제경로는 모두 포함하면서 보다 더 작은 크기의 ROPP가 나타날 수 있다.13C, 13D and 13E show the ROPP at the rotation initial point, the rotation intermediate point, and the rotation end point, respectively. At the beginning of the turn, most drivers reduce speed. In this case, when the method proposed in Korean Patent No. 10-1770924 is applied, semicircular ROPP having an azimuth angle range of 180 degrees is drawn. On the other hand, when using the lookup table method of the present invention, The size of ROPP is smaller than that of ROPP. Likewise, a smaller size ROPP may appear, including both the actual path and the rotation midpoint and end point.

도 14 및 도 15는 차량 주행 시 다양한 상황에서 설정된 ROD를 입력 영상 상에서 설명하기 위한 도면이다.FIGS. 14 and 15 are diagrams for explaining an ROD set in various situations when driving the vehicle, on an input image.

적색 실선은 본 발명의 방법에 의한 ROD를 나타내고, 청색 실선은 한국 등록 특허 제10-1770924호에 제안된 방법에 의한 ROD를 나타낸다. 또한, 적색 점선과 청색 점선은 예상 경로와 실제 경로를 나타낸다.The red solid line represents ROD by the method of the present invention, and the blue solid line represents ROD by the method proposed in Korean Patent No. 10-1770924. In addition, the red dotted line and the blue dotted line represent the predicted path and the actual path.

도 14의 (a)와 (b)는 저속 직진 상황에서의 ROD를 나타낸다. 도 14의 (a)는 정지된 상태에서 자차가 출발할 때의 ROD이며 이는 매우 저속인 상태라 좌우로는 넓고 종방향으로는 짧은 ROD가 생성된다. 하지만, 본 발명의 방법에 의할 때 종/횡방향으로 모두 보다 더 작은 ROD를 가질 수 있다.14 (a) and 14 (b) show the ROD in the low-speed straight-ahead state. FIG. 14 (a) shows the ROD when the vehicle starts in a stopped state, which is a very low speed state, and a short ROD is generated in the right and left directions and short in the longitudinal direction. However, according to the method of the present invention, it is possible to have a smaller ROD than both in the longitudinal / transverse direction.

도 14의 (b)는 저속 직진 상황에서의 ROD를 보여주며, 본 발명의 방법에 의할 때, ROD가 상당부분 감소한다. 도 14의 (c)는 고속 직진 상태의 ROD이며, 좌우로는 좁고 종방향으로는 긴 ROD가 생성된다. 고속 직진 상황에서는 본 발명에 의한 방법과 한국 등록 특허 제10-1770924호에 제안된 방법이 거의 유사하게 나타난다.FIG. 14 (b) shows the ROD in the low speed straight state, and according to the method of the present invention, the ROD is significantly reduced. FIG. 14C shows an ROD in a fast forward straight state, and a long ROD is generated in the right and left directions and in the longitudinal direction. In the high-speed straight ahead, the method according to the present invention and the method proposed in Korean Patent No. 10-1770924 are almost similar.

도 15의 (a), (b), (c)는 회전의 초기, 중간, 종료 시점에서의 ROD를 보여준다. 한국 등록 특허 제10-1770924호에 제안된 방법에 의할 때 보다 본 발명의 방법에 의할 때 ROD가 상당히 작아졌지만 실제 경로는 모두 포함하고 있다.Figures 15 (a), (b) and (c) show ROD at the beginning, middle, and end of rotation. According to the method of the present invention, the ROD is considerably smaller than the method proposed in Korean Patent No. 10-1770924, but the actual path is included.

본 발명인 룩업테이블을 이용하여 방향오류 범위를 설정하는 방법에 의한 보행자 보호방법과 한국 등록 특허 제10-1770924호에 제안된 방법에 의한 보행자 보호방법에 대하여 비교하여 평가하였다.A pedestrian protection method by a method of setting a direction error range using a lookup table of the present invention and a pedestrian protection method by a method proposed by Korean Patent No. 10-1770924 were compared and evaluated.

평가 방법으로는 키티 비전 벤치마크 스위트(KITTI Vision Benchmark Suite)의 로데이터(raw data)를 사용하였다.As an evaluation method, raw data of KITTI Vision Benchmark Suite was used.

로데이터는 전방 칼라 스테레오 카메라와 전방 흑백 스테레오 카메라, 3D 레이저 스캐닝 라이더, 고정밀 측위 시스템을 탑재한 차량이 다양한 환경을 주행하면서 수집한 데이터와 캘리브레이션(calibration) 정보를 제공한다.Data provides data and calibration information collected by a vehicle equipped with a front color stereo camera, a front monochrome stereo camera, a 3D laser scanning rider, and a high precision positioning system while traveling in various environments.

이 중, 측위 정보는 OXTS® RT 3003을 사용하여 취득뒤었으며, 거리와 각도 해상도는 각각 0.02m와 0.1°이다. 로데이터는 총 71개 스퀀스로 구성되어 있는데, 이 중 67개 시퀀스를 사용하였다.Among them, the positioning information was acquired using OXTS® RT 3003, and the distance and angle resolution were 0.02 m and 0.1 °, respectively. The data consist of 71 sequences, of which 67 sequences are used.

제외된 시퀀스는 GPS 음영 지역을 포함하여 측위 오류가 심한 경우와 정지 상태에서 IMU(inertial measurement unit) 오류가 심한 경우, 길이가 너무 짧은 경우를 포함한다. 67개 시퀀스는 10Hz로 획득된 35,637 프레임으로 구성되어 있으며, 약 59분 주행 분량에 해당한다. 로데이터는 취득 지역에 따라 네 종류(city, residential, road, campus)로 분류된다.The excluded sequence includes cases where the positioning error is severe including the shadow area of the GPS and the case where the inertial measurement unit (IMU) error is severe in the stationary state and the length is too short. The 67 sequences consist of 35,637 frames acquired at 10 Hz and correspond to approximately 59 minutes of travel. Data are categorized into four categories (city, residential, road, campus) according to the area of acquisition.

하기의 표 1은 학습과 평가를 위한 데이터를 동일하게 사용한 경우, 실제경로 포함 비율과 전체영상 대비 ROD 비율을 한국 등록 특허 제10-1770924호에 제안된 방법, LUT(min-max), LUT(μ-σ ) 세가지 방법으로 비교한 결과를 나타낸 표이다.When the data for learning and evaluation are used in the same manner as in Table 1 below, the actual path inclusion ratio and the ROD ratio with respect to the entire image are calculated using the method proposed in Korean Patent No. 10-1770924, the LUT (min-max), the LUT mu] - [sigma] ).

MethodMethod 실제경로 포함 비율(%)% Actual Path Containment 전체영상 대비 ROD 비율(%)ROD Ratio vs. Total Image (%) 한국 등록 특허 제10-1770924호에 제안된 방법The method proposed in Korean Patent No. 10-1770924 99.2899.28 28.9628.96 LUT (min-max)LUT (min-max) 99.9599.95 24.0224.02 LUT (μ-σ)LUT (μ-σ) 99.2499.24 18.3818.38

한국 등록 특허 제10-1770924호에 제안된 방법은 속도에 따른 종/횡방향 운동상태 범위를 함수로 표현한 방법이고, LUT (min-max)는 셀 값을 결정할 때, 셀에 포함되는 데이터들의 최대, 최소값을 그대로 저장하는 방법이며, LUT (μ-σ)는 셀에 포함되는 데이터들의 평균과 표준편차로 최대, 최소 범위를 결정하는 방법이다.The method proposed in Korean Patent No. 10-1770924 is a method in which the range of longitudinal / transverse motion states is expressed as a function, and LUT (min-max) is a method of determining the maximum value of data , And the minimum value is stored as it is. The LUT (μ-σ) is a method of determining the maximum and minimum ranges based on the average and standard deviation of the data included in the cell.

룩업 테이블에 속하는 배열 즉, 셀의 개수는 27×33으로 결정하였고, LUT (μ-σ)에서 β=3 (최대, 최소 값은 분산의 3배 범위, μ±3 σ)을 사용하였다. The number of cells belonging to the lookup table was determined to be 27 × 33, and β = 3 (maximum and minimum values in the range of three times the dispersion, μ ± 3 σ) were used in the LUT (μ-σ)

또한, 최대 예측 시각 T를 3초로 설정하였다. ROPP의 성능은 설정된 ROPP가 실제 경로를 얼마나 포함하는가(실제경로 포함 비율)로 평가하였고, ROD 성능은 생성된 ROD를 입력 영상에 투영하여 얼마나 탐색영역을 축소시킬 수 있는가(전체영상 대비 ROD 비율)로 평가하였다. In addition, the maximum predicted time T is set to 3 seconds. The performance of ROPP is evaluated by how much the set ROPP includes the actual path (ratio of the actual path included), and the ROD performance is calculated by projecting the generated ROD on the input image, Respectively.

참고로, 실제경로 포함 비율은 높을수록 우수한 것이고, 전체영상 대비 ROD 비율은 낮을수록 우수한 것이다.For reference, the higher the actual path inclusion ratio is, the better the better, and the lower the ROD ratio is, the better.

상기 표 1을 보면, LUT (min-max)는 데이터 분포에서 얻어지는 최대, 최소를 그대로 반영하기 때문에 실제 경로 포함 비율이 99.95%로 가장 높고, LUT (μ-σ)는 99.24%로 한국 등록 특허 제10-1770924호에 제안된 방법과 거의 결과가 유사하다.In Table 1, since the LUT (min-max) reflects the maximum and minimum values obtained from the data distribution, the actual path inclusion ratio is the highest at 99.95% and the LUT (μ-σ) is 99.24% 10-1770924. &Lt; / RTI &gt;

반면, 전체영상 대비 ROD비율은 LUT (μ-σ)의 경우 18.38%로 한국 등록 특허 제10-1770924호에 제안된 방법보다 약 10% 감소된 것을 확인할 수 잇다.On the other hand, the ROD ratio of the whole image is 18.38% for the LUT (μ-σ), which is about 10% lower than that proposed in Korean Patent No. 10-1770924.

따라서, 한국 등록 특허 제10-1770924호에 제안된 방법과 비교했을 때, 실제경로 포함 비율은 비슷하면서 전체영상 대비 ROD 비율의 감소가 가장 큰 LUT (μ-σ) 방법이 가장 우수하다는 것을 알 수 있다.Accordingly, it can be seen that the LUT (μ-σ) method, which has the largest reduction in the ROD ratio compared with the entire image, is the best in comparison with the method proposed in Korean Patent No. 10-1770924 have.

하기 표 2는 LUT (min-max)와 LUT (μ-σ) 방법에 대하여 다시 학습과 평가 데이터를 분리한 경우, 실제 경로 포함 비율과 전체 영상 대비 ROD 비율의 결과를 비교한 표이다.Table 2 below is a table comparing the results of the actual path inclusion ratio and the ROD ratio with respect to the whole image when the learning and evaluation data are separated again for the LUT (min-max) and LUT (μ-σ) methods.

MethodMethod 끝점을 이용한 방향오류Direction error using endpoint 모든 점을 이용한 방향오류Direction error using all points 실제경로 포함 비율(%)% Actual Path Containment 전체영상 대비 ROD 비율(%)ROD Ratio vs. Total Image (%) 실제경로 포함 비율(%)% Actual Path Containment 전체영상 대비 ROD 비율(%)ROD Ratio vs. Total Image (%) LUT (min-max)LUT (min-max) 94.3894.38 21.8721.87 98.1498.14 22.2322.23 LUT (μ-σ)LUT (μ-σ) 96.9496.94 19.7319.73 98.2598.25 18.1618.16

학습 및 평가를 위해서 67개의 시퀀스 중 2/3는 학습에 사용하고 나머지 1/3은 평가에 사용하였으며, 3겹 교차검증(3-fold cross validation)을 수행하였다. 또한, 방향오류를 계산할 때, 예상 경로와 실제 경로의 양 끝점 사이의 각도오차만을 이용한 한국 등록 특허 제10-1770924호에 제안된 방법의 결과와 예상 경로의 끝점과 실제 경로 상의 모든 점 사이의 각도오차를 모두 이용한 방법도 함께 비교하였다.For learning and evaluation, 2/3 of the 67 sequences were used for learning and the remaining 1/3 were used for evaluation and 3-fold cross validation was performed. Also, when calculating the direction error, the result of the method proposed in Korean Patent No. 10-1770924 using only the angular error between the estimated path and the end points of the actual path, and the angle between the end point of the estimated path and all points on the actual path The methods using all the errors were also compared.

우선, 상기 표 2의 모든 점을 이용한 방향오류의 결과들을 보면, 학습과 평가 데이터를 분리하더라도 학습과 평가 데이터를 동일하게 사용한 경우와 비교하였을 때, ROPP와 ROD 성능이 거의 유사함을 확인할 수 있다.First, the results of direction errors using all the points in Table 2 show that ROPP and ROD performances are almost similar when learning and evaluation data are used in the same way as learning and evaluation data are used .

또한, 본 발명의 방법인 LUT (μ-σ) 방법이 실제 경로 포함 비율이 98.25%, 전체 영상 대비 ROD 비율이 18.16%로 LUT (min-max)보다 우수한 성능을 보여준다.In addition, the LUT (μ-σ) method of the present invention shows a superior performance to the LUT (min-max) with an actual path inclusion ratio of 98.25% and an ROD ratio of 18.16% with respect to the whole image.

상기 표 2를 보면, 끝점 만을 이용한 방향오류 데이터를 이용한 경우보다 모든 점을 이용한 방향오류 데이터를 이용한 경우가 실제 경로 포함 비율이 높게 나타났고, 전체 영상 대비 ROD 비율은 LUT (μ-σ)의 경우에만 약간 감소하였다.Table 2 shows that the actual path inclusion ratio is higher when the direction error data using all points are used than the direction error data using only the end point, and the ratio of the ROD to the total image is larger than that of the LUT (μ-σ) .

상기 결과를 종합해 보면, 실제 경로 상의 모든 점을 이용함으로써 끝점만을 이용하는 경우보다 학습데이터가 충분히 증가됨으로써 셀의 분포를 가우시안 분포로 모델링 하는데 도움이 된 것으로 분석된다.Taking all the above results into consideration, it is analyzed that the use of all the points on the actual path increases the learning data sufficiently, as compared with the case where only the end point is used, thereby helping to model the cell distribution by the Gaussian distribution.

도 16은 본 발명의 일 실시 예에 따른 보행자 보호 시스템을 설명하기 위한 도면이다. 16 is a view for explaining a pedestrian protection system according to an embodiment of the present invention.

도 16을 참고하면, 본 발명의 보행자 보호 시스템은 전방 카메라와 같은 각종 영상 획득 장치를 통해 입력 영상을 획득 및 제공하는 입력 영상 획득부(10), 전자제어 샤시 제어시스템 등과 통신하여 차속과 각속도 등을 포함하는 주행 데이터를 획득하는 주행 데이터 획득부(20), 입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부(30), 주행 데이터로부터 ROD(Region of Danger)을 파악한 후, 이를 기반으로 차량 충돌 가능성이 있는 보행자 후보 객체를 선별하는 위험도 평가부(40), 및 CNN(Convolutional Neural Network) 등에 기반하여 보행자 후보 객체 각각을 검증하여 보행자만을 선별 및 통보하는 후보 검증부(50), 위험 상태의 보행자의 위치 및 차량 주행 상태 등을 고려하여 충돌 방지를 위한 각종 차량 제어 동작을 수행하는 차량 제어부(60) 등을 포함할 수 있다. 16, the pedestrian protection system of the present invention includes an input image acquiring unit 10 for acquiring and providing an input image through various image acquisition devices such as a front camera, an electronic control chassis control system, A candidate generator 30 for extracting a pedestrian candidate object from the input image, and an ROD (Region of Danger) from the running data to obtain a running data including a vehicle collision A candidate evaluating unit 40 for selecting candidates for possible pedestrian candidates, and a candidate verifying unit 50 for selecting and notifying only pedestrians by verifying respective pedestrian candidate objects based on CNN (Convolutional Neural Network) And a vehicle control unit 60 for performing various vehicle control operations for preventing collision in consideration of the vehicle's running state and the like.

더하여, 위험도 평가부(40)는 다시 차량의 주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP을 산출하는 ROPP 산출부(41), ROPP를 기반으로 보행자가 위험한 영역인 ROD을 산출하는 ROD 산출부(42), 및 ROD를 기반으로 차량 출동 가능성이 있는 보행자 후보 객체만을 선별하여 후보 검증부(50)에 제공하는 보행자 후보 선별부(43) 등을 포함할 수 있다. In addition, the risk evaluation unit 40 further includes an ROPP calculating unit 41 for calculating ROPP, which is an area where a future route of the vehicle can exist, through a statistical analysis of the running data of the vehicle, a ROPP calculating unit 41 for calculating ROPP, And a pedestrian candidate selecting unit 43 for selecting only the pedestrian candidate objects that are likely to be out of the vehicle based on the ROD and providing the pedestrian candidate objects to the candidate verifying unit 50. [

즉, 본 발명의 보행자 보호 시스템은 후보 검증부(50)의 처리 부하가 위험도 평가부(40)에 비해 매우 큼을 고려하여, 처리 부하가 상대적으로 작은 위험도 평가부(40)를 통해 후보 검증부(50)에 입력되는 정보의 량을 최소화하도록 한다. 그 결과, 본 발명의 시스템의 동작 시간이 종래에 비해 크게 감소되어, 시스템 실시간성이 될 수 있게 된다.That is, considering that the processing load of the candidate verifying unit 50 is much larger than that of the risk evaluating unit 40, the pedestrian protection system of the present invention is configured such that the candidate verifying unit 40 50 to minimize the amount of information input. As a result, the operation time of the system of the present invention is greatly reduced compared with the conventional system, and the system real time can be obtained.

상술한 실시 예에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 예에 포함되며, 반드시 하나의 실시 예에만 한정되는 것은 아니다. 나아가, 각 실시 예에서 예시된 특징, 구조, 효과 등은 실시 예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시 예들에 대해서도 조합 또는 변형되어 실시 가능하다.The features, structures, effects and the like described in the foregoing embodiments are included in at least one embodiment of the present invention and are not necessarily limited to one embodiment. Further, the features, structures, effects and the like illustrated in the embodiments can be combined and modified by other persons skilled in the art to which the embodiments belong.

따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. 또한, 이상에서 실시 예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, it should be understood that the present invention is not limited to these combinations and modifications. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the present invention. It can be seen that various modifications and applications are possible. For example, each component specifically shown in the embodiments can be modified and implemented. It is to be understood that the present invention may be embodied in many other specific forms without departing from the spirit or essential characteristics thereof.

Claims (8)

입력 영상에서 보행자 후보 객체를 추출하는 후보 생성 단계;
주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 단계;
상기 ROPP의 좌변 및 우변 외측 영역을 미리 설정된 기준에 따라 확장하여 ROD(Region of Danger)을 산출하는 단계; 및
상기 후보 생성 단계를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계; 및
필터링된 보행자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증 단계를 포함하고,
상기 ROPP를 산출하는 단계는,
상기 주행 데이터에 포함된 차량의 속도 및 각속도를 획득하는 단계;
상기 속도 및 가속도를 이용하여 예측시간 동안의 예상 경로 끝점을 계산하고, 상기 예상 경로 끝점의 위상각을 계산하는 단계;
룩업 테이블로부터 상기 속도 및 각속도가 속하는 셀을 선택하는 단계;
상기 선택된 셀로부터 방향 오류의 평균과 표준편차를 읽어오고, 상기 읽어온 방향 오류의 평균과 표준 편차를 이용하여 상기 예상 경로 끝점의 위상각에 대한 최대 방향 오류와 최소 방향 오류를 계산하는 단계;
상기 계산된 최대 방향오류와 최소 방향 오류를 이용하여 상기 ROPP의 위상각의 범위를 계산하는 단계;
상기 선택된 셀로부터 가속도의 평균과 표준 편차를 읽어오고, 상기 읽어온 가속도의 평균과 표준 편차를 이용하여 최대 도달 거리를 계산하는 단계; 및
상기 위상각의 범위와 상기 최대 도달 거리에 의해 정의되는 상기 ROPP를 산출하는 단계;를 포함하고,
상기 룩업 테이블은 상기 차량의 속도 및 각속도에 따라 정의되는 복수의 셀을 포함하고, 각 셀마다 상기 각 셀에 할당된 속도와 각속도를 이용하여 가속도와 방향 오류를 계산하고, 계산된 가속도의 평균과 표준 편차 및 계산된 방향 오류의 평균과 표준편차를 계산하여 기록한 것을 특징으로 하는 보행자 보호 방법.
A candidate generating step of extracting a pedestrian candidate object from an input image;
Calculating a Region of Prediction Path (ROPP), which is an area where a future route of the vehicle may exist, through statistical analysis of the driving data;
Calculating an ROD (Region of Danger) by extending the left and right outer regions of the ROPP according to a preset reference; And
Selecting and outputting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generation step; And
And a candidate verification step of performing a candidate verification on each of the filtered candidate pedestrian candidates to detect a pedestrian in a dangerous state,
Wherein the step of calculating the ROPP comprises:
Obtaining a speed and an angular velocity of the vehicle included in the running data;
Calculating a predicted path endpoint for a predicted time using the velocity and acceleration and calculating a phase angle of the predicted path endpoint;
Selecting a cell to which said velocity and angular velocity belongs from a look-up table;
Reading average and standard deviation of direction errors from the selected cell and calculating a maximum direction error and a minimum direction error with respect to a phase angle of the estimated path end point using an average and standard deviation of the read direction error;
Calculating a range of the phase angle of the ROPP using the calculated maximum direction error and minimum direction error;
Reading the mean and standard deviation of the acceleration from the selected cell and calculating a maximum reach distance using the average and standard deviation of the read acceleration; And
And calculating the ROPP defined by the range of the phase angle and the maximum reach distance,
Wherein the lookup table includes a plurality of cells defined according to a speed and an angular rate of the vehicle and calculates an acceleration and a direction error using a speed and an angular velocity assigned to each cell for each cell, Wherein the mean and standard deviation of the standard deviation and the calculated direction error are calculated and recorded.
삭제delete 제1항에 있어서,
상기 ROPP를 산출하는 단계는,
"
Figure 112018110569533-pat00029
" 및 "
Figure 112018110569533-pat00030
"를 근거로 예측시간 T 동안의 예상 경로 끝점(x(T), y(T))을 계산하는 단계;
"Φ(T)=tan-1(y(T)/x(T))"의 식에 따라 상기 예상 경로 끝점의 위상각(Φ(T))을 계산하는 단계;
CTRV 모션 모델을 근거로 EKF(Extended Kalman Filtering)를 적용하는 CTRV_EKF에 근거해 보정된 속도(v') 및 각속도(ω')가 속하는 셀(cell)을 선택하는 단계;
상기 선택된 셀로부터 방향 오류의 평균(μφ )과 표준편차(σφ )를 추출하여 “Δφmax = μφ + βσφ , Δφmin = μφ - βσφ의 식에 따라 최대 방향오류(Δφmax ) 및 최소 방향오류(Δφmin )를 계산하는 단계;
상기 최대 방향오류(Δφmax ) 및 최소 방향오류(Δφmin )를 기반하여 “Φ(T) + Δφmin ~ Φ(T) + Δφmax ”를 ROPP의 위상각 범위로 정의하는 단계;
상기 선택된 셀로부터 가속도의 평균(μa )과 표준편차(σa )를 추출하여 “amax = μa + βσa ”의 식에 따라 상기 최대가속도(amax )를 계산하는 단계;
"
Figure 112018110569533-pat00031
"에 근거해 최대 도달거리(smax(v))를 계산하는 단계; 및
반지름이 smax(v)이고 위상각이 Φ(T) + Δφmin ~ Φ(T) + Δφmax 범위인 부채꼴로 정의되는 ROPP를 산출하는 단계;를 포함하며,
상기 셀을 선택하는 단계에서, 해당되는 셀이 없을 경우 거리가 가장 가까운 활성영역의 셀을 선택하고,
상기 x 및 y는 차량 전방과 좌측을 x축과 y축으로 하는 좌표계 상의 좌표를, 상기 v은 속도를, 상기 ω는 각속도를, 상기 t는 시각을, 상기 T는 예측 시간을 나타내는 것을 특징으로 하는 보행자 보호 방법.
The method according to claim 1,
Wherein the step of calculating the ROPP comprises:
"
Figure 112018110569533-pat00029
"And"
Figure 112018110569533-pat00030
(X (T), y (T)) for the predicted time T based on the estimated path endpoint
Calculating a phase angle? (T) of the expected path end point according to an equation of? (T) = tan -1 (y (T) / x (T));
Selecting a cell to which the corrected velocity v 'and the angular velocity omega' belongs based on CTRV_EKF applying Extended Kalman Filtering (EKF) based on the CTRV motion model;
Extracting an average μ) and standard deviation φ) of the selected cell from the direction error "Δ φ max = μ φ + βσ φ , Δ φ min = μ φ - calculating a maximum orientation errors (Δ φ max) and the minimum direction errors (Δ φ min) on the basis of a formula βσ φ ";
The maximum orientation errors (Δ φ max) and the minimum direction errors (Δ φ min) the base by "Φ (T) + Δ φ min ~ Φ (T) + Δ φ max" the step of defining a phase angle range of ROPP ;
From the selected cell by the extracting mean a) and the standard deviation a) of the acceleration "a max = calculating a maximum acceleration ( a max ) according to an equation of? a +? a ?
"
Figure 112018110569533-pat00031
(S max (v)) on the basis of &quot;
Calculating an ROPP defined by a sector whose radius is s max (v) and whose phase angle is in the range of ? ( T ) + ?? Min to ? ( T ) + ?? Max ,
In the step of selecting the cell, if there is no corresponding cell, a cell of the active region closest to the cell is selected,
Wherein x and y are coordinates on a coordinate system having the x-axis and the y-axis as the front and the left sides of the vehicle, v is the velocity,? Is the angular velocity, t is the time and T is the predicted time. Pedestrian protection methods.
제3항에 있어서,
상기 ROD을 산출하는 단계는
상기 ROPP에 미리 저장해 둔 차량 횡방향 폭(W)을 파악하는 단계; 및
상기 ROPP의 좌변 및 우변 외측 영역을 상기 차량 횡방향 폭(W)의 절반(W/2)만큼 각각 확장함으로써, 상기 ROD을 획득하는 단계를 포함하는 것을 특징으로 하는 보행자 보호 방법.
The method of claim 3,
The step of calculating the ROD
Determining a vehicle lateral width (W) stored in advance in the ROPP; And
And obtaining the ROD by expanding the left and right side outer regions of the ROPP by half (W / 2) of the vehicle lateral width (W), respectively.
제1항에 있어서,
상기 ROD내에 위치하는 보행자 후보만을 선별 및 출력하는 단계는
상기 ROD를 상기 입력 영상에 투영하는 단계; 및
상기 입력 영상에 투영된 ROD 위치와 보행자 후보 객체의 위치를 비교하여, 상기 ROD내에 위치하는 보행자 후보 객체만을 검증 대상 객체로 선별 및 출력하는 단계를 포함하는 것을 특징으로 하는 보행자 보호 방법.
The method according to claim 1,
The step of selecting and outputting only the pedestrian candidates located in the ROD
Projecting the ROD onto the input image; And
Comparing the ROD position projected on the input image with the position of the candidate pedestrian object, and selecting and outputting only the pedestrian candidate object located in the ROD as the object to be verified.
제5항에 있어서,
상기 ROD를 상기 입력 영상에 투영하는 단계는
"
Figure 112018110569533-pat00012
"에 따라 ROD의 차량 중심 좌표계를 입력 영상 좌표계로 변환하며, 상기 x(u, v, 1)는 입력 영상 좌표계, 상기 P(X, Y, Z, 1)는 차량 중심 좌표계, 상기 P는 카메라의 투사 매트릭스인 것을 특징으로 하는 보행자 보호 방법.
6. The method of claim 5,
The step of projecting the ROD onto the input image
"
Figure 112018110569533-pat00012
"Converts the vehicle center coordinate of ROD to the input image coordinate system, the x (u, v, 1) is the input image coordinate system, the P (X, Y, Z, 1) is a vehicle central coordinate system, wherein P is the camera according to the Wherein the projection matrix is a projection matrix of the pedestrian.
입력 영상에서 보행자 후보 객체를 추출하는 후보 생성부;
주행 데이터의 통계적 분석을 통해 차량의 미래 경로가 존재할 수 있는 영역인 ROPP(Region of Prediction Path)을 산출하는 ROPP 산출부;
상기 ROPP의 좌변 및 우변 외측 영역을 기 설정된 기준에 따라 확장하여 ROD(Region of Danger)을 산출하는 ROD 산출부; 및
상기 후보 생성부를 통해 추출된 보행자 후보 객체 중 ROD내에 위치하는 보행자 후보만을 선별하여 후보 검증부에 전달하는 보행자 후보 선별부; 및
필터링된 보행자 후보 객체 각각에 대한 후보 검증을 수행하여 위험 상태의 보행자를 검출하는 후보 검증부를 포함하고,
상기 ROPP를 산출부는,
상기 주행 데이터에 포함된 차량의 속도 및 각속도를 획득하고,
상기 속도 및 가속도를 이용하여 예측시간 동안의 예상 경로 끝점을 계산하고, 상기 예상 경로 끝점의 위상각을 계산하고,
룩업 테이블로부터 상기 속도 및 각속도가 속하는 셀을 선택하고,
상기 선택된 셀로부터 방향 오류의 평균과 표준편차를 읽어오고, 상기 읽어온 방향 오류의 평균과 표준 편차를 이용하여 상기 예상 경로 끝점의 위상각에 대한 최대 방향 오류와 최소 방향 오류를 계산하고,
상기 계산된 최대 방향오류와 최소 방향 오류를 이용하여 상기 ROPP의 위상각의 범위를 계산하고,
상기 선택된 셀로부터 가속도의 평균과 표준 편차를 읽어오고, 상기 읽어온 가속도의 평균과 표준 편차를 이용하여 최대 도달 거리를 계산하고,
상기 위상각의 범위와 상기 최대 도달 거리에 의해 정의되는 상기 ROPP를 산출하고,
상기 룩업 테이블은 상기 차량의 속도 및 각속도에 따라 정의되는 복수의 셀을 포함하고, 각 셀마다 상기 각 셀에 할당된 속도와 각속도를 이용하여 가속도와 방향 오류를 계산하고, 계산된 가속도의 평균과 표준 편차 및 계산된 방향 오류의 평균과 표준편차를 계산하여 기록한 것을 특징으로 하는 보행자 보호 시스템.
A candidate generator for extracting a pedestrian candidate object from an input image;
An ROPP calculation unit for calculating a region of prediction path (ROPP), which is an area where a future route of the vehicle can exist through statistical analysis of the traveling data;
An ROD calculation unit for calculating an ROD (Region of Danger) by extending the left and right outer regions of the ROPP according to predetermined criteria; And
A pedestrian candidate selecting unit for selecting only the pedestrian candidates located in the ROD among the pedestrian candidate objects extracted through the candidate generating unit and transmitting the pedestrian candidates to the candidate verifying unit; And
And a candidate verifying unit for performing a candidate verification for each of the filtered pedestrian candidate objects to detect a pedestrian in a dangerous state,
The ROPP calculation unit may calculate,
Obtaining a speed and an angular velocity of the vehicle included in the running data,
Calculating a predicted path endpoint for the predicted time using the velocity and acceleration, calculating a phase angle of the predicted path endpoint,
Selects a cell to which the velocity and the angular velocity belong from a look-up table,
Calculating a maximum direction error and a minimum direction error with respect to a phase angle of the estimated path end point by using an average and a standard deviation of the read direction error,
Calculating a range of the phase angle of the ROPP using the calculated maximum direction error and the minimum direction error,
Reads the mean and standard deviation of the acceleration from the selected cells, calculates a maximum reach distance using the average and standard deviation of the read acceleration,
Calculating the ROPP defined by the range of the phase angle and the maximum reach distance,
Wherein the lookup table includes a plurality of cells defined according to a speed and an angular rate of the vehicle and calculates an acceleration and a direction error using a speed and an angular velocity assigned to each cell for each cell, Wherein the mean and standard deviation of the standard deviation and the calculated direction error are calculated and recorded.
삭제delete
KR1020170118873A 2017-09-15 2017-09-15 System and method for Pedestrian Protection KR101947280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170118873A KR101947280B1 (en) 2017-09-15 2017-09-15 System and method for Pedestrian Protection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170118873A KR101947280B1 (en) 2017-09-15 2017-09-15 System and method for Pedestrian Protection

Publications (1)

Publication Number Publication Date
KR101947280B1 true KR101947280B1 (en) 2019-05-08

Family

ID=66580030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170118873A KR101947280B1 (en) 2017-09-15 2017-09-15 System and method for Pedestrian Protection

Country Status (1)

Country Link
KR (1) KR101947280B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160054925A (en) * 2014-11-07 2016-05-17 현대모비스 주식회사 Apparatus and method for specific object detection
KR20160065703A (en) * 2014-12-01 2016-06-09 계명대학교 산학협력단 Method and system for detection of sudden pedestrian crossing for safe driving during night time
KR101770924B1 (en) 2016-10-18 2017-09-05 한국교통대학교산학협력단 System and method for Active Pedestrian Protection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160054925A (en) * 2014-11-07 2016-05-17 현대모비스 주식회사 Apparatus and method for specific object detection
KR20160065703A (en) * 2014-12-01 2016-06-09 계명대학교 산학협력단 Method and system for detection of sudden pedestrian crossing for safe driving during night time
KR101770924B1 (en) 2016-10-18 2017-09-05 한국교통대학교산학협력단 System and method for Active Pedestrian Protection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
David Gerㆃnimo, Antonio M. Lㆃpez, Angel D. Sappa, and Thorsten Graf, "Survey of Pedestrian Detection for Advanced Driver Assistance Systems," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 7, Jul. 2010, pp. 1239-1258.

Similar Documents

Publication Publication Date Title
CN110458854B (en) Road edge detection method and device
US10435074B2 (en) Parking support method and device
US11506502B2 (en) Robust localization
US9797981B2 (en) Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method
US9129523B2 (en) Method and system for obstacle detection for vehicles using planar sensor data
CN110632617B (en) Laser radar point cloud data processing method and device
CN112880694B (en) Method for determining the position of a vehicle
US11741720B2 (en) System and method for tracking objects using using expanded bounding box factors
KR102547274B1 (en) Moving robot and method for estiating location of moving robot
CN112729320B (en) Method, device and equipment for constructing obstacle map and storage medium
JP4333611B2 (en) Obstacle detection device for moving objects
Simanek et al. Improving multi-modal data fusion by anomaly detection
Almeida et al. Real time egomotion of a nonholonomic vehicle using LIDAR measurements
JP4539388B2 (en) Obstacle detection device
JP2011043405A (en) Self position estimation apparatus, self position estimation method, and program
JP2021082286A (en) System and method for improving lane change detection, and non-temporary computer-readable medium
Schütz et al. Simultaneous tracking and shape estimation with laser scanners
WO2022116831A1 (en) Positioning method and apparatus, electronic device and readable storage medium
Bayerl et al. Detection and tracking of rural crossroads combining vision and LiDAR measurements
KR101947280B1 (en) System and method for Pedestrian Protection
KR101770924B1 (en) System and method for Active Pedestrian Protection
US10186154B2 (en) Device and method for detecting surrounding vehicles
JP2006302133A (en) Information processor, information processing method, and image information processor and image information processing method using the same
Tomari et al. Empirical framework for autonomous wheelchair systems in human-shared environments
Vatavu et al. Environment perception using dynamic polylines and particle based occupancy grids