KR20230067242A - Performance evaluation apparatus and method for autonomous emergency braking system - Google Patents

Performance evaluation apparatus and method for autonomous emergency braking system Download PDF

Info

Publication number
KR20230067242A
KR20230067242A KR1020210153122A KR20210153122A KR20230067242A KR 20230067242 A KR20230067242 A KR 20230067242A KR 1020210153122 A KR1020210153122 A KR 1020210153122A KR 20210153122 A KR20210153122 A KR 20210153122A KR 20230067242 A KR20230067242 A KR 20230067242A
Authority
KR
South Korea
Prior art keywords
distance
evaluated
performance
performance evaluation
unit
Prior art date
Application number
KR1020210153122A
Other languages
Korean (ko)
Other versions
KR102565603B1 (en
Inventor
이선봉
김봉주
이시호
이수림
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020210153122A priority Critical patent/KR102565603B1/en
Publication of KR20230067242A publication Critical patent/KR20230067242A/en
Application granted granted Critical
Publication of KR102565603B1 publication Critical patent/KR102565603B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T17/00Component parts, details, or accessories of power brake systems not covered by groups B60T8/00, B60T13/00 or B60T15/00, or presenting other characteristic features
    • B60T17/18Safety devices; Monitoring
    • B60T17/22Devices for monitoring or checking brake systems; Signal devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/28Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for testing brakes
    • G01L5/284Measuring braking-time or braking distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/81Braking systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 긴급 제동 시스템의 성능평가 장치는 듀얼 카메라를 기반으로 물체까지의 거리를 측정하는 듀얼 카메라 장착 위치 결정장치; 및 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 성능 평가부를 포함하는 것을 특징으로 한다.The performance evaluation device of the emergency braking system of the present invention includes a dual camera-mounted positioning device for measuring the distance to an object based on the dual camera; and a performance evaluation unit that evaluates the performance of the AEB system to be evaluated by comparing the distance detected through the dual-camera-equipped positioning device with the distance measured by the AEB system to be evaluated.

Description

긴급 제동 시스템의 성능평가 장치 및 방법{PERFORMANCE EVALUATION APPARATUS AND METHOD FOR AUTONOMOUS EMERGENCY BRAKING SYSTEM}Performance evaluation apparatus and method of emergency braking system {PERFORMANCE EVALUATION APPARATUS AND METHOD FOR AUTONOMOUS EMERGENCY BRAKING SYSTEM}

본 발명은 긴급 제동을 수행하는 AEB 시스템에 대한 성능을 평가하는 긴급 제동 시스템의 성능평가 장치 및 방법에 관한 것이다. The present invention relates to an emergency braking system performance evaluation apparatus and method for evaluating the performance of an AEB system performing emergency braking.

최근 자율 주행 차량에 대한 연구와 개발이 증가하고 있다.Recently, research and development of autonomous vehicles is increasing.

자율 주행 차량은, 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 의미한다. 이러한 자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않더라도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행하는 것을 목표로 한다.The self-driving vehicle refers to a vehicle that autonomously determines a driving route by recognizing the surrounding environment through an external information sensing and processing function while driving, and independently drives using its own power. These self-driving vehicles prevent collisions with obstacles on the driving path and drive to the destination by themselves while adjusting the vehicle speed and driving direction according to the shape of the road, even if the driver does not manipulate the steering wheel, accelerator pedal, or brake. aim for

따라서 상기 목표를 달성하기 위한 과정으로서, 현재의 차량에는 운전자의 주행을 보조하기 위한 적어도 하나 이상의 운전자 지원 시스템(ADAS: Advanced Driver Assistance System)이 적용되고 있으며, 상기 운전자 지원 시스템(ADAS) 중에는 자동 긴급 제동(AEB: Autonomous Emergency Braking) 시스템이 있다.Therefore, as a process to achieve the above goal, at least one driver assistance system (ADAS: Advanced Driver Assistance System) is applied to current vehicles to assist the driver's driving, and among the driver assistance systems (ADAS) are automatic emergency There is an Autonomous Emergency Braking (AEB) system.

이때 상기 운전자 지원 시스템(ADAS), 특히 자동 긴급 제동(AEB) 시스템은, 오작동 시 주변 차량 또는 보행자와의 충돌로 인해 인명 사고를 유발하는 문제점이 있기 때문에 작동과 제동 성능에 대한 정밀한 시험 평가가 필수적으로 요구되고 있다. 그러나 현재로서는 상기 자동 긴급 제동(AEB) 시스템의 시험과 성능 평가를 위한 구체적인 장치 및 방법에 대한 개발이 미흡한 실정이다.At this time, the driver assistance system (ADAS), especially the automatic emergency braking (AEB) system, has a problem of causing human accidents due to collisions with nearby vehicles or pedestrians when malfunctioning, so precise test evaluation on operation and braking performance is essential. is being demanded However, at present, development of specific devices and methods for testing and performance evaluation of the automatic emergency braking (AEB) system is insufficient.

본 발명의 배경기술은 대한민국 등록특허공보 10-0405569호(2003.11.03)의 '제동성능 평가 실험장치'에 개시되어 있다.The background art of the present invention is disclosed in Korean Patent Registration No. 10-0405569 (2003.11.03) 'Braking performance evaluation test device'.

본 발명은 전술한 문제점을 개선하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 AEB 시스템에 대한 성능을 평가하는 긴급 제동 시스템의 성능평가 장치 및 방법을 제공하는 데 있다.The present invention has been devised to improve the above problems, and an object according to an aspect of the present invention is to provide an apparatus and method for evaluating the performance of an emergency braking system for evaluating the performance of an AEB system.

본 발명의 일 측면에 따른 긴급 제동 시스템의 성능평가 장치는 듀얼 카메라를 기반으로 물체까지의 거리를 측정하는 듀얼 카메라 장착 위치 결정장치; 및 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 성능 평가부를 포함하는 것을 특징으로 한다.An apparatus for evaluating the performance of an emergency braking system according to an aspect of the present invention includes a dual camera mounting positioning device for measuring a distance to an object based on a dual camera; and a performance evaluation unit that evaluates the performance of the AEB system to be evaluated by comparing the distance detected through the dual-camera-equipped positioning device with the distance measured by the AEB system to be evaluated.

본 발명의 상기 성능 평가부는 기 설정된 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.The performance evaluation unit of the present invention evaluates the performance of the AEB system to be evaluated by using an error between the distance detected through the dual camera mounting positioning device for each preset scenario and the distance measured by the AEB system to be evaluated. to be characterized

본 발명의 상기 성능 평가부는 상기 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.The performance evaluation unit of the present invention uses at least one of the maximum value, the minimum value, and the average value of the error between the distance detected through the dual-camera-equipped positioning device and the distance measured by the evaluation target AEB system for each scenario. Characterized in evaluating the performance of the AEB system.

본 발명은 상기 성능 평가부의 평가 결과를 출력하는 평가 결과 출력부를 더 포함하는 것을 특징으로 한다.The present invention is characterized in that it further comprises an evaluation result output unit outputting an evaluation result of the performance evaluation unit.

본 발명의 다른 측면에 따른 긴급 제동 시스템의 성능 평가 장치는 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 거리 측정부; 및 상기 거리 측정부를 통해 측정된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 성능 평가부를 포함하는 것을 특징으로 한다.An apparatus for evaluating performance of an emergency braking system according to another aspect of the present invention includes a distance measuring unit for measuring a distance between a vehicle and an object using an initial relative distance of an object, a vehicle speed, and an object speed; and a performance evaluation unit that evaluates performance of the AEB system to be evaluated by comparing the distance measured through the distance measurement unit with the distance measured by the AEB system to be evaluated.

본 발명의 상기 거리 측정부는 아래의 수학식을 이용하여 차량과 물체 간의 거리를 측정하고, 상기 수학식은

Figure pat00001
이며, 여기서,
Figure pat00002
는 상대거리,
Figure pat00003
는 초기 상대거리,
Figure pat00004
는 선행차량 속도,
Figure pat00005
는 대상차량 속도, 0.2, 2.9, 및 36.1은 보정 파라미터인 것을 특징으로 한다.The distance measurement unit of the present invention measures the distance between the vehicle and the object using the following equation, the equation is
Figure pat00001
is, where
Figure pat00002
is the relative distance,
Figure pat00003
is the initial relative distance,
Figure pat00004
is the speed of the preceding vehicle,
Figure pat00005
is the target vehicle speed, and 0.2, 2.9, and 36.1 are correction parameters.

본 발명의 상기 성능 평가부는 기 설정된 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.The performance evaluation unit of the present invention may evaluate the performance of the AEB system to be evaluated by using an error between the distance measured through the distance measurement unit and the distance measured by the AEB system to be evaluated for each preset scenario.

본 발명의 상기 성능 평가부는 상기 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.The performance evaluation unit of the present invention uses at least one of the maximum value, the minimum value, and the average value of the error between the distance measured through the distance measurer and the distance measured by the AEB system to be evaluated for each scenario, and uses at least one of the performance of the AEB system to be evaluated. It is characterized by evaluating.

본 발명은 상기 성능 평가부의 평가 결과를 출력하는 평가 결과 출력부를 더 포함하는 것을 특징으로 한다.The present invention is characterized in that it further comprises an evaluation result output unit outputting an evaluation result of the performance evaluation unit.

본 발명의 일 측면에 따른 긴급 제동 시스템의 성능 평가 방법은 듀얼 카메라 장착 위치 결정장치가 듀얼 카메라를 기반으로 물체까지의 거리를 측정하는 단계; 및 성능 평가부가 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계를 포함하는 것을 특징으로 한다.A performance evaluation method of an emergency braking system according to an aspect of the present invention includes the steps of measuring a distance to an object based on a dual camera by a dual camera mounting positioning device; and evaluating the performance of the AEB system to be evaluated by a performance evaluation unit by comparing the distance detected through the dual-camera mounting positioning device with the distance measured by the AEB system to be evaluated.

본 발명의 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계에서, 상기 성능 평가부는 기 설정된 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.In the step of evaluating the performance of the AEB system to be evaluated according to the present invention, the performance evaluation unit calculates an error between the distance detected through the dual camera mounting positioning device and the distance measured by the AEB system to be evaluated for each preset scenario. It is characterized in that the performance of the AEB system to be evaluated is evaluated by using.

본 발명의 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계에서, 상기 성능 평가부는 상기 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.In the step of evaluating the performance of the AEB system to be evaluated according to the present invention, the performance evaluation unit is the maximum value of the error between the distance detected through the dual camera mounted positioning device for each scenario and the distance measured by the AEB system to be evaluated. It is characterized in that the performance of the AEB system to be evaluated is evaluated using at least one of the minimum value and the average value.

본 발명의 다른 측면에 따른 긴급 제동 시스템의 성능 평가 방법은 거리 측정부가 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 단계; 및 성능 평가부가 상기 거리 측정부를 통해 측정된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, a performance evaluation method of an emergency braking system includes measuring a distance between a vehicle and an object by a distance measurer using an initial relative distance of an object, a vehicle speed, and an object speed; and comparing the distance measured by the distance measurer with the distance measured by the AEB system to be evaluated by the performance evaluation unit to evaluate the performance of the AEB system to be evaluated.

본 발명의 상기 거리 측정부가 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 단계에서, 상기 거리 측정부는 아래의 수학식을 이용하여 차량과 물체 간의 거리를 측정하고, 상기 수학식은

Figure pat00006
이며, 여기서,
Figure pat00007
는 상대거리,
Figure pat00008
는 초기 상대거리,
Figure pat00009
는 선행차량 속도,
Figure pat00010
는 대상차량 속도, 0.2, 2.9, 및 36.1은 보정 파라미터인 것을 특징으로 한다.In the step of measuring the distance between the vehicle and the object by the distance measurement unit using the initial relative distance of the object, the speed of the vehicle and the speed of the object, the distance measurement unit calculates the distance between the vehicle and the object using the following equation. measured, and the above equation is
Figure pat00006
is, where
Figure pat00007
is the relative distance,
Figure pat00008
is the initial relative distance,
Figure pat00009
is the speed of the preceding vehicle,
Figure pat00010
is the target vehicle speed, and 0.2, 2.9, and 36.1 are correction parameters.

본 발명의 상기 성능 평가부는 기 설정된 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다.The performance evaluation unit of the present invention may evaluate the performance of the AEB system to be evaluated by using an error between the distance measured through the distance measurement unit and the distance measured by the AEB system to be evaluated for each preset scenario.

본 발명의 상기 성능 평가부는 상기 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 한다. The performance evaluation unit of the present invention uses at least one of the maximum value, the minimum value, and the average value of the error between the distance measured through the distance measurer and the distance measured by the AEB system to be evaluated for each scenario, and uses at least one of the performance of the AEB system to be evaluated. It is characterized by evaluating.

본 발명의 긴급 제동 시스템의 성능평가 장치 및 방법은 듀얼 카메라를 이용하여 계산한 거리를 바탕으로, 평가 대상 AEB 시스템의 성능을 평가할 수 있도록 한다.The apparatus and method for evaluating the performance of an emergency braking system of the present invention enable the performance of an AEB system to be evaluated based on a distance calculated using a dual camera.

본 발명의 긴급 제동 시스템의 성능평가 장치 및 방법은 상대거리, 초기상대거리, 물체 속도, 대상차량 속도, 목표 상대거리, 시간차, 대상차량과 물체간의 시간차, 및 대상차량과 물체 간의 시간차를 이용하여 물체와의 거리를 측정하고, 이를 바탕으로 평가 대상 AEB 시스템의 성능을 평가할 수 있도록 한다.The apparatus and method for evaluating the performance of an emergency braking system of the present invention use a relative distance, an initial relative distance, an object speed, a target vehicle speed, a target relative distance, a time difference, a time difference between a target vehicle and an object, and a time difference between a target vehicle and an object. The distance to the object is measured, and based on this, the performance of the AEB system to be evaluated can be evaluated.

본 발명의 긴급 제동 시스템의 성능평가 장치 및 방법은 완성차의 안전성 평가에 있어 실차시험 시 소요되는 기간, 경비 및 고가의 장비와 전문인력을 획기적으로 감소시킬 수 있다.The apparatus and method for evaluating the performance of an emergency braking system according to the present invention can drastically reduce the time, expense, and expensive equipment and professional manpower required for a vehicle test in evaluating the safety of a finished vehicle.

본 발명의 긴급 제동 시스템의 성능평가 장치 및 방법은 부품개발업체나 완성차 회사의 개발 자유도, 안전성 검증 등의 이론적 근거를 제공할 수 있다. The apparatus and method for evaluating the performance of an emergency braking system according to the present invention can provide a theoretical basis for the development freedom and safety verification of a component developer or an automobile company.

도 1 은 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치의 블럭 구성도이다.
도 2 는 본 발명의 일 실시예에 따른 듀얼 카메라 장착 위치 결정 장치의 블럭 구성도이다.
도 3 은 본 발명의 일 실시예에 따른 영상 보정부의 블럭 구성도이다.
도 4 는 본 발명의 일 실시예에 따른 영상 왜곡 보정을 위한 체커보드 영상을 나타낸 도면이다.
도 5 는 본 발명의 일 실시예에 따른 보정된 영상을 나타낸 도면이다.
도 6 은 본 발명의 일 실시예에 따른 수평 스테레오 카메라 모델을 나타낸 도면이다.
도 7 은 본 발명의 일 실시예에 따른 차선 검출부의 블럭 구성도이다.
도 8 은 본 발명의 일 실시예에 따른 차선 검출 과정을 도시한 순서도이다.
도 9 는 본 발명의 일 실시예에 따른 차선 검출 과정의 영상이다.
도 10 은 본 발명의 일 실시예에 따른 장착 위치 결정부의 블럭 구성도이다.
도 11 은 본 발명의 일 실시예에 따른 장착 위치를 개념적으로 나타낸 도면이다.
도 12 내지 도 14 는 본 발명의 일 실시예에 따른 카메라의 위치에 따른 영상을 나타낸 도면이다.
도 15 내지 도 17 은 본 발명의 일 실시예에 따른 위치 선정에 따른 평균 오차율을 나타낸 도면이다.
도 18 은 본 발명의 일 실시예에 따른 직선로에서의 전방 물체까지의 거리를 나타낸 도면이다.
도 19 는 본 발명의 일 실시예에 따른 곡선로에서의 전방 물체까지의 거리를 나타낸 도면이다.
도 20 은 본 발명의 일 실시예에 따른 거리 측정을 위한 시나리오의 예시도이다.
도 21 은 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 방법의 순서도이다.
도 22 는 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 방법의 순서도이다.
1 is a block diagram of a performance evaluation device for an emergency braking system according to an embodiment of the present invention.
2 is a block diagram of a dual camera mounted positioning device according to an embodiment of the present invention.
3 is a block diagram of an image correction unit according to an embodiment of the present invention.
4 is a diagram showing a checkerboard image for image distortion correction according to an embodiment of the present invention.
5 is a diagram showing a corrected image according to an embodiment of the present invention.
6 is a diagram illustrating a horizontal stereo camera model according to an embodiment of the present invention.
7 is a block configuration diagram of a lane detection unit according to an embodiment of the present invention.
8 is a flowchart illustrating a lane detection process according to an embodiment of the present invention.
9 is an image of a lane detection process according to an embodiment of the present invention.
10 is a block configuration diagram of a mounting position determining unit according to an embodiment of the present invention.
11 is a view conceptually showing a mounting position according to an embodiment of the present invention.
12 to 14 are diagrams showing images according to the position of a camera according to an embodiment of the present invention.
15 to 17 are diagrams showing average error rates according to location selection according to an embodiment of the present invention.
18 is a diagram showing a distance to a forward object on a straight road according to an embodiment of the present invention.
19 is a diagram showing a distance to a forward object on a curved road according to an embodiment of the present invention.
20 is an exemplary view of a scenario for distance measurement according to an embodiment of the present invention.
21 is a flowchart of a performance evaluation method of an emergency braking system according to an embodiment of the present invention.
22 is a flowchart of a performance evaluation method of an emergency braking system according to an embodiment of the present invention.

이하에서는 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치 및 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이러한 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 이용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, an apparatus and method for evaluating performance of an emergency braking system according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.

도 1 은 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치의 블럭 구성도이다.1 is a block diagram of a performance evaluation device for an emergency braking system according to an embodiment of the present invention.

도 1 을 참조하면, 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치는 듀얼 카메라 장착 위치 결정 장치(100), 거리 측정부(200), 성능 평가부(300), 및 평가 결과 출력부(400)를 포함한다. Referring to FIG. 1 , the performance evaluation device of an emergency braking system according to an embodiment of the present invention includes a dual camera mounting positioning device 100, a distance measurement unit 200, a performance evaluation unit 300, and an evaluation result output. Includes section 400.

도 1 에서, 평가 대상 AEB 시스템(500)은 차량에 탑재되거나 탑재될 수 있는 AEB 시스템으로서, 그 평가 대상되는 AEB 시스템이다.In FIG. 1 , an evaluation target AEB system 500 is an AEB system that is mounted or can be installed in a vehicle, and is an AEB system to be evaluated.

듀얼 카메라 장착 위치 결정 장치(100)는 차량 내 최적의 듀얼 카메라 장착 위치를 결정하고 결정된 장착 위치를 기반으로 물체까지의 거리를 측정한다.The dual camera mounting position determining apparatus 100 determines an optimal dual camera mounting position in a vehicle and measures a distance to an object based on the determined mounting position.

도 2 는 본 발명의 일 실시예에 따른 듀얼 카메라 장착 위치 결정 장치의 블럭 구성도이다.2 is a block diagram of a dual camera mounted positioning device according to an embodiment of the present invention.

도 2 를 참조하면, 본 발명의 일 실시예에 따른 듀얼 카메라 장착 위치 결정 장치(100)는 2개의 카메라(10), 차선 검출부(30), 영상 보정부(40), 및 장착 위치 결정부(50)를 포함한다.Referring to FIG. 2 , the dual camera mounting position determining device 100 according to an embodiment of the present invention includes two cameras 10, a lane detection unit 30, an image correcting unit 40, and a mounting position determining unit ( 50) included.

카메라(10)는 차량의 좌측과 우측에 각각 설치되어 차량 전방의 영상을 촬영한다.Cameras 10 are installed on the left and right sides of the vehicle, respectively, to capture images of the front of the vehicle.

도 3 은 본 발명의 일 실시예에 따른 영상 보정부의 블럭 구성도이고, 도 4 는 본 발명의 일 실시예에 따른 영상 왜곡 보정을 위한 체커보드 영상을 나타낸 도면이며, 도 5 는 본 발명의 일 실시예에 따른 보정된 영상을 나타낸 도면이다. 도 6 은 본 발명의 일 실시예에 따른 평행 스테레오 카메라 모델을 나타낸 도면이다.3 is a block diagram of an image correction unit according to an embodiment of the present invention, FIG. 4 is a diagram showing a checkerboard image for image distortion correction according to an embodiment of the present invention, and FIG. It is a diagram showing a corrected image according to an embodiment. 6 is a diagram illustrating a parallel stereo camera model according to an embodiment of the present invention.

영상 보정부(40)는 카메라(10)에서 촬영된 영상을 보정한다. The image correction unit 40 corrects the image captured by the camera 10 .

도 3 을 참조하면, 영상 보정부(40)는 영상 왜곡 제거부(41), 영상 정류부(42), 및 초점거리 검출부(43)를 포함한다. Referring to FIG. 3 , the image correction unit 40 includes an image distortion removal unit 41 , an image rectification unit 42 , and a focal length detection unit 43 .

영상 왜곡 제거부(41)는 영상의 왜곡을 제거한다. The image distortion removal unit 41 removes image distortion.

통상적으로, 카메라(10)로 획득한 영상에는 볼록렌즈의 굴절률에 의해 발생하는 방사왜곡(radial distortion) 및 카메라 제조과정에서 렌즈와 이미지 센서의 수평 문제 등으로 발생하는 접선왜곡(tangential distortion)이 존재한다. 이에, 영상 왜곡 제거부(41)는 영상의 가장자리에서 방사왜곡으로 인한 원형의 왜곡, 접선왜곡으로 인한 타원형의 왜곡을 보정한다.Typically, images acquired by the camera 10 have radial distortion caused by the refractive index of a convex lens and tangential distortion caused by horizontal problems of the lens and image sensor during the camera manufacturing process. do. Accordingly, the image distortion removing unit 41 corrects circular distortion due to radial distortion and elliptical distortion due to tangential distortion at the edge of the image.

이를 위해, 영상 왜곡 제거부(41)는 영상 속 각 픽셀에 해당하는 좌표를 왜곡시켰을 때, 왜곡 영상 속 대응되는 픽셀의 값을 보정된 영상 속 각 픽셀의 값으로 사용한다. To this end, when the image distortion remover 41 distorts the coordinates corresponding to each pixel in the image, the value of the corresponding pixel in the distorted image is used as the value of each pixel in the corrected image.

본 실시예에서는 영상처리를 위해 OpenCV의 내장된 체커보드 패턴 탐색 함수, 코너 점 탐색 함수, 및 카메라 캘리브레이션 함수를 사용한다. 보정된 영상을 얻기 위해 카메라(10)로 6x4 체커보드를 촬영하여 체커보드 내의 코너 점을 찾고, 얻은 점들로부터 카메라 매트릭스(matrix)와 왜곡 계수를 계산한다. 도 5 의 (a)는 원본 영상에서 코너 점을 찾은 영상이고, (b)는 왜곡을 제거한 영상이다. In this embodiment, OpenCV's built-in checkerboard pattern search function, corner point search function, and camera calibration function are used for image processing. In order to obtain a corrected image, a 6x4 checkerboard is photographed by the camera 10 to find corner points in the checkerboard, and a camera matrix and distortion coefficient are calculated from the obtained points. 5(a) is an image in which corner points are found in an original image, and (b) is an image in which distortion is removed.

영상 정류부(42)는 카메라(10)의 설치 과정 혹은 카메라 내부 파라미터 등으로 발생할 수 있는 수직 시차를 영상 정류 보정한다.The image rectifying unit 42 rectifies and corrects vertical parallax that may occur due to the installation process of the camera 10 or internal parameters of the camera.

통상적으로, 평행식 스테레오 카메라 구성은 카메라(10) 및 렌즈의 광축이 평행한 두 카메라(10)를 이용하므로, 수직 시차가 없기 때문에 영상처리에 유리하다. In general, the parallel stereo camera configuration uses two cameras 10 in which the optical axes of the cameras 10 and lenses are parallel, so that there is no vertical parallax, which is advantageous for image processing.

영상 정류는 듀얼 카메라의 영상 내의 픽셀 행을 일치시키기 위한 에피폴라 라인(epipolar line)을 찾은 후, 영상 속 임의의 물체를 동일한 수평 좌표를 갖게 하는 것이다. Image rectification is to find an epipolar line for matching pixel rows in an image of a dual camera, and then to have an arbitrary object in the image have the same horizontal coordinates.

본 실시예에는 영상처리를 위해 OpenCV의 내장된 스테레오 캘리브레이션 함수와 스테레오 정류 함수를 사용하고, 체커보드 패턴 탐색, 코너 점 탐색 듀얼 카메라의 캘리브레이션을 위해 영상 왜곡 제거 단계에서 사용된 체커보드 영상을 사용할 수 있다. 도 5 의 (a)와 같이 하나의 체커보드를 듀얼 카메라로 촬영해 얻은 한 쌍의 영상으로부터 내부 파라미터와 두 카메라(10)의 회전 매트릭스, 정류된 좌표계에서의 투영 행렬 등을 얻을 수 있다. 이를 이용하면 도 5 의 (b)와 같은 보정된 영상을 얻을 수 있다.In this embodiment, OpenCV's built-in stereo calibration function and stereo rectification function are used for image processing, and the checkerboard image used in the image distortion removal step can be used for the checkerboard pattern search, corner point search, and calibration of the dual camera. there is. As shown in (a) of FIG. 5 , internal parameters, rotation matrices of the two cameras 10 , projection matrices in the rectified coordinate system, and the like can be obtained from a pair of images obtained by photographing a checkerboard with a dual camera. Using this, a corrected image as shown in (b) of FIG. 5 can be obtained.

초점거리 검출부(43)는 거리 측정을 위한 초점거리를 검출한다. 거리 측정을 위해 두 개의 카메라(10)의 광축이 서로 평행하고 렌즈가 서로 지면으로부터 동일한 높이에 위치하여 동일선상에 있으며, 도 6 에 도시된 바와 같은 카메라(10)의 기하학적 구조와 삼각측량법을 이용함으로써, 카메라(10)의 위치부터 물체까지의 3차원 좌표를 수학식 1과 같이 계산할 수 있다.The focal length detector 43 detects a focal length for distance measurement. For distance measurement, the optical axes of the two cameras 10 are parallel to each other, the lenses are located at the same height from the ground and are on the same line, and the geometry of the cameras 10 and triangulation as shown in FIG. 6 are used. By doing so, the 3D coordinates from the position of the camera 10 to the object can be calculated as in Equation 1.

Figure pat00011
Figure pat00011

여기서, X, Y, Z는 세계 좌표계상의 물체 좌표, f는 초점거리, b는 좌우 카메라 사이의 간격, d는 시차, xl은 왼쪽 영상의 x좌표, xr은 오른쪽 영상의 x좌표, yl은 왼쪽 영상의 y좌표, yr은 오른쪽 영상의 y좌표이다. Here, X, Y, Z are the coordinates of the object in the world coordinate system, f is the focal length, b is the distance between the left and right cameras, d is the parallax, xl is the x-coordinate of the left image, xr is the x-coordinate of the right image, yl is the left The y-coordinate of the image, yr is the y-coordinate of the right image.

한편, 초점거리는 Z축 좌표를 계산하기 위해 필요한 파라미터 중 하나지만, 고가의 카메라에 비해 값이 저렴한 웹캠의 경우 제조사에서 초점거리를 제공하지 않거나, 제공된 값과의 오차가 있을 수 있다. 또한 영상 보정을 거치면서 오차가 발생할 수 있기 때문에 값을 보정할 필요가 있다.On the other hand, the focal length is one of the parameters required to calculate the Z-axis coordinate, but in the case of inexpensive webcams compared to expensive cameras, the manufacturer may not provide the focal length or there may be an error with the provided value. In addition, since an error may occur during image correction, it is necessary to correct the value.

초점 거리 보정을 위하여 실제 데이터 기반으로 커브 피팅(curve fitting)을 수행할 수 있다. 수학식 1에서 Z축 좌표 Z와 시차 d가 반비례관계라는 점을 이용하여, 수학식 2를 얻을 수 있다.For focal length correction, curve fitting may be performed based on actual data. In Equation 1, Equation 2 can be obtained by using the fact that the Z-axis coordinate Z and the parallax d are inversely proportional.

Figure pat00012
Figure pat00012

Zactual은 실제거리이고, α,β는 초점 거리 보정을 통해 얻은 계수이며, d는 시차이다. Z actual is the actual distance, α, β are the coefficients obtained through focal length correction, and d is the parallax.

일 예로, 1m부터 5m까지 0.5m 간격으로 설치된 물체를 촬영하고, 각 지점에서의 물체의 시차를 계산하며, 거리별 시차 데이터와 수학식 2를 활용해 최소제곱법을 사용한 커브 피팅을 수행하면 계수 α,β를 얻을 수 있다. For example, if an object installed at 0.5m intervals from 1m to 5m is photographed, the parallax of the object at each point is calculated, and curve fitting using the least squares method is performed using the parallax data for each distance and Equation 2. α and β can be obtained.

이러한 초점거리와 시차를 토대로 후술하는 거리 검출부(51)에 의해 물체까지의 거리가 검출될 수 있다.Based on the focal length and parallax, the distance to the object may be detected by a distance detector 51 to be described later.

차선 검출부(30)는 2개의 카메라(10)에서 촬영된 영상에서 차선을 검출한다.The lane detecting unit 30 detects lanes in images captured by the two cameras 10 .

도 7 은 본 발명의 일 실시예에 따른 차선 검출부의 블럭 구성도이고, 도 8 은 본 발명의 일 실시예에 따른 차선 검출 과정을 도시한 순서도이며, 도 9 는 본 발명의 일 실시예에 따른 차선 검출 과정의 영상이다.7 is a block diagram of a lane detection unit according to an embodiment of the present invention, FIG. 8 is a flowchart illustrating a lane detection process according to an embodiment of the present invention, and FIG. 9 is a block diagram according to an embodiment of the present invention. This is a video of the lane detection process.

도 7 내지 도 9 를 참조하면, 차선 검출부(30)는 관심영역((region of interest)) 설정부(31), 직선 검출 영상 추출부(32), 색상 검출 영상 추출부(33), 영상 원근 변환부(34), 차선 생성부(35), 및 차선 적용부(36)를 포함한다.7 to 9, the lane detection unit 30 includes a region of interest setting unit 31, a straight line detection image extraction unit 32, a color detection image extraction unit 33, and an image perspective. It includes a converting unit 34, a lane generating unit 35, and a lane applying unit 36.

관심영역 설정부(31)는 영상이 입력되면 영상 내에서 차선이 위치할 수 있는 관심영역을 설정한다(S10,S20). 관심영역은 카메라로 취득한 영상에서 필요한 정보가 있는 영역이다. 카메라가 자동차에 고정되면 도로에서 촬영되는 범위가 변하지 않기 때문에 관계없는 영역을 제거하여 필요한 영역만을 얻을 수 있다. When an image is input, the region of interest setting unit 31 sets a region of interest in which a lane can be positioned within the image (S10 and S20). The region of interest is a region containing necessary information in an image acquired by a camera. When the camera is fixed to the car, the area covered by the road does not change, so extraneous areas can be removed to obtain only the necessary areas.

도 9 의 (a)는 고정된 좌측 카메라에서 입력되는 영상이며, 차선 검출이 가능한 영상의 높이인 20%에서 50%를 관심영역으로 설정하면 도 9 의 (b)와 같이 얻을 수 있다. (a) of FIG. 9 is an image input from a fixed left camera, and can be obtained as shown in (b) of FIG.

직선 검출 영상 추출부(32)는 관심영역 설정부(31)에 의해 설정된 관심영역에 대한 영상 처리, 예컨대 그레이스케일(grayscale) 변환, 엣지 검출, 허프 변환 및 필터링을 통해 직선 검출 영상을 추출한다. The straight line detection image extraction unit 32 extracts the straight line detection image through image processing for the region of interest set by the region of interest setting unit 31, such as grayscale conversion, edge detection, Hough conversion, and filtering.

먼저, 직선 검출 영상 추출부(32)는 관심영역에 대한 그레이스케일 변환을 수행한다(S30). 즉, 직선 검출 영상 추출부(32)는 관심영역인 RGB 형식을 단일 채널만을 가지는 흑백 영상으로 변환한다. First, the straight line detection image extractor 32 performs gray scale conversion on the region of interest (S30). That is, the straight line detection image extraction unit 32 converts the RGB format, which is the region of interest, into a black and white image having only a single channel.

그레이스케일(grayscale) 변환은 3개의 채널로 구성된 RGB(Red, Green, Blue) 형식 영상을 하나의 채널로 구성된 단일 색상 영상으로 만든다. 변환된 영상은 밝기 정보만을 가지기 때문에 처리해야 할 데이터량이 1/3 수준으로 감소하여 연산 처리 속도를 높일 수 있다.Grayscale conversion converts an RGB (Red, Green, Blue) format image composed of three channels into a single color image composed of one channel. Since the converted image has only brightness information, the amount of data to be processed is reduced to a level of 1/3, thereby increasing the processing speed.

도 9 의 (c)는 그레이스케일 변환을 수행한 영상으로서, R, G, B 채널 각각의 픽셀 값을 더해서 평균한 값으로 생성된 단일채널 영상이다. 9(c) is an image obtained by grayscale conversion, and is a single-channel image generated by adding and averaging pixel values of R, G, and B channels.

직선 검출 영상 추출부(32)는 노이즈 제거, 그라디언트 계산, 비최대 억제, 이력 현상 임계화의 단계로 구성된 캐니 에지 검출기(canny edge detector)를 이용하여 관심영역에서 엣지를 검출한다(S40). The straight line detection image extractor 32 detects an edge in the region of interest using a canny edge detector composed of steps of noise removal, gradient calculation, non-maximum suppression, and hysteresis thresholding (S40).

캐니 에지 검출기는 에지 검출 알고리즘 중 하나이며, 노이즈(noise) 제거, 그라디언트(gradient)의 크기와 방향 계산, 비최대치 억제(non-maximum suppression), 이력 임계값(hysteresis threshold) 등의 단계를 거쳐 영상 내의 에지를 검출한다. 다단계 알고리즘으로 소벨 마스크(sobel mask)와 같은 미분 연산자만을 사용하는 방법보다 우수한 성능을 가진다.The Canny Edge Detector is one of the edge detection algorithms. Through steps such as noise removal, gradient magnitude and direction calculation, non-maximum suppression, and hysteresis threshold, the image is detected. Detect edges within As a multi-step algorithm, it has better performance than a method using only a differential operator such as a Sobel mask.

도 9 의 (d)는 에지를 검출한 영상이다. 그리고 가우시안 필터(Gaussian filter)를 사용하여 노이즈를 제거하고, 캐니 에지 검출기를 사용하여 에지가 검출된 영상을 생성하였다.9(d) is an image in which an edge is detected. In addition, noise was removed using a Gaussian filter, and an image in which edges were detected was generated using a Canny edge detector.

마지막으로, 직선 검출 영상 추출부(32)는 엣지 검출 영상에서 허프 변환(hough transform)을 통해 직선 성분을 추출한 후, 기울기를 계산하여 수평선 및 수직선 제거하고, 직선이 검출된 영상을 추출한다(S50).Finally, the straight line detection image extractor 32 extracts a straight line component from the edge detection image through a Hough transform, calculates a slope, removes horizontal and vertical lines, and extracts an image in which the straight line is detected (S50). ).

허프 변환은 x-y 좌표계의 성분을 r-θ 매개변수 공간의 성분으로 변환해서 표현하는 방법이다. x-y 좌표계의 직선과 점은 매개변수 공간에서 각각 점과 직선으로 표현되고, 매개변수 공간의 직선들이 교차하는 점을 이용하여 x-y 좌표계의 직선을 탐색할 수 있다.The Hough transform is a method of expressing components of the x-y coordinate system by transforming them into components of the r-θ parameter space. A straight line and a point in the x-y coordinate system are expressed as a point and a straight line, respectively, in the parameter space, and a straight line in the x-y coordinate system can be searched using the point where the straight lines in the parameter space intersect.

도 9 의 (e)는 차선에 해당하는 직선을 얻은 영상이다. 에지가 검출된 영상에서 허프 변환을 이용하여 직선 성분을 검출하였다. 그리고 차선일 가능성이 낮은 수평선과 수직선을 제거하기 위해 획득한 직선의 기울기를 계산한 뒤, 기울기의 절대값이 5° 이하인 직선을 제거하였다.9(e) is an image of a straight line corresponding to a lane. In the edge-detected image, linear components were detected using Hough transform. In addition, after calculating the slope of the obtained straight line to remove the horizontal and vertical lines that are unlikely to be lanes, straight lines with an absolute value of slope of 5° or less were removed.

색상 검출 영상 추출부(33)는 관심영역에 대한 HSV(Hue, Saturation, Value) 형식 변환 및 색상 검출을 통해 색상 검출 영상을 추출한다.The color detection image extraction unit 33 extracts a color detection image through Hue, Saturation, Value (HSV) format conversion and color detection for the region of interest.

즉, 색상 검출 영상 추출부(33)는 입력 영상인 RGB 형식을 색조, 채도, 명도의 채널을 가지는 HSV 형식 영상으로 변환한다(S60).That is, the color detection image extraction unit 33 converts the RGB format, which is an input image, into an HSV format image having hue, saturation, and brightness channels (S60).

HSV(Hue, Saturation, Value) 형식은 영상을 색상, 채도, 명도로 표현하는 색상 모델이다. 인간이 색상을 인식하는 방법을 응용한 모델이기 때문에 원하는 색상을 표현하는 것이 더 수월하다.The HSV (Hue, Saturation, Value) format is a color model that expresses an image in hue, saturation, and brightness. Since it is a model that applies the method of human color recognition, it is easier to express the desired color.

이어 색상 검출 영상 추출부(33)는 노란색에 해당하는 범위의 색조, 채도, 명도에 대한 범위값를 지정하고, 해당 범위 내의 픽셀이 검출된 색상 검출 영상을 추출한다(S70).Subsequently, the color detection image extraction unit 33 designates range values for hue, saturation, and brightness of a range corresponding to yellow, and extracts a color detection image in which pixels within the range are detected (S70).

도 9 의 (f)는 도 9 의 (b)에서 노란색 픽셀을 추출한 영상이다. 영상을 RGB형식에서 HSV형식으로 변환한 후, 노란색 범위를 설정하였다. 색상, 채도, 명도의 범위는 0에서 1사이의 값으로 정규화했을 때, 색상의 범위는 0부터 0.1과 0.9부터 1까지, 채도의 범위는 0.12부터 1까지 해당한다. 명도의 값은 영상 평균 밝기의 1/3를 사용하였다. 그리고 영상에서 범위에 해당하는 값을 가진 픽셀은 255, 그렇지 않으면 0의 값을 가지도록 하였다.FIG. 9(f) is an image obtained by extracting yellow pixels from FIG. 9(b). After converting the image from RGB format to HSV format, the yellow range was set. When the ranges of hue, saturation, and brightness are normalized to a value between 0 and 1, the range of hue corresponds to 0 to 0.1 and 0.9 to 1, and the range of saturation corresponds to 0.12 to 1. As for the value of brightness, 1/3 of the average brightness of the image was used. In addition, pixels with a value corresponding to the range in the image have a value of 255, and otherwise have a value of 0.

영상 원근 변환부(34)는 직선 검출 영상 추출부(32)에 의해 추출된 직선이 검출된 영상과 색상 검출 영상 추출부(33)에 의해 추출된 색상이 검출된 영상을 결합하고 원근감이 제거된 효과를 갖는 영상을 획득한다.The image perspective conversion unit 34 combines the image in which the straight line detected by the straight line detection image extractor 32 and the color detected by the color detection image extractor 33 are combined, and the perspective is removed. Acquire an image with an effect.

즉, 영상 원근 변환부(34)는 직선 검출 영상 추출부(32)에 의해 추출된 직선이 검출된 영상과 색상 검출 영상 추출부(33)에 의해 추출된 색상이 검출된 영상을 기 설정된 비율 예를 들어 8:2의 가중치로 결합한다(S80).That is, the image perspective conversion unit 34 converts the straight line detected image extracted by the straight line detection image extractor 32 and the color detected image extracted by the color detection image extractor 33 into a predetermined ratio Example For example, they are combined with a weight of 8:2 (S80).

도 9 의 (g)는 차선 후보에 해당하는 픽셀을 얻기 위해 직선을 추출한 영상과 색상을 추출한 영상을 결합한 영상이다. 도 9 의 (c)의 영상을 0.8, 도 9 의 (d)의 영상을 0.2의 가중치를 주어 결합한 영상이다. 9(g) is an image obtained by combining an image obtained by extracting a straight line and an image obtained by extracting a color in order to obtain a pixel corresponding to a lane candidate. It is an image obtained by combining the image of FIG. 9 (c) with a weight of 0.8 and the image of FIG. 9 (d) by giving a weight of 0.2.

이어 영상 원근 변환부(34)는 상기한 바와 같이 결합된 영상에 대한 4개의 좌표와 변환 영상에 대한 4개의 좌표로 계산된 변환행렬을 입력 영상에 적용하여, 원근감이 제거된 효과를 갖는 영상을 획득한다(S90). Subsequently, the image perspective conversion unit 34 applies the transformation matrix calculated with the 4 coordinates for the combined image and the 4 coordinates for the transformed image to the input image as described above to obtain an image having the effect of removing the perspective. Obtain (S90).

원근 변환은 3x3의 변환행렬을 사용해서 호모그래피(homography)로 모델링할 수 있는 변환이다. 영상의 픽셀의 위치를 이동하는 기하학적 처리 기법을 통해 원근감이 제거된 영상을 얻을 수 있다.Perspective transformation is a transformation that can be modeled by homography using a 3x3 transformation matrix. It is possible to obtain an image from which perspective is removed through a geometric processing technique that moves the location of pixels in an image.

차선 생성부(35)는 이전 프레임의 차선 검출 여부에 따라, 영상 원근 변환부(34)에 의해 변환된 영상의 전체 영역에서 차선 후보를 탐색하거나 차선 곡선 영역에서 차선 후보를 탐색한다.The lane generation unit 35 searches for lane candidates in the entire area of the image converted by the image perspective converter 34 or in the lane curve area, depending on whether the lane line has been detected in the previous frame.

즉, 차선 생성부(35)는 이전 프레임에서 차선이 검출되면, 영상 원근 변환부(34)에 의해 변환된 영상의 중심을 기준으로 좌우 차선을 구분하고, 획득한 차선 곡선의 인근 영역에서 슬라이딩 윈도우 기법을 통해 차선 후보를 탐색한다(S110).That is, when a lane generation unit 35 detects a lane line in the previous frame, the left and right lanes are divided based on the center of the image converted by the image perspective conversion unit 34, and a sliding window is displayed in the area adjacent to the obtained lane curve. A next-best candidate is searched through the technique (S110).

반면에, 차선 생성부(35)는 이전 프레임에서 차선이 검출되지 않으면, 영상 원근 변환부(34)에 의해 변환된 영상의 중심을 기준으로 좌우 차선을 구분하고, 전체 영역에서 슬라이딩 윈도우 기법을 통해 차선 후보를 탐색한다(S120).On the other hand, if no lane is detected in the previous frame, the lane generation unit 35 divides the left and right lanes based on the center of the image converted by the image perspective conversion unit 34, and uses the sliding window technique in the entire area. Next best candidates are searched (S120).

도 9 의 (h)는 도 9 의 (g)의 영상에서 원근감을 제거한 뒤, 슬라이딩 윈도우(slinding window)를 사용해서 차선 후보를 획득한 영상이다. 관심영역에서 설정한 차선 상의 4개의 점은 와핑(warping)된 영상에서 (300, 648), (300, 0), (780, 0), (780, 648)의 점으로 이동시켜 일직선이 되도록 하였다. 그리고 폭이 영상의 1/20, 높이가 영상의 1/6인 54픽셀 크기의 정사각형 윈도우를 설정하고, 슬라이딩 윈도우 방법을 통해 가장 큰 픽셀 합을 가지는 윈도우를 찾았다.(h) of FIG. 9 is an image obtained by removing perspective from the image of (g) of FIG. 9 and then obtaining lane candidates using a sliding window. The four points on the lane set in the region of interest were moved to the points of (300, 648), (300, 0), (780, 0), and (780, 648) in the warped image to make a straight line. . Then, a 54-pixel square window with a width of 1/20 and a height of 1/6 of the video was set, and the window with the largest sum of pixels was found through the sliding window method.

슬라이딩 윈도우 기법이란 윈도우(window)라고 불리는 특정 크기의 하위 배열을 사용하고, 배열 전체에서 각각의 윈도우 내의 요소들을 계산할 때마다, 중복된 요소를 버리지 않고 재사용하여 연산량을 줄이는 방법이다.The sliding window technique is a method of reducing the amount of computation by using a sub-array of a specific size, called a window, and reusing redundant elements instead of discarding them whenever elements within each window are calculated in the entire array.

도 9 의 (i)는 차선 후보 픽셀로부터 2차 곡선 적합을 통해 차선 곡선을 생성한 영상이다. 도 9 의 (h)에서 좌우 차선의 각각 6개의 윈도우로부터 얻은 차선 후보 픽셀의 위치와 최소자승법을 사용하여 2차 곡선에 적합하면 차선 곡선을 생성할 수 있다.9(i) is an image in which lane curves are generated through quadratic curve fitting from lane candidate pixels. In (h) of FIG. 9 , a lane curve can be generated by fitting a quadratic curve using the position of the lane candidate pixels obtained from each of the six windows of the left and right lanes and the least squares method.

차선 생성부(35)는 각 윈도우에서 차선 후보의 픽셀에 대한 좌표를 얻고, 해당 좌표를 2차 곡선에 적합하여 차선 곡선을 생성한다(S130).The lane generator 35 obtains coordinates of pixels of lane candidates in each window, and generates lane curves by fitting the coordinates to a quadratic curve (S130).

이어 차선 생성부(35)는 생성된 차선 곡선을 원근 변환을 통해 입력 영상에 적용하여 차선이 검출된 영상을 획득한다(S140).Subsequently, the lane generator 35 obtains an image in which the lane is detected by applying the generated lane curve to the input image through perspective transformation (S140).

도 9 의 (j)는 입력영상에서 차선을 검출한 영상이다. 획득한 차선 곡선을 원근 변환을 통해 입력 영상에 적용하면 차선이 검출된 영상을 얻을 수 있다.(j) of FIG. 9 is an image obtained by detecting lanes in an input image. If the obtained lane curve is applied to the input image through perspective transformation, an image in which the lane is detected can be obtained.

도 10 은 본 발명의 일 실시예에 따른 장착 위치 결정부의 블럭 구성도이고, 도 11 은 본 발명의 일 실시예에 따른 장착 위치를 개념적으로 나타낸 도면이며, 도 12 내지 도 14 는 본 발명의 일 실시예에 따른 카메라의 위치에 따른 영상을 나타낸 도면이며, 도 15 내지 도 17 은 본 발명의 일 실시예에 따른 위치 선정에 따른 평균 오차율을 나타낸 도면이다. 10 is a block configuration diagram of a mounting position determining unit according to an embodiment of the present invention, FIG. 11 is a view conceptually showing a mounting position according to an embodiment of the present invention, and FIGS. 12 to 14 are one part of the present invention 15 to 17 are diagrams showing an average error rate according to position selection according to an embodiment of the present invention.

장착 위치 결정부(50)는 차선 검출부(30)에 의해 검출된 차선을 통해 차선의 직선로 또는 곡선로에서의 곡률, 및 영상 보정부(40)를 통해 획득된 시차를 이용하여 전방 물체까지의 거리를 측정하고, 측정된 거리와 실제 거리 간의 오차율을 기반으로 카메라의 장착 위치를 결정한다. The mounting position determiner 50 uses the curvature of the straight or curved road of the lane through the lane detected by the lane detection unit 30 and the parallax obtained through the image compensator 40 to reach a forward object. The distance is measured, and the mounting position of the camera is determined based on the error rate between the measured distance and the actual distance.

장착 위치 결정부(50)는 거리 검출부(51), 위치 판정부(52), 및 변수 조정부(53)를 포함한다.The mounting position determination unit 50 includes a distance detection unit 51, a position determination unit 52, and a variable adjustment unit 53.

카메라(10)의 장착 위치는 도 11 에 도시된 바와 같이 차량의 전방 양측이다. 카메라(10)의 장착 위치는 카메라(10)의 높이와 간격 및 각도(경사각)로 정의될 수 있으며 이들 변수를 보정함으로써 최적의 장착 위치가 결정될 수 있다. The mounting position of the camera 10 is the front side of the vehicle as shown in FIG. 11 . The mounting position of the camera 10 may be defined by the height, spacing, and angle (inclination angle) of the camera 10, and an optimal mounting position may be determined by correcting these variables.

따라서, 차량에 따라 카메라(10)의 높이와 간격 및 각도별로 높이 설정범위, 간격 설정범위 및 각도 설정범위가 설정되고, 이들 각각의 설정범위 내에서 카메라(10)의 장착 위치가 결정될 수 있다. Accordingly, a height setting range, an interval setting range, and an angle setting range are set according to the height, interval, and angle of the camera 10 according to the vehicle, and the mounting position of the camera 10 can be determined within each of these setting ranges.

본 실시예에서는 지면을 기준으로 거리를 측정한다. 카메라(10)의 장착 높이가 낮을수록 영상 내에 촬영되는 지면 영역이 늘어난다. 따라서 카메라(10)의 장착 높이도 취득영상의 영역 결정에 중요한 영향을 미친다.In this embodiment, the distance is measured based on the ground. As the mounting height of the camera 10 decreases, the area of the ground captured in the image increases. Therefore, the mounting height of the camera 10 also has a significant effect on determining the area of the acquired image.

예컨대, 높이는 높이 설정범위 내에서 30cm, 40cm, 50cm로 선정되는 것을 예시로 설명한다.For example, it will be described as an example that the height is selected as 30 cm, 40 cm, and 50 cm within the height setting range.

일반 승용차의 경우 범퍼의 지면으로부터 최소 30cm 이상 떨어져 있기 때문에, 높이의 최소값은 30cm으로 선정될 수 있다. 그리고 높이가 50cm보다 큰 경우 1m 이내의 지면 촬영이 힘들기 때문에 높이의 최대값은 50cm로 선정될 수 있다. 도 12 의 (a)는 카메라(10)의 설치 간격 30cm, 각도 13°인 경우, 높이가 각각 30cm, 40cm, 50cm일 때의 입력 영상이다.In the case of a general passenger car, since the bumper is at least 30 cm away from the ground, the minimum value of the height may be selected as 30 cm. In addition, if the height is greater than 50 cm, since it is difficult to photograph the ground within 1 m, the maximum value of the height may be selected as 50 cm. 12(a) is an input image when the installation distance of the camera 10 is 30 cm and the angle is 13° and the height is 30 cm, 40 cm, and 50 cm, respectively.

수학식 1은 카메라(10)의 기하학적 구조와 삼각측량법을 기반으로 만들어진 수학식이다. 따라서 카메라(10) 사이의 간격은 거리 측정에 미치는 영향이 크다. Equation 1 is an equation based on the geometry of the camera 10 and the triangulation method. Therefore, the distance between the cameras 10 has a great effect on distance measurement.

간격은 간격 설정범위 내에서 10cm, 20cm, 30cm로 선정되는 것을 예시로 설명한다. 카메라(10)를 배치할 때, 물리적으로 가능한 최소 간격이 10cm이기 때문에 최소값은 10cm로 선정될 수 있다. 또한, 높이는 경향성을 확인하기 위해 10cm 간격으로 30cm까지 3개의 값이 선정될 수 있다. 도 13 는 카메라(10)의 설치 높이 40cm, 각도 13°인 경우, 간격이 각각 10cm, 20cm, 30cm일 때의 입력 영상이다.The interval will be explained as an example in which 10cm, 20cm, and 30cm are selected within the interval setting range. When arranging the camera 10, since the minimum distance physically possible is 10 cm, the minimum value may be selected as 10 cm. In addition, three values up to 30 cm at intervals of 10 cm may be selected in order to confirm the tendency of the height. 13 is an input image when the installation height of the camera 10 is 40 cm and the angle is 13°, and the intervals are 10 cm, 20 cm, and 30 cm, respectively.

카메라(10)가 지면과 수평으로 설치될 경우, 수직 화각이 작은 카메라(10)는 근거리의 지면을 촬영하지 못할 수 있다. 따라서 카메라(10)가 경사각 θ만큼 기울어져 설치되면, 근거리의 지면을 촬영할 수 있기 때문에 카메라(10)의 설치 각도는 중요하다.When the camera 10 is installed horizontally with the ground, the camera 10 having a small vertical angle of view may not be able to photograph the ground at a short distance. Therefore, when the camera 10 is tilted by an inclination angle θ, the installation angle of the camera 10 is important because it is possible to photograph the ground at a short distance.

각도는 각도 설정범위 내에서 3°, 7°, 12°로 선정되는 것을 예시로 설명한다. 높이가 50cm일 때, 각도 4°보다 작은 경우 1m 이내의 지면 촬영이 어렵기 때문에 각도의 최소값은 3°로 선정될 수 있다. 각도가 클수록 영상 내의 도로영역이 증가하는데, 차량의 흔들림이나 경사로 등 존재할 경우 도로의 상단이 촬영되지 않을 가능성이 있다. 각도가 12°일 때 영상 높이의 20%부터 80%까지 도로영역이 되기 때문에, 각도의 최대값은 12°로 선정될 수 있다. 도 14 는 카메라(10)의 설치 높이 40cm, 간격 30cm인 경우, 각도가 각각 3°, 7°, 12°일 때의 입력 영상이다.The angle will be explained as an example in which 3°, 7°, and 12° are selected within the angle setting range. When the height is 50 cm, if the angle is less than 4°, it is difficult to photograph the ground within 1 m, so the minimum angle value may be selected as 3°. As the angle increases, the area of the road in the image increases. If there is a vehicle shaking or a slope, there is a possibility that the top of the road may not be captured. When the angle is 12°, since 20% to 80% of the image height is the road area, the maximum value of the angle may be set to 12°. 14 shows input images when the angles are 3°, 7°, and 12°, respectively, when the installation height of the camera 10 is 40 cm and the spacing is 30 cm.

거리 검출부(51)는 상기한 변수, 즉 높이와 간격 및 각도별로 차량으로부터 물체까지의 거리를 복수 회에 걸쳐 측정한다. The distance detection unit 51 measures the distance from the vehicle to the object multiple times for each of the above variables, that is, the height, interval, and angle.

위치 판정부(52)는 높이와 간격 및 각도별로 거리 검출부(51)에 의해 측정된 거리를 실제 거리와 각각 비교하여 오차율을 검출하고 검출된 오차율과 기 설정된 기준 오차율을 비교하여 비교 결과에 따라 최적의 장착 위치를 결정한다. The position determination unit 52 compares the distance measured by the distance detection unit 51 for each height, interval, and angle with the actual distance to detect an error rate, compares the detected error rate with a preset reference error rate, and optimizes the optimum according to the comparison result. determine the mounting location of

이 경우, 위치 판정부(52)는 오차율이 기 설정된 기준 오차율 미만인지에 따라 현재의 높이와 간격 및 각도를 최적의 장착 위치로 결정한다. 위치 판정부(52)는 오차율이 기준 오차율 미만이면 듀얼 카메라의 현재 위치를 최종 위치로 판정한다. 반면에, 오차율이 기준 오차율 이상이면, 변수 조정부(53)에 의해 변수가 조정된다. In this case, the position determination unit 52 determines the current height, interval, and angle as the optimal mounting position according to whether the error rate is less than the preset standard error rate. The position determining unit 52 determines the current position of the dual camera as the final position when the error rate is less than the reference error rate. On the other hand, if the error rate is equal to or greater than the reference error rate, the variable is adjusted by the variable adjusting unit 53 .

변수 조정부(53)는 위치 판정부(52)에 검출된 오차율이 기준 오차율 이상이면 높이와 간격 및 각도 중 적어도 하나를 조정한다. 변수 조정부(53)는 조정된 듀얼 카메라의 높이와 간격 및 각도를 별도의 디스플레이기기를 통해 출력한다. 이에 따라 사용자는 조정된 변수를 참고하고 듀얼 카메라의 장착 위치를 변경한다. 이때, 거리 검출부(51)는 조정된 변수를 토대로 물체까지의 거리를 검출한다. The variable adjusting unit 53 adjusts at least one of the height, interval, and angle when the error rate detected by the position determination unit 52 is equal to or greater than the reference error rate. The variable adjusting unit 53 outputs the adjusted height, interval, and angle of the dual camera through a separate display device. Accordingly, the user refers to the adjusted parameters and changes the mounting position of the dual camera. At this time, the distance detection unit 51 detects the distance to the object based on the adjusted variable.

예를 들어, 각 카메라(10)를 자동차에 장착하고, 실제도로에서 1m부터 5m까지 0.5m 간격으로 물체를 설치하고, 거리 검출부(51)를 통해 측정한 결과는 도 15 내지 도 17 과 같다. For example, each camera 10 is mounted on a car, objects are installed at intervals of 0.5 m from 1 m to 5 m on a real road, and results of measurement through the distance detector 51 are shown in FIGS. 15 to 17 .

도 15 는 높이가 30cm일 때의 시험결과이고, 도 15 의 (a), (b), (c)는 각각 간격이 10cm, 20cm, 30cm일 때 각도에 따른 정밀도를 비교한 결과이다. 15 is a test result when the height is 30 cm, and (a), (b), and (c) of FIG.

도 15 의 (a), (b), (c)에서 평균오차율이 가장 작은 경우는 각각 3°의 13.28%, 12°의 4.14%, 12°의 8.34%이다.In (a), (b), and (c) of FIG. 15 , the smallest average error rates are 13.28% for 3°, 4.14% for 12°, and 8.34% for 12°, respectively.

도 16 는 높이가 40cm일 때의 시험결과이다. 도 16 의 (a), (b), (c)는 각각 간격이 10cm, 20cm, 30cm일 때 각도에 따른 정밀도를 비교한 결과이다. 16 is a test result when the height is 40 cm. 16 (a), (b), and (c) show the result of comparing the accuracy according to the angle when the intervals are 10 cm, 20 cm, and 30 cm, respectively.

도 16 의 (a), (b), (c)에서 평균오차율이 가장 작은 경우는 각각 3°의 5.55%, 7°의 5.49%, 12°의 0.86%이다. In (a), (b), and (c) of FIG. 16, the smallest average error rates are 5.55% for 3°, 5.49% for 7°, and 0.86% for 12°, respectively.

도 17 은 높이가 50cm일 때의 시험결과이다. 도 17 의 (a), (b), (c)는 각각 간격이 10cm, 20cm, 30cm일 때 각도에 따른 정밀도를 비교한 결과이다.17 is a test result when the height is 50 cm. 17 (a), (b), and (c) show the results of comparing the accuracy according to the angle when the intervals are 10 cm, 20 cm, and 30 cm, respectively.

도 17 의 (a), (b), (c)에서 평균오차율이 가장 작은 경우는 각각 7°의 3.77%, 7°의 2.45%, 12°의 1.32%이다. In (a), (b) and (c) of FIG. 17 , the smallest average error rates are 3.77% at 7°, 2.45% at 7°, and 1.32% at 12°, respectively.

도 15 내지 도 17 을 참고하면, 각도가 클수록 오차율이 감소하고, 간격이 넓을수록 오차율이 감소하며, 높이가 30cm에서 40cm로 높이가 증가할 때 오차율이 감소하고, 50cm로 증가할 때 오차율이 다시 증가한다. 15 to 17, the error rate decreases as the angle increases, the error rate decreases as the interval increases, the error rate decreases when the height increases from 30 cm to 40 cm, and the error rate decreases again when the height increases to 50 cm. It increases.

이에, 변수 조정부(53)는 상기한 오차율의 변화를 토대로 각도와 간격 및 높이 중 적어도 하나를 선택적으로 조정한다. Accordingly, the variable adjusting unit 53 selectively adjusts at least one of the angle, interval, and height based on the change in the error rate.

상기한 분석 결과, 카메라(10)의 장착 위치는 높이 40cm, 간격 30cm, 각도 13°에서 가장 우수하다. As a result of the above analysis, the mounting position of the camera 10 is the best at a height of 40 cm, an interval of 30 cm, and an angle of 13°.

한편, 거리 검출부(51)는 직선로와 곡선로에서의 전방 물체까지의 거리를 각각 검출할 수 있다.Meanwhile, the distance detection unit 51 may detect distances to a front object on a straight road and a curved road, respectively.

도 18 은 본 발명의 일 실시예에 따른 직선로에서의 전방 물체까지의 거리를 나타낸 도면이고, 도 19 는 본 발명의 일 실시예에 따른 곡선로에서의 전방 물체까지의 거리를 나타낸 도면이다. 18 is a diagram showing a distance to a forward object on a straight road according to an embodiment of the present invention, and FIG. 19 is a diagram showing a distance to a forward object on a curved road according to an embodiment of the present invention.

거리 검출부(51)는 초점 거리 보정을 통해 획득한 계수 α를 초점거리 f로 사용하여 수학식 1에 대입하면 물체의 Z축 좌표를 얻을 수 있다. 하지만 시험에서는 근접 거리의 지면을 촬영하기 위하여 카메라(10)를 장착할 때 경사각 θ를 가지도록 한다. 즉, 카메라(10) 광축과 지면이 평행하지 않는다. The distance detector 51 may obtain the Z-axis coordinate of the object by substituting the coefficient α acquired through the focal length correction into Equation 1 as the focal length f. However, in the test, when the camera 10 is mounted in order to photograph the ground at a close distance, the inclination angle θ is required. That is, the optical axis of the camera 10 and the ground are not parallel.

지면에서 카메라 위치부터 물체까지의 Z축 좌표를 계산하기 위해서는 수학식 1에 경사각 θ를 고려해 수학식 3과 같이 계산할 수 있다.In order to calculate the Z-axis coordinate from the camera position on the ground to the object, it can be calculated as in Equation 3 by considering the inclination angle θ in Equation 1.

Figure pat00013
Figure pat00013

여기서, Xg, Yg, Zg는 지면에서 물체의 X,Y,Z축 좌표이고, θ는 카메라(10)의 각도이며, h는 카메라(10)의 높이이다. Here, X g , Y g , and Z g are X, Y, and Z coordinates of the object on the ground, θ is the angle of the camera 10, and h is the height of the camera 10.

도 18 과 같은 직선로에서는 카메라(10)부터 전방 물체까지의 거리는 종방향 수직거리만 요구하기 때문에

Figure pat00014
를 전방 물체까지의 거리로 사용할 수 있다.18, since the distance from the camera 10 to the object in front requires only the vertical distance
Figure pat00014
can be used as the distance to the forward object.

도 19 와 같은 곡선로에서는 전방 물체까지의 거리를 측정하기 위해 도로의 곡률반경을 고려해야 한다. In the curved road as shown in FIG. 19, the radius of curvature of the road should be considered in order to measure the distance to the object in front.

따라서, 거리 검출부(51)는 물체의 X축 좌표와 Z축 좌표를 이용하여 수직 거리를 구한 뒤, 곡률반경을 고려하여 전방 물체까지의 거리를 계산한다.Therefore, the distance detection unit 51 obtains the vertical distance using the X-axis coordinate and the Z-axis coordinate of the object, and then calculates the distance to the front object in consideration of the radius of curvature.

카메라 위치와 전방물체까지의 수직거리는 수학식 4와 같이 계산된다.The vertical distance between the camera position and the front object is calculated as in Equation 4.

Figure pat00015
Figure pat00015

여기서, chord는 자동차와 물체 사이의 수직거리이고, Xg1, Yg1은 지면상에서 자동차의 x, y 좌표이며, Xg2, Yg2는 지면상에서 물체의 x, y 좌표이다. Here, chord is the vertical distance between the car and the object, X g1 and Y g1 are the x and y coordinates of the car on the ground, and X g2 and Y g2 are the x and y coordinates of the object on the ground.

곡률중심을 중심으로 가지고, 카메라(10)의 위치부터 전방물체까지의 수직거리를 현(chord)으로 가지는 부채꼴의 중심각 φ는 수학식 5와 같이 계산된다.The central angle φ of a sector having the center of curvature as a center and the vertical distance from the position of the camera 10 to the front object as a chord is calculated as in Equation 5.

Figure pat00016
Figure pat00016

여기서, φ는 자동차와 물체 사이의 각도(부채꼴의 중심각), R은 도로의 곡률반경이다.Here, φ is the angle between the car and the object (the central angle of the sector), and R is the radius of curvature of the road.

부채꼴의 중심각 φ와 곡률반경 R이용하여 계산된 원의 호(arc)의 길이는 수학식 6과 같이 계산된다.The length of the arc of the circle calculated using the central angle φ and the radius of curvature R of the sector is calculated as in Equation 6.

Figure pat00017
Figure pat00017

여기서, arc는 곡률반경을 고려한 자동차와 물체 사이의 거리이다.Here, arc is the distance between the car and the object considering the radius of curvature.

곡선로에서 차량부터 전방물체까지의 거리는 곡률중심과 물체의 3차원 위치를 고려하여 계산될 수 있으며, 호가 카메라 위치부터 전방물체까지의 거리로 결정될 수 있다. The distance from the vehicle to the front object on the curved road can be calculated by considering the center of curvature and the 3D position of the object, and the arc can be determined as the distance from the camera position to the front object.

곡률반경의 유무에 따라 직선로와 곡선로에 따라 다른 수식을 제안하였다. 제안된 수식에서 곡선로에서 곡률반경이 클수록 직선로 거리 측정 식과 곡선로 거리 측정 식의 차이가 감소한다. 따라서 곡률반경이 일정 값을 이상이면 직선로로 결정하고 그렇지 않으면 곡선로로 결정한 뒤, 수식을 적용한다. 곡률반경이 1293m일 때 오차율이 0.1% 이하가 된다. 따라서 제안하는 수식은 1293m를 기준점으로 사용하였고, 수학식 7과 같이 표현된다.Depending on the presence or absence of the radius of curvature, different equations were proposed depending on the straight road and the curved road. In the proposed equation, as the curvature radius increases, the difference between the straight line distance measurement equation and the curved road distance measurement equation decreases. Therefore, if the radius of curvature is more than a certain value, it is determined as a straight path, and if not, it is determined as a curved path and then the formula is applied. When the radius of curvature is 1293 m, the error rate is less than 0.1%. Therefore, the proposed equation uses 1293m as a reference point and is expressed as in Equation 7.

Figure pat00018
Figure pat00018

여기서, Zt는 카메라(10)로부터 전방의 물체까지의 이론적 거리이다. Here, Z t is the theoretical distance from the camera 10 to the object in front.

실차시험은 전방 거리 측정 식의 검증을 위해, 듀얼 카메라를 선정한 최적 위치(높이 40cm, 간격 30cm, 각도 13°)에 장착 후 진행하였다. The vehicle test was conducted after installing the dual camera at the selected optimal location (height 40cm, interval 30cm, angle 13°) to verify the forward distance measurement formula.

시험을 진행한 직선도로와 곡선도로이다. 곡선도로의 경우, 곡률 반지름은 69m이고, 곡률 반지름이 80m 이하인 곡선도로에서 진행되었다. 직선도로의 경우, 자동차 전방 10m부터 40m까지 10m 간격으로 설치된 장애물에 대해, 정지 상태와 주행 상태를 구분하였다. 곡선도로의 경우, 도로의 중심과 좌우 차선에 장애물을 설치하고, 6m에서 21m까지 5m 간격으로 설치된 장애물에 대해, 정지 상태와 주행 상태를 구분하여 총 4가지 경우에 대해 시험을 진행하였다.It is a straight road and a curved road that have been tested. In the case of a curved road, the radius of curvature was 69m, and the study was conducted on a curved road with a radius of curvature of 80m or less. In the case of a straight road, obstacles installed at 10m intervals from 10m to 40m in front of the vehicle were classified into stationary and driving conditions. In the case of a curved road, obstacles were installed in the center of the road and in the left and right lanes, and for the obstacles installed at 5m intervals from 6m to 21m, tests were conducted on a total of 4 cases by dividing the stationary state and the running state.

객관적인 데이터 취득을 위해 동일한 장비를 활용하여 3회 반복시험하였다. For objective data acquisition, the same equipment was used and repeated three times.

직선로 정지 상태의 경우, 10m 지점부터 40m 지점까지 모두 물체를 식별할 수 있었으며, 최대 오차는 30m 지점에서 2.29%로 나타났다. In the case of a stationary state on a straight line, objects could be identified from the 10m point to the 40m point, and the maximum error was 2.29% at the 30m point.

직선로 주행 상태의 경우, 10m 지점부터 20m 지점까지 물체를 식별할 수 있었으며, 30m 지점 이상부터는 물체를 식별할 수 없었다. 이는 주행 중 발생하는 자동차의 흔들림, 조명 변화, 카메라(10)의 진동 등의 영향으로 판단하였으며, 최대 오차는 20m 지점에서 5.35%로 나타났다. In the case of driving on a straight road, an object could be identified from the 10m point to the 20m point, but the object could not be identified from the 30m point or more. This was judged by the influence of shaking of the car, lighting change, vibration of the camera 10, etc., which occurred during driving, and the maximum error was found to be 5.35% at the 20m point.

곡선로 정지 상태의 경우, 5m 지점부터 20m 지점까지 물체를 식별할 수 있었으며, 최대 오차는 20m 지점에서 1.65%로 나타났다. In the case of a stop state on a curved road, objects could be identified from the 5m point to the 20m point, and the maximum error was 1.65% at the 20m point.

곡선로 주행 상태의 경우, 5m 지점에서 15m 지점까지 물체를 식별할 수 있었으며, 20m 지점에서는 물체를 식별할 수 없었다. 이는 주행 중 발생하는 자동차의 흔들림, 조명 변화, 카메라(10)의 진동 등의 영향으로 판단하였으며, 최대 오차는 6m 지점에서 9.40%로 나타났다.In the case of driving on a curved road, the object could be identified from the 5m point to the 15m point, but the object could not be identified from the 20m point. This was judged by the influence of shaking of the car, lighting change, and vibration of the camera 10 occurring during driving, and the maximum error was found to be 9.40% at the 6m point.

시험결과, 물체와의 거리 측정의 오차는 자동차의 흔들림, 조명 변화, 카메라(10)의 진동 등으로 인하여 전방물체가 부정확하게 검출될 때 오차가 증가하는 경향을 보인다. 그리고 곡선로 주행 상태의 경우 오차가 직선로와 비교해서 비교적 큰 경향을 보이는데, 이는 계산과정에서 사용된 고정된 곡률반경이 영향을 미친 것으로 판단된다.As a result of the test, the error in measuring the distance to the object tends to increase when the forward object is incorrectly detected due to shaking of the vehicle, lighting change, vibration of the camera 10, and the like. In addition, in the case of driving on a curved road, the error tends to be relatively large compared to that on a straight road, which is judged to be influenced by the fixed radius of curvature used in the calculation process.

참고로, 정밀도와 오차율에 따른 최적 장착 위치로, 카메라(10)의 높이는 40cm이고, 카메라(10)의 간격은 30cm이며, 각도는 12°일 수 있으며, 이러한 카메라(10)의 위치를 기반으로 설명한다. For reference, as an optimal mounting position according to precision and error rate, the height of the camera 10 is 40 cm, the interval of the camera 10 is 30 cm, and the angle may be 12 °, based on the position of the camera 10 Explain.

거리 측정부(200)는 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 검출한다.The distance measurement unit 200 detects the distance between the vehicle and the object using the initial relative distance of the object, the speed of the vehicle, and the speed of the object.

본 실시예에서는, 거리 측정부(200)에 의해 검출되는 물체를 선행차량을 예시로 설명한다. 그러나, 물체는 선행차량 이외에도 보행자 등일 수도 있으며, 물체의 종류는 특별히 한정되는 것은 아니다.In this embodiment, an object detected by the distance measurement unit 200 is described as an example of a preceding vehicle. However, the object may be a pedestrian or the like other than the preceding vehicle, and the type of object is not particularly limited.

거리 측정부(200)는 차량(대상차량)과 선행차량의 초기상대거리, 차량의 속도 및 선행차량 속도를 이용하여 차량과 선행차량 간의 거리를 아래의 수학식 8을 통해 계산한다. 여기서, 선행차량의 속도는 레이더 센서 등을 토대로 감지될 수 있다. The distance measurer 200 calculates the distance between the vehicle and the preceding vehicle through Equation 8 below using the initial relative distance between the vehicle (target vehicle) and the preceding vehicle, the speed of the vehicle, and the speed of the preceding vehicle. Here, the speed of the preceding vehicle may be detected based on a radar sensor or the like.

Figure pat00019
Figure pat00019

여기서, d는 차량과 선행차량 간의 거리이고, vTV는 선행차량의 속도이며, vSV는 자기차량의 속도이다. Here, d is the distance between the vehicle and the preceding vehicle, v TV is the speed of the preceding vehicle, and v SV is the speed of the subject vehicle.

차량과 선행차량 간의 거리는 목표 상대거리(

Figure pat00020
), 차량과 선행차량 간의 시간차(
Figure pat00021
), 및 차량과 선행차량 간의 속도차(
Figure pat00022
)를 토대로 유도될 수 있다.The distance between the vehicle and the preceding vehicle is the target relative distance (
Figure pat00020
), the time difference between the vehicle and the preceding vehicle (
Figure pat00021
), and the speed difference between the vehicle and the preceding vehicle (
Figure pat00022
) can be derived based on

차량의 속도와 거리를 제어하기 위한 목표 가속도는 레이더 센서를 사용하여 측정한 차량의 속도와 거리 정보를 이용해 최적 제어 이론을 통해 계산될 수 있으며, 이와 관련된 거리정보인 목표 상대거리는 아래의 식과 같다. The target acceleration for controlling the vehicle speed and distance can be calculated through the optimal control theory using the vehicle speed and distance information measured using the radar sensor, and the target relative distance, which is related distance information, is as follows.

먼저, 목표 상대거리는

Figure pat00023
이다. First, the target relative distance
Figure pat00023
am.

선행차량의 속도와 거리는 차량에 장착된 각종 센서를 통해 측정될 수 있다. 이러한 센서로는 레이더 센서나 라이다 센서 또는 초음파 센서 등이 채용될 수 있으며, 특별히 한정되는 것은 아니다. The speed and distance of the preceding vehicle may be measured through various sensors installed in the vehicle. As such a sensor, a radar sensor, lidar sensor, or ultrasonic sensor may be employed, and is not particularly limited.

여기서, ddes는 목표 상대거리이고, d0는 차량과 선행차량의 초기상대거리이며, τ는 시간차이며, tront는 차량과 선행차량 간의 시간차이다. Here, d des is the target relative distance, d 0 is the initial relative distance between the vehicle and the preceding vehicle, τ is the time difference, and t ront is the time difference between the vehicle and the preceding vehicle.

차량과 선행차량 간의 시간차는

Figure pat00024
이며, 여기서 차량과 선행차량 간의 시간차 계산식에서의 V는 차량과 선행차량 간의 속도차이다.The time difference between the vehicle and the preceding vehicle is
Figure pat00024
Here, V in the formula for calculating the time difference between the vehicle and the preceding vehicle is the speed difference between the vehicle and the preceding vehicle.

한편, 차량과 선행차량 간의 속도차는

Figure pat00025
이다.On the other hand, the speed difference between the vehicle and the preceding vehicle is
Figure pat00025
am.

여기서, vTV는 선행차량의 속도이며, vSV는 자기차량의 속도이다.Here, v TV is the speed of the preceding vehicle, and v SV is the speed of the subject vehicle.

시간차(τ)와 tront가 동일한 역할을 함에 따라, 차량과 선행차량 간의 거리의 상기한 수학식 3과 같이 유도될 수 있다. As the time difference τ and t ront play the same role, the distance between the vehicle and the preceding vehicle can be derived as in Equation 3 above.

통상적으로, 차량과 선행차량의 상대속도가 증가할수록 시간차도 증가하여 오차가 발생할 수 있다. 따라서,

Figure pat00026
를 통해 차량과 선행차량의 상대속도만으로도 시간차 오차가 감소될 수 있다. Typically, as the relative speed of the vehicle and the preceding vehicle increases, the time difference also increases, and thus an error may occur. thus,
Figure pat00026
Through this, the time difference error can be reduced only with the relative speed of the vehicle and the preceding vehicle.

한편, 카메라(10)의 높이가 40cm이고, 간격이 30cm이며, 각도가 12°인 경우에서의 차량과 선행차량 간의 거리 측정 결과는 아래의 표 1과 표 2 를 참조하여 설명한다.Meanwhile, the result of measuring the distance between the vehicle and the preceding vehicle when the height of the camera 10 is 40 cm, the interval is 30 cm, and the angle is 12 ° will be described with reference to Tables 1 and 2 below.

표 1 은 듀얼 카메라 장착 위치 결정 장치(100)에 의해 측정된 거리와 실제 DGPS 실측값을 비교한 결과이다.Table 1 is a result of comparing the distance measured by the dual camera mounting positioning device 100 with the actual DGPS measurement value.

Figure pat00027
Figure pat00027

표 1 을 참조하면, 듀얼 카메라 장착 위치 결정 장치(100)에 의해 측정된 거리와 DGPS 실측값의 최소편차는 Vehicle to Vehicle 30km/h 시나리오 중 3번째 테스트에서 2.57cm의 편차를 보였으며, 최소 오차율은 1.80%로 나타남을 알 수 있다. Referring to Table 1, the minimum deviation between the distance measured by the dual-camera mounting positioning device 100 and the actual DGPS value was 2.57cm in the third test of the Vehicle to Vehicle 30km/h scenario, and the minimum error rate It can be seen that is represented by 1.80%.

최대편차는 Vehicle to Pedestrian 30km/h 시나리오 중 3번째 테스트에서 16.20cm의 편차를 보였으며, 최대 오차율은 8.89%로 나타남을 알 수 있다. The maximum deviation was 16.20cm in the third test of the Vehicle to Pedestrian 30km/h scenario, and the maximum error rate was 8.89%.

이를 토대로 카메라와 DGPS 실측값의 오차가 상대적으로 작음을 알 수 있다.Based on this, it can be seen that the error between the camera and the DGPS measurement value is relatively small.

표 2 는 상기한 수학식 8의 계산값, 즉 거리 측정부(200)에 의해 측정된 거리와 DGPS 실측값을 비교한 결과이다.Table 2 is a result of comparing the calculated value of Equation 8 above, that is, the distance measured by the distance measurement unit 200 and the DGPS measurement value.

Figure pat00028
Figure pat00028

표 2 를 참조하면, 거리 측정부(200)에 의해 측정된 거리과 실측값의 최소 편차는 Vehicle to Vehicle 30km/h 시나리오 중 2번째 테스트에서 0.17cm의 편차를 보였으며, 최소 오차율은 0.11%로 나타남을 알 수 있다. Referring to Table 2, the minimum deviation between the distance measured by the distance measuring unit 200 and the actual value showed a deviation of 0.17cm in the second test of the Vehicle to Vehicle 30km/h scenario, and the minimum error rate was 0.11% can know

최대편차는 Vehicle to Pedestrian 40km/h 시나리오 중 1번째 테스트에서 6.31cm의 편차를 보였으며, 최대 오차율은 4.45%로 나타남을 알 수 있다. The maximum deviation was 6.31cm in the first test of the Vehicle to Pedestrian 40km/h scenario, and the maximum error rate was 4.45%.

이를 토대로 수학식 8의 이론값과 DGPS 실측값의 오차가 상대적으로 작음을 알 수 있다.Based on this, it can be seen that the error between the theoretical value of Equation 8 and the DGPS measured value is relatively small.

성능 평가부(300)는 평가 대상 AEB 시스템(500)에 의해 측정된 거리를 듀얼 카메라 장착 위치 결정 장치(100) 또는 거리 측정부(200)를 통해 측정된 거리와 각각 비교하여 해당 평가 대상 AEB 시스템(500)의 성능을 평가한다. The performance evaluation unit 300 compares the distance measured by the evaluation target AEB system 500 with the distance measured through the dual camera mounting positioning device 100 or the distance measurement unit 200, respectively, and compares the corresponding evaluation target AEB system Evaluate the performance of (500).

도 20 은 본 발명의 일 실시예에 따른 거리 측정을 위한 시나리오의 예시도이다. 시나리오는 복수 개가 마련될 수 있다.20 is an exemplary view of a scenario for distance measurement according to an embodiment of the present invention. A plurality of scenarios may be prepared.

차량이 도 20 에 도시된 바와 같이 기 설정된 시나리오에 따라 운행하는 경우, 듀얼 카메라 장착 위치 결정 장치는 물체와의 거리를 검출하여 성능 평가부(300)에 입력한다.When the vehicle drives according to a preset scenario as shown in FIG. 20 , the dual-camera positioning device detects a distance to an object and inputs the detected distance to the performance evaluation unit 300 .

또한, 평가 대상 AEB 시스템(500)은 해당 시나리오에 따라 측정한 물체와의 거리를 성능 평가부(300)에 입력한다. 여기서, 평가 대상 AEB 시스템(500)에 의해 측정된 물체와의 거리는 사전에 데이터베이스에 저장되어 있거나 또는 실체 차량에 탑재되어 측정될 수 있다.In addition, the evaluation target AEB system 500 inputs the distance to the object measured according to the scenario to the performance evaluation unit 300 . Here, the distance to the object measured by the AEB system 500 to be evaluated may be previously stored in a database or mounted on a vehicle and measured.

성능 평가부(300)는 듀얼 카메라 장착 위치 결정 장치(100) 및 평가 대상 AEB 시스템(500)으로부터 입력된 거리를 비교하여 오차를 검출한다.The performance evaluation unit 300 detects an error by comparing distances input from the dual camera mounting positioning device 100 and the AEB system 500 to be evaluated.

이어 성능 평가부(300)는 검출된 오차를 토대로 해당 평가 대상 AEB 시스템(500)의 성능을 평가할 수 있다. Subsequently, the performance evaluation unit 300 may evaluate the performance of the corresponding evaluation target AEB system 500 based on the detected error.

한편, 차량이 기 설정된 시나리오에 따라 운행하는 경우, 거리 측정부(200)는 물체와의 거리를 검출하여 성능 평가부(300)에 입력한다.Meanwhile, when the vehicle drives according to a preset scenario, the distance measurement unit 200 detects a distance to an object and inputs the detected distance to the performance evaluation unit 300 .

또한, 평가 대상 AEB 시스템(500)은 해당 시나리오에 따라 측정한 물체와의 거리를 성능 평가부(300)에 입력한다. 여기서, 평가 대상 AEB 시스템(500)에 의해 측정된 물체와의 거리는 사전에 데이터베이스에 저장되어 있거나 또는 실체 차량에 탑재되어 측정될 수 있다.In addition, the evaluation target AEB system 500 inputs the distance to the object measured according to the scenario to the performance evaluation unit 300 . Here, the distance to the object measured by the AEB system 500 to be evaluated may be previously stored in a database or mounted on a vehicle and measured.

성능 평가부(300)는 거리 측정부(200) 및 평가 대상 AEB 시스템(500)으로부터 각각 입력된 거리를 비교하여 오차를 검출한다.The performance evaluation unit 300 detects an error by comparing distances respectively input from the distance measurement unit 200 and the AEB system 500 to be evaluated.

이어 성능 평가부(300)는 검출된 오차를 토대로 해당 평가 대상 AEB 시스템(500)의 성능 평가할 수 있다.Subsequently, the performance evaluation unit 300 may evaluate the performance of the corresponding evaluation target AEB system 500 based on the detected error.

이때, 성능 평가부(300)는 오차의 최대치와 최소치 및 평균값을 각 시나리오별로 검출할 수 있다.At this time, the performance evaluation unit 300 may detect the maximum value, minimum value, and average value of the error for each scenario.

평가 결과 출력부(400)는 성능 평가부(300)의 평가 결과를 출력한다.The evaluation result output unit 400 outputs the evaluation result of the performance evaluation unit 300 .

이 경우, 평가 결과 출력부(400)는 각 시나리오별 오차의 최대치와 최소치 및 평균값을 출력할 수 있다. In this case, the evaluation result output unit 400 may output the maximum value, minimum value, and average value of error for each scenario.

이하 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 방법을 도 21 및 도 22 를 참조하여 상세하게 설명한다. Hereinafter, a performance evaluation method of an emergency braking system according to an embodiment of the present invention will be described in detail with reference to FIGS. 21 and 22 .

도 21 은 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 방법의 순서도이다.21 is a flowchart of a performance evaluation method of an emergency braking system according to an embodiment of the present invention.

도 21 을 참조하면, 먼저 차량은 기 설정된 시나리오에 따라 주행한다(S210).Referring to FIG. 21 , first, the vehicle drives according to a preset scenario (S210).

이때, 듀얼 카메라 장착 위치 결정 장치(100)는 물체와의 거리를 검출하고(S220), 평가 대상 AEB 시스템(500)은 해당 시나리오에 따라 측정한 물체와의 거리를 검출한다(S230).At this time, the dual camera mounting positioning device 100 detects the distance to the object (S220), and the evaluation target AEB system 500 detects the distance to the object measured according to the scenario (S230).

듀얼 카메라 장착 위치 결정 장치(100)에 의해 측정된 물체와의 거리와 평가 대상 AEB 시스템(500)에 의해 검출된 물체와의 거리는 성능 평가부(300)에 입력된다.The distance to the object measured by the dual camera-equipped positioning device 100 and the distance to the object detected by the AEB system 500 to be evaluated are input to the performance evaluation unit 300 .

성능 평가부(300)는 듀얼 카메라 장착 위치 결정 장치(100) 및 평가 대상 AEB 시스템(500)으로부터 입력된 거리를 비교한다(S240).The performance evaluation unit 300 compares the distances inputted from the dual camera mounting location determining device 100 and the evaluation target AEB system 500 (S240).

성능 평가부(300)는 비교 결과에 따라 오차를 검출하고, 이 오차를 기반으로 평가 대상 AEB 시스템(500)의 성능을 평가하고, 평가 결과 출력부(400)가 해당 평가 결과를 출력한다(S250).The performance evaluation unit 300 detects an error according to the comparison result, evaluates the performance of the AEB system 500 to be evaluated based on the error, and the evaluation result output unit 400 outputs the corresponding evaluation result (S250). ).

이때, 성능 평가부(300)는 오차의 최대치와 최소치 및 평균값을 각 시나리오별로 검출하고, 이들을 토대로 평가 대상 AEB 시스템(500)의 성능을 평가할 수 있다.At this time, the performance evaluation unit 300 may detect the maximum value, minimum value, and average value of errors for each scenario, and evaluate the performance of the AEB system 500 to be evaluated based on them.

도 22 는 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 방법의 순서도이다.22 is a flowchart of a performance evaluation method of an emergency braking system according to an embodiment of the present invention.

도 22 를 참조하면, 먼저 차량은 기 설정된 시나리오에 따라 주행한다(S310).Referring to FIG. 22 , first, the vehicle drives according to a preset scenario (S310).

이때, 거리 측정부(200)는 물체와의 거리를 측정하고(S320), 평가 대상 AEB 시스템(500)은 해당 시나리오에 따라 측정한 물체와의 거리를 검출한다(S330).At this time, the distance measuring unit 200 measures the distance to the object (S320), and the AEB system 500 to be evaluated detects the distance to the measured object according to the scenario (S330).

거리 측정부(200)에 의해 측정된 물체와의 거리와 평가 대상 AEB 시스템(500)에 의해 검출된 물체와의 거리는 성능 평가부(300)에 입력된다.The distance to the object measured by the distance measurement unit 200 and the distance to the object detected by the AEB system 500 to be evaluated are input to the performance evaluation unit 300 .

성능 평가부(300)는 거리 측정부(200) 및 평가 대상 AEB 시스템(500)으로부터 입력된 거리를 비교한다(S340).The performance evaluation unit 300 compares the distance input from the distance measuring unit 200 and the AEB system 500 to be evaluated (S340).

성능 평가부(300)는 비교 결과에 따라 오차를 검출하고, 이 오차를 기반으로 평가 대상 AEB 시스템(500)의 성능을 평가하고, 평가 결과 출력부(400)가 평가 결과를 출력한다(S350).The performance evaluation unit 300 detects an error according to the comparison result, evaluates the performance of the AEB system 500 to be evaluated based on the error, and the evaluation result output unit 400 outputs the evaluation result (S350). .

이때, 성능 평가부(300)는 오차의 최대치와 최소치 및 평균값을 각 시나리오별로 검출하고, 이들을 토대로 평가 대상 AEB 시스템(500)의 성능을 평가할 수 있다.At this time, the performance evaluation unit 300 may detect the maximum value, minimum value, and average value of errors for each scenario, and evaluate the performance of the AEB system 500 to be evaluated based on them.

이와 같이, 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치 및 방법은 듀얼 카메라를 이용하여 계산한 거리를 바탕으로, 평가 대상 AEB 시스템(500)의 성능을 평가할 수 있도록 한다.As described above, the performance evaluation apparatus and method of an emergency braking system according to an embodiment of the present invention enables performance evaluation of the AEB system 500 to be evaluated based on the distance calculated using the dual camera.

또한, 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치 및 방법은 상대거리, 초기상대거리, 물체 속도, 대상차량 속도, 목표 상대거리, 시간차, 대상차량과 물체간의 시간차, 및 대상차량과 물체 간의 시간차를 이용하여 물체와의 거리를 측정하고, 이를 바탕으로 평가 대상 AEB 시스템(500)의 성능을 평가할 수 있도록 한다.In addition, an apparatus and method for evaluating the performance of an emergency braking system according to an embodiment of the present invention provide a relative distance, an initial relative distance, an object speed, a target vehicle speed, a target relative distance, a time difference, a time difference between a target vehicle and an object, and a target vehicle. The distance to the object is measured using the time difference between and the object, and based on this, the performance of the AEB system 500 to be evaluated can be evaluated.

또한, 본 발명의 일 실시예에 따른 긴급 제동 시스템의 성능평가 장치 및 방법은 완성차의 안전성 평가에 있어 실차시험 시 소요되는 기간, 경비 및 고가의 장비와 전문인력을 획기적으로 감소시킬 수 있다.In addition, the apparatus and method for evaluating the performance of an emergency braking system according to an embodiment of the present invention can dramatically reduce the time, expenses, and expensive equipment and professional manpower required for a vehicle test in evaluating the safety of a finished vehicle.

또한, 본 발명의 긴급 제동 시스템의 성능평가 장치 및 방법은 부품개발업체나 완성차 회사의 개발 자유도, 안전성 검증 등의 이론적 근거를 제공할 수 있다.In addition, the apparatus and method for evaluating the performance of the emergency braking system of the present invention can provide a theoretical basis for the degree of freedom of development and safety verification of parts developing companies or finished car companies.

본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Implementations described herein may be embodied in, for example, a method or process, an apparatus, a software program, a data stream, or a signal. Even if discussed only in the context of a single form of implementation (eg, discussed only as a method), the implementation of features discussed may also be implemented in other forms (eg, an apparatus or program). The device may be implemented in suitable hardware, software and firmware. The method may be implemented in an apparatus such as a processor, which is generally referred to as a processing device including, for example, a computer, microprocessor, integrated circuit or programmable logic device or the like. Processors also include communication devices such as computers, cell phones, personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, it should be noted that this is only exemplary and various modifications and equivalent other embodiments are possible from those skilled in the art to which the technology pertains. will understand Therefore, the true technical scope of protection of the present invention will be defined by the claims below.

10: 카메라 30: 차선 검출부
31: 관심영역 설정부 32: 그레이스케일 변환부
33: HSV 형식 변환부 34: 에지 검출부
35: 필터링부 36: 차선 인식부
40: 영상 보정부 41: 영상 왜곡 제거부
42: 영상 정류부 43: 초점거리 검출부
50: 장착 위치 결정부 51: 거리 검출부
52: 오차율 검출부 53: 변수 조정부
100: 듀얼 카메라 장착 위치 결정 장치
200: 거리 측정부 300: 성능 평가부
400: 평가 결과 출력부 500: 평가 대상 AEB 시스템
10: camera 30: lane detection unit
31: region of interest setting unit 32: gray scale conversion unit
33: HSV format conversion unit 34: edge detection unit
35: filtering unit 36: lane recognition unit
40: image correction unit 41: image distortion removal unit
42: image rectification unit 43: focal length detection unit
50: mounting position determination unit 51: distance detection unit
52: error rate detection unit 53: variable adjustment unit
100: dual camera mounting positioning device
200: distance measurement unit 300: performance evaluation unit
400: evaluation result output unit 500: evaluation target AEB system

Claims (16)

듀얼 카메라를 기반으로 물체까지의 거리를 측정하는 듀얼 카메라 장착 위치 결정 장치; 및
상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 성능 평가부를 포함하는 긴급 제동 시스템의 성능평가 장치.
A dual-camera-equipped positioning device that measures the distance to an object based on the dual-camera; and
A performance evaluation device for an emergency braking system comprising a performance evaluation unit that evaluates the performance of the AEB system to be evaluated by comparing the distance detected through the dual camera-equipped positioning device with the distance measured by the AEB system to be evaluated.
제 1 항에 있어서, 상기 성능 평가부는
기 설정된 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치.
The method of claim 1, wherein the performance evaluation unit
Evaluating the performance of the AEB system to be evaluated using an error between the distance detected through the dual camera-equipped positioning device and the distance measured by the AEB system to be evaluated for each preset scenario. performance evaluation device.
제 2 항에 있어서, 상기 성능 평가부는
상기 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치.
The method of claim 2, wherein the performance evaluation unit
Evaluating the performance of the AEB system to be evaluated using at least one of the maximum value, the minimum value, and the average value of the error between the distance detected through the dual-camera mounting positioning device and the distance measured by the AEB system to be evaluated for each scenario Performance evaluation device of an emergency braking system, characterized in that.
제 1 항에 있어서, 상기 성능 평가부의 평가 결과를 출력하는 평가 결과 출력부를 더 포함하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치. The apparatus for evaluating performance of an emergency braking system according to claim 1, further comprising an evaluation result output unit outputting an evaluation result of the performance evaluation unit. 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 거리 측정부; 및
상기 거리 측정부를 통해 측정된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 성능 평가부를 포함하는 긴급 제동 시스템의 성능평가 장치.
a distance measuring unit that measures the distance between the vehicle and the object using the initial relative distance of the object, the speed of the vehicle, and the speed of the object; and
A performance evaluation device for an emergency braking system comprising a performance evaluation unit that evaluates performance of the AEB system to be evaluated by comparing the distance measured through the distance measuring unit with the distance measured by the AEB system to be evaluated.
제 5 항에 있어서, 상기 거리 측정부는
아래의 수학식을 이용하여 차량과 물체 간의 거리를 측정하고,
상기 수학식은
Figure pat00029

이며, 여기서,
Figure pat00030
는 상대거리,
Figure pat00031
는 초기 상대거리,
Figure pat00032
는 선행차량 속도,
Figure pat00033
는 대상차량 속도, 0.2, 2.9, 및 36.1은 보정 파라미터인 것을 특징으로 하는 긴급 제동 시스템의 성능평가 장치.
The method of claim 5, wherein the distance measuring unit
Measure the distance between the vehicle and the object using the equation below,
The above formula is
Figure pat00029

is, where
Figure pat00030
is the relative distance,
Figure pat00031
is the initial relative distance,
Figure pat00032
is the speed of the preceding vehicle,
Figure pat00033
is the target vehicle speed, 0.2, 2.9, and 36.1 are correction parameters.
제 5 항에 있어서, 상기 성능 평가부는
기 설정된 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치.
The method of claim 5, wherein the performance evaluation unit
The performance evaluation device of the emergency braking system, characterized in that for each preset scenario, the performance of the AEB system to be evaluated is evaluated using an error between the distance measured through the distance measuring unit and the distance measured by the AEB system to be evaluated.
제 7 항에 있어서, 상기 성능 평가부는
상기 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치.
The method of claim 7, wherein the performance evaluation unit
Characterized in that for each scenario, the performance of the AEB system to be evaluated is evaluated using at least one of a maximum value, a minimum value, and an average value of errors between the distance measured through the distance measurement unit and the distance measured by the AEB system to be evaluated. Performance evaluation device of emergency braking system.
제 5 항에 있어서, 상기 성능 평가부의 평가 결과를 출력하는 평가 결과 출력부를 더 포함하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 장치. 6. The apparatus for evaluating performance of an emergency braking system according to claim 5, further comprising an evaluation result output unit outputting an evaluation result of the performance evaluation unit. 듀얼 카메라 장착 위치 결정 장치가 듀얼 카메라를 기반으로 물체까지의 거리를 측정하는 단계; 및
성능 평가부가 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계를 포함하는 긴급 제동 시스템의 성능평가 방법.
Measuring a distance to an object based on the dual camera by the dual camera mounting positioning device; and
Evaluating the performance of the AEB system to be evaluated by a performance evaluation unit by comparing the distance detected through the dual camera-equipped positioning device with the distance measured by the AEB system to be evaluated. Performance evaluation method of the emergency braking system.
제 10 항에 있어서, 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계에서,
상기 성능 평가부는 기 설정된 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 방법.
The method of claim 10, wherein in the step of evaluating the performance of the AEB system to be evaluated,
The performance evaluation unit evaluates the performance of the AEB system to be evaluated by using an error between the distance detected through the dual-camera mounting positioning device for each preset scenario and the distance measured by the AEB system to be evaluated. Performance evaluation method of emergency braking system.
제 11 항에 있어서, 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계에서,
상기 성능 평가부는 상기 시나리오별로 상기 듀얼 카메라 장착 위치 결정 장치를 통해 검출된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 방법.
The method of claim 11, wherein in the step of evaluating the performance of the AEB system to be evaluated,
The performance evaluation unit determines the AEB system to be evaluated by using at least one of the maximum value, the minimum value, and the average value of the error between the distance detected through the dual-camera mounting positioning device and the distance measured by the AEB system to be evaluated for each scenario. A performance evaluation method of an emergency braking system, characterized in that the performance is evaluated.
거리 측정부가 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 단계; 및
성능 평가부가 상기 거리 측정부를 통해 측정된 거리와 평가 대상 AEB 시스템에 의해 측정된 거리를 비교하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 단계를 포함하는 긴급 제동 시스템의 성능평가 방법.
measuring the distance between the vehicle and the object by a distance measurement unit using the initial relative distance of the object, the speed of the vehicle, and the speed of the object; and
Evaluating the performance of the AEB system to be evaluated by a performance evaluation unit by comparing the distance measured through the distance measuring unit with the distance measured by the AEB system to be evaluated.
제 13 항에 있어서, 상기 거리 측정부가 물체의 초기상대거리, 차량의 속도 및 물체 속도를 이용하여 차량과 물체 간의 거리를 측정하는 단계에서,
상기 거리 측정부는 아래의 수학식을 이용하여 차량과 물체 간의 거리를 측정하고,
상기 수학식은
Figure pat00034

이며, 여기서,
Figure pat00035
는 상대거리,
Figure pat00036
는 초기 상대거리,
Figure pat00037
는 선행차량 속도,
Figure pat00038
는 대상차량 속도, 0.2, 2.9, 및 36.1은 보정 파라미터인 것을 특징으로 하는 긴급 제동 시스템의 성능평가 방법.
14. The method of claim 13, wherein in the step of measuring the distance between the vehicle and the object by using the initial relative distance of the object, the speed of the vehicle, and the speed of the object by the distance measurer,
The distance measurement unit measures the distance between the vehicle and the object using the following equation,
The above formula is
Figure pat00034

is, where
Figure pat00035
is the relative distance,
Figure pat00036
is the initial relative distance,
Figure pat00037
is the speed of the preceding vehicle,
Figure pat00038
is the speed of the target vehicle, and 0.2, 2.9, and 36.1 are correction parameters.
제 13 항에 있어서, 상기 성능 평가부는
기 설정된 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 방법.
14. The method of claim 13, wherein the performance evaluation unit
Evaluating the performance of the AEB system to be evaluated using an error between the distance measured through the distance measurement unit and the distance measured by the AEB system to be evaluated for each preset scenario.
제 14 항에 있어서, 상기 성능 평가부는
상기 시나리오별로 상기 거리 측정부를 통해 측정된 거리와 상기 평가 대상 AEB 시스템에 의해 측정된 거리의 오차의 최대치와 최소치 및 평균값 중 적어도 하나를 이용하여 상기 평가 대상 AEB 시스템의 성능을 평가하는 것을 특징으로 하는 긴급 제동 시스템의 성능 평가 방법.
15. The method of claim 14, wherein the performance evaluation unit
Characterized in that for each scenario, the performance of the AEB system to be evaluated is evaluated using at least one of a maximum value, a minimum value, and an average value of errors between the distance measured through the distance measurement unit and the distance measured by the AEB system to be evaluated. Performance evaluation method of emergency braking system.
KR1020210153122A 2021-11-09 2021-11-09 Performance evaluation apparatus and method for autonomous emergency braking system KR102565603B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210153122A KR102565603B1 (en) 2021-11-09 2021-11-09 Performance evaluation apparatus and method for autonomous emergency braking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210153122A KR102565603B1 (en) 2021-11-09 2021-11-09 Performance evaluation apparatus and method for autonomous emergency braking system

Publications (2)

Publication Number Publication Date
KR20230067242A true KR20230067242A (en) 2023-05-16
KR102565603B1 KR102565603B1 (en) 2023-08-10

Family

ID=86545934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210153122A KR102565603B1 (en) 2021-11-09 2021-11-09 Performance evaluation apparatus and method for autonomous emergency braking system

Country Status (1)

Country Link
KR (1) KR102565603B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08285534A (en) * 1995-04-12 1996-11-01 Suzuki Motor Corp Vehicle-mounted image processing device
KR102011665B1 (en) * 2018-06-07 2019-08-19 계명대학교 산학협력단 Apparatus and method for evalutating adaptive cruise control system for vehicle
KR102011664B1 (en) * 2018-06-07 2019-08-19 계명대학교 산학협력단 Test evaluation apparatus for autonomous emergency braking system and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08285534A (en) * 1995-04-12 1996-11-01 Suzuki Motor Corp Vehicle-mounted image processing device
KR102011665B1 (en) * 2018-06-07 2019-08-19 계명대학교 산학협력단 Apparatus and method for evalutating adaptive cruise control system for vehicle
KR102011664B1 (en) * 2018-06-07 2019-08-19 계명대학교 산학협력단 Test evaluation apparatus for autonomous emergency braking system and control method thereof

Also Published As

Publication number Publication date
KR102565603B1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
KR101411668B1 (en) A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
CN108692719B (en) Object detection device
JP6184877B2 (en) Vehicle external recognition device
CN110490936B (en) Calibration method, device and equipment of vehicle camera and readable storage medium
US10719949B2 (en) Method and apparatus for monitoring region around vehicle
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
US11880993B2 (en) Image processing device, driving assistance system, image processing method, and program
JP2016200557A (en) Calibration device, distance measurement apparatus and calibration method
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
CN114919584A (en) Motor vehicle fixed point target distance measuring method and device and computer readable storage medium
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
JP5587852B2 (en) Image processing apparatus and image processing method
KR102565603B1 (en) Performance evaluation apparatus and method for autonomous emergency braking system
WO2017090097A1 (en) Outside recognition device for vehicle
JP2021033605A (en) Image processor and method for processing image
KR102629639B1 (en) Apparatus and method for determining position of dual camera for vehicle
JP7064400B2 (en) Object detection device
KR102588013B1 (en) Performance evaluation apparatus for adaptive cruise control system that calculates distance using dual cameras and control method thereof
KR20230094853A (en) Performance evaluation apparatus for highway driving assist system that calculates distance using dual cameras and method thereof
EP3540643A1 (en) Image processing apparatus and image processing method
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant