KR20190069747A - Object recognition apparatus and method for vehicle - Google Patents

Object recognition apparatus and method for vehicle Download PDF

Info

Publication number
KR20190069747A
KR20190069747A KR1020170169968A KR20170169968A KR20190069747A KR 20190069747 A KR20190069747 A KR 20190069747A KR 1020170169968 A KR1020170169968 A KR 1020170169968A KR 20170169968 A KR20170169968 A KR 20170169968A KR 20190069747 A KR20190069747 A KR 20190069747A
Authority
KR
South Korea
Prior art keywords
sensor
trailer
coordinates
radar
tractor
Prior art date
Application number
KR1020170169968A
Other languages
Korean (ko)
Other versions
KR102366441B1 (en
Inventor
장윤호
김재광
이강훈
허명선
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170169968A priority Critical patent/KR102366441B1/en
Publication of KR20190069747A publication Critical patent/KR20190069747A/en
Application granted granted Critical
Publication of KR102366441B1 publication Critical patent/KR102366441B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means

Abstract

The present invention relates to an object recognition apparatus for a vehicle and a method thereof, which can accurately recognize objects positioned around a truck including a tractor and a trailer. To this end, the object recognition apparatus for a vehicle in which the trailer for mounting freight is connected to the tractor for traction comprises: a first sensor installed on the tractor; a second sensor installed on the trailer; and a control unit detecting an angle of refraction between the tractor and the trailer by using the first sensor, correcting the coordinates of the second sensor by using the angle of refraction, and recognizing the location of an object detected by the second sensor by using the corrected coordinates of the second sensor.

Description

차량의 객체 인식 장치 및 방법{OBJECT RECOGNITION APPARATUS AND METHOD FOR VEHICLE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an object recognition apparatus and method,

본 발명은 차량에 관한 것으로, 견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle, and more particularly, to a freight vehicle comprising a tractor for traction and a trailer for cargo loading.

견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량은 대형 화물 또는 대량의 화물을 운송하기에 적합하다. 트랙터와 트레일러는 기계적으로 체결되는 구조여서 트레일러를 트랙터에 연결하여 함께 이동하거나 또는 트레일러를 분리한 채로 트랙터만 이동할 수 있다.Freight vehicles consisting of tractors for traction and trailers for cargo loading are suitable for transporting large cargoes or bulk cargoes. The tractor and the trailer are mechanically fastened, so that the trailer can be moved together with the tractor, or only the tractor can be moved with the trailer removed.

트랙터에 트레일러를 연결하여 이동하는 경우 트랙터와 트레일러의 연결점이 회전축으로 작용하여 필요 시 트레일러가 회전한다. 또한 대형 화물 또는 대용량의 화물을 탑재하기 위해 트레일러의 크기 역시 대형화되어 있다.When the trailer is connected to the tractor, the connection point between the tractor and the trailer acts as a rotating shaft, and the trailer rotates if necessary. Also, the size of the trailer has been enlarged to accommodate large cargoes or large cargoes.

이와 같은 트랙터-트레일러 구조의 화물 차량은 대형화로 인해 운전자가 화물 차량 주변의 다른 객체의 존재를 확인하기가 쉽지 않다.Such a tractor-trailer-structured freight vehicle is not easy for the driver to confirm the existence of other objects around the freight vehicle due to the enlargement.

일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식하는데 그 목적이 있다.According to one aspect, the object of the present invention is to accurately recognize objects located in the vicinity of a truck, which is composed of a tractor and a trailer.

상술한 목적의 본 발명에 따른 차량의 객체 인식 장치는, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는, 상기 트랙터에 설치되는 제 1 센서와; 상기 트레일러에 설치되는 제 2 센서와; 상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함한다.The object recognition apparatus for a vehicle according to the present invention is characterized in that a trailer for loading a cargo is connected to a tractor for traction, the object recognition apparatus comprising: a first sensor installed on the tractor; A second sensor installed on the trailer; Wherein the first sensor is used to detect an angle of refraction between the tractor and the trailer, the coordinates of the second sensor are corrected using the refraction angle, and the coordinates of the second sensor And a control unit for recognizing the position of the detected object.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식한다.In the above-described vehicle object recognition apparatus, the control unit fuses the coordinates of the first sensor with the coordinates of the second sensor, obtains a correction variable between the fused coordinate and the corrected coordinates of the second sensor, And recognizes the position of the single detected object of the second sensor by applying the correction variable to the coordinates of the single detected object of the second sensor.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described object recognition apparatus for a vehicle, the control section performs the coordinate fusion when a joint detection object of the first sensor and the second sensor exists.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described object recognition apparatus for a vehicle, the control section does not perform the coordinate fusion when only a single detected object of the second sensor is present.

상술한 차량의 객체 인식 장치에서, 상기 제어부는,상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described object recognition apparatus for a vehicle, the control section performs detection of a dead zone of the vehicle through recognition of the position of the detection object.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described object recognition apparatus for a vehicle, the control section controls the autonomous travel of the vehicle using the result of the detection of the position of the detection object.

상술한 차량의 객체 인식 장치에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described object recognition apparatus for a vehicle, the second sensor is installed at each end of the trailer, one at each end.

상술한 차량의 객체 인식 장치에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the above object recognition apparatus for a vehicle, the first sensor is a rider (LiDAR); The second sensor is a RADAR.

상술한 목적의 본 발명에 따른 차량의 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와; 상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와; 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함한다.A method for recognizing an object of a vehicle according to the present invention is characterized in that a trailer for loading a cargo is connected to a tractor for traction, wherein the method for recognizing an object of the vehicle comprises the steps of: Detecting a refraction angle between the tractor and the trailer; Correcting coordinates of a second sensor installed on the trailer using the refraction angle; And recognizing the position of the detection object of the second sensor using the corrected coordinates of the second sensor.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와; 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와; 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함한다.In the method for recognizing an object of a vehicle described above, a step of fusing the coordinates of the first sensor and the coordinates of the second sensor; Obtaining a correction parameter between the fused coordinate and the corrected coordinate of the second sensor; And recognizing the position of the single detected object of the second sensor by applying the correction variable to the coordinates of the single detected object of the second sensor.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described vehicle object recognition method, the coordinate fusion is performed when a joint detection object of the first sensor and the second sensor exists.

상술한 차량의 객체 인식 방법에서, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described vehicle object recognition method, the coordinate fusion is not performed when only the single detected object of the second sensor is present.

상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described vehicle object recognition method, the detection of the blind spot of the vehicle is performed through the recognition of the position of the detection object.

상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described object recognition method for a vehicle, autonomous travel of the vehicle is controlled by using the position recognition result of the detected object.

상술한 차량의 객체 인식 방법에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described object recognition method for a vehicle, the second sensors are installed at the rear ends of the trailer, respectively.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the vehicle object recognition method described above, the first sensor is a rider (LiDAR); The second sensor is a RADAR.

상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 장치는, 견인을 위한 트랙터와; 화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와; 상기 트랙터에 설치되는 라이더와; 상기 트레일러의 후미에 설치되는 레이더와; 상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되, 상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식한다.Another object recognition apparatus for a vehicle according to the present invention for a vehicle having the above-mentioned object includes: a tractor for traction; A trailer connected to the tractor for loading a cargo; A rider installed on the tractor; A radar installed at the rear of the trailer; A controller for detecting a refraction angle between the tractor and the trailer using the rider, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detected object of the radar using the corrected coordinates of the radar, Wherein the control unit fuses the coordinates of the rider with the coordinates of the radar to obtain a correction variable between the fused coordinates and the corrected coordinates of the radar, And the position of the single detection object of the radar is recognized by applying the variable.

상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와; 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함한다.A method for recognizing an object of a vehicle according to the present invention is characterized in that a trailer for loading a cargo is connected to a tractor for towing, wherein the method for recognizing an object of the vehicle comprises the steps of: Detecting the refraction angle between the tractor and the trailer, correcting the coordinates of the radar installed on the trailer using the refraction angle, and recognizing the position of the detected object of the radar using the corrected coordinates of the radar Wow; Wherein the correction parameter is applied to the coordinates of the single detected object of the radar so as to determine a correction parameter between the fused coordinate and the corrected coordinate of the radar, And recognizing the position of the detected object.

일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식할 수 있도록 한다.According to one aspect, it is possible to accurately recognize objects located in the vicinity of a truck, which is composed of a tractor and a trailer.

도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.
도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다.
도 6은 트레일러가 회전하지 않은 상태와 회전한 상태에서 레이더에 의해 탐지되는 객체의 좌표를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다.
도 8은 라이더의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.
1 is a view showing a freight vehicle according to an embodiment of the present invention.
2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.
FIG. 3 is a diagram showing a detection error of a radar caused by a swing of a trailer.
4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.
5 is a diagram illustrating a method of recognizing an object of a freight vehicle according to an embodiment of the present invention.
Fig. 6 is a diagram showing the coordinates of an object detected by a radar in a state in which the trailer is not rotated and a state in which the trailer is rotated.
FIG. 7 is a diagram showing coordinate fusing of a freight vehicle according to an embodiment of the present invention.
Fig. 8 is a diagram showing fused coordinates obtained by adding weight values X? And Y? To the detection result of the rider.
9 is a diagram illustrating a result of an object recognition method of a freight vehicle according to an embodiment of the present invention.

도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.1 is a view showing a freight vehicle according to an embodiment of the present invention.

본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 도 1의 트레일러(120) 위에는 컨테이너(130)가 탑재되어 있어서, 컨테이너(130)의 아래쪽에 위치한 트레일러(120)가 잘 드러나 있지 않다. 트레일러(120)와 트레일러(120)에 탑재된 컨테이너(130)는 고정된 상태로 함께 움직인다.The freight vehicle 100 according to the embodiment of the present invention is comprised of a tractor 110 for towing and a trailer 120 for loading freight. 1, the container 130 is mounted on the trailer 120 so that the trailer 120 located below the container 130 is not exposed. The trailer 120 and the container 130 mounted on the trailer 120 move together in a fixed state.

트랙터(110)는 탑재된 엔진의 구동력을 이용해 트레일러(120)를 견인한다. 반면 트레일러(120)는 동력원이 탑재되지 않기 때문에 트랙터(110)에 연결된 상태에서 트랙터(110)에 의해 견인된다. 이를 위해 트레일러(120)는 트랙터(110)에 회전 가능하도록 기계적으로 연결된다. 즉, 트랙터(110)와 트레일러(120)가 기계적으로 연결됨으로써 형성되는 회전축(142)을 중심으로 트레일러(120)가 평면(예를 들면 지면과 대략 평행한 면) 상에서 일정 각도 범위 내의 회전을 한다. 트레일러(120)의 회전(스윙)은 후술하는 도 2를 통해 더 자세히 설명하고자 한다.The tractor 110 pulls the trailer 120 using the driving force of the mounted engine. On the other hand, the trailer 120 is pulled by the tractor 110 while being connected to the tractor 110 because the power source is not mounted. To this end, the trailer 120 is mechanically connected to the tractor 110 so as to be rotatable. That is, the trailer 120 rotates within a certain angle range on a plane (for example, a surface substantially parallel to the ground) around a rotation axis 142 formed by mechanically connecting the tractor 110 and the trailer 120 . The rotation (swing) of the trailer 120 will be described in more detail with reference to FIG.

본 발명의 실시 예에 따른 화물 차량(100)은 트레일러(120)라는 크고 긴 화물 적재 수단을 갖기 때문에 운전자가 화물 차량(100)의 좌측과 우측 및 후방을 온전히 관측하는 것이 매우 어렵다. 따라서 화물 차량(100)에는 운전자를 대신하여 화물 차량(100)의 좌측과 우측, 후방의 상황을 탐지하기 위한 탐지 수단인 라이더(LiDAR)(152)와 레이더(RADAR)(162)가 설치된다. 라이더(152)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트랙터(110)에 설치되는 제 1 센서일 수 있다. 레이더(162)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트레일러(120)에 설치되는 제 2 센서일 수 있다.Since the freight vehicle 100 according to the embodiment of the present invention has the large and long cargo loading means called the trailer 120, it is very difficult for the driver to observe the left side, the right side and the rear side of the freight vehicle 100 in a complete manner. Therefore, the freight vehicle 100 is provided with a rider (LiDAR) 152 and a radar 162 as detection means for detecting the left, right, and rear conditions of the freight vehicle 100 on behalf of the driver. The rider 152 may be a first sensor installed on the tractor 110 to detect objects present in the vicinity of the freight vehicle 100. The radar 162 may be a second sensor installed in the trailer 120 to detect objects present in the vicinity of the freight vehicle 100.

라이더(152)는 트랙터(110)의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 라이더(152)는 근거리 탐지 수단으로서, 트랙터(110)의 좌우 측후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 152L은 트랙터(110)의 왼쪽에 설치된 라이더를 의미하고, 152R은 트랙터(110)의 오른쪽에 설치된 라이더를 의미한다.The rider 152 is installed on the left and right sides of the tractor 110, respectively. The rider 152 is a short range detection means and detects an object existing in a certain region behind the left and right sides of the tractor 110. [ The object may be another automobile or a pedestrian, a structure, a building, and the like. 1, reference numeral 152L denotes a rider installed on the left side of the tractor 110, and 152R denotes a rider installed on the right side of the tractor 110. In Fig.

레이더(162)는 트레일러(120)의 후미의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 레이더(162)는 라이더(152)에 비해 상대적으로 원거리 탐지 수단으로서, 트레일러(120)의 후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 162L은 트레일러(120)의 왼쪽에 설치된 레이더를 의미하고, 162R은 트레일러(120)의 오른쪽에 설치된 레이더를 의미한다.The radar 162 is installed on the left and right sides of the rear of the trailer 120, respectively. The radar 162 detects an object that exists in a certain area behind the trailer 120 as a relatively long distance detection means as compared to the rider 152. [ The object may be another automobile or a pedestrian, a structure, a building, and the like. 1, 162L denotes a radar installed on the left side of the trailer 120, and 162R denotes a radar installed on the right side of the trailer 120. In FIG.

앞서 설명한 바와 같이, 라이더(152)는 근거리 탐지 수단이고 레이더(162)는 상대적으로 원거리 탐지 수단이다. 이 때문에 라이더(152)의 탐지 범위와 레이더(162)의 탐지 범위가 부분적으로 중첩된다. 라이더(152)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '라이더 고유 탐지 범위'라 할 수 있다. 또한 라이더(152) 및 레이러(162)의 중첩되는 탐지 범위를 '중첩 탐지 범위'라 할 수 있다. 또한 레이더(162)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '레이더 고유 탐지 범위'라 할 수 있다.As described above, the rider 152 is a short range detection means and the radar 162 is a relatively long range detection means. Therefore, the detection range of the rider 152 and the detection range of the radar 162 are partially overlapped. The detection range other than the overlapping portion in the detection range of the rider 152 may be referred to as a 'rider inherent detection range'. The overlapped detection range of the rider 152 and the mirror 162 may be referred to as an " overlap detection range ". The detection range other than the overlapping portion in the detection range of the radar 162 may be referred to as a 'radar inherent detection range'.

도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.

도 1에서 설명한 것처럼, 본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 트레일러(120)는 회전축(142)을 중심으로 평면 상을 일정 범위 내에서 회전한다. 이와 같은 구조로 인해 화물 차량(100)이 직진할 때와 왼쪽으로 선회할 때, 그리고 오른쪽으로 선회할 때의 트랙터(110)와 트레일러(120)의 상대 각도가 서로 다르다. 이하의 설명에서는 트랙터(110)와 트레일러(120)가 이루는 각도를 '굴절각'이라 칭한다.1, the freight vehicle 100 according to the embodiment of the present invention is comprised of a tractor 110 for towing and a trailer 120 for loading freight. The trailer 120 rotates in a plane on the plane of the rotation axis 142. Due to this structure, the relative angles of the tractor 110 and the trailer 120 are different when the freight vehicle 100 goes straight, turns to the left, and turns to the right. In the following description, the angle formed by the tractor 110 and the trailer 120 is referred to as a 'refraction angle'.

도 2의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않으면 트랙터(110)와 트레일러(120)는 서로 일직선을 이룬다. 이 때의 굴절각은 0도이다. 도 2의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)의 왼쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ1만큼의 차이가 발생한다. 또한, 도 2의 (III)에 나타낸 바와 같이, 트랙터(110)가 오른쪽으로 선회하거나 또는 트레일러(120)의 오른쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 반시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ2만큼의 차이가 발생한다.As shown in FIG. 2 (I), when the tractor 110 goes straight and the slider of the trailer 120 does not occur, the tractor 110 and the trailer 120 are aligned with each other. The refraction angle at this time is 0 degrees. As shown in FIG. 2 (II), when the tractor 110 turns to the left or slips to the left of the trailer 120, the trailer 120 rotates (swings) clockwise with respect to the tractor 110, do. The difference between the center axis of the tractor 110 and the center axis of the trailer 120 is caused by the refraction angle? 1. 2 (III), when the tractor 110 turns to the right or slips to the right of the trailer 120, the trailer 120 is rotated counterclockwise with respect to the tractor 110 (Swing). The difference between the center axis of the tractor 110 and the center axis of the trailer 120 is caused by the refraction angle? 2.

도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다. 앞서 도 2의 (II)와 (III)에 나타낸 것과 같은 트레일러(120)의 회전(스윙)으로 인해 레이더(162)의 좌표가 틀어질 수 있어서, 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식할 수 있다.FIG. 3 is a diagram showing a detection error of a radar caused by a swing of a trailer. The coordinates of the radar 162 may be distorted due to the rotation (swing) of the trailer 120 as shown in Figs. 2 (II) and (III), and the position of the object detected by the radar 162 may be I can not recognize it well.

도 3의 (I)은 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않아서 트랙터(110)와 트레일러(120)가 서로 일직선을 이룰 때는 화물 차량(100) 주변의 객체(302)의 위치가 정확히 탐지된다.FIG. 3 (I) is a diagram showing the detection result of the radar 162 in the situation shown in FIG. 2 (I). 3 (I), when the tractor 110 goes straight and the slider of the trailer 120 does not occur, so that when the tractor 110 and the trailer 120 form a straight line with each other, The position of the object 302 is accurately detected.

도 3의 (II)는 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)에 왼쪽으로 슬립이 발생하여 트레일러(120)가 트랙터(110)에 대해 시계 방향으로 회전(스윙)하면 트레일어(162)에 설치되는 레이더(162)에 탐지되는 객체(304)의 위치는 객체(304)의 실제 위치와 다른 것을 알 수 있다. 도 3의 (I)의 경우 객체(302)가 화물 차량(100)의 후방 양 쪽에서 화물 차량(100)과 나란히 진행하는 것으로 탐지된다. 이와 달리, 도 3의 (II)의 경우에는 왼쪽 객체(304)가 화물 차량(100)이 진행하고 있는 차로 위에 위치한 것으로 잘 못 인식될 수 있다. 본 발명은 트랙터와 트레일러고 구성되는 화물 차량에서 트레일러의 회전(스윙)으로 인한 객체 탐지 오차를 해소하기 위한 것이다.FIG. 3 (II) is a diagram showing the detection result of the radar 162 in the situation shown in FIG. 2 (I). The trailer 120 is rotated clockwise (swinging) with respect to the tractor 110, as shown in (II) of FIG. 3, when the tractor 110 is pivoted to the left or a slip occurs to the left in the trailer 120, The position of the object 304 detected by the radar 162 installed in the lower trajectory 162 is different from the actual position of the object 304. In the case of (I) of FIG. 3, it is detected that the object 302 is traveling alongside the freight vehicle 100 on both sides of the rear of the freight vehicle 100. In contrast, in FIG. 3 (II), the left object 304 may be incorrectly recognized as being located on a lane on which the freight vehicle 100 is traveling. The present invention is intended to solve an object detection error due to the rotation (swing) of a trailer in a freight vehicle having a tractor and a trailer.

도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.

제어부(420)는 본 발명의 실시 예에 따른 화물 차량(100)의 동작 전반에 관여하는 전자 제어 유닛(Electronic Control Unit, ECU)일 수 있다. 제어부(420)는 트레일러(120)의 회전(스윙)을 고려하여 레이더(162)의 탐지 결과를 보정함으로써 객체의 위치를 정확히 인식할 수 있도록 한다. 제어부(420)의 보정 결과는 사각 지대 탐지 모듈(BSD 모듈)(450)에 제공되어 사각 지대 검출을 위해 사용될 수 있다.The control unit 420 may be an electronic control unit (ECU) involved in the overall operation of the freight vehicle 100 according to the embodiment of the present invention. The controller 420 corrects the detection result of the radar 162 in consideration of the rotation (swing) of the trailer 120 so that the position of the object can be accurately recognized. The correction result of the controller 420 may be provided to a blind spot detection module (BSD module) 450 and used for blind spot detection.

제어부(420)에는 메모리(470)가 연결된다. 메모리(470)에는 제어부(420)가 화물 차량(100)을 제어하는데 필요한 소프트웨어나 펌웨어가 저장된다. 또한 제어부(420)가 화물 차량(100)을 제어하는데 필요한 데이터나 화물 차량(100)을 제어하면서 생성되는 데이터가 메모리(470)에 저장된다.A memory 470 is connected to the control unit 420. In the memory 470, software and firmware necessary for the control unit 420 to control the freight vehicle 100 are stored. The control unit 420 also stores data necessary for controlling the freight vehicle 100 and data generated while controlling the freight vehicle 100 in the memory 470.

이와 같은 본 발명의 실시 예에 따른 화물 차량(100)의 제어부(420)는 레이더(162)의 탐지 결과를 보정하기 위한 다음과 같은 제어 로직을 포함한다.The control unit 420 of the freight vehicle 100 according to the embodiment of the present invention includes the following control logic for correcting the detection result of the radar 162.

굴절각 산출 로직(422)은 트랙터(110)에 대한 트레일러(120)의 상대 각도인 굴절각(도 2의 θ1 및 θ2 참조)을 산출한다.The refraction angle calculation logic 422 calculates a refraction angle (see? 1 and? 2 in FIG. 2), which is the relative angle of the trailer 120 to the tractor 110.

객체 인식 로직(424)은 라이더(152) 또는 레이더(162)의 탐지 결과로부터 화물 차량(100)의 주변에 다른 객체가 존재하는지를 판단한다.The object recognition logic 424 determines whether there are other objects in the vicinity of the freight vehicle 100 from the detection result of the rider 152 or the radar 162.

객체 좌표 변환 로직(426)은 레이더(162)를 통해 탐지된 객체의 좌표를 트레일러(120)의 회전(스윙)에 따른 굴절각을 고려하여 변환한다.The object coordinate transformation logic 426 transforms the coordinates of the object detected through the radar 162 in consideration of the refraction angle according to the rotation (swing) of the trailer 120. [

라이더 정보 융합 로직(428)은 레이더(162)에 의해 탐지된 객체가 라이더(152)에 의해서도 탐지되는 경우(즉 객체가 '중첩 탐지 범위'에 공동 탐지 객체가 위치하는 경우) 레이더(162)에 의해 탐지된 객체의 좌표와 라이더(152)에 의해 탐지된 객체의 좌표를 융합한다.The rider information fusion logic 428 may be configured to determine if the object detected by the radar 162 is also detected by the rider 152 (i.e., if the object is located in the 'overlap detection range' And fuses the coordinates of the object detected by the rider 152 with the coordinates of the detected object.

객체 위치 판단 로직(430)은 융합된 객체의 좌표로부터 객체의 정확한 위치를 인식한다.The object position determination logic 430 recognizes the exact position of the object from the coordinates of the fused object.

객체 융합 판단 로직(432)은 인식된 객체의 정확한 위치와 속도 등을 판단한다.The object fusion determination logic 432 determines the precise location and speed of the recognized object.

도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다. 도 5에 나타낸 객체 인식 방법은 도 1에 나타낸 것과 같은 라이더(152)가 설치되는 트랙터(110)와 레이더(162)가 설치되는 트레일러(120)로 구성되는 화물 차량(100)의 제어부(420)에 의해 실시될 수 있다.5 is a diagram illustrating a method of recognizing an object of a freight vehicle according to an embodiment of the present invention. The object recognition method shown in FIG. 5 includes a control unit 420 of a freight vehicle 100 including a tractor 110 in which a rider 152 as shown in FIG. 1 is installed and a trailer 120 in which a radar 162 is installed. . ≪ / RTI >

제어부(420)는 라이더(152) 및 레이더(162)와 통신을 시도하여 라이더(152) 및 레이더(162)가 활성화되어 있는지를 확인한다(512). 라이더(152) 및 레이더(162)가 활성화되어 있을 때, 제어부(420)는 라이더(152) 및 레이더(162)를 이용하여 주변의 객체를 인식하기 위한 제어를 실시한다.The control unit 420 attempts communication with the rider 152 and the radar 162 to check whether the rider 152 and the radar 162 are activated (512). When the rider 152 and the radar 162 are activated, the control unit 420 performs control for recognizing the surrounding objects using the rider 152 and the radar 162.

제어부(420)는 트랙터(110)에 설치되어 있는 라이더(152)를 이용하여 트레일러(120)의 굴절각을 검출한다(514). 트랙터(110)에 설치되어 있는 라이더(152)는 트랙터(110)의 측후방의 일정 범위를 탐지할 수 있으므로, 라이더(152)의 탐지 결과로부터 트레일러(120)의 상태를 확인할 수 있다. 예를 들면, 앞서 설명한 도 2에서 (I)의 상태를 기준으로 하여 (II)의 상태 또는 (III)이 상태를 확인함으로써 트레일러(120)의 회전(스윙) 여부는 물론 그 때의 굴절각도 검출할 수 있다.The control unit 420 detects the refraction angle of the trailer 120 using the rider 152 installed in the tractor 110 (514). The state of the trailer 120 can be confirmed from the detection result of the rider 152 since the rider 152 installed on the tractor 110 can detect a certain range behind the tractor 110 side. For example, by confirming the state of (II) or (III) with reference to the state of (I) in FIG. 2 described above, whether or not the trailer 120 is swung (swing) can do.

앞서 도 3에서 설명한 것처럼, 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체의 위치는 서로 다르다. 이를 도 6에 나타내었다. 도 6은 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체(602)(604)의 좌표를 나타낸 도면이다. 또한 도 6은 객체(602)(604)가 트레일러(120)로부터 원거리에 있어서 오직 레이더(162)에 의해서만 탐지되고 라이더(152)에 의해서는 탐지되지 않는 경우를 나타낸 도면이다.As described above with reference to FIG. 3, the positions of the objects detected by the radar 162 are different from each other in a state where the trailer 120 is not rotated and a state where the trailer 120 is rotated. This is shown in Fig. 6 is a view showing the coordinates of the object 602 (604) detected by the radar 162 in a state in which the trailer 120 is not rotated and rotated. 6 is a diagram showing a case where the object 602 (604) is detected only by the radar 162 at a distance from the trailer 120, and is not detected by the rider 152. Fig.

도 6에서 'L'은 트레일러(120)의 길이이고 'W'는 트레일러(120)의 폭이다. 먼저 도 6의 (I)에서, 트레일러(120)의 회전축(142)을 원점으로 하는 가상의 직각 좌표를 적용하면 왼쪽 레이더(162L)의 좌표는 (-W/2, -L)이다. 왼쪽 레이더(162L)에서 객체(602)까지의 직선 거리가 R이고, 트레일러(120)의 후면에 대해 직선 R이 이루는 각도가 φ일 때, 왼쪽 레이더(162L)를 원점으로 하는 가상의 직각 좌표를 적용하면 객체(602)의 좌표는 (R*cosφ-W/2, R*sinφ-L)이다.In FIG. 6, 'L' is the length of the trailer 120 and 'W' is the width of the trailer 120. First, in FIG. 6 (I), when a virtual rectangular coordinate having the rotation axis 142 of the trailer 120 as the origin is applied, the coordinates of the left radar 162L are (-W / 2, -L). When the straight line distance from the left radar 162L to the object 602 is R and the angle formed by the straight line R with respect to the rear surface of the trailer 120 is φ, the imaginary rectangular coordinates having the left radar 162L as the origin When applied, the coordinates of the object 602 are (R * cos? - W / 2, R * sin? - L).

도 6의 (II)에 나타낸 바와 같이, 트레일러(120)가 회전(스윙)하면 회전축(142)을 원점으로 하는 왼쪽 레이더(162L)의 좌표도 바뀌기 때문에 도 6의 (I)에 나타낸 객체(602)의 좌표는 더 이상 신뢰할 수 없다. 따라서 도 6의 (I)에서 객체(602)의 좌표를 구한 방법에 도 6의 (II)에 나타낸 트레일러(120)의 회전(스윙)을 반영한 변환된 좌표를 구한다. 트레일러(120)의 회전(스윙)에 의해 트레일러(120)의 중심축이 θ만큼 회전하였으므로, 이 굴절각 θ를 반영하여 왼쪽 레이더(162L)의 좌표를 보정하여 새로 구하고, 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영하여 객체(604)의 좌표를 구한다. 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(604)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.6 (II), when the trailer 120 swings, the coordinates of the left radar 162L having the rotation axis 142 as the origin also change. Therefore, the object 602 shown in FIG. 6 (I) ) Is no longer reliable. Therefore, the transformed coordinates reflecting the rotation (swing) of the trailer 120 shown in FIG. 6 (II) are obtained by the method of obtaining the coordinates of the object 602 in (I) of FIG. Since the center axis of the trailer 120 is rotated by the angle? By the rotation (swing) of the trailer 120, the coordinates of the left radar 162L are newly corrected by reflecting the refraction angle? The coordinates of the object 604 are obtained. The corrected new coordinates of the left radar 162L reflecting the refraction angle? Are ((-W / 2) * cos? -L * sin ?, (-W / 2) * sin? + L * cos?). The coordinates of the object 604 reflecting the new corrected coordinates of the left radar 162L are ((R'cos? '+ ((- W / 2) * cos? - L * sin? -W / 2) * sin? + L * cos?)).

도 5로 돌아와서, 제어부(420)는 라이더(152)와 레이더(162)에 의해 모두 탐지되는 객체 즉 공동 탐지 객체가 존재하는지를 확인한다(518). 즉, 공동 탐지 객체는 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 객체이다.Returning to FIG. 5, the control unit 420 confirms whether there is an object that is detected by both the rider 152 and the radar 162, that is, a common detection object (518). That is, the joint detection object is an object existing within the overlapping detection range of the rider 152 and the radar 162.

라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하면(518의 '예'), 제어부(420)는 라이더(152)와 레이더(162) 각각을 통해 획득한 두 개의 좌표를 융합한다(532). 도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다. 도 7의 (I)은 라이더(152)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (II)는 레이더(162)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (I)과 (II)를 통해 구한 두 개의 좌표를 융합함으로써 객체(702)의 위치를 더욱 정확하게 인식할 수 있다.If there is a common detection object (YES in 518) that exists within the overlapping detection range of the rider 152 and the radar 162, the control unit 420 determines whether or not both of the two acquired through the rider 152 and the radar 162 The coordinates of the points are fused (532). FIG. 7 is a diagram showing coordinate fusing of a freight vehicle according to an embodiment of the present invention. 7 (I) is a diagram showing the coordinate of the object 702 by using the rider 152. FIG. FIG. 7 (II) is a diagram showing the coordinates of the object 702 using the radar 162. FIG. By fusing two coordinates obtained through (I) and (II) in FIG. 7, the position of the object 702 can be more accurately recognized.

도 7의 (I)에 나타낸 바와 같이, 트랙터(110)에 설치되는 레이더(152)는 트랙터(110)와 함께 일체로 움직이기 때문에 트랙터(110)가 회전하더라도 레이더(152)의 좌표는 변하지 않는다. 따라서 레이더(152)에 의해 탐지된 객체(702)의 좌표 (a, b)의 변환은 필요치 않다.The radar 152 mounted on the tractor 110 moves together with the tractor 110 so that the coordinates of the radar 152 do not change even if the tractor 110 rotates as shown in (I) of FIG. 7 . Therefore, the transformation of the coordinates (a, b) of the object 702 detected by the radar 152 is not required.

도 7의 (II)에서, 트레일러(120)의 왼쪽 레이더(162L)의 좌표와, 왼쪽 레이더(162L)에 의해 탐지된 객체(702)의 좌표는 앞서 도 6의 (II)에서 언급한 것과 같은 방식으로 나타낼 수 있다. 즉, 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(702)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.In Fig. 7 (II), the coordinates of the left radar 162L of the trailer 120 and the coordinates of the object 702 detected by the left radar 162L are the same as those described in (II) . ≪ / RTI > That is, the corrected new coordinates of the left radar 162L reflecting the refraction angle? Are ((-W / 2) * cos? - L * sin ?, (-W / 2) * sin? + L * cos?). The coordinates of the object 702 reflecting the new coordinates of the left radar 162L are ((R'cos? '+ ((- W / 2) * cos? - L * sin? -W / 2) * sin? + L * cos?)).

도 7의 (I)에 나타낸 레이더(152)를 이용하여 탐지한 객체(702)의 좌표 (a, b)와 도 7의 (II)에 나타낸 왼쪽 라이더(162L)를 이용하여 탐지한 객체(702)의 보정된 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))를 융합한 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다. 즉, 왼쪽 라이더(152L)와 왼쪽 레이더(162L)가 공동으로 탐지한 객체(702)의 보정된 융합 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.The coordinates (a, b) of the object 702 detected using the radar 152 shown in (I) of FIG. 7 and the coordinates of the object 702 detected using the left rider 162L shown in ((R 'cos φ' + ((- W / 2) * cos θ-L * sin θ) The left radar 152L and the left radar 162L jointly detect the object 702 (L) and the left radar 152L (L) ) Is the corrected fused coordinate of (a, (Rsin? '+ ((- W / 2) * sin? + L * cos?)).

도 5로 돌아와서, 제어부(420)는 왼쪽 레이더(162L)의 보정된 변환 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))와 보정된 융합 좌표 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ)) 사이의 차이를 보정 변수로서 메모리(470)에 저장한다. 메모리(470)에 저장된 보정 변수는 향후 레이더(162)만을 이용하여 탐지한 객체의 위치 좌표를 구하는데 사용될 수 있다.5, the control unit 420 determines whether or not the corrected transformed coordinates ((R'cos? '+ ((- W / 2) * cos? - L * sin?) Of the left radar 162L (W / 2) * sin? + L * cos?) And the corrected fused coordinates a, Rsin? '+ And stores it in the memory 470. The correction variables stored in the memory 470 can be used to obtain the position coordinates of the detected object using only the radar 162 in the future.

만약 레이더(162)가 단독으로 탐지한 객체가 존재하는 경우에는, 앞서 단계 534에서 메모리(470)에 저장된 보정 변수를 레이더(162)의 탐지 결과에 적용함으로써 객체의 위치를 더욱 정확하게 인식할 수 있다(536). 라이더(152)의 매칭된 보정 변수가 존재하면 횡좌표를 기준으로 객체의 위치 좌표의 오차를 보정할 수 있다. 또한 좌표 융합 시 근거리를 탐지하는 라이더(152)의 상대적으로 더 큰 비중을 두어 위치를 보정할 수 있다.If there is an object detected by the radar 162 alone, the position of the object can be recognized more accurately by applying the correction variable stored in the memory 470 to the detection result of the radar 162 in step 534 (536). If there is a matched correction variable of the rider 152, the error of the position coordinates of the object can be corrected based on the abscissa. It is also possible to compensate for the position by placing a relatively greater weight of the rider 152, which detects nearness in coordinate fusion.

제어부(420)는 트레일러(120)의 왼쪽와 뒤쪽, 오른쪽 각각에 대해 트레일러(120)의 높이를 제외한 X-Y 좌표 상에서의 직선의 방정식을 도출한다(538).The control unit 420 derives an equation of a straight line on the X-Y coordinates except the height of the trailer 120 for each of the left, rear, and right sides of the trailer 120 (538).

만약 레이더(162)에 의해 다수의 객체가 탐지되고 그 중 일부 객체가 라이더(152)에 의해서도 탐지된 경우에는, 공동 탐지 객체와 레이더(162)의 단독 탐지 객체에 대해 다음과 같이 좌표를 구할 수 있다. 즉, 공동 탐지 객체(근거리 객체)이 경우, 횡방향은 라이더(152)에 의해 탐지된 횡방향 좌표로 융합하고, 종방향은 라이더(152) 및 레이더(162) 각각을 이용해 구한 두 개의 좌표의 평균을 취한다. 또는 라이더(152)의 탐지 결과에 가중치를 부여한 융합 좌표를 취할 수도 있다. 도 8은 라이더(152)의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다. 레이더(162)의 단독 탐지 객체(802)의 경우에는 공동 탐지 객체의 횡방향 및 종방향 좌표와 레이더(162)를 이용하여 획득한 좌표의 차이를 오프셋으로 활용하여 레이더(162)의 단독 탐지 객체(802)의 정확한 좌표를 구할 수 있다.If multiple objects are detected by the radar 162 and some of the objects are also detected by the rider 152, the coordinates for the joint detection object and the single detection object of the radar 162 can be obtained as follows have. That is, in the case of the joint detection object (near object), the lateral direction is fused to the lateral coordinate detected by the rider 152, and the longitudinal direction is fused to the two coordinates obtained by using the rider 152 and the radar 162 Take an average. Or a fusion coordinate obtained by weighting the detection result of the rider 152 may be taken. 8 is a diagram showing fusion coordinates obtained by adding weight values X? And Y? To the detection result of the rider 152. Fig. In the case of the single detection object 802 of the radar 162, the difference between the horizontal and vertical coordinates of the joint detection object and the coordinate obtained using the radar 162 is used as an offset, It is possible to obtain the exact coordinates of the center 802.

도 5로 돌아와서, 만약 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하지 않으면(518의 '아니오'), 즉 모든 객체가 레이더(162)의 단독 탐지 객체인 경우 제어부(420)는 앞서 도 6에서 설명한 방법으로 모든 객체의 좌표를 획득하여 각각의 객체에 부여한다.Returning to FIG. 5, if there is no joint detection object present within the overlap detection range of the rider 152 and the radar 162 ('No' of 518), that is, if all the objects are the single detection objects of the radar 162 In this case, the controller 420 obtains coordinates of all the objects and assigns them to the respective objects using the method described above with reference to FIG.

지금까지 설명한 방법으로 획득한 화물 차량(100) 주변의 객체들의 위치 인식 결과를 화물 차량(100)의 자율 주행 또는 사각 지대 검출(Blind Spot Detection, BSD)에 적용할 수 있다(572).The position recognition result of the objects around the freight vehicle 100 obtained by the above-described method can be applied to the autonomous traveling or blind spot detection (BSD) of the freight vehicle 100 (572).

도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.9 is a diagram illustrating a result of an object recognition method of a freight vehicle according to an embodiment of the present invention.

도 9의 (I)처럼 트레일러(120)의 회전(스윙)이 발생하는 경우, 종래의 경우에는 도 9의 (II)처럼 레이더(162)의 좌표가 틀어져서 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식하는 상황이 발생할 수 있었다. 그러나 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 보정된 좌표 변환을 적용함으로써 도 9의 (III)에 나타낸 것처럼 트레일러(120)의 회전(스윙)을 고려한 객체의 정확한 좌표 획득을 통해 객체의 위치를 정확하게 인식할 수 있다.9 (I), when the swing of the trailer 120 occurs, the coordinates of the radar 162 are changed as shown in (II) of FIG. 9 in the conventional case and the object detected by the radar 162 The position of the robot can not be recognized. However, by applying the corrected coordinate transformation of the object recognition method of the freight vehicle according to the embodiment of the present invention, accurate coordinate acquisition of the object considering the rotation (swing) of the trailer 120 as shown in (III) Can be accurately recognized.

위의 설명은 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서 위에 개시된 실시 예 및 첨부된 도면들은 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 기술적 사상의 범위가 한정되는 것은 아니다. 그 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The description above is merely illustrative of the technical idea, and various modifications, alterations, and substitutions are possible without departing from the essential characteristics of the present invention. Therefore, the embodiments and the accompanying drawings described above are intended to illustrate and not limit the technical idea, and the scope of technical thought is not limited by these embodiments and the accompanying drawings. The scope of which is to be construed in accordance with the following claims, and all technical ideas which are within the scope of the same shall be construed as being included in the scope of the right.

100 : 화물 차량
110 : 트랙터
120 : 트레일러
130 : 컨테이너
142 : 회전축
152 : 라이더(LiDAR)
162 : 레이더(RADAR)
302, 304, 602, 604, 702, 802, 902, 904 : 객체
420 : 제어부
450 : BSD 모듈
θ : 굴절각
100: Freight vehicles
110: Tractor
120: Trailer
130: Container
142:
152: Rider (LiDAR)
162: RADAR
302, 304, 602, 604, 702, 802, 902, 904: object
420:
450: BSD module
θ: Refraction angle

Claims (18)

견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는,
상기 트랙터에 설치되는 제 1 센서와;
상기 트레일러에 설치되는 제 2 센서와;
상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함하는 차량의 객체 인식 장치.
A vehicle in which a trailer for cargo loading is connected to a tractor for towing,
A first sensor installed on the tractor;
A second sensor installed on the trailer;
Wherein the first sensor is used to detect an angle of refraction between the tractor and the trailer, the coordinates of the second sensor are corrected using the refraction angle, and the coordinates of the second sensor And a control unit for recognizing the position of the detected object.
제 1 항에 있어서, 상기 제어부는,
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.
The apparatus of claim 1,
Wherein the coordinates of the first sensor and the coordinates of the second sensor are fused to obtain a correction variable between the fused coordinate and the corrected coordinates of the second sensor, And recognizes the position of the single detected object of the second sensor by applying the variable.
제 2 항에 있어서, 상기 제어부는,
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 장치.
3. The apparatus of claim 2,
And performs the coordinate fusion when a joint detection object of the first sensor and the second sensor exists.
제 2 항에 있어서, 상기 제어부는,
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식장치.
3. The apparatus of claim 2,
And does not perform the coordinate fusion when only the single detected object of the second sensor is present.
제 1 항에 있어서, 상기 제어부는,
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 장치.
The apparatus of claim 1,
And detecting a blind spot of the vehicle through recognition of the position of the detected object.
제 1 항에 있어서, 상기 제어부는,
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 장치.
The apparatus of claim 1,
And controls autonomous travel of the vehicle using the position recognition result of the detected object.
제 1 항에 있어서,
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 장치.
The method according to claim 1,
And the second sensor is installed at each end of the rear of the trailer.
제 1 항에 있어서,
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 장치.
The method according to claim 1,
The first sensor is a rider (LiDAR);
And the second sensor is a RADAR.
견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은,
상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와;
상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와;
상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.
A vehicle having a trailer for towing attached to a trailer for loading, the method comprising:
Detecting a refraction angle between the tractor and the trailer using a first sensor installed on the tractor;
Correcting coordinates of a second sensor installed on the trailer using the refraction angle;
And recognizing the position of the detected object of the second sensor using the corrected coordinates of the second sensor.
제 9 항에 있어서,
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와;
상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와;
상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함하는 차량의 객체 인식 방법.
10. The method of claim 9,
Fusing the coordinates of the first sensor with the coordinates of the second sensor;
Obtaining a correction parameter between the fused coordinate and the corrected coordinate of the second sensor;
Further comprising the step of: recognizing the position of the single detected object of the second sensor by applying the correction variable to the coordinates of the single detected object of the second sensor.
제 10 항에 있어서,
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 방법.
11. The method of claim 10,
Wherein the coordinate fusion is performed when a joint detection object of the first sensor and the second sensor exists.
제 10 항에 있어서,
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식방법.
11. The method of claim 10,
Wherein the coordinate fusion is not performed when only a single detected object of the second sensor is present.
제 9 항에 있어서,
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 방법.
10. The method of claim 9,
And detecting a blind spot of the vehicle through recognition of the position of the detected object.
제 9 항에 있어서,
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 방법.
10. The method of claim 9,
And controlling autonomous travel of the vehicle by using the position recognition result of the detected object.
제 9 항에 있어서,
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 방법.
10. The method of claim 9,
And the second sensor is installed at each end of the rear of the trailer.
제 9 항에 있어서,
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 방법.
10. The method of claim 9,
The first sensor is a rider (LiDAR);
And the second sensor is a RADAR.
견인을 위한 트랙터와;
화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와;
상기 트랙터에 설치되는 라이더와;
상기 트레일러의 후미에 설치되는 레이더와;
상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되,
상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.
A tractor for traction;
A trailer connected to the tractor for loading a cargo;
A rider installed on the tractor;
A radar installed at the rear of the trailer;
A controller for detecting a refraction angle between the tractor and the trailer using the rider, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detected object of the radar using the corrected coordinates of the radar, , ≪ / RTI &
Wherein the control unit fuses the coordinates of the rider with the coordinates of the radar and obtains a correction variable between the fused coordinates and the corrected coordinates of the radar and applies the correction variable to the coordinates of the single detected object of the radar And recognizes the position of the single detection object of the radar.
견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은,
상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와;
상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.
A vehicle having a trailer for towing attached to a trailer for loading, the method comprising:
A radar installed on the tractor is used to detect a refraction angle between the tractor and the trailer, a coordinate of a radar installed on the trailer is corrected using the refraction angle, Recognizing the location of the detected object;
Wherein the correction parameter is applied to the coordinates of the single detected object of the radar so as to determine a correction parameter between the fused coordinate and the corrected coordinate of the radar, And recognizing the position of the detected object.
KR1020170169968A 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle KR102366441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Publications (2)

Publication Number Publication Date
KR20190069747A true KR20190069747A (en) 2019-06-20
KR102366441B1 KR102366441B1 (en) 2022-02-23

Family

ID=67103520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Country Status (1)

Country Link
KR (1) KR102366441B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114176A (en) * 2000-10-11 2002-04-16 Isuzu Motors Ltd Trailer connecting angle detecting device
KR20100068917A (en) * 2008-12-15 2010-06-24 현대모비스 주식회사 Apparatus for compensating error of ladar sensor in vehicle
KR20160081506A (en) * 2014-12-31 2016-07-08 현대모비스 주식회사 Alignment correction system and a control method of a radar and the side of the vehicle
KR101714233B1 (en) * 2015-10-06 2017-03-08 현대자동차주식회사 Apparatus for detecting objects on the road and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114176A (en) * 2000-10-11 2002-04-16 Isuzu Motors Ltd Trailer connecting angle detecting device
KR20100068917A (en) * 2008-12-15 2010-06-24 현대모비스 주식회사 Apparatus for compensating error of ladar sensor in vehicle
KR20160081506A (en) * 2014-12-31 2016-07-08 현대모비스 주식회사 Alignment correction system and a control method of a radar and the side of the vehicle
KR101714233B1 (en) * 2015-10-06 2017-03-08 현대자동차주식회사 Apparatus for detecting objects on the road and method thereof

Also Published As

Publication number Publication date
KR102366441B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
US11400977B2 (en) Vehicle guidance system
JP7124117B2 (en) Trailer detection and autonomous hitching
EP3380392B1 (en) Auto docking method for application in heavy trucks
CN109720342B (en) Path planning design method for vertical parking
US10471904B2 (en) Systems and methods for adjusting the position of sensors of an automated vehicle
WO2017204107A1 (en) Target detection device
CN110949374A (en) Automatic parallel parking path planning method based on two-section second-order Bezier curve
US11163313B2 (en) Methods for positioning vehicles using electric road systems and vehicles operated using these methods
EP3431370B1 (en) Object height determination for automated vehicle steering control system
US11822011B2 (en) Mirrors to extend sensor field of view in self-driving vehicles
MX2013012317A (en) Techniques for positioning a vehicle.
CN110641367A (en) Environment sensing system arrangement structure for automatic driving
US20200300967A1 (en) Sensor verification
US20220299626A1 (en) Tracking Different Sections of Articulated Vehicles
US11167698B2 (en) Vehicle having an articulated joint
US10657823B2 (en) System and method for determining when an object detected by a collision avoidance sensor on one member of an articulated vehicle comprises another member of the vehicle
KR20190069747A (en) Object recognition apparatus and method for vehicle
US11059480B2 (en) Collision avoidance system with elevation compensation
US20220185300A1 (en) Vehicle localisation
CN114938642A (en) Sensor device for a tractor of a trailer vehicle and trailer vehicle having such a sensor device
US20190225215A1 (en) Vehicle control system
US20230184933A1 (en) Radar systems and method for backing a trailer
US20220351620A1 (en) Method for generating a routing map of an area to be used for guiding a vehicle in the area
US11433943B2 (en) Hitch angle detection using automotive radar
US20230102058A1 (en) Target vehicle recognition apparatus and processing method of the target vehicle recognition apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right