KR102366441B1 - Object recognition apparatus and method for vehicle - Google Patents
Object recognition apparatus and method for vehicle Download PDFInfo
- Publication number
- KR102366441B1 KR102366441B1 KR1020170169968A KR20170169968A KR102366441B1 KR 102366441 B1 KR102366441 B1 KR 102366441B1 KR 1020170169968 A KR1020170169968 A KR 1020170169968A KR 20170169968 A KR20170169968 A KR 20170169968A KR 102366441 B1 KR102366441 B1 KR 102366441B1
- Authority
- KR
- South Korea
- Prior art keywords
- coordinates
- sensor
- radar
- vehicle
- trailer
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 86
- 230000004927 fusion Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 3
- 238000011895 specific detection Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
본 발명은 차량의 객체 인식 장치 및 방법에 관한 것으로, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식하는데 그 목적이 있다. 이를 위해 본 발명에 따른 차량의 객체 인식 장치는, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는, 상기 트랙터에 설치되는 제 1 센서와; 상기 트레일러에 설치되는 제 2 센서와; 상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함한다.The present invention relates to an apparatus and method for recognizing an object of a vehicle, and an object of the present invention is to accurately recognize objects located in the vicinity of a freight vehicle composed of a tractor and a trailer. To this end, an apparatus for recognizing an object for a vehicle according to the present invention is a vehicle in which a trailer for loading cargo is connected to a tractor for towing, and the apparatus for recognizing an object of the vehicle includes: a first sensor installed on the tractor; a second sensor installed on the trailer; detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor and a control unit for recognizing the position of the detection object.
Description
본 발명은 차량에 관한 것으로, 견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량에 관한 것이다.The present invention relates to a vehicle, and to a cargo vehicle comprising a tractor for towing and a trailer for loading cargo.
견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량은 대형 화물 또는 대량의 화물을 운송하기에 적합하다. 트랙터와 트레일러는 기계적으로 체결되는 구조여서 트레일러를 트랙터에 연결하여 함께 이동하거나 또는 트레일러를 분리한 채로 트랙터만 이동할 수 있다.A cargo vehicle consisting of a tractor for towing and a trailer for loading cargo is suitable for transporting large cargoes or bulk cargoes. Since the tractor and trailer are mechanically coupled, the trailer can be connected to the tractor to move together, or only the tractor can move with the trailer removed.
트랙터에 트레일러를 연결하여 이동하는 경우 트랙터와 트레일러의 연결점이 회전축으로 작용하여 필요 시 트레일러가 회전한다. 또한 대형 화물 또는 대용량의 화물을 탑재하기 위해 트레일러의 크기 역시 대형화되어 있다.When moving by connecting a trailer to a tractor, the connection point between the tractor and trailer acts as a rotating shaft, and the trailer rotates when necessary. In addition, the size of the trailer is also increased in order to load large cargo or large-capacity cargo.
이와 같은 트랙터-트레일러 구조의 화물 차량은 대형화로 인해 운전자가 화물 차량 주변의 다른 객체의 존재를 확인하기가 쉽지 않다.Due to the size of the tractor-trailer structure of the cargo vehicle, it is difficult for the driver to check the existence of other objects around the cargo vehicle.
일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식하는데 그 목적이 있다.According to one aspect, an object of the present invention is to accurately recognize objects located in the vicinity of a freight vehicle including a tractor and a trailer.
상술한 목적의 본 발명에 따른 차량의 객체 인식 장치는, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는, 상기 트랙터에 설치되는 제 1 센서와; 상기 트레일러에 설치되는 제 2 센서와; 상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함한다.According to the present invention for the above purpose, there is provided an apparatus for recognizing an object for a vehicle in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, and the apparatus for recognizing an object of the vehicle includes: a first sensor installed on the tractor; a second sensor installed on the trailer; detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor and a control unit for recognizing the location of the detection object.
상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식한다.In the above-described vehicle object recognition apparatus, the control unit fuses the coordinates of the first sensor and the coordinates of the second sensor, and obtains a correction variable between the fused coordinates and the corrected coordinates of the second sensor, The position of the single detection object of the second sensor is recognized by applying the correction variable to the coordinates of the single detection object of the second sensor.
상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described apparatus for recognizing an object for a vehicle, the controller performs the coordinate fusion when a joint detection object of the first sensor and the second sensor exists.
상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described apparatus for recognizing an object for a vehicle, the controller does not perform the coordinate fusion when only the single detection object of the second sensor exists.
상술한 차량의 객체 인식 장치에서, 상기 제어부는,상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described apparatus for recognizing an object of a vehicle, the controller detects a blind spot of the vehicle through location recognition of the detection object.
상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described apparatus for recognizing an object of a vehicle, the controller controls autonomous driving of the vehicle by using a result of recognizing the location of the detection object.
상술한 차량의 객체 인식 장치에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described apparatus for recognizing an object for a vehicle, one of the second sensors is installed at both ends of the rear of the trailer.
상술한 차량의 객체 인식 장치에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the above-described vehicle object recognition apparatus, the first sensor is a lidar (LiDAR); The second sensor is a radar (RADAR).
상술한 목적의 본 발명에 따른 차량의 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와; 상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와; 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함한다.In the vehicle object recognition method according to the present invention for the above purpose, in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle uses a first sensor installed in the tractor detecting an angle of refraction between the tractor and the trailer; correcting the coordinates of a second sensor installed in the trailer using the refraction angle; and recognizing the position of the detection object of the second sensor by using the corrected coordinates of the second sensor.
상술한 차량의 객체 인식 방법에서, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와; 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와; 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함한다.In the above-described method for recognizing an object of a vehicle, the steps of: fusing the coordinates of the first sensor and the coordinates of the second sensor; obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor; The method further includes recognizing the position of the single detection object of the second sensor by applying the correction variable to the coordinates of the single detection object of the second sensor.
상술한 차량의 객체 인식 방법에서, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described method for recognizing an object of a vehicle, the coordinate fusion is performed when a joint detection object of the first sensor and the second sensor exists.
상술한 차량의 객체 인식 방법에서, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described method for recognizing an object of a vehicle, when only a single detection object of the second sensor exists, the coordinate fusion is not performed.
상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described method for recognizing an object of a vehicle, a blind spot of the vehicle is detected through location recognition of the detection object.
상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described method for recognizing an object of a vehicle, autonomous driving of the vehicle is controlled using a result of location recognition of the detection object.
상술한 차량의 객체 인식 방법에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described method for recognizing an object of a vehicle, one of the second sensors is installed at both ends of the rear of the trailer.
상술한 차량의 객체 인식 방법에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the vehicle object recognition method described above, the first sensor is a lidar (LiDAR); The second sensor is a radar (RADAR).
상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 장치는, 견인을 위한 트랙터와; 화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와; 상기 트랙터에 설치되는 라이더와; 상기 트레일러의 후미에 설치되는 레이더와; 상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되, 상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식한다.Another object recognition apparatus for a vehicle according to the present invention for the above purpose, a tractor for towing; a trailer connected to the tractor for loading cargo; a rider installed on the tractor; a radar installed at the rear of the trailer; A control unit for detecting a refraction angle between the tractor and the trailer using the lidar, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detection object of the radar using the corrected coordinates of the radar Including, wherein the control unit fuses the coordinates of the radar and the coordinates of the radar, obtains a correction variable between the fused coordinates and the corrected coordinates of the radar, and the correction to the coordinates of the single detection object of the radar The position of the single detection object of the radar is recognized by applying the variable.
상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와; 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함한다.Another object recognition method of a vehicle according to the present invention for the above purpose, in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle uses a rider installed in the tractor detecting a refraction angle between the tractor and the trailer, correcting the coordinates of a radar installed on the trailer using the refraction angle, and recognizing the position of a detection object of the radar using the corrected coordinates of the radar Wow; Fusing the coordinates of the radar and the coordinates of the radar, obtaining a correction variable between the fused coordinates and the corrected coordinates of the radar, and applying the correction variable to the coordinates of the single detection object of the radar and recognizing the location of the detection object.
일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식할 수 있도록 한다.According to one aspect, it is possible to accurately recognize objects located in the vicinity of a truck including a tractor and a trailer.
도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.
도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다.
도 6은 트레일러가 회전하지 않은 상태와 회전한 상태에서 레이더에 의해 탐지되는 객체의 좌표를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다.
도 8은 라이더의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.1 is a view showing a freight vehicle according to an embodiment of the present invention.
2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.
3 is a diagram illustrating a detection error of a radar generated due to a swing of a trailer.
4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.
5 is a diagram illustrating an object recognition method of a freight vehicle according to an embodiment of the present invention.
6 is a diagram illustrating coordinates of an object detected by a radar in a state in which the trailer is not rotated and in a state in which the trailer is rotated.
7 is a diagram illustrating coordinate fusion of a freight vehicle according to an embodiment of the present invention.
8 is a diagram illustrating fusion coordinates in which weights Xσ and Yσ are given to the detection result of the rider.
9 is a diagram illustrating a result of a method for recognizing an object of a freight vehicle according to an embodiment of the present invention.
도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.1 is a view showing a freight vehicle according to an embodiment of the present invention.
본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 도 1의 트레일러(120) 위에는 컨테이너(130)가 탑재되어 있어서, 컨테이너(130)의 아래쪽에 위치한 트레일러(120)가 잘 드러나 있지 않다. 트레일러(120)와 트레일러(120)에 탑재된 컨테이너(130)는 고정된 상태로 함께 움직인다.The
트랙터(110)는 탑재된 엔진의 구동력을 이용해 트레일러(120)를 견인한다. 반면 트레일러(120)는 동력원이 탑재되지 않기 때문에 트랙터(110)에 연결된 상태에서 트랙터(110)에 의해 견인된다. 이를 위해 트레일러(120)는 트랙터(110)에 회전 가능하도록 기계적으로 연결된다. 즉, 트랙터(110)와 트레일러(120)가 기계적으로 연결됨으로써 형성되는 회전축(142)을 중심으로 트레일러(120)가 평면(예를 들면 지면과 대략 평행한 면) 상에서 일정 각도 범위 내의 회전을 한다. 트레일러(120)의 회전(스윙)은 후술하는 도 2를 통해 더 자세히 설명하고자 한다.The
본 발명의 실시 예에 따른 화물 차량(100)은 트레일러(120)라는 크고 긴 화물 적재 수단을 갖기 때문에 운전자가 화물 차량(100)의 좌측과 우측 및 후방을 온전히 관측하는 것이 매우 어렵다. 따라서 화물 차량(100)에는 운전자를 대신하여 화물 차량(100)의 좌측과 우측, 후방의 상황을 탐지하기 위한 탐지 수단인 라이더(LiDAR)(152)와 레이더(RADAR)(162)가 설치된다. 라이더(152)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트랙터(110)에 설치되는 제 1 센서일 수 있다. 레이더(162)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트레일러(120)에 설치되는 제 2 센서일 수 있다.Since the
라이더(152)는 트랙터(110)의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 라이더(152)는 근거리 탐지 수단으로서, 트랙터(110)의 좌우 측후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 152L은 트랙터(110)의 왼쪽에 설치된 라이더를 의미하고, 152R은 트랙터(110)의 오른쪽에 설치된 라이더를 의미한다.The
레이더(162)는 트레일러(120)의 후미의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 레이더(162)는 라이더(152)에 비해 상대적으로 원거리 탐지 수단으로서, 트레일러(120)의 후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 162L은 트레일러(120)의 왼쪽에 설치된 레이더를 의미하고, 162R은 트레일러(120)의 오른쪽에 설치된 레이더를 의미한다.One
앞서 설명한 바와 같이, 라이더(152)는 근거리 탐지 수단이고 레이더(162)는 상대적으로 원거리 탐지 수단이다. 이 때문에 라이더(152)의 탐지 범위와 레이더(162)의 탐지 범위가 부분적으로 중첩된다. 라이더(152)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '라이더 고유 탐지 범위'라 할 수 있다. 또한 라이더(152) 및 레이러(162)의 중첩되는 탐지 범위를 '중첩 탐지 범위'라 할 수 있다. 또한 레이더(162)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '레이더 고유 탐지 범위'라 할 수 있다.As described above, the
도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.
도 1에서 설명한 것처럼, 본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 트레일러(120)는 회전축(142)을 중심으로 평면 상을 일정 범위 내에서 회전한다. 이와 같은 구조로 인해 화물 차량(100)이 직진할 때와 왼쪽으로 선회할 때, 그리고 오른쪽으로 선회할 때의 트랙터(110)와 트레일러(120)의 상대 각도가 서로 다르다. 이하의 설명에서는 트랙터(110)와 트레일러(120)가 이루는 각도를 '굴절각'이라 칭한다.As described in FIG. 1 , the
도 2의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않으면 트랙터(110)와 트레일러(120)는 서로 일직선을 이룬다. 이 때의 굴절각은 0도이다. 도 2의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)의 왼쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ1만큼의 차이가 발생한다. 또한, 도 2의 (III)에 나타낸 바와 같이, 트랙터(110)가 오른쪽으로 선회하거나 또는 트레일러(120)의 오른쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 반시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ2만큼의 차이가 발생한다.As shown in (I) of Figure 2, when the
도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다. 앞서 도 2의 (II)와 (III)에 나타낸 것과 같은 트레일러(120)의 회전(스윙)으로 인해 레이더(162)의 좌표가 틀어질 수 있어서, 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식할 수 있다.3 is a diagram illustrating a detection error of a radar generated due to a swing of a trailer. Because the coordinates of the
도 3의 (I)은 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않아서 트랙터(110)와 트레일러(120)가 서로 일직선을 이룰 때는 화물 차량(100) 주변의 객체(302)의 위치가 정확히 탐지된다.3(I) is a diagram showing the detection result of the
도 3의 (II)는 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)에 왼쪽으로 슬립이 발생하여 트레일러(120)가 트랙터(110)에 대해 시계 방향으로 회전(스윙)하면 트레일어(162)에 설치되는 레이더(162)에 탐지되는 객체(304)의 위치는 객체(304)의 실제 위치와 다른 것을 알 수 있다. 도 3의 (I)의 경우 객체(302)가 화물 차량(100)의 후방 양 쪽에서 화물 차량(100)과 나란히 진행하는 것으로 탐지된다. 이와 달리, 도 3의 (II)의 경우에는 왼쪽 객체(304)가 화물 차량(100)이 진행하고 있는 차로 위에 위치한 것으로 잘 못 인식될 수 있다. 본 발명은 트랙터와 트레일러고 구성되는 화물 차량에서 트레일러의 회전(스윙)으로 인한 객체 탐지 오차를 해소하기 위한 것이다.(II) of FIG. 3 is a diagram showing the detection result of the
도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.
제어부(420)는 본 발명의 실시 예에 따른 화물 차량(100)의 동작 전반에 관여하는 전자 제어 유닛(Electronic Control Unit, ECU)일 수 있다. 제어부(420)는 트레일러(120)의 회전(스윙)을 고려하여 레이더(162)의 탐지 결과를 보정함으로써 객체의 위치를 정확히 인식할 수 있도록 한다. 제어부(420)의 보정 결과는 사각 지대 탐지 모듈(BSD 모듈)(450)에 제공되어 사각 지대 검출을 위해 사용될 수 있다.The
제어부(420)에는 메모리(470)가 연결된다. 메모리(470)에는 제어부(420)가 화물 차량(100)을 제어하는데 필요한 소프트웨어나 펌웨어가 저장된다. 또한 제어부(420)가 화물 차량(100)을 제어하는데 필요한 데이터나 화물 차량(100)을 제어하면서 생성되는 데이터가 메모리(470)에 저장된다.A
이와 같은 본 발명의 실시 예에 따른 화물 차량(100)의 제어부(420)는 레이더(162)의 탐지 결과를 보정하기 위한 다음과 같은 제어 로직을 포함한다.As described above, the
굴절각 산출 로직(422)은 트랙터(110)에 대한 트레일러(120)의 상대 각도인 굴절각(도 2의 θ1 및 θ2 참조)을 산출한다.The deflection
객체 인식 로직(424)은 라이더(152) 또는 레이더(162)의 탐지 결과로부터 화물 차량(100)의 주변에 다른 객체가 존재하는지를 판단한다.The
객체 좌표 변환 로직(426)은 레이더(162)를 통해 탐지된 객체의 좌표를 트레일러(120)의 회전(스윙)에 따른 굴절각을 고려하여 변환한다.The object coordinate
라이더 정보 융합 로직(428)은 레이더(162)에 의해 탐지된 객체가 라이더(152)에 의해서도 탐지되는 경우(즉 객체가 '중첩 탐지 범위'에 공동 탐지 객체가 위치하는 경우) 레이더(162)에 의해 탐지된 객체의 좌표와 라이더(152)에 의해 탐지된 객체의 좌표를 융합한다.The lidar
객체 위치 판단 로직(430)은 융합된 객체의 좌표로부터 객체의 정확한 위치를 인식한다.The object
객체 융합 판단 로직(432)은 인식된 객체의 정확한 위치와 속도 등을 판단한다.The object
도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다. 도 5에 나타낸 객체 인식 방법은 도 1에 나타낸 것과 같은 라이더(152)가 설치되는 트랙터(110)와 레이더(162)가 설치되는 트레일러(120)로 구성되는 화물 차량(100)의 제어부(420)에 의해 실시될 수 있다.5 is a diagram illustrating an object recognition method of a freight vehicle according to an embodiment of the present invention. The object recognition method shown in FIG. 5 includes a
제어부(420)는 라이더(152) 및 레이더(162)와 통신을 시도하여 라이더(152) 및 레이더(162)가 활성화되어 있는지를 확인한다(512). 라이더(152) 및 레이더(162)가 활성화되어 있을 때, 제어부(420)는 라이더(152) 및 레이더(162)를 이용하여 주변의 객체를 인식하기 위한 제어를 실시한다.The
제어부(420)는 트랙터(110)에 설치되어 있는 라이더(152)를 이용하여 트레일러(120)의 굴절각을 검출한다(514). 트랙터(110)에 설치되어 있는 라이더(152)는 트랙터(110)의 측후방의 일정 범위를 탐지할 수 있으므로, 라이더(152)의 탐지 결과로부터 트레일러(120)의 상태를 확인할 수 있다. 예를 들면, 앞서 설명한 도 2에서 (I)의 상태를 기준으로 하여 (II)의 상태 또는 (III)이 상태를 확인함으로써 트레일러(120)의 회전(스윙) 여부는 물론 그 때의 굴절각도 검출할 수 있다.The
앞서 도 3에서 설명한 것처럼, 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체의 위치는 서로 다르다. 이를 도 6에 나타내었다. 도 6은 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체(602)(604)의 좌표를 나타낸 도면이다. 또한 도 6은 객체(602)(604)가 트레일러(120)로부터 원거리에 있어서 오직 레이더(162)에 의해서만 탐지되고 라이더(152)에 의해서는 탐지되지 않는 경우를 나타낸 도면이다.As described above with reference to FIG. 3 , positions of objects detected by the
도 6에서 'L'은 트레일러(120)의 길이이고 'W'는 트레일러(120)의 폭이다. 먼저 도 6의 (I)에서, 트레일러(120)의 회전축(142)을 원점으로 하는 가상의 직각 좌표를 적용하면 왼쪽 레이더(162L)의 좌표는 (-W/2, -L)이다. 왼쪽 레이더(162L)에서 객체(602)까지의 직선 거리가 R이고, 트레일러(120)의 후면에 대해 직선 R이 이루는 각도가 φ일 때, 왼쪽 레이더(162L)를 원점으로 하는 가상의 직각 좌표를 적용하면 객체(602)의 좌표는 (R*cosφ-W/2, R*sinφ-L)이다.In FIG. 6 , 'L' is the length of the
도 6의 (II)에 나타낸 바와 같이, 트레일러(120)가 회전(스윙)하면 회전축(142)을 원점으로 하는 왼쪽 레이더(162L)의 좌표도 바뀌기 때문에 도 6의 (I)에 나타낸 객체(602)의 좌표는 더 이상 신뢰할 수 없다. 따라서 도 6의 (I)에서 객체(602)의 좌표를 구한 방법에 도 6의 (II)에 나타낸 트레일러(120)의 회전(스윙)을 반영한 변환된 좌표를 구한다. 트레일러(120)의 회전(스윙)에 의해 트레일러(120)의 중심축이 θ만큼 회전하였으므로, 이 굴절각 θ를 반영하여 왼쪽 레이더(162L)의 좌표를 보정하여 새로 구하고, 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영하여 객체(604)의 좌표를 구한다. 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(604)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.As shown in (II) of FIG. 6 , when the
도 5로 돌아와서, 제어부(420)는 라이더(152)와 레이더(162)에 의해 모두 탐지되는 객체 즉 공동 탐지 객체가 존재하는지를 확인한다(518). 즉, 공동 탐지 객체는 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 객체이다.Returning to FIG. 5 , the
라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하면(518의 '예'), 제어부(420)는 라이더(152)와 레이더(162) 각각을 통해 획득한 두 개의 좌표를 융합한다(532). 도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다. 도 7의 (I)은 라이더(152)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (II)는 레이더(162)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (I)과 (II)를 통해 구한 두 개의 좌표를 융합함으로써 객체(702)의 위치를 더욱 정확하게 인식할 수 있다.If there is a joint detection object existing within the overlap detection range of the
도 7의 (I)에 나타낸 바와 같이, 트랙터(110)에 설치되는 레이더(152)는 트랙터(110)와 함께 일체로 움직이기 때문에 트랙터(110)가 회전하더라도 레이더(152)의 좌표는 변하지 않는다. 따라서 레이더(152)에 의해 탐지된 객체(702)의 좌표 (a, b)의 변환은 필요치 않다.As shown in (I) of FIG. 7 , since the
도 7의 (II)에서, 트레일러(120)의 왼쪽 레이더(162L)의 좌표와, 왼쪽 레이더(162L)에 의해 탐지된 객체(702)의 좌표는 앞서 도 6의 (II)에서 언급한 것과 같은 방식으로 나타낼 수 있다. 즉, 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(702)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.In (II) of FIG. 7 , the coordinates of the
도 7의 (I)에 나타낸 레이더(152)를 이용하여 탐지한 객체(702)의 좌표 (a, b)와 도 7의 (II)에 나타낸 왼쪽 라이더(162L)를 이용하여 탐지한 객체(702)의 보정된 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))를 융합한 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다. 즉, 왼쪽 라이더(152L)와 왼쪽 레이더(162L)가 공동으로 탐지한 객체(702)의 보정된 융합 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.The
도 5로 돌아와서, 제어부(420)는 왼쪽 레이더(162L)의 보정된 변환 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))와 보정된 융합 좌표 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ)) 사이의 차이를 보정 변수로서 메모리(470)에 저장한다. 메모리(470)에 저장된 보정 변수는 향후 레이더(162)만을 이용하여 탐지한 객체의 위치 좌표를 구하는데 사용될 수 있다.Returning to FIG. 5 , the
만약 레이더(162)가 단독으로 탐지한 객체가 존재하는 경우에는, 앞서 단계 534에서 메모리(470)에 저장된 보정 변수를 레이더(162)의 탐지 결과에 적용함으로써 객체의 위치를 더욱 정확하게 인식할 수 있다(536). 라이더(152)의 매칭된 보정 변수가 존재하면 횡좌표를 기준으로 객체의 위치 좌표의 오차를 보정할 수 있다. 또한 좌표 융합 시 근거리를 탐지하는 라이더(152)의 상대적으로 더 큰 비중을 두어 위치를 보정할 수 있다.If there is an object detected by the
제어부(420)는 트레일러(120)의 왼쪽와 뒤쪽, 오른쪽 각각에 대해 트레일러(120)의 높이를 제외한 X-Y 좌표 상에서의 직선의 방정식을 도출한다(538).The
만약 레이더(162)에 의해 다수의 객체가 탐지되고 그 중 일부 객체가 라이더(152)에 의해서도 탐지된 경우에는, 공동 탐지 객체와 레이더(162)의 단독 탐지 객체에 대해 다음과 같이 좌표를 구할 수 있다. 즉, 공동 탐지 객체(근거리 객체)이 경우, 횡방향은 라이더(152)에 의해 탐지된 횡방향 좌표로 융합하고, 종방향은 라이더(152) 및 레이더(162) 각각을 이용해 구한 두 개의 좌표의 평균을 취한다. 또는 라이더(152)의 탐지 결과에 가중치를 부여한 융합 좌표를 취할 수도 있다. 도 8은 라이더(152)의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다. 레이더(162)의 단독 탐지 객체(802)의 경우에는 공동 탐지 객체의 횡방향 및 종방향 좌표와 레이더(162)를 이용하여 획득한 좌표의 차이를 오프셋으로 활용하여 레이더(162)의 단독 탐지 객체(802)의 정확한 좌표를 구할 수 있다.If a plurality of objects are detected by the
도 5로 돌아와서, 만약 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하지 않으면(518의 '아니오'), 즉 모든 객체가 레이더(162)의 단독 탐지 객체인 경우 제어부(420)는 앞서 도 6에서 설명한 방법으로 모든 객체의 좌표를 획득하여 각각의 객체에 부여한다.5, if there is no joint detection object existing within the overlap detection range of the
지금까지 설명한 방법으로 획득한 화물 차량(100) 주변의 객체들의 위치 인식 결과를 화물 차량(100)의 자율 주행 또는 사각 지대 검출(Blind Spot Detection, BSD)에 적용할 수 있다(572).The result of recognizing the positions of objects around the
도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.9 is a diagram illustrating a result of a method for recognizing an object of a freight vehicle according to an embodiment of the present invention.
도 9의 (I)처럼 트레일러(120)의 회전(스윙)이 발생하는 경우, 종래의 경우에는 도 9의 (II)처럼 레이더(162)의 좌표가 틀어져서 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식하는 상황이 발생할 수 있었다. 그러나 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 보정된 좌표 변환을 적용함으로써 도 9의 (III)에 나타낸 것처럼 트레일러(120)의 회전(스윙)을 고려한 객체의 정확한 좌표 획득을 통해 객체의 위치를 정확하게 인식할 수 있다.When rotation (swing) of the
위의 설명은 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서 위에 개시된 실시 예 및 첨부된 도면들은 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 기술적 사상의 범위가 한정되는 것은 아니다. 그 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea, and various modifications, changes, and substitutions will be possible without departing from the essential characteristics by those skilled in the art of the present invention. Therefore, the embodiments disclosed above and the accompanying drawings are for explanation rather than limiting the technical idea, and the scope of the technical idea is not limited by these embodiments and the accompanying drawings. The scope of protection should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights.
100 : 화물 차량
110 : 트랙터
120 : 트레일러
130 : 컨테이너
142 : 회전축
152 : 라이더(LiDAR)
162 : 레이더(RADAR)
302, 304, 602, 604, 702, 802, 902, 904 : 객체
420 : 제어부
450 : BSD 모듈
θ : 굴절각100: cargo vehicle
110: tractor
120 : trailer
130: container
142: rotation shaft
152: LiDAR (LiDAR)
162: radar (RADAR)
302, 304, 602, 604, 702, 802, 902, 904 : object
420: control unit
450 : BSD module
θ: angle of refraction
Claims (18)
상기 트랙터에 설치되는 제 1 센서와;
상기 트레일러에 설치되는 제 2 센서와;
상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함하는 차량의 객체 인식 장치.In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition device of the vehicle comprises:
a first sensor installed on the tractor;
a second sensor installed on the trailer;
detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor A vehicle object recognition apparatus comprising a control unit for recognizing a location of a detection object.
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.According to claim 1, wherein the control unit,
Fusing the coordinates of the first sensor and the coordinates of the second sensor, obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor, and adding the correction to the coordinates of the single detection object of the second sensor A vehicle object recognition device for recognizing the position of the single detection object of the second sensor by applying a variable.
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 장치.According to claim 2, wherein the control unit,
An object recognition device for a vehicle that performs the coordinate fusion when there is a joint detection object of the first sensor and the second sensor.
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식장치.According to claim 2, wherein the control unit,
An object recognition device for a vehicle that does not perform the coordinate fusion when only the single detection object of the second sensor exists.
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 장치.According to claim 1, wherein the control unit,
A vehicle object recognition apparatus for detecting a blind spot of the vehicle through location recognition of the detection object.
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 장치.According to claim 1, wherein the control unit,
An apparatus for recognizing an object of a vehicle to control autonomous driving of the vehicle by using a result of recognizing the location of the detection object.
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 장치.The method of claim 1,
An object recognition device for a vehicle in which the second sensor is installed one at both ends of the rear of the trailer.
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 장치.The method of claim 1,
the first sensor is a lidar (LiDAR);
The second sensor is a radar (RADAR) object recognition device for a vehicle.
상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와;
상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와;
상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle comprises:
detecting an angle of refraction between the tractor and the trailer using a first sensor installed in the tractor;
correcting the coordinates of a second sensor installed in the trailer using the refraction angle;
and recognizing the position of the detection object of the second sensor by using the corrected coordinates of the second sensor.
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와;
상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와;
상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함하는 차량의 객체 인식 방법.10. The method of claim 9,
fusing the coordinates of the first sensor and the coordinates of the second sensor;
obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor;
and recognizing the position of the single detection object of the second sensor by applying the correction variable to the coordinates of the single detection object of the second sensor.
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 방법.11. The method of claim 10,
An object recognition method of a vehicle for performing the coordinate fusion when there is a joint detection object of the first sensor and the second sensor.
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식방법.11. The method of claim 10,
An object recognition method of a vehicle that does not perform the coordinate fusion when only the single detection object of the second sensor exists.
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 방법.10. The method of claim 9,
An object recognition method of a vehicle for detecting a blind spot of the vehicle through location recognition of the detection object.
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 방법.10. The method of claim 9,
An object recognition method of a vehicle for controlling autonomous driving of the vehicle by using a position recognition result of the detection object.
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 방법.10. The method of claim 9,
The method for recognizing an object of a vehicle in which the second sensor is installed one at both ends of the rear of the trailer.
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 방법.10. The method of claim 9,
the first sensor is a lidar (LiDAR);
The second sensor is a radar (RADAR) object recognition method of a vehicle.
화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와;
상기 트랙터에 설치되는 라이더와;
상기 트레일러의 후미에 설치되는 레이더와;
상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되,
상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.a tractor for towing;
a trailer connected to the tractor for loading cargo;
a rider installed on the tractor;
a radar installed at the rear of the trailer;
A control unit for detecting a refraction angle between the tractor and the trailer using the lidar, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detection object of the radar using the corrected coordinates of the radar including,
The control unit fuses the coordinates of the radar with the coordinates of the radar, obtains a correction variable between the fused coordinates and the corrected coordinates of the radar, and applies the correction variable to the coordinates of the single detection object of the radar. A vehicle object recognition device for recognizing the position of the single detection object of the radar.
상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와;
상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle comprises:
The refraction angle between the tractor and the trailer is detected using the lidar installed in the tractor, the coordinates of the radar installed in the trailer are corrected using the refraction angle, and the coordinates of the radar are corrected using the corrected coordinates of the radar. recognizing the location of the detection object;
Fusing the coordinates of the radar and the coordinates of the radar, obtaining a correction variable between the fused coordinates and the corrected coordinates of the radar, and applying the correction variable to the coordinates of the single detection object of the radar A method of recognizing an object in a vehicle, comprising recognizing a position of a detection object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169968A KR102366441B1 (en) | 2017-12-12 | 2017-12-12 | Object recognition apparatus and method for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169968A KR102366441B1 (en) | 2017-12-12 | 2017-12-12 | Object recognition apparatus and method for vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190069747A KR20190069747A (en) | 2019-06-20 |
KR102366441B1 true KR102366441B1 (en) | 2022-02-23 |
Family
ID=67103520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170169968A KR102366441B1 (en) | 2017-12-12 | 2017-12-12 | Object recognition apparatus and method for vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102366441B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002114176A (en) | 2000-10-11 | 2002-04-16 | Isuzu Motors Ltd | Trailer connecting angle detecting device |
KR101714233B1 (en) | 2015-10-06 | 2017-03-08 | 현대자동차주식회사 | Apparatus for detecting objects on the road and method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100068917A (en) * | 2008-12-15 | 2010-06-24 | 현대모비스 주식회사 | Apparatus for compensating error of ladar sensor in vehicle |
KR20160081506A (en) * | 2014-12-31 | 2016-07-08 | 현대모비스 주식회사 | Alignment correction system and a control method of a radar and the side of the vehicle |
-
2017
- 2017-12-12 KR KR1020170169968A patent/KR102366441B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002114176A (en) | 2000-10-11 | 2002-04-16 | Isuzu Motors Ltd | Trailer connecting angle detecting device |
KR101714233B1 (en) | 2015-10-06 | 2017-03-08 | 현대자동차주식회사 | Apparatus for detecting objects on the road and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20190069747A (en) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11400977B2 (en) | Vehicle guidance system | |
JP7124117B2 (en) | Trailer detection and autonomous hitching | |
US11511713B2 (en) | Electronic device for determining an emergency stopping trajectory of an autonomous vehicle, related vehicle and method | |
EP3380392B1 (en) | Auto docking method for application in heavy trucks | |
WO2017204107A1 (en) | Target detection device | |
WO2016063532A1 (en) | In-vehicle object determining apparatus | |
CN102066186A (en) | Method for supporting a driver of a vehicle while parking in a parking space | |
US11250276B2 (en) | Object height determination for automated vehicle steering control system | |
JP6523050B2 (en) | Mining work machine | |
JP6386412B2 (en) | Transport vehicle | |
WO2015098344A1 (en) | Mining work machine | |
US20200079425A1 (en) | Method and assembly for validity-checking and/or (re)initializing rear wheel steering | |
US20200300967A1 (en) | Sensor verification | |
WO2017145845A1 (en) | Collision prediction apparatus | |
US9310805B2 (en) | Method and system for maneuvering a mobile mining machine in a tunnel and a mobile mining machine | |
US10899349B2 (en) | Centering a vehicle in a lane using environmental information to correct a predicted trajectory | |
US20190130759A1 (en) | System and Method for Determining When an Object Detected by a Collision Avoidance Sensor on One Member of an Articulated Vehicle Comprises Another Member of the Vehicle | |
WO2019203160A1 (en) | Driving assistance system and method | |
US20200290604A1 (en) | Method for controlling driving of autonomous vehicle | |
KR102366441B1 (en) | Object recognition apparatus and method for vehicle | |
WO2018179965A1 (en) | Obstacle sensing device | |
US20230161355A1 (en) | Control system of dump truck | |
US12054165B2 (en) | Vehicle localization | |
JP2018199458A (en) | Reverse parking assist device of combination vehicle | |
US20190225215A1 (en) | Vehicle control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right |