KR102366441B1 - Object recognition apparatus and method for vehicle - Google Patents

Object recognition apparatus and method for vehicle Download PDF

Info

Publication number
KR102366441B1
KR102366441B1 KR1020170169968A KR20170169968A KR102366441B1 KR 102366441 B1 KR102366441 B1 KR 102366441B1 KR 1020170169968 A KR1020170169968 A KR 1020170169968A KR 20170169968 A KR20170169968 A KR 20170169968A KR 102366441 B1 KR102366441 B1 KR 102366441B1
Authority
KR
South Korea
Prior art keywords
coordinates
sensor
radar
vehicle
trailer
Prior art date
Application number
KR1020170169968A
Other languages
Korean (ko)
Other versions
KR20190069747A (en
Inventor
장윤호
김재광
이강훈
허명선
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170169968A priority Critical patent/KR102366441B1/en
Publication of KR20190069747A publication Critical patent/KR20190069747A/en
Application granted granted Critical
Publication of KR102366441B1 publication Critical patent/KR102366441B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 차량의 객체 인식 장치 및 방법에 관한 것으로, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식하는데 그 목적이 있다. 이를 위해 본 발명에 따른 차량의 객체 인식 장치는, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는, 상기 트랙터에 설치되는 제 1 센서와; 상기 트레일러에 설치되는 제 2 센서와; 상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함한다.The present invention relates to an apparatus and method for recognizing an object of a vehicle, and an object of the present invention is to accurately recognize objects located in the vicinity of a freight vehicle composed of a tractor and a trailer. To this end, an apparatus for recognizing an object for a vehicle according to the present invention is a vehicle in which a trailer for loading cargo is connected to a tractor for towing, and the apparatus for recognizing an object of the vehicle includes: a first sensor installed on the tractor; a second sensor installed on the trailer; detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor and a control unit for recognizing the position of the detection object.

Description

차량의 객체 인식 장치 및 방법{OBJECT RECOGNITION APPARATUS AND METHOD FOR VEHICLE}OBJECT RECOGNITION APPARATUS AND METHOD FOR VEHICLE

본 발명은 차량에 관한 것으로, 견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량에 관한 것이다.The present invention relates to a vehicle, and to a cargo vehicle comprising a tractor for towing and a trailer for loading cargo.

견인을 위한 트랙터와 화물 탑재를 위한 트레일러로 구성되는 화물 차량은 대형 화물 또는 대량의 화물을 운송하기에 적합하다. 트랙터와 트레일러는 기계적으로 체결되는 구조여서 트레일러를 트랙터에 연결하여 함께 이동하거나 또는 트레일러를 분리한 채로 트랙터만 이동할 수 있다.A cargo vehicle consisting of a tractor for towing and a trailer for loading cargo is suitable for transporting large cargoes or bulk cargoes. Since the tractor and trailer are mechanically coupled, the trailer can be connected to the tractor to move together, or only the tractor can move with the trailer removed.

트랙터에 트레일러를 연결하여 이동하는 경우 트랙터와 트레일러의 연결점이 회전축으로 작용하여 필요 시 트레일러가 회전한다. 또한 대형 화물 또는 대용량의 화물을 탑재하기 위해 트레일러의 크기 역시 대형화되어 있다.When moving by connecting a trailer to a tractor, the connection point between the tractor and trailer acts as a rotating shaft, and the trailer rotates when necessary. In addition, the size of the trailer is also increased in order to load large cargo or large-capacity cargo.

이와 같은 트랙터-트레일러 구조의 화물 차량은 대형화로 인해 운전자가 화물 차량 주변의 다른 객체의 존재를 확인하기가 쉽지 않다.Due to the size of the tractor-trailer structure of the cargo vehicle, it is difficult for the driver to check the existence of other objects around the cargo vehicle.

일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식하는데 그 목적이 있다.According to one aspect, an object of the present invention is to accurately recognize objects located in the vicinity of a freight vehicle including a tractor and a trailer.

상술한 목적의 본 발명에 따른 차량의 객체 인식 장치는, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는, 상기 트랙터에 설치되는 제 1 센서와; 상기 트레일러에 설치되는 제 2 센서와; 상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함한다.According to the present invention for the above purpose, there is provided an apparatus for recognizing an object for a vehicle in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, and the apparatus for recognizing an object of the vehicle includes: a first sensor installed on the tractor; a second sensor installed on the trailer; detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor and a control unit for recognizing the location of the detection object.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식한다.In the above-described vehicle object recognition apparatus, the control unit fuses the coordinates of the first sensor and the coordinates of the second sensor, and obtains a correction variable between the fused coordinates and the corrected coordinates of the second sensor, The position of the single detection object of the second sensor is recognized by applying the correction variable to the coordinates of the single detection object of the second sensor.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described apparatus for recognizing an object for a vehicle, the controller performs the coordinate fusion when a joint detection object of the first sensor and the second sensor exists.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described apparatus for recognizing an object for a vehicle, the controller does not perform the coordinate fusion when only the single detection object of the second sensor exists.

상술한 차량의 객체 인식 장치에서, 상기 제어부는,상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described apparatus for recognizing an object of a vehicle, the controller detects a blind spot of the vehicle through location recognition of the detection object.

상술한 차량의 객체 인식 장치에서, 상기 제어부는, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described apparatus for recognizing an object of a vehicle, the controller controls autonomous driving of the vehicle by using a result of recognizing the location of the detection object.

상술한 차량의 객체 인식 장치에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described apparatus for recognizing an object for a vehicle, one of the second sensors is installed at both ends of the rear of the trailer.

상술한 차량의 객체 인식 장치에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the above-described vehicle object recognition apparatus, the first sensor is a lidar (LiDAR); The second sensor is a radar (RADAR).

상술한 목적의 본 발명에 따른 차량의 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와; 상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와; 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함한다.In the vehicle object recognition method according to the present invention for the above purpose, in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle uses a first sensor installed in the tractor detecting an angle of refraction between the tractor and the trailer; correcting the coordinates of a second sensor installed in the trailer using the refraction angle; and recognizing the position of the detection object of the second sensor by using the corrected coordinates of the second sensor.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와; 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와; 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함한다.In the above-described method for recognizing an object of a vehicle, the steps of: fusing the coordinates of the first sensor and the coordinates of the second sensor; obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor; The method further includes recognizing the position of the single detection object of the second sensor by applying the correction variable to the coordinates of the single detection object of the second sensor.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시한다.In the above-described method for recognizing an object of a vehicle, the coordinate fusion is performed when a joint detection object of the first sensor and the second sensor exists.

상술한 차량의 객체 인식 방법에서, 상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는다.In the above-described method for recognizing an object of a vehicle, when only a single detection object of the second sensor exists, the coordinate fusion is not performed.

상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시한다.In the above-described method for recognizing an object of a vehicle, a blind spot of the vehicle is detected through location recognition of the detection object.

상술한 차량의 객체 인식 방법에서, 상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어한다.In the above-described method for recognizing an object of a vehicle, autonomous driving of the vehicle is controlled using a result of location recognition of the detection object.

상술한 차량의 객체 인식 방법에서, 상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치된다.In the above-described method for recognizing an object of a vehicle, one of the second sensors is installed at both ends of the rear of the trailer.

상술한 차량의 객체 인식 방법에서, 상기 제 1 센서는 라이더(LiDAR)이고; 상기 제 2 센서는 레이더(RADAR)이다.In the vehicle object recognition method described above, the first sensor is a lidar (LiDAR); The second sensor is a radar (RADAR).

상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 장치는, 견인을 위한 트랙터와; 화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와; 상기 트랙터에 설치되는 라이더와; 상기 트레일러의 후미에 설치되는 레이더와; 상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되, 상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식한다.Another object recognition apparatus for a vehicle according to the present invention for the above purpose, a tractor for towing; a trailer connected to the tractor for loading cargo; a rider installed on the tractor; a radar installed at the rear of the trailer; A control unit for detecting a refraction angle between the tractor and the trailer using the lidar, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detection object of the radar using the corrected coordinates of the radar Including, wherein the control unit fuses the coordinates of the radar and the coordinates of the radar, obtains a correction variable between the fused coordinates and the corrected coordinates of the radar, and the correction to the coordinates of the single detection object of the radar The position of the single detection object of the radar is recognized by applying the variable.

상술한 목적의 본 발명에 따른 차량의 또 다른 객체 인식 방법은, 견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은, 상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와; 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함한다.Another object recognition method of a vehicle according to the present invention for the above purpose, in a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle uses a rider installed in the tractor detecting a refraction angle between the tractor and the trailer, correcting the coordinates of a radar installed on the trailer using the refraction angle, and recognizing the position of a detection object of the radar using the corrected coordinates of the radar Wow; Fusing the coordinates of the radar and the coordinates of the radar, obtaining a correction variable between the fused coordinates and the corrected coordinates of the radar, and applying the correction variable to the coordinates of the single detection object of the radar and recognizing the location of the detection object.

일 측면에 따르면, 트랙터와 트레일러로 구성되는 화물차의 주변에 위치한 객체들을 정확하게 인식할 수 있도록 한다.According to one aspect, it is possible to accurately recognize objects located in the vicinity of a truck including a tractor and a trailer.

도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.
도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다.
도 6은 트레일러가 회전하지 않은 상태와 회전한 상태에서 레이더에 의해 탐지되는 객체의 좌표를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다.
도 8은 라이더의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.
1 is a view showing a freight vehicle according to an embodiment of the present invention.
2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.
3 is a diagram illustrating a detection error of a radar generated due to a swing of a trailer.
4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.
5 is a diagram illustrating an object recognition method of a freight vehicle according to an embodiment of the present invention.
6 is a diagram illustrating coordinates of an object detected by a radar in a state in which the trailer is not rotated and in a state in which the trailer is rotated.
7 is a diagram illustrating coordinate fusion of a freight vehicle according to an embodiment of the present invention.
8 is a diagram illustrating fusion coordinates in which weights Xσ and Yσ are given to the detection result of the rider.
9 is a diagram illustrating a result of a method for recognizing an object of a freight vehicle according to an embodiment of the present invention.

도 1은 본 발명의 실시 예에 따른 화물 차량을 나타낸 도면이다.1 is a view showing a freight vehicle according to an embodiment of the present invention.

본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 도 1의 트레일러(120) 위에는 컨테이너(130)가 탑재되어 있어서, 컨테이너(130)의 아래쪽에 위치한 트레일러(120)가 잘 드러나 있지 않다. 트레일러(120)와 트레일러(120)에 탑재된 컨테이너(130)는 고정된 상태로 함께 움직인다.The cargo vehicle 100 according to an embodiment of the present invention includes a tractor 110 for towing and a trailer 120 for loading cargo. Since the container 130 is mounted on the trailer 120 of FIG. 1 , the trailer 120 positioned below the container 130 is not well exposed. The trailer 120 and the container 130 mounted on the trailer 120 move together in a fixed state.

트랙터(110)는 탑재된 엔진의 구동력을 이용해 트레일러(120)를 견인한다. 반면 트레일러(120)는 동력원이 탑재되지 않기 때문에 트랙터(110)에 연결된 상태에서 트랙터(110)에 의해 견인된다. 이를 위해 트레일러(120)는 트랙터(110)에 회전 가능하도록 기계적으로 연결된다. 즉, 트랙터(110)와 트레일러(120)가 기계적으로 연결됨으로써 형성되는 회전축(142)을 중심으로 트레일러(120)가 평면(예를 들면 지면과 대략 평행한 면) 상에서 일정 각도 범위 내의 회전을 한다. 트레일러(120)의 회전(스윙)은 후술하는 도 2를 통해 더 자세히 설명하고자 한다.The tractor 110 tows the trailer 120 using the driving force of the mounted engine. On the other hand, the trailer 120 is towed by the tractor 110 in a state connected to the tractor 110 because the power source is not mounted. To this end, the trailer 120 is mechanically connected to the tractor 110 to be rotatable. That is, the trailer 120 rotates within a certain angular range on a plane (for example, a plane approximately parallel to the ground) around a rotation shaft 142 formed by mechanically connecting the tractor 110 and the trailer 120. . The rotation (swing) of the trailer 120 will be described in more detail with reference to FIG. 2 to be described later.

본 발명의 실시 예에 따른 화물 차량(100)은 트레일러(120)라는 크고 긴 화물 적재 수단을 갖기 때문에 운전자가 화물 차량(100)의 좌측과 우측 및 후방을 온전히 관측하는 것이 매우 어렵다. 따라서 화물 차량(100)에는 운전자를 대신하여 화물 차량(100)의 좌측과 우측, 후방의 상황을 탐지하기 위한 탐지 수단인 라이더(LiDAR)(152)와 레이더(RADAR)(162)가 설치된다. 라이더(152)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트랙터(110)에 설치되는 제 1 센서일 수 있다. 레이더(162)는 화물 차량(100)의 주변에 존재하는 객체를 탐지하도록 트레일러(120)에 설치되는 제 2 센서일 수 있다.Since the cargo vehicle 100 according to the embodiment of the present invention has a large and long cargo loading means called the trailer 120 , it is very difficult for the driver to completely observe the left, right, and rear of the cargo vehicle 100 . Accordingly, a lidar (LiDAR) 152 and a radar (RADAR) 162, which are detection means for detecting situations on the left, right, and rear of the cargo vehicle 100 on behalf of the driver, are installed in the cargo vehicle 100 . The lidar 152 may be a first sensor installed in the tractor 110 to detect an object existing in the vicinity of the freight vehicle 100 . The radar 162 may be a second sensor installed in the trailer 120 to detect an object existing in the vicinity of the freight vehicle 100 .

라이더(152)는 트랙터(110)의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 라이더(152)는 근거리 탐지 수단으로서, 트랙터(110)의 좌우 측후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 152L은 트랙터(110)의 왼쪽에 설치된 라이더를 의미하고, 152R은 트랙터(110)의 오른쪽에 설치된 라이더를 의미한다.The rider 152 is installed one on the left and the right side of the tractor 110, respectively. The rider 152 detects an object existing in a predetermined area of the left, right, left, and rear of the tractor 110 as a short-distance detection means. The object may include other vehicles, pedestrians, structures, buildings, and the like. In FIG. 1 , 152L denotes a rider installed on the left side of the tractor 110 , and 152R denotes a rider installed on the right side of the tractor 110 .

레이더(162)는 트레일러(120)의 후미의 왼쪽과 오른쪽에 각각 하나씩 설치된다. 레이더(162)는 라이더(152)에 비해 상대적으로 원거리 탐지 수단으로서, 트레일러(120)의 후방의 일정 영역에 존재하는 객체를 탐지한다. 객체는 타 자동차이거나 보행자, 구조물, 건물 등을 포함할 수 있다. 도 1에서, 162L은 트레일러(120)의 왼쪽에 설치된 레이더를 의미하고, 162R은 트레일러(120)의 오른쪽에 설치된 레이더를 의미한다.One radar 162 is installed on the left and right sides of the rear of the trailer 120, respectively. The radar 162 is a relatively long-distance detection means compared to the rider 152 , and detects an object existing in a predetermined area behind the trailer 120 . The object may include other vehicles, pedestrians, structures, buildings, and the like. In FIG. 1 , 162L denotes a radar installed on the left side of the trailer 120 , and 162R denotes a radar installed on the right side of the trailer 120 .

앞서 설명한 바와 같이, 라이더(152)는 근거리 탐지 수단이고 레이더(162)는 상대적으로 원거리 탐지 수단이다. 이 때문에 라이더(152)의 탐지 범위와 레이더(162)의 탐지 범위가 부분적으로 중첩된다. 라이더(152)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '라이더 고유 탐지 범위'라 할 수 있다. 또한 라이더(152) 및 레이러(162)의 중첩되는 탐지 범위를 '중첩 탐지 범위'라 할 수 있다. 또한 레이더(162)의 탐지 범위에서 중첩되는 부분을 제외한 나머지 탐지 범위를 '레이더 고유 탐지 범위'라 할 수 있다.As described above, the lidar 152 is a short-range detection means and the radar 162 is a relatively long-range detection means. For this reason, the detection range of the lidar 152 and the detection range of the radar 162 partially overlap. The remaining detection range excluding the overlapping portion in the detection range of the rider 152 may be referred to as a 'rider-specific detection range'. Also, the overlapping detection range of the lidar 152 and the layerer 162 may be referred to as an 'overlapping detection range'. In addition, the remaining detection range excluding the overlapping portion in the detection range of the radar 162 may be referred to as a 'radar-specific detection range'.

도 2는 본 발명의 실시 예에 따른 화물 차량의 트레일러의 회전을 나타낸 도면이다.2 is a view illustrating rotation of a trailer of a freight vehicle according to an embodiment of the present invention.

도 1에서 설명한 것처럼, 본 발명의 실시 예에 따른 화물 차량(100)은 견인을 위한 트랙터(110)와 화물 탑재를 위한 트레일러(120)로 구성된다. 트레일러(120)는 회전축(142)을 중심으로 평면 상을 일정 범위 내에서 회전한다. 이와 같은 구조로 인해 화물 차량(100)이 직진할 때와 왼쪽으로 선회할 때, 그리고 오른쪽으로 선회할 때의 트랙터(110)와 트레일러(120)의 상대 각도가 서로 다르다. 이하의 설명에서는 트랙터(110)와 트레일러(120)가 이루는 각도를 '굴절각'이라 칭한다.As described in FIG. 1 , the cargo vehicle 100 according to the embodiment of the present invention includes a tractor 110 for towing and a trailer 120 for loading cargo. The trailer 120 rotates on a plane about the rotation shaft 142 within a predetermined range. Due to this structure, the relative angles of the tractor 110 and the trailer 120 are different from each other when the freight vehicle 100 goes straight, when it turns to the left, and when it turns to the right. In the following description, an angle between the tractor 110 and the trailer 120 is referred to as a 'refraction angle'.

도 2의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않으면 트랙터(110)와 트레일러(120)는 서로 일직선을 이룬다. 이 때의 굴절각은 0도이다. 도 2의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)의 왼쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ1만큼의 차이가 발생한다. 또한, 도 2의 (III)에 나타낸 바와 같이, 트랙터(110)가 오른쪽으로 선회하거나 또는 트레일러(120)의 오른쪽으로 슬립이 발생하면 트레일러(120)는 트랙터(110)에 대해 반시계 방향으로 회전(스윙)한다. 이로 인해 트랙터(110)의 중심 축과 트레일러(120)의 중심 축 사이에는 굴절각 θ2만큼의 차이가 발생한다.As shown in (I) of Figure 2, when the tractor 110 goes straight and the trailer 120 does not slip, the tractor 110 and the trailer 120 form a straight line with each other. The angle of refraction at this time is 0 degrees. As shown in (II) of FIG. 2 , when the tractor 110 turns to the left or slip occurs to the left of the trailer 120 , the trailer 120 rotates clockwise with respect to the tractor 110 (swing). do. Due to this, a difference by the angle of refraction θ1 occurs between the central axis of the tractor 110 and the central axis of the trailer 120 . In addition, as shown in (III) of FIG. 2 , when the tractor 110 turns to the right or slip occurs to the right of the trailer 120 , the trailer 120 rotates counterclockwise with respect to the tractor 110 . (swing) Due to this, a difference by the angle of refraction θ2 is generated between the central axis of the tractor 110 and the central axis of the trailer 120 .

도 3은 트레일러의 스윙으로 인해 발생하는 레이더의 탐지 오차를 나타낸 도면이다. 앞서 도 2의 (II)와 (III)에 나타낸 것과 같은 트레일러(120)의 회전(스윙)으로 인해 레이더(162)의 좌표가 틀어질 수 있어서, 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식할 수 있다.3 is a diagram illustrating a detection error of a radar generated due to a swing of a trailer. Because the coordinates of the radar 162 may be shifted due to the rotation (swing) of the trailer 120 as shown in (II) and (III) of FIG. 2 above, the position of the object detected by the radar 162 is determined may not be well recognized.

도 3의 (I)은 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (I)에 나타낸 바와 같이, 트랙터(110)가 직진하고 트레일러(120)의 슬립이 발생하지 않아서 트랙터(110)와 트레일러(120)가 서로 일직선을 이룰 때는 화물 차량(100) 주변의 객체(302)의 위치가 정확히 탐지된다.3(I) is a diagram showing the detection result of the radar 162 in the same situation as FIG. 2(I). As shown in (I) of Figure 3, when the tractor 110 goes straight and the trailer 120 does not slip, so that the tractor 110 and the trailer 120 form a straight line with each other, the The position of the object 302 is accurately detected.

도 3의 (II)는 도 2의 (I)과 같은 상황에서 레이더(162)의 탐지 결과를 나타낸 도면이다. 도 3의 (II)에 나타낸 바와 같이, 트랙터(110)가 왼쪽으로 선회하거나 또는 트레일러(120)에 왼쪽으로 슬립이 발생하여 트레일러(120)가 트랙터(110)에 대해 시계 방향으로 회전(스윙)하면 트레일어(162)에 설치되는 레이더(162)에 탐지되는 객체(304)의 위치는 객체(304)의 실제 위치와 다른 것을 알 수 있다. 도 3의 (I)의 경우 객체(302)가 화물 차량(100)의 후방 양 쪽에서 화물 차량(100)과 나란히 진행하는 것으로 탐지된다. 이와 달리, 도 3의 (II)의 경우에는 왼쪽 객체(304)가 화물 차량(100)이 진행하고 있는 차로 위에 위치한 것으로 잘 못 인식될 수 있다. 본 발명은 트랙터와 트레일러고 구성되는 화물 차량에서 트레일러의 회전(스윙)으로 인한 객체 탐지 오차를 해소하기 위한 것이다.(II) of FIG. 3 is a diagram showing the detection result of the radar 162 in the same situation as in (I) of FIG. 2 . As shown in (II) of FIG. 3 , the tractor 110 turns to the left or slip occurs in the trailer 120 to the left so that the trailer 120 rotates clockwise with respect to the tractor 110 (swing) When the position of the object 304 detected by the radar 162 installed on the trailer 162 is different from the actual position of the object 304 . In the case of (I) of FIG. 3 , it is detected that the object 302 proceeds in parallel with the freight vehicle 100 on both rear sides of the freight vehicle 100 . Contrary to this, in the case of (II) of FIG. 3 , the left object 304 may be erroneously recognized as being located on the lane on which the freight vehicle 100 is moving. An object of the present invention is to solve an object detection error due to rotation (swing) of a trailer in a freight vehicle comprising a tractor and a trailer.

도 4는 본 발명의 실시 예에 따른 화물 차량의 제어 계통을 나타낸 도면이다.4 is a view showing a control system of a freight vehicle according to an embodiment of the present invention.

제어부(420)는 본 발명의 실시 예에 따른 화물 차량(100)의 동작 전반에 관여하는 전자 제어 유닛(Electronic Control Unit, ECU)일 수 있다. 제어부(420)는 트레일러(120)의 회전(스윙)을 고려하여 레이더(162)의 탐지 결과를 보정함으로써 객체의 위치를 정확히 인식할 수 있도록 한다. 제어부(420)의 보정 결과는 사각 지대 탐지 모듈(BSD 모듈)(450)에 제공되어 사각 지대 검출을 위해 사용될 수 있다.The controller 420 may be an Electronic Control Unit (ECU) involved in overall operation of the freight vehicle 100 according to an embodiment of the present invention. The controller 420 corrects the detection result of the radar 162 in consideration of the rotation (swing) of the trailer 120 so that the position of the object can be accurately recognized. The correction result of the controller 420 may be provided to the blind spot detection module (BSD module) 450 to be used for blind spot detection.

제어부(420)에는 메모리(470)가 연결된다. 메모리(470)에는 제어부(420)가 화물 차량(100)을 제어하는데 필요한 소프트웨어나 펌웨어가 저장된다. 또한 제어부(420)가 화물 차량(100)을 제어하는데 필요한 데이터나 화물 차량(100)을 제어하면서 생성되는 데이터가 메모리(470)에 저장된다.A memory 470 is connected to the controller 420 . The memory 470 stores software or firmware necessary for the controller 420 to control the freight vehicle 100 . In addition, data required for the controller 420 to control the freight vehicle 100 or data generated while controlling the freight vehicle 100 are stored in the memory 470 .

이와 같은 본 발명의 실시 예에 따른 화물 차량(100)의 제어부(420)는 레이더(162)의 탐지 결과를 보정하기 위한 다음과 같은 제어 로직을 포함한다.As described above, the control unit 420 of the freight vehicle 100 according to the embodiment of the present invention includes the following control logic for correcting the detection result of the radar 162 .

굴절각 산출 로직(422)은 트랙터(110)에 대한 트레일러(120)의 상대 각도인 굴절각(도 2의 θ1 및 θ2 참조)을 산출한다.The deflection angle calculation logic 422 calculates a deflection angle (refer to θ1 and θ2 in FIG. 2 ) that is a relative angle of the trailer 120 with respect to the tractor 110 .

객체 인식 로직(424)은 라이더(152) 또는 레이더(162)의 탐지 결과로부터 화물 차량(100)의 주변에 다른 객체가 존재하는지를 판단한다.The object recognition logic 424 determines whether another object exists in the vicinity of the freight vehicle 100 from the detection result of the lidar 152 or the radar 162 .

객체 좌표 변환 로직(426)은 레이더(162)를 통해 탐지된 객체의 좌표를 트레일러(120)의 회전(스윙)에 따른 굴절각을 고려하여 변환한다.The object coordinate conversion logic 426 converts the coordinates of the object detected through the radar 162 in consideration of the refraction angle according to the rotation (swing) of the trailer 120 .

라이더 정보 융합 로직(428)은 레이더(162)에 의해 탐지된 객체가 라이더(152)에 의해서도 탐지되는 경우(즉 객체가 '중첩 탐지 범위'에 공동 탐지 객체가 위치하는 경우) 레이더(162)에 의해 탐지된 객체의 좌표와 라이더(152)에 의해 탐지된 객체의 좌표를 융합한다.The lidar information fusion logic 428 is the radar 162 when the object detected by the radar 162 is also detected by the lidar 152 (that is, when the object is located in the 'overlapping detection range'). The coordinates of the object detected by the rider 152 are fused with the coordinates of the object detected by the rider 152 .

객체 위치 판단 로직(430)은 융합된 객체의 좌표로부터 객체의 정확한 위치를 인식한다.The object position determination logic 430 recognizes the exact position of the object from the coordinates of the fused object.

객체 융합 판단 로직(432)은 인식된 객체의 정확한 위치와 속도 등을 판단한다.The object fusion determination logic 432 determines the exact position and speed of the recognized object.

도 5는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법을 나타낸 도면이다. 도 5에 나타낸 객체 인식 방법은 도 1에 나타낸 것과 같은 라이더(152)가 설치되는 트랙터(110)와 레이더(162)가 설치되는 트레일러(120)로 구성되는 화물 차량(100)의 제어부(420)에 의해 실시될 수 있다.5 is a diagram illustrating an object recognition method of a freight vehicle according to an embodiment of the present invention. The object recognition method shown in FIG. 5 includes a control unit 420 of a freight vehicle 100 including a tractor 110 on which a rider 152 is installed and a trailer 120 on which a radar 162 is installed as shown in FIG. 1 . can be carried out by

제어부(420)는 라이더(152) 및 레이더(162)와 통신을 시도하여 라이더(152) 및 레이더(162)가 활성화되어 있는지를 확인한다(512). 라이더(152) 및 레이더(162)가 활성화되어 있을 때, 제어부(420)는 라이더(152) 및 레이더(162)를 이용하여 주변의 객체를 인식하기 위한 제어를 실시한다.The controller 420 checks whether the lidar 152 and the radar 162 are activated by trying to communicate with the lidar 152 and the radar 162 ( 512 ). When the lidar 152 and the radar 162 are activated, the controller 420 performs a control for recognizing a surrounding object using the lidar 152 and the radar 162 .

제어부(420)는 트랙터(110)에 설치되어 있는 라이더(152)를 이용하여 트레일러(120)의 굴절각을 검출한다(514). 트랙터(110)에 설치되어 있는 라이더(152)는 트랙터(110)의 측후방의 일정 범위를 탐지할 수 있으므로, 라이더(152)의 탐지 결과로부터 트레일러(120)의 상태를 확인할 수 있다. 예를 들면, 앞서 설명한 도 2에서 (I)의 상태를 기준으로 하여 (II)의 상태 또는 (III)이 상태를 확인함으로써 트레일러(120)의 회전(스윙) 여부는 물론 그 때의 굴절각도 검출할 수 있다.The controller 420 detects the angle of refraction of the trailer 120 using the rider 152 installed in the tractor 110 ( 514 ). Since the rider 152 installed in the tractor 110 can detect a predetermined range of the sides and rear of the tractor 110 , the state of the trailer 120 can be confirmed from the detection result of the rider 152 . For example, by checking the state of (II) or (III) on the basis of the state of (I) in FIG. 2 described above, the rotation (swing) of the trailer 120 as well as the detection of the angle of refraction at that time can do.

앞서 도 3에서 설명한 것처럼, 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체의 위치는 서로 다르다. 이를 도 6에 나타내었다. 도 6은 트레일러(120)가 회전하지 않은 상태와 회전한 상태에서 레이더(162)에 의해 탐지되는 객체(602)(604)의 좌표를 나타낸 도면이다. 또한 도 6은 객체(602)(604)가 트레일러(120)로부터 원거리에 있어서 오직 레이더(162)에 의해서만 탐지되고 라이더(152)에 의해서는 탐지되지 않는 경우를 나타낸 도면이다.As described above with reference to FIG. 3 , positions of objects detected by the radar 162 in a state in which the trailer 120 is not rotated and a state in which the trailer 120 is rotated are different from each other. This is shown in FIG. 6 . 6 is a diagram illustrating coordinates of objects 602 and 604 detected by the radar 162 in a state in which the trailer 120 is not rotated and a state in which the trailer 120 is rotated. 6 is a diagram illustrating a case in which objects 602 and 604 are detected only by the radar 162 and not detected by the rider 152 at a distance from the trailer 120 .

도 6에서 'L'은 트레일러(120)의 길이이고 'W'는 트레일러(120)의 폭이다. 먼저 도 6의 (I)에서, 트레일러(120)의 회전축(142)을 원점으로 하는 가상의 직각 좌표를 적용하면 왼쪽 레이더(162L)의 좌표는 (-W/2, -L)이다. 왼쪽 레이더(162L)에서 객체(602)까지의 직선 거리가 R이고, 트레일러(120)의 후면에 대해 직선 R이 이루는 각도가 φ일 때, 왼쪽 레이더(162L)를 원점으로 하는 가상의 직각 좌표를 적용하면 객체(602)의 좌표는 (R*cosφ-W/2, R*sinφ-L)이다.In FIG. 6 , 'L' is the length of the trailer 120 and 'W' is the width of the trailer 120 . First, in FIG. 6I , when virtual rectangular coordinates with the rotation axis 142 of the trailer 120 as the origin are applied, the coordinates of the left radar 162L are (-W/2, -L). When the straight line distance from the left radar 162L to the object 602 is R, and the angle formed by the straight line R with respect to the rear of the trailer 120 is φ, virtual rectangular coordinates with the left radar 162L as the origin are obtained. When applied, the coordinates of the object 602 are (R*cosφ-W/2, R*sinφ-L).

도 6의 (II)에 나타낸 바와 같이, 트레일러(120)가 회전(스윙)하면 회전축(142)을 원점으로 하는 왼쪽 레이더(162L)의 좌표도 바뀌기 때문에 도 6의 (I)에 나타낸 객체(602)의 좌표는 더 이상 신뢰할 수 없다. 따라서 도 6의 (I)에서 객체(602)의 좌표를 구한 방법에 도 6의 (II)에 나타낸 트레일러(120)의 회전(스윙)을 반영한 변환된 좌표를 구한다. 트레일러(120)의 회전(스윙)에 의해 트레일러(120)의 중심축이 θ만큼 회전하였으므로, 이 굴절각 θ를 반영하여 왼쪽 레이더(162L)의 좌표를 보정하여 새로 구하고, 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영하여 객체(604)의 좌표를 구한다. 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(604)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.As shown in (II) of FIG. 6 , when the trailer 120 rotates (swings), the coordinates of the left radar 162L with the rotation shaft 142 as the origin also change, so the object 602 shown in (I) of FIG. 6 . ) is no longer reliable. Accordingly, the converted coordinates by reflecting the rotation (swing) of the trailer 120 shown in FIG. 6(II) are obtained in the method of obtaining the coordinates of the object 602 in FIG. 6(I). Since the central axis of the trailer 120 is rotated by θ due to the rotation (swing) of the trailer 120, the coordinates of the left radar 162L are corrected by reflecting the refraction angle θ, and the coordinates of the left radar 162L are corrected. The coordinates of the object 604 are obtained by reflecting the new coordinates. The new corrected coordinates of the left radar 162L reflecting the refraction angle θ are ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ). In addition, the coordinates of the object 604 reflecting the corrected new coordinates of the left radar 162L are ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+(() -W/2)*sinθ+L*cosθ)).

도 5로 돌아와서, 제어부(420)는 라이더(152)와 레이더(162)에 의해 모두 탐지되는 객체 즉 공동 탐지 객체가 존재하는지를 확인한다(518). 즉, 공동 탐지 객체는 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 객체이다.Returning to FIG. 5 , the controller 420 checks whether there is an object detected by both the lidar 152 and the radar 162 , that is, a joint detection object ( 518 ). That is, the joint detection object is an object existing within the overlap detection range of the lidar 152 and the radar 162 .

라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하면(518의 '예'), 제어부(420)는 라이더(152)와 레이더(162) 각각을 통해 획득한 두 개의 좌표를 융합한다(532). 도 7은 본 발명의 실시 예에 따른 화물 차량의 좌표 융합을 나타낸 도면이다. 도 7의 (I)은 라이더(152)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (II)는 레이더(162)를 이용하여 객체(702)의 좌표를 구하는 것을 나타낸 도면이다. 도 7의 (I)과 (II)를 통해 구한 두 개의 좌표를 융합함으로써 객체(702)의 위치를 더욱 정확하게 인식할 수 있다.If there is a joint detection object existing within the overlap detection range of the lidar 152 and the radar 162 (YES in 518), the controller 420 controls the two obtained through the lidar 152 and the radar 162, respectively. The coordinates of the two are fused (532). 7 is a diagram illustrating coordinate fusion of a freight vehicle according to an embodiment of the present invention. 7(I) is a diagram illustrating obtaining the coordinates of the object 702 using the rider 152 . 7(II) is a diagram illustrating obtaining the coordinates of the object 702 using the radar 162 . By fusing the two coordinates obtained through (I) and (II) of FIG. 7 , the position of the object 702 can be recognized more accurately.

도 7의 (I)에 나타낸 바와 같이, 트랙터(110)에 설치되는 레이더(152)는 트랙터(110)와 함께 일체로 움직이기 때문에 트랙터(110)가 회전하더라도 레이더(152)의 좌표는 변하지 않는다. 따라서 레이더(152)에 의해 탐지된 객체(702)의 좌표 (a, b)의 변환은 필요치 않다.As shown in (I) of FIG. 7 , since the radar 152 installed in the tractor 110 moves integrally with the tractor 110 , the coordinates of the radar 152 do not change even when the tractor 110 rotates. . Accordingly, the transformation of the coordinates (a, b) of the object 702 detected by the radar 152 is not required.

도 7의 (II)에서, 트레일러(120)의 왼쪽 레이더(162L)의 좌표와, 왼쪽 레이더(162L)에 의해 탐지된 객체(702)의 좌표는 앞서 도 6의 (II)에서 언급한 것과 같은 방식으로 나타낼 수 있다. 즉, 굴절각 θ를 반영한 왼쪽 레이더(162L)의 보정된 새로운 좌표는 ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ)이다. 또한 왼쪽 레이더(162L)의 보정된 새로운 좌표를 반영한 객체(702)의 좌표는 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.In (II) of FIG. 7 , the coordinates of the left radar 162L of the trailer 120 and the coordinates of the object 702 detected by the left radar 162L are the same as those described in (II) of FIG. 6 above. can be expressed in this way. That is, the corrected new coordinates of the left radar 162L reflecting the refraction angle θ are ((-W/2)*cosθ-L*sinθ, (-W/2)*sinθ+L*cosθ). In addition, the coordinates of the object 702 reflecting the corrected new coordinates of the left radar 162L are ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+(() -W/2)*sinθ+L*cosθ)).

도 7의 (I)에 나타낸 레이더(152)를 이용하여 탐지한 객체(702)의 좌표 (a, b)와 도 7의 (II)에 나타낸 왼쪽 라이더(162L)를 이용하여 탐지한 객체(702)의 보정된 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))를 융합한 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다. 즉, 왼쪽 라이더(152L)와 왼쪽 레이더(162L)가 공동으로 탐지한 객체(702)의 보정된 융합 좌표는 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))이다.The object 702 detected using the coordinates (a, b) of the object 702 detected using the radar 152 shown in (I) of FIG. 7 and the left lidar 162L shown in FIG. 7 (II) fuse the corrected coordinates of ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))) One coordinate is (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))) That is, the object 702 jointly detected by the left rider 152L and the left radar 162L The corrected fusion coordinates of ) are (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ))).

도 5로 돌아와서, 제어부(420)는 왼쪽 레이더(162L)의 보정된 변환 좌표 ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+((-W/2)*sinθ+L*cosθ))와 보정된 융합 좌표 (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ)) 사이의 차이를 보정 변수로서 메모리(470)에 저장한다. 메모리(470)에 저장된 보정 변수는 향후 레이더(162)만을 이용하여 탐지한 객체의 위치 좌표를 구하는데 사용될 수 있다.Returning to FIG. 5 , the controller 420 controls the corrected transformation coordinates of the left radar 162L ((R'cosφ'+((-W/2)*cosθ-L*sinθ), (R'sinφ'+(() Memory the difference between -W/2)*sinθ+L*cosθ)) and the corrected fusion coordinates (a, (R'sinφ'+((-W/2)*sinθ+L*cosθ)) as a correction variable It is stored in 470. The correction variable stored in the memory 470 may be used to obtain position coordinates of an object detected using only the radar 162 in the future.

만약 레이더(162)가 단독으로 탐지한 객체가 존재하는 경우에는, 앞서 단계 534에서 메모리(470)에 저장된 보정 변수를 레이더(162)의 탐지 결과에 적용함으로써 객체의 위치를 더욱 정확하게 인식할 수 있다(536). 라이더(152)의 매칭된 보정 변수가 존재하면 횡좌표를 기준으로 객체의 위치 좌표의 오차를 보정할 수 있다. 또한 좌표 융합 시 근거리를 탐지하는 라이더(152)의 상대적으로 더 큰 비중을 두어 위치를 보정할 수 있다.If there is an object detected by the radar 162 alone, the position of the object may be more accurately recognized by applying the correction variable stored in the memory 470 to the detection result of the radar 162 in step 534 above. (536). If there is a matching correction variable of the rider 152, it is possible to correct the error of the position coordinates of the object based on the abscissa. In addition, the position can be corrected by placing a relatively greater weight on the rider 152 that detects a short distance when the coordinates are fused.

제어부(420)는 트레일러(120)의 왼쪽와 뒤쪽, 오른쪽 각각에 대해 트레일러(120)의 높이를 제외한 X-Y 좌표 상에서의 직선의 방정식을 도출한다(538).The controller 420 derives an equation of a straight line on the X-Y coordinates except for the height of the trailer 120 for each of the left, rear, and right sides of the trailer 120 ( 538 ).

만약 레이더(162)에 의해 다수의 객체가 탐지되고 그 중 일부 객체가 라이더(152)에 의해서도 탐지된 경우에는, 공동 탐지 객체와 레이더(162)의 단독 탐지 객체에 대해 다음과 같이 좌표를 구할 수 있다. 즉, 공동 탐지 객체(근거리 객체)이 경우, 횡방향은 라이더(152)에 의해 탐지된 횡방향 좌표로 융합하고, 종방향은 라이더(152) 및 레이더(162) 각각을 이용해 구한 두 개의 좌표의 평균을 취한다. 또는 라이더(152)의 탐지 결과에 가중치를 부여한 융합 좌표를 취할 수도 있다. 도 8은 라이더(152)의 탐지 결과에 가중치 Xσ 및 Yσ를 부여한 융합 좌표를 나타낸 도면이다. 레이더(162)의 단독 탐지 객체(802)의 경우에는 공동 탐지 객체의 횡방향 및 종방향 좌표와 레이더(162)를 이용하여 획득한 좌표의 차이를 오프셋으로 활용하여 레이더(162)의 단독 탐지 객체(802)의 정확한 좌표를 구할 수 있다.If a plurality of objects are detected by the radar 162 and some of them are also detected by the lidar 152, coordinates can be obtained for the joint detection object and the single detection object of the radar 162 as follows. there is. That is, in the case of a joint detection object (short-range object), the lateral direction is fused to the lateral coordinates detected by the lidar 152, and the longitudinal direction is of two coordinates obtained using each of the lidar 152 and the radar 162. take the average Alternatively, fusion coordinates in which weights are given to the detection result of the rider 152 may be taken. 8 is a diagram illustrating fusion coordinates in which weights Xσ and Yσ are assigned to the detection result of the rider 152 . In the case of the single detection object 802 of the radar 162, the difference between the horizontal and longitudinal coordinates of the joint detection object and the coordinates obtained using the radar 162 is used as an offset to be the single detection object of the radar 162 The exact coordinates of (802) can be obtained.

도 5로 돌아와서, 만약 라이더(152)와 레이더(162)의 중첩 탐지 범위 내에 존재하는 공동 탐지 객체가 존재하지 않으면(518의 '아니오'), 즉 모든 객체가 레이더(162)의 단독 탐지 객체인 경우 제어부(420)는 앞서 도 6에서 설명한 방법으로 모든 객체의 좌표를 획득하여 각각의 객체에 부여한다.5, if there is no joint detection object existing within the overlap detection range of the lidar 152 and the radar 162 (No in 518), that is, all objects are the sole detection objects of the radar 162. In this case, the controller 420 obtains the coordinates of all objects by the method described above with reference to FIG. 6 and assigns them to each object.

지금까지 설명한 방법으로 획득한 화물 차량(100) 주변의 객체들의 위치 인식 결과를 화물 차량(100)의 자율 주행 또는 사각 지대 검출(Blind Spot Detection, BSD)에 적용할 수 있다(572).The result of recognizing the positions of objects around the freight vehicle 100 obtained by the method described so far may be applied to autonomous driving or blind spot detection (BSD) of the freight vehicle 100 ( 572 ).

도 9는 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 결과를 나타낸 도면이다.9 is a diagram illustrating a result of a method for recognizing an object of a freight vehicle according to an embodiment of the present invention.

도 9의 (I)처럼 트레일러(120)의 회전(스윙)이 발생하는 경우, 종래의 경우에는 도 9의 (II)처럼 레이더(162)의 좌표가 틀어져서 레이더(162)에 의해 탐지되는 객체의 위치를 잘 못 인식하는 상황이 발생할 수 있었다. 그러나 본 발명의 실시 예에 따른 화물 차량의 객체 인식 방법의 보정된 좌표 변환을 적용함으로써 도 9의 (III)에 나타낸 것처럼 트레일러(120)의 회전(스윙)을 고려한 객체의 정확한 좌표 획득을 통해 객체의 위치를 정확하게 인식할 수 있다.When rotation (swing) of the trailer 120 occurs as shown in (I) of FIG. 9 , in the conventional case, the coordinates of the radar 162 are shifted as shown in FIG. 9 (II) and an object detected by the radar 162 There may be situations in which the location of the is not recognized incorrectly. However, by applying the corrected coordinate transformation of the object recognition method of a freight vehicle according to an embodiment of the present invention, as shown in (III) of FIG. position can be accurately recognized.

위의 설명은 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서 위에 개시된 실시 예 및 첨부된 도면들은 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 기술적 사상의 범위가 한정되는 것은 아니다. 그 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea, and various modifications, changes, and substitutions will be possible without departing from the essential characteristics by those skilled in the art of the present invention. Therefore, the embodiments disclosed above and the accompanying drawings are for explanation rather than limiting the technical idea, and the scope of the technical idea is not limited by these embodiments and the accompanying drawings. The scope of protection should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights.

100 : 화물 차량
110 : 트랙터
120 : 트레일러
130 : 컨테이너
142 : 회전축
152 : 라이더(LiDAR)
162 : 레이더(RADAR)
302, 304, 602, 604, 702, 802, 902, 904 : 객체
420 : 제어부
450 : BSD 모듈
θ : 굴절각
100: cargo vehicle
110: tractor
120 : trailer
130: container
142: rotation shaft
152: LiDAR (LiDAR)
162: radar (RADAR)
302, 304, 602, 604, 702, 802, 902, 904 : object
420: control unit
450 : BSD module
θ: angle of refraction

Claims (18)

견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 장치는,
상기 트랙터에 설치되는 제 1 센서와;
상기 트레일러에 설치되는 제 2 센서와;
상기 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 제 2 센서의 좌표를 보정하며, 상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 제어부를 포함하는 차량의 객체 인식 장치.
In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition device of the vehicle comprises:
a first sensor installed on the tractor;
a second sensor installed on the trailer;
detecting an angle of refraction between the tractor and the trailer using the first sensor, correcting the coordinates of the second sensor using the angle of refraction, and using the corrected coordinates of the second sensor of the second sensor A vehicle object recognition apparatus comprising a control unit for recognizing a location of a detection object.
제 1 항에 있어서, 상기 제어부는,
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하고, 상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하며, 상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.
According to claim 1, wherein the control unit,
Fusing the coordinates of the first sensor and the coordinates of the second sensor, obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor, and adding the correction to the coordinates of the single detection object of the second sensor A vehicle object recognition device for recognizing the position of the single detection object of the second sensor by applying a variable.
제 2 항에 있어서, 상기 제어부는,
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 장치.
According to claim 2, wherein the control unit,
An object recognition device for a vehicle that performs the coordinate fusion when there is a joint detection object of the first sensor and the second sensor.
제 2 항에 있어서, 상기 제어부는,
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식장치.
According to claim 2, wherein the control unit,
An object recognition device for a vehicle that does not perform the coordinate fusion when only the single detection object of the second sensor exists.
제 1 항에 있어서, 상기 제어부는,
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 장치.
According to claim 1, wherein the control unit,
A vehicle object recognition apparatus for detecting a blind spot of the vehicle through location recognition of the detection object.
제 1 항에 있어서, 상기 제어부는,
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 장치.
According to claim 1, wherein the control unit,
An apparatus for recognizing an object of a vehicle to control autonomous driving of the vehicle by using a result of recognizing the location of the detection object.
제 1 항에 있어서,
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 장치.
The method of claim 1,
An object recognition device for a vehicle in which the second sensor is installed one at both ends of the rear of the trailer.
제 1 항에 있어서,
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 장치.
The method of claim 1,
the first sensor is a lidar (LiDAR);
The second sensor is a radar (RADAR) object recognition device for a vehicle.
견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은,
상기 트랙터에 설치되는 제 1 센서를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하는 단계와;
상기 굴절각을 이용하여 상기 트레일러에 설치되는 제 2 센서의 좌표를 보정하는 단계와;
상기 제 2 센서의 보정된 좌표를 이용하여 상기 제 2 센서의 탐지 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.
In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle comprises:
detecting an angle of refraction between the tractor and the trailer using a first sensor installed in the tractor;
correcting the coordinates of a second sensor installed in the trailer using the refraction angle;
and recognizing the position of the detection object of the second sensor by using the corrected coordinates of the second sensor.
제 9 항에 있어서,
상기 제 1 센서의 좌표와 상기 제 2 센서의 좌표를 융합하는 단계와;
상기 융합된 좌표와 상기 제 2 센서의 보정된 좌표 사이의 보정 변수를 구하는 단계와;
상기 제 2 센서의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 제 2 센서의 단독 검출 객체의 위치를 인식하는 단계를 더 포함하는 차량의 객체 인식 방법.
10. The method of claim 9,
fusing the coordinates of the first sensor and the coordinates of the second sensor;
obtaining a correction variable between the fused coordinates and the corrected coordinates of the second sensor;
and recognizing the position of the single detection object of the second sensor by applying the correction variable to the coordinates of the single detection object of the second sensor.
제 10 항에 있어서,
상기 제 1 센서와 상기 제 2 센서의 공동 검출 객체가 존재할 때 상기 좌표 융합을 실시하는 차량의 객체 인식 방법.
11. The method of claim 10,
An object recognition method of a vehicle for performing the coordinate fusion when there is a joint detection object of the first sensor and the second sensor.
제 10 항에 있어서,
상기 제 2 센서의 단독 검출 객체만이 존재할 때 상기 좌표 융합을 실시하지 않는 차량의 객체 인식방법.
11. The method of claim 10,
An object recognition method of a vehicle that does not perform the coordinate fusion when only the single detection object of the second sensor exists.
제 9 항에 있어서,
상기 탐지 객체의 위치 인식을 통해 상기 차량의 사각 지대 검출을 실시하는 차량의 객체 인식 방법.
10. The method of claim 9,
An object recognition method of a vehicle for detecting a blind spot of the vehicle through location recognition of the detection object.
제 9 항에 있어서,
상기 탐지 객체의 위치 인식 결과를 이용하여 상기 차량의 자율 주행을 제어하는 차량의 객체 인식 방법.
10. The method of claim 9,
An object recognition method of a vehicle for controlling autonomous driving of the vehicle by using a position recognition result of the detection object.
제 9 항에 있어서,
상기 제 2 센서가 상기 트레일러의 후미 양단에 각각 1개씩 설치되는 차량의 객체 인식 방법.
10. The method of claim 9,
The method for recognizing an object of a vehicle in which the second sensor is installed one at both ends of the rear of the trailer.
제 9 항에 있어서,
상기 제 1 센서는 라이더(LiDAR)이고;
상기 제 2 센서는 레이더(RADAR)인 차량의 객체 인식 방법.
10. The method of claim 9,
the first sensor is a lidar (LiDAR);
The second sensor is a radar (RADAR) object recognition method of a vehicle.
견인을 위한 트랙터와;
화물 탑재를 위해 상기 트랙터에 연결되는 트레일러와;
상기 트랙터에 설치되는 라이더와;
상기 트레일러의 후미에 설치되는 레이더와;
상기 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 제어부를 포함하되,
상기 제어부는, 상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 차량의 객체 인식 장치.
a tractor for towing;
a trailer connected to the tractor for loading cargo;
a rider installed on the tractor;
a radar installed at the rear of the trailer;
A control unit for detecting a refraction angle between the tractor and the trailer using the lidar, correcting the coordinates of the radar using the refraction angle, and recognizing the position of the detection object of the radar using the corrected coordinates of the radar including,
The control unit fuses the coordinates of the radar with the coordinates of the radar, obtains a correction variable between the fused coordinates and the corrected coordinates of the radar, and applies the correction variable to the coordinates of the single detection object of the radar. A vehicle object recognition device for recognizing the position of the single detection object of the radar.
견인을 위한 트랙터에 화물 탑재를 위한 트레일러가 연결되는 차량에 있어서, 상기 차량의 객체 인식 방법은,
상기 트랙터에 설치되는 라이더를 이용하여 상기 트랙터와 상기 트레일러 사이의 굴절각을 검출하고, 상기 굴절각을 이용하여 상기 트레일러에 설치되는 레이더의 좌표를 보정하며, 상기 레이더의 보정된 좌표를 이용하여 상기 레이더의 탐지 객체의 위치를 인식하는 단계와;
상기 라이더의 좌표와 상기 레이더의 좌표를 융합하고, 상기 융합된 좌표와 상기 레이더의 보정된 좌표 사이의 보정 변수를 구하며, 상기 레이더의 단독 검출 객체의 좌표에 상기 보정 변수를 적용하여 상기 레이더의 단독 검출 객체의 위치를 인식하는 단계를 포함하는 차량의 객체 인식 방법.
In a vehicle in which a trailer for loading cargo is connected to a tractor for towing, the object recognition method of the vehicle comprises:
The refraction angle between the tractor and the trailer is detected using the lidar installed in the tractor, the coordinates of the radar installed in the trailer are corrected using the refraction angle, and the coordinates of the radar are corrected using the corrected coordinates of the radar. recognizing the location of the detection object;
Fusing the coordinates of the radar and the coordinates of the radar, obtaining a correction variable between the fused coordinates and the corrected coordinates of the radar, and applying the correction variable to the coordinates of the single detection object of the radar A method of recognizing an object in a vehicle, comprising recognizing a position of a detection object.
KR1020170169968A 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle KR102366441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Publications (2)

Publication Number Publication Date
KR20190069747A KR20190069747A (en) 2019-06-20
KR102366441B1 true KR102366441B1 (en) 2022-02-23

Family

ID=67103520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169968A KR102366441B1 (en) 2017-12-12 2017-12-12 Object recognition apparatus and method for vehicle

Country Status (1)

Country Link
KR (1) KR102366441B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114176A (en) 2000-10-11 2002-04-16 Isuzu Motors Ltd Trailer connecting angle detecting device
KR101714233B1 (en) 2015-10-06 2017-03-08 현대자동차주식회사 Apparatus for detecting objects on the road and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100068917A (en) * 2008-12-15 2010-06-24 현대모비스 주식회사 Apparatus for compensating error of ladar sensor in vehicle
KR20160081506A (en) * 2014-12-31 2016-07-08 현대모비스 주식회사 Alignment correction system and a control method of a radar and the side of the vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114176A (en) 2000-10-11 2002-04-16 Isuzu Motors Ltd Trailer connecting angle detecting device
KR101714233B1 (en) 2015-10-06 2017-03-08 현대자동차주식회사 Apparatus for detecting objects on the road and method thereof

Also Published As

Publication number Publication date
KR20190069747A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
US11400977B2 (en) Vehicle guidance system
JP7124117B2 (en) Trailer detection and autonomous hitching
US11511713B2 (en) Electronic device for determining an emergency stopping trajectory of an autonomous vehicle, related vehicle and method
EP3380392B1 (en) Auto docking method for application in heavy trucks
WO2017204107A1 (en) Target detection device
WO2016063532A1 (en) In-vehicle object determining apparatus
CN102066186A (en) Method for supporting a driver of a vehicle while parking in a parking space
US11250276B2 (en) Object height determination for automated vehicle steering control system
JP6523050B2 (en) Mining work machine
JP6386412B2 (en) Transport vehicle
WO2015098344A1 (en) Mining work machine
US20200079425A1 (en) Method and assembly for validity-checking and/or (re)initializing rear wheel steering
US20200300967A1 (en) Sensor verification
WO2017145845A1 (en) Collision prediction apparatus
US9310805B2 (en) Method and system for maneuvering a mobile mining machine in a tunnel and a mobile mining machine
US10899349B2 (en) Centering a vehicle in a lane using environmental information to correct a predicted trajectory
US20190130759A1 (en) System and Method for Determining When an Object Detected by a Collision Avoidance Sensor on One Member of an Articulated Vehicle Comprises Another Member of the Vehicle
WO2019203160A1 (en) Driving assistance system and method
US20200290604A1 (en) Method for controlling driving of autonomous vehicle
KR102366441B1 (en) Object recognition apparatus and method for vehicle
WO2018179965A1 (en) Obstacle sensing device
US20230161355A1 (en) Control system of dump truck
US12054165B2 (en) Vehicle localization
JP2018199458A (en) Reverse parking assist device of combination vehicle
US20190225215A1 (en) Vehicle control system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right