KR20230072126A - System and method for driving control through fusion of sensors between vehicles - Google Patents

System and method for driving control through fusion of sensors between vehicles Download PDF

Info

Publication number
KR20230072126A
KR20230072126A KR1020210158535A KR20210158535A KR20230072126A KR 20230072126 A KR20230072126 A KR 20230072126A KR 1020210158535 A KR1020210158535 A KR 1020210158535A KR 20210158535 A KR20210158535 A KR 20210158535A KR 20230072126 A KR20230072126 A KR 20230072126A
Authority
KR
South Korea
Prior art keywords
vehicle
matching
vehicles
control system
data
Prior art date
Application number
KR1020210158535A
Other languages
Korean (ko)
Inventor
이재영
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020210158535A priority Critical patent/KR20230072126A/en
Priority to EP22206116.0A priority patent/EP4184480A3/en
Priority to US18/055,817 priority patent/US20230154199A1/en
Publication of KR20230072126A publication Critical patent/KR20230072126A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a driving control system through sensor fusion between vehicles and a method thereof. According to the present invention, sensor data is shared between the vehicles and the sensor data are fused to match the sensor data with an adjacent vehicle. Therefore, recognition of surroundings is improved, and driving is controlled according to environment change of the surroundings and a driving status of other vehicles. As a result, the sensor data from the other vehicles is received. Additionally, coordinates of the sensor data of the matched vehicle are converted and fused with own vehicle sensor information. Therefore, recognition performance and accuracy for the surrounding environment and an object are improved, and autonomous driving is performed stably. Additionally, stability of the vehicle is improved. The driving control system through the sensor fusion between the vehicles of the present invention comprises: a camera unit; a sensing unit; a video recognizing unit; a communicating unit; a data processing unit; a coordinates converting unit; and a controlling unit.

Description

차량 간 센서 퓨전을 통한 주행 제어 시스템 및 그 방법{SYSTEM AND METHOD FOR DRIVING CONTROL THROUGH FUSION OF SENSORS BETWEEN VEHICLES}Driving control system and method through sensor fusion between vehicles

본 발명은 차량 간 통신을 통해 센서데이터를 공유하여 융합된 센서데이터를 이용하여 인접한 적어도 하나의 차량을 인식하고, 센서데이터와 인식 한 차량의 주행에 대응하여 주행을 제어하는 차량 간 센서 퓨전을 통한 주행 제어 시스템 및 그 방법에 관한 것이다. The present invention shares sensor data through vehicle-to-vehicle communication, recognizes at least one adjacent vehicle using the fused sensor data, and controls driving in response to the sensor data and the recognized vehicle's driving through sensor fusion between vehicles. It relates to a driving control system and method therefor.

자율주행 자동차는 운전자의 개입 없이 주변 환경을 인식하고, 주행 상황을 판단하여 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 자동차이다. An autonomous vehicle is a vehicle that drives to a given destination by itself by recognizing the surrounding environment, determining the driving situation, and controlling the vehicle without driver intervention.

자동차는 지도정보 및 획득되는 정보를 바탕으로 조향각을 제어함으로써 주행방향을 제어하며 자율주행을 수행한다. 자동차는 복수의 센서, 카메라, 위치정보 등을 이용하여 주행 중에 주변에 위치하는 다른 차량이나 도로정보 등을 획득하고, 획득된 데이터를 바탕으로 주행을 제어한다. Vehicles perform autonomous driving by controlling the driving direction by controlling the steering angle based on map information and acquired information. A vehicle acquires other vehicles or road information located nearby while driving using a plurality of sensors, cameras, location information, etc., and controls driving based on the acquired data.

자동차는 도로를 단독 주행하는 것이 아니므로, 주변의 차량의 위치를 파악하고, 주변 차량의 위치 변화에 따라 차량 간의 충돌을 방지하면서 주행을 제어할 필요가 있다. Since a car does not drive alone on the road, it is necessary to determine the location of surrounding vehicles and control driving while preventing collisions between vehicles according to changes in the location of surrounding vehicles.

일반적으로 HDMap(High-Definition Map)과 GPS를 통한 위치 인식이 정밀하다면, V2X(Vehicle to anything)를 통하여 각 객체의 좌표 정보를 실시간으로 공유함으로써 센서 없이 자동차에 자율 주행 시스템을 구현 할 수 있다. In general, if location recognition through HDMap (High-Definition Map) and GPS is precise, an autonomous driving system can be implemented in a car without a sensor by sharing coordinate information of each object in real time through V2X (Vehicle to anything).

그러나 HDMap을 유지 보수 과정이 실시간으로 발생할 수 없으며, GPS 좌표 오차와 음영 지대로 인하여 위치 인식이 어렵다는 문제가 있다. However, the HDMap maintenance process cannot occur in real time, and location recognition is difficult due to GPS coordinate error and shaded areas.

더욱이 다양한 환경에서 V2X를 사용하여 실시간으로 주변 객체 정보를 안정적으로 공유 받아야 하나, 안정성에 한계가 있고 과거 생산된 차량 정보는 알 수 없으므로 대부분의 자율 주행 자동차는 센서를 통해 주변 환경을 인식하여 자율 주행을 제어한다. Moreover, although it is necessary to stably share information about objects in real time using V2X in various environments, there is a limit to stability and information about vehicles produced in the past cannot be known. Therefore, most autonomous vehicles recognize the surrounding environment through sensors and drive autonomously to control

자동차에 적용되는 자율 주행 시스템은, 일반적으로 초음파 센서, 카메라, RADAR 그리고 LiDAR를 이용하여 주변 환경을 인식한다. Autonomous driving systems applied to automobiles generally recognize the surrounding environment using ultrasonic sensors, cameras, RADAR, and LiDAR.

초음파 센서, RADAR 그리고 LiDAR는 대기 중으로 초음파, 전자기파 그리고 빛을 송신한 후 반사된 신호를 처리하여 주변에 장애물 유무를 판단한다. 따라서 주행 상황 속에서 매질의 변화에 따라 인식 성능이 변하는 문제가 있다. Ultrasonic sensors, RADAR, and LiDAR transmit ultrasonic waves, electromagnetic waves, and light into the air, and then process the reflected signal to determine whether there are obstacles around. Therefore, there is a problem in that recognition performance changes according to a change in a medium in a driving situation.

카메라는 사람의 시각 정보와 유사하게 장애물뿐만 아니라 차선 등의 도로 정보도 제공 가능하다. 하지만, 객체와 배경의 조합으로 나타나는 다양한 패턴을 모두 인식하는 것은 쉽지 않고, 특히 객체와 배경이 유사할 때 인식 성능이 저하되는 문제점이 있다. Similar to human visual information, the camera can provide road information such as lanes as well as obstacles. However, it is not easy to recognize all of the various patterns appearing as a combination of an object and a background, and there is a problem in that recognition performance is degraded, especially when the object and the background are similar.

이러한 자율주행 자동차는 아직까지는 인간이 정상적으로 운전하는 것처럼 완벽하지 않아, 부분적으로 돌발상황이 발생할 수 있다. These self-driving cars are not yet perfect like humans driving normally, so unexpected situations may occur partially.

대한민국 등록특허 제10-2205299호에는 차량 간 데이터를 공유하여 차선을 변경하는 방법이 개시되어 있다. 해당 기술은 차량 간 통신을 통해 안전 메시지를 송수신하여 통신 지연 시간을 고려하여 다른 차량의 위치를 예상함으로써 차선을 이동하는 기술을 설명한다. Korean Patent Registration No. 10-2205299 discloses a method for changing lanes by sharing data between vehicles. This technology describes a technology for moving a lane by predicting the position of another vehicle in consideration of communication delay time by transmitting and receiving a safety message through vehicle-to-vehicle communication.

그러나 공유 데이터의 안정성에 한계가 있고, 일정 거리 내의 인접한 차량에 대한 데이터를 반영하여 주변의 차량을 인식하는 것은 아니므로 한계가 있다. However, there is a limit to the stability of shared data, and there is a limit because it does not recognize surrounding vehicles by reflecting data on adjacent vehicles within a certain distance.

따라서 하나의 센서가 갖는 인식 성능의 한계를 극복하기 위하여 자율 주행 시스템은 각 센서 신호를 처리하여 얻은 정보를 융합하며, 보다 높은 신뢰도의 정보를 생성하여 차량 제어에 사용할 방안이 필요하다. Therefore, in order to overcome the limitations of recognition performance of a single sensor, an autonomous driving system needs a method of fusing information obtained by processing each sensor signal, generating higher reliability information, and using it for vehicle control.

대한민국 등록특허 제10-2205299호Republic of Korea Patent No. 10-2205299

본 발명은 상기와 같은 필요성에 의해 창출된 것으로서, 차량 간 센서 데이터를 공유하고 센서데이터를 융합하여 인접 한 차량과 센서 데이터를 매칭함으로써 주변의 환경을 인식하는 차량 간 센서 퓨전을 통한 주행 제어 시스템 및 그 방법을 제공하는 데 그 목적이 있다. The present invention was created due to the above needs, and a driving control system through sensor fusion between vehicles that recognizes the surrounding environment by sharing sensor data between vehicles, fusing sensor data, and matching sensor data with adjacent vehicles, and Its purpose is to provide that method.

본 발명은 센서 데이터의 융합을 통해 주행 환경 인식에 사용되는 센서의 수를 증가시키고, 주변에 대한 인식 성능을 향상시키고 주변의 환경 변화 및 다른 차량의 주행 상태에 따라 주행을 제어하는 차량 간 센서 퓨전을 통한 주행 제어 시스템 및 그 방법을 제공하는 데 그 목적이 있다.The present invention increases the number of sensors used for recognizing the driving environment through the fusion of sensor data, improves the recognition performance of the surroundings, and controls the driving according to changes in the surrounding environment and the driving state of other vehicles. Sensor fusion between vehicles Its purpose is to provide a driving control system and method through

상기한 목적을 달성하기 위하여 본 발명에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템은, 복수의 카메라를 포함하여 차량 주변의 영상을 촬영하는 카메라부; 차량의 위치를 측정하고, 차량 주변의 객체를 감지하는 감지부; 상기 카메라부로부터 촬영된 영상을 분석하여 주변에 위치하는 제2 차량의 번호판을 인식하고 차량번호를 추출하는 영상인식부; 안전메시지(BSM, Basic Safety Message)의 옵션 필드에, 상기 감지부로부터 획득된 센서데이터와 차량번호를 포함하여 일정 거리 내에 위치하는 복수의 차량과 V2X(Vehicle to anything) 방식으로 통신하는 통신부; 상기 차량번호, 상기 복수의 차량의 위치 및 동작 중 적어도 하나를 기반으로, 상기 복수의 차량과 복수의 안전메시지를 매칭하는 데이터처리부; 매칭이 완료된 상기 제2 차량의 안전메시지로부터 센서데이터를 추출하여, 자차 기준으로 좌표를 변환하는 좌표변환부; 및 상기 제2 차량에 대한 매칭 결과를 바탕으로, 상기 감지부의 데이터와 상기 제2 차량의 센서데이터를 융합하여 획득되는 차량 주변에 대한 정보를 기반으로 주행을 제어하는 제어부; 를 포함한다. In order to achieve the above object, a driving control system through vehicle-to-vehicle sensor fusion according to the present invention includes a camera unit including a plurality of cameras to capture images around the vehicle; a sensing unit that measures the position of the vehicle and detects objects around the vehicle; an image recognition unit for analyzing an image captured by the camera unit, recognizing a license plate of a second vehicle located nearby, and extracting a license plate number; A communication unit that communicates with a plurality of vehicles located within a certain distance, including the sensor data and vehicle number obtained from the sensor data and the V2X (Vehicle to anything) method in an option field of a safety message (BSM, Basic Safety Message); a data processing unit matching the plurality of vehicles and the plurality of safety messages based on at least one of the vehicle number and the location and operation of the plurality of vehicles; a coordinate conversion unit extracting sensor data from the safety message of the second vehicle for which matching has been completed and converting coordinates based on the vehicle; and a control unit controlling driving based on information about surroundings of the vehicle obtained by merging data of the sensing unit and sensor data of the second vehicle based on a matching result of the second vehicle. includes

상기 데이터처리부는 상기 제2 차량의 차량번호와, 상기 복수의 안전메시지에 포함된 차량번호를 비교하여, 차량번호가 일치하는 안전메시지를 상기 제2 차량과 매칭하고, 상기 복수의 차량 중 번호판을 인식할 수 없는 제3 차량에 대하여, 상기 복수의 안전메시지에 포함되는 정보를 기반으로 상기 복수의 차량의 위치와 동작을 분석하고, 상기 감지부를 통해 감지되는 상기 제3 차량의 데이터와 비교하여, 상기 제3 차량을 매칭하는 것을 특징으로 한다. The data processing unit compares the vehicle number of the second vehicle with the vehicle numbers included in the plurality of safety messages, matches a safety message having the same vehicle number with the second vehicle, and selects a number plate among the plurality of vehicles. For an unrecognizable third vehicle, the location and operation of the plurality of vehicles are analyzed based on the information included in the plurality of safety messages, and compared with data of the third vehicle detected through the sensor unit, Characterized in that the third vehicle is matched.

상기 데이터처리부는, 상기 감지부를 통해 감지되는 상기 제3 차량의 위치정보, 동작정보 및 객체정보 중 적어도 하나와 상기 복수의 안전메시지에 포함되는 데이터를 비교하여 오차 범위 내에서 일치하는 안전메시지를 상기 제3 차량과 매칭하는 것을 특징으로 한다. The data processing unit compares at least one of location information, operation information, and object information of the third vehicle detected through the sensor with data included in the plurality of safety messages to generate a safety message that matches within an error range. It is characterized by matching with a third vehicle.

상기 데이터처리부는 매칭된 차량에 대한 신규 트랙을 생성하여 등록하고, 기 매칭된 데이터에 포함되는 적어도 하나의 매칭후보 중, 일정 기간 동안의 매칭에 성공한 매칭후보를 확인된 매칭으로 변경하고, 적어도 하나의 확인된 매칭 중 상기 일정 기간 동안의 매칭되지 않은 확인된 매칭을 매칭후보로 전환하며, 상기 적어도 하나의 매칭후보 중 상기 일정 기간 동안 매칭되지 않은 매칭후보에 대한 트랙을 삭제하여, 상기 복수의 차량에 대한 매칭결과를 관리하는 것을 특징으로 한다. The data processing unit creates and registers a new track for the matched vehicle, changes a matching candidate that has successfully matched for a certain period of time among at least one matching candidate included in the previously matched data to a confirmed match, and Among the confirmed matches, a confirmed match that has not been matched for a certain period of time is converted into a matching candidate, and a track for a matching candidate that has not been matched for the certain period of time is deleted from among the at least one matching candidate, so that the plurality of vehicles are matched. It is characterized in that it manages the matching result for.

상기 좌표변환부는 상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하고, 상기 제4 차량의 좌표를 자차기준으로 좌표변환하는 것을 특징으로 한다. The coordinate conversion unit acquires the coordinates of the fourth vehicle detected by the second vehicle from sensor data included in the safety message of the second vehicle, and converts the coordinates of the fourth vehicle based on the own vehicle. to be characterized

상기 좌표변환부는 지자기센서가 포함된 경우, 상기 지자기센서에 의해 감지되는, 북쪽(N극)을 기준으로 차량의 진행방향 각도와 상기 제2 차량의 진행방향 각도를 바탕으로, 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하고, 지자기센서가 포함되지 않은 경우, 각 차량이 주행중인 차로의 차선과 진행방향의 차이를 바탕으로 상기 제4 차량의 좌표를 변환하는 것을 특징으로 한다.When the coordinate conversion unit includes a geomagnetic sensor, based on the traveling direction angle of the vehicle based on the north (N pole) detected by the geomagnetic sensor and the traveling direction angle of the second vehicle, in the second vehicle Coordinate conversion of the detected coordinate value of the fourth vehicle, and when the geomagnetic sensor is not included, the coordinate conversion of the fourth vehicle based on a difference between a lane and a driving direction of a lane in which each vehicle is traveling Characterized in that do.

본 발명에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 동작방법은, 복수의 카메라를 통해 차량 주변의 영상을 촬영하고, 차량의 위치 및 차량 주변의 객체를 감지하는 단계; 상기 영상으로부터 제2 차량의 번호판을 인식하여, 차량번호를 추출하는 단계; 안전메시지(BSM, Basic Safety Message)의 옵션 필드에, 센서데이터와 차량번호를 포함하여 일정 거리 내의 복수의 차량과 V2X(Vehicle to anything) 방식으로 통신하는 단계; 상기 차량번호, 상기 복수의 차량의 위치 및 동작 중 적어도 하나를 기반으로, 상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계; 매칭이 완료된 상기 제2 차량의 안전메시지로부터 센서데이터를 추출하여, 자차 기준으로 좌표를 변환하는 단계; 상기 제2 차량에 대한 매칭 결과를 바탕으로, 자차의 센서 데이터와 상기 제2 차량의 센서데이터를 융합하여 차량 주변에 대한 정보를 획득하는 단계; 및 획득된 정보를 기반으로 자율 주행하는 단계; 를 포함한다. A method of operating a driving control system through inter-vehicle sensor fusion according to the present invention includes the steps of photographing an image around a vehicle through a plurality of cameras, and sensing a location of the vehicle and an object around the vehicle; Recognizing the license plate of the second vehicle from the image and extracting the vehicle number; In the optional field of the safety message (BSM, Basic Safety Message), communicating with a plurality of vehicles within a certain distance, including sensor data and vehicle number, in a V2X (Vehicle to anything) method; matching the plurality of vehicles and the plurality of safety messages based on at least one of the vehicle number, locations and operations of the plurality of vehicles; extracting sensor data from the safety message of the second vehicle for which matching has been completed, and converting coordinates based on the vehicle; obtaining information about surroundings of the vehicle by fusing sensor data of the host vehicle and sensor data of the second vehicle based on a matching result of the second vehicle; and autonomous driving based on the acquired information. includes

상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는, 번호판이 인식된 상기 제2 차량의 차량번호와, 상기 복수의 안전메시지에 포함된 차량번호를 비교하는 단계; 및 상기 제2 차량과 차량번호가 일치하는 제2안전메시지를 상기 제2 차량과 매칭하는 단계; 를 더 포함한다. The matching of the plurality of vehicles and the plurality of safety messages may include comparing the vehicle number of the second vehicle whose license plate is recognized with the vehicle number included in the plurality of safety messages; and matching a second safety message whose vehicle number matches the second vehicle with the second vehicle. more includes

상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는, 감지부에 구비되는 복수의 센서를 이용하여, 번호판이 인식되지 않은 제3 차량의 위치, 동작 및 차선 정보를 감지하는 단계; 상기 복수의 안전메시지에 포함되는 데이터를 기반으로 상기 복수의 차량의 위치, 동작 및 차선 정보 중 적어도 하나를 분석하는 단계; 상기 제3 차량의 안전메시지로 추정되는 적어도 하나의 매칭후보를 설정하는 단계; 및 상기 제3 차량의 데이터와 상기 매칭후보를 비교하여, 오차 범위 내에서 상기 제3 차량의 데이터와 일치하는 제3 안전메시지를 상기 제3 차량과 매칭하는 단계; 를 더 포함한다. The matching of the plurality of vehicles and the plurality of safety messages may include: sensing location, motion, and lane information of a third vehicle whose license plate is not recognized using a plurality of sensors provided in the sensing unit; analyzing at least one of location, operation, and lane information of the plurality of vehicles based on data included in the plurality of safety messages; setting at least one matching candidate estimated to be the safety message of the third vehicle; and comparing data of the third vehicle with the matching candidate, and matching a third safety message matching the data of the third vehicle with the third vehicle within an error range. more includes

매칭된 상기 제3 차량에 대하여, 신규 트랙을 생성하여 등록하는 단계; 기 매칭된 데이터에 포함되는 적어도 하나의 매칭후보 중, 일정 기간 동안의 매칭에 성공한 매칭후보를 확인된 매칭으로 변경하는 단계; 상기 기 매칭된 데이터로부터, 적어도 하나의 확인된 매칭 중 상기 일정 기간 동안의 매칭되지 않은 확인된 매칭을 매칭후보로 전환하는 단계; 및 상기 적어도 하나의 매칭후보 중 상기 일정 기간 동안 매칭되지 않은 매칭후보에 대한 트랙을 삭제하는 단계; 를 더 포함하고, 상기 누적되는 데이터를 바탕으로 매칭결과를 관리하는 것을 특징으로 한다. generating and registering a new track with respect to the matched third vehicle; changing a matching candidate that has successfully matched for a certain period of time among at least one matching candidate included in pre-matched data to a confirmed match; converting a confirmed match that has not been matched during the predetermined period among at least one confirmed match from the pre-matched data into a matching candidate; and deleting a track of a matching candidate that has not been matched for the predetermined period of time among the at least one matching candidate. It is characterized in that it further includes, and manages matching results based on the accumulated data.

상기 좌표를 변환하는 단계는, 상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하는 단계; 지자기센서가 포함된 경우, 상기 지자기센서에 의해 감지되는, 북쪽(N극)을 기준으로 차량의 진행방향 각도와 상기 제2 차량의 진행방향 각도를 산출하는 단계; 각 차량의 진행방향 각도를, 상기 제4 차량에 대한 회전축의 차이만큼 회전하여 회전을 보상하는 단계; 상기 차량과 상기 제2 차량의 거리, 상기 제2 차량과 상기 제4 차량의 거리, 상기 제4 차량에 대한 회전각을 이용하여 변환을 보상하는 단계; 및 회전 보상과 변화 보상을 이용하여 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하는 단계; 를 더 포함한다.The converting of the coordinates may include: acquiring coordinates of a fourth vehicle sensed by the second vehicle from sensor data included in the safety message of the second vehicle; If a geomagnetic sensor is included, calculating a traveling direction angle of the vehicle and a traveling direction angle of the second vehicle based on north (N pole), detected by the geomagnetic sensor; Compensating for the rotation by rotating an angle of the direction of travel of each vehicle by a difference in a rotation axis with respect to the fourth vehicle; compensating for the transformation using a distance between the vehicle and the second vehicle, a distance between the second vehicle and the fourth vehicle, and a rotation angle with respect to the fourth vehicle; and converting coordinate values of the fourth vehicle sensed by the second vehicle using rotation compensation and change compensation. more includes

상기 좌표를 변환하는 단계는, 상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하는 단계; 지자기센서가 포함되지 않은 경우, 각 차량이 주행중인 차로의 차선과 진행방향의 차이를 산출하는 단계; 상기 차선의 접선 기울기의 변화를 산출하는 단계; 상기 차선과 진행방향의 차이와 상기 차선의 접선 기울기의 변화를 이용하여 회전각을 산출하는 단계; 및 상기 회전각에 대응하여, 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하는 단계; 를 더 포함한다. The converting of the coordinates may include: acquiring coordinates of a fourth vehicle sensed by the second vehicle from sensor data included in the safety message of the second vehicle; calculating a difference between a lane of a lane in which each vehicle is driving and a driving direction when the geomagnetic sensor is not included; calculating a change in the tangent slope of the lane; Calculating a rotation angle using a difference between the lane and the driving direction and a change in the slope of the tangential line of the lane; and converting the coordinate values of the fourth vehicle detected by the second vehicle in correspondence with the rotation angle. more includes

상기 통신하는 단계는, 상기 옵션 필드에, 복수의 센서로부터 감지되는 차선, 다른 차량, 객체, 교통신호 및 교통정보 중 적어도 하나를 포함하는 센서데이터와 차량번호를 포함하는 상기 안전메시지를 상기 복수의 차량으로부터 수신하는 것을 특징으로 한다.The communicating may include sending the safety message including sensor data including at least one of a lane detected by a plurality of sensors, another vehicle, an object, a traffic signal, and traffic information and a vehicle number in the option field to the plurality of sensors. Characterized in that it is received from the vehicle.

일 측면에 따르면, 본 발명의 차량 간 센서 퓨전을 통한 주행 제어 시스템 및 그 방법은, 다른 차량의 센서데이터를 융합하여 사용함으로써, 주변 환경 및 객체에 대한 인식 성능을 향상시키는 효과가 있다. According to one aspect, the driving control system and method through vehicle-to-vehicle sensor fusion of the present invention have an effect of improving recognition performance for the surrounding environment and objects by fusion and using sensor data of different vehicles.

본 발명은 일 측면에 따르면, 매칭된 차량의 센서 데이터의 좌표를 변환하여 자차의 센서 데이터와 융합함으로써, 주변에 위치하는 차량이나 객체를 쉽게 인식할 수 있고, 인식의 정확도를 향상시키며, 충돌 등으로 인한 사고를 예방하고 차량의 안정성을 향상시키는 효과가 있다. According to one aspect of the present invention, by converting the coordinates of the sensor data of the matched vehicle and fusing with the sensor data of the own vehicle, it is possible to easily recognize a vehicle or object located in the surroundings, improve the accuracy of recognition, and improve collision, etc. It has the effect of preventing accidents and improving vehicle stability.

본 발명은 인접한 차량의 수에 따라 융합 가능한 센서 데이터의 수가 증가하므로 인식 가능한 범위가 확대되고 안정적인 자율 주행이 가능하며, 높은 신뢰도를 갖는 인식 데이터를 생성할 수 있으므로 자율 주행 단계를 상승 시킬 수 있다. According to the present invention, since the number of sensor data that can be fused increases according to the number of adjacent vehicles, the recognizable range is expanded, stable autonomous driving is possible, and recognition data having high reliability can be generated, so the level of autonomous driving can be raised.

도 1 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 구성이 간략하게 도시된 블록도이다.
도 2 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 위해 사용되는 데이터를 설명하는 데 참조되는 도이다.
도 3 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 차량 인식방법을 설명하는 데 참조되는 예시도이다.
도 4 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 센서 퓨전 방법이 도시된 순서도이다.
도 5 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 위치정보를 이용한 차량 매칭을 설명하는 데 참조되는 도이다.
도 6 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 위치정보를 이용한 차량 매칭방법이 도시된 순서도이다.
도 7 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 매칭된 데이터의 관리방법이 도시된 순서도이다.
도 8 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 좌표변환을 설명하는 데 참조되는 예시도이다.
도 9 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 차량 매칭에 대한 예가 도시된 예시도이다.
도 10 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 주행 제어 방법이 도시된 순서도이다.
1 is a block diagram briefly illustrating the configuration of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
2 is a reference diagram for describing data used for inter-vehicle sensor fusion according to an embodiment of the present invention.
3 is an exemplary diagram referenced to describe a vehicle recognition method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
4 is a flowchart illustrating a sensor fusion method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
5 is a reference diagram for explaining vehicle matching using location information of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
6 is a flowchart illustrating a vehicle matching method using location information of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
7 is a flowchart illustrating a method of managing matched data of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
8 is an exemplary view referenced to describe coordinate conversion of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
9 is an exemplary view illustrating an example of vehicle matching of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.
10 is a flowchart illustrating a driving control method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명을 설명하도록 한다.Hereinafter, the present invention will be described with reference to the accompanying drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.

도 1 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 구성이 간략하게 도시된 블록도이다. 1 is a block diagram briefly illustrating the configuration of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 주행 제어 시스템은, 카메라부(170), 감지부(160), 데이터부(180), 통신부(150), 영상인식부(120), 데이터처리부(130), 좌표변환부(140), 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 1, the driving control system includes a camera unit 170, a sensing unit 160, a data unit 180, a communication unit 150, an image recognition unit 120, a data processing unit 130, and coordinates. It includes a conversion unit 140 and a control unit 110 that controls the overall operation.

주행 제어 시스템은, 모터(미도시) 등의 동력원을 제어하는 구동부(미도시), 배터리를 관리하는 배터리 관리시스템(미도시), 브레이크 시스템(미도시), 조향시스템(미도시)을 더 포함하나, 그에 대한 설명은 하기에서 생략하기로 한다. The driving control system further includes a driving unit (not shown) for controlling a power source such as a motor (not shown), a battery management system (not shown) for managing a battery, a brake system (not shown), and a steering system (not shown). However, a description thereof will be omitted below.

감지부(160)는 복수의 센서를 포함하여, 자동차 주변에 인접한 객체, 예를 들어 다른 자동차를 감지하고 자동차의 주변 환경 및 도로정보를 감지한다. The sensing unit 160 includes a plurality of sensors to detect an object adjacent to the vehicle, for example, another vehicle, and to detect the surrounding environment and road information of the vehicle.

감지부(160)는 차량의 위치를 감지하는 위치센서(161), 주변의 객체를 감지하는 장애물센서(162)를 포함한다. The sensing unit 160 includes a position sensor 161 for detecting the position of the vehicle and an obstacle sensor 162 for detecting surrounding objects.

위치센서(161)는 GPS센서를 포함하고, 다른 기기와의 통신을 통해 현재 자동차의 위치를 감지할 수 있는 센서가 구비된다. 위치센서(161)는 UWB방식을 이용하여 송수신되는 신호를 분석하여 위치를 감지하는 센서를 포함할 수 있다. The position sensor 161 includes a GPS sensor, and is provided with a sensor capable of detecting the current position of the vehicle through communication with other devices. The position sensor 161 may include a sensor that detects a position by analyzing a signal transmitted and received using the UWB method.

장애물센서(162)는 자동차로부터 일정 거리 내에 위치하는 객체를 감지한다. 장애물센서(162)는 적외선센서, 초음파센서, 레이저센서, RADAR 및 LiDAR 중 적어도 하나를 포함한다. 장애물센서(162)는 감지되는 객체와의 거리를 측정할 수 있다. The obstacle sensor 162 detects an object located within a predetermined distance from the vehicle. The obstacle sensor 162 includes at least one of an infrared sensor, an ultrasonic sensor, a laser sensor, RADAR, and LiDAR. The obstacle sensor 162 may measure a distance to a detected object.

또한, 감지부(160)는 차속센서, 온도센서, 압력센서 등을 포함하여 자동차의 주행상태 및 차량 정보를 감지할 수 있다. In addition, the sensing unit 160 may detect the driving state of the vehicle and vehicle information by including a vehicle speed sensor, a temperature sensor, a pressure sensor, and the like.

카메라부(170)는 복수의 카메라(171, 172)를 포함하여 자동차의 주변에 대한 영상을 촬영한다. 카메라부(170)는 차량의 전면부의 어느 일측 또는 전면유리에 인접하게 설치되어 전면의 주행방향을 촬영하는 제1 카메라(171), 차량의 후미에 설치되어 후방 영상을 촬영하는 제2 카메라(172)를 포함한다. The camera unit 170 includes a plurality of cameras 171 and 172 to capture images of the surroundings of the vehicle. The camera unit 170 includes a first camera 171 installed adjacent to one side of the front of the vehicle or adjacent to the windshield to capture the driving direction of the front, and a second camera 172 installed at the rear of the vehicle to capture rear images. includes

또한, 카메라부(170)는 복수의 카메라를 이용하여 자동차(10)의 주변에 대한 서라운드뷰를 생성할 수 있다. Also, the camera unit 170 may generate a surround view of the surroundings of the vehicle 10 using a plurality of cameras.

카메라부(170)는 촬영된 영상을 제어부(110)로 인가하고, 영상데이터를 데이터부(180)에 저장한다. 카메라부(170)는 카메라의 영상신호를 일정 포맷의 영상데이터로 변환하는 영상처리부(미도시)를 더 포함할 수 있다. The camera unit 170 applies the captured image to the controller 110 and stores the image data in the data unit 180 . The camera unit 170 may further include an image processing unit (not shown) that converts an image signal of the camera into image data in a predetermined format.

데이터부(180)는 차량 제어를 위한 제어데이터와, 감지부(160)를 통해 감지되는 데이터, 통신부(150)를 통해 송수신되는 데이터, 촬영된 영상에 대한 데이터를 저장한다. The data unit 180 stores control data for vehicle control, data detected through the sensor 160, data transmitted and received through the communication unit 150, and data related to captured images.

통신부(150)는 복수의 통신모듈을 포함하여, 차량 내부의 데이터 송수신을 위한 CAN통신은 물론, 블루투스 등의 근거리 통신, 외부 서버 등과의 연결을 위한 무선 통신을 수행한다.The communication unit 150 includes a plurality of communication modules and performs CAN communication for transmitting and receiving data inside the vehicle, short-distance communication such as Bluetooth, and wireless communication for connection with an external server.

통신부(150)는 외부의 데이터베이스(DB)(미도시) 또는 도로정보를 제공하는 도로정보서버와 통신한다. 통신부(150)는 자동차의 현재 위치정보, 주행중인 도로의 정보, 교통정보, 도로정체정보, 도로 주변정보, 날씨정보 등을 수신한다. The communication unit 150 communicates with an external database (DB) (not shown) or a road information server that provides road information. The communication unit 150 receives current location information of the vehicle, road information on driving, traffic information, road congestion information, road surrounding information, weather information, and the like.

통신부(150)는 근거리통신모듈을 통해 운전자의 휴대 단말(미도시)과 연결될 수 있다. The communication unit 150 may be connected to a driver's portable terminal (not shown) through a short-range communication module.

통신부(150)는 인접한 다른 자동차와 통신한다. The communication unit 150 communicates with other nearby cars.

통신부(150)는 다른 자동차와 V2X(Vehicle to anything) 방식을 이용하여 통신함으로써 안전메시지(BSM)(Basic Safety Message)을 송수신한다. The communication unit 150 transmits and receives a basic safety message (BSM) by communicating with other vehicles using a vehicle to anything (V2X) method.

통신부(150)는 안전메시지(BSM)의 옵션 필드(Optional Field)에 센서 데이터를 포함하여 전송함으로써, 자동차 간에 상호 센서 데이터를 공유한다. The communication unit 150 transmits the sensor data by including the sensor data in the optional field of the safety message (BSM), thereby sharing sensor data between vehicles.

영상인식부(120)는 카메라부(170)로부터 촬영된 영상을 바탕으로 차량 주변에 위치하는 다른 차량의 번호판을 인식한다. The image recognition unit 120 recognizes license plates of other vehicles located around the vehicle based on the image captured by the camera unit 170 .

영상인식부(120)는 전방영상을 통해 전방에 위치하는 차량의 번호판을 인식하고, 후방영상을 통해 후방에 위치하는 차량의 번호판을 인식할 수 있다. The image recognition unit 120 may recognize a license plate of a vehicle located in the front through a front image, and recognize a license plate of a vehicle located in the rear through a rear image.

또한, 영상인식부(120)는 촬영된 영상을 기준으로 다른 차량의 움직임을 분석한다. 영상인식부(120)는 전, 후, 좌, 우에 위치한 차량에 대한 영상을 기반으로 차선의 이동, 가속 또는 감속 여부 등에 대한 동작을 분석한다. In addition, the image recognition unit 120 analyzes the movement of other vehicles based on the captured image. The image recognizing unit 120 analyzes movement of a lane, acceleration, or deceleration based on images of vehicles located in front, rear, left, and right directions.

데이터처리부(130)는 통신부를 통해 수신되는 안전메시지의 옵션필드에 포함된 정보를 추출하고, 추출된 데이터를 분석하여, 영상인식부(120)를 통해 인식되는 번호판과 매칭하여 차량을 구분한다. The data processing unit 130 extracts information included in the option field of the safety message received through the communication unit, analyzes the extracted data, and identifies the vehicle by matching it with a license plate recognized through the image recognition unit 120.

데이터처리부(130)는 번호판과 매칭되는 차량을 구분하고, 번호판 인식이 불가능한 경우, 영상을 기반으로 분석된 차량의 동작과 안전메시지의 데이터를 비교하여 차량을 매칭한다. The data processing unit 130 distinguishes vehicles that match license plates, and when license plate recognition is impossible, compares the operation of the vehicle analyzed based on the image with the data of the safety message to match the vehicle.

좌표변환부(140)는 안전메시지에 포함된 다른 차량의 데이터를 자차 기준으로 좌표를 변환한다. 좌표변환부(140)는 매칭된 차량에 대하여, 해당 차량에 대한 상대적 위치를 고려하여 좌표변환을 설정할 수 있다. The coordinate conversion unit 140 converts data of other vehicles included in the safety message into coordinates based on the own vehicle. The coordinate conversion unit 140 may set coordinate conversion in consideration of the relative position of the matched vehicle.

각 자동차는 자차 기준으로 위치 등에 대한 정보를 기록하므로, 좌표변환부(140)는 다른 차량으로부터 수신된 데이터를 분석하여 해당 차량 중심으로 설정된 좌표를 자차 기준으로 변환한다. Since each car records information about the location, etc. based on its own vehicle, the coordinate conversion unit 140 analyzes the data received from other vehicles and converts the coordinates set at the center of the corresponding vehicle into the own vehicle standard.

제어부(110)는 자율주행 시, 목적지까지의 경로를 설정하고, 감지부(160) 및 카메라부(170)를 통해 획득되는 도로정보, 주변환경, 인접한 다른 차량에 대한 정보를 기반으로 자율 주행 하도록 제어한다. 또한, 제어부(110)는 조향각을 제어하고, 차량이 가속하거나 감속하도록 구동을 제어하며, 브레이크 시스템(미도시)을 통해 차량이 정차하도록 한다.During autonomous driving, the control unit 110 sets a route to the destination and autonomously drives based on road information, surrounding environment, and information about other nearby vehicles acquired through the sensing unit 160 and the camera unit 170. Control. In addition, the controller 110 controls a steering angle, controls driving so that the vehicle accelerates or decelerates, and stops the vehicle through a brake system (not shown).

자율주행 방식은 이미 알려진 다양한 방식을 이용하여 수행될 수 있으므로 더 자세한 설명은 생략하기로 한다. Since the autonomous driving method may be performed using various known methods, a detailed description thereof will be omitted.

제어부(110)는 안전메시지와 번호판 인식을 통한 차량 매칭 결과, 안전메시지와 차량 동작을 통한 차량 매칭 결과를 바탕으로 인접한 차량을 인식하고, 각 차량의 동작을 추적한다. The control unit 110 recognizes adjacent vehicles based on vehicle matching results through safety message and license plate recognition and vehicle matching results through safety message and vehicle operation, and tracks the operation of each vehicle.

또한, 제어부(110)는 안전메시지를 통해, 매칭된 차량에서 인식한 다른 차량의 데이터를 수신하여 좌표변환부(140)를 통해 해당 차량의 센서데이터가 좌표변환되면, 이를 자차의 감지부(160)로부터 획득된 데이터와 융합하여, 주행을 제어한다. In addition, the control unit 110 receives the data of another vehicle recognized by the matched vehicle through the safety message, and when the coordinate conversion of the sensor data of the corresponding vehicle is coordinated through the coordinate conversion unit 140, it is converted to the sensor data of the own vehicle 160 ) to control the driving.

제어부(110)는 수신되는 안전메시지의 센서데이터를 기반으로 다른 차량의 동작을 분석하고, 다른 차량의 동작변화에 따라 주행을 제어한다. The control unit 110 analyzes the operation of another vehicle based on the sensor data of the received safety message, and controls driving according to changes in the operation of the other vehicle.

제어부(110)는 감지부(160)의 데이터뿐 아니라, 다른 차량에서 감지된 센서데이터를 이용할 수 있으므로, 보다 많은 정보를 획득할 수 있고, 사각 지대에 대한 정보 또한 획득할 수 있으므로, 주변 차량의 동작을 용이하게 추적하고, 주변에 대한 정보를 획득할 수 있다. Since the control unit 110 can use not only the data of the sensor 160 but also sensor data detected from other vehicles, more information can be obtained and information on blind spots can be obtained, so that the You can easily track motion and acquire information about your surroundings.

제어부(110)는 영상으로 인식되지 않는 차량이라도, 주행 차로로 진입하거나 전방 차량 중 어느 하나가 감속하는 경우 등, 차량의 동작변화에 대응하여 감속하거나 가속하여 주행을 제어한다. The controller 110 controls driving by decelerating or accelerating in response to a change in motion of a vehicle, such as when a vehicle that is not recognized as an image enters a driving lane or when one of the preceding vehicles decelerates.

제어부(110)는 차량 주행 중, 발생하는 이벤트, 인식된 차량의 동작 변화, 주행 중 변경 사항 등에 대하여 알림을 출력부(미도시)를 통해 안내메시지, 경고음, 효과음, 음성안내 및 경고등 중 적어도 하나의 조합으로 출력한다. The control unit 110 sends a notification about an event that occurs while the vehicle is driving, a change in recognized vehicle motion, a change during driving, etc. through an output unit (not shown) to at least one of a guide message, a warning sound, a sound effect, voice guidance, and a warning light. output as a combination of

따라서 자동차(10)의 주행 제어 시스템은 안전메시지(BSM)를 통해 전달받은 매칭된 차량의 센서 데이터를 좌표 변환을 통하여 자차 센서 정보와 융합함으로써, 다른 차량의 센서정보를 이용하여 주행 환경 인식에 사용되는 센서의 수를 증가시킬 수 있다. Therefore, the driving control system of the vehicle 10 fuses the sensor data of the matched vehicle transmitted through the safety message (BSM) with the sensor information of the host vehicle through coordinate conversion, and uses the sensor information of other vehicles to recognize the driving environment. number of sensors can be increased.

도 2 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 위해 사용되는 데이터를 설명하는 데 참조되는 도이다. 2 is a reference diagram for describing data used for inter-vehicle sensor fusion according to an embodiment of the present invention.

주행 제어 시스템은, V2X를 이용하여, 소정 통신 범위 예를 들어 500m에 있는 장치와 특정 주기(ex: 100ms) 마다 규약(SAE J2735)에 정의된 안전메시지(BSM)(Basic Safety Message)를 교환한다. The driving control system uses V2X to exchange basic safety messages (BSM) defined in the rules (SAE J2735) every specific period (ex: 100 ms) with a device in a predetermined communication range, for example, 500 m. .

주행 제어 시스템은, 도2에 도시된 바와 같이, V2X 통신방식을 이용하여 두개의 데이터 필드와 정해진 데이터 필드 외에도 옵션 필드(optional field)를 포함하는 안전메시지를 송수신하되, 옵션 필드에 추가로 센서 데이터와 인식된 환경 정보에 대한 데이터를 포함하여 송수신할 수 있다. As shown in FIG. 2, the driving control system transmits and receives a safety message including an optional field in addition to two data fields and a predetermined data field using the V2X communication method, but sensor data in addition to the optional field. and data on the recognized environment information can be transmitted and received.

안전메시지는 제1 데이터 필드(181), 제2 데이터 필드(182) 그리고 옵션 필드(183)를 포함한다. The safety message includes a first data field 181, a second data field 182 and an option field 183.

주행 제어 시스템은, 옵션 필드(183)에 센서데이터를 포함하여 다른 자동차로 안전메시지를 전송하고, 다른 자동차의 안전메시지에 포함된 옵션 필드의 센서데이터를 검출하여 이용한다. The driving control system includes sensor data in the option field 183 and transmits a safety message to another vehicle, and detects and uses the sensor data of the option field included in the safety message of the other vehicle.

제1 데이터 필드(181)는 기본 자동차정보(Basic Vehicle State)를 포함한다. 기본 자동차 정보는 메시지 시퀀스 번호(Message Sequence Number), 임시ID(Temporary ID), 시간(Time), 위치정보(Position Latitude, Longitude, Elevation, Accuracy), 차량속도(Vehicle Speed), Heading, 조향각(Steering Wheel Angle), 가속정보(Vehicle Accelerations, Yaw Rate), 브레이크 상태(Brake Status), 자동차 길이(Vehicle Length), 자동차 폭(Width) 등에 대한 정보를 포함한다. The first data field 181 includes basic vehicle information (Basic Vehicle State). Basic vehicle information includes Message Sequence Number, Temporary ID, Time, Position Information (Position Latitude, Longitude, Elevation, Accuracy), Vehicle Speed, Heading, and Steering Angle. Wheel Angle), acceleration information (Vehicle Accelerations, Yaw Rate), brake status, vehicle length, and vehicle width information.

제2데이터 필드(182)는 이벤트 객체(Vehicle Events Object), 경고 히스토리 객체(Vehicle Path History Object), 경로 예상 객체(Vehicle Path Prediction Object), 자동차 포지셔닝 데이터 객체(Vehicle Relative Positioning RTCM 1002 Data Object)를 포함한다. The second data field 182 includes a Vehicle Events Object, a Warning History Object, a Vehicle Path Prediction Object, and a Vehicle Relative Positioning RTCM 1002 Data Object. include

옵션 필드(183)는 센서데이터(Sensor Data)와 차량번호(License Plate)를 포함한다. 센서데이터로는 lanes, 다른 자동차의 정보(other vehicles), 신호정보(traffic signs), 교통신호(traffic signals) 등이 포함될 수 있다. The option field 183 includes sensor data and license plate. Sensor data may include lanes, other vehicles, traffic signs, traffic signals, and the like.

옵션 필드(183)는 데이터가 지정된 것이 아니므로, 감지되는 센서 데이터와 인식된 환경 정보, 번호판 등에 대한 데이터를 포함할 수 있다. Since data is not specified in the option field 183, it may include data about sensed sensor data, recognized environment information, license plate, and the like.

주행 제어 시스템은, 안전메시지의 옵션 필드(183)를 이용하여 센서 데이터를 상호 공유하고, 이응 자체에서 감지된 데이터 융합하여 주변에 대한 정보를 획득한다. The driving control system mutually shares sensor data using the option field 183 of the safety message, and obtains information about surroundings by fusing the data sensed by the response itself.

예를 들어, 주행 제어 시스템은 전방에 두대의 차량 A 및 차량 B가 존재하고, 차량 A와 차량 B가 동일한 속도와 가속도로 주행한다고 가정할 때, GPS위치 정보에는 수 m의 오차가 존재하므로, 차량 A와 차량 B를 GPS신호만으로는 구분하기 어렵다.For example, when the driving control system assumes that there are two vehicles A and B in front, and that vehicles A and B drive at the same speed and acceleration, there is an error of several m in the GPS location information, It is difficult to distinguish between vehicle A and vehicle B using only GPS signals.

주행 제어 시스템은, 구분이 어려운 두대의 차량에 대하여, 각 차량에서 전송되는 두개의 안전메시지에 포함된 센서 데이터와 자차의 감지부(160)에서 측정되는 센서데이터를 융합함으로써, 차량을 센서 데이터와 매칭하여 구분할 수 있다. The driving control system fuses the sensor data included in the two safety messages transmitted from each vehicle and the sensor data measured by the sensing unit 160 of the own vehicle for two vehicles that are difficult to distinguish, thereby integrating the vehicle with the sensor data. Matching can be distinguished.

주행 제어 시스템은 차량의 번호판을 인식하여 매칭할 수 있고, 또한 각 차량의 센서데이터를 바탕으로 차량의 동작을 구분하여 차량을 매칭할 수 있다. The driving control system may recognize and match license plates of vehicles, and may match vehicles by classifying vehicle operations based on sensor data of each vehicle.

도 3 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 차량 인식방법을 설명하는 데 참조되는 예시도이다. 3 is an exemplary diagram referenced to describe a vehicle recognition method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 3의 (a)에 도시된 바와 같이, 주행 제어 시스템은, 카메라부(170)에 구비되는 복수의 카메라, 특히 전방 영상을 촬영하는 제1 카메라(171)와 후방 영상을 촬영하는 제1 카메라(172)를 이용하여 다른 차량의 번호판을 인식한다. 주행 제어 시스템은, 후방 영상을 통해 후방의 차량에 대한 번호판을 인식한다. As shown in (a) of FIG. 3 , the driving control system includes a plurality of cameras provided in the camera unit 170, in particular, a first camera 171 for capturing a front image and a first camera for capturing a rear image. (172) is used to recognize the license plate of another vehicle. The driving control system recognizes the license plate of the rear vehicle through the rear image.

주행 제어 시스템의 영상인식부(120)는 영상으로부터 차량을 인식하고, 각 차량의 이미지를 분리한 후, 차량별 번호판을 인식한다. The image recognition unit 120 of the driving control system recognizes vehicles from images, separates images of each vehicle, and then recognizes license plates for each vehicle.

자동차의 번호판은, 차량 관리를 위하여 직사각형의 금속판에 자동차 등록번호(차량번호)를 기입하도록 의무화되어 있다. 번호판에 기재되는 차량번호는 하나의 차량에 하나씩 할당되는 것으로 유일한 번호이므로, 주행 제어 시스템은, 차량번호를 이용하여 차량 매칭을 수행한다. For vehicle license plates, it is obligatory to write vehicle registration numbers (vehicle numbers) on rectangular metal plates for vehicle management. Since the vehicle number written on the license plate is a unique number assigned to each vehicle, the driving control system performs vehicle matching using the vehicle number.

영상인식부(120)는 번호판을 인식하여 차량번호를 추출하고, 데이터처리부는 추출된 차량번호와 안전메시지에 포함된 차량번호를 비교하여 번호판이 인식된 차량과 안전메시지를 매칭한다. The image recognition unit 120 recognizes the license plate and extracts the vehicle number, and the data processing unit compares the extracted vehicle number with the vehicle number included in the safety message to match the vehicle whose license plate is recognized with the safety message.

주행 제어 시스템은 안전메시지(BSM)의 옵션 필드(183)에 센서 데이터와 차량번호를 포함하도록 함으로써, 안전 메시지가 어떤 차량으로부터 수신되는지 확인하는 것은 물론, 영상을 통해 인식되는 차량번호와 매칭하여 차량을 구분하고, 실제 차량과 안전메시지를 매칭할 수 있다. The driving control system includes the sensor data and vehicle number in the option field 183 of the safety message (BSM), thereby checking which vehicle the safety message is received from, as well as matching the vehicle number recognized through the video to the vehicle. can be distinguished, and the actual vehicle and safety message can be matched.

주행 제어 시스템은, 전방의 제1 카메라(171)와 후방의 제2 카메라(172) 각각으로부터 영상을 획득하고, 영상인식부(120)를 통해 차량과 번호판을 인식한다. 주행 제어 시스템은, 기 저장된 학습데이터를 이용하여, 딥러닝 기반으로 영상으로부터 문자 또는 숫자를 인식하는 기술을 통해 차량번호를 추출한다.The driving control system acquires images from each of the front first camera 171 and the rear second camera 172, and recognizes the vehicle and license plate through the image recognition unit 120. The driving control system uses pre-stored learning data to extract a license plate number through deep learning-based recognition of letters or numbers from an image.

경우에 따라, 주행 제어 시스템은, 통신부(150)를 통해 외부의 서버와 연결되어, 딥러닝 기반으로 영상으로부터 차량번호를 추출할 수 있다. In some cases, the driving control system may be connected to an external server through the communication unit 150 and extract a license plate number from an image based on deep learning.

주행 제어 시스템은, 객체 인식 네트워크를 사용하여, 차량과 횡방향 문자를 감싸는 바운딩 박스(bounding box)를 검출한다. The driving control system uses an object recognition network to detect a bounding box surrounding a vehicle and a transversal character.

번호판은 차량 범퍼의 중앙에 장착되어 있으므로, 마진이 추가된 차량 바운딩 박스(bounding box)에 포함된 문자 클래스의 바운딩 박스를 후보군으로 추출하고, 문자 바운딩 박스의 영역의 크기를 일정 크기로 변경한 후, OCR(Optical Character Recognition) 네트워크에 문자 바운딩 박스의 영상을 입력하여 문자를 인식한다. Since the license plate is mounted in the center of the vehicle bumper, the bounding box of the character class included in the vehicle bounding box to which the margin is added is extracted as a candidate group, and after changing the size of the area of the character bounding box to a certain size, , OCR (Optical Character Recognition) Recognizes a character by inputting an image of a character bounding box into the network.

인식된 문자열은 도 3의 (b)에 도시된 바와 같다. The recognized character string is shown in (b) of FIG. 3 .

주행 제어 시스템은, 인식된 문자열이 번호판 형식과 일치하는지 정합성을 판단한다. 나라별 번호판의 규격이 상이할 수 있으므로, 규정에 따라 하나의 1행의 문자열 또는 2행의 문자열을 각각 판단한다. The driving control system determines whether the recognized character string matches the license plate format. Since the standards of license plates for each country may be different, one line string or two line string is determined according to the regulations.

예를 들어, 주행 제어 시스템은, 인식된 문자열이 복수인 경우, GENESIS, GV80, 4WD, 129차2912 중, 번호판 형식에 부합하는지 정합성을 판단한다. For example, when there are a plurality of recognized character strings, the driving control system determines whether they match the license plate format among GENESIS, GV80, 4WD, and 129th 2912.

또한, 주행 제어 시스템은 하나의 차량에서 다수의 문자열이 인식되는 경우, 두 문자열을 조합 결과에 대해서도 정합성 판단을 수행한다.In addition, when a plurality of character strings are recognized in one vehicle, the driving control system also performs consistency determination on a result of combining two character strings.

예를 들어, 주행 제어 시스템은 GENESIS, GV80, 4WD, 129차2912를 조합하여, GENESISGV80, GV804WD 등으로 조합하여 정합성을 판단할 수 있다. For example, the drive control system may determine consistency by combining GENESIS, GV80, 4WD, and 129th 2912, and combining GENESISGV80, GV804WD, and the like.

주행 제어 시스템은 인식된 문자열에 대하여 조합과 정합성 분석을 통해 번호판 형식에 부합하는 129차2912를 번호판으로 인식한다. The driving control system recognizes the 129th 2912 matching the license plate format as a license plate through combination and consistency analysis on the recognized character string.

도 4 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 센서 퓨전 방법이 도시된 순서도이다. 4 is a flowchart illustrating a sensor fusion method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 주행 제어 시스템은, 통신부(150)를 통해 안전메시지(BSM)를 다른 차량으로부터 수신한다(S310). 안전메시지는 V2X방식으로, 일정 주기마다 소정 거리 내의 다른 차량과 상호 송수신할 수 있다. As shown in FIG. 4 , the driving control system receives a safety message (BSM) from another vehicle through the communication unit 150 (S310). Safety messages can be mutually transmitted and received with other vehicles within a predetermined distance at regular intervals in a V2X manner.

통신 시, 안전메시지의 옵션 필드에, 복수의 센서로부터 감지되는 차선, 다른 차량, 객체, 교통신호 및 교통정보 중 적어도 하나를 포함하는 센서데이터와 차량번호를 포함하여 전송하고, 복수의 차량으로부터 센서데이터가 포함된 안전메시지를 수신한다. During communication, in the option field of the safety message, sensor data including at least one of lanes, other vehicles, objects, traffic signals, and traffic information detected by a plurality of sensors and vehicle number are transmitted, and sensors from a plurality of vehicles are transmitted. Receives a safety message containing data.

카메라부(170)에 구비되는 복수의 카메라(171, 172)로부터 획득된 영상을 분석하여, 영상인식부(120)가 영상 내에서 차량을 구분하고, 차량으로 판단되는 영상 영역 내에서 번호판을 인식한다(S320). By analyzing the images obtained from the plurality of cameras 171 and 172 provided in the camera unit 170, the image recognition unit 120 classifies the vehicle in the image and recognizes the license plate in the image area determined as the vehicle. Do (S320).

주행 제어 시스템은, 인식된 번호판의 이미지를 딥러닝 기반으로 분석하여 차량번호를 획득한다(S340). 주행 제어 시스템은, 데이터처리부(130)를 통해 안전메시지(BSM)의 옵션 필드로부터 추출된 차량번호와, 번호판으로부터 인식된 차량번호를 상호 비교하여 일치하는지 여부를 판단한다(S340). The driving control system acquires a license plate number by analyzing the image of the recognized license plate based on deep learning (S340). The driving control system compares the vehicle number extracted from the option field of the safety message (BSM) with the vehicle number recognized from the license plate through the data processing unit 130 to determine whether they match (S340).

데이터처리부(130)는 안전메시지의 옵션 필드로부터 추출된 차량번호와 영상으로부터 인식된 차량번호가 일치하는 경우, 해당 차량번호에 센서데이터를 매칭한다(S350). When the vehicle number extracted from the option field of the safety message and the vehicle number recognized from the image match, the data processing unit 130 matches the sensor data to the corresponding vehicle number (S350).

한편, 데이터처리부(130)는 안전메시지의 옵션 필드로부터 추출된 차량번호와 영상으로부터 인식된 차량번호가 일치하지 않는 경우, 또는 일치하는 차량번호가 존재하지 않는 경우, 영상을 통한 번호판 인식이 어려운 미감지 영역에 위치하는 차량으로 분류한다(S370). 미감지 영역의 차량에 대하여 데이터처리부(130)는 후술하는 차량 동작 또는 차량의 위치를 기반으로 차량 매칭을 수행할 수 있다. On the other hand, the data processing unit 130 determines if the vehicle number extracted from the option field of the safety message and the vehicle number recognized from the image do not match, or if the matching vehicle number does not exist, it is difficult to recognize the license plate through the image. It is classified as a vehicle located in the detection area (S370). With respect to the vehicle in the undetected area, the data processing unit 130 may perform vehicle matching based on a vehicle operation or vehicle location, which will be described later.

데이터처리부(130)는 매칭된 차량에 대한 데이터를 데이터부(180)에 저장하고, 해당 차량의 동작을 추적한다(S360). The data processing unit 130 stores data on the matched vehicle in the data unit 180 and tracks the operation of the corresponding vehicle (S360).

좌표변환부(140)는 매칭된 차량의 안전메시지에 포함된 센서데이터를 자차 기준으로 좌표변환한다.The coordinate conversion unit 140 coordinates the sensor data included in the matched safety message of the vehicle based on the own vehicle.

제어부(110)는 감지부(160)의 데이터와, 좌표변환된 매칭된 차량의 센서데이터를 융합하여, 차량 주변에 대한 정보를 획득하고 이를 바탕으로 자율 주행을 제어한다. The control unit 110 fuses the data of the sensing unit 160 and the sensor data of the matched vehicle coordinate conversion to obtain information about the surroundings of the vehicle and controls autonomous driving based on this.

예를 들어 전방에 위치하는 차량을 매칭한 경우, 전방 차량의 속도 변화에 대응하여 주행 속도를 제어하여 충돌을 방지하고, 전방 우측 차량이 차선을 이동하는 경우 그에 대응하여 주행을 제어할 수 있다. For example, when a vehicle located in front is matched, a collision can be prevented by controlling the driving speed in response to a change in speed of the vehicle in front, and driving can be controlled in response to the vehicle on the right in front moving the lane.

도 5 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 위치정보를 이용한 차량 매칭을 설명하는 데 참조되는 도이다.5 is a reference diagram for explaining vehicle matching using location information of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

자동차(10)는 카메라의 영상을 사용하여 번호판을 인식하여 안전메시지와 매칭하는 경우, 차량 매칭의 정확도가 향상되나, 문자열을 구분할 수 있을 정도로 차간 거리가 가까워야 하는 조건이 있다. When the car 10 recognizes a license plate using a camera image and matches it with a safety message, the accuracy of vehicle matching is improved, but there is a condition that the distance between vehicles must be close enough to distinguish a string.

또한, 자동차(10)는 카메라를 통해 촬영된 영상을 기반으로 번호판을 인식하는 경우, 전방, 후방, 좌측 전방 및 후방, 우측 전방 및 후방의 차량에 대한 차량의 번호판 인식이 가능하다. 그러나 좌측 또는 우측에 위치하거나, 카메라의 화각에 일부만 포함되는 등, 다수의 차량은 영상을 통한 번호판 인식이 어려우므로 영상을 이용하여 차량을 매칭할 수 없게 된다. In addition, when the vehicle 10 recognizes a license plate based on an image captured through a camera, it is possible to recognize license plates of vehicles in the front, rear, left front and rear, and right front and rear vehicles. However, since it is difficult to recognize a number plate through an image of a number of vehicles, such as being located on the left or right side or including only a part of the camera's angle of view, it is impossible to match the vehicle using the image.

그에 따라 주행 제어 시스템은, 데이터처리부(130)를 통해 영상으로부터 번호판을 인식할 수 없는 경우 차량의 위치 또는 동작을 기반으로 차량을 매칭한다. Accordingly, the driving control system matches the vehicle based on the location or operation of the vehicle when the license plate cannot be recognized from the image through the data processing unit 130 .

주행 제어 시스템은, GPS의 오차와 센서로 감지한 차량과 메시지 사이에 다대 다 대응 가능성으로 인하여, 특정 시점의 절대 좌표, 속도 그리고 방향 정보만으로 매칭할 경우 차량을 오매칭할 수 있으므로, 매칭된 차량을 추적하여 다수의 샘플에 대하여 정보가 일관성을 갖는지 확인한 후 최종적으로 차량 매칭을 수행한다. 주행 제어 시스템은 차량 추적을 통해 차량 매칭이 정상적으로 완료되었는지 재확인하여 정확도를 높일 수 있다. The driving control system may mismatch the vehicle when matching only with the absolute coordinates, speed, and direction information at a specific point in time due to the possibility of many-to-many correspondence between the vehicle and the message detected by the GPS error and the sensor. Therefore, the matched vehicle is tracked to check whether the information has consistency for a number of samples, and then vehicle matching is finally performed. The driving control system may increase accuracy by reconfirming whether vehicle matching is normally completed through vehicle tracking.

도 5의 (a)에 도시된 바와 같이, 주행 제어 시스템은, 차량이 옆차선에 인접하여 위치하는 경우, 각 차량의 GPS값과 센서값을 수신할 수 있다. As shown in (a) of FIG. 5 , the driving control system may receive GPS values and sensor values of each vehicle when the vehicle is located adjacent to the side lane.

데이터처리부(130)는 자차의 GPS 오차 범위 안에서 센서로 측정된 차량 값을 매핑하여 실측 차량 후보 영역을 구성하고, 수신되는 안전메시지(BSM)에 GPS 오차 범위를 적용하여, 안전메시지를 송신한 차량에 대한 후보 영역을 생성하고, 실측 차량에 대한 후보 영역과 교집합을 구하여 매칭후보를 설정한다. The data processing unit 130 maps the vehicle values measured by the sensor within the GPS error range of the own vehicle to configure the actual vehicle candidate area, applies the GPS error range to the received safety message (BSM), and transmits the safety message to the vehicle. A candidate area for is generated, and a matching candidate is set by obtaining an intersection with a candidate area for the measured vehicle.

데이터처리부(130)는 센서값와 GPS값의 정보 교집합이 다대 다로 있으며, 매칭이 확인된 센서와 GPS에 대한 정보를 소거해도 구분이 안될 경우에는 매칭실패로 판단한다. The data processing unit 130 has a many-to-many intersection of sensor values and GPS values, and determines that matching has failed if it cannot be distinguished even after erasing the matching-confirmed sensor and GPS information.

데이터처리부(130)는 제1 차량(V1)에 대한 자차의 GPS신호와 제1 차량(V1)으로부터 수신된 센서값을 매칭하고, 제2 차량(V2)에 대한 자차의 GPS신호와 제2 차량(V2)의 센서값을 상호 매칭한다. The data processing unit 130 matches the GPS signal of the first vehicle V1 with the sensor value received from the first vehicle V1, and matches the GPS signal of the second vehicle V2 with the second vehicle. The sensor values of (V2) are mutually matched.

그러나 데이터처리부(130)는 제1 차량과 제2 차량에 대한 후보 영역이 중첩되므로, 매칭 실패로 판단한다. However, the data processing unit 130 determines that the matching fails because the candidate regions for the first vehicle and the second vehicle overlap.

또한, 데이터처리부(130)는 제3 차량(e)에 대한 자차의 GPS값과 매칭되는 데이터가 존재하지 않는 경우 해당 차량에 대해서는 매칭 실패로 판단한다. In addition, the data processing unit 130 determines that the matching fails with respect to the vehicle when data matching the GPS value of the third vehicle e does not exist.

도 5의 (b)에 도시된 바와 같이, 주행 제어 시스템은 차량의 종방향 위치가 구분 가능한 경우, 즉 거리 차이가 GPS 오차보다 크거나 속도 차이로 구분이 가능하다면, GPS값과 센서값에 대한 위치 교집합을 통해 차량을 매칭하고, 매칭한 후 트랙을 생성하여 추적한다. As shown in (b) of FIG. 5, when the longitudinal position of the vehicle can be distinguished, that is, if the distance difference is greater than the GPS error or can be distinguished by the speed difference, the driving control system determines the GPS value and the sensor value. Vehicles are matched through location intersection, and after matching, tracks are created and tracked.

데이터처리부(130)는 제1 차량(V1)에 대한 자차의 GPS신호와 제1 차량(V1)으로부터 수신된 센서값을 매칭하고, 제2 차량(V2)에 대한 자차의 GPS신호와 제2 차량(V2)의 센서값을 상호 매칭하되, 제1 차량과 제2 차량의 영역이 중첩되지 않으므로 각각을 차량에 매칭하고, 트랙을 생성하여 추적한다. The data processing unit 130 matches the GPS signal of the first vehicle V1 with the sensor value received from the first vehicle V1, and matches the GPS signal of the second vehicle V2 with the second vehicle. The sensor values of (V2) are mutually matched, but since the areas of the first vehicle and the second vehicle do not overlap, each is matched to the vehicle, and a track is created and tracked.

주행 제어 시스템은 추적 결과를 통해 최종적으로 차량 매칭을 수행한다. The driving control system finally performs vehicle matching through the tracking result.

도 6 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 위치정보를 이용한 차량 매칭방법이 도시된 순서도이다. 6 is a flowchart illustrating a vehicle matching method using location information of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 주행 제어 시스템은 매칭된 차량에 대하여 그 동작을 추적하여 매칭 차량을 관리한다. As shown in FIG. 6 , the driving control system manages the matched vehicle by tracking the motion of the matched vehicle.

데이터처리부(130)는 자체에서 측정된 차량에 대한 위치와 안전메시지에 포함되는 위치정보를 상호 매칭하여 실측 차량과 안전메시지를 매칭한다(S410). The data processing unit 130 mutually matches the location of the vehicle measured by itself and the location information included in the safety message to match the actual vehicle and the safety message (S410).

데이터처리부(130)는 안전메시지에 포함되는 아이디(임시ID)를 기준으로, 이미 확인된 매칭인지 여부를 확인하고(S420), 확인된 매칭인 경우 차량 매칭을 수행한다(S460). Based on the ID (temporary ID) included in the safety message, the data processing unit 130 checks whether the match has already been confirmed (S420), and if the match is confirmed, vehicle matching is performed (S460).

확인된 매칭이 아닌 경우, 데이터처리부(130)는 매칭 시킬 예상 후보가 하나 인지 판단한다(S430). If it is not the confirmed match, the data processing unit 130 determines whether there is one expected candidate to be matched (S430).

데이터처리부(130)는 예상 후보가 하나인 경우 해당 후보와 차량을 매칭한다(S460). If there is only one expected candidate, the data processing unit 130 matches the candidate with the vehicle (S460).

한편, 데이터처리부(130)는 예상 후보가 복수인 경우, 차량의 속도정보를 이용하여 매칭이 가능한지 판단한다(S440). 데이터처리부(130)는 차량의 속도를 산출하여 안전메시지에 포함되는 차량의 속도와 비교하여 차량을 매칭한다(S460). Meanwhile, when there are a plurality of predicted candidates, the data processing unit 130 determines whether matching is possible using vehicle speed information (S440). The data processor 130 calculates the speed of the vehicle, compares it with the speed of the vehicle included in the safety message, and matches the vehicle (S460).

데이터처리부(130)는 속도로 매칭이 불가능한 경우 차선 정보를 통해 매칭이 가능한지 판단한다(S450). 차선으로 매칭이 가능한 경우, 데이터처리부(130)는 차선과 차량의 진행방향을 기반으로 차량 매칭을 수행한다(S460). The data processing unit 130 determines whether matching is possible through lane information when it is impossible to match by speed (S450). If matching is possible with the lane, the data processing unit 130 performs vehicle matching based on the lane and the direction of the vehicle (S460).

데이터처리부(130)는 자차와 후보 차량이 가장자리 차선에 위치하거나 가드 레일 등을 기준으로 주행 차선을 인식할 수 있는 경우, 안전메시지(BSM)의 옵션필드로부터 센서 데이터를 추출하여 센서정보와 동일한지 판단함으로써 차량을 매칭할 수 있다. The data processing unit 130 extracts sensor data from the option field of the safety message (BSM) to determine if it is the same as the sensor information when the host vehicle and candidate vehicle are located on the edge lane or can recognize the driving lane based on a guard rail or the like. The vehicle can be matched by judging.

속도로 매칭이 가능한 경우, 데이터처리부(130)는 안전메시지의 차량 속도를 바탕으로 차량을 매칭한다(S460). If it is possible to match by speed, the data processing unit 130 matches the vehicle based on the vehicle speed of the safety message (S460).

한편, 데이터처리부(130)는 확인되지 않은 매칭이고, 예상후보가 복수이면서 속도 및 차선정보로 매칭이 불가능한 경우에는 매칭 실패로 판단한다. On the other hand, the data processing unit 130 determines that matching has failed if matching has not been confirmed and matching is impossible with speed and lane information even though there are a plurality of predicted candidates.

도 7 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 매칭된 데이터의 관리방법이 도시된 순서도이다. 7 is a flowchart illustrating a method of managing matched data of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 주행 제어 시스템은, 영상을 통한 번호판 인식 외에 차량의 위치 또는 동작에 대한 정보를 차량을 매칭하는 경우 해당 차량의 동작을 추적하여 차량 매칭이 정상적으로 이루어졌는지 확인한다. As shown in FIG. 7 , the driving control system checks whether the vehicle matching is normally performed by tracking the operation of the vehicle when matching information on the location or operation of the vehicle in addition to license plate recognition through the image.

데이터처리부(130)는 안전메시지의 아이디를 기준으로 기존 매칭 결과와, 신규 매칭 결과를 융합한다(S470). The data processing unit 130 merges the existing matching result with the new matching result based on the ID of the safety message (S470).

데이터처리부(130)는 새로운 매칭에 대하여(S480), 매칭후보에 대한 신규 트랙을 등록한다(S490). 주행 제어 시스템은 정보가 매칭된 차량에 대하여 그 동작을 추적하여 기록한다. The data processing unit 130 registers a new track for a matching candidate (S490) for new matching (S480). The driving control system tracks and records the motion of the vehicle for which the information is matched.

데이터처리부(130)는 기존 매칭에 대하여, 매칭후보 중 설정된 장기간 매칭에 성공한 트랙이 존재하는지 판단한다(S500). 장기간 매칭에 성공한 트랙이 존재하는 경우 해당 매칭후보를 확인된 매칭으로 변경한다(S510). The data processing unit 130 determines whether there exists a track that has succeeded in long-term matching among matching candidates with respect to existing matching (S500). If there is a track that has been successfully matched for a long time, the matching candidate is changed to a confirmed match (S510).

데이터처리부(130)는 확인된 매칭에 대하여 장기간 매칭되지 않은 후보가 존재하는지 판단한다(S520). 확인된 매칭 중 장기간 매칭되지 않은 후보에 대하여 해당 확인된 매칭을 매칭후보로 변경한다(S530). The data processing unit 130 determines whether there is a candidate that has not been matched for a long time with respect to the confirmed matching (S520). Among the confirmed matches, for a candidate that has not been matched for a long time, the corresponding confirmed match is changed to a matching candidate (S530).

또한, 데이터처리부(130)는 매칭후보 중, 장기간 매칭되지 않은 후보가 존재하는지 판단하고(S540), 장기간 매칭되지 않은 후보는 매칭후보 트랙을 삭제한다(S550). In addition, the data processing unit 130 determines whether there is a candidate that has not been matched for a long time among the matching candidates (S540), and deletes the matching candidate track of the candidate that has not been matched for a long time (S550).

데이터처리부(130)는 차량의 위치 또는 동작을 기반으로 차량을 매칭 한 후 매칭된 차량에 대한 트랙을 등록하여 관리함으로써, 일정 기간 동안의 매칭 결과를 바탕으로 후보를 확인된 매칭으로 변경하거나, 기 확인된 매칭을 후보로 변경할 수 있고, 기간 내에 매칭되지 않는 후보에 대하여 트랙을 삭제함으로써, 차량 매칭에 대한 정보를 차량 추적 기록에 따라 관리할 수 있다. The data processing unit 130 matches a vehicle based on the location or operation of the vehicle and then registers and manages the track of the matched vehicle, thereby changing the candidate to a confirmed match based on the matching result for a certain period of time, or The confirmed matching may be changed to a candidate, and information on vehicle matching may be managed according to the vehicle tracking record by deleting tracks for candidates that do not match within a period.

도 8 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 좌표변환을 설명하는 데 참조되는 예시도이다. 8 is an exemplary view referenced to describe coordinate conversion of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

주행 제어 시스템은 V2X의 안전메시지(BSM)의 옵션필드에 센서 데이터를 포함하여 송수신함으로써, 센서 정보를 융합한다. 주행 제어 시스템은 매칭된 차량의 센서 데이터를, 자차 센서를 통하여 측정한 상대 좌표 정보를 기반으로 평행 이동하고, 지자기센서, 차선과 진행 방향을 바탕으로 산출된 회전각을 사용하여 회전 변환함으로써, 자차 좌표계로 변환한다. The driving control system integrates sensor information by transmitting and receiving sensor data in the option field of the safety message (BSM) of V2X. The driving control system moves the sensor data of the matched vehicle in parallel based on the relative coordinate information measured through the own vehicle sensor, and rotates using the rotation angle calculated based on the geomagnetic sensor, the lane and the direction of travel, convert to coordinate system

도 8의 (a)에 도시된 바와 같이, 좌표변환부(140)는 상대 차량의 안전메시지(BSM)와 센서 데이터의 매칭이 완료되면, 센서 데이터를 바탕으로 차량 간의 상대 좌표를 확인한다. As shown in (a) of FIG. 8 , the coordinate conversion unit 140 checks the relative coordinates between the vehicles based on the sensor data when the matching between the safety message (BSM) of the other vehicle and the sensor data is completed.

좌표변환부(140)는, 지자기센서 또는 차선 기준 방향 정보를 추가하여 각 차량에서 측정한 센서 데이터를 융합하고, 안전메시지(BSM)의 옵션 필드를 사용하여, 차량의 방향 차이를 알 수 있는 지자기센서 정보나 차선 기준 진행 각도를 전달한다. The coordinate conversion unit 140 fuses the sensor data measured in each vehicle by adding the geomagnetic sensor or lane reference direction information, and uses the option field of the safety message (BSM) to determine the difference in direction of the vehicle. It transmits sensor information or the driving angle based on the lane.

자동차(10)의 주행 제어 시스템은 차량을 매칭하고, 다른 차량의 센서 데이터를 이용하여 목표 차량을 감지한다. The driving control system of the vehicle 10 matches vehicles and detects a target vehicle using sensor data of other vehicles.

예를 들어, 제1 차량(11)은 북쪽(N)을 기준으로 제1 각도(θe)를 형성하는 제11 방향(D11)으로 주행하고, 제2 차량(12)은 북쪽(N)을 기준으로 제2각도(θv)를 형성하는 제21 방향(D21)로 주행한다. For example, the first vehicle 11 drives in an eleventh direction D11 forming a first angle θe with respect to north (N), and the second vehicle 12 is driven with respect to north (N). and travels in the twenty-first direction D21 forming the second angle θv.

제1 차량(11)은 제2 차량(12)을 매칭 확인하고, 제2 차량(12)의 안전메시지에 포함되는 데이터를 기반으로 제3 차량(13)을 확인할 수 있다. The first vehicle 11 may match the second vehicle 12 and check the third vehicle 13 based on data included in the safety message of the second vehicle 12 .

제2 차량(12)은 제3 차량(13)에 대하여 좌표 (Rt, Θt)로 감지하고, 제1 차량(11)은 제2 차량(12)의 안전메시지(BSM)를 통해 제3 차량(13)의 좌표를 자차에 대한 좌표로 변환한다. The second vehicle 12 detects the third vehicle 13 with coordinates (Rt, Θt), and the first vehicle 11 transmits the safety message BSM of the second vehicle 12 to the third vehicle ( Convert the coordinates of 13) to the coordinates of the own vehicle.

제1 차량(11)은 좌표변환 시, 좌표계의 회전(rotation)과 변환(translation)을 보상한다. When converting coordinates, the first vehicle 11 compensates for rotation and translation of the coordinate system.

제1 차량(11)은 지자기센서를 사용하여 북쪽(N), N극 기준으로 차량의 진행 방향 각도(Θe, Θv)를 공유함으로써, 회전 축 차이를 Θe - Θv 만큼 회전 변환하여 회전(rotation)을 보상한다. 또한, 제1 차량(11)은 자차 센서에서 측정한 제2 차량까지의 거리(Rs)와, 제3 차량에 대한 회전각(Θs)을 사용하여 변환(translation)을 보상한다. The first vehicle 11 uses a geomagnetic sensor to share the traveling direction angles (Θe, Θv) of the vehicle based on the North (N) and N poles, thereby rotating and converting the rotation axis difference by Θe - Θv to rotate compensate for In addition, the first vehicle 11 compensates translation by using the distance Rs to the second vehicle measured by the host vehicle sensor and the rotation angle Θs with respect to the third vehicle.

제1 차량(11)은 다른 차량에서 감지한 목표 차량인 제3 차량(13)의 위치를 자차 좌표계로 변환하여 좌표(Rf,

Figure pat00001
)를 산출한다. The first vehicle 11 converts the position of the third vehicle 13, which is the target vehicle detected by the other vehicle, into the coordinate system of the own vehicle and coordinates R f ,
Figure pat00001
) is calculated.

제1 차량(11)의 제3 차량(13)에 대한 좌표변환은 다음의 수학식1과 같이 산출할 수 있다. Coordinate conversion of the first vehicle 11 to the third vehicle 13 can be calculated as in Equation 1 below.

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

제1 차량(11)과 제2 차량(12)의 진행 방향 각도, 제1 차량(11)과 제2 차량(12)의 직선거리(Rs)와 제2 차량(12)과 제3 차량(13)의 직선거리(Rt), 제3 차량에 대한 회전각(

Figure pat00005
)을 이용하여 좌표를 변환한다. The traveling direction angle of the first vehicle 11 and the second vehicle 12, the straight-line distance Rs between the first vehicle 11 and the second vehicle 12, and the second vehicle 12 and the third vehicle 13 ) of the straight line distance (Rt), the rotation angle for the third vehicle (
Figure pat00005
) to transform the coordinates.

도 8의 (b)에 도시된 바와 같이, 지자기센서가 없거나 오차가 클 경우, 자동차(10)의 주행 제어 시스템은 차선 등을 이용하여 좌표를 변환한다. As shown in (b) of FIG. 8 , when there is no geomagnetic sensor or the error is large, the driving control system of the vehicle 10 converts coordinates using lanes and the like.

제4 차량(14)은 차선을 기준으로 진행각을 안전메시지(BSM)의 옵션 필드를 사용하여 공유함으로써 방향각 차이를 산출한다. The fourth vehicle 14 calculates a direction angle difference by sharing the heading angle based on the lane using the option field of the safety message BSM.

제4 차량(14)은 진행방향 제41 방향(D41)으로 주행할 때, 차선에 대한 접선 방향(D42)을 기준으로 진행방향 제41 방향(D41)에 대한 방향각(Θ4)을 산출한다. When the fourth vehicle 14 travels in the forty-first direction D41, the bearing angle Θ4 with respect to the forty-first direction D41 is calculated based on the tangential direction D42 to the lane.

제5 차량(15)은 진행방향 제51 방향(D51)로 주행할 때, 차선에 대한 접선 방향(D52)(D53)을 기준으로 진행방향 제51 방향(D51)에 대한 방향각(Θ5)을 산출한다. When the fifth vehicle 15 travels in the fifty-first direction D51, the direction angle Θ5 with respect to the fifty-first direction D51 based on the tangential directions D52 and D53 to the lane is set. yield

제4 차량(14)의 차선의 방정식을 f(o), 확인된 매칭 차량인 제5 차량(15)의 차선의 방정식을 g(o)라고 가정할 때, 차선의 접선 기울기의 변화는

Figure pat00006
(f'(x)) -
Figure pat00007
(f'(0))가 된다. Assuming that the equation of the lane of the fourth vehicle 14 is f(o) and the equation of the lane of the identified matching vehicle, the fifth vehicle 15, is g(o), the change in the slope of the tangential line of the lane is
Figure pat00006
(f'(x)) -
Figure pat00007
(f'(0)).

차선의 접선 기울기의 변화와, 각 차량에서 구한 차선과 진행 방향의 차이

Figure pat00008
Figure pat00009
를 바탕으로, 장애물 위치를 회전 변환하여 자차 좌표계로 옮기기 위한 회전 각은The change in the tangential slope of the lane and the difference between the lane and the direction of travel obtained from each vehicle
Figure pat00008
and
Figure pat00009
Based on , the rotation angle for rotating the obstacle position and moving it to the own vehicle coordinate system is

Figure pat00010
Figure pat00010

따라서 자동차(10)는 확인된 매칭 차량에서 감지한 장애물은 자차 센서 정보인 (Rs, Θs) 만큼 변환(translation) 시키면 자차 좌표계에서 위치를 구할 수 있다.Therefore, the vehicle 10 can obtain a position in the host vehicle coordinate system by translating the obstacle detected by the identified matching vehicle by the host vehicle sensor information (Rs, Θs).

도 9 는 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 차량 매칭에 대한 다른 예가 도시된 예시도이다. 9 is an exemplary view illustrating another example of vehicle matching of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 주행 제어 시스템은, 다른 차량에 대하여 매칭 및 좌표 변환이 완료되면, 다른 차량의 센서 데이터를 융합하여 이용한다. As shown in FIG. 9 , the driving control system fuses and uses sensor data of another vehicle when matching and coordinate conversion are completed with respect to another vehicle.

제어부(110)는 다른 차량의 센서데이터와 감지부(160)를 통해 획득되는 데이터를 융합하여 주변 환경에 대한 정보를 획득하고 다른 차량의 접근을 감지하여 자율 주행을 제어한다. The control unit 110 obtains information on the surrounding environment by converging sensor data of other vehicles with data acquired through the sensing unit 160 and controls autonomous driving by detecting the approach of another vehicle.

제6 차량(21)은, 제8 차량(23)에 대하여 번호판을 인식하여 차량을 매칭하고, 제7 차량(22)에 대하여 위치를 기반으로 차량을 매칭한다. The sixth vehicle 21 matches the vehicle to the eighth vehicle 23 by recognizing the license plate, and matches the vehicle to the seventh vehicle 22 based on location.

제6 차량(21)은 제7 차량(22) 및 제8 차량(23)의 안전메시지를 수신하여 센서 데이터를 이용함으로써, 사용할 수 있는 센서의 수가 증가하는 효과를 갖는다. The sixth vehicle 21 receives safety messages from the seventh vehicle 22 and the eighth vehicle 23 and uses sensor data, thereby increasing the number of usable sensors.

제6 차량(21)은 매칭된 차량의 센서 데이터를 이용함으로써, 제3 차량(23)보다 전방의 차량에 대한 정보 또한 획득할 수 있다. The sixth vehicle 21 may also obtain information about a vehicle ahead of the third vehicle 23 by using sensor data of the matched vehicle.

그에 따라 주행 제어 시스템은 구비되는 센서의 수보다 많은 센서를 이용할 수 있고, 높은 신뢰도를 갖는 데이터를 생성할 수 있으며, 인접한 차량의 움직임(동작)에 따라 정밀하게 주행을 제어할 수 있다. Accordingly, the driving control system can use more sensors than the number of sensors provided, can generate data with high reliability, and can precisely control driving according to the movement (action) of an adjacent vehicle.

도 10 은 본 발명의 일 실시예에 따른 차량 간 센서 퓨전을 통한 주행 제어 시스템의 주행 제어 방법이 도시된 순서도이다. 10 is a flowchart illustrating a driving control method of a driving control system through inter-vehicle sensor fusion according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 자동차의 주행 제어 시스템은, 카메라를 통해 촬영된 영상을 이용하여 주변 차량을 인식한다(S570). As shown in FIG. 10 , the driving control system of the vehicle recognizes surrounding vehicles using an image captured through a camera (S570).

주행 제어 시스템은, 일정 거리 내의 차량과 소정 주기로 안전메시지(BSM)를 송수신한다(S580). The driving control system transmits and receives a safety message (BSM) with a vehicle within a certain distance at a predetermined period (S580).

주행 제어 시스템은 카메라부(170)로부터 촬영된 영상에 대하여, 영상인식부(120)를 통해, 번호판을 검출하고, 번호판으로부터 차량번호를 인식한다. The driving control system detects a license plate from the image captured by the camera unit 170 through the image recognition unit 120 and recognizes the vehicle number from the license plate.

번호판 인식이 가능한 경우, 주행 제어 시스템은 번호판을 기반으로 차량을 매칭하고(S600), 번호판 인식이 불가능한 경우 차량의 위치 또는 동작을 기반으로 차량을 매칭한다(S610). If the license plate recognition is possible, the driving control system matches the vehicle based on the license plate (S600), and if the license plate recognition is impossible, the driving control system matches the vehicle based on the location or operation of the vehicle (S610).

주행 제어 시스템은, 앞서 설명한 바와 같이, 차량번호를 안전메시지에 포함되는 차량번호와 매칭할 수 있고, 또한, 차량의 위치 또는 동작을 기반으로 추적하여 차량을 매칭할 수 있다. As described above, the driving control system may match the vehicle number with the vehicle number included in the safety message, and may match the vehicle by tracking based on the location or operation of the vehicle.

주행 제어 시스템은, 차량 매칭이 완료되면, 매치된 차량의 안전메시지의 옵션필드에 포함되는 센서데이터를 추출한다(S620).When vehicle matching is completed, the driving control system extracts sensor data included in the option field of the safety message of the matched vehicle (S620).

주행 제어 시스템은, 매칭이 완료된 후 각 차량 간에 상대 위치 정보를 알고 있으므로 각각 센서에서 취득한 데이터를 전송함으로써 장애물 인식 성능을 향상 시킬 수 있다.Since the driving control system knows relative position information between vehicles after matching is completed, obstacle recognition performance can be improved by transmitting data acquired from each sensor.

센서데이터의 위치정보는 각 차량의 위치를 기준으로 하므로, 주행 제어 시스템은 수신되는 다른 차량의 데이터를 자차 기준으로 좌표를 변환한다. Since the location information of the sensor data is based on the location of each vehicle, the driving control system converts the received data of other vehicles into coordinates based on the vehicle.

주행 제어 시스템은 좌표 변환을 위하여, 회전 정보가 필요하므로, 지자기센서 또는 차선을 기반으로 변환각 정보를 산출하여 좌표를 변환한다. Since the driving control system requires rotation information for coordinate conversion, it converts the coordinates by calculating conversion angle information based on a geomagnetic sensor or a lane.

지자기센서가 구비된 경우(S630), 앞서 설명한 도 8의 (a)와 같이, 지자기센서의 측정값을 기준으로 좌표를 변환하고(S640), 자지가 센서가 구비되지 않은 경우에는 도 8의 (b)와 같이, 차선과 진행방향을 기반으로 좌표를 변환한다(S650).When the geomagnetic sensor is provided (S630), as shown in (a) of FIG. 8 described above, the coordinates are converted based on the measured value of the geomagnetic sensor (S640). As in b), the coordinates are converted based on the lane and direction (S650).

주행 제어 시스템은 변환된 다른 차량의 좌표를 자체 센서의 좌표값과 결합하고(S660), 인식된 차량의 동작, 데이터 등에 대응하여 주행을 제어한다(S670). The driving control system combines the converted coordinates of another vehicle with the coordinate values of its own sensor (S660), and controls driving in response to the recognized vehicle motion and data (S670).

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, it should be noted that this is only exemplary and various modifications and equivalent other embodiments are possible from those skilled in the art in the art to which the technology pertains. will understand Therefore, the true technical protection scope of the present invention should be defined by the claims below.

10, 11 내지 15, 21 내지 23: 자동차
110: 제어부 120: 영상인식부
130: 데이터처리부 140: 좌표변환부
150: 통신부 160: 감지부
161: 위치센서 162: 장애물센서
170: 카메라부 180: 데이터부
10, 11 to 15, 21 to 23: car
110: control unit 120: image recognition unit
130: data processing unit 140: coordinate conversion unit
150: communication unit 160: detection unit
161: position sensor 162: obstacle sensor
170: camera unit 180: data unit

Claims (20)

복수의 카메라를 포함하여 차량 주변의 영상을 촬영하는 카메라부;
차량의 위치를 측정하고, 차량 주변의 객체를 감지하는 감지부;
상기 카메라부로부터 촬영된 영상을 분석하여 주변에 위치하는 제2 차량의 번호판을 인식하고 차량번호를 추출하는 영상인식부;
안전메시지(BSM, Basic Safety Message)의 옵션 필드에, 상기 감지부로부터 획득된 센서데이터와 차량번호를 포함하여 일정 거리 내에 위치하는 복수의 차량과 V2X(Vehicle to anything) 방식으로 통신하는 통신부;
상기 차량번호, 상기 복수의 차량의 위치 및 동작 중 적어도 하나를 기반으로, 상기 복수의 차량과 복수의 안전메시지를 매칭하는 데이터처리부;
매칭이 완료된 상기 제2 차량의 안전메시지로부터 센서데이터를 추출하여, 자차 기준으로 좌표를 변환하는 좌표변환부; 및
상기 제2 차량에 대한 매칭 결과를 바탕으로, 상기 감지부의 데이터와 상기 제2 차량의 센서데이터를 융합하여 획득되는 차량 주변에 대한 정보를 기반으로 주행을 제어하는 제어부; 를 포함하는 주행 제어 시스템.
A camera unit including a plurality of cameras to capture images around the vehicle;
a sensing unit that measures the position of the vehicle and detects objects around the vehicle;
an image recognition unit for analyzing an image captured by the camera unit, recognizing a license plate of a second vehicle located nearby, and extracting a license plate number;
A communication unit that communicates with a plurality of vehicles located within a certain distance, including the sensor data and vehicle number obtained from the sensor data and the V2X (Vehicle to anything) method in an option field of a safety message (BSM, Basic Safety Message);
a data processing unit matching the plurality of vehicles and the plurality of safety messages based on at least one of the vehicle number and the location and operation of the plurality of vehicles;
a coordinate conversion unit extracting sensor data from the safety message of the second vehicle for which matching has been completed and converting coordinates based on the vehicle; and
a control unit controlling driving based on information about surroundings of the vehicle obtained by fusing data of the sensing unit and sensor data of the second vehicle based on a matching result of the second vehicle; Driving control system comprising a.
제 1 항에 있어서,
상기 데이터처리부는 상기 제2 차량의 차량번호와, 상기 복수의 안전메시지에 포함된 차량번호를 비교하여, 차량번호가 일치하는 안전메시지를 상기 제2 차량과 매칭하고,
상기 복수의 차량 중 번호판을 인식할 수 없는 제3 차량에 대하여, 상기 복수의 안전메시지에 포함되는 정보를 기반으로 상기 복수의 차량의 위치와 동작을 분석하고, 상기 감지부를 통해 감지되는 상기 제3 차량의 데이터와 비교하여, 상기 제3 차량을 매칭하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 1,
The data processing unit compares the vehicle number of the second vehicle with the vehicle numbers included in the plurality of safety messages, and matches a safety message having the same vehicle number with the second vehicle;
For a third vehicle whose license plate is not recognizable among the plurality of vehicles, based on the information included in the plurality of safety messages, the location and operation of the plurality of vehicles are analyzed, and the third vehicle sensed through the detector. Comparing with vehicle data, matching the third vehicle.
제 2 항에 있어서,
상기 데이터처리부는, 상기 감지부를 통해 감지되는 상기 제3 차량의 위치와 상기 복수의 안전메시지에 포함되는 위치정보를 비교하여, 오차 범위 내에서 일치하는 안전메시지를 상기 제3 차량과 매칭하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 2,
The data processing unit compares the location of the third vehicle detected through the sensor with location information included in the plurality of safety messages, and matches a safety message that matches within an error range with the third vehicle. driving control system.
제 2 항에 있어서,
상기 데이터처리부는, 상기 감지부를 통해 감지되는 상기 제3 차량의 동작 정보와 상기 복수의 안전메시지에 포함되는 동작정보를 비교하여 적어도 하나의 매칭후보를 설정하고, 상기 동작정보를 누적하여, 상기 매칭후보 중 오차 범위 내에서 일치하는 안전메시지를 상기 제3 차량과 매칭하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 2,
The data processing unit compares the operation information of the third vehicle detected through the sensor with operation information included in the plurality of safety messages, sets at least one matching candidate, accumulates the operation information, and performs the matching operation. The driving control system, characterized in that for matching a safety message that matches within an error range among candidates with the third vehicle.
제 2 항에 있어서,
상기 데이터처리부는 주행 차선의 위치, 주행 차선에 위치하는 가드레일 등의 객체를 상기 감지부를 통해 감지하고, 상기 복수의 안전메시지에 포함된 객체 감지 정보를 비교하여 상기 안전메시지와 상기 제3 차량을 매칭하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 2,
The data processing unit detects the position of the driving lane and an object such as a guardrail located in the driving lane through the sensing unit, and compares object detection information included in the plurality of safety messages to determine the safety message and the third vehicle. A driving control system characterized in that matching.
제 1 항에 있어서,
상기 데이터처리부는 매칭된 차량에 대한 신규 트랙을 생성하여 등록하고,
기 매칭된 데이터에 포함되는 적어도 하나의 매칭후보 중, 일정 기간 동안의 매칭에 성공한 매칭후보를 확인된 매칭으로 변경하고, 적어도 하나의 확인된 매칭 중 상기 일정 기간 동안의 매칭되지 않은 확인된 매칭을 매칭후보로 전환하며, 상기 적어도 하나의 매칭후보 중 상기 일정 기간 동안 매칭되지 않은 매칭후보에 대한 트랙을 삭제하여, 상기 복수의 차량에 대한 매칭결과를 관리하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 1,
The data processing unit creates and registers a new track for the matched vehicle;
Among at least one matching candidate included in the pre-matched data, a matching candidate that has successfully matched for a certain period of time is changed to a confirmed match, and among the at least one confirmed match, a confirmed match that has not been matched during the certain period is changed. and managing matching results for the plurality of vehicles by switching to a matching candidate and deleting a track for a matching candidate that has not been matched for the predetermined period among the at least one matching candidate.
제 1 항에 있어서,
상기 좌표변환부는 상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하고, 상기 제4 차량의 좌표를 자차기준으로 좌표변환하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 1,
The coordinate conversion unit acquires the coordinates of the fourth vehicle detected by the second vehicle from sensor data included in the safety message of the second vehicle, and converts the coordinates of the fourth vehicle based on the own vehicle. Featured driving control system.
제 7 항에 있어서,
상기 좌표변환부는 지자기센서가 포함된 경우, 상기 지자기센서에 의해 감지되는, 북쪽(N극)을 기준으로 차량의 진행방향 각도와 상기 제2 차량의 진행방향 각도를 바탕으로, 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 7,
When the coordinate conversion unit includes a geomagnetic sensor, based on the traveling direction angle of the vehicle based on the north (N pole) detected by the geomagnetic sensor and the traveling direction angle of the second vehicle, in the second vehicle The driving control system, characterized in that for coordinate conversion of the detected coordinate value of the fourth vehicle.
제 8 항에 있어서,
상기 좌표변환부는 N극 기준으로 각 차량의 진행방향 각도를, 상기 제4 차량에 대한 회전축의 차이만큼 회전하여 회전을 보상하고,
상기 차량과 상기 제2 차량의 거리, 상기 제2 차량과 상기 제4 차량의 거리, 상기 제4 차량에 대한 회전각을 이용하여 변환을 보상하여 상기 제4 차량에 대한 좌표를 좌표변환하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 8,
The coordinate conversion unit compensates for the rotation by rotating the angle of the traveling direction of each vehicle based on the N pole by the difference in the rotation axis for the fourth vehicle,
Characterized in that the coordinates of the fourth vehicle are converted to coordinates by compensating the transformation using the distance between the vehicle and the second vehicle, the distance between the second vehicle and the fourth vehicle, and the rotation angle of the fourth vehicle. driving control system.
제 7 항에 있어서,
상기 좌표변환부는 지자기센서가 포함되지 않은 경우, 각 차량이 주행중인 차로의 차선과 진행방향의 차이를 바탕으로 상기 제4 차량의 좌표를 변환하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 7,
The driving control system of claim 1 , wherein the coordinate conversion unit converts the coordinates of the fourth vehicle based on a difference between a lane of a lane in which each vehicle is driving and a traveling direction when the geomagnetic sensor is not included.
제 10 항에 있어서,
상기 좌표변환부는 상기 차선의 접선 기울기의 변화를 산출하고, 상기 차선과 진행방향의 차이를 이용하여 산출된 회전각을 이용하여 상기 제4 차량의 좌표를 변환하는 것을 특징으로 하는 주행 제어 시스템.
According to claim 10,
The driving control system of claim 1 , wherein the coordinate conversion unit calculates a change in the tangential slope of the lane and converts the coordinates of the fourth vehicle using a rotation angle calculated using a difference between the lane and the traveling direction.
복수의 카메라를 통해 차량 주변의 영상을 촬영하고, 차량의 위치 및 차량 주변의 객체를 감지하는 단계;
상기 영상으로부터 제2 차량의 번호판을 인식하여, 차량번호를 추출하는 단계;
안전메시지(BSM, Basic Safety Message)의 옵션 필드에, 센서데이터와 차량번호를 포함하여 일정 거리 내의 복수의 차량과 V2X(Vehicle to anything) 방식으로 통신하는 단계;
상기 차량번호, 상기 복수의 차량의 위치 및 동작 중 적어도 하나를 기반으로, 상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계;
매칭이 완료된 상기 제2 차량의 안전메시지로부터 센서데이터를 추출하여, 자차 기준으로 좌표를 변환하는 단계;
상기 제2 차량에 대한 매칭 결과를 바탕으로, 자차의 센서 데이터와 상기 제2 차량의 센서데이터를 융합하여 차량 주변에 대한 정보를 획득하는 단계; 및
획득된 정보를 기반으로 자율 주행하는 단계; 를 포함하는 주행 제어 시스템의 동작방법.
Taking images around the vehicle through a plurality of cameras, and detecting the location of the vehicle and objects around the vehicle;
Recognizing the license plate of the second vehicle from the image and extracting the vehicle number;
In the optional field of the safety message (BSM, Basic Safety Message), communicating with a plurality of vehicles within a certain distance, including sensor data and vehicle number, in a V2X (Vehicle to anything) method;
matching the plurality of vehicles and the plurality of safety messages based on at least one of the vehicle number, locations and operations of the plurality of vehicles;
extracting sensor data from the safety message of the second vehicle for which matching has been completed, and converting coordinates based on the vehicle;
obtaining information about surroundings of the vehicle by fusing sensor data of the host vehicle and sensor data of the second vehicle based on a matching result of the second vehicle; and
autonomous driving based on the acquired information; A method of operating a driving control system comprising a.
제 12 항에 있어서,
상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는,
번호판이 인식된 상기 제2 차량의 차량번호와, 상기 복수의 안전메시지에 포함된 차량번호를 비교하는 단계; 및
상기 제2 차량과 차량번호가 일치하는 제2안전메시지를 상기 제2 차량과 매칭하는 단계; 를 더 포함하는 주행 제어 시스템의 동작방법.
According to claim 12,
The step of matching the plurality of vehicles and the plurality of safety messages,
comparing the vehicle number of the second vehicle whose license plate is recognized with the vehicle number included in the plurality of safety messages; and
matching a second safety message whose vehicle number matches the second vehicle with the second vehicle; A method of operating a driving control system further comprising a.
제 12 항에 있어서,
상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는,
감지부에 구비되는 복수의 센서를 이용하여, 번호판이 인식되지 않은 제3 차량의 위치, 동작 및 차선 정보를 감지하는 단계;
상기 복수의 안전메시지에 포함되는 데이터를 기반으로 상기 복수의 차량의 위치, 동작 및 차선 정보 중 적어도 하나를 분석하는 단계;
상기 제3 차량의 안전메시지로 추정되는 적어도 하나의 매칭후보를 설정하는 단계; 및
상기 제3 차량의 데이터와 상기 매칭후보를 비교하여, 오차 범위 내에서 상기 제3 차량의 데이터와 일치하는 제3 안전메시지를 상기 제3 차량과 매칭하는 단계; 를 더 포함하는 주행 제어 시스템의 동작방법.
According to claim 12,
The step of matching the plurality of vehicles and the plurality of safety messages,
sensing a location, operation, and lane information of a third vehicle whose license plate is not recognized by using a plurality of sensors provided in the sensing unit;
analyzing at least one of location, operation, and lane information of the plurality of vehicles based on data included in the plurality of safety messages;
setting at least one matching candidate estimated to be the safety message of the third vehicle; and
comparing data of the third vehicle with the matching candidate and matching a third safety message matching the data of the third vehicle with the third vehicle within an error range; A method of operating a driving control system further comprising a.
제 14 항에 있어서,
상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는,
주행차로의 차선 및 주행차로에 인접한 객체를 감지하여, 상기 복수의 안전메시지에 포함된 데이터로부터 차선 및 객체 감지 정보를 비교하여 일치 여부에 따라 차량 매칭을 수행하는 것을 특징으로 하는 주행 제어 시스템의 동작방법.
15. The method of claim 14,
The step of matching the plurality of vehicles and the plurality of safety messages,
Operation of the driving control system, characterized in that by detecting a lane of the driving lane and an object adjacent to the driving lane, comparing the lane and object detection information from the data included in the plurality of safety messages, and performing vehicle matching according to whether or not they match. method.
제 14 항에 있어서,
상기 복수의 차량과 복수의 안전메시지를 매칭하는 단계는,
상기 매칭후보에 대하여, 일정 시간 동안 누적되는 데이터를 바탕으로 상기 제3 차량과 상기 제3 안전메시지를 매칭하는 것을 특징으로 하는 주행 제어 시스템의 동작방법.
15. The method of claim 14,
The step of matching the plurality of vehicles and the plurality of safety messages,
The operation method of the driving control system, characterized in that for the matching candidate, matching the third vehicle and the third safety message based on data accumulated for a predetermined time.
제 14 항에 있어서,
매칭된 상기 제3 차량에 대하여, 신규 트랙을 생성하여 등록하는 단계;
기 매칭된 데이터에 포함되는 적어도 하나의 매칭후보 중, 일정 기간 동안의 매칭에 성공한 매칭후보를 확인된 매칭으로 변경하는 단계;
상기 기 매칭된 데이터로부터, 적어도 하나의 확인된 매칭 중 상기 일정 기간 동안의 매칭되지 않은 확인된 매칭을 매칭후보로 전환하는 단계; 및
상기 적어도 하나의 매칭후보 중 상기 일정 기간 동안 매칭되지 않은 매칭후보에 대한 트랙을 삭제하는 단계; 를 더 포함하고,
상기 누적되는 데이터를 바탕으로 매칭결과를 관리하는 것을 특징으로 하는 주행 제어 시스템의 동작방법.
15. The method of claim 14,
generating and registering a new track with respect to the matched third vehicle;
changing a matching candidate that has successfully matched for a certain period of time among at least one matching candidate included in pre-matched data to a confirmed match;
converting a confirmed match that has not been matched during the predetermined period among at least one confirmed match from the pre-matched data into a matching candidate; and
deleting a track of a matching candidate that has not been matched for the predetermined period of time among the at least one matching candidate; Including more,
A method of operating a driving control system, characterized in that for managing a matching result based on the accumulated data.
제 12 항에 있어서,
상기 좌표를 변환하는 단계는,
상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하는 단계;
지자기센서가 포함된 경우, 상기 지자기센서에 의해 감지되는, 북쪽(N극)을 기준으로 차량의 진행방향 각도와 상기 제2 차량의 진행방향 각도를 산출하는 단계;
각 차량의 진행방향 각도를, 상기 제4 차량에 대한 회전축의 차이만큼 회전하여 회전을 보상하는 단계;
상기 차량과 상기 제2 차량의 거리, 상기 제2 차량과 상기 제4 차량의 거리, 상기 제4 차량에 대한 회전각을 이용하여 변환을 보상하는 단계; 및
회전 보상과 변화 보상을 이용하여 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하는 단계; 를 더 포함하는 주행 제어 시스템의 동작방법.
According to claim 12,
The step of transforming the coordinates,
obtaining coordinates of a fourth vehicle sensed by the second vehicle from sensor data included in the safety message of the second vehicle;
If a geomagnetic sensor is included, calculating a traveling direction angle of the vehicle and a traveling direction angle of the second vehicle based on north (N pole), detected by the geomagnetic sensor;
Compensating for the rotation by rotating an angle of the direction of travel of each vehicle by a difference in a rotation axis with respect to the fourth vehicle;
compensating for the transformation using a distance between the vehicle and the second vehicle, a distance between the second vehicle and the fourth vehicle, and a rotation angle with respect to the fourth vehicle; and
converting coordinate values of the fourth vehicle sensed by the second vehicle using rotation compensation and change compensation; A method of operating a driving control system further comprising a.
제 12 항에 있어서,
상기 좌표를 변환하는 단계는,
상기 제2 차량의 안전메시지에 포함된 센서데이터로부터, 상기 제2 차량에 의해 감지된 제4 차량에 대한 좌표를 획득하는 단계;
지자기센서가 포함되지 않은 경우, 각 차량이 주행중인 차로의 차선과 진행방향의 차이를 산출하는 단계;
상기 차선의 접선 기울기의 변화를 산출하는 단계;
상기 차선과 진행방향의 차이와 상기 차선의 접선 기울기의 변화를 이용하여 회전각을 산출하는 단계; 및
상기 회전각에 대응하여, 상기 제2 차량에서 감지된 상기 제4 차량의 좌표값을 좌표변환하는 단계; 를 더 포함하는 주행 제어 시스템의 동작방법.
According to claim 12,
The step of transforming the coordinates,
obtaining coordinates of a fourth vehicle sensed by the second vehicle from sensor data included in the safety message of the second vehicle;
calculating a difference between a lane of a lane in which each vehicle is driving and a driving direction when the geomagnetic sensor is not included;
calculating a change in the tangent slope of the lane;
Calculating a rotation angle using a difference between the lane and the driving direction and a change in the slope of the tangential line of the lane; and
converting the coordinate values of the fourth vehicle detected by the second vehicle in correspondence with the rotation angle; A method of operating a driving control system further comprising a.
제 12 항에 있어서,
상기 통신하는 단계는,
상기 옵션 필드에, 복수의 센서로부터 감지되는 차선, 다른 차량, 객체, 교통신호 및 교통정보 중 적어도 하나를 포함하는 센서데이터와 차량번호를 포함하는 상기 안전메시지를 상기 복수의 차량으로부터 수신하는 것을 특징으로 하는 주행 제어 시스템의 동작방법.
According to claim 12,
The communication step is
In the option field, the safety message including the vehicle number and sensor data including at least one of lanes, other vehicles, objects, traffic signals, and traffic information detected by a plurality of sensors is received from the plurality of vehicles. Operation method of the driving control system to be.
KR1020210158535A 2021-11-17 2021-11-17 System and method for driving control through fusion of sensors between vehicles KR20230072126A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210158535A KR20230072126A (en) 2021-11-17 2021-11-17 System and method for driving control through fusion of sensors between vehicles
EP22206116.0A EP4184480A3 (en) 2021-11-17 2022-11-08 Driving control system and method of controlling the same using sensor fusion between vehicles
US18/055,817 US20230154199A1 (en) 2021-11-17 2022-11-15 Driving control system and method of controlling the same using sensor fusion between vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210158535A KR20230072126A (en) 2021-11-17 2021-11-17 System and method for driving control through fusion of sensors between vehicles

Publications (1)

Publication Number Publication Date
KR20230072126A true KR20230072126A (en) 2023-05-24

Family

ID=86541030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210158535A KR20230072126A (en) 2021-11-17 2021-11-17 System and method for driving control through fusion of sensors between vehicles

Country Status (1)

Country Link
KR (1) KR20230072126A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102205299B1 (en) 2018-10-10 2021-01-20 한양대학교 산학협력단 Lane change method in v2v communication system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102205299B1 (en) 2018-10-10 2021-01-20 한양대학교 산학협력단 Lane change method in v2v communication system

Similar Documents

Publication Publication Date Title
US20210125427A1 (en) Methods and Systems for Providing Remote Assistance to a Stopped Vehicle
US11009602B2 (en) Method and system for environment detection
US11269354B2 (en) Methods and systems for keeping remote assistance operators alert
US10286908B1 (en) Self-driving vehicle systems and methods
US10474154B1 (en) Self-driving vehicle systems and methods
KR101417522B1 (en) System and method for traveling self-control expressway
CN112009524B (en) System and method for tramcar obstacle detection
KR101905952B1 (en) Digital Map Generation System and Method based on Vehicles and Infrastructure
CN113848921B (en) Method and system for cooperative sensing of vehicles Lu Yun
CN110412986A (en) A kind of vehicle barrier detection method and system
US10832569B2 (en) Vehicle detection systems
KR20190126024A (en) Traffic Accident Handling Device and Traffic Accident Handling Method
CN110333725B (en) Method, system, equipment and storage medium for automatically driving to avoid pedestrians
KR102328506B1 (en) System and method for colleting unmanned public information
WO2023109501A1 (en) Train active obstacle detection method and apparatus based on positioning technology
KR20190143151A (en) Automated Driving System for Automated Driving car
KR102279754B1 (en) Method, apparatus, server, and computer program for preventing crash accident
CN115963785A (en) Method, system, and apparatus for a vehicle and storage medium
US11681780B2 (en) Annotation and mapping for vehicle operation in low-confidence object detection conditions
Alfraheed et al. Longitudinal and lateral control in automated highway systems: Their past, present and future
US20220012561A1 (en) Information processing apparatus, information processing method, and program
KR20230072126A (en) System and method for driving control through fusion of sensors between vehicles
JP2017126213A (en) Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method
EP4184480A2 (en) Driving control system and method of controlling the same using sensor fusion between vehicles
CN116095270A (en) Method, device, system and storage medium for infrastructure-supported assistance of a motor vehicle