KR102614256B1 - 3D vector coordinate system for autonomous driving - Google Patents

3D vector coordinate system for autonomous driving Download PDF

Info

Publication number
KR102614256B1
KR102614256B1 KR1020210014840A KR20210014840A KR102614256B1 KR 102614256 B1 KR102614256 B1 KR 102614256B1 KR 1020210014840 A KR1020210014840 A KR 1020210014840A KR 20210014840 A KR20210014840 A KR 20210014840A KR 102614256 B1 KR102614256 B1 KR 102614256B1
Authority
KR
South Korea
Prior art keywords
vehicle
unit
data
roadside
coordinates
Prior art date
Application number
KR1020210014840A
Other languages
Korean (ko)
Other versions
KR20220111807A (en
Inventor
이한규
이승학
Original Assignee
우석대학교 산학협력단
주식회사 라이커스넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 우석대학교 산학협력단, 주식회사 라이커스넷 filed Critical 우석대학교 산학협력단
Priority to KR1020210014840A priority Critical patent/KR102614256B1/en
Publication of KR20220111807A publication Critical patent/KR20220111807A/en
Application granted granted Critical
Publication of KR102614256B1 publication Critical patent/KR102614256B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • G05D2201/0213

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

일 실시예에 따른 자율주행을 위한 3차원 벡터좌표시스템은 차량에 탑재되고 중앙처리부와 연통된 자율주행부; 노변에 설치되고 상기 중앙처리부와 연통된 노변설치부; 및 상기 자율주행부, 및 상기 노변설치부와 연통된 중앙처리부를 포함하고, 상기 자율주행부는 상기 차량의 주변을 센싱하는 차량센싱부, 상기 차량의 속도를 자율제어하는 속도제어부, 및 상기 차량의 조향을 자율제어하는 조향제어부를 포함한다.A three-dimensional vector coordinate system for autonomous driving according to an embodiment includes an autonomous driving unit mounted on a vehicle and connected to a central processing unit; A roadside installation unit installed at the roadside and in communication with the central processing unit; and a central processing unit in communication with the autonomous driving unit and the roadside installation unit, wherein the autonomous driving unit includes a vehicle sensing unit that senses the surroundings of the vehicle, a speed control unit that autonomously controls the speed of the vehicle, and It includes a steering control unit that autonomously controls steering.

Description

자율주행을 위한 3차원 벡터좌표시스템{3D vector coordinate system for autonomous driving}3D vector coordinate system for autonomous driving}

본 발명은 자율주행 좌표시스템에 관한 것으로서, 보다 상세하게는 자율주행을 위한 3차원 벡터좌표시스템에 관한 것이다.The present invention relates to an autonomous driving coordinate system, and more specifically, to a three-dimensional vector coordinate system for autonomous driving.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section simply provides background information for this embodiment and does not constitute prior art.

일반적인 자동차는 운전자의 조향, 제동 등의 조작에 의해서 주행이 이루어지며, 자율주행차는 운전자의 개입이 없이도 조향, 제동 등의 조작이 이루어진다. 센서 및 정보통신 기술 등의 발달과 함께 최근 등장한 자율주행차는 머지 않은 미래에 상용화가 될 것으로 예측되고 있다.A typical car is driven by the driver's steering, braking, etc. operations, while an autonomous vehicle's steering and braking operations are performed without the driver's intervention. With the development of sensors and information and communication technologies, self-driving cars, which have recently appeared, are expected to be commercialized in the near future.

한편, 자율주행차의 상용화에 앞서 운전자에 의해 운전되는 일반 자동차에도 운전자의 편의를 위해서 운전자의 눈과 귀를 대신할 수 있는 최첨단의 운전보조장치들이 장착되고 있다. 예를 들어, 차량에는 각종 센서들로, 초음파 센서, 영상센서, 레이더 센서, LiDAR 센서 등이 탑재됨으로써, 차량의 주행 또는 주차 중에 차량에 근접하는 물체가 있게 되거나 차량이 어느 물체에 근접하게 되는 경우에 운전자에게 이를 경고하도록 하는 구성이 일반화되고 있다.Meanwhile, prior to the commercialization of self-driving cars, ordinary cars driven by drivers are being equipped with cutting-edge driving assistance devices that can replace the driver's eyes and ears for the driver's convenience. For example, vehicles are equipped with various sensors such as ultrasonic sensors, image sensors, radar sensors, LiDAR sensors, etc., so when an object comes close to the vehicle or the vehicle approaches an object while the vehicle is driving or parking. Configurations that warn drivers of this are becoming common.

특히, 차량에 탑재된 카메라 센서를 통해서 도로 상에 표시된 차선을 인식할 수 있고, 카메라 센서와 LiDAR 센서의 퓨전을 통해서 움직이는 물체를 인식하고 판단할 수 있게 되는 등 인지 판단 기술이 적용되고 있다.In particular, recognition judgment technology is being applied, such as being able to recognize lanes marked on the road through the camera sensor mounted on the vehicle, and recognizing and judging moving objects through the fusion of the camera sensor and LiDAR sensor.

이와 같이 차량에 탑재된 각종 인지수단으로부터 인지된 정보에 기초하여 주행을 제어할 수 있는 자율주행을 제어 시스템이 자율주행차에 적용이 되고 있다.In this way, an autonomous driving control system that can control driving based on information recognized from various cognitive means mounted on the vehicle is being applied to self-driving cars.

0001)대한민국 특허청 공개특허공보 제10-2019-0000843호0001) Republic of Korea Intellectual Property Office Public Patent Publication No. 10-2019-0000843 0002)대한민국 특허청 등록특허공보 제10-0904767호0002)Korea Intellectual Property Office Registered Patent Publication No. 10-0904767 0003)대한민국 특허청 공개특허공보 제10-2017-0077332호0003) Republic of Korea Patent Office Publication No. 10-2017-0077332

이에 본 발명은 상기한 문제점을 일소하기 위해 창안한 것으로서, 차량에 탑재되고 중앙처리부와 연통된 자율주행부; 노변에 설치되고 상기 중앙처리부와 연통된 노변설치부; 및 상기 자율주행부, 및 상기 노변설치부와 연통된 중앙처리부를 포함하고, 상기 자율주행부는 상기 차량의 주변을 센싱하는 차량센싱부, 상기 차량의 속도를 자율제어하는 속도제어부, 및 상기 차량의 조향을 자율제어하는 조향제어부를 포함하는 자율주행을 위한 3차원 벡터좌표시스템에 주안점을 두고 그 기술적 과제로서 완성한 것이다.Accordingly, the present invention was created to eliminate the above-mentioned problems, and includes an autonomous driving unit mounted on a vehicle and connected to a central processing unit; A roadside installation unit installed at the roadside and in communication with the central processing unit; and a central processing unit in communication with the autonomous driving unit and the roadside installation unit, wherein the autonomous driving unit includes a vehicle sensing unit that senses the surroundings of the vehicle, a speed control unit that autonomously controls the speed of the vehicle, and It was completed as a technical task with a focus on a three-dimensional vector coordinate system for autonomous driving, including a steering control unit that autonomously controls steering.

본 발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 과제를 해결하기 위한 일 실시예에 따른 자율주행을 위한 3차원 벡터좌표시스템은 차량에 탑재되고 중앙처리부와 연통된 자율주행부; 노변에 설치되고 상기 중앙처리부와 연통된 노변설치부; 및 상기 자율주행부, 및 상기 노변설치부와 연통된 중앙처리부를 포함하고, 상기 자율주행부는 상기 차량의 주변을 센싱하는 차량센싱부, 상기 차량의 속도를 자율제어하는 속도제어부, 및 상기 차량의 조향을 자율제어하는 조향제어부를 포함한다.A three-dimensional vector coordinate system for autonomous driving according to an embodiment to solve the above problem includes an autonomous driving unit mounted on a vehicle and connected to a central processing unit; A roadside installation unit installed at the roadside and in communication with the central processing unit; and a central processing unit in communication with the autonomous driving unit and the roadside installation unit, wherein the autonomous driving unit includes a vehicle sensing unit that senses the surroundings of the vehicle, a speed control unit that autonomously controls the speed of the vehicle, and It includes a steering control unit that autonomously controls steering.

상기 자율주행부는 상기 중앙처리부와 무선통신하는 차량통신부를 더 포함할 수 있다.The autonomous driving unit may further include a vehicle communication unit that communicates wirelessly with the central processing unit.

상기 자율주행부는 차량의 등록번호, 차량의 모델정보를 저장하고, 상기 차량통신부를 통해 상기 등록번호, 및 모델정보를 상기 중앙처리부에 제공하는 차량데이터베이스부를 더 포함할 수 있다.The autonomous driving unit may further include a vehicle database unit that stores the vehicle registration number and vehicle model information, and provides the registration number and model information to the central processing unit through the vehicle communication unit.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

상기한 본 발명에 의하면 차량에 탑재되고 중앙처리부와 연통된 자율주행부; 노변에 설치되고 상기 중앙처리부와 연통된 노변설치부; 및 상기 자율주행부, 및 상기 노변설치부와 연통된 중앙처리부를 포함하고, 상기 자율주행부는 상기 차량의 주변을 센싱하는 차량센싱부, 상기 차량의 속도를 자율제어하는 속도제어부, 및 상기 차량의 조향을 자율제어하는 조향제어부를 포함하는 자율주행을 위한 3차원 벡터좌표시스템을 제공함으로써 바로 인접한 차량의 움직임뿐만 아니라, 전전방, 후후방, 측측방 등에 위치한 차량들의 움직임(속력값, 위치값, 조향값)도 3차원 메쉬 형태의 좌표를 통해 쉽게 인식할 수 있어, 사고 예방에 탁월하다는 이점이 있다.According to the present invention described above, an autonomous driving unit mounted on a vehicle and connected to a central processing unit; A roadside installation unit installed at the roadside and in communication with the central processing unit; and a central processing unit in communication with the autonomous driving unit and the roadside installation unit, wherein the autonomous driving unit includes a vehicle sensing unit that senses the surroundings of the vehicle, a speed control unit that autonomously controls the speed of the vehicle, and By providing a three-dimensional vector coordinate system for autonomous driving that includes a steering control unit that autonomously controls steering, not only the movement of immediately adjacent vehicles, but also the movement of vehicles located front-to-front, back-to-back, side-to-side, etc. (speed value, position value, Steering values) can also be easily recognized through 3D mesh coordinates, which has the advantage of being excellent for accident prevention.

실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the embodiments are not limited to the contents exemplified above, and further various effects are included in the present specification.

도 1은 일 실시예에 따른 자율주행을 위한 3차원 벡터좌표시스템의 구성들을 보여주는 도면이다.
도 2는 도 1의 노변설치부의 구성들을 보여주는 도면이다.
도 3은 도 1의 중앙처리부의 구성들을 보여주는 도면이다.
도 4는 도 1의 자율주행부의 구성들을 보여주는 도면이다.
도 5는 차량센싱부, 속도제어부, 조향제어부, 및 노변센싱부와 데이터베이스부 간의 관계를 보여주는 도면이다.
도 6은 데이터베이스부와 차량모델결정부 간의 관계를 보여주는 도면이다.
도 7은 차량센싱데이터, 지적도데이터, 라이다데이터, 및 비전인식데이터와 차량부위별좌표결정부 간의 관계를 보여주는 도면이다.
도 8은 차량부위별좌표결정부, 도출데이터통신부, 및 인접차량 간의 관계를 보여주는 도면이다.
도 9는 도출데이터의 구성들을 보여주는 도면이다.
도 10은 벡터해석부, 차량부위별좌표결정부, 및 데이터베이스부 간의 관계를 보여주는 도면이다.
도 11은 차량데이터베이스부, 차량통신부, 및 상대차량 간의 관계를 보여주는 도면이다.
도 12는 상대차량운행정보의 구성들을 보여주는 도면이다.
Figure 1 is a diagram showing the configuration of a 3D vector coordinate system for autonomous driving according to an embodiment.
Figure 2 is a diagram showing the configuration of the roadside installation part of Figure 1.
FIG. 3 is a diagram showing the configuration of the central processing unit of FIG. 1.
FIG. 4 is a diagram showing the configurations of the autonomous driving unit of FIG. 1.
Figure 5 is a diagram showing the relationship between the vehicle sensing unit, speed control unit, steering control unit, roadside sensing unit, and database unit.
Figure 6 is a diagram showing the relationship between the database unit and the vehicle model determination unit.
Figure 7 is a diagram showing the relationship between vehicle sensing data, cadastral map data, lidar data, and vision recognition data and the coordinate determination unit for each vehicle part.
Figure 8 is a diagram showing the relationship between the coordinate determination unit for each vehicle part, the derived data communication unit, and adjacent vehicles.
Figure 9 is a diagram showing the configuration of derived data.
Figure 10 is a diagram showing the relationship between the vector analysis unit, the coordinate determination unit for each vehicle part, and the database unit.
Figure 11 is a diagram showing the relationship between the vehicle database unit, vehicle communication unit, and other vehicles.
Figure 12 is a diagram showing the configuration of relative vehicle operation information.

이하, 첨부도면을 참고하여 본 발명의 구성 및 이로 인한 작용, 효과에 대해 일괄적으로 기술하기로 한다.Hereinafter, the configuration of the present invention and its operations and effects will be described collectively with reference to the accompanying drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그리고 명세서 전문에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete, and are provided by those skilled in the art in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In addition, the same reference numerals refer to the same elements throughout the specification.

도 1은 일 실시예에 따른 자율주행을 위한 3차원 벡터좌표시스템의 구성들을 보여주는 도면이다. 도 2는 도 1의 노변설치부의 구성들을 보여주는 도면이다. 도 3은 도 1의 중앙처리부의 구성들을 보여주는 도면이다. 도 4는 도 1의 자율주행부의 구성들을 보여주는 도면이다.Figure 1 is a diagram showing the configuration of a 3D vector coordinate system for autonomous driving according to an embodiment. Figure 2 is a diagram showing the configuration of the roadside installation part of Figure 1. FIG. 3 is a diagram showing the configuration of the central processing unit of FIG. 1. FIG. 4 is a diagram showing the configurations of the autonomous driving unit of FIG. 1.

도 1 내지 도 4를 참조하면, 일 실시예에 따른 자율주행을 위한 3차원 벡터좌표시스템(1)은 차량에 탑재되고 중앙처리부(50)와 연통된 자율주행부(10), 노변에 설치되고 상기 중앙처리부(50)와 연통된 노변설치부(30), 및 상기 자율주행부(10), 및 상기 노변설치부(30)와 연통된 중앙처리부(50)를 포함할 수 있다.Referring to FIGS. 1 to 4, a three-dimensional vector coordinate system 1 for autonomous driving according to an embodiment includes an autonomous driving unit 10 mounted on a vehicle and connected to the central processing unit 50, and installed on the roadside. It may include a roadside installation unit 30 in communication with the central processing unit 50, the autonomous driving unit 10, and a central processing unit 50 in communication with the roadside installation unit 30.

상기 자율주행부(10)는 상기 차량의 주변을 센싱하는 차량센싱부(11), 상기 차량의 속도를 자율제어하는 속도제어부(12), 및 상기 차량의 조향을 자율제어하는 조향제어부(13)를 포함할 수 있다.The autonomous driving unit 10 includes a vehicle sensing unit 11 that senses the surroundings of the vehicle, a speed control unit 12 that autonomously controls the speed of the vehicle, and a steering control unit 13 that autonomously controls the steering of the vehicle. may include.

상기 자율주행부(10)의 차량센싱부(11)는 상기 차량에 부착된 카메라, 레이더, 초음파 등의 센서를 포함할 수 있다. 차량센싱부(11)는 상기 센서를 통해 상기 차량의 주변을 센싱하여 상황파악할 수 있다. 차량센싱부(11)는 상기 레이더, 상기 초음파 등의 센서를 통해 상기 차량의 위치를 파악하는 비컨 등의 선형 통신 장치를 더 포함할 수 있다.The vehicle sensing unit 11 of the autonomous driving unit 10 may include sensors such as cameras, radars, and ultrasonic waves attached to the vehicle. The vehicle sensing unit 11 can determine the situation by sensing the surroundings of the vehicle through the sensor. The vehicle sensing unit 11 may further include a linear communication device such as a beacon that determines the location of the vehicle through sensors such as the radar and ultrasonic waves.

상기 자율주행부(10)는 센싱된 상기 차량의 주변 정보를 판단하는 전자제어부(ECU)를 더 포함할 수 있다. 전자제어부(ECU)에서 센싱된 상기 차량의 주변 정보를 판단한 후, 상기 전자제어부(ECU)는 상기 속도제어부(12), 조향제어부(13)에 각각 제어신호를 전송하여, 상기 차량의 속도, 제동, 및 조향 등을 제어할 수 있다.The autonomous driving unit 10 may further include an electronic control unit (ECU) that determines the sensed surrounding information of the vehicle. After determining the surrounding information of the vehicle sensed by the electronic control unit (ECU), the electronic control unit (ECU) transmits control signals to the speed control unit 12 and the steering control unit 13, respectively, to control the vehicle's speed and braking. , and steering can be controlled.

상기 자율주행부(10)는 GPS좌표인식부를 더 포함할 수 있다. 상기 GPS좌표인식부는 GPS신호를 제공하는 통신부와 연통될 수 있다.The autonomous driving unit 10 may further include a GPS coordinate recognition unit. The GPS coordinate recognition unit may be in communication with a communication unit that provides GPS signals.

상기 자율주행부(10)는 차량통신부(14), 및 차량데이터베이스부(15)를 더 포함할 수 있다.The autonomous driving unit 10 may further include a vehicle communication unit 14 and a vehicle database unit 15.

한편, 기존의 차량의 자율주행부는 상기 센서에 의해 센싱되는 주변환경만 고려할 수 있었다. 즉, 상기 차량의 전방, 후방, 측방의 주변환경만 고려할 수 있고, 상기 센서에 의해 센싱되지 않는 주변환경을 고려할 수 없었다.Meanwhile, the autonomous driving unit of a conventional vehicle can only consider the surrounding environment sensed by the sensor. In other words, only the surrounding environment in front, rear, and sides of the vehicle could be considered, and the surrounding environment not sensed by the sensor could not be considered.

나아가, 상기 센서는 소정의 시야각을 갖는데, 기존의 차량의 자율주행부는 제한된 시야각을 갖는 상기 센서에 의존하기 때문에, 정밀하게 주변환경을 파악하기 어렵다는 문제가 있었다.Furthermore, the sensor has a predetermined viewing angle, but since the autonomous driving system of existing vehicles relies on the sensor having a limited viewing angle, there is a problem in that it is difficult to accurately determine the surrounding environment.

더 나아가, 상기 센서가 탑재된 상기 차량과 인접한 주변환경과의 상대적 스칼라량(예컨대, 속력정보)에 의존하기 때문에, 방향 정보 및/또는 방향 정보와 속력 정보의 합산(예컨대, 속도정보)를 인지하기 어렵다는 문제가 있었다.Furthermore, because the sensor depends on the relative scalar amount (e.g., speed information) between the vehicle mounted on the vehicle and the adjacent surrounding environment, direction information and/or the sum of direction information and speed information (e.g., speed information) is recognized. There was a problem that it was difficult to do.

더 나아가, 기존의 차량의 자율주행부의 상기 GPS신호는 2차원 좌표로 구성된 신호이고, 터널, 빌딩숲, 실내 등에서는 상기 GPS좌표인식부는 상기 GPS신호가 인식되지 않을 수 있다. 상기 GPS신호가 2차원 좌표로 구성된 신호이기 때문에, 수직적 좌표를 인식하기 어려울 수 있다.Furthermore, the GPS signal of the autonomous driving unit of an existing vehicle is a signal composed of two-dimensional coordinates, and the GPS coordinate recognition unit may not recognize the GPS signal in tunnels, building forests, indoors, etc. Because the GPS signal is a signal composed of two-dimensional coordinates, it may be difficult to recognize vertical coordinates.

또한, 기존 차량의 자율주행부의 선형통신장치는 각종 통신 장애요소로 인해 현실 환경에서 부정확도가 높을 수 있다.In addition, the linear communication device of the autonomous driving unit of existing vehicles may have high inaccuracy in the real environment due to various communication obstacles.

위 상술한 문제점을 일소하기 위한, 본 발명의 구체적인 구성에 대해 설명하기로 한다.In order to eliminate the above-mentioned problems, the specific configuration of the present invention will be described.

상기 노변설치부(30)는 노변에 설치될 수 있다. 예를 들어, 상기 노변설치부(30)는 노변에 위치한 가로등에 설치될 수 있다. 상기 노변설치부(30)는 복수개로 마련되며, 복수개로 마련된 상기 노변설치부(30)들은 소정의 간격으로 노변에 위치한 가로등마다 설치될 수 있다. The roadside installation unit 30 may be installed on the roadside. For example, the roadside installation unit 30 may be installed on a streetlight located on the roadside. The roadside installation units 30 are provided in plural numbers, and the plurality of roadside installation units 30 may be installed for each streetlight located on the roadside at predetermined intervals.

상기 노변설치부(30)는 노변센싱부(31), 및 노변통신부(35)를 포함할 수 있다. The roadside installation unit 30 may include a roadside sensing unit 31 and a roadside communication unit 35.

노변센싱부(31)는 노변에 설치된 레이다, 또는 카메라 등의 센서일 수 있다. 노변센싱부(31)의 레이다 센서를 통해 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 라이다데이터를 생성하고, 노변센싱부(31)의 카메라 센서를 통해 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 비전인식데이터를 생성할 수 있다. The roadside sensing unit 31 may be a sensor such as a radar or camera installed on the roadside. LiDAR data of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle, is generated through the radar sensor of the roadside sensing unit 31, and the radar data of the vehicles passing the roadside at a predetermined time is generated through the camera sensor of the roadside sensing unit 31. Vision recognition data of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle, can be generated.

상기 라이다데이터는 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 포함할 수 있다. 상기 비전인식데이터는 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 포함할 수 있다.The LIDAR data may include three-dimensional coordinate information related to vehicles passing the roadside at a predetermined time. The vision recognition data may include three-dimensional coordinate information related to vehicles passing the roadside at a predetermined time.

상기 노변센싱부(31)는 상기 라이다데이터 및 상기 비전인식데이터를 기초로 상기 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 획득할 수 있다.The roadside sensing unit 31 may acquire three-dimensional coordinate information related to vehicles passing the roadside at the predetermined time based on the lidar data and the vision recognition data.

상기 라이다데이터는 상기 소정 시간에 상기 노변을 지나가는 차량들의 일부 정보 및/또는 전체 정보를 획득할 수 있다. The LIDAR data may obtain partial information and/or all information about vehicles passing the roadside at the predetermined time.

상기 비전인식데이터는 상기 소정 시간에 상기 노변을 지나가는 차량들의 일부 정보 및/또는 전체 정보를 획득할 수 있다. The vision recognition data may obtain partial information and/or all information about vehicles passing the roadside at the predetermined time.

상술한 바와 같이, 상기 노변설치부(30)는 노변에 설치되고 소정의 간격으로 이격되어 위치한 가로등마다 설치되므로, 상기 노변설치부(30)의 노변센싱부(31) 역시, 소정의 간격으로 이격되어 설치될 수 있다.As described above, the roadside installation unit 30 is installed on the roadside and is installed at each streetlight spaced apart at a predetermined interval, so the roadside sensing unit 31 of the roadside installation unit 30 is also spaced apart at a predetermined interval. and can be installed.

상기 노변센싱부(31)는 소정의 범위를 커버하여 센싱할 수 있다. 예를 들어, 상기 소정의 범위는 상기 노변센싱부(31)과 인접한 상기 노변센싱부(31)와의 간격을 고려하여 설정될 수 있다. 예를 들어, 인접 배치된 노변센싱부(31) 간의 간격이 100m라면, 상기 노변센싱부(31)가 커버하는 상기 소정의 범위는 상기 노변센싱부(31)를 원의 중심으로 설정하여 반경 50m까지 커버할 수 있다. 다만, 위 예시는 이에 제한되지 않고 인접 배치된 노변센싱부(31)의 커버 범위는 중첩할 수도 있다.The roadside sensing unit 31 can sense by covering a predetermined range. For example, the predetermined range may be set in consideration of the distance between the roadside sensing unit 31 and the adjacent roadside sensing unit 31. For example, if the distance between adjacent roadside sensing units 31 is 100m, the predetermined range covered by the roadside sensing unit 31 is set to the center of a circle with the roadside sensing unit 31 having a radius of 50m. It can cover up to However, the above example is not limited to this, and the coverage ranges of adjacent roadside sensing units 31 may overlap.

노변통신부(35)는 노변센싱부(31)에 의해 생성된 상기 라이다데이터, 및 상기 비전인식데이터를 제공받아, 데이터베이스부(54)에 제공할 수 있다.The roadside communication unit 35 may receive the LIDAR data and the vision recognition data generated by the roadside sensing unit 31 and provide them to the database unit 54.

즉, 노변통신부(35)는 상기 노변센싱부(31)에 의해 획득된 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 데이터베이스부(54)에 제공할 수 있다.That is, the roadside communication unit 35 may provide the database unit 54 with three-dimensional coordinate information related to vehicles passing along the roadside obtained by the roadside sensing unit 31.

중앙처리부(50)는 차량모델결정부(51), 차량부위별좌표결정부(52), 도출데이터통신부(53), 데이터베이스부(54), 및 벡터해석부(55)를 포함할 수 있다.The central processing unit 50 may include a vehicle model determination unit 51, a coordinate determination unit for each vehicle part 52, a derived data communication unit 53, a database unit 54, and a vector analysis unit 55.

차량모델결정부(51)는 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 모델을 결정할 수 있다.The vehicle model determination unit 51 may determine models of vehicles passing along the roadside at a predetermined time, including the vehicle and vehicles adjacent to the vehicle.

차량부위별좌표결정부(52)는 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 부위별 좌표를 결정할 수 있다. 차량부위별좌표결정부(52)는 상기 차량과 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)과의 좌표정보(개별 차량들의 3차원 절대좌표정보)를 생성할 수 있다. 뿐만 아니라, 차량부위별좌표결정부(52)는 상기 지적도데이터(2차원 좌표)와 상기 노변센싱부(31)를 기초로, 후술할 실측기준점을 기준으로 도로의 3차원 좌표를 생성할 수 있다. The vehicle part coordinate determination unit 52 may determine the coordinates of each part of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle. The coordinate determination unit 52 for each vehicle part determines coordinate information (3D absolute coordinate information of individual vehicles) between the vehicle and adjacent vehicles (front, rear, side, front, rear, rear, side, etc.) of the vehicle. can be created. In addition, the coordinate determination unit 52 for each vehicle part can generate 3-dimensional coordinates of the road based on the cadastral map data (2-dimensional coordinates) and the roadside sensing unit 31, and based on the actual measurement reference point, which will be described later.

도 5는 차량센싱부, 속도제어부, 조향제어부, 및 노변센싱부와 데이터베이스부 간의 관계를 보여주는 도면이다.Figure 5 is a diagram showing the relationship between the vehicle sensing unit, speed control unit, steering control unit, roadside sensing unit, and database unit.

도 5를 참조하면, 차량센싱부(11)의 차량센싱데이터, 속도제어부(12)의 속도데이터, 및 조향제어부(13)의 조향데이터는 각각 차량통신부(14)를 통해 데이터베이스부(54)에 제공될 수 있다. 상기 차량센싱데이터, 상기 속도데이터, 및 상기 조향데이터뿐만 아니라, 상기 차량의 예측주행경로데이터도 차량통신부(14)를 통해 데이터베이스부(54)에 제공될 수 있다. Referring to FIG. 5, vehicle sensing data from the vehicle sensing unit 11, speed data from the speed control unit 12, and steering data from the steering control unit 13 are each transmitted to the database unit 54 through the vehicle communication unit 14. can be provided. In addition to the vehicle sensing data, speed data, and steering data, predicted driving path data of the vehicle may also be provided to the database unit 54 through the vehicle communication unit 14.

또한, 노변센싱부(31)의 라이다데이터, 비전인식데이터는 각각 노변통신부(35)를 통해 데이터베이스부(54)에 제공될 수 있다. Additionally, the lidar data and vision recognition data of the roadside sensing unit 31 may be provided to the database unit 54 through the roadside communication unit 35, respectively.

또한, 차량데이터베이스부(15)에 저장된 차량등록데이터도 차량통신부(14)를 통해 데이터베이스부(54)에 제공될 수 있다.Additionally, vehicle registration data stored in the vehicle database unit 15 may also be provided to the database unit 54 through the vehicle communication unit 14.

도 6은 데이터베이스부와 차량모델결정부 간의 관계를 보여주는 도면이다.Figure 6 is a diagram showing the relationship between the database unit and the vehicle model determination unit.

도 6을 참조하면, 데이터베이스부(54)에는 차량센싱부(11)로부터 제공된 차량센싱데이터, 노변센싱부(31)로부터 제공된 라이다데이터, 비전인식데이터, 및 차량별표준형상데이터가 저장될 수 있다. 뿐만 아니라, 데이터베이스부(54)에는 지적도데이터, 차량데이터베이스부(15)로부터 제공된 차량등록데이터, 속도제어부(12)로부터 제공된 속도데이터, 조향제어부(13)로부터 제공된 조향데이터, 및 상기 예측주행경로데이터가 저장될 수 있다.Referring to FIG. 6, the database unit 54 may store vehicle sensing data provided from the vehicle sensing unit 11, lidar data provided from the roadside sensing unit 31, vision recognition data, and standard shape data for each vehicle. there is. In addition, the database unit 54 contains cadastral map data, vehicle registration data provided from the vehicle database unit 15, speed data provided from the speed control unit 12, steering data provided from the steering control unit 13, and the predicted driving path data. can be saved.

상기 차량데이터베이스부(15)에 저장된 차량센싱데이터, 라이다데이터, 비전인식데이터, 차량별표준형상데이터, 및 차량등록데이터는 도 6에 도시된 바와 같이, 차량모델결정부(51)에 제공될 수 있다. 차량모델결정부(51)는 제공된 차량센싱데이터, 라이다데이터, 비전인식데이터, 차량별표준형상데이터, 및 차량등록데이터를 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)의 차량모델을 결정할 수 있다. 차량모델결정부(51)는 상기 차량센싱데이터, 상기 라이다데이터, 및 상기 비전인식데이터 등을 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)의 차량모델을 판별하는 역할을 할 수 있다.The vehicle sensing data, lidar data, vision recognition data, standard shape data for each vehicle, and vehicle registration data stored in the vehicle database unit 15 are to be provided to the vehicle model determination unit 51, as shown in FIG. 6. You can. The vehicle model determination unit 51 determines the vehicle and adjacent vehicles (front, rear, side, front) through the provided vehicle sensing data, lidar data, vision recognition data, standard shape data for each vehicle, and vehicle registration data. You can determine the vehicle model (front, rear, side, etc.). The vehicle model determination unit 51 determines the vehicle and adjacent vehicles (front, rear, side, front, rear, side, etc.) of the vehicle through the vehicle sensing data, the lidar data, and the vision recognition data. etc.) can play a role in determining the vehicle model.

다만, 차량모델결정부(51)에 의해 판별된 차량모델이 정확하지 않을 경우 차량모델결정부(51)는 디폴트 모델을 상기 차량 및 상기 차량의 인접 차량들에 적용할 수도 있다. 예를 들어, 상기 차량모델결정부(51)에 의해 상기 차량 및 상기 차량의 인접 차량들의 판별도(또는 정확도)가 약 70% 이하일 경우, 상기 차량모델결정부(51)는 상기 차량등록데이터를 근거로, 해당 차량의 상기 차량별표준형상데이터에만 근거하여 추출된 상기 디폴트 모델을 상기 해당 차량의 차량모델로 결정할 수 있다. 다만, 상기 약 70%라는 수치는 제한되는 것은 아니고, 상황마다 변동되어 설계될 수 있음은 물론이다.However, if the vehicle model determined by the vehicle model determination unit 51 is not accurate, the vehicle model determination unit 51 may apply the default model to the vehicle and adjacent vehicles of the vehicle. For example, when the discrimination degree (or accuracy) between the vehicle and adjacent vehicles of the vehicle by the vehicle model determination unit 51 is less than about 70%, the vehicle model determination unit 51 determines the vehicle registration data. As a basis, the default model extracted based only on the vehicle-specific standard shape data of the corresponding vehicle may be determined as the vehicle model of the corresponding vehicle. However, the above figure of about 70% is not limited, and of course can be designed to vary depending on the situation.

상기 차량모델결정부(51)에 의해 판별된 상기 차량모델은 3D 형상 매쉬(Mesh)의 형태로 제공될 수 있다.The vehicle model determined by the vehicle model determination unit 51 may be provided in the form of a 3D shape mesh.

각각 차량들의 상기 차량모델이 결정되면 각각의 차량들마다 ID가 부여될 수 있다.Once the vehicle model of each vehicle is determined, an ID may be assigned to each vehicle.

한편, 차량모델결정부(51)는 각각의 차량들뿐만 아니라, 상기 차량에 적재된 적재물(예컨대, 적재된 컨테이너, 적재된 물품 등) 등의 실시간 차량 형태(또는 현장 차량 형태)를 추가로 포함하여 상기 차량모델을 결정할 수 있다.Meanwhile, the vehicle model determination unit 51 additionally includes real-time vehicle types (or on-site vehicle types) such as each vehicle as well as cargo loaded on the vehicle (e.g., loaded containers, loaded goods, etc.). Thus, the vehicle model can be determined.

도 7은 차량센싱데이터, 지적도데이터, 라이다데이터, 및 비전인식데이터와 차량부위별좌표결정부 간의 관계를 보여주는 도면이다.Figure 7 is a diagram showing the relationship between vehicle sensing data, cadastral map data, lidar data, and vision recognition data and the coordinate determination unit for each vehicle part.

도 7을 참조하면, 데이터베이스부(54)에 저장된 차량센싱데이터, 지적도데이터, 라이다데이터, 및 비전인식데이터는 차량부위별좌표결정부(52)에 제공될 수 있다. 상기 지적도데이터는 상수값(또는 절댓값)일 수 있다. 즉, 상기 지적도데이터는 인접 차량과의 관계와 무관하게, 노면, 상기 노면 상의 구조물, 및/또는 상기 노면 상의 장애물을 표현하는 데이터일 수 있다. 상기 지적도데이터는 2차원 좌표데이터일 수 있다.Referring to FIG. 7, vehicle sensing data, cadastral map data, lidar data, and vision recognition data stored in the database unit 54 may be provided to the coordinate determination unit 52 for each vehicle part. The cadastral map data may be a constant value (or absolute value). That is, the cadastral map data may be data representing a road surface, a structure on the road surface, and/or an obstacle on the road surface, regardless of the relationship with adjacent vehicles. The cadastral map data may be two-dimensional coordinate data.

차량부위별좌표결정부(52)는 제공된 차량센싱데이터, 지적도데이터, 라이다데이터, 및 비전인식데이터를 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)의 차량부위별좌표(이하, 도출데이터)를 결정할 수 있다. 상기 차량부위별좌표결정부(52)는 도 6에서 상술된 차량모델결정부(51)에 의해 결정된 차량모델을 참고하여 차량부위별좌표를 결정할 수 있다. The coordinate determination unit 52 for each vehicle part determines the vehicle and adjacent vehicles (front, rear, side, front, rear, side) through the provided vehicle sensing data, cadastral map data, lidar data, and vision recognition data. Coordinates (hereinafter referred to as derived data) for each vehicle part (side, etc.) can be determined. The vehicle part-specific coordinate determination unit 52 may determine the vehicle part-specific coordinates by referring to the vehicle model determined by the vehicle model determination unit 51 described above in FIG. 6.

상기 차량부위별좌표는 평면상의 2차원 좌표뿐만 아니라, 높이까지 포함된 3차원 좌표일 수 있다. 상기 차량부위별좌표의 실측기준점은 차선, 또는 노변에 설치된 페이링 센서 또는 설비일 수 있다. 즉, 상기 실측기준점을 기준으로, 상기 차량부위 간의 각도와 거리를 고려하여 차량부위별좌표를 결정할 수 있다. 상기 차량부위별좌표는 결정된 후, 수시로 보정될 수 있다. The coordinates for each vehicle part may be not only two-dimensional coordinates on a plane, but also three-dimensional coordinates including height. The actual measurement reference point of the coordinates for each vehicle part may be a paying sensor or facility installed in a lane or on the roadside. That is, based on the actual measurement reference point, the coordinates for each vehicle part can be determined by considering the angle and distance between the vehicle parts. After the coordinates for each vehicle part are determined, they can be corrected at any time.

더욱 구체적으로 설명하면, 상기 차량부위별좌표결정부(52)는 상기 차량모델결정부(51)에 의해 결정된 개별 차량모델과 상기 지적도데이터를 기초로 개별 차량의 차량부위별좌표를 결정할 수 있다.To be more specific, the vehicle part coordinate determination unit 52 may determine the vehicle part coordinates of an individual vehicle based on the individual vehicle model determined by the vehicle model determination unit 51 and the cadastral map data.

상술한 바와 같이, 차량부위별좌표결정부(52)는 상기 지적도데이터(2차원 좌표)와 상기 노변센싱부(31)를 기초로, 후술할 실측기준점을 기준으로 도로의 3차원 좌표를 추가로 생성할 수 있다. 상기 차량부위별좌표결정부(52)는 상기 도로의 3차원 좌표(메쉬형태)를 추가로 생성함으로써, 매번 차량이 지나갈 때마다 상기 차량의 좌표값을 새로이 계산할 필요가 없다. 즉, 매번 차량이 지나갈 때마다 상기 차량의 좌표값을 새롭게 계산하면, 다변하는 상황에 따라 인식 오류의 가능성이 발생할 수 있는데, 상기한 바와 같이, 상기 차량부위별좌표결정부(52)는 상기 도로의 3차원 좌표를 추가로 생성함으로써, 다변하는 상황에 따라 인식 오류의 가능성을 미연에 차단할 수 있다는 이점이 있다. 나아가, 상기 차량부위별좌표결정부(52)는 상기 도로의 3차원 좌표(메쉬형태)를 추가로 생성함으로써, 상기 차량 등을 보다 빠르고 정확하게 표현할 수 있다는 장점이 있다.As described above, the coordinate determination unit 52 for each vehicle part additionally generates 3-dimensional coordinates of the road based on the cadastral map data (2-dimensional coordinates) and the roadside sensing unit 31, and based on the actual measurement reference point to be described later. can do. The vehicle part coordinate determination unit 52 additionally generates three-dimensional coordinates (mesh form) of the road, so there is no need to newly calculate the coordinate values of the vehicle each time the vehicle passes. In other words, if the coordinate values of the vehicle are newly calculated each time the vehicle passes, the possibility of recognition errors may occur depending on various situations. As described above, the coordinate determination unit 52 for each vehicle part determines the coordinates of the road. By generating additional 3D coordinates, there is an advantage in that the possibility of recognition errors can be prevented in advance depending on various situations. Furthermore, the vehicle part coordinate determination unit 52 has the advantage of being able to express the vehicle, etc. more quickly and accurately by additionally generating three-dimensional coordinates (mesh form) of the road.

상기 3차원의 메쉬형태의 좌표는 상기 지적도데이터(2차원 좌표)와 상기 노변센싱부(31)를 기초로 상기 노변센싱부(31)가 커버하는 상기 소정의 범위 내 공간 자체를 3차원 직선 메쉬들로 구성한 것으로서, 상기 3차원 직선 메쉬들의 교차점은 기본값으로 설정될 수 있다.The three-dimensional mesh-shaped coordinates are a three-dimensional straight mesh of the space itself within the predetermined range covered by the roadside sensing unit 31 based on the cadastral map data (two-dimensional coordinates) and the roadside sensing unit 31. , the intersection of the three-dimensional straight meshes can be set to the default value.

몇몇 실시예에서, 상기 도로(또는 노면)의 굴곡이나, 도로 상의 낙하물의 존재 등은 상기 노변센싱부(31)에 의해 실시간 감지되어, 상기 3차원의 메쉬형태의 좌표에 실시간 업데이트될 수 있다.In some embodiments, the curvature of the road (or road surface) or the presence of fallen objects on the road can be detected in real time by the roadside sensing unit 31 and updated in real time in the three-dimensional mesh coordinates.

본 실시예와 같이, 상기 3차원의 메쉬형태의 좌표를 생성함으로써, 상기 노변센싱부(31)로부터 상기 레이다의 송출된 각도 및 반사체(예컨대, 차량이나 적재물 등)까지의 반사거리만 알더라도, 상기 반사체의 위치를 정확히 파악할 수 있다는 이점이 있다.As in the present embodiment, by generating the three-dimensional mesh coordinates, even if only the transmitted angle of the radar and the reflection distance from the roadside sensing unit 31 to the reflector (e.g., vehicle or load, etc.) are known, There is an advantage in that the position of the reflector can be accurately determined.

차량부위별좌표결정부(52)로부터 도출된 데이터(개별 차량의 차량부위별좌표, 및 도로의 3차원 좌표)를 이하에서, 도출데이터(ID)로 지칭한다.Data derived from the vehicle part coordinate determination unit 52 (vehicle part coordinates of individual vehicles and 3D coordinates of the road) are hereinafter referred to as derived data (ID).

벡터해석부(55)는 상기 도출데이터(ID) 중 개별 차량의 차량부위별좌표, 상기 속도데이터, 및 상기 조향데이터를 근거로, 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정할 수 있다. 상기 벡터값은 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 절대좌표값(3차원), 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대속력값, 및 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대방향값(3차원)을 포함할 수 있다.The vector analysis unit 55 determines a vector value between the vehicle and adjacent vehicles of the vehicle based on the vehicle part coordinates of each vehicle, the speed data, and the steering data among the derived data (ID). You can. The vector value is an absolute coordinate value (3D) between the vehicle and adjacent vehicles of the vehicle, the relative speed value between the vehicle and adjacent vehicles of the vehicle, and the proximity of the vehicle to the vehicle. It may include relative direction values (3D) between vehicles.

벡터해석부(55)는 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정하되, 차량들의 대표 부위별 좌표를 기준으로 백터값을 결정할 수 있다. 벡터해석부(55)는 결정된 차량들의 대표 부위별 좌표의 벡터값을 차량부위별좌표결정부(52)로부터 도출된 도출데이터(ID) 중 도로의 3차원 좌표에 대입할 수 있다.The vector analysis unit 55 determines the vector value between the vehicle and adjacent vehicles of the vehicle, and can determine the vector value based on the coordinates of each representative part of the vehicle. The vector analysis unit 55 may substitute the determined vector value of the coordinates for each representative part of the vehicle into the three-dimensional coordinates of the road among the derived data (ID) derived from the vehicle part coordinate determination unit 52.

도 8은 차량부위별좌표결정부, 도출데이터통신부, 및 인접차량 간의 관계를 보여주는 도면이다.Figure 8 is a diagram showing the relationship between the coordinate determination unit for each vehicle part, the derived data communication unit, and adjacent vehicles.

도 8을 참조하면, 차량부위별좌표결정부(52)로부터 도출된 도출데이터(ID)는 도출데이터통신부(53)에 제공될 수 있다. 도출데이터통신부(53)에 제공된 도출데이터(ID)는 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)에 제공될 수 있다. Referring to FIG. 8, derived data (ID) derived from the vehicle part-specific coordinate determination unit 52 may be provided to the derived data communication unit 53. The derived data (ID) provided to the derived data communication unit 53 may be provided to adjacent vehicles (front, rear, side, front, rear, side, etc.) of the vehicle.

도출데이터(ID)를 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)에 제공할 때, 각각 차량의 차량데이터베이스부(15)에 저장되고 차량통신부(14)를 통해 데이터베이스부(54)에 저장된 차량등록데이터를 기반으로, 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방 등)에 제공할 수 있다.When providing derived data (ID) to adjacent vehicles (front, rear, side, front, rear, side, etc.) of the vehicle, it is stored in the vehicle database unit 15 of each vehicle and is stored in the vehicle communication unit 14. ), based on the vehicle registration data stored in the database unit 54, can be provided to adjacent vehicles (front, rear, side, front, rear, side, etc.) of the vehicle.

한편, 도출데이터(ID)는 상기 차량의 인접 차량들뿐만 아니라, 해당 차량에도 도출데이터통신부(53)를 통해 제공될 수 있다.Meanwhile, derived data (ID) can be provided through the derived data communication unit 53 not only to adjacent vehicles of the vehicle, but also to the vehicle.

도 8에서는, 도출데이터(ID) 자체를 도출데이터통신부(53)를 통해 인접한 차량들에 제공될 수 있다고 설명하였지만, 이에 제한되지 않고, 벡터해석부(55)에 의해 결정된 차량들의 대표 부위별 좌표의 벡터값이 차량부위별좌표결정부(52)로부터 도출된 도출데이터(ID) 중 도로의 3차원 좌표에 대입된 도출벡터데이터를 도출데이터통신부(53)를 통해 인접한 차량들에 제공할 수 있다. 상기 도출벡터데이터는 상기한 3차원 메쉬형태의 좌표의 형태로 제공될 수 있다. 몇몇 실시예에서, 상기 도출벡터데이터는 해당 차량의 조향데이터, 속도데이터(및 브레이크데이터, 및 가속데이터 등을 포함)뿐만 아니라, 네이게이션 목적지 정보를 더 포함할 수 있다. In FIG. 8, it is explained that the derived data (ID) itself can be provided to adjacent vehicles through the derived data communication unit 53, but it is not limited thereto, and the coordinates for each representative part of the vehicles determined by the vector analysis unit 55 The vector value of can be provided to adjacent vehicles through the derived data communication unit 53 by substituting the derived vector data for the three-dimensional coordinates of the road among the derived data (ID) derived from the vehicle part coordinate determination unit 52. The derived vector data may be provided in the form of coordinates in the three-dimensional mesh format described above. In some embodiments, the derived vector data may further include navigation destination information as well as steering data and speed data (including brake data, acceleration data, etc.) of the vehicle.

상기 도출벡터데이터는 각각 차량들의 상기 차량모델이 결정되어 차량들마다 부여된 ID별로 생성될 수 있다.The derived vector data may be generated for each ID assigned to each vehicle by determining the vehicle model of each vehicle.

상기 ID별 상기 도출벡터데이터는 도로 상황정보(예컨대, 이상 흐름 정보나, 신호등 정보 등)와 함께 도출데이터통신부(53)를 통해 인접한 차량들에 제공될 수 있다. 뿐만 아니라, 상기 도출벡터데이터는 양방향 커뮤니케이션될 수 있어, 상기 인접한 차량들로부터 생성된 상기 도출벡터데이터 역시, 해당 차량에 제공될 수 있음은 물론이다. 이로 인해, 실시간 주행 정보뿐만 아니라, 예상 교통흐름도, 예상 차선변경도 등을 쉽게 알 수 있으므로, 자율주행 통행량 분산 및 방어운전을 도모할 수 있다는 이점이 있다.The derived vector data for each ID may be provided to adjacent vehicles through the derived data communication unit 53 along with road situation information (eg, abnormal flow information, traffic light information, etc.). In addition, the derived vector data can be communicated in two directions, so of course, the derived vector data generated from the adjacent vehicles can also be provided to the corresponding vehicle. As a result, not only real-time driving information, but also expected traffic flow and expected lane changes can be easily known, which has the advantage of distributing autonomous driving traffic and promoting defensive driving.

도 9는 도출데이터의 구성들을 보여주는 도면이다.Figure 9 is a diagram showing the configuration of derived data.

도 9를 참조하면, 도출데이터(ID)는 수치데이터, 및 이미지데이터의 형태로 제공될 수 있다. 상기 수치데이터는 상기 차량 및 상기 차량의 인접차량들의 차량부위별좌표값들 및 도로의 3차원 좌표값일 수 있다. 또한, 상기 수치데이터는 상기 차량 주변의 장애물(높이 등을 고려)에 관한 정확한 좌표를 포함할 수 있다. 상기 이미지데이터는 상기 차량 및 상기 차량의 인접차량들과 상기 차량 주변의 장애물(높이 등을 고려)에 관한 정확한 이미지일 수 있다.Referring to FIG. 9, derived data (ID) may be provided in the form of numerical data and image data. The numerical data may be coordinate values for each vehicle part of the vehicle and vehicles adjacent to the vehicle, and 3D coordinate values of a road. Additionally, the numerical data may include accurate coordinates regarding obstacles (taking height, etc. into account) around the vehicle. The image data may be an accurate image of the vehicle, adjacent vehicles of the vehicle, and obstacles (considering height, etc.) around the vehicle.

도 10은 벡터해석부, 차량부위별좌표결정부, 및 데이터베이스부 간의 관계를 보여주는 도면이다.Figure 10 is a diagram showing the relationship between the vector analysis unit, the coordinate determination unit for each vehicle part, and the database unit.

도 10을 참조하면, 벡터해석부(55)는 차량부위별좌표결정부(52)로부터 도출데이터(ID)를 제공받고, 데이터베이스부(54)로부터 속도데이터, 및 조향데이터를 제공받을 수 있다.Referring to FIG. 10, the vector analysis unit 55 may receive derived data (ID) from the vehicle part coordinate determination unit 52, and may receive speed data and steering data from the database unit 54.

벡터해석부(55)는 상기 도출데이터(ID) 중 개별 차량의 차량부위별좌표, 상기 속도데이터, 및 상기 조향데이터를 근거로, 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정할 수 있다. 상기 벡터값은 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 절대좌표값(3차원), 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대속력값, 및 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대방향값(3차원)을 포함할 수 있다.The vector analysis unit 55 determines a vector value between the vehicle and adjacent vehicles of the vehicle based on the vehicle part coordinates of each vehicle, the speed data, and the steering data among the derived data (ID). You can. The vector value is an absolute coordinate value (3D) between the vehicle and adjacent vehicles of the vehicle, the relative speed value between the vehicle and adjacent vehicles of the vehicle, and the proximity of the vehicle to the vehicle. It may include relative direction values (3D) between vehicles.

본 실시예에 의하면, 3차원 메쉬 형태의 좌표 상에서 상기 해당 차량의 인접차량들 간의 절대좌표값(3차원)을 도출함으로써, 센서와 해당 차량 간의 거리나, 차간 거리 등을 매번 계산할 필요가 없다는 이점이 있다.According to this embodiment, the advantage is that there is no need to calculate the distance between the sensor and the vehicle or the distance between vehicles each time by deriving absolute coordinate values (3D) between adjacent vehicles of the vehicle on the coordinates of a 3D mesh. There is.

도 11은 차량데이터베이스부, 차량통신부, 및 상대차량 간의 관계를 보여주는 도면이다. 도 12는 상대차량운행정보의 구성들을 보여주는 도면이다.Figure 11 is a diagram showing the relationship between the vehicle database unit, vehicle communication unit, and other vehicles. Figure 12 is a diagram showing the configuration of relative vehicle operation information.

도 11 및 도 12를 참조하면, 상대차량(또는 인접차량)운행정보는 차량통신부(14)를 통해 해당 차량의 차량데이터베이스부(15)에 제공될 수 있다. 상기 상대차량운행정보는 상기 상대차량의 벡터해석부(55)에 의해 결정된 상기 상대차량과 상기 상대차량의 인접차량들 간의 벡터값일 수 있다.Referring to Figures 11 and 12, the operation information of the other vehicle (or adjacent vehicle) may be provided to the vehicle database unit 15 of the corresponding vehicle through the vehicle communication unit 14. The other vehicle operation information may be a vector value between the other vehicle and adjacent vehicles of the other vehicle determined by the vector analysis unit 55 of the other vehicle.

이상에서 설명한 본 발명은, 도면에 도시된 일실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 명확히 하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The present invention described above has been described with reference to an embodiment shown in the drawings, but this is merely illustrative, and various modifications and other equivalent embodiments can be made by those skilled in the art. should be clarified. Therefore, the true technical protection scope of the present invention should be interpreted in accordance with the attached claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

1: 자율주행을 위한 3차원 벡터좌표시스템
10: 자율주행부
30: 노변설치부
50: 중앙처리부
1: 3D vector coordinate system for autonomous driving
10: Autonomous Driving Department
30: Roadside installation section
50: Central processing unit

Claims (3)

차량에 탑재되고 중앙처리부(50)와 연통된 자율주행부(10);
노변에 설치되고 상기 중앙처리부(50)와 연통된 노변설치부(30); 및
상기 자율주행부(10), 및 상기 노변설치부(30)와 연통된 상기 중앙처리부(50)를 포함하고,
상기 자율주행부(10)는 상기 차량의 주변을 센싱하는 차량센싱부(11),
상기 차량의 속도를 자율제어하는 속도제어부(12), 및
상기 차량의 조향을 자율제어하는 조향제어부(13)를 포함하고,
상기 자율주행부(10)는 상기 중앙처리부(50)와 무선통신하는 차량통신부(14)를 더 포함하고,
상기 자율주행부(10)는 차량의 등록번호, 차량의 모델정보를 저장하고, 상기 차량통신부(14)를 통해 상기 등록번호, 및 모델정보를 포함하는 차량등록데이터를 상기 중앙처리부(50)에 제공하는 차량데이터베이스부(15)를 더 포함하고,
상기 자율주행부(10)는 센싱된 상기 차량의 주변 정보를 판단하는 전자제어부(ECU)를 더 포함하고,
상기 전자제어부(ECU)에서 센싱된 상기 차량의 주변 정보를 판단한 후, 상기 전자제어부(ECU)는 상기 속도제어부(12), 조향제어부(13)에 각각 제어신호를 전송하여, 상기 차량의 속도, 제동, 및 조향을 제어하고,
상기 자율주행부(10)는 GPS좌표인식부를 더 포함하고,
상기 GPS좌표인식부는 GPS신호를 제공하는 통신부와 연통되고,
상기 노변설치부(30)는 복수개로 마련되며, 복수개로 마련된 상기 노변설치부(30)들은 소정의 간격으로 노변에 위치한 가로등마다 설치되고,
상기 노변설치부(30)는 노변센싱부(31), 및 노변통신부(35)를 포함하고,
상기 노변센싱부(31)는 센서를 포함하고, 상기 센서는 레이다 센서, 및 카메라 센서를 포함하고,
상기 노변센싱부(31)의 상기 레이다 센서를 통해 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 라이다데이터를 생성하고, 상기 노변센싱부(31)의 상기 카메라 센서를 통해 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 비전인식데이터를 생성하고,
상기 라이다데이터는 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 포함하고, 상기 비전인식데이터는 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 포함하고,
상기 노변센싱부(31)는 상기 라이다데이터 및 상기 비전인식데이터를 기초로 상기 소정 시간에 상기 노변을 지나가는 차량들과 관련된 3차원 좌표 정보를 획득하고,
상기 라이다데이터는 상기 소정 시간에 상기 노변을 지나가는 차량들의 일부 정보 또는 전체 정보를 획득하고,
상기 비전인식데이터는 상기 소정 시간에 상기 노변을 지나가는 차량들의 일부 정보 또는 전체 정보를 획득하고,
상기 노변설치부(30)는 노변에 설치되고 소정의 간격으로 이격되어 위치한 가로등마다 설치되므로, 상기 노변설치부(30)의 상기 노변센싱부(31)도 소정의 간격으로 이격되어 설치되고,
상기 노변센싱부(31)는 소정의 범위를 커버하여 센싱하고,
상기 소정의 범위는 상기 노변센싱부(31)과 인접한 상기 노변센싱부(31)와의 간격을 고려하여 설정되고,
상기 노변통신부(35)는 상기 노변센싱부(31)에 의해 생성된 상기 라이다데이터, 및 상기 비전인식데이터를 제공받아, 데이터베이스부(54)에 제공하고,
중앙처리부(50)를 더 포함하고,
상기 중앙처리부(50)는 차량모델결정부(51), 차량부위별좌표결정부(52), 도출데이터통신부(53), 데이터베이스부(54), 및 벡터해석부(55)를 포함하고,
상기 차량모델결정부(51)는 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 모델을 결정하고,
상기 차량부위별좌표결정부(52)는 상기 차량, 상기 차량의 인접 차량들을 포함하는 소정 시간에 상기 노변을 지나가는 차량들의 부위별 좌표를 결정하고,
상기 차량부위별좌표결정부(52)는 상기 차량과 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)과의 좌표정보(개별 차량들의 3차원 절대좌표정보)를 생성하고,
상기 차량부위별좌표결정부(52)는 지적도데이터(2차원 좌표)와 상기 실측기준점을 기준으로 도로의 3차원 좌표를 생성하고,
차량데이터베이스부(15)에 저장된 상기 차량등록데이터를 상기 차량통신부(14)를 통해 상기 데이터베이스부(54)에 제공되고,
상기 데이터베이스부(54)에는 상기 차량센싱부(11)로부터 제공된 차량센싱데이터, 상기 노변센싱부(31)로부터 제공된 상기 라이다데이터, 상기 비전인식데이터, 및 차량별표준형상데이터가 저장되고,
상기 데이터베이스부(54)에는 상기 지적도데이터, 상기 차량데이터베이스부(15)로부터 제공된 상기 차량등록데이터, 상기 속도제어부(12)로부터 제공된 속도데이터, 상기 조향제어부(13)로부터 제공된 조향데이터, 및 예측주행경로데이터가 저장되고,
상기 차량데이터베이스부(15)에 저장된 상기 차량센싱데이터, 상기 라이다데이터, 상기 비전인식데이터, 상기 차량별표준형상데이터, 및 상기 차량등록데이터는 상기 차량모델결정부(51)에 제공되고,
상기 차량모델결정부(51)는 제공된 상기 차량센싱데이터, 상기 라이다데이터, 상기 비전인식데이터, 상기 차량별표준형상데이터, 및 상기 차량등록데이터를 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)의 차량모델을 결정하고,
상기 차량모델결정부(51)는 상기 차량센싱데이터, 상기 라이다데이터, 및 상기 비전인식데이터를 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)의 차량모델을 판별하고,
상기 차량모델결정부(51)에 의해 판별된 차량모델이 정확하지 않을 경우 상기 차량모델결정부(51)는 디폴트 모델을 상기 차량 및 상기 차량의 인접 차량들에 적용하고,
상기 차량모델결정부(51)에 의해 상기 차량 및 상기 차량의 인접 차량들의 판별도가 70% 이하일 경우, 상기 차량모델결정부(51)는 상기 차량등록데이터를 근거로, 해당 차량의 상기 차량별표준형상데이터에만 근거하여 추출된 상기 디폴트 모델을 상기 해당 차량의 차량모델로 결정하고,
상기 차량모델결정부(51)에 의해 판별된 상기 차량모델은 3D 형상 매쉬(Mesh)의 형태로 제공되고,
각 상기 차량들의 상기 차량모델이 결정되면 각각의 상기 차량들마다 ID가 부여되고,
상기 차량모델결정부(51)는 각각의 상기 차량들뿐만 아니라, 상기 차량에 적재된 적재물의 실시간 차량 형태를 추가로 포함하여 상기 차량모델을 결정하고,
상기 데이터베이스부(54)에 저장된 상기 차량센싱데이터, 상기 지적도데이터, 상기 라이다데이터, 및 상기 비전인식데이터는 상기 차량부위별좌표결정부(52)에 제공되고,
상기 지적도데이터는 상수값일 수 있고, 상기 지적도데이터는 인접 차량과의 관계와 무관하게, 노면, 상기 노면 상의 구조물, 및 상기 노면 상의 장애물을 표현하는 데이터이고, 상기 지적도데이터는 2차원 좌표데이터이고,
상기 차량부위별좌표결정부(52)는 제공된 상기 차량센싱데이터, 상기 지적도데이터, 상기 라이다데이터, 및 상기 비전인식데이터를 통해 상기 차량 및 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)의 차량부위별좌표(이하, 도출데이터)를 결정하고,
상기 차량부위별좌표결정부(52)는 상기 차량모델결정부(51)에 의해 결정된 차량모델을 참고하여 차량부위별좌표를 결정하고,
상기 차량부위별좌표는 평면상의 2차원 좌표뿐만 아니라, 높이까지 포함된 3차원 좌표이고,
상기 차량부위별좌표의 실측기준점은 차선, 또는 노변에 설치된 페이링 센서 또는 설비이고,
실측기준점을 기준으로, 상기 차량부위 간의 각도와 거리를 고려하여 상기 차량부위별좌표를 결정하고,
상기 차량부위별좌표는 결정된 후, 수시로 보정될 수 있고,
상기 차량부위별좌표결정부(52)는 상기 차량모델결정부(51)에 의해 결정된 개별 차량모델과 상기 지적도데이터를 기초로 개별 차량의 차량부위별좌표를 결정하고,
상기 차량부위별좌표결정부(52)는 상기 지적도데이터와 상기 노변센싱부(31)를 기초로, 상기 실측기준점을 기준으로 도로의 3차원 좌표를 추가로 생성하고, 상기 3차원 좌표는 메쉬형태이고,
상기 3차원 좌표는 상기 지적도데이터와 상기 노변센싱부(31)를 기초로 상기 노변센싱부(31)가 커버하는 상기 소정의 범위 내 공간 자체를 3차원 직선 메쉬들로 구성하고, 상기 3차원 직선 메쉬들의 교차점은 기본값으로 설정되고,
상기 벡터해석부(55)는 상기 ID 중 개별 차량의 차량부위별좌표, 상기 속도데이터, 및 상기 조향데이터를 근거로, 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정하고,
상기 벡터값은 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 절대좌표값(3차원), 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대속력값, 및 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대방향값(3차원)을 포함하고,
상기 벡터해석부(55)는 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정하되, 차량들의 대표 부위별 좌표를 기준으로 백터값을 결정하고, 상기 벡터해석부(55)는 결정된 차량들의 대표 부위별 좌표의 벡터값을 상기 차량부위별좌표결정부(52)로부터 도출된 ID 중 도로의 3차원 좌표에 대입하고,
상기 차량부위별좌표결정부(52)로부터 도출된 ID는 도출데이터통신부(53)에 제공될 수 있습니다. 상기 도출데이터통신부(53)에 제공된 ID는 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)에 제공되고,
상기 ID를 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)에 제공할 때, 각각 차량의 상기 차량데이터베이스부(15)에 저장되고 상기 차량통신부(14)를 통해 상기 데이터베이스부(54)에 저장된 상기 차량등록데이터를 기반으로, 상기 차량의 인접 차량들(전방, 후방, 측방, 전전방, 후후방, 측측방)에 제공할 수 있습니다.
상기 ID는 상기 차량의 인접 차량들뿐만 아니라, 해당 차량에도 상기 도출데이터통신부(53)를 통해 제공되고,
상기 벡터해석부(55)에 의해 결정된 차량들의 대표 부위별 좌표의 벡터값이 상기 차량부위별좌표결정부(52)로부터 도출된 ID 중 도로의 상기 3차원 좌표에 대입된 도출벡터데이터를 상기 도출데이터통신부(53)를 통해 인접한 차량들에 제공하고,
상기 도출벡터데이터는 상기 3차원 좌표가 메쉬형태로 제공되고,
상기 도출벡터데이터는 각각 차량들의 상기 차량모델이 결정되어 차량들마다 부여된 ID별로 생성되고,
상기 ID별 상기 도출벡터데이터는 도로 상황정보와 함께 상기 도출데이터통신부(53)를 통해 인접한 차량들에 제공되고, 상기 도출벡터데이터는 양방향 커뮤니케이션될 수 있어, 상기 인접한 차량들로부터 생성된 상기 도출벡터데이터 역시, 해당 차량에 제공되고,
상기 ID는 수치데이터, 및 이미지데이터의 형태로 제공되고, 상기 수치데이터는 상기 차량 및 상기 차량의 인접차량들의 상기 차량부위별좌표 및 도로의 상기 3차원 좌표이고, 상기 수치데이터는 상기 차량 주변의 장애물에 관한 정확한 좌표를 포함하고, 상기 이미지데이터는 상기 차량 및 상기 차량의 인접차량들과 상기 차량 주변의 장애물에 관한 정확한 이미지이고,
상기 벡터해석부(55)는 상기 차량부위별좌표결정부(52)로부터 상기 ID를 제공받고, 상기 데이터베이스부(54)로부터 상기 속도데이터, 및 상기 조향데이터를 제공받고,
상기 벡터해석부(55)는 상기 ID 중 개별 차량의 상기 차량부위별좌표, 상기 속도데이터, 및 상기 조향데이터를 근거로, 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 벡터값을 결정하고,
상기 벡터값은 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 절대좌표값(3차원), 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대속력값, 및 상기 해당 차량과 상기 해당 차량의 인접차량들 간의 상대방향값(3차원)을 포함하는 자율주행을 위한 3차원 벡터좌표시스템.
an autonomous driving unit (10) mounted on the vehicle and connected to the central processing unit (50);
A roadside installation unit (30) installed at the roadside and in communication with the central processing unit (50); and
It includes the central processing unit 50 in communication with the autonomous driving unit 10 and the roadside installation unit 30,
The autonomous driving unit 10 includes a vehicle sensing unit 11 that senses the surroundings of the vehicle,
A speed control unit 12 that autonomously controls the speed of the vehicle, and
Includes a steering control unit 13 that autonomously controls steering of the vehicle,
The autonomous driving unit 10 further includes a vehicle communication unit 14 that communicates wirelessly with the central processing unit 50,
The autonomous driving unit 10 stores the vehicle registration number and vehicle model information, and sends vehicle registration data including the registration number and model information to the central processing unit 50 through the vehicle communication unit 14. It further includes a vehicle database unit 15 that provides,
The autonomous driving unit 10 further includes an electronic control unit (ECU) that determines the sensed surrounding information of the vehicle,
After determining the surrounding information of the vehicle sensed by the electronic control unit (ECU), the electronic control unit (ECU) transmits control signals to the speed control unit 12 and the steering control unit 13, respectively, to determine the vehicle's speed, Controls braking and steering,
The autonomous driving unit 10 further includes a GPS coordinate recognition unit,
The GPS coordinate recognition unit is in communication with a communication unit that provides GPS signals,
The roadside installation units 30 are provided in plural numbers, and the plurality of roadside installation units 30 are installed at each streetlight located on the roadside at predetermined intervals,
The roadside installation unit 30 includes a roadside sensing unit 31 and a roadside communication unit 35,
The roadside sensing unit 31 includes a sensor, and the sensor includes a radar sensor and a camera sensor,
LiDAR data of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle, is generated through the radar sensor of the roadside sensing unit 31, and the camera of the roadside sensing unit 31 Generating vision recognition data of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle, through a sensor,
The LIDAR data includes three-dimensional coordinate information related to vehicles passing the roadside at a predetermined time, and the vision recognition data includes three-dimensional coordinate information related to vehicles passing the roadside at a predetermined time,
The roadside sensing unit 31 acquires three-dimensional coordinate information related to vehicles passing the roadside at the predetermined time based on the lidar data and the vision recognition data,
The LIDAR data acquires partial or total information about vehicles passing by the roadside at the predetermined time,
The vision recognition data acquires partial or total information about vehicles passing the roadside at the predetermined time,
Since the roadside installation unit 30 is installed on the roadside and installed at each streetlight spaced apart at a predetermined interval, the roadside sensing unit 31 of the roadside installation unit 30 is also installed at a predetermined interval,
The roadside sensing unit 31 covers a predetermined range and senses,
The predetermined range is set in consideration of the distance between the roadside sensing unit 31 and the adjacent roadside sensing unit 31,
The roadside communication unit 35 receives the LIDAR data and the vision recognition data generated by the roadside sensing unit 31 and provides them to the database unit 54,
Further comprising a central processing unit 50,
The central processing unit 50 includes a vehicle model determination unit 51, a coordinate determination unit for each vehicle part 52, a derived data communication unit 53, a database unit 54, and a vector analysis unit 55,
The vehicle model determination unit 51 determines models of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle,
The vehicle part coordinate determination unit 52 determines the coordinates of each part of vehicles passing the roadside at a predetermined time, including the vehicle and adjacent vehicles of the vehicle,
The coordinate determination unit 52 for each vehicle part determines coordinate information (3D absolute coordinate information of individual vehicles) between the vehicle and adjacent vehicles (front, rear, side, front, rear, rear, side) of the vehicle. create,
The coordinate determination unit 52 for each vehicle part generates three-dimensional coordinates of the road based on cadastral map data (two-dimensional coordinates) and the actual measurement reference point,
The vehicle registration data stored in the vehicle database unit 15 is provided to the database unit 54 through the vehicle communication unit 14,
The database unit 54 stores vehicle sensing data provided from the vehicle sensing unit 11, the lidar data provided from the roadside sensing unit 31, the vision recognition data, and standard shape data for each vehicle,
The database unit 54 includes the cadastral map data, the vehicle registration data provided from the vehicle database unit 15, speed data provided from the speed control unit 12, steering data provided from the steering control unit 13, and predicted driving. Route data is saved,
The vehicle sensing data, the lidar data, the vision recognition data, the standard shape data for each vehicle, and the vehicle registration data stored in the vehicle database unit 15 are provided to the vehicle model determination unit 51,
The vehicle model determination unit 51 determines the vehicle and adjacent vehicles (front) of the vehicle through the provided vehicle sensing data, the lidar data, the vision recognition data, the standard shape data for each vehicle, and the vehicle registration data. , rear, side, front-front, rear-rear, side-to-side) to determine the vehicle model,
The vehicle model determination unit 51 determines the vehicle and adjacent vehicles (front, rear, side, front-front, rear-rear, side-side) of the vehicle through the vehicle sensing data, the lidar data, and the vision recognition data. ) determine the vehicle model,
If the vehicle model determined by the vehicle model determination unit 51 is not accurate, the vehicle model determination unit 51 applies a default model to the vehicle and adjacent vehicles of the vehicle,
If the vehicle model determination unit 51 determines that the differentiation between the vehicle and adjacent vehicles of the vehicle is less than 70%, the vehicle model determination unit 51 determines each vehicle of the vehicle based on the vehicle registration data. Determine the default model extracted based only on standard shape data as the vehicle model of the vehicle,
The vehicle model determined by the vehicle model determination unit 51 is provided in the form of a 3D shape mesh,
When the vehicle model of each vehicle is determined, an ID is assigned to each vehicle,
The vehicle model determination unit 51 determines the vehicle model by additionally including the real-time vehicle type of each vehicle as well as the load loaded on the vehicle,
The vehicle sensing data, the cadastral map data, the lidar data, and the vision recognition data stored in the database unit 54 are provided to the vehicle part-specific coordinate determination unit 52,
The cadastral map data may be a constant value, the cadastral map data is data representing a road surface, a structure on the road surface, and an obstacle on the road regardless of the relationship with adjacent vehicles, and the cadastral map data is two-dimensional coordinate data,
The coordinate determination unit 52 for each vehicle part determines the vehicle and adjacent vehicles (front, rear, side, front, front) through the vehicle sensing data, cadastral map data, lidar data, and vision recognition data. , rear-rear, side-to-side) determine the coordinates (hereinafter derived data) for each vehicle part,
The vehicle part-specific coordinate determination unit 52 determines the vehicle part-specific coordinates with reference to the vehicle model determined by the vehicle model determination unit 51,
The coordinates for each vehicle part are not only two-dimensional coordinates on a plane, but also three-dimensional coordinates including height,
The actual measurement reference point of the coordinates for each vehicle part is a paying sensor or facility installed in the lane or roadside,
Based on the actual measurement reference point, determine the coordinates for each vehicle part by considering the angle and distance between the vehicle parts,
After the coordinates for each vehicle part are determined, they can be corrected at any time,
The vehicle part coordinate determination unit 52 determines the vehicle part coordinates of each individual vehicle based on the individual vehicle model determined by the vehicle model determination unit 51 and the cadastral map data,
The coordinate determination unit 52 for each vehicle part additionally generates three-dimensional coordinates of the road based on the actual measurement reference point, based on the cadastral map data and the roadside sensing unit 31, and the three-dimensional coordinates are in a mesh form. ,
The three-dimensional coordinates are based on the cadastral map data and the roadside sensing unit 31, and the space itself within the predetermined range covered by the roadside sensing unit 31 is composed of three-dimensional straight meshes, and the three-dimensional straight line The intersection of the meshes is set to default,
The vector analysis unit 55 determines a vector value between the vehicle and adjacent vehicles of the vehicle based on the vehicle part coordinates of each vehicle among the IDs, the speed data, and the steering data,
The vector value is an absolute coordinate value (3D) between the vehicle and adjacent vehicles of the vehicle, the relative speed value between the vehicle and adjacent vehicles of the vehicle, and the proximity of the vehicle to the vehicle. Contains relative direction values (3D) between vehicles,
The vector analysis unit 55 determines the vector value between the vehicle and adjacent vehicles of the vehicle, and determines the vector value based on the coordinates of each representative part of the vehicle, and the vector analysis unit 55 determines the vector value between the vehicle and adjacent vehicles. Substituting the vector value of the coordinates for each representative part of the vehicle into the three-dimensional coordinates of the road among the IDs derived from the vehicle part coordinate determination unit 52,
The ID derived from the vehicle part coordinate determination unit 52 may be provided to the derived data communication unit 53. The ID provided to the derived data communication unit 53 is provided to adjacent vehicles (front, rear, side, front, rear, side) of the vehicle,
When providing the ID to adjacent vehicles (front, rear, side, front, rear, rear, and side) of the vehicle, it is stored in the vehicle database unit 15 of each vehicle and is sent to the vehicle communication unit 14. Based on the vehicle registration data stored in the database unit 54, it can be provided to adjacent vehicles (front, rear, side, front, rear, and side) of the vehicle.
The ID is provided through the derived data communication unit 53 not only to adjacent vehicles of the vehicle, but also to the vehicle,
The vector value of the coordinates for each representative part of the vehicle determined by the vector analysis unit 55 is the derived vector data substituted for the three-dimensional coordinates of the road among the IDs derived from the vehicle part coordinate determination unit 52. Provided to adjacent vehicles through the communication unit 53,
The derived vector data is provided in the form of a mesh of the three-dimensional coordinates,
The derived vector data is generated for each ID assigned to each vehicle by determining the vehicle model of each vehicle,
The derived vector data for each ID is provided to adjacent vehicles through the derived data communication unit 53 together with road situation information, and the derived vector data can be communicated in two directions, so that the derived vector data generated from the adjacent vehicles Data is also provided to the vehicle,
The ID is provided in the form of numerical data and image data, the numerical data are the coordinates of each vehicle part of the vehicle and adjacent vehicles of the vehicle, and the three-dimensional coordinates of the road, and the numerical data are the three-dimensional coordinates of the road around the vehicle. Contains accurate coordinates of obstacles, and the image data is an accurate image of the vehicle, adjacent vehicles of the vehicle, and obstacles around the vehicle,
The vector analysis unit 55 receives the ID from the vehicle part coordinate determination unit 52, the speed data, and the steering data from the database unit 54,
The vector analysis unit 55 determines a vector value between the vehicle and adjacent vehicles of the vehicle based on the vehicle part coordinates, the speed data, and the steering data of each vehicle among the IDs,
The vector value is an absolute coordinate value (3D) between the vehicle and adjacent vehicles of the vehicle, a relative speed value between the vehicle and adjacent vehicles of the vehicle, and the proximity of the vehicle to the vehicle. A 3D vector coordinate system for autonomous driving that includes relative direction values (3D) between vehicles.
삭제delete 삭제delete
KR1020210014840A 2021-02-02 2021-02-02 3D vector coordinate system for autonomous driving KR102614256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210014840A KR102614256B1 (en) 2021-02-02 2021-02-02 3D vector coordinate system for autonomous driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014840A KR102614256B1 (en) 2021-02-02 2021-02-02 3D vector coordinate system for autonomous driving

Publications (2)

Publication Number Publication Date
KR20220111807A KR20220111807A (en) 2022-08-10
KR102614256B1 true KR102614256B1 (en) 2023-12-15

Family

ID=82846650

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014840A KR102614256B1 (en) 2021-02-02 2021-02-02 3D vector coordinate system for autonomous driving

Country Status (1)

Country Link
KR (1) KR102614256B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182401A (en) 2018-04-16 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Learning-based speed planner for autonomous driving vehicle
JP2019199218A (en) 2018-05-18 2019-11-21 株式会社デンソーアイティーラボラトリ Driving operation system, method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040091788A (en) * 2003-04-22 2004-11-02 현대자동차주식회사 Self-control Traveling System For Expressway and Control Method Thereof
KR100904767B1 (en) 2007-08-10 2009-06-29 자동차부품연구원 Test evaluation apparatus of collision avoidance system
KR20170077332A (en) 2015-12-28 2017-07-06 전자부품연구원 Priority-based Collision Avoidance Control Method and System for Intelligent Autonomous Vehicle
KR101938064B1 (en) * 2017-05-17 2019-01-11 현대오토에버 주식회사 Autonomous Driving Test System
US10007269B1 (en) 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
KR102570295B1 (en) * 2018-12-07 2023-08-25 현대자동차주식회사 Vehicle and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182401A (en) 2018-04-16 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Learning-based speed planner for autonomous driving vehicle
JP2019199218A (en) 2018-05-18 2019-11-21 株式会社デンソーアイティーラボラトリ Driving operation system, method and program

Also Published As

Publication number Publication date
KR20220111807A (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US11989666B1 (en) Predicting trajectory intersection by another road user
US10684372B2 (en) Systems, devices, and methods for autonomous vehicle localization
JP6342822B2 (en) Automatic driving system, automatic driving method and computing device
US11313976B2 (en) Host vehicle position estimation device
EP2942687B1 (en) Automated driving safety system
US7729857B2 (en) System for and method of detecting a collision and predicting a vehicle path
KR20180009755A (en) Lane estimation method
US20170371336A1 (en) Driving path determination for autonomous vehicles
CN110053617B (en) Vehicle control device, vehicle control method, and storage medium
CN105988467A (en) Autonomous driving device
CN110473416B (en) Vehicle control device
KR102613822B1 (en) Control of vehicles throughout multi-lane turns
WO2018179359A1 (en) Vehicle control system, vehicle control method, and vehicle control program
KR20170082674A (en) Apparatus and method for assisting safety driving
JP2022024741A (en) Vehicle control device and vehicle control method
EP3524935B1 (en) Vehicle perception-data gathering system and method
CN109515448A (en) A kind of automatic Pilot sensor arrangement method and structure
US11679780B2 (en) Methods and systems for monitoring vehicle motion with driver safety alerts
JP2020163903A (en) Vehicle control device, vehicle control method, and program
JP2005258941A (en) Device for detecting obstacle
US11851083B2 (en) Methods and system for constructing data representation for use in assisting autonomous vehicles navigate intersections
US20220242440A1 (en) Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle
JP2019206318A (en) Monitoring device
CN112622893A (en) Multi-sensor fusion target vehicle automatic driving obstacle avoidance method and system
KR102614256B1 (en) 3D vector coordinate system for autonomous driving

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant