KR20190126263A - Apparatus and method for controlling vehicle based on 3d space cognition - Google Patents
Apparatus and method for controlling vehicle based on 3d space cognition Download PDFInfo
- Publication number
- KR20190126263A KR20190126263A KR1020190134034A KR20190134034A KR20190126263A KR 20190126263 A KR20190126263 A KR 20190126263A KR 1020190134034 A KR1020190134034 A KR 1020190134034A KR 20190134034 A KR20190134034 A KR 20190134034A KR 20190126263 A KR20190126263 A KR 20190126263A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- spatial information
- sensor
- driving
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000019771 cognition Effects 0.000 title 1
- 238000004891 communication Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차량 제어 기술에 관한 것으로서, 구체적으로는 3차원 차량 인식을 기반으로 주행 가능한 공간을 인식하여 차량의 주행을 제어하는 기술에 관한 것이다. The present invention relates to a vehicle control technology, and more particularly, to a technology for controlling driving of a vehicle by recognizing a space that can be driven based on three-dimensional vehicle recognition.
최근 자동차의 자율 주행에 대한 관심이 증가하면서, 차량 주변 공간을 인식하는 기술에 대한 연구가 진행되고 있다. 이와 관련하여 종래 기술들은 차량에 탑재된 카메라를 이용하여 차량 주변 공간을 촬영함으로써 차량 주변 공간을 인식하는 기술이 주를 이루고 있다. 그러나, 이러한 카메라를 이용한 공간 인식 방법은 주변 차량 등 장애물 등에 대한 정확한 길이, 차 폭 등의 정보를 알지 못해 3차원 공간 인지에는 한계가 있었다. Recently, as interest in autonomous driving of automobiles increases, researches on technologies for recognizing a space around a vehicle are being conducted. In this regard, the prior art is mainly focused on the technology for recognizing the space around the vehicle by using a camera mounted on the vehicle. However, the spatial recognition method using such a camera has a limitation in recognition of three-dimensional space because it does not know the exact length, vehicle width, and the like of obstacles such as surrounding vehicles.
따라서, 본 발명의 목적은 3차원 공간 인지를 기반으로 하는 차량 제어 기술을 제공하는 것이다. Accordingly, an object of the present invention is to provide a vehicle control technique based on three-dimensional spatial recognition.
또한, 본 발명의 목적은 타 차량의 제원 정보를 이용한 3차원 공간 인지를 기반으로 하는 차량 제어 기술을 제공하는 것이다. It is also an object of the present invention to provide a vehicle control technology based on three-dimensional spatial recognition using the specifications information of another vehicle.
또한, 본 발명의 목적은 타 차량의 예상 주행 영역을 기반으로 차량을 제어하는 기술을 제공하는 것이다. It is also an object of the present invention to provide a technique for controlling a vehicle based on an expected driving area of another vehicle.
또한, 본 발명의 목적은 3차원 공간 인지를 기반으로 차량의 주행 경로를 형성하는 기술을 제공하는 것이다. It is also an object of the present invention to provide a technique for forming a driving route of a vehicle based on three-dimensional space recognition.
본 발명의 일 측면에 따르면, 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 제1 공간 정보 생성부, 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 제원 정보인 제1 제원 정보를 수신하는 차량 제원 수신부 및 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 자 차량의 주변에 대한 제2 공간 정보를 생성하는 제2 공간 정보 생성부를 포함하는 차량 제어 장치가 제공된다.According to an aspect of the present invention, a first spatial information generation unit for generating first spatial information that is spatial information about the periphery of the own vehicle based on the sensor information of the vehicle, at least one other vehicle located in the periphery of the own vehicle A vehicle specification receiver configured to receive first specification information, the second specification information, and a second spatial information generator configured to generate second spatial information about a periphery of the own vehicle by calibrating first spatial information based on the first specification information; A vehicle control device is provided.
또한, 본 발명의 다른 측면에 따르면, 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 단계, 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 제원 정보인 제1 제원 정보를 수신하는 단계 및 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 자 차량의 주변에 대한 제2 공간 정보를 생성하는 단계를 포함하는 차량 제어 방법이 제공된다.In addition, according to another aspect of the invention, the step of generating the first spatial information that is the spatial information about the periphery of the child vehicle based on the sensor information of the vehicle, the specification information of at least one other vehicle located in the periphery of the child vehicle A method for controlling a vehicle is provided, the method comprising: receiving first first information and calibrating first spatial information based on the first specification information to generate second spatial information about a periphery of the own vehicle.
본 발명의 실시예에 따르면, 3차원 공간 인지를 기반으로 하는 차량을 제어하는 것이 가능하게 된다. According to an embodiment of the present invention, it becomes possible to control a vehicle based on three-dimensional space recognition.
또한, 본 발명의 다른 실시예에 따르면, 타 차량의 제원 정보를 이용한 3차원 공간 인지를 기반으로 하는 차량을 제어하는 것이 가능하게 된다. In addition, according to another embodiment of the present invention, it becomes possible to control the vehicle based on the three-dimensional space recognition using the specification information of the other vehicle.
또한, 본 발명의 다른 실시예에 따르면, 타 차량의 예상 주행 영역을 기반으로 차량을 제어하는 것이 가능하게 된다.In addition, according to another embodiment of the present invention, it is possible to control the vehicle based on the expected driving area of another vehicle.
또한, 본 발명의 다른 실시예에 따르면, 3차원 공간 인지를 기반으로 차량의 주행 경로를 형성하는 것이 가능하게 된다. In addition, according to another embodiment of the present invention, it is possible to form the driving route of the vehicle based on the three-dimensional space recognition.
도 1은 본 발명의 일 실시예에 따른 3차원 차량 인식 기반의 차량 제어 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량 제어 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 3 차원 차량 인식 기반의 차량 제어 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 제2 공간 정보의 예를 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 예상 주행 영역을 설명하기 위한 도면이다.
도 7는 본 발명의 다른 실시예에 따른 차량 제어 장치의 블록도이다.1 is a block diagram of a vehicle control system based on three-dimensional vehicle recognition according to an embodiment of the present invention.
2 is a block diagram of a vehicle control apparatus according to an embodiment of the present invention.
3 is a flowchart of a 3D vehicle recognition based vehicle control method according to an embodiment of the present invention.
4 is a diagram for describing an example of second spatial information according to an embodiment of the present invention.
5 and 6 are views for explaining an expected driving region according to an embodiment of the present invention.
7 is a block diagram of a vehicle control apparatus according to another embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Also, the singular forms used in the specification and claims are to be interpreted as generally meaning "one or more", unless stated otherwise.
이하, 본 발명의 바람직한 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in the following description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals and redundant description thereof will be omitted. Shall be.
도 1은 본 발명의 일 실시예에 따른 3차원 차량 인식 기반의 차량 제어 시스템의 구성도이다. 1 is a block diagram of a vehicle control system based on three-dimensional vehicle recognition according to an embodiment of the present invention.
도 1을 참조하면, 3차원 차량 인식 기반의 차량 제어 시스템의 제어 대상이 되는 자 차량(110) 및 자 차량(110) 주변에 존재하는 타 차량(120)이 도시되어 있으며, 여기서, 차량 제어 시스템은 차량 센서(111), 차량 제어 장치(112) 및 기구부(113)를 포함할 수 있다. 차량 센서(111)는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등을 이용하여 자 차량(110)의 주변 공간을 감지한 정보인 센서 정보를 생성할 있다. 차량 제어 장치(112)는 자 차량(110)의 센서 정보 및 타 차량(120)으로부터 수신된 타 차량(120)의 제원 정보를 기반으로 빈 공간을 검출하고, 검출된 빈 공간을 고려한 자 차량(110)의 주행 경로를 생성할 수 있다. 기구부(113)는 산출된 주행 경로에 따라 차량을 주행할 수 있다. Referring to FIG. 1, there is shown a
이하, 도 2 내지 도 7을 참조하여 차량 제어 장치(112)를 상세히 설명한다. Hereinafter, the
도 2는 본 발명의 일 실시예에 따른 차량 제어 장치의 블록도이다. 2 is a block diagram of a vehicle control apparatus according to an embodiment of the present invention.
도 2를 참조하면, 차량 제어 장치(112)는 센서 정보 수신부(210), 제1 공간 정보 생성부(220), 차량 제원 수신부(230), 제2 공간 정보 생성부(240) 및 주행 경로 생성부(250)를 포함할 수 있다. Referring to FIG. 2, the
센서 정보 수신부(210)는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등을 이용하여 생성된 스캔 정보인 센서 정보를 차량 센서(111)로부터 수신할 수 있다. The
제1 공간 정보 생성부(220)는 자 차량(110)의 센서 정보를 기반으로 자 차량(110)의 주변 공간에 대한 제1 공간 정보를 생성할 수 있다. The first
차량 제원 수신부(230)는 자 차량(110) 주변 공간에 존재하는 타 차량(120)의 제원 정보를 수신할 수 있다. 여기서, 타 차량(120)의 제원 정보는 차 폭, 길이, 최대 선회각 중 적어도 하나를 포함할 수 있다. 또한, 타 차량(120)의 제원 정보는 BSM(Basic Safety Message)일 수 있다.The
일 실시예에서, 차량 제원 수신부(230)는 타 차량(120)으로부터 제원 정보를 수신할 수 있다. 예를 들어, 차량 제원 수신부(230)는 차량 통신 방법인 V2X(Vehicle to everything)을 이용하여, 타 차량(120)으로부터 제원 정보를 수신할 수 있다. In one embodiment, the
제2 공간 정보 생성부(240)는 제1 공간 정보 및 타 차량(120)의 제원 정보를 기반으로 제2 공간 정보를 생성할 수 있으며, 일 실시예에서 제2 공간 정보 생성부(240)는 차량 제원 추출 모듈(241) 및 캘리브레이터(242)를 포함할 수 있다. 차량 제원 추출 모듈(241)은 제1 공간 정보에서 타 차량(120)의 제원 정보인 제2 제원 정보를 추출할 수 있다. 여기서, 제2 제원 정보는 차 폭, 길이, 차속, 진행 방향 등 타 차량(120)에 제원 이나 주행에 관한 정보 일 수 있다. 캘리브레이터(242)는 제1 제원 정보와 제2 제원 정보를 비교하여, 제2 제원 정보에 대응하는 제1 제원 정보를 결정하고, 결정된 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 제2 공간 정보를 생성할 수 있다. 이때, 제2 공간 정보는 3차원 공간 정보일 수 있다. The second
일 실시예에서, 캘리브레이터(242)는 수학식 1을 이용하여, 캘리브레이션을 수행할 수 있다. In one embodiment, the
여기서, 는 제1 공간 정보에 포함된 타 차량(120)의 길이, 는 타 차량(120)으로부터 V2x 통신을 통해 수신된 제2 제원 정보에 포함된 길이 정보를 의미한다. 상기 수학식 1이 차량의 길이 뿐만 아니라 차폭에도 동일하게 적용될 수 있음은 자명하다.here, Is the length of another
주행 경로 생성부(250)는 3차원 공간 정보를 기반으로 자 차량(110)의 주행 경로를 생성할 수 있으며, 일 실시예에서, 주행 경로 생성부(250)는 주행 공간 예측 모듈(251) 및 주행 경로 생성 모듈(252)을 포함할 수 있다. 주행 공간 예측 모듈(251)은 제1 제원 정보 및 제2 제원 정보 중 적어도 하나를 기반으로 3차원 공간 정보에서 타 차량(120)이 주행할 가능성이 있는 예상 주행 영역을 예측할 수 있다. 주행 경로 생성 모듈(252)은 3차원 공간 정보 및 예상 주행 영역 중 적어도 하나를 기반으로 자 차량(110)이 주행할 주행 경로를 생성할 수 있다. The
일 실시예에서, 제2 공간 정보 생성부(240)는 타 차량(120)으 로부터 수신되는 제2 제원 정보를 누적하여 타 차량(120)의 예상 주행 영역을 예측할 수 있다. In an embodiment, the second
도 3은 본 발명의 일 실시예에 따른 3 차원 차량 인식 기반의 차량 제어 방법의 흐름도이다. 3 is a flowchart of a 3D vehicle recognition based vehicle control method according to an embodiment of the present invention.
이하, 상기 방법은 도 1에 도시된 차량 제어 장치(112)에 의해 수행되는 것을 예시로 설명한다. Hereinafter, the method will be described by way of example performed by the
도 3을 참조하면, 단계 S310에서 차량 주행 제어 장치는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등의 차량 센서(111)가 자 차량(110)의 주변 공간을 스캔한 스캔 정보를 수신할 수 있다. Referring to FIG. 3, in operation S310, the vehicle driving control apparatus may receive scan information in which a
단계 S320에서, 차량 주행 제어 장치는 스캔 정보를 기반으로 자 차량(110)의 주변 공간에 대한 정보인 제1 공간 정보를 생성할 수 있다. In operation S320, the vehicle driving control apparatus may generate first space information that is information about a surrounding space of the
단계 S330에서, 차량 주행 제어 장치는 V2X 등 차량 통신 방법을 이용하여 타 차량(120)으 로부터 타 차량(120)의 제원 정보인 제1 제원 정보를 수신할 수 있다. In operation S330, the vehicle driving control apparatus may receive first specification information, which is the specification information of the
단계 S340에서, 차량 주행 제어 장치는 제1 공간 정보에서 자 차량(110) 주변에 존재하는 타 차량(120)의 제원 정보인 제2 제원 정보를 추출할 수 있다. 차량 주행 제어 장치는 제1 제원 정보 중 제2 제원 정보에 대응하는 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 제2 공간 정보를 생성할 수 있다. In operation S340, the vehicle driving control apparatus may extract second specification information, which is specification information of another
단계 S350에서, 차량 주행 제어 장치는 제2 공간 정보를 기반으로 자 차량(110)이 주행할 주행 경로를 생성할 수 있다. 또한, 차량 주행 제어 장치는 제1 제원 정보 및 제2 제원 정보 중 적어도 하나와 제2 공간 정보를 기반으로 타 차량(120)이 주행할 것으로 예상되는 예상 주행 영역을 예측하고, 예측된 예상 주행 영역 및 제2 공간 정보 중 적어도 하나를 기반으로 자 차량(110)의 주행 가능한 주행 경로를 생성할 수 있다. In operation S350, the vehicle driving control apparatus may generate a driving route on which the
도 4는 본 발명의 일 실시예에 따른 제2 공간 정보의 예를 설명하기 위한 도면이다. 4 is a diagram for describing an example of second spatial information according to an embodiment of the present invention.
도 4를 참조하면, 카메라 센서를 기반으로 생성된 제1 공간 정보에서, 타 차량(120)으로부터 수신된 제2 제원 정보를 기반으로 캘리브레이션을 수행하여, 타 차량(120)의 3차원 모델을 생성한 제2 공간 정보가 도시되어 있다. 이로써, 카메라 센서만으로 타 차량(120)이나 도로 등의 실제 폭이나 길이를 알 수 없는 경우가 발생 하더라도, 본 발명의 실시예에 따른 차량 제어 장치(112)를 통해, 자 차량(110) 주변 공간에 대한 3차원 정보인 제2 공간 정보를 생성함으로써, 타 차량(120)을 회피하여 주행 가능한 공간을 확인할 수 있게 된다. Referring to FIG. 4, in the first spatial information generated based on the camera sensor, calibration is performed based on the second specification information received from another
도 5 및 도 6은 본 발명의 일 실시예에 따른 예상 주행 영역을 설명하기 위한 도면이다. 5 and 6 are views for explaining an expected driving region according to an embodiment of the present invention.
도 5를 참조하면, 타 차량(120)으로부터 수신된 제2 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 생성된 3차원 공간 정보인 제2 공간 정보가 도시되어 있으며, 제2 공간 정보에서 타 차량(120) 등 장애물이 존재하지 않는 영역이 표시되어 있다. Referring to FIG. 5, second spatial information, which is three-dimensional spatial information generated by calibrating first spatial information based on second specification information received from another
도 6을 참조하면, 타 차량(120)의 차 폭, 길이, 최대 선회각, 속도 등의 정보를 기반으로, 도 5에 도시된 제2 공간 정보에서 타 차량(120)의 주행할 것으로 예상되는 예상 주행 영역이 표시되어 있다. 구체적으로, 타 차량(120)은 ①, ② 및 ③ 중 어느 하나로 주행할 것으로 예상되므로, 타 차량(120)의 예상 주행 영역이 도 6과 같이 검출될 수 있다. ①은 타 차량(120)의 주행 방향의 각도가 0인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함), ②은 타 차량(120)의 주행 방향의 각도가 우측 최대인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함), ③ 은 타 차량(120)의 주행 방향의 각도가 좌측 최대인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함)을 의미한다.Referring to FIG. 6, based on information of a vehicle width, a length, a maximum turning angle, and a speed of another
도 7는 본 발명의 다른 실시예에 따른 차량 제어 장치의 블록도이다.7 is a block diagram of a vehicle control apparatus according to another embodiment of the present invention.
이상 상술한 본 발명의 실시 예들은, 컴퓨터 시스템 내에, 예를 들어, 컴퓨터 판독가능 기록 매체로 구현될 수 있다. 도 7에 도시된 바와 같이, 차량 제어 장치(112) 등의 컴퓨터 시스템(700)은 하나 이상의 프로세서(710), 메모리(720), 저장부(730), 사용자 인터페이스 입력부(740) 및 사용자 인터페이스 출력부(750) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(760)를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템(700)은 네트워크에 접속하기 위한 네트워크 인터페이스(770)를 또한 포함할 수 있다. 프로세서(710)는 메모리(720) 및/또는 저장소(730)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리(720) 및 저장부(730)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(724) 및 RAM(725)을 포함할 수 있다. Embodiments of the present invention described above may be implemented in a computer system, for example, a computer readable recording medium. As shown in FIG. 7,
이에 따라, 본 발명의 실시 예들은 컴퓨터로 구현되는 방법 또는 컴퓨터 실행 가능 명령어들이 저장된 비휘발성 컴퓨터 기록 매체로 구현될 수 있다. 상기 명령어들은 프로세서에 의해 실행될 때 본 발명의 적어도 일 실시 예에 따른 방법을 수행할 수 있다.Accordingly, embodiments of the present disclosure may be implemented as a computer-implemented method or a nonvolatile computer recording medium storing computer executable instructions. When executed by a processor, the instructions may perform a method according to at least one embodiment of the present disclosure.
이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
111 : 차량 센서
112 : 차량 제어 장치
113 : 기구부111: vehicle sensor
112: vehicle control unit
113: mechanical part
Claims (8)
상기 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 실제 제원 정보로서 상기 타 차량의 차 폭, 길이, 최대 선회각 정보 중 적어도 하나를 포함하는 제1 제원 정보를 차량간 통신 방법인 V2X(Vehicle to everything)을 이용하여 타 차량으로부터 수신하는 차량 제원 수신부; 및
V2X를 이용하여 타 차량으로부터 수신된 상기 제1 제원 정보를 기반으로 상기 제1 공간 정보를 캘리브레이션 하여 상기 자 차량의 주변에 대한 제2 공간 정보를 생성하는 제2 공간 정보 생성부;를 포함하되,
상기 제2 공간 정보 생성부는,
상기 제1 공간 정보에 포함된 적어도 하나의 타 차량의 제원 정보인 제2 제원 정보를 상기 제1 공간 정보에서 추출하는 차량 제원 추출 모듈; 및
상기 타 차량의 실제 제원 정보인 제1 제원 정보와 상기 타 차량에 대하여 추출된 상기 제2 제원 정보를 비교하여 상기 제1 공간 정보를 캘리브레이션 하기 위한 보정 값을 산출하고, 상기 산출된 보정 값에 기초하여 상기 제1 공간 정보를 캘리브레이션 하여 상기 제2 공간 정보를 생성하는 캘리브레이터를 포함하는 차량 제어 장치.
A first spatial information generator configured to generate first spatial information, which is spatial information about a surrounding of the own vehicle, based on sensor information of the vehicle received from the vehicle sensor of the own vehicle;
V2X (Vehicle) which is a method of communication between vehicles using first specification information including at least one of vehicle width, length, and maximum turning angle information of the other vehicle as actual specification information of at least one other vehicle positioned in the vicinity of the own vehicle. a vehicle specification receiver configured to receive from another vehicle by using everything; And
And a second spatial information generator configured to generate second spatial information about the periphery of the own vehicle by calibrating the first spatial information based on the first specification information received from another vehicle using a V2X.
The second spatial information generator,
A vehicle specification extraction module configured to extract second specification information, which is specification information of at least one other vehicle included in the first spatial information, from the first spatial information; And
Compensation value for calibrating the first spatial information is calculated by comparing the first specification information, which is the actual specification information of the other vehicle, with the second specification information extracted for the other vehicle, and based on the calculated correction value. And a calibrator configured to calibrate the first spatial information to generate the second spatial information.
상기 제1 공간 정보를 기반으로 상기 자 차량의 주행 경로를 생성하는 주행 경로 생성부를 더 포함하는 차량 제어 장치.
The method of claim 1,
And a driving route generator configured to generate a driving route of the own vehicle based on the first spatial information.
상기 차량 센서 정보는,
상기 타 차량의 주행 정보를 포함하되,
상기 주행 경로 생성부는,
상기 제1 공간 정보, 제1 제원 정보 및 타 차량의 주행 정보 중 적어도 하나를 기반으로 상기 타 차량의 예상 주행 영역을 예측하는 주행 공간 예측 모듈; 및
예측된 타 차량의 예상 주행 영역을 기반으로 상기 자 차량의 주행 경로를 생성하는 주행 경로 생성 모듈을 포함하는 것을 특징으로 하는 차량 제어 장치.
The method of claim 2,
The vehicle sensor information,
Including the driving information of the other vehicle,
The driving route generation unit,
A driving space prediction module predicting an expected driving area of the other vehicle based on at least one of the first space information, the first specification information, and the driving information of the other vehicle; And
And a driving route generation module for generating a driving route of the own vehicle based on the predicted driving region of another vehicle.
상기 차량의 센서 정보는
카메라 센서, 레이더 센서, 라이다 센서 및 초음파 센서 중 적어도 하나에서 생성된 스캔 정보인 것을 특징으로 하는 차량 제어 장치.
The method of claim 1,
Sensor information of the vehicle is
And at least one of a camera sensor, a radar sensor, a lidar sensor, and an ultrasonic sensor.
상기 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 실제 제원 정보로서 상기 타 차량의 차 폭, 길이, 최대 선회각 정보 중 적어도 하나를 포함하는 제1 제원 정보를 차량간 통신 방법인 V2X(Vehicle to everything)을 이용하여 타 차량으로부터 수신하는 단계; 및
V2X를 이용하여 타 차량으로부터 수신된 상기 제1 제원 정보를 기반으로 상기 제1 공간 정보를 캘리브레이션 하여 상기 자 차량의 주변에 대한 제2 공간 정보를 생성하는 단계를 포함하되,
상기 제2 공간 정보를 생성하는 단계는,
상기 제1 공간 정보에 포함된 적어도 하나의 타 차량의 제원 정보인 제2 제원 정보를 상기 제1 공간 정보에서 추출하고,
상기 타 차량의 실제 제원 정보인 제1 제원 정보와 상기 타 차량에 대하여 추출된 상기 제2 제원 정보를 비교하여 상기 제1 공간 정보를 캘리브레이션 하기 위한 보정 값을 산출하고, 상기 산출된 보정 값에 기초하여 상기 제1 공간 정보를 캘리브레이션 하여 상기 제2 공간 정보를 생성하는 단계를 포함하는 차량 제어 방법.
Generating first spatial information, which is spatial information about a periphery of the own vehicle, based on the sensor information of the vehicle received from the vehicle sensor of the own vehicle;
V2X (Vehicle), which is a method of communicating between vehicles using first specification information including at least one of vehicle width, length, and maximum turning angle information of another vehicle as actual specification information of at least one other vehicle positioned in the vicinity of the own vehicle. to receive from another vehicle using everything; And
And calibrating the first spatial information based on the first specification information received from another vehicle using a V2X to generate second spatial information about the periphery of the own vehicle.
Generating the second spatial information,
Extracting the second specification information which is the specification information of at least one other vehicle included in the first spatial information from the first spatial information,
Compensation value for calibrating the first spatial information is calculated by comparing the first specification information, which is the actual specification information of the other vehicle, with the second specification information extracted for the other vehicle, and based on the calculated correction value. And calibrating the first spatial information to generate the second spatial information.
상기 제1 공간 정보를 기반으로 상기 자 차량의 주행 경로를 생성하는 단계를 더 포함하는 차량 제어 방법
The method of claim 5,
And generating a driving route of the own vehicle based on the first spatial information.
상기 차량 센서 정보는,
상기 타 차량의 주행 정보를 포함하되,
상기 주행 경로를 생성하는 단계는,
상기 제1 공간 정보, 제1 제원 정보 및 타 차량의 주행 정보 중 적어도 하나를 기반으로 상기 타 차량의 예상 주행 영역을 예측하고, 예측된 타 차량의 주행 공간을 기반으로 상기 자 차량의 주행 경로를 생성하는 것을 특징으로 하는 차량 제어 방법.
The method of claim 6,
The vehicle sensor information,
Including the driving information of the other vehicle,
Generating the driving route,
The predicted driving area of the other vehicle is estimated based on at least one of the first space information, the first specification information, and the driving information of the other vehicle, and the driving path of the child vehicle is determined based on the predicted driving space of the other vehicle. Generating a vehicle control method.
상기 차량의 센서 정보는
카메라 센서, 레이더 센서, 라이다 센서 및 초음파 센서 중 적어도 하나에서 생성된 스캔 정보인 것을 특징으로 하는 차량 제어 방법. The method of claim 5,
Sensor information of the vehicle is
And at least one of a camera sensor, a radar sensor, a lidar sensor, and an ultrasonic sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134034A KR102106611B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for controlling vehicle based on 3d space cognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134034A KR102106611B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for controlling vehicle based on 3d space cognition |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170162760A Division KR20190063750A (en) | 2017-11-30 | 2017-11-30 | Apparatus and method for controlling vehicle based on 3d space cognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190126263A true KR20190126263A (en) | 2019-11-11 |
KR102106611B1 KR102106611B1 (en) | 2020-05-04 |
Family
ID=68535913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190134034A KR102106611B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for controlling vehicle based on 3d space cognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102106611B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160040911A (en) * | 2014-10-06 | 2016-04-15 | 현대모비스 주식회사 | Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof |
-
2019
- 2019-10-25 KR KR1020190134034A patent/KR102106611B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160040911A (en) * | 2014-10-06 | 2016-04-15 | 현대모비스 주식회사 | Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102106611B1 (en) | 2020-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113366496B (en) | Neural network for coarse and fine object classification | |
US10861176B2 (en) | Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data | |
US9457809B2 (en) | Collision possibility determination apparatus, drive assist apparatus, collision possibility determination method, and collision possibility determination program | |
US11194332B2 (en) | Autonomous driving control apparatus and method | |
US8175797B2 (en) | Vehicle drive assist system | |
EP3581451A1 (en) | Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control | |
KR102540919B1 (en) | Apparatus and method for controlling drive of vehicle | |
EP2045623A1 (en) | Vehicle detection apparatus | |
WO2018198574A1 (en) | Obstacle detection device | |
US20140214271A1 (en) | Apparatus and method for detecting obstacle adaptively to vehicle speed | |
US10929986B2 (en) | Techniques for using a simple neural network model and standard camera for image detection in autonomous driving | |
JP2007310741A (en) | Solid object recognition device | |
GB2576206A (en) | Sensor degradation | |
JP6716857B2 (en) | Mobile object, measuring system, measuring method and program | |
JP2017049771A (en) | Image processing apparatus | |
US11417218B2 (en) | Platooning controller and method thereof | |
US11027727B2 (en) | Apparatus for responding to vehicle water splashing, system having the same and method thereof | |
US11340623B2 (en) | Driver-centric model predictive controller | |
KR101979928B1 (en) | System and method for estimating distance of front vehicle | |
KR20200044169A (en) | Collision Avoidance System and Method of Autonomous Vehicle | |
KR102106611B1 (en) | Apparatus and method for controlling vehicle based on 3d space cognition | |
US11563905B2 (en) | Information processing device, information processing method, and program | |
US9254844B2 (en) | Apparatus and method for driving control of vehicle | |
KR101875517B1 (en) | Method and apparatus for processing a image | |
US20230075659A1 (en) | Object ranging apparatus, method, and computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right |