KR20190126263A - Apparatus and method for controlling vehicle based on 3d space cognition - Google Patents

Apparatus and method for controlling vehicle based on 3d space cognition Download PDF

Info

Publication number
KR20190126263A
KR20190126263A KR1020190134034A KR20190134034A KR20190126263A KR 20190126263 A KR20190126263 A KR 20190126263A KR 1020190134034 A KR1020190134034 A KR 1020190134034A KR 20190134034 A KR20190134034 A KR 20190134034A KR 20190126263 A KR20190126263 A KR 20190126263A
Authority
KR
South Korea
Prior art keywords
vehicle
information
spatial information
sensor
driving
Prior art date
Application number
KR1020190134034A
Other languages
Korean (ko)
Other versions
KR102106611B1 (en
Inventor
조민관
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020190134034A priority Critical patent/KR102106611B1/en
Publication of KR20190126263A publication Critical patent/KR20190126263A/en
Application granted granted Critical
Publication of KR102106611B1 publication Critical patent/KR102106611B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is a device for controlling a vehicle based on three-dimensional vehicle recognition. More specifically, the device may comprise: a first space information generating unit generating first space information, which is space information about a periphery of a vehicle of a user, based on sensor information of the vehicle; a vehicle data receiving unit receiving first data information, which is at least one piece of data information of other vehicle positioned around the vehicle; and a second space information generating unit generating second space information about the periphery of the vehicle of the user by calibrating the first space information based on the first data information.

Description

3차원 차량 인식 기반의 차량 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING VEHICLE BASED ON 3D SPACE COGNITION}Vehicle control apparatus and method based on 3D vehicle recognition {APPARATUS AND METHOD FOR CONTROLLING VEHICLE BASED ON 3D SPACE COGNITION}

본 발명은 차량 제어 기술에 관한 것으로서, 구체적으로는 3차원 차량 인식을 기반으로 주행 가능한 공간을 인식하여 차량의 주행을 제어하는 기술에 관한 것이다. The present invention relates to a vehicle control technology, and more particularly, to a technology for controlling driving of a vehicle by recognizing a space that can be driven based on three-dimensional vehicle recognition.

최근 자동차의 자율 주행에 대한 관심이 증가하면서, 차량 주변 공간을 인식하는 기술에 대한 연구가 진행되고 있다. 이와 관련하여 종래 기술들은 차량에 탑재된 카메라를 이용하여 차량 주변 공간을 촬영함으로써 차량 주변 공간을 인식하는 기술이 주를 이루고 있다. 그러나, 이러한 카메라를 이용한 공간 인식 방법은 주변 차량 등 장애물 등에 대한 정확한 길이, 차 폭 등의 정보를 알지 못해 3차원 공간 인지에는 한계가 있었다. Recently, as interest in autonomous driving of automobiles increases, researches on technologies for recognizing a space around a vehicle are being conducted. In this regard, the prior art is mainly focused on the technology for recognizing the space around the vehicle by using a camera mounted on the vehicle. However, the spatial recognition method using such a camera has a limitation in recognition of three-dimensional space because it does not know the exact length, vehicle width, and the like of obstacles such as surrounding vehicles.

따라서, 본 발명의 목적은 3차원 공간 인지를 기반으로 하는 차량 제어 기술을 제공하는 것이다. Accordingly, an object of the present invention is to provide a vehicle control technique based on three-dimensional spatial recognition.

또한, 본 발명의 목적은 타 차량의 제원 정보를 이용한 3차원 공간 인지를 기반으로 하는 차량 제어 기술을 제공하는 것이다. It is also an object of the present invention to provide a vehicle control technology based on three-dimensional spatial recognition using the specifications information of another vehicle.

또한, 본 발명의 목적은 타 차량의 예상 주행 영역을 기반으로 차량을 제어하는 기술을 제공하는 것이다. It is also an object of the present invention to provide a technique for controlling a vehicle based on an expected driving area of another vehicle.

또한, 본 발명의 목적은 3차원 공간 인지를 기반으로 차량의 주행 경로를 형성하는 기술을 제공하는 것이다. It is also an object of the present invention to provide a technique for forming a driving route of a vehicle based on three-dimensional space recognition.

본 발명의 일 측면에 따르면, 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 제1 공간 정보 생성부, 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 제원 정보인 제1 제원 정보를 수신하는 차량 제원 수신부 및 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 자 차량의 주변에 대한 제2 공간 정보를 생성하는 제2 공간 정보 생성부를 포함하는 차량 제어 장치가 제공된다.According to an aspect of the present invention, a first spatial information generation unit for generating first spatial information that is spatial information about the periphery of the own vehicle based on the sensor information of the vehicle, at least one other vehicle located in the periphery of the own vehicle A vehicle specification receiver configured to receive first specification information, the second specification information, and a second spatial information generator configured to generate second spatial information about a periphery of the own vehicle by calibrating first spatial information based on the first specification information; A vehicle control device is provided.

또한, 본 발명의 다른 측면에 따르면, 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 단계, 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 제원 정보인 제1 제원 정보를 수신하는 단계 및 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 자 차량의 주변에 대한 제2 공간 정보를 생성하는 단계를 포함하는 차량 제어 방법이 제공된다.In addition, according to another aspect of the invention, the step of generating the first spatial information that is the spatial information about the periphery of the child vehicle based on the sensor information of the vehicle, the specification information of at least one other vehicle located in the periphery of the child vehicle A method for controlling a vehicle is provided, the method comprising: receiving first first information and calibrating first spatial information based on the first specification information to generate second spatial information about a periphery of the own vehicle.

본 발명의 실시예에 따르면, 3차원 공간 인지를 기반으로 하는 차량을 제어하는 것이 가능하게 된다. According to an embodiment of the present invention, it becomes possible to control a vehicle based on three-dimensional space recognition.

또한, 본 발명의 다른 실시예에 따르면, 타 차량의 제원 정보를 이용한 3차원 공간 인지를 기반으로 하는 차량을 제어하는 것이 가능하게 된다. In addition, according to another embodiment of the present invention, it becomes possible to control the vehicle based on the three-dimensional space recognition using the specification information of the other vehicle.

또한, 본 발명의 다른 실시예에 따르면, 타 차량의 예상 주행 영역을 기반으로 차량을 제어하는 것이 가능하게 된다.In addition, according to another embodiment of the present invention, it is possible to control the vehicle based on the expected driving area of another vehicle.

또한, 본 발명의 다른 실시예에 따르면, 3차원 공간 인지를 기반으로 차량의 주행 경로를 형성하는 것이 가능하게 된다. In addition, according to another embodiment of the present invention, it is possible to form the driving route of the vehicle based on the three-dimensional space recognition.

도 1은 본 발명의 일 실시예에 따른 3차원 차량 인식 기반의 차량 제어 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량 제어 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 3 차원 차량 인식 기반의 차량 제어 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 제2 공간 정보의 예를 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 예상 주행 영역을 설명하기 위한 도면이다.
도 7는 본 발명의 다른 실시예에 따른 차량 제어 장치의 블록도이다.
1 is a block diagram of a vehicle control system based on three-dimensional vehicle recognition according to an embodiment of the present invention.
2 is a block diagram of a vehicle control apparatus according to an embodiment of the present invention.
3 is a flowchart of a 3D vehicle recognition based vehicle control method according to an embodiment of the present invention.
4 is a diagram for describing an example of second spatial information according to an embodiment of the present invention.
5 and 6 are views for explaining an expected driving region according to an embodiment of the present invention.
7 is a block diagram of a vehicle control apparatus according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Also, the singular forms used in the specification and claims are to be interpreted as generally meaning "one or more", unless stated otherwise.

이하, 본 발명의 바람직한 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in the following description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals and redundant description thereof will be omitted. Shall be.

도 1은 본 발명의 일 실시예에 따른 3차원 차량 인식 기반의 차량 제어 시스템의 구성도이다. 1 is a block diagram of a vehicle control system based on three-dimensional vehicle recognition according to an embodiment of the present invention.

도 1을 참조하면, 3차원 차량 인식 기반의 차량 제어 시스템의 제어 대상이 되는 자 차량(110) 및 자 차량(110) 주변에 존재하는 타 차량(120)이 도시되어 있으며, 여기서, 차량 제어 시스템은 차량 센서(111), 차량 제어 장치(112) 및 기구부(113)를 포함할 수 있다. 차량 센서(111)는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등을 이용하여 자 차량(110)의 주변 공간을 감지한 정보인 센서 정보를 생성할 있다. 차량 제어 장치(112)는 자 차량(110)의 센서 정보 및 타 차량(120)으로부터 수신된 타 차량(120)의 제원 정보를 기반으로 빈 공간을 검출하고, 검출된 빈 공간을 고려한 자 차량(110)의 주행 경로를 생성할 수 있다. 기구부(113)는 산출된 주행 경로에 따라 차량을 주행할 수 있다. Referring to FIG. 1, there is shown a child vehicle 110 that is a control target of a three-dimensional vehicle recognition based vehicle control system and another vehicle 120 that is present around the child vehicle 110, wherein the vehicle control system May include a vehicle sensor 111, a vehicle control device 112, and a mechanism 113. The vehicle sensor 111 may generate sensor information that is information about a surrounding space of the own vehicle 110 using a camera sensor, a lidar sensor, an ultrasonic sensor, a radar sensor, or the like. The vehicle control apparatus 112 detects an empty space based on sensor information of the own vehicle 110 and specification information of the other vehicle 120 received from the other vehicle 120, and considers the detected empty space in consideration of the detected empty space. The driving route of 110 may be generated. The mechanism unit 113 may drive the vehicle according to the calculated driving route.

이하, 도 2 내지 도 7을 참조하여 차량 제어 장치(112)를 상세히 설명한다. Hereinafter, the vehicle control apparatus 112 will be described in detail with reference to FIGS. 2 to 7.

도 2는 본 발명의 일 실시예에 따른 차량 제어 장치의 블록도이다. 2 is a block diagram of a vehicle control apparatus according to an embodiment of the present invention.

도 2를 참조하면, 차량 제어 장치(112)는 센서 정보 수신부(210), 제1 공간 정보 생성부(220), 차량 제원 수신부(230), 제2 공간 정보 생성부(240) 및 주행 경로 생성부(250)를 포함할 수 있다. Referring to FIG. 2, the vehicle control apparatus 112 may include a sensor information receiver 210, a first spatial information generator 220, a vehicle specification receiver 230, a second spatial information generator 240, and a driving route generation. The unit 250 may be included.

센서 정보 수신부(210)는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등을 이용하여 생성된 스캔 정보인 센서 정보를 차량 센서(111)로부터 수신할 수 있다. The sensor information receiver 210 may receive sensor information, which is scan information generated by using a camera sensor, a lidar sensor, an ultrasonic sensor, a radar sensor, or the like, from the vehicle sensor 111.

제1 공간 정보 생성부(220)는 자 차량(110)의 센서 정보를 기반으로 자 차량(110)의 주변 공간에 대한 제1 공간 정보를 생성할 수 있다. The first spatial information generator 220 may generate first spatial information about the surrounding space of the own vehicle 110 based on sensor information of the own vehicle 110.

차량 제원 수신부(230)는 자 차량(110) 주변 공간에 존재하는 타 차량(120)의 제원 정보를 수신할 수 있다. 여기서, 타 차량(120)의 제원 정보는 차 폭, 길이, 최대 선회각 중 적어도 하나를 포함할 수 있다. 또한, 타 차량(120)의 제원 정보는 BSM(Basic Safety Message)일 수 있다.The vehicle specification receiver 230 may receive specification information of another vehicle 120 existing in a space around the own vehicle 110. In this case, the specification information of the other vehicle 120 may include at least one of a vehicle width, a length, and a maximum turning angle. In addition, the specification information of the other vehicle 120 may be a basic safety message (BSM).

일 실시예에서, 차량 제원 수신부(230)는 타 차량(120)으로부터 제원 정보를 수신할 수 있다. 예를 들어, 차량 제원 수신부(230)는 차량 통신 방법인 V2X(Vehicle to everything)을 이용하여, 타 차량(120)으로부터 제원 정보를 수신할 수 있다. In one embodiment, the vehicle specification receiver 230 may receive the specification information from another vehicle 120. For example, the vehicle specification receiver 230 may receive specification information from another vehicle 120 using vehicle to everything (V2X).

제2 공간 정보 생성부(240)는 제1 공간 정보 및 타 차량(120)의 제원 정보를 기반으로 제2 공간 정보를 생성할 수 있으며, 일 실시예에서 제2 공간 정보 생성부(240)는 차량 제원 추출 모듈(241) 및 캘리브레이터(242)를 포함할 수 있다. 차량 제원 추출 모듈(241)은 제1 공간 정보에서 타 차량(120)의 제원 정보인 제2 제원 정보를 추출할 수 있다. 여기서, 제2 제원 정보는 차 폭, 길이, 차속, 진행 방향 등 타 차량(120)에 제원 이나 주행에 관한 정보 일 수 있다. 캘리브레이터(242)는 제1 제원 정보와 제2 제원 정보를 비교하여, 제2 제원 정보에 대응하는 제1 제원 정보를 결정하고, 결정된 제1 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 제2 공간 정보를 생성할 수 있다. 이때, 제2 공간 정보는 3차원 공간 정보일 수 있다. The second spatial information generator 240 may generate second spatial information based on the first spatial information and the specification information of the other vehicle 120, and in one embodiment, the second spatial information generator 240 The vehicle specification extraction module 241 and the calibrator 242 may be included. The vehicle specification extraction module 241 may extract second specification information, which is specification information of another vehicle 120, from the first spatial information. Here, the second specification information may be information about specifications or driving of the other vehicle 120 such as a vehicle width, a length, a vehicle speed, and a traveling direction. The calibrator 242 compares the first specification information with the second specification information, determines the first specification information corresponding to the second specification information, and calibrate the first spatial information based on the determined first specification information. Spatial information can be generated. In this case, the second spatial information may be three-dimensional spatial information.

일 실시예에서, 캘리브레이터(242)는 수학식 1을 이용하여, 캘리브레이션을 수행할 수 있다. In one embodiment, the calibrator 242 may perform calibration using Equation 1.

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 제1 공간 정보에 포함된 타 차량(120)의 길이,
Figure pat00003
는 타 차량(120)으로부터 V2x 통신을 통해 수신된 제2 제원 정보에 포함된 길이 정보를 의미한다. 상기 수학식 1이 차량의 길이 뿐만 아니라 차폭에도 동일하게 적용될 수 있음은 자명하다.here,
Figure pat00002
Is the length of another vehicle 120 included in the first spatial information,
Figure pat00003
Refers to length information included in the second specification information received through the V2x communication from another vehicle 120. It is obvious that Equation 1 can be equally applied to the vehicle width as well as the vehicle length.

주행 경로 생성부(250)는 3차원 공간 정보를 기반으로 자 차량(110)의 주행 경로를 생성할 수 있으며, 일 실시예에서, 주행 경로 생성부(250)는 주행 공간 예측 모듈(251) 및 주행 경로 생성 모듈(252)을 포함할 수 있다. 주행 공간 예측 모듈(251)은 제1 제원 정보 및 제2 제원 정보 중 적어도 하나를 기반으로 3차원 공간 정보에서 타 차량(120)이 주행할 가능성이 있는 예상 주행 영역을 예측할 수 있다. 주행 경로 생성 모듈(252)은 3차원 공간 정보 및 예상 주행 영역 중 적어도 하나를 기반으로 자 차량(110)이 주행할 주행 경로를 생성할 수 있다. The driving route generator 250 may generate a driving route of the own vehicle 110 based on the 3D space information. In one embodiment, the driving route generator 250 may include a driving space prediction module 251 and a driving route prediction module 251. The driving path generation module 252 may be included. The driving space prediction module 251 may predict the expected driving area in which the other vehicle 120 may travel in the 3D space information based on at least one of the first specification information and the second specification information. The driving route generation module 252 may generate a driving route for the child vehicle 110 to travel based on at least one of the 3D space information and the expected driving region.

일 실시예에서, 제2 공간 정보 생성부(240)는 타 차량(120)으 로부터 수신되는 제2 제원 정보를 누적하여 타 차량(120)의 예상 주행 영역을 예측할 수 있다. In an embodiment, the second spatial information generator 240 may accumulate the second specification information received from the other vehicle 120 to predict the expected driving area of the other vehicle 120.

도 3은 본 발명의 일 실시예에 따른 3 차원 차량 인식 기반의 차량 제어 방법의 흐름도이다. 3 is a flowchart of a 3D vehicle recognition based vehicle control method according to an embodiment of the present invention.

이하, 상기 방법은 도 1에 도시된 차량 제어 장치(112)에 의해 수행되는 것을 예시로 설명한다. Hereinafter, the method will be described by way of example performed by the vehicle control device 112 shown in FIG.

도 3을 참조하면, 단계 S310에서 차량 주행 제어 장치는 카메라 센서, 라이다 센서, 초음파 센서, 레이더 센서 등의 차량 센서(111)가 자 차량(110)의 주변 공간을 스캔한 스캔 정보를 수신할 수 있다. Referring to FIG. 3, in operation S310, the vehicle driving control apparatus may receive scan information in which a vehicle sensor 111, such as a camera sensor, a lidar sensor, an ultrasonic sensor, a radar sensor, and the like, scans a space around the own vehicle 110. Can be.

단계 S320에서, 차량 주행 제어 장치는 스캔 정보를 기반으로 자 차량(110)의 주변 공간에 대한 정보인 제1 공간 정보를 생성할 수 있다. In operation S320, the vehicle driving control apparatus may generate first space information that is information about a surrounding space of the own vehicle 110 based on the scan information.

단계 S330에서, 차량 주행 제어 장치는 V2X 등 차량 통신 방법을 이용하여 타 차량(120)으 로부터 타 차량(120)의 제원 정보인 제1 제원 정보를 수신할 수 있다. In operation S330, the vehicle driving control apparatus may receive first specification information, which is the specification information of the other vehicle 120, from the other vehicle 120 using a vehicle communication method such as V2X.

단계 S340에서, 차량 주행 제어 장치는 제1 공간 정보에서 자 차량(110) 주변에 존재하는 타 차량(120)의 제원 정보인 제2 제원 정보를 추출할 수 있다. 차량 주행 제어 장치는 제1 제원 정보 중 제2 제원 정보에 대응하는 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 제2 공간 정보를 생성할 수 있다. In operation S340, the vehicle driving control apparatus may extract second specification information, which is specification information of another vehicle 120 that exists around the own vehicle 110, from the first spatial information. The vehicle driving control apparatus may generate the second spatial information by calibrating the first spatial information based on the specification information corresponding to the second specification information among the first specification information.

단계 S350에서, 차량 주행 제어 장치는 제2 공간 정보를 기반으로 자 차량(110)이 주행할 주행 경로를 생성할 수 있다. 또한, 차량 주행 제어 장치는 제1 제원 정보 및 제2 제원 정보 중 적어도 하나와 제2 공간 정보를 기반으로 타 차량(120)이 주행할 것으로 예상되는 예상 주행 영역을 예측하고, 예측된 예상 주행 영역 및 제2 공간 정보 중 적어도 하나를 기반으로 자 차량(110)의 주행 가능한 주행 경로를 생성할 수 있다. In operation S350, the vehicle driving control apparatus may generate a driving route on which the own vehicle 110 runs based on the second spatial information. In addition, the vehicle driving control apparatus predicts an expected driving region in which the other vehicle 120 is expected to travel based on at least one of the first specification information and the second specification information and the second spatial information, and the predicted expected driving region. And a driving route capable of driving the child vehicle 110 based on at least one of the second spatial information.

도 4는 본 발명의 일 실시예에 따른 제2 공간 정보의 예를 설명하기 위한 도면이다. 4 is a diagram for describing an example of second spatial information according to an embodiment of the present invention.

도 4를 참조하면, 카메라 센서를 기반으로 생성된 제1 공간 정보에서, 타 차량(120)으로부터 수신된 제2 제원 정보를 기반으로 캘리브레이션을 수행하여, 타 차량(120)의 3차원 모델을 생성한 제2 공간 정보가 도시되어 있다. 이로써, 카메라 센서만으로 타 차량(120)이나 도로 등의 실제 폭이나 길이를 알 수 없는 경우가 발생 하더라도, 본 발명의 실시예에 따른 차량 제어 장치(112)를 통해, 자 차량(110) 주변 공간에 대한 3차원 정보인 제2 공간 정보를 생성함으로써, 타 차량(120)을 회피하여 주행 가능한 공간을 확인할 수 있게 된다. Referring to FIG. 4, in the first spatial information generated based on the camera sensor, calibration is performed based on the second specification information received from another vehicle 120 to generate a 3D model of another vehicle 120. One second spatial information is shown. Thus, even when the actual width or length of the other vehicle 120 or the road may not be known only by the camera sensor, the space around the child vehicle 110 through the vehicle control apparatus 112 according to the embodiment of the present invention. By generating the second space information, which is three-dimensional information about the vehicle, it is possible to avoid the other vehicle 120 to determine the space that can run.

도 5 및 도 6은 본 발명의 일 실시예에 따른 예상 주행 영역을 설명하기 위한 도면이다. 5 and 6 are views for explaining an expected driving region according to an embodiment of the present invention.

도 5를 참조하면, 타 차량(120)으로부터 수신된 제2 제원 정보를 기반으로 제1 공간 정보를 캘리브레이션 하여 생성된 3차원 공간 정보인 제2 공간 정보가 도시되어 있으며, 제2 공간 정보에서 타 차량(120) 등 장애물이 존재하지 않는 영역이 표시되어 있다. Referring to FIG. 5, second spatial information, which is three-dimensional spatial information generated by calibrating first spatial information based on second specification information received from another vehicle 120, is illustrated. Areas in which obstacles such as the vehicle 120 do not exist are displayed.

도 6을 참조하면, 타 차량(120)의 차 폭, 길이, 최대 선회각, 속도 등의 정보를 기반으로, 도 5에 도시된 제2 공간 정보에서 타 차량(120)의 주행할 것으로 예상되는 예상 주행 영역이 표시되어 있다. 구체적으로, 타 차량(120)은 ①, ② 및 ③ 중 어느 하나로 주행할 것으로 예상되므로, 타 차량(120)의 예상 주행 영역이 도 6과 같이 검출될 수 있다. ①은 타 차량(120)의 주행 방향의 각도가 0인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함), ②은 타 차량(120)의 주행 방향의 각도가 우측 최대인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함), ③ 은 타 차량(120)의 주행 방향의 각도가 좌측 최대인 경우, 타 차량(120)의 최대 이동 가능한 영역(타 차량 및 자 차량의 길이 및 폭을 고려함)을 의미한다.Referring to FIG. 6, based on information of a vehicle width, a length, a maximum turning angle, and a speed of another vehicle 120, the other vehicle 120 is expected to travel in the second spatial information shown in FIG. 5. The expected travel area is displayed. In detail, since the other vehicle 120 is expected to travel to any one of ①, ②, and ③, the expected driving area of the other vehicle 120 may be detected as shown in FIG. 6. ① indicates that the angle of the driving direction of the other vehicle 120 is 0, the maximum movable area of the other vehicle 120 (in consideration of the length and width of the other vehicle and the own vehicle), ② indicates the driving of the other vehicle 120 When the angle of the direction is the maximum of the right side, the maximum movable area of the other vehicle 120 (considering the length and width of the other vehicle and the child vehicle), ③ is when the angle of the driving direction of the other vehicle 120 is the maximum left , The maximum movable area of the other vehicle 120 (considering the length and width of the other vehicle and the child vehicle).

도 7는 본 발명의 다른 실시예에 따른 차량 제어 장치의 블록도이다.7 is a block diagram of a vehicle control apparatus according to another embodiment of the present invention.

이상 상술한 본 발명의 실시 예들은, 컴퓨터 시스템 내에, 예를 들어, 컴퓨터 판독가능 기록 매체로 구현될 수 있다. 도 7에 도시된 바와 같이, 차량 제어 장치(112) 등의 컴퓨터 시스템(700)은 하나 이상의 프로세서(710), 메모리(720), 저장부(730), 사용자 인터페이스 입력부(740) 및 사용자 인터페이스 출력부(750) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(760)를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템(700)은 네트워크에 접속하기 위한 네트워크 인터페이스(770)를 또한 포함할 수 있다. 프로세서(710)는 메모리(720) 및/또는 저장소(730)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리(720) 및 저장부(730)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(724) 및 RAM(725)을 포함할 수 있다. Embodiments of the present invention described above may be implemented in a computer system, for example, a computer readable recording medium. As shown in FIG. 7, computer system 700, such as vehicle control device 112, may include one or more processors 710, memory 720, storage 730, user interface input 740, and user interface output. At least one or more elements of unit 750 may be included, and they may be in communication with each other via bus 760. In addition, computer system 700 may also include a network interface 770 for connecting to a network. The processor 710 may be a CPU or semiconductor device that executes processing instructions stored in the memory 720 and / or the storage 730. The memory 720 and the storage 730 may include various types of volatile / nonvolatile storage media. For example, the memory may include a ROM 724 and a RAM 725.

이에 따라, 본 발명의 실시 예들은 컴퓨터로 구현되는 방법 또는 컴퓨터 실행 가능 명령어들이 저장된 비휘발성 컴퓨터 기록 매체로 구현될 수 있다. 상기 명령어들은 프로세서에 의해 실행될 때 본 발명의 적어도 일 실시 예에 따른 방법을 수행할 수 있다.Accordingly, embodiments of the present disclosure may be implemented as a computer-implemented method or a nonvolatile computer recording medium storing computer executable instructions. When executed by a processor, the instructions may perform a method according to at least one embodiment of the present disclosure.

이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

111 : 차량 센서
112 : 차량 제어 장치
113 : 기구부
111: vehicle sensor
112: vehicle control unit
113: mechanical part

Claims (8)

자 차량의 차량 센서로부터 수신된 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 제1 공간 정보 생성부;
상기 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 실제 제원 정보로서 상기 타 차량의 차 폭, 길이, 최대 선회각 정보 중 적어도 하나를 포함하는 제1 제원 정보를 차량간 통신 방법인 V2X(Vehicle to everything)을 이용하여 타 차량으로부터 수신하는 차량 제원 수신부; 및
V2X를 이용하여 타 차량으로부터 수신된 상기 제1 제원 정보를 기반으로 상기 제1 공간 정보를 캘리브레이션 하여 상기 자 차량의 주변에 대한 제2 공간 정보를 생성하는 제2 공간 정보 생성부;를 포함하되,
상기 제2 공간 정보 생성부는,
상기 제1 공간 정보에 포함된 적어도 하나의 타 차량의 제원 정보인 제2 제원 정보를 상기 제1 공간 정보에서 추출하는 차량 제원 추출 모듈; 및
상기 타 차량의 실제 제원 정보인 제1 제원 정보와 상기 타 차량에 대하여 추출된 상기 제2 제원 정보를 비교하여 상기 제1 공간 정보를 캘리브레이션 하기 위한 보정 값을 산출하고, 상기 산출된 보정 값에 기초하여 상기 제1 공간 정보를 캘리브레이션 하여 상기 제2 공간 정보를 생성하는 캘리브레이터를 포함하는 차량 제어 장치.
A first spatial information generator configured to generate first spatial information, which is spatial information about a surrounding of the own vehicle, based on sensor information of the vehicle received from the vehicle sensor of the own vehicle;
V2X (Vehicle) which is a method of communication between vehicles using first specification information including at least one of vehicle width, length, and maximum turning angle information of the other vehicle as actual specification information of at least one other vehicle positioned in the vicinity of the own vehicle. a vehicle specification receiver configured to receive from another vehicle by using everything; And
And a second spatial information generator configured to generate second spatial information about the periphery of the own vehicle by calibrating the first spatial information based on the first specification information received from another vehicle using a V2X.
The second spatial information generator,
A vehicle specification extraction module configured to extract second specification information, which is specification information of at least one other vehicle included in the first spatial information, from the first spatial information; And
Compensation value for calibrating the first spatial information is calculated by comparing the first specification information, which is the actual specification information of the other vehicle, with the second specification information extracted for the other vehicle, and based on the calculated correction value. And a calibrator configured to calibrate the first spatial information to generate the second spatial information.
제 1 항에 있어서,
상기 제1 공간 정보를 기반으로 상기 자 차량의 주행 경로를 생성하는 주행 경로 생성부를 더 포함하는 차량 제어 장치.
The method of claim 1,
And a driving route generator configured to generate a driving route of the own vehicle based on the first spatial information.
제 2 항에 있어서,
상기 차량 센서 정보는,
상기 타 차량의 주행 정보를 포함하되,
상기 주행 경로 생성부는,
상기 제1 공간 정보, 제1 제원 정보 및 타 차량의 주행 정보 중 적어도 하나를 기반으로 상기 타 차량의 예상 주행 영역을 예측하는 주행 공간 예측 모듈; 및
예측된 타 차량의 예상 주행 영역을 기반으로 상기 자 차량의 주행 경로를 생성하는 주행 경로 생성 모듈을 포함하는 것을 특징으로 하는 차량 제어 장치.
The method of claim 2,
The vehicle sensor information,
Including the driving information of the other vehicle,
The driving route generation unit,
A driving space prediction module predicting an expected driving area of the other vehicle based on at least one of the first space information, the first specification information, and the driving information of the other vehicle; And
And a driving route generation module for generating a driving route of the own vehicle based on the predicted driving region of another vehicle.
제 1 항에 있어서,
상기 차량의 센서 정보는
카메라 센서, 레이더 센서, 라이다 센서 및 초음파 센서 중 적어도 하나에서 생성된 스캔 정보인 것을 특징으로 하는 차량 제어 장치.
The method of claim 1,
Sensor information of the vehicle is
And at least one of a camera sensor, a radar sensor, a lidar sensor, and an ultrasonic sensor.
자 차량의 차량 센서로부터 수신된 차량의 센서 정보를 기반으로 자 차량의 주변에 대한 공간 정보인 제1 공간 정보를 생성하는 단계;
상기 자 차량의 주변에 위치하는 적어도 하나의 타 차량의 실제 제원 정보로서 상기 타 차량의 차 폭, 길이, 최대 선회각 정보 중 적어도 하나를 포함하는 제1 제원 정보를 차량간 통신 방법인 V2X(Vehicle to everything)을 이용하여 타 차량으로부터 수신하는 단계; 및
V2X를 이용하여 타 차량으로부터 수신된 상기 제1 제원 정보를 기반으로 상기 제1 공간 정보를 캘리브레이션 하여 상기 자 차량의 주변에 대한 제2 공간 정보를 생성하는 단계를 포함하되,
상기 제2 공간 정보를 생성하는 단계는,
상기 제1 공간 정보에 포함된 적어도 하나의 타 차량의 제원 정보인 제2 제원 정보를 상기 제1 공간 정보에서 추출하고,
상기 타 차량의 실제 제원 정보인 제1 제원 정보와 상기 타 차량에 대하여 추출된 상기 제2 제원 정보를 비교하여 상기 제1 공간 정보를 캘리브레이션 하기 위한 보정 값을 산출하고, 상기 산출된 보정 값에 기초하여 상기 제1 공간 정보를 캘리브레이션 하여 상기 제2 공간 정보를 생성하는 단계를 포함하는 차량 제어 방법.
Generating first spatial information, which is spatial information about a periphery of the own vehicle, based on the sensor information of the vehicle received from the vehicle sensor of the own vehicle;
V2X (Vehicle), which is a method of communicating between vehicles using first specification information including at least one of vehicle width, length, and maximum turning angle information of another vehicle as actual specification information of at least one other vehicle positioned in the vicinity of the own vehicle. to receive from another vehicle using everything; And
And calibrating the first spatial information based on the first specification information received from another vehicle using a V2X to generate second spatial information about the periphery of the own vehicle.
Generating the second spatial information,
Extracting the second specification information which is the specification information of at least one other vehicle included in the first spatial information from the first spatial information,
Compensation value for calibrating the first spatial information is calculated by comparing the first specification information, which is the actual specification information of the other vehicle, with the second specification information extracted for the other vehicle, and based on the calculated correction value. And calibrating the first spatial information to generate the second spatial information.
제 5 항에 있어서,
상기 제1 공간 정보를 기반으로 상기 자 차량의 주행 경로를 생성하는 단계를 더 포함하는 차량 제어 방법
The method of claim 5,
And generating a driving route of the own vehicle based on the first spatial information.
제 6 항에 있어서,
상기 차량 센서 정보는,
상기 타 차량의 주행 정보를 포함하되,
상기 주행 경로를 생성하는 단계는,
상기 제1 공간 정보, 제1 제원 정보 및 타 차량의 주행 정보 중 적어도 하나를 기반으로 상기 타 차량의 예상 주행 영역을 예측하고, 예측된 타 차량의 주행 공간을 기반으로 상기 자 차량의 주행 경로를 생성하는 것을 특징으로 하는 차량 제어 방법.
The method of claim 6,
The vehicle sensor information,
Including the driving information of the other vehicle,
Generating the driving route,
The predicted driving area of the other vehicle is estimated based on at least one of the first space information, the first specification information, and the driving information of the other vehicle, and the driving path of the child vehicle is determined based on the predicted driving space of the other vehicle. Generating a vehicle control method.
제 5 항에 있어서,
상기 차량의 센서 정보는
카메라 센서, 레이더 센서, 라이다 센서 및 초음파 센서 중 적어도 하나에서 생성된 스캔 정보인 것을 특징으로 하는 차량 제어 방법.
The method of claim 5,
Sensor information of the vehicle is
And at least one of a camera sensor, a radar sensor, a lidar sensor, and an ultrasonic sensor.
KR1020190134034A 2019-10-25 2019-10-25 Apparatus and method for controlling vehicle based on 3d space cognition KR102106611B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190134034A KR102106611B1 (en) 2019-10-25 2019-10-25 Apparatus and method for controlling vehicle based on 3d space cognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190134034A KR102106611B1 (en) 2019-10-25 2019-10-25 Apparatus and method for controlling vehicle based on 3d space cognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170162760A Division KR20190063750A (en) 2017-11-30 2017-11-30 Apparatus and method for controlling vehicle based on 3d space cognition

Publications (2)

Publication Number Publication Date
KR20190126263A true KR20190126263A (en) 2019-11-11
KR102106611B1 KR102106611B1 (en) 2020-05-04

Family

ID=68535913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190134034A KR102106611B1 (en) 2019-10-25 2019-10-25 Apparatus and method for controlling vehicle based on 3d space cognition

Country Status (1)

Country Link
KR (1) KR102106611B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160040911A (en) * 2014-10-06 2016-04-15 현대모비스 주식회사 Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160040911A (en) * 2014-10-06 2016-04-15 현대모비스 주식회사 Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof

Also Published As

Publication number Publication date
KR102106611B1 (en) 2020-05-04

Similar Documents

Publication Publication Date Title
CN113366496B (en) Neural network for coarse and fine object classification
US10861176B2 (en) Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data
US9457809B2 (en) Collision possibility determination apparatus, drive assist apparatus, collision possibility determination method, and collision possibility determination program
US11194332B2 (en) Autonomous driving control apparatus and method
US8175797B2 (en) Vehicle drive assist system
EP3581451A1 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
KR102540919B1 (en) Apparatus and method for controlling drive of vehicle
EP2045623A1 (en) Vehicle detection apparatus
US20140214271A1 (en) Apparatus and method for detecting obstacle adaptively to vehicle speed
US10929986B2 (en) Techniques for using a simple neural network model and standard camera for image detection in autonomous driving
JP2018189422A (en) Obstacle detector
JP2007310741A (en) Solid object recognition device
US20190354785A1 (en) Method and system for improving object detection and object classification
GB2576206A (en) Sensor degradation
JP6716857B2 (en) Mobile object, measuring system, measuring method and program
US11417218B2 (en) Platooning controller and method thereof
US20150134234A1 (en) Apparatus for determining motion characteristics of target and device for controlling driving route of vehicle including the same
US11027727B2 (en) Apparatus for responding to vehicle water splashing, system having the same and method thereof
US11340623B2 (en) Driver-centric model predictive controller
KR101979928B1 (en) System and method for estimating distance of front vehicle
KR20200044169A (en) Collision Avoidance System and Method of Autonomous Vehicle
KR102106611B1 (en) Apparatus and method for controlling vehicle based on 3d space cognition
US11563905B2 (en) Information processing device, information processing method, and program
US9254844B2 (en) Apparatus and method for driving control of vehicle
KR101875517B1 (en) Method and apparatus for processing a image

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right