KR20240044573A - Apparatus for controlling autonomous vehicle and method thereof - Google Patents

Apparatus for controlling autonomous vehicle and method thereof Download PDF

Info

Publication number
KR20240044573A
KR20240044573A KR1020220123367A KR20220123367A KR20240044573A KR 20240044573 A KR20240044573 A KR 20240044573A KR 1020220123367 A KR1020220123367 A KR 1020220123367A KR 20220123367 A KR20220123367 A KR 20220123367A KR 20240044573 A KR20240044573 A KR 20240044573A
Authority
KR
South Korea
Prior art keywords
image data
autonomous vehicle
driving
vehicle
database
Prior art date
Application number
KR1020220123367A
Other languages
Korean (ko)
Inventor
고희양
Original Assignee
주식회사 경신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 경신 filed Critical 주식회사 경신
Priority to KR1020220123367A priority Critical patent/KR20240044573A/en
Publication of KR20240044573A publication Critical patent/KR20240044573A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율 주행 차량의 제어 장치에 관한 것으로, 자율 주행 차량의 동작 및 거동 상태를 검출하기 위한 적어도 하나 이상의 센서를 포함하는 센서 모듈; 상기 자율 주행 차량의 전방이나 측방을 향하여 설치된 적어도 하나의 카메라를 포함하는 카메라 모듈; 지피에스 위성의 신호를 수신하여, 상기 자율 주행 차량의 현재의 위치를 검출하는 지피에스 모듈; 및 상기 센서 모듈, 상기 카메라 모듈, 및 상기 지피에스 모듈을 통해 검출된 정보를 바탕으로, 상기 자율 주행 차량의 조향을 제어하여, 차선 유지 동작을 수행하는 프로세서;를 포함한다.The present invention relates to a control device for an autonomous vehicle, comprising: a sensor module including at least one sensor for detecting the operation and behavior state of the autonomous vehicle; a camera module including at least one camera installed toward the front or side of the autonomous vehicle; a GPS module that receives signals from GPS satellites and detects the current location of the autonomous vehicle; and a processor that controls steering of the autonomous vehicle and performs a lane keeping operation based on information detected through the sensor module, the camera module, and the GPS module.

Description

자율 주행 차량의 제어 장치와 방법{APPARATUS FOR CONTROLLING AUTONOMOUS VEHICLE AND METHOD THEREOF}Control device and method for autonomous vehicle {APPARATUS FOR CONTROLLING AUTONOMOUS VEHICLE AND METHOD THEREOF}

본 발명은 자율 주행 차량의 제어 장치와 방법에 관한 것으로, 보다 상세하게는 자율 주행 차량이 주행하는 도로의 차선 및 주행 시야 미확보 상황 발생 시, 주행 영상 데이터베이스로부터 대안 영상을 확보 및 사용하여 차량 탑승자와 보행자의 안전을 확보할 수 있도록 하는, 자율 주행 차량의 제어 장치와 방법에 관한 것이다.The present invention relates to a control device and method for an autonomous vehicle. More specifically, in the event of a situation where the lane on the road on which an autonomous vehicle is traveling and the driving field of view are unsecured, an alternative image is obtained and used from a driving image database, and the vehicle occupants and It relates to a control device and method for an autonomous vehicle that ensures the safety of pedestrians.

일반적으로 자율 주행 차량(또는 자율주행차)은 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않더라도, 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서(예 : 라이다, 레이더, 카메라 등)로 주변 상황을 파악해 스스로 목적지까지 찾아가는 자동차를 의미한다.In general, self-driving vehicles (or self-driving cars) use precise maps, satellite navigation systems (GPS), and other vehicle sensors (e.g. lidar, radar, cameras, etc.) even if the driver does not operate the steering wheel, accelerator pedal, or brakes. ) refers to a car that understands the surrounding situation and navigates to its destination on its own.

이러한 자율주행 기술의 단계는 국제자동차기술자협회(SAE, Society of Automotive Engineers)에서 정의한 내용이 국제 기준으로 통용되고 있으며, 단계 1에서 단계 5까지 총 6단계로 분류된다. The stages of autonomous driving technology are defined by the Society of Automotive Engineers (SAE) as international standards and are classified into a total of 6 stages from stage 1 to stage 5.

그 중 단계 1에는 ACC(Adaptive Cruise Control), LKAS(Lane Keeping Assist System)가 대표적인 기술이며, 최근 첨단운전자지원시스템(ADAS : Advanced Driver Assistance Systems)이 적용된 차량이 증가하고 있다.Among these, Adaptive Cruise Control (ACC) and Lane Keeping Assist System (LKAS) are representative technologies in Stage 1, and the number of vehicles equipped with Advanced Driver Assistance Systems (ADAS) has recently been increasing.

이 때 상기 자율주행은 도로의 상태나 날씨(눈, 비 등)의 따라 자율주행을 원활하게 수행할 수도 있고 그렇지 않을 수도 있다. At this time, the autonomous driving may or may not be performed smoothly depending on road conditions or weather (snow, rain, etc.).

즉, 종래에는 화이트 아웃, 야간, 눈, 비 등으로 인한 카메라 영상의 시야 미확보 상황 발생 시, 자율 주행 차량의 정상적인 차간 거리 유지 및 차로 중앙 유지 주행이 불가능하여 사람의 안전을 위협하는 사고가 발생할 수 있는 문제점이 있다.In other words, in the past, when the field of view of the camera image is unsecured due to whiteout, night, snow, rain, etc., it is impossible for autonomous vehicles to maintain a normal distance between vehicles and maintain the center of the lane, which can lead to accidents that threaten human safety. There is a problem.

이에 따라 차선 및 주행 시야 미확보 상황 발생 시 주행 영상 데이터베이스로부터 대안 영상을 확보 및 사용하여 차량 탑승자와 보행자의 안전을 확보할 수 있는 기술이 필요한 상황이다.Accordingly, there is a need for technology that can ensure the safety of vehicle occupants and pedestrians by securing and using alternative images from the driving image database in situations where lanes and driving visibility are unsecured.

본 발명의 배경기술은 대한민국 공개특허 10-2021-0100776호(2021.08.18. 공개, 카메라를 이용하여 자율 주행을 수행하는 차량 및 그의 동작 방법)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-2021-0100776 (published on August 18, 2021, vehicle performing autonomous driving using a camera and method of operating the same).

본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 자율 주행 차량이 주행하는 도로의 차선 및 주행 시야 미확보 상황 발생 시, 주행 영상 데이터베이스로부터 대안 영상을 확보 및 사용하여 차량 탑승자와 보행자의 안전을 확보할 수 있도록 하는, 자율 주행 차량의 제어 장치와 방법을 제공하는 데 그 목적이 있다. According to one aspect of the present invention, the present invention was created to solve the above problems, and in the event of a situation where the lane on the road on which an autonomous vehicle is traveling and the driving field of view are not secured, an alternative image is secured and used from a driving image database. The purpose is to provide a control device and method for an autonomous vehicle that ensures the safety of vehicle occupants and pedestrians.

본 발명의 일 측면에 따른 자율 주행 차량의 제어 장치는, 자율 주행 차량의 동작 및 거동 상태를 검출하기 위한 적어도 하나 이상의 센서를 포함하는 센서 모듈; 상기 자율 주행 차량의 전방이나 측방을 향하여 설치된 적어도 하나의 카메라를 포함하는 카메라 모듈; 지피에스 위성의 신호를 수신하여, 상기 자율 주행 차량의 현재의 위치를 검출하는 지피에스 모듈; 및 상기 센서 모듈, 상기 카메라 모듈, 및 상기 지피에스 모듈을 통해 검출된 정보를 바탕으로, 상기 자율 주행 차량의 조향을 제어하여, 차선 유지 동작을 수행하는 프로세서;를 포함하는 것을 특징으로 한다.A control device for an autonomous vehicle according to an aspect of the present invention includes a sensor module including at least one sensor for detecting the operation and behavior state of the autonomous vehicle; a camera module including at least one camera installed toward the front or side of the autonomous vehicle; a GPS module that receives signals from GPS satellites and detects the current location of the autonomous vehicle; and a processor that controls steering of the autonomous vehicle and performs a lane keeping operation based on information detected through the sensor module, the camera module, and the GPS module.

본 발명에 있어서, 상기 프로세서는, 상기 센서 모듈을 통해 전방을 감시하여 도로 곡률 및 선행 차량을 검출하고, 상기 카메라 모듈을 통해 촬영된 영상을 분석하여 차선 유지 동작을 수행하며, 지정된 개수 이상의 위성 신호가 수신될 경우, 내비게이션 맵으로부터 차량이 현재 주행하는 도로와 주행할 방향을 추정하는 것을 특징으로 한다.In the present invention, the processor monitors the front through the sensor module to detect road curvature and a preceding vehicle, analyzes images captured through the camera module, performs a lane maintenance operation, and detects a specified number of satellite signals or more. When received, the road on which the vehicle is currently traveling and the direction in which it will be driven are estimated from the navigation map.

본 발명에 있어서, 상기 프로세서는, 지정된 서버의 데이터베이스와 통신하여, 상기 카메라 모듈에서 촬영한 실시간 주행 영상 데이터를 상기 데이터베이스에 전달하여 저장하거나, 상기 데이터베이스에 저장된 주행 영상 데이터 획득하여 전달받을 수 있으며, 상기 데이터베이스에 저장된 주행 영상 데이터는, 차량의 위치 및 차선정보가 매칭되어 있는 것을 특징으로 한다.In the present invention, the processor communicates with a database of a designated server, and transmits and stores real-time driving image data captured by the camera module to the database, or obtains and receives driving image data stored in the database, The driving image data stored in the database is characterized in that vehicle location and lane information are matched.

본 발명에 있어서, 상기 데이터베이스에 저장된 주행 영상 데이터는, 다른 차량이나 자율 주행 차량에서 저장한 주행 영상 데이터를 포함하는 것을 특징으로 한다.In the present invention, the driving image data stored in the database is characterized in that it includes driving image data stored in other vehicles or autonomous vehicles.

본 발명에 있어서, 상기 서버는, 상기 데이터베이스에 저장된 주행 영상 데이터 중, 차선 및 시야 확보가 기준 미달인 주행 영상 데이터를 삭제할 수 있으며, 차선 및 시야 확보가 기준 이상인 주행 영상 데이터에 대한 점수를 부가하여, 동일한 경로에 대한 주행 영상 데이터 중 상위의 지정된 비율 또는 상위의 지정된 갯수의 주행 영상 데이터만 저장할 수 있도록 구현된 것을 특징으로 한다.In the present invention, the server can delete the driving image data whose lane and visibility are below the standards among the driving image data stored in the database, and add a score to the driving image data whose lane and visibility are above the standards. , It is characterized in that it is implemented so that only a specified percentage of the driving image data or a specified number of the driving image data for the same route can be stored.

본 발명에 있어서, 상기 프로세서는, 상기 센서 모듈을 통해 검출된 차선 정보를 바탕으로 차량의 제1 조향 값을 산출하고, 상기 카메라 모듈을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 제2 조향 값을 산출하며, 상기 지피에스 모듈을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 제3 조향 값을 산출하고, 상기 제1 조향 값 내지 제3 조향 값을 서로 비교하여, 차이 값이 가장 큰 조향 값을 제외하고, 상기 제외된 조향 값을 제외한 나머지 두 조향 값의 평균 조향 값을 산출하여, 상기 두 조향 값의 평균 조향 값을 이용하여 자율 주행 차량을 제어하는 것을 특징으로 한다.In the present invention, the processor calculates the first steering value of the vehicle based on lane information detected through the sensor module, processes the image captured through the camera module, and calculates the first steering value of the vehicle based on the lane information detected through the sensor module. A second steering value is calculated, a third steering value corresponding to the direction in which the vehicle is to proceed is calculated through a navigation map based on the GPS signal detected through the GPS module, and the first to third steering values are calculated. Compare with each other, exclude the steering value with the largest difference, calculate the average steering value of the remaining two steering values excluding the excluded steering value, and control the autonomous vehicle using the average steering value of the two steering values. It is characterized by:

본 발명에 있어서, 상기 프로세서는, 상기 카메라 모듈로부터 실시간 주행 영상 데이터를 획득함과 아울러 지정된 데이터베이스에 전달하여 저장하고, 상기 지정된 데이터베이스로부터, 기 저장되어 있는 영상 데이터 중, 상기 자율 주행 차량의 현재 위치에 대응하는 영상 데이터를 실시간 획득하며, 상기 실시간 주행 영상 데이터를 분석하여, 차선 및 주행 시야 확보가 가능한 경우, 상기 실시간 주행 영상 데이터를 처리하여 자율 주행 제어를 수행하고, 상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 불가능한 경우, 상기 데이터베이스에 저장된 영상 데이터 중, 현재 자율 주행 차량의 실시간 주행 정보에 대응하는 주행 영상 데이터를 획득 처리하여 자율 주행 제어를 수행하는 것을 특징으로 한다.In the present invention, the processor acquires real-time driving image data from the camera module and transmits and stores it to a designated database, and determines the current location of the autonomous vehicle from among the previously stored image data from the designated database. Obtain image data corresponding to the real-time driving image data in real time, analyze the real-time driving image data, and if it is possible to secure the lane and driving view, perform autonomous driving control by processing the real-time driving image data, and determine the lane from the real-time driving image data. And when it is impossible to secure a driving field of view, autonomous driving control is performed by acquiring and processing driving image data corresponding to real-time driving information of the current autonomous vehicle from among the image data stored in the database.

본 발명의 다른 측면에 따른 자율 주행 차량의 제어 방법은, 프로세서가, 센서 모듈을 통해, 자율 주행 차량의 동작 및 거동 상태를 검출하는 단계; 상기 프로세서가, 카메라 모듈을 통해, 상기 자율 주행 차량의 전방이나 측방의 영상을 촬영하는 단계; 상기 프로세서가, 지피에스 모듈을 통해, 상기 자율 주행 차량의 현재의 위치를 검출하는 단계; 및 상기 프로세서가, 상기 센서 모듈, 상기 카메라 모듈, 및 상기 지피에스 모듈을 통해 검출된 정보를 바탕으로, 상기 자율 주행 차량의 조향을 제어하여, 차선 유지 동작을 수행하는 단계;를 포함하는 것을 특징으로 한다.A method for controlling an autonomous vehicle according to another aspect of the present invention includes: detecting, by a processor, the operation and behavior state of the autonomous vehicle through a sensor module; capturing, by the processor, an image of the front or side of the autonomous vehicle through a camera module; detecting, by the processor, the current location of the autonomous vehicle through a GPS module; and controlling, by the processor, the steering of the autonomous vehicle based on information detected through the sensor module, the camera module, and the GPS module to perform a lane keeping operation. do.

본 발명에 있어서, 상기 프로세서는, 상기 센서 모듈을 통해 전방을 감시하여 도로 곡률 및 선행 차량을 검출하고, 상기 카메라 모듈을 통해 촬영된 영상을 분석하여 차선 유지 동작을 수행하며, 지정된 개수 이상의 위성 신호가 수신될 경우, 내비게이션 맵으로부터 차량이 현재 주행하는 도로와 주행할 방향을 추정하는 것을 특징으로 한다.In the present invention, the processor monitors the front through the sensor module to detect road curvature and a preceding vehicle, analyzes images captured through the camera module, performs a lane maintenance operation, and detects a specified number of satellite signals or more. When received, the road on which the vehicle is currently traveling and the direction in which it will be driven are estimated from the navigation map.

본 발명에 있어서, 상기 자율 주행 차량의 전방이나 측방의 영상을 촬영하는 단계 이후, 상기 프로세서는, 지정된 서버의 데이터베이스와 통신하여, 상기 카메라 모듈에서 촬영한 실시간 주행 영상 데이터를 상기 데이터베이스에 전달하여 저장하거나, 상기 데이터베이스에 저장된 주행 영상 데이터 획득하여 전달받을 수 있으며, 상기 데이터베이스에 저장된 주행 영상 데이터는, 차량의 위치 및 차선정보가 매칭되어 있는 것을 특징으로 한다.In the present invention, after the step of capturing an image of the front or side of the autonomous vehicle, the processor communicates with a database of a designated server and transmits real-time driving image data captured by the camera module to the database for storage. Alternatively, the driving image data stored in the database can be obtained and received, and the driving image data stored in the database is characterized in that the vehicle's location and lane information are matched.

본 발명에 있어서, 상기 데이터베이스에 저장된 주행 영상 데이터는, 다른 차량이나 자율 주행 차량에서 저장한 주행 영상 데이터를 포함하는 것을 특징으로 한다.In the present invention, the driving image data stored in the database is characterized in that it includes driving image data stored in other vehicles or autonomous vehicles.

본 발명에 있어서, 상기 서버는, 상기 데이터베이스에 저장된 주행 영상 데이터 중, 차선 및 시야 확보가 기준 미달인 주행 영상 데이터를 삭제할 수 있으며, 차선 및 시야 확보가 기준 이상인 주행 영상 데이터에 대한 점수를 부가하여, 동일한 경로에 대한 주행 영상 데이터 중 상위의 지정된 비율 또는 상위의 지정된 갯수의 주행 영상 데이터만 저장할 수 있도록 구현된 것을 특징으로 한다.In the present invention, the server can delete the driving image data whose lane and visibility are below the standards among the driving image data stored in the database, and add a score to the driving image data whose lane and visibility are above the standards. , It is characterized in that it is implemented so that only a specified percentage of the driving image data or a specified number of the driving image data for the same route can be stored.

본 발명에 있어서, 상기 자율 주행 차량의 조향을 제어하기 위하여, 상기 프로세서는, 상기 센서 모듈을 통해 검출된 차선 정보를 바탕으로 차량의 제1 조향 값을 산출하고, 상기 카메라 모듈을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 제2 조향 값을 산출하며, 상기 지피에스 모듈을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 제3 조향 값을 산출하고, 상기 제1 조향 값 내지 제3 조향 값을 서로 비교하여, 차이 값이 가장 큰 조향 값을 제외하고, 상기 제외된 조향 값을 제외한 나머지 두 조향 값의 평균 조향 값을 산출하여, 상기 두 조향 값의 평균 조향 값을 이용하여 자율 주행 차량을 제어하는 것을 특징으로 한다.In the present invention, in order to control the steering of the autonomous vehicle, the processor calculates the first steering value of the vehicle based on lane information detected through the sensor module and images captured through the camera module. Processes to calculate a second steering value of the vehicle based on the detected lane information, and calculates a third steering value corresponding to the direction in which the vehicle will proceed through a navigation map based on the GPS signal detected through the GPS module, Compare the first to third steering values, exclude the steering value with the largest difference, calculate the average steering value of the remaining two steering values excluding the excluded steering value, and calculate the average steering value of the two steering values. It is characterized by controlling an autonomous vehicle using average steering values.

본 발명에 있어서, 상기 자율 주행 차량의 조향을 제어하기 위하여, 상기 프로세서는, 상기 카메라 모듈로부터 실시간 주행 영상 데이터를 획득함과 아울러 지정된 데이터베이스에 전달하여 저장하고, 상기 지정된 데이터베이스로부터, 기 저장되어 있는 영상 데이터 중, 상기 자율 주행 차량의 현재 위치에 대응하는 영상 데이터를 실시간 획득하며, 상기 실시간 주행 영상 데이터를 분석하여, 차선 및 주행 시야 확보가 가능한 경우, 상기 실시간 주행 영상 데이터를 처리하여 자율 주행 제어를 수행하고, 상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 불가능한 경우, 상기 데이터베이스에 저장된 영상 데이터 중, 현재 자율 주행 차량의 실시간 주행 정보에 대응하는 주행 영상 데이터를 획득 처리하여 자율 주행 제어를 수행하는 것을 특징으로 한다.In the present invention, in order to control the steering of the autonomous vehicle, the processor acquires real-time driving image data from the camera module and transmits and stores it to a designated database, and from the designated database, pre-stored data is obtained. Among the video data, video data corresponding to the current location of the self-driving vehicle is acquired in real time, and the real-time driving video data is analyzed to control autonomous driving by processing the real-time driving video data when it is possible to secure the lane and driving field of view. If it is impossible to secure the lane and driving field of vision from the real-time driving image data, obtain and process driving image data corresponding to the real-time driving information of the current autonomous vehicle from among the image data stored in the database to perform autonomous driving control. It is characterized by:

본 발명의 일 측면에 따르면, 본 발명은 자율 주행 차량이 주행하는 도로의 차선 및 주행 시야 미확보 상황 발생 시, 주행 영상 데이터베이스로부터 대안 영상을 확보 및 사용하여 차량 탑승자와 보행자의 안전을 확보할 수 있도록 한다.According to one aspect of the present invention, in the event of a situation where the lane on the road on which an autonomous vehicle is traveling and the driving field of view are unsecured, the present invention secures and uses alternative images from a driving image database to ensure the safety of vehicle occupants and pedestrians. do.

도 1은 본 발명의 일 실시 예에 따른 자율 주행 차량의 제어 장치의 개략적인 구성을 보인 예시도.
도 2는 본 발명의 제1 실시 예에 따른 자율 주행 차량의 제어 방법을 설명하기 위한 흐름도.
도 3은 본 발명의 제2 실시 예에 따른 자율 주행 차량의 제어 방법을 설명하기 위한 흐름도.
1 is an exemplary diagram showing the schematic configuration of a control device for an autonomous vehicle according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a control method for an autonomous vehicle according to a first embodiment of the present invention.
Figure 3 is a flowchart illustrating a control method for an autonomous vehicle according to a second embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 자율 주행 차량의 제어 장치와 방법의 일 실시 예를 설명한다. Hereinafter, an embodiment of a control device and method for an autonomous vehicle according to the present invention will be described with reference to the attached drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시 예에 따른 자율 주행 차량의 제어 장치의 개략적인 구성을 보인 예시도이다.1 is an exemplary diagram showing the schematic configuration of a control device for an autonomous vehicle according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시 예에 따른 자율 주행 차량의 제어 장치는, 센서 모듈(110), 카메라 모듈(120), 프로세서(130), 조향 제어 모듈(140), 및 지피에스 모듈(150)을 포함한다.As shown in FIG. 1, the control device for an autonomous vehicle according to this embodiment includes a sensor module 110, a camera module 120, a processor 130, a steering control module 140, and a GPS module 150. ) includes.

상기 센서 모듈(110)은 차량의 동작 및 거동 상태를 검출하기 위한 적어도 하나 이상의 센서를 포함한다.The sensor module 110 includes at least one sensor for detecting the operation and behavior state of the vehicle.

예컨대 상기 센서 모듈(110)은 휠 스피드 센서(Wheel Speed Sensor), 요 레이트 센서(Yaw Rate Sensor), 조향각 센서(Steering Angle Sensor), 가속도 센서, 초음파 센서, 레이더 센서, 라이다 센서, 및 적외선 센서 등을 포함할 수 있다.For example, the sensor module 110 includes a wheel speed sensor, a yaw rate sensor, a steering angle sensor, an acceleration sensor, an ultrasonic sensor, a radar sensor, a lidar sensor, and an infrared sensor. It may include etc.

상기 카메라 모듈(120)은 차량의 전방이나 측방을 향하여 설치된 적어도 하나의 카메라를 포함한다.The camera module 120 includes at least one camera installed toward the front or side of the vehicle.

상기 지피에스 모듈(150)은 지피에스 위성의 신호를 수신하여, 차량의 현재의 위치를 검출할 수 있다.The GPS module 150 can receive signals from GPS satellites and detect the current location of the vehicle.

상기 프로세서(130)는 상기 센서 모듈(110), 상기 카메라 모듈(120), 및 상기 지피에스 모듈(150)을 통해 검출된 정보를 바탕으로 차선 유지 동작을 수행한다.The processor 130 performs a lane keeping operation based on information detected through the sensor module 110, the camera module 120, and the GPS module 150.

또한 상기 프로세서(130)는 상기 센서 모듈(110)을 통해 전방을 감시하여, 도로 곡률 및 선행 차량을 검출하고, 상기 카메라 모듈(120)을 통해 촬영된 영상을 분석하여 차선 유지 동작을 수행할 수 있으며, 또한 상기 프로세서(130)는 지정된 개수(예 : 3개) 이상의 위성이 검출될 경우(즉, 지정된 개수 이상의 위성 신호가 수신될 경우), 내비게이션 맵(전자지도)으로부터 차량이 현재 주행하는 도로와 주행할 방향을 추정(예측)할 수 있다.In addition, the processor 130 monitors the front through the sensor module 110, detects road curvature and preceding vehicles, and analyzes images captured through the camera module 120 to perform lane maintenance operation. In addition, when more than a specified number (e.g., 3) of satellites are detected (i.e., when more than a specified number of satellite signals are received), the processor 130 determines the road on which the vehicle is currently traveling from the navigation map (electronic map). You can estimate (predict) the driving direction.

예컨대 상기 프로세서(130)는 현재 주행 도로가 직선 도로(또는 직진 구간)일 경우 주행 방향이 직진 방향(또는 직진 구간)인 것으로 예측할 수 있고, 또한 앞으로 나올 도로가 곡선 도로일 경우 주행 방향이 곡선 방향(또는 회전 구간)인 것으로 추정(예측)할 수 있다. For example, if the current driving road is a straight road (or a straight section), the processor 130 can predict that the driving direction is a straight road (or a straight section), and if the road ahead is a curved road, the driving direction is a curved direction. (or rotation section) can be estimated (predicted).

또한 상기 프로세서(130)는 외부(예 : 지정된 서버)의 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)와 통신하여, 상기 카메라 모듈(120)에서 촬영한 실시간 주행 영상 데이터를 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 전달하여 저장하거나, 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 저장된 주행 영상 데이터 획득(로딩)하여 전달받을 수 있다. In addition, the processor 130 communicates with an external (e.g. designated server) database (e.g., driving image database) (not shown), and stores real-time driving image data captured by the camera module 120 in the database (e.g., It can be delivered to and stored in the database (e.g., driving image database) (not shown), or it can be delivered by acquiring (loading) the driving image data stored in the database (e.g., driving image database) (not shown).

이 때 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 저장된 주행 영상 데이터는 위치 및 차선정보가 포함되어 있으며, 이에 따라 현재 차량의 위치에 대응하는 주행 영상 데이터를 획득(로딩)할 수 있다. At this time, the driving image data stored in the database (e.g., driving image database) (not shown) includes location and lane information, and accordingly, driving image data corresponding to the current location of the vehicle can be acquired (loaded). .

아울러 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 저장된 주행 영상 데이터는 다른 차량(또는 자율 주행 차량)에서 저장한 주행 영상 데이터를 포함하고, 상기 서버(미도시)는 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 저장된 주행 영상 데이터 중, 차선 및 시야 확보가 기준 미달인 주행 영상 데이터를 삭제할 수 있으며, 차선 및 시야 확보가 기준 이상인 주행 영상 데이터에 대한 점수를 부가하여(예 : 차선 및 시야 확보가 높은 주행 영상 데이터에 더 높은 점수를 부가한다), 동일한 경로에 대한 주행 영상 데이터 중 상위의 지정된 비율(또는 상위의 지정된 갯수)의 주행 영상 데이터만 저장함으로써 데이터베이스의 공간을 확보할 수 있다.In addition, the driving image data stored in the database (e.g., driving image database) (not shown) includes driving image data stored by other vehicles (or autonomous vehicles), and the server (not shown) is stored in the database (e.g., Among the driving image data stored in the driving image database (not shown), driving image data whose lane and visibility are below the standards can be deleted, and points are added to the driving image data whose lane and visibility are above the standards (e.g. (A higher score is given to driving video data with high lane and visibility), and space in the database can be secured by storing only the driving video data of the higher specified ratio (or the higher specified number) of the driving video data for the same route. You can.

또한 상기 프로세서(130)는 상기 센서 모듈(110)을 통해 검출된 차선 정보를 바탕으로 차량의 조향 값(제1 조향 값)을 산출하고, 상기 카메라 모듈(120)을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 조향 값(제2 조향 값)을 산출하고, 상기 지피에스 모듈(150)을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 조향 값(제3 조향 값)을 산출하고, 상기 세 조향 값(제1 조향 값 내지 제3 조향 값)을 바탕으로 최적의 조향 값을 산출할 수 있다.In addition, the processor 130 calculates the steering value (first steering value) of the vehicle based on the lane information detected through the sensor module 110, and processes the image captured through the camera module 120. The steering value (second steering value) of the vehicle is calculated based on the detected lane information, and the steering value (second steering value) corresponding to the direction in which the vehicle will proceed is calculated through the navigation map based on the GPS signal detected through the GPS module 150. 3 steering values), and the optimal steering value can be calculated based on the three steering values (first to third steering values).

예컨대 상기 프로세서(130)는 상기 세 조향 값(제1 조향 값 내지 제3 조향 값)을 서로 비교하여, 차이 값이 가장 큰 값을 제외하고, 나머지 두 조향 값의 평균 조향 값을 산출하여 자율 주행 차량을 제어할 수 있다.For example, the processor 130 compares the three steering values (first to third steering values), excludes the value with the largest difference, and calculates the average steering value of the remaining two steering values to drive autonomous driving. You can control the vehicle.

상기 조향 제어 모듈(140)은 상기 프로세서(130)의 제어에 따라 조향을 제어하며, 지정된 시간 동안 어느 특정 방향으로 회전하지 않도록 제어하거나, 상기 지정된 시간의 시작 시점과 상기 지정된 시간의 종료 시점 사이에서 서서히 조향이 이루어지도록 제어할 수 있다.The steering control module 140 controls steering according to the control of the processor 130, and controls not to turn in a specific direction during a designated time, or between the start point of the designated time and the end point of the designated time. It can be controlled so that the steering occurs gradually.

-제1 실시 예--First Embodiment-

도 2는 본 발명의 제1 실시 예에 따른 자율 주행 차량의 제어 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart for explaining a control method of an autonomous vehicle according to the first embodiment of the present invention.

도 2를 참조하면, 상기 프로세서(130)는 카메라 모듈(120)로부터 실시간 주행 영상 데이터를 획득하고(S101), 상기 실시간 주행 영상 데이터를 지정된 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 전송한다(S102).Referring to FIG. 2, the processor 130 acquires real-time driving image data from the camera module 120 (S101) and transmits the real-time driving image data to a designated database (e.g., driving image database) (not shown). Do it (S102).

이 때 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 전송되는 영상 데이터는, 현재 자율 주행 차량의 실시간 주행 정보(예 : 위치, 차선정보 등)가 매칭되어 전송된다.At this time, the image data transmitted to the database (e.g., driving image database) (not shown) is matched with real-time driving information (e.g., location, lane information, etc.) of the current autonomous vehicle and transmitted.

또한 상기 프로세서(130)는 상기 지정된 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)로부터, 기 저장되어 있는 영상 데이터 중, 상기 자율 주행 차량의 현재 위치에 대응하는 영상 데이터를 실시간 획득(로딩)한다(S103).In addition, the processor 130 obtains (loads) image data corresponding to the current location of the autonomous vehicle in real time from the designated database (e.g., driving image database) (not shown) among pre-stored image data. (S103).

또한 상기 프로세서(130)는 상기 실시간 주행 영상 데이터를 분석하여, 차선 및 주행 시야 확보가 가능한지 체크하고(S104), 상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 가능한 경우(S104의 예), 상기 카메라 모듈(120)로부터 획득한 실시간 주행 영상 데이터를 처리하여 자율 주행 제어를 수행한다(S105).In addition, the processor 130 analyzes the real-time driving image data to check whether the lane and driving field of view can be secured (S104), and if the lane and driving field of view can be secured from the real-time driving image data (example in S104), Real-time driving image data obtained from the camera module 120 is processed to perform autonomous driving control (S105).

한편 상기 프로세서(130)는 상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 불가능한 경우(S104의 아니오), 상기 데이터베이스(예 : 주행 영상 데이터베이스)(미도시)에 저장된 영상 데이터 중, 현재 자율 주행 차량의 실시간 주행 정보(예 : 위치, 차선정보 등)에 대응하는 영상 데이터를 획득(로딩)하여 처리함으로써 자율 주행 제어를 수행한다(S106).Meanwhile, if it is impossible to secure the lane and driving field of view from the real-time driving image data (No in S104), the processor 130 selects the current autonomous vehicle vehicle from among the image data stored in the database (e.g., driving image database) (not shown). Autonomous driving control is performed by acquiring (loading) and processing image data corresponding to real-time driving information (e.g., location, lane information, etc.) (S106).

이 때 상기 프로세서(130)는 상기 자율 주행 제어를 수행하기 위하여 조향 제어 모듈(140)을 제어한다.At this time, the processor 130 controls the steering control module 140 to perform the autonomous driving control.

-제2 실시 예--Second Embodiment-

도 3은 본 발명의 제2 실시 예에 따른 자율 주행 차량의 제어 방법을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining a control method of an autonomous vehicle according to a second embodiment of the present invention.

도 3을 참조하면, 상기 프로세서(130)는 상기 센서 모듈(110)을 통해 검출된 차선 정보를 바탕으로 차량의 조향 값(제1 조향 값)을 산출하고(S201), 상기 카메라 모듈(120)을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 조향 값(제2 조향 값)을 산출하며(S202), 상기 지피에스 모듈(150)을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 조향 값(제3 조향 값)을 산출한다(S203).Referring to FIG. 3, the processor 130 calculates the steering value (first steering value) of the vehicle based on the lane information detected through the sensor module 110 (S201), and the camera module 120 The image captured through is processed to calculate the vehicle's steering value (second steering value) based on the detected lane information (S202), and the navigation map based on the GPS signal detected through the GPS module 150 is calculated. A steering value (third steering value) corresponding to the direction in which the vehicle will travel is calculated (S203).

그리고 상기 프로세서(130)는 상기 세 조향 값(제1 조향 값 내지 제3 조향 값)을 바탕으로 최적의 조향 값을 산출하여 자율 주행 차량을 제어할 수 있다.And the processor 130 can control the autonomous vehicle by calculating the optimal steering value based on the three steering values (first steering value to third steering value).

예컨대 상기 프로세서(130)는 상기 세 조향 값(제1 조향 값 내지 제3 조향 값)을 서로 비교하여, 차이 값이 가장 큰 조향 값을 제외하고(S204), 상기 제외된 조향 값을 제외한 나머지 두 조향 값의 평균 조향 값을 산출하여(S205), 상기 두 조향 값의 평균 조향 값을 이용하여 자율 주행 차량을 제어한다(S206).For example, the processor 130 compares the three steering values (first to third steering values), excludes the steering value with the largest difference (S204), and excludes the two remaining steering values excluding the excluded steering values. The average steering value is calculated (S205), and the autonomous vehicle is controlled using the average steering value of the two steering values (S206).

상기와 같이 본 실시 예는 화이트 아웃, 야간, 눈, 비 등으로 인한 차선 및 주행 시야 미확보 상황 발생 시에도 정상 자율 주행 운전이 가능하여 사람의 안전을 확보할 수 있고, 주변 환경 문제가 아닌 자체 카메라 시스템의 오류 발생 시에도 정상 자율주행 운전이 가능하여 자율주행 성능 유지 및 사람의 안전을 확보할 수 있도록 하는 효과가 있다.As described above, in this embodiment, normal autonomous driving is possible even in situations where lanes and driving visibility are unsecured due to whiteout, night, snow, rain, etc., thereby ensuring human safety, and the self-camera camera is not a problem of the surrounding environment. Even when a system error occurs, normal autonomous driving is possible, which has the effect of maintaining autonomous driving performance and ensuring human safety.

이상으로 본 발명은 도면에 도시된 실시 예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and various modifications and equivalent embodiments can be made by those skilled in the art. You will understand the point. Therefore, the scope of technical protection of the present invention should be determined by the scope of the patent claims below. Implementations described herein may also be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

110 : 센서 모듈
120 : 카메라 모듈
130 : 프로세서
140 : 조향 제어 모듈
150 : 지피에스 모듈
110: sensor module
120: Camera module
130: processor
140: Steering control module
150: GPS module

Claims (14)

자율 주행 차량의 동작 및 거동 상태를 검출하기 위한 적어도 하나 이상의 센서를 포함하는 센서 모듈;
상기 자율 주행 차량의 전방이나 측방을 향하여 설치된 적어도 하나의 카메라를 포함하는 카메라 모듈;
지피에스 위성의 신호를 수신하여, 상기 자율 주행 차량의 현재의 위치를 검출하는 지피에스 모듈; 및
상기 센서 모듈, 상기 카메라 모듈, 및 상기 지피에스 모듈을 통해 검출된 정보를 바탕으로, 상기 자율 주행 차량의 조향을 제어하여, 차선 유지 동작을 수행하는 프로세서;를 포함하는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
A sensor module including at least one sensor for detecting the operation and behavior state of the autonomous vehicle;
a camera module including at least one camera installed toward the front or side of the autonomous vehicle;
a GPS module that receives signals from GPS satellites and detects the current location of the autonomous vehicle; and
A processor that controls steering of the autonomous vehicle and performs a lane keeping operation based on information detected through the sensor module, the camera module, and the GPS module. controller.
제 1항에 있어서, 상기 프로세서는,
상기 센서 모듈을 통해 전방을 감시하여 도로 곡률 및 선행 차량을 검출하고, 상기 카메라 모듈을 통해 촬영된 영상을 분석하여 차선 유지 동작을 수행하며, 지정된 개수 이상의 위성 신호가 수신될 경우, 내비게이션 맵으로부터 차량이 현재 주행하는 도로와 주행할 방향을 추정하는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
The method of claim 1, wherein the processor:
Monitors the front through the sensor module to detect road curvature and vehicles ahead, performs lane maintenance by analyzing images captured through the camera module, and detects the vehicle from the navigation map when more than a specified number of satellite signals are received. A control device for an autonomous vehicle, characterized in that it estimates the road on which it is currently traveling and the direction in which it will travel.
제 1항에 있어서, 상기 프로세서는,
지정된 서버의 데이터베이스와 통신하여,
상기 카메라 모듈에서 촬영한 실시간 주행 영상 데이터를 상기 데이터베이스에 전달하여 저장하거나, 상기 데이터베이스에 저장된 주행 영상 데이터 획득하여 전달받을 수 있으며,
상기 데이터베이스에 저장된 주행 영상 데이터는,
차량의 위치 및 차선정보가 매칭되어 있는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
The method of claim 1, wherein the processor:
By communicating with the database on the designated server,
Real-time driving image data captured by the camera module can be transmitted and stored in the database, or the driving image data stored in the database can be obtained and delivered,
The driving image data stored in the database is,
A control device for an autonomous vehicle, characterized in that vehicle location and lane information are matched.
제 3항에 있어서,
상기 데이터베이스에 저장된 주행 영상 데이터는,
다른 차량이나 자율 주행 차량에서 저장한 주행 영상 데이터를 포함하는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
According to clause 3,
The driving image data stored in the database is,
A control device for an autonomous vehicle, characterized in that it includes driving image data stored from another vehicle or an autonomous vehicle.
제 3항에 있어서, 상기 서버는,
상기 데이터베이스에 저장된 주행 영상 데이터 중, 차선 및 시야 확보가 기준 미달인 주행 영상 데이터를 삭제할 수 있으며,
차선 및 시야 확보가 기준 이상인 주행 영상 데이터에 대한 점수를 부가하여, 동일한 경로에 대한 주행 영상 데이터 중 상위의 지정된 비율 또는 상위의 지정된 갯수의 주행 영상 데이터만 저장할 수 있도록 구현된 것을 특징으로 하는 자율 주행 차량의 제어 장치.
The method of claim 3, wherein the server:
Among the driving image data stored in the database, driving image data that does not meet the standards for lane and visibility can be deleted,
Autonomous driving, characterized in that it is implemented by adding points to driving image data with lane and visibility exceeding the standard, and storing only a specified percentage or a specified number of driving image data among the driving image data for the same route. The vehicle's control unit.
제 1항에 있어서, 상기 프로세서는,
상기 센서 모듈을 통해 검출된 차선 정보를 바탕으로 차량의 제1 조향 값을 산출하고, 상기 카메라 모듈을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 제2 조향 값을 산출하며, 상기 지피에스 모듈을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 제3 조향 값을 산출하고,
상기 제1 조향 값 내지 제3 조향 값을 서로 비교하여, 차이 값이 가장 큰 조향 값을 제외하고, 상기 제외된 조향 값을 제외한 나머지 두 조향 값의 평균 조향 값을 산출하여, 상기 두 조향 값의 평균 조향 값을 이용하여 자율 주행 차량을 제어하는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
The method of claim 1, wherein the processor:
Calculate a first steering value of the vehicle based on lane information detected through the sensor module, and calculate a second steering value of the vehicle based on lane information detected by processing images captured through the camera module, Calculate a third steering value corresponding to the direction in which the vehicle will proceed through a navigation map based on the GPS signal detected through the GPS module,
Compare the first to third steering values, exclude the steering value with the largest difference, calculate the average steering value of the remaining two steering values excluding the excluded steering value, and calculate the average steering value of the two steering values. A control device for an autonomous vehicle, characterized in that it controls an autonomous vehicle using an average steering value.
제 1항에 있어서, 상기 프로세서는,
상기 카메라 모듈로부터 실시간 주행 영상 데이터를 획득함과 아울러 지정된 데이터베이스에 전달하여 저장하고,
상기 지정된 데이터베이스로부터, 기 저장되어 있는 영상 데이터 중, 상기 자율 주행 차량의 현재 위치에 대응하는 영상 데이터를 실시간 획득하며,
상기 실시간 주행 영상 데이터를 분석하여, 차선 및 주행 시야 확보가 가능한 경우, 상기 실시간 주행 영상 데이터를 처리하여 자율 주행 제어를 수행하고,
상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 불가능한 경우, 상기 데이터베이스에 저장된 영상 데이터 중, 현재 자율 주행 차량의 실시간 주행 정보에 대응하는 주행 영상 데이터를 획득 처리하여 자율 주행 제어를 수행하는 것을 특징으로 하는 자율 주행 차량의 제어 장치.
The method of claim 1, wherein the processor:
Obtain real-time driving video data from the camera module and transmit and store it in a designated database,
From the designated database, acquire image data corresponding to the current location of the autonomous vehicle in real time among pre-stored image data,
By analyzing the real-time driving image data, if it is possible to secure the lane and driving field of view, perform autonomous driving control by processing the real-time driving image data,
When it is impossible to secure the lane and driving field of view from the real-time driving image data, autonomous driving control is performed by acquiring and processing driving image data corresponding to real-time driving information of the current autonomous vehicle from among the image data stored in the database. A control device for an autonomous vehicle.
프로세서가, 센서 모듈을 통해, 자율 주행 차량의 동작 및 거동 상태를 검출하는 단계;
상기 프로세서가, 카메라 모듈을 통해, 상기 자율 주행 차량의 전방이나 측방의 영상을 촬영하는 단계;
상기 프로세서가, 지피에스 모듈을 통해, 상기 자율 주행 차량의 현재의 위치를 검출하는 단계; 및
상기 프로세서가, 상기 센서 모듈, 상기 카메라 모듈, 및 상기 지피에스 모듈을 통해 검출된 정보를 바탕으로, 상기 자율 주행 차량의 조향을 제어하여, 차선 유지 동작을 수행하는 단계;를 포함하는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
detecting, by a processor, an operation and behavioral state of the autonomous vehicle through a sensor module;
capturing, by the processor, an image of the front or side of the autonomous vehicle through a camera module;
detecting, by the processor, the current location of the autonomous vehicle through a GPS module; and
Characterized in that it comprises a step of, by the processor, controlling steering of the self-driving vehicle based on information detected through the sensor module, the camera module, and the GPS module to perform a lane keeping operation. Control method for autonomous vehicles.
제 8항에 있어서, 상기 프로세서는,
상기 센서 모듈을 통해 전방을 감시하여 도로 곡률 및 선행 차량을 검출하고, 상기 카메라 모듈을 통해 촬영된 영상을 분석하여 차선 유지 동작을 수행하며, 지정된 개수 이상의 위성 신호가 수신될 경우, 내비게이션 맵으로부터 차량이 현재 주행하는 도로와 주행할 방향을 추정하는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
The method of claim 8, wherein the processor:
Monitors the front through the sensor module to detect road curvature and vehicles ahead, performs lane maintenance by analyzing images captured through the camera module, and detects the vehicle from the navigation map when more than a specified number of satellite signals are received. A control method for an autonomous vehicle, characterized by estimating the road on which it is currently traveling and the direction in which it is to be driven.
제 8항에 있어서,
상기 자율 주행 차량의 전방이나 측방의 영상을 촬영하는 단계 이후,
상기 프로세서는,
지정된 서버의 데이터베이스와 통신하여,
상기 카메라 모듈에서 촬영한 실시간 주행 영상 데이터를 상기 데이터베이스에 전달하여 저장하거나, 상기 데이터베이스에 저장된 주행 영상 데이터 획득하여 전달받을 수 있으며,
상기 데이터베이스에 저장된 주행 영상 데이터는,
차량의 위치 및 차선정보가 매칭되어 있는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
According to clause 8,
After taking images of the front or side of the autonomous vehicle,
The processor,
By communicating with the database on the designated server,
Real-time driving image data captured by the camera module can be transmitted and stored in the database, or the driving image data stored in the database can be obtained and delivered,
The driving image data stored in the database is,
A control method for an autonomous vehicle, characterized in that vehicle location and lane information are matched.
제 10항에 있어서,
상기 데이터베이스에 저장된 주행 영상 데이터는,
다른 차량이나 자율 주행 차량에서 저장한 주행 영상 데이터를 포함하는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
According to clause 10,
The driving image data stored in the database is,
A control method for an autonomous vehicle, characterized in that it includes driving image data stored from another vehicle or an autonomous vehicle.
제 10항에 있어서, 상기 서버는,
상기 데이터베이스에 저장된 주행 영상 데이터 중, 차선 및 시야 확보가 기준 미달인 주행 영상 데이터를 삭제할 수 있으며,
차선 및 시야 확보가 기준 이상인 주행 영상 데이터에 대한 점수를 부가하여, 동일한 경로에 대한 주행 영상 데이터 중 상위의 지정된 비율 또는 상위의 지정된 갯수의 주행 영상 데이터만 저장할 수 있도록 구현된 것을 특징으로 하는 자율 주행 차량의 제어 방법.
The method of claim 10, wherein the server:
Among the driving image data stored in the database, driving image data that does not meet the standards for lane and visibility can be deleted,
Autonomous driving, characterized in that it is implemented by adding points to driving image data with lane and visibility exceeding the standard, and storing only a specified percentage or a specified number of driving image data among the driving image data for the same route. Vehicle control methods.
제 8항에 있어서, 상기 자율 주행 차량의 조향을 제어하기 위하여,
상기 프로세서는,
상기 센서 모듈을 통해 검출된 차선 정보를 바탕으로 차량의 제1 조향 값을 산출하고, 상기 카메라 모듈을 통해 촬영된 영상을 처리하여 검출된 차선 정보를 바탕으로 차량의 제2 조향 값을 산출하며, 상기 지피에스 모듈을 통해 검출된 지피에스 신호 기반의 내비게이션 맵을 통해 차량이 진행할 방향에 대응하는 제3 조향 값을 산출하고,
상기 제1 조향 값 내지 제3 조향 값을 서로 비교하여, 차이 값이 가장 큰 조향 값을 제외하고, 상기 제외된 조향 값을 제외한 나머지 두 조향 값의 평균 조향 값을 산출하여, 상기 두 조향 값의 평균 조향 값을 이용하여 자율 주행 차량을 제어하는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
The method of claim 8, wherein to control steering of the autonomous vehicle,
The processor,
Calculate a first steering value of the vehicle based on lane information detected through the sensor module, and calculate a second steering value of the vehicle based on lane information detected by processing images captured through the camera module, Calculate a third steering value corresponding to the direction in which the vehicle will proceed through a navigation map based on the GPS signal detected through the GPS module,
Compare the first to third steering values, exclude the steering value with the largest difference, calculate the average steering value of the remaining two steering values excluding the excluded steering value, and calculate the average steering value of the two steering values. A control method for an autonomous vehicle, characterized in that the autonomous vehicle is controlled using an average steering value.
제 8항에 있어서, 상기 자율 주행 차량의 조향을 제어하기 위하여,
상기 프로세서는,
상기 카메라 모듈로부터 실시간 주행 영상 데이터를 획득함과 아울러 지정된 데이터베이스에 전달하여 저장하고,
상기 지정된 데이터베이스로부터, 기 저장되어 있는 영상 데이터 중, 상기 자율 주행 차량의 현재 위치에 대응하는 영상 데이터를 실시간 획득하며,
상기 실시간 주행 영상 데이터를 분석하여, 차선 및 주행 시야 확보가 가능한 경우, 상기 실시간 주행 영상 데이터를 처리하여 자율 주행 제어를 수행하고,
상기 실시간 주행 영상 데이터로부터 차선 및 주행 시야 확보가 불가능한 경우, 상기 데이터베이스에 저장된 영상 데이터 중, 현재 자율 주행 차량의 실시간 주행 정보에 대응하는 주행 영상 데이터를 획득 처리하여 자율 주행 제어를 수행하는 것을 특징으로 하는 자율 주행 차량의 제어 방법.
The method of claim 8, wherein to control steering of the autonomous vehicle,
The processor,
Obtain real-time driving video data from the camera module and transmit and store it in a designated database,
From the designated database, acquire image data corresponding to the current location of the autonomous vehicle in real time among pre-stored image data,
By analyzing the real-time driving image data, if it is possible to secure the lane and driving field of view, perform autonomous driving control by processing the real-time driving image data,
When it is impossible to secure the lane and driving field of view from the real-time driving image data, autonomous driving control is performed by acquiring and processing driving image data corresponding to real-time driving information of the current autonomous vehicle from among the image data stored in the database. A control method for an autonomous vehicle.
KR1020220123367A 2022-09-28 2022-09-28 Apparatus for controlling autonomous vehicle and method thereof KR20240044573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220123367A KR20240044573A (en) 2022-09-28 2022-09-28 Apparatus for controlling autonomous vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220123367A KR20240044573A (en) 2022-09-28 2022-09-28 Apparatus for controlling autonomous vehicle and method thereof

Publications (1)

Publication Number Publication Date
KR20240044573A true KR20240044573A (en) 2024-04-05

Family

ID=90714215

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220123367A KR20240044573A (en) 2022-09-28 2022-09-28 Apparatus for controlling autonomous vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR20240044573A (en)

Similar Documents

Publication Publication Date Title
US9070293B2 (en) Device and method for traffic sign recognition
JP6005055B2 (en) Method for continuously calculating, inspecting and / or adapting a parking trajectory in a vehicle parking assist system, a computer program and a parking assist system
US8346427B2 (en) Vehicle travel support device, vehicle, and vehicle travel support program with imaging device for recognizing a travel area
US20180348769A1 (en) Automatic driving system
CN109987099B (en) Vehicle control system, vehicle control method, and storage medium
CN111712419B (en) Driving support device and driving support method
US10795374B2 (en) Vehicle control device
US10569781B2 (en) Traveling assistance apparatus
US10053087B2 (en) Driving assistance apparatus
US11318963B2 (en) Vehicle control apparatus, vehicle, and vehicle control method
CN110949375B (en) Information processing system and server
KR20190107279A (en) Electronic device for vehicle and method for operating the same
US20190283772A1 (en) Driving support system and vehicle control method
US20220223041A1 (en) Vehicle system for determining recommended lane
WO2022057721A1 (en) Method for operating vehicle hazardous parking warning system
US11420627B2 (en) Driving assistance device
US20200384992A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
US11292487B2 (en) Methods and systems for controlling automated driving features of a vehicle
CN111907514A (en) Method and device for operating an automated vehicle
US20220309804A1 (en) Vehicle control device, vehicle control method, and storage medium
US11904935B2 (en) Vehicle control apparatus, vehicle, operation method for vehicle control apparatus, and storage medium
KR20240044573A (en) Apparatus for controlling autonomous vehicle and method thereof
US20200385023A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
US20230398865A1 (en) Remote driving system and control method for vehicle
GB2579194A (en) Torque modification request