KR102539286B1 - Autonomous driving apparatus and method - Google Patents

Autonomous driving apparatus and method Download PDF

Info

Publication number
KR102539286B1
KR102539286B1 KR1020190058605A KR20190058605A KR102539286B1 KR 102539286 B1 KR102539286 B1 KR 102539286B1 KR 1020190058605 A KR1020190058605 A KR 1020190058605A KR 20190058605 A KR20190058605 A KR 20190058605A KR 102539286 B1 KR102539286 B1 KR 102539286B1
Authority
KR
South Korea
Prior art keywords
driving
vehicle
cluster
trajectory
control
Prior art date
Application number
KR1020190058605A
Other languages
Korean (ko)
Other versions
KR20200133853A (en
Inventor
지용관
이준한
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190058605A priority Critical patent/KR102539286B1/en
Priority to US15/930,348 priority patent/US11934204B2/en
Priority to CN202010419117.9A priority patent/CN112046481B/en
Priority to DE102020113421.5A priority patent/DE102020113421B4/en
Publication of KR20200133853A publication Critical patent/KR20200133853A/en
Application granted granted Critical
Publication of KR102539286B1 publication Critical patent/KR102539286B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/22Platooning, i.e. convoy of communicating vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율 주행 장치 및 방법에 관한 것으로서, 자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 메모리에 저장된 지도 정보에 기초하여 생성되는 예상 주행 궤적에 따라 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 프로세서는, 센서부가 자차량의 주변 차량을 검출한 결과에 기초하여 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 예상 주행 궤적을 보정하여 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하고, 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하며, 프로세서는, 군집 추종 제어를 수행할 때, 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 센서부의 센싱 파라미터를 제어하되, 센싱 파라미터는 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하는 것을 특징으로 한다.The present invention relates to an autonomous driving apparatus and method, and relates to a sensor unit for detecting surrounding objects including surrounding vehicles of a self-driving vehicle, a memory for storing map information, and a prediction generated based on the map information stored in the memory. A processor for controlling autonomous driving of the host vehicle according to the driving trajectory, the processor determining whether or not an expected driving trajectory of the own vehicle needs to be corrected based on a result of the sensor unit detecting vehicles around the host vehicle; , and performs trajectory-based control for controlling the autonomous driving of the own vehicle by correcting the expected driving trajectory according to the determination result, and the first driving route to the destination of the own vehicle is the second driving of the driving cluster formed by a plurality of group vehicles If it overlaps with the path, cluster following control is performed to control the autonomous driving of the host vehicle to follow the driving of the driving cluster. The sensing parameter of the sensor unit is controlled to have a value mutually dependent on the parameter, and the sensing parameter includes at least one of a field of view (FOV) and sensor output.

Description

자율 주행 장치 및 방법{AUTONOMOUS DRIVING APPARATUS AND METHOD}Autonomous driving device and method {AUTONOMOUS DRIVING APPARATUS AND METHOD}

본 발명은 자율 주행 차량에 적용되는 자율 주행 장치 및 방법에 관한 것이다.The present invention relates to an autonomous driving device and method applied to an autonomous vehicle.

오늘날의 자동차 산업은 차량 주행에 운전자의 개입을 최소화하는 자율 주행을 구현하기 위한 방향으로 나아가고 있다. 자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다.Today's automotive industry is moving in the direction of implementing autonomous driving that minimizes driver intervention in driving the vehicle. An autonomous vehicle refers to a vehicle that recognizes the surrounding environment through external information detection and processing functions while driving, determines a driving path on its own, and drives independently using its own power.

자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.Self-driving vehicles can drive to their destination by themselves, avoiding collisions with obstacles on the driving path and adjusting the vehicle speed and driving direction according to the shape of the road, without the driver manipulating the steering wheel, accelerator pedal, or brakes. there is. For example, acceleration may be performed on a straight road, and deceleration may be performed while changing a driving direction corresponding to a curvature of the road on a curved road.

자율 주행 차량의 안정적인 주행을 보장하기 위해서는 차량에 장착된 각 센서를 통해 주행 환경을 정확하게 계측해야 하고, 차량의 주행 상태를 지속적으로 모니터링하여 계측된 주행 환경에 맞추어 주행을 제어해야 한다. 이를 위해, 자율 주행 차량에는 주변 차량, 보행자, 고정 시설물 등의 주변 객체를 검출하기 위한 센서로서 라이다(Lidar) 센서, 레이더(Radar) 센서, 초음파 센서 및 카메라 센서 등 다양한 센서들이 적용되고 있으며, 이러한 센서로부터 출력되는 데이터는 주행 환경에 대한 정보, 이를테면 주변 객체의 위치, 형상, 이동 방향 및 이동 속도와 같은 상태 정보를 결정하는데 활용된다.In order to ensure stable driving of an autonomous vehicle, the driving environment must be accurately measured through each sensor mounted on the vehicle, and the driving condition must be continuously monitored to control the driving according to the measured driving environment. To this end, various sensors such as lidar sensors, radar sensors, ultrasonic sensors, and camera sensors are applied to autonomous vehicles as sensors for detecting surrounding objects such as surrounding vehicles, pedestrians, and fixed facilities, Data output from these sensors is used to determine information about the driving environment, for example, state information such as the location, shape, moving direction, and moving speed of surrounding objects.

나아가, 자율 주행 차량은 미리 저장된 지도 데이터를 이용하여 차량의 위치를 결정하고 보정함으로써 주행 경로 및 주행 차선을 최적으로 결정하고, 결정된 경로 및 차선을 벗어나지 않도록 차량의 주행을 제어하며, 주변에서 갑작스럽게 진입하는 차량 또는 주행 경로 상에 존재하는 위험 요소에 대한 방어 및 회피 운행을 수행하는 기능도 제공하고 있다.Furthermore, the self-driving vehicle optimally determines the driving route and driving lane by determining and correcting the location of the vehicle using pre-stored map data, controls the driving of the vehicle so as not to deviate from the determined route and lane, and suddenly It also provides a function of performing defense and avoidance driving against an approaching vehicle or risk factors existing on the driving route.

본 발명의 배경기술은 대한민국 공개특허공보 제10-1998-0068399호(1998.10.15 공개)에 개시되어 있다.The background art of the present invention is disclosed in Korean Patent Publication No. 10-1998-0068399 (published on October 15, 1998).

본 발명의 일 측면에 따른 목적은 목적지까지의 주행 궤적에 따라 차량의 자율 주행을 제어하는 방식과 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하는 방식을 선택적으로 적용함으로써, 자율 주행 차량의 자율 주행 제어 연산 부하를 최소화하면서 최단 시간에 목적지까지 도달하는 것을 가능하게 하는 자율 주행 장치 및 방법을 제공하는 것이다.An object according to an aspect of the present invention is to selectively apply a method of controlling autonomous driving of a vehicle according to a driving trajectory to a destination and a method of following the driving of a driving cluster formed by a plurality of group vehicles, thereby providing autonomous vehicles of autonomous vehicles. It is an object of the present invention to provide an autonomous driving device and method capable of reaching a destination in the shortest time while minimizing driving control calculation load.

본 발명의 다른 측면에 따른 목적은 자율 주행 차량이 주행 군집에 합류하여 군집 주행을 수행하는 과정에서 타 군집 차량과의 상대적인 위치에 따라 주변 객체 센싱 영역을 가변하는 방식을 통해, 주행 군집에 속하는 각 군집 차량이 주변 객체를 센싱하기 위해 요구되는 시스템의 총 리소스를 저감시킬 수 있는 자율 주행 장치 및 방법을 제공하는 것이다.An object according to another aspect of the present invention is a method of varying a surrounding object sensing area according to a relative position of an autonomous vehicle with another group vehicle in a process of performing group driving by joining a driving cluster, so that each member belonging to the driving cluster It is an object of the present invention to provide an autonomous driving device and method capable of reducing total system resources required for group vehicles to sense surrounding objects.

본 발명의 일 측면에 따른 자율 주행 장치는 자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 상기 메모리에 저장된 지도 정보에 기초하여 생성되는 예상 주행 궤적에 따라 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 상기 예상 주행 궤적을 보정하여 상기 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하고, 상기 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 상기 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하며, 상기 프로세서는, 상기 군집 추종 제어를 수행할 때, 상기 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 상기 센서부의 센싱 파라미터를 제어하되, 상기 센싱 파라미터는 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하는 것을 특징으로 한다.An autonomous driving device according to an aspect of the present invention includes a sensor unit for detecting surrounding objects including vehicles around a self-driving vehicle, a memory for storing map information, and a prediction generated based on the map information stored in the memory. a processor controlling autonomous driving of the own vehicle according to a driving trajectory, wherein the processor needs to correct an expected driving trajectory of the own vehicle based on a result of the sensor unit detecting vehicles around the own vehicle; It is determined whether or not there exists a vehicle, and according to the determination result, the expected driving trajectory is corrected to perform trajectory-based control for controlling autonomous driving of the own vehicle, and the first driving path to the destination of the own vehicle is a plurality of group vehicles. When overlapping with the second driving path of the driving cluster formed by , cluster following control is performed to control autonomous driving of the host vehicle to follow the driving of the driving cluster, and the processor, when performing the cluster following control, Control the sensing parameter of the sensor unit to have a value mutually dependent on the sensing parameter of the sensor device mounted on each group vehicle, wherein the sensing parameter includes at least one of a field of view (FOV) and sensor output. It is characterized by doing.

본 발명에 있어 상기 프로세서는, 상기 궤적 기반 제어를 수행하는 경우, 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는 것으로 판단하는 것을 특징으로 한다.In the present invention, when performing the trajectory-based control, the processor generates an actual driving trajectory of the surrounding vehicle based on the driving information of the surrounding vehicle detected by the sensor unit, and maps the map information stored in the memory to the map information stored in the memory. generating an expected driving trajectory of the surrounding vehicle based on the basis, and determining that the expected driving trajectory of the own vehicle needs to be corrected when a trajectory error between the actual driving trajectory and the predicted driving trajectory of the surrounding vehicle is equal to or greater than a preset threshold It is characterized by doing.

본 발명에 있어 상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우, 상기 자차량이 목적지까지 주행하는 방향을 기준으로, 상기 제1 및 제2 주행 경로 간의 중첩이 개시되는 합류 지점으로부터, 상기 제1 및 제2 주행 경로 간의 중첩이 종료되는 탈퇴 지점까지 상기 군집 추종 제어를 수행하는 것을 특징으로 한다.In the present invention, when the cluster following control is performed, the processor, based on the direction in which the host vehicle travels to the destination, from a convergence point where overlapping between the first and second driving routes starts, the first and performing the cluster following control until a withdrawal point at which the overlapping between the second driving routes ends.

본 발명에 있어 상기 프로세서는, 미리 정의된 제어 전환 조건의 충족 여부에 따라 상기 궤적 기반 제어 및 상기 군집 추종 제어를 상호 전환하여 수행하되, 상기 제어 전환 조건은, 상기 궤적 기반 제어로부터 상기 군집 추종 제어로 전환하기 위한 군집 추종 제어 전환 조건과, 상기 군집 추종 제어로부터 상기 궤적 기반 제어로 전환하기 위한 궤적 기반 제어 전환 조건을 포함하는 것을 특징으로 한다.In the present invention, the processor performs mutual switching between the trajectory-based control and the cluster following control according to whether a predefined control switching condition is satisfied, and the control switching condition is, the trajectory-based control to the cluster following control and a cluster following control switching condition for switching to , and a trajectory-based control switching condition for switching from the cluster following control to the trajectory-based control.

본 발명에 있어 상기 프로세서는, 상기 자차량의 현재 위치로부터 상기 궤적 기반 제어를 수행하는 과정에서 상기 자차량이 상기 합류 지점에 도달한 경우, 상기 군집 추종 제어 전환 조건이 충족된 것으로 판단하여 상기 군집 추종 제어를 수행하는 것을 특징으로 한다.In the present invention, the processor determines that the cluster following control switching condition is satisfied when the own vehicle arrives at the merging point in the process of performing the trajectory-based control from the current location of the own vehicle, and It is characterized in that follow-up control is performed.

본 발명에 있어 상기 프로세서는, 상기 합류 지점으로부터 군집 추종 제어를 수행하는 과정에서 상기 자차량이 상기 탈퇴 지점에 도달한 경우, 상기 궤적 기반 제어 전환 조건이 충족된 것으로 판단하여 상기 궤적 기반 제어를 수행하는 것을 특징으로 한다.In the present invention, the processor determines that the trajectory-based control switching condition is satisfied when the host vehicle reaches the leaving point in the process of performing cluster following control from the joining point, and performs the trajectory-based control It is characterized by doing.

본 발명에 있어 상기 프로세서는, 복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터 상기 군집 추종 제어를 수행하기 위한 상기 합류 지점 및 상기 탈퇴 지점을 결정하되, 상기 궤적 기반 제어를 기반으로 상기 자차량이 현재 위치로부터 후보 합류 지점에 도달하는데 소요되는 시간과, 상기 군집 추종 제어를 기반으로 상기 자차량이 후보 합류 지점으로부터 후보 탈퇴 지점에 도달하는데 소요되는 시간과, 상기 궤적 기반 제어를 기반으로 후보 탈퇴 지점으로부터 목적지에 도달하는데 소요되는 시간의 합인 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 각각 상기 합류 지점 및 상기 탈퇴 지점으로 결정하는 것을 특징으로 한다.In the present invention, the processor determines the joining point and the leaving point for performing the cluster following control from a plurality of candidate joining points and a plurality of candidate leaving points; A time required to reach a candidate joining point from the current location, a time required for the host vehicle to reach a candidate leaving point from a candidate joining point based on the cluster following control, and a candidate leaving point based on the trajectory based control A candidate joining point and a candidate leaving point at which a total required time, which is the sum of times required to reach a destination from , are minimum, are determined as the joining point and the leaving point, respectively.

본 발명에 있어 상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우, 상기 주행 군집에 속하는 상기 군집 차량에 대한 상기 자차량의 상대적인 위치에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 한다.In the present invention, when the cluster following control is performed, the processor varies the surrounding object detection area of the sensor unit according to the relative position of the host vehicle to the cluster vehicles belonging to the driving cluster.

본 발명에 있어 상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우, 미리 정의된 그룹 분류 알고리즘을 이용하여 상기 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하고, 상기 각 주행 그룹 중 상기 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 한다.In the present invention, when performing the cluster following control, the processor classifies the driving cluster into a preceding driving group, a middle driving group, and a trailing driving group using a predefined group classification algorithm, and among the driving groups It is characterized in that a driving group to which the host vehicle belongs is determined and a surrounding object detection area of the sensor unit is varied according to a result of the determination.

본 발명에 있어 상기 프로세서는, 상기 자차량이 상기 선행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 전방의 주변 객체를 검출하고, 상기 자차량이 상기 미들 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 측방의 주변 객체를 검출하며, 상기 자차량이 상기 후행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 후방의 주변 객체를 검출하는 것을 특징으로 한다.In the present invention, the processor detects an object in front of the host vehicle through the sensor unit when the host vehicle belongs to the preceding driving group, and detects an object around the host vehicle in front of the host vehicle through the sensor unit when the host vehicle belongs to the middle driving group. It is characterized in that an object around the side of the own vehicle is detected, and when the own vehicle belongs to the following driving group, an object around the rear of the own vehicle is detected through the sensor unit.

본 발명에 있어 상기 프로세서는, 상기 주행 군집의 리더 차량으로부터 전송되는 센서 조정 신호에 따라 상기 센서부의 센싱 파라미터를 제어하되, 상기 센서 조정 신호는 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록, 상기 주행 군집의 주행 환경 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 리더 차량에 의해 상기 각 군집 차량 별로 생성되어 상기 각 군집 차량으로 각각 전송되는 것을 특징으로 한다.In the present invention, the processor controls the sensing parameter of the sensor unit according to the sensor adjustment signal transmitted from the leader vehicle of the driving cluster, and the sensor adjustment signal controls the detection area and detection performance of surrounding objects at the level of the driving cluster. Characterized in that each cluster vehicle is generated by the leader vehicle based on the driving environment of the driving cluster and the position of each cluster vehicle within the driving cluster and transmitted to each group vehicle, so that the driving cluster can be optimized. to be

본 발명에 있어 상기 프로세서는, 상기 자차량이 상기 주행 군집의 리더 차량의 지위에 있는 경우, 상기 센서부에 의해 주변 객체가 검출된 결과 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 주행 군집에 속하는 각 군집 차량 별로 상기 센서 조정 신호를 각각 생성한 후 각 군집 차량으로 각각 전송하는 것을 특징으로 한다.In the present invention, the processor may, when the host vehicle is in the position of a leader vehicle of the driving cluster, based on a result of detecting a surrounding object by the sensor unit and the location of each group vehicle within the driving cluster. After generating the sensor adjustment signal for each cluster vehicle belonging to the driving cluster, the signal is transmitted to each cluster vehicle.

본 발명의 일 측면에 따른 자율 주행 방법은 자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 상기 메모리에 저장된 지도 정보에 기초하여 생성되는 예상 주행 궤적에 따라 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하는 자율 주행 시스템에서 자율 주행을 제어하는 방법으로서, 상기 프로세서가, 상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 상기 예상 주행 궤적을 보정하여 상기 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하는 단계, 및 상기 프로세서가, 상기 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 상기 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하는 단계를 포함하고, 상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는, 상기 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 상기 센서부의 센싱 파라미터를 제어하되, 상기 센싱 파라미터는 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하는 것을 특징으로 한다.An autonomous driving method according to an aspect of the present invention provides a sensor unit for detecting surrounding objects including vehicles around a self-driving vehicle, a memory for storing map information, and a prediction generated based on the map information stored in the memory. A method for controlling autonomous driving in an autonomous driving system including a processor controlling autonomous driving of the own vehicle according to a driving trajectory, wherein the processor performs the control of the autonomous driving based on a result of the sensor unit detecting surrounding vehicles of the own vehicle. Determining whether it is necessary to correct an expected driving trajectory of the own vehicle, and performing trajectory-based control for controlling autonomous driving of the own vehicle by correcting the expected driving trajectory according to the determination result, and the processor , When the first driving route to the destination of the own vehicle overlaps with the second driving route of the driving cluster formed by a plurality of cluster vehicles, cluster following for controlling the autonomous driving of the own vehicle to follow the driving of the driving cluster and performing control, wherein in the performing of the group follow-up control, the processor controls the sensing parameters of the sensor unit to have values mutually dependent on the sensing parameters of the sensor devices mounted on each of the group vehicles. However, the sensing parameter is characterized in that it includes at least one of a field of view (FOV) and sensor output.

본 발명의 일 측면에 따르면, 본 발명은 자율 주행 차량의 현재 위치로부터 목적지까지의 경로 상의 소정 구간 별로 주행 궤적 보정에 따른 자율 주행을 제어하는 궤적 기반 제어 및 주행 군집의 주행을 추종하는 군집 추종 제어를 상호 전환하여 수행함으로써, 자율 주행 차량의 자율 주행 제어 연산 부하를 저감하고 목적지까지 도달하는 과정에서 차량의 주행 제어에 대한 탑승자의 개입을 최소화시켜 탑승자의 편의성을 개선할 수 있으며 최단 시간에 목적지까지 도달하는 것을 가능하게 할 수 있다.According to one aspect of the present invention, the present invention provides a trajectory-based control for controlling autonomous driving according to driving trajectory correction for each predetermined section on a route from a current location of an autonomous vehicle to a destination, and cluster following control for following the driving of a driving cluster. By performing mutual conversion, it is possible to reduce the autonomous driving control computational load of the autonomous vehicle and minimize the occupant's intervention in the vehicle's driving control in the process of reaching the destination, thereby improving the passenger's convenience and reaching the destination in the shortest time. can make it possible to reach

또한, 본 발명의 일 측면에 따르면, 본 발명은 군집 추종 제어를 수행 시 주행 군집에 속하는 타 군집 차량에 대한 자차량의 상대적인 위치에 따라 센서부의 주변 객체 검출 영역을 가변시키도록 동작하기 때문에, 군집 주행 중인 전체 군집 차량의 레벨에서 볼 때 주행 군집에 속하는 각 군집 차량이 주변 객체를 센싱하기 위해 요구되는 시스템의 총 리소스를 저감시킬 수 있다.In addition, according to one aspect of the present invention, since the present invention operates to vary the surrounding object detection area of the sensor unit according to the relative position of the own vehicle to other cluster vehicles belonging to the driving cluster when performing cluster following control, When viewed from the level of the entire driving group, it is possible to reduce the total resource of the system required for each group vehicle belonging to the driving group to sense surrounding objects.

도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이다.
도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이다.
도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.
도 7은 본 발명의 일 실시예에 따른 자율 주행 장치에서 주행 군집 내에서의 자차량의 위치에 따라 센서부의 주변 객체 검출 영역이 가변되는 예시를 보인 예시도이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.
1 is an overall block configuration diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied.
2 is a block diagram showing a specific configuration of an autonomous driving integrated control unit in an autonomous driving device according to an embodiment of the present invention.
3 is an exemplary view showing an example in which an autonomous driving device according to an embodiment of the present invention is applied to a vehicle.
4 is an exemplary view showing an example of an internal structure of a vehicle to which an autonomous driving device according to an embodiment of the present invention is applied.
5 is an exemplary view showing an example of a set distance and a horizontal angle of view at which a lidar sensor, a radar sensor, and a camera sensor can detect a surrounding object in an autonomous driving device according to an embodiment of the present invention.
6 is an exemplary view showing an example of detecting a surrounding vehicle by a sensor unit in an autonomous driving device according to an embodiment of the present invention.
7 is an exemplary diagram showing an example in which a surrounding object detection area of a sensor unit is varied according to a location of an own vehicle in a driving cluster in an autonomous driving device according to an embodiment of the present invention.
8 and 9 are flowcharts for explaining an autonomous driving method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 자율 주행 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of an autonomous driving device and method according to the present invention will be described with reference to the accompanying drawings. In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이고, 도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이며, 도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이고, 도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이며, 도 7은 본 발명의 일 실시예에 따른 자율 주행 장치에서 주행 군집 내에서의 자차량의 위치에 따라 센서부의 주변 객체 검출 영역이 가변되는 예시를 보인 예시도이다.1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied, and FIG. 2 is a detailed diagram of an integrated autonomous driving control unit in an autonomous driving device according to an embodiment of the present invention. It is a block diagram showing the configuration, Figure 3 is an exemplary view showing an example of the self-driving device according to an embodiment of the present invention is applied to a vehicle, Figure 4 is an autonomous driving device according to an embodiment of the present invention is applied 5 is an exemplary diagram showing an example of the internal structure of a vehicle, and FIG. 5 is a set distance and horizontal angle of view at which a lidar sensor, a radar sensor, and a camera sensor can detect a surrounding object in an autonomous driving device according to an embodiment of the present invention. 6 is an exemplary view showing an example of detecting a surrounding vehicle by a sensor unit in an autonomous driving device according to an embodiment of the present invention, and FIG. 7 is an exemplary view showing autonomous driving according to an embodiment of the present invention. It is an exemplary view showing an example in which the detection area of the sensor unit is changed according to the location of the own vehicle in the driving cluster in the device.

먼저, 도 1 및 도 3을 참조하여 본 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 구조 및 기능에 대하여 설명한다. 도 1에 도시된 것과 같이 자율 주행 제어 시스템은 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다.First, the structure and function of an autonomous driving control system to which the autonomous driving device according to the present embodiment can be applied will be described with reference to FIGS. 1 and 3 . As shown in FIG. 1 , the autonomous driving control system is used for autonomous driving control of a vehicle through a driving information input interface 101, a driving information input interface 201, a passenger output interface 301, and a vehicle control output interface 401. It can be implemented around the autonomous driving integrated control unit 600 that transmits and receives necessary data.

자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 예시로서 도시된 것과 같이 주행 모드 스위치(110) 및 사용자 단말(120, 예: 차량에 장착된 내비게이션 단말, 탑승자가 소지한 스마트폰 또는 태플릿 PC 등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다. 예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드, 또는 스포츠 모드(Sport Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 또한, 탑승자가 사용자 단말(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 한편, 사용자 단말(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI(User Interface)를 제공하는 제어 패널(Control Panel)(예: 터치 스크린 패널)로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 사용자 단말(120) 상의 터치 버튼으로 구현될 수도 있다.The autonomous driving integrated control unit 600 may obtain driving information according to a driver's manipulation of the user input unit 100 in the autonomous driving mode or the manual driving mode of the vehicle through the driving information input interface 101 . As shown in FIG. 1 as an example, the user input unit 100 includes a driving mode switch 110 and a user terminal 120 (eg, a navigation terminal installed in a vehicle, a smartphone or a tablet PC owned by a passenger). Accordingly, the driving information may include vehicle driving mode information and navigation information. For example, the vehicle's driving mode (ie, autonomous driving mode/manual driving mode, or sport mode/eco mode/safety mode) determined according to the driver's manipulation of the driving mode switch 110 Mode (Safe Mode/Normal Mode) may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 101 as the driving information described above. In addition, navigation information such as the passenger's destination input by the passenger through the user terminal 120 and the route to the destination (the shortest route or preferred route selected by the passenger among candidate routes to the destination) is the driving information. It can be transmitted to the autonomous driving integrated control unit 600 through the input interface 101 . Meanwhile, the user terminal 120 may be implemented as a control panel (eg, a touch screen panel) that provides a user interface (UI) for a driver to input or modify information for autonomous driving control of a vehicle. , In this case, the driving mode switch 110 described above may be implemented as a touch button on the user terminal 120 .

또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 것과 같이 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다. 나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning Sysetm) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.In addition, the autonomous driving integrated control unit 600 may obtain driving information indicating a driving state of the vehicle through the driving information input interface 201 . The driving information includes the steering angle formed by the occupant operating the steering wheel, the stroke of the accelerator pedal or the brake pedal formed by depressing the accelerator or brake pedal, and vehicle speed, acceleration, yaw, pitch, and behavior formed in the vehicle. and roll, etc., and may include various information representing the driving state and behavior of the vehicle, and each of the driving information includes a steering angle sensor 210, an Accel Position Sensor (APS)/Pedal Travel Sensor (PTS) as shown in FIG. 220 , vehicle speed sensor 230 , acceleration sensor 240 , and yaw/pitch/roll sensor 250 . Furthermore, vehicle driving information may include vehicle location information, and vehicle location information may be acquired through a Global Positioning System (GPS) receiver 260 applied to the vehicle. Such driving information may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 201 and used to control driving of the vehicle in the autonomous driving mode or the manual driving mode.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다. 또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 것과 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 사용자 단말(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.In addition, the autonomous driving integrated control unit 600 may transmit driving state information provided to the occupant in the autonomous driving mode or the manual driving mode of the vehicle to the output unit 300 through the occupant output interface 301 . That is, the autonomous driving integrated control unit 600 transmits driving state information of the vehicle to the output unit 300 so that the driver can drive the vehicle autonomously or manually based on the driving state information output through the output unit 300. The driving state information may include various information indicating the driving state of the vehicle, such as a current driving mode, a shift range, and a vehicle speed. In addition, when it is determined that a driver needs to be warned in the autonomous driving mode or manual driving mode of the vehicle along with the driving state information, the autonomous driving integrated control unit 600 outputs warning information through the occupant output interface 301 to the output unit. 300 so that the output unit 300 outputs a warning to the driver. In order to audibly and visually output such driving state information and warning information, the output unit 300 may include a speaker 310 and a display device 320 as shown in FIG. 1 . In this case, the display device 320 may be implemented as the same device as the aforementioned user terminal 120 or may be implemented as a separate and independent device.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 것과 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.In addition, the autonomous driving integrated control unit 600 may transmit control information for driving control of the vehicle in the autonomous driving mode or the manual driving mode of the vehicle to the lower control system 400 applied to the vehicle through the vehicle control output interface 401. there is. As shown in FIG. 1 , the sub-control system 400 for vehicle driving control may include an engine control system 410, a braking control system 420, and a steering control system 430, and an autonomous driving integrated control unit. 600 may transmit engine control information, braking control information, and steering control information as the control information to each lower control system 410 , 420 , and 430 through the vehicle control output interface 401 . Accordingly, the engine control system 410 may increase or decrease fuel supplied to the engine to control the vehicle speed and acceleration, and the braking control system 420 may control braking of the vehicle by adjusting the braking force of the vehicle. The steering control system 430 may control steering of the vehicle through a steering device applied to the vehicle (eg, a Motor Driven Power Steering (MDPS) system).

상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.As described above, the autonomous driving integrated control unit 600 according to the present embodiment transmits driving information according to the driver's manipulation and driving information indicating the driving state of the vehicle through the driving information input interface 101 and the driving information input interface 201, respectively. obtained, driving state information and warning information generated according to the autonomous driving algorithm processed by the internal processor 610 may be transmitted to the output unit 300 through the occupant output interface 301, and the internal processor ( Control information generated according to the autonomous driving algorithm processed by 610 may be transferred to the lower control system 400 through the vehicle control output interface 401 to operate to control vehicle driving.

한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 것과 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. 센서부(500)는 도 1에 도시된 것과 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.On the other hand, in order to ensure stable autonomous driving of the vehicle, it is necessary to continuously monitor the driving state by accurately measuring the driving environment of the vehicle and control the driving according to the measured driving environment. To this end, the autonomous driving device of the present embodiment As shown in FIG. 1 , a sensor unit 500 may be included to detect objects around the vehicle, such as surrounding vehicles, pedestrians, roads, or fixed facilities (eg, traffic lights, milestones, traffic signs, construction fences, etc.). As shown in FIG. 1 , the sensor unit 500 may include one or more of a lidar sensor 510 , a radar sensor 520 , and a camera sensor 530 to detect surrounding objects outside the vehicle.

라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(620)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The lidar sensor 510 transmits a laser signal to the surroundings of the vehicle and receives a signal reflected back by the object to detect surrounding objects outside the vehicle. A surrounding object located within a vertical field of view and a set vertical field of view may be detected. The lidar sensor 510 may include a front lidar sensor 511, an upper lidar sensor 512, and a rear lidar sensor 513 installed on the front, top, and rear of the vehicle, respectively, but their installation locations and the number of installations is not limited to a specific embodiment. The threshold value for determining the validity of the laser signal reflected by the object and returned may be pre-stored in the memory 620 of the autonomous driving integrated control unit 600, and the processor 610 of the autonomous driving integrated control unit 600 The laser signal transmitted through the lidar sensor 510 can determine the position (including the distance to the object), speed, and direction of movement of the object through a method of measuring the time it takes for the laser signal to be reflected by the object and return. can

레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The radar sensor 520 may detect surrounding objects outside the vehicle by radiating electromagnetic waves around the vehicle and receiving a signal reflected back by the object, and according to the specifications, set distance, set vertical angle of view and A surrounding object located within the set horizontal field of view range can be detected. The radar sensor 520 may include a front radar sensor 521, a left radar sensor 521, a right radar sensor 522, and a rear radar sensor 523 installed on the front, left side, right side, and rear of the vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The processor 610 of the autonomous driving integrated control unit 600 analyzes the power of electromagnetic waves transmitted and received through the radar sensor 520 to determine the position of the object (including the distance to the object), speed and the direction of movement can be determined.

카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다. 또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.The camera sensor 530 may detect surrounding objects outside the vehicle by capturing an image of the surroundings of the vehicle, and may detect surrounding objects located within a range of a predefined set distance, set vertical angle of view, and set horizontal angle of view according to the specification. . The camera sensors 530 may include a front camera sensor 531, a left camera sensor 532, a right camera sensor 533, and a rear camera sensor 534 installed on the front, left, right, and rear surfaces of the vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The processor 610 of the autonomous driving integrated control unit 600 applies predefined image processing to the image captured through the camera sensor 530, thereby determining the position of the object (including the distance to the object) and speed. and the direction of movement can be determined. In addition, an internal camera sensor 535 for capturing an image of the inside of the vehicle may be mounted at a predetermined position inside the vehicle (eg, a rear view mirror), and the processor 610 of the integrated autonomous driving control unit 600 may A guide or warning may be output to the occupant through the above-described output unit 300 by monitoring the occupant's behavior and condition based on the image acquired through the sensor 535 .

라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 것과 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. 도 3은 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 도 5는 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)가 전방의 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 도시하고 있으며, 도 6은 각 센서가 주변 객체를 검출하는 예시를 도시하고 있다. 도 6은 주변 객체 검출의 일 예시일 뿐, 주변 객체 검출 방식은 센서의 설치 위치 및 설치 수에 의존하여 결정된다. 전술한 센서부(500)의 구성에 따라 자차량의 전방위 영역의 주변 차량 및 주변 객체가 검출될 수 있다.In addition to the lidar sensor 510, the radar sensor 520, and the camera sensor 530, the sensor unit 500 may further include an ultrasonic sensor 540 as shown in FIG. Various types of sensors for detecting surrounding objects may be further employed in the sensor unit 500 . 3 shows that a front lidar sensor 511 or a front radar sensor 521 is installed on the front of the vehicle, and a rear lidar sensor 513 or rear radar sensor 524 is installed on the rear of the vehicle to help understand the present embodiment. It is installed on the front camera sensor 531, left camera sensor 532, right camera sensor 533 and rear camera sensor 534 are installed on the front, left side, right side and rear side of the vehicle, respectively. , As described above, the installation position and number of installations of each sensor are not limited to a specific embodiment. 5 shows an example of a set distance and a horizontal angle of view at which the lidar sensor 510, the radar sensor 520, and the camera sensor 530 can detect a nearby object in front, and FIG. An example of detecting an object is shown. 6 is only an example of detecting a surrounding object, and the method for detecting a surrounding object is determined depending on the installation location and number of installed sensors. Depending on the configuration of the sensor unit 500 described above, surrounding vehicles and surrounding objects in an omnidirectional area of the host vehicle may be detected.

나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 음성 및 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 마이크 및 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.Furthermore, the sensor unit 500 detects the occupant's voice and vital signals (eg, heart rate, electrocardiogram, respiration, blood pressure, body temperature, brain wave, blood flow (pulse wave), blood sugar, etc.) It may further include a microphone and a biosensor for processing, and the biosensors include a heart rate sensor, an electrocardiogram sensor, a respiration sensor, a blood pressure sensor, a body temperature sensor, an electroencephalogram sensor, a photoplethysmography sensor, and a blood sugar sensor. This can be.

도 4는 차량의 내부 구조의 예시를 도시하고 있으며, 차량의 내부에는 차량의 운전자 또는 동승자와 같은 탑승자의 조작에 의해 그 상태가 제어되어 탑승자의 운전 또는 편의(예: 휴식, 엔터테인먼트 활동 등)를 지원하기 위한 내부 장치가 설치되어 있을 수 있다. 이러한 내부 장치에는 탑승자가 안착하는 차량 시트(S), 내부 라이트 및 무드등과 같은 조명 장치(L), 전술한 사용자 단말(120) 및 디스플레이 장치(320), 내부 테이블 등이 포함될 수 있으며, 이러한 내부 장치는 프로세서(610)에 의해 그 상태가 제어될 수 있다.4 shows an example of the internal structure of a vehicle, and inside the vehicle, its state is controlled by manipulation of a driver or passenger of the vehicle to provide driving or convenience (eg, rest, entertainment activities, etc.) of the vehicle. Internal devices to support may be installed. These internal devices may include a vehicle seat (S) on which the occupant is seated, a lighting device (L) such as an interior light and a mood light, the above-described user terminal 120 and display device 320, an internal table, and the like. The state of the internal device may be controlled by the processor 610 .

차량 시트(S)의 경우, 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 차량 시트(S)가 앞 열 시트(S1) 및 뒷 열 시트(S2)로 구성되어 있는 경우 앞 열 시트(S1)의 각도만 조절될 수 있다. 뒷 열 시트(S2)가 구비되어 있지 않은 경우로서 앞 열 시트(S1)가 시트 구조 및 발받침 구조로 구분되어 있는 경우에는 앞 열 시트(S1)의 시트 구조가 발받침 구조와 물리적으로 분리되고 그 각도가 조절되도록 구현될 수 있다. 또한, 차량 시트(S)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다. 조명 장치(L)의 경우, 그 온오프가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 제어될 수 있으며, 조명 장치(L)가 내부 라이트 및 무드등과 같이 복수의 조명 유닛을 포함할 경우 각각의 조명 유닛은 그 온오프가 독립적으로 제어될 수 있다. 사용자 단말(120) 또는 디스플레이 장치(320)는 탑승자의 시야각에 따라 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 예를 들어 탑승자의 시선 방향에 그 화면이 존재하도록 각도가 조절될 수 있다. 이 경우, 사용자 단말(120) 및 디스플레이 장치(320)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다.In the case of the vehicle seat S, the angle may be adjusted by the processor 610 (or by manual manipulation of the occupant), and the vehicle seat S may be adjusted to the front row seat S1 and the rear row seat S2. , only the angle of the front row seats S1 can be adjusted. When the rear seat S2 is not provided and the front row seat S1 is divided into a seat structure and a footrest structure, the seat structure of the front row seat S1 is physically separated from the footrest structure, It may be implemented such that the angle is adjusted. In addition, an actuator (eg, a motor) for adjusting the angle of the vehicle seat S may be provided. In the case of the lighting device (L), its on/off may be controlled by the processor 610 (or by manual manipulation of the occupant), and the lighting device (L) operates a plurality of lighting units such as interior lights and mood lights. When included, each lighting unit can be independently controlled on and off. The angle of the user terminal 120 or the display device 320 may be adjusted by the processor 610 (or by manual manipulation of the passenger) according to the passenger's viewing angle, and for example, the screen is aligned with the passenger's line of sight. The angle can be adjusted so that it exists. In this case, an actuator (eg, a motor) may be provided to adjust the angles of the user terminal 120 and the display device 320 .

자율 주행 통합 제어부(600)는 도 1에 도시된 것과 같이 네트워크를 통해 서버(700)와 통신할 수 있다. 자율 주행 통합 제어부(600) 및 서버(700) 간의 네트워크 방식으로는 WAN(Wide Area Network), LAN(Local Area Network), 또는 PAN(Personal Area Network) 등 다양한 통신 방식이 채용될 수 있다. 또한, 넓은 네트워크 커버리지를 확보하기 위해, LPWAN(Low Power Wide Area Network, 사물 인터넷 중 커버리지가 매우 넓은 네트워크로서, LoRa, Sigfox, Ingenu, LTE-M, NB-IOT 등의 상용화된 기술을 포함) 통신 방식이 채용될 수 있다. 예를 들어, LoRa(저전력의 통신이 가능하면서도 최대 20Km 정도로 넓은 커버리지를 가짐), 또는 Sigfox(환경에 따라 10Km(도심) 내지 30Km(도심을 벗어난 외곽 지역)의 커버리지를 가짐)의 통신 방식이 채용될 수 있으며, 나아가 전력 절약 모드(PSM: Power Saving Mode)를 갖는 LTE-MTC(Machine-type Communications)(또는, LTE-M), NB(Narrowband) LTE-M, NB IoT와 같은 3GPP(3rd Generation Partnership Project) 릴리즈 12, 13 기반의 LTE 네트워크 기술이 채용될 수도 있다. 서버(700)는 최신성이 유지되는 지도 정보(2차원 항법 지도 데이터, 3차원 격지 지도 데이터, 또는 3차원 고정밀 전자지도 데이터 등 다양한 지도 정보가 해당될 수 있다)를 제공할 수 있으며, 나아가 도로의 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보 등 다양한 정보를 제공할 수도 있다. 자율 주행 통합 제어부(600)는 서버(700)로부터 최신의 지도 정보를 전달받아 메모리(620)에 저장된 지도 정보를 갱신할 수 있고, 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보를 제공받아 차량의 자율 주행 제어에 활용할 수도 있다.As shown in FIG. 1 , the autonomous driving integrated control unit 600 may communicate with the server 700 through a network. As a network method between the autonomous driving integrated control unit 600 and the server 700, various communication methods such as a wide area network (WAN), a local area network (LAN), or a personal area network (PAN) may be employed. In addition, in order to secure wide network coverage, LPWAN (Low Power Wide Area Network, a network with very wide coverage among the Internet of Things, including commercialized technologies such as LoRa, Sigfox, Ingenu, LTE-M, and NB-IOT) communication method can be employed. For example, a communication method of LoRa (having a wide coverage of up to 20Km while enabling low-power communication) or Sigfox (having a coverage of 10Km (city) to 30Km (outside the city) depending on the environment) is adopted 3GPP (3rd generation Partnership Project) release 12, 13 based LTE network technology may be employed. The server 700 may provide up-to-date map information (various map information such as 2D navigation map data, 3D remote map data, or 3D high-precision electronic map data) may be provided, and furthermore, the road It can also provide various types of information such as accident information, road control information, traffic volume information, and weather information. The autonomous driving integrated control unit 600 may update the map information stored in the memory 620 by receiving the latest map information from the server 700, and receive accident information, road control information, traffic volume information, and weather information to drive the vehicle. It can also be used for autonomous driving control.

다음으로, 도 2를 참조하여 본 실시예의 자율 주행 통합 제어부(600)의 구조 및 기능에 대하여 설명한다. 도 2에 도시된 것과 같이 자율 주행 통합 제어부(600)는 프로세서(610) 및 메모리(620)를 포함할 수 있다.Next, with reference to FIG. 2 , the structure and function of the autonomous driving integrated control unit 600 according to this embodiment will be described. As shown in FIG. 2 , the autonomous driving integrated controller 600 may include a processor 610 and a memory 620 .

메모리(620)는 차량의 자율 주행 제어를 위해 필요한 기본 정보를 저장하거나, 프로세서(610)에 의해 차량의 자율 주행이 제어되는 과정에서 생성되는 정보를 저장할 수 있으며, 프로세서(610)는 메모리(620)에 저장된 정보에 접근(read, access)하여 차량의 자율 주행을 제어할 수 있다. 메모리(620)는 컴퓨터로 판독 가능한 기록 매체로 구현되어 프로세서(610)가 접근 가능하도록 동작할 수 있다. 구체적으로, 메모리(620)는 하드 드라이브(Hard Drive), 자기 테이프, 메모리 카드(Memory Card), ROM(Read-Only Memory), RAM(Random-Access Memory), DVD(Digital Video Disc) 또는 광학 디스크와 같은 광 데이터 저장장치로 구현될 수 있다.The memory 620 may store basic information necessary for autonomous driving control of the vehicle or information generated in the process of controlling the autonomous driving of the vehicle by the processor 610. The processor 610 may store the memory 620 It is possible to control the autonomous driving of the vehicle by accessing (read, access) the information stored in ). The memory 620 may be implemented as a computer-readable recording medium so that the processor 610 can access it. Specifically, the memory 620 may include a hard drive, a magnetic tape, a memory card, a read-only memory (ROM), a random-access memory (RAM), a digital video disc (DVD), or an optical disk. It can be implemented as an optical data storage device such as

메모리(620)에는 프로세서(610)에 의한 자율 주행 제어에 요구되는 지도 정보가 저장되어 있을 수 있다. 메모리(620)에 저장된 지도 정보는 도로 단위의 정보를 제공하는 항법 지도(수치지형도)일 수도 있으나, 자율 주행 제어의 정밀도를 향상하기 위해 차선(Lane) 단위의 도로 정보를 제공하는 정밀 도로 지도, 즉 3차원 고정밀 전자지도 데이터로 구현됨이 바람직할 수 있다. 이에 따라, 메모리(620)에 저장된 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다.Map information required for autonomous driving control by the processor 610 may be stored in the memory 620 . The map information stored in the memory 620 may be a navigation map (digital topographic map) that provides road-level information, but a precision road map that provides lane-level road information to improve the precision of autonomous driving control; That is, it may be preferable to implement the 3D high-precision electronic map data. Accordingly, the map information stored in the memory 620 is dynamic and necessary for autonomous driving control of the vehicle, such as lanes, lane center lines, regulatory lines, road boundaries, road center lines, traffic signs, road markings, road shapes and heights, and lane widths. Static information can be provided.

또한, 메모리(620)에는 차량의 자율 주행 제어를 위한 자율 주행 알고리즘이 저장되어 있을 수 있다. 자율 주행 알고리즘은 자율 주행 차량 주변을 인식하고 그 상태를 판단하여 그 판단 결과에 따라 차량의 주행을 제어하는 알고리즘(인식, 판단 및 제어 알고리즘)으로서, 프로세서(610)는 메모리(620)에 저장된 자율 주행 알고리즘을 실행하여 차량의 주변 환경에 능동적인 자율 주행 제어를 수행할 수 있다.In addition, an autonomous driving algorithm for autonomous driving control of a vehicle may be stored in the memory 620 . The self-driving algorithm is an algorithm (recognition, judgment and control algorithm) that recognizes the surroundings of the self-driving vehicle, determines its state, and controls the driving of the vehicle according to the judgment result. It is possible to perform active autonomous driving control on the environment around the vehicle by executing the driving algorithm.

프로세서(610)는 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보 및 자율 주행 알고리즘을 기반으로 차량의 자율 주행을 제어할 수 있다. 프로세서(610)는 CISC(Complex Instruction Set Computer) 또는 RISC(Reduced Instruction Set Computer)와 같은 임베디드 프로세서(Embedded Processor), 또는 주문형 반도체(ASIC: Application Specific Integrated Circuit)와 같은 전용 반도체 회로로 구현될 수도 있다.The processor 610 includes driving information and driving information input from the aforementioned driving information input interface 101 and driving information input interface 201 respectively, information on surrounding objects detected through the sensor unit 500, and memory. The autonomous driving of the vehicle may be controlled based on the map information stored in 620 and the autonomous driving algorithm. The processor 610 may be implemented as an embedded processor such as a complex instruction set computer (CISC) or reduced instruction set computer (RISC), or a dedicated semiconductor circuit such as an application specific integrated circuit (ASIC). .

본 실시예에서 프로세서(610)는 자차량 및 주변 차량의 각 주행 궤적을 분석하여 자차량의 자율 주행을 제어할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 프로세서(610)는 센서 처리 모듈(611), 주행 궤적 생성 모듈(612), 주행 궤적 분석 모듈(613), 주행 제어 모듈(614), 궤적 학습 모듈(615) 및 탑승자 상태 판단 모듈(616)을 포함할 수 있다. 도 2는 기능에 따라 각 모듈을 독립적인 블록으로 도시하고 있으나, 각 모듈이 하나의 모듈로 통합되어 각각의 기능을 통합적으로 수행하는 구성으로 구현될 수도 있다.In this embodiment, the processor 610 can control the autonomous driving of the own vehicle by analyzing each driving trajectory of the own vehicle and surrounding vehicles, and for this purpose, as shown in FIG. 611), a driving trajectory generating module 612, a driving trajectory analysis module 613, a driving control module 614, a trajectory learning module 615, and an occupant state determination module 616. Although FIG. 2 shows each module as an independent block according to its function, each module may be integrated into one module to integrally perform each function.

센서 처리 모듈(611)은 센서부(500)를 통해 자차량의 주변 차량이 검출된 결과를 기반으로 주변 차량의 주행 정보(즉, 주변 차량의 위치를 포함하며, 위치와 함께 주변 차량의 속도 및 이동 방향을 더 포함할 수도 있다)를 판단할 수 있다. 즉, 라이다 센서(510)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 레이더 센서(520)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 카메라 센서(530)를 통해 촬상된 이미지를 기반으로 주변 차량의 위치를 판단하거나, 초음파 센서(540)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단할 수 있다. 이를 위해, 도 1에 도시된 것과 같이 센서 처리 모듈(611)은 라이다 신호 처리 모듈(611a), 레이더 신호 처리 모듈(611b) 및 카메라 신호 처리 모듈(611c)을 포함할 수 있다(초음파 신호 처리 모듈이 센서 처리 모듈(611)에 더 부가될 수도 있다). 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)를 활용하여 주변 차량의 위치를 결정하는 방법은 특정의 실시예로 그 구현 방식이 한정되지 않는다. 또한, 센서 처리 모듈(611)은 주변 차량의 위치, 속도 및 이동 방향뿐만 아니라 주변 차량의 크기 및 종류 등의 속성 정보를 판단할 수도 있으며, 상기와 같은 주변 차량의 위치, 속도, 이동 방향, 크기 및 종류와 같은 정보를 판단하기 위한 알고리즘이 미리 정의되어 있을 수 있다.The sensor processing module 611 includes the driving information of the surrounding vehicles (ie, the location of the surrounding vehicles, and the speed and may further include a movement direction) may be determined. That is, the location of a nearby vehicle is determined based on a signal received through the lidar sensor 510, the location of a nearby vehicle is determined based on a signal received through the radar sensor 520, or the camera sensor 530 It is possible to determine the location of a surrounding vehicle based on an image captured through the image or to determine the location of a surrounding vehicle based on a signal received through the ultrasonic sensor 540 . To this end, as shown in FIG. 1 , the sensor processing module 611 may include a lidar signal processing module 611a, a radar signal processing module 611b, and a camera signal processing module 611c (ultrasound signal processing). modules may be further added to the sensor processing module 611). A method of determining the location of a surrounding vehicle by using the lidar sensor 510, the radar sensor 520, and the camera sensor 530 is not limited to a specific embodiment. In addition, the sensor processing module 611 may determine attribute information such as the size and type of the surrounding vehicle as well as the location, speed, and direction of movement of the surrounding vehicle. An algorithm for determining information such as and type may be predefined.

주행 궤적 생성 모듈(612)은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적과, 자차량의 실제 주행 궤적을 생성할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)을 포함할 수 있다.The driving trajectory generation module 612 may generate an actual driving trajectory and an expected driving trajectory of surrounding vehicles and an actual driving trajectory of the own vehicle. To this end, as shown in FIG. and an own vehicle driving trajectory generating module 612b.

먼저, 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 실제 주행 궤적을 생성할 수 있다.First, the surrounding vehicle driving trajectory generation module 612a may generate an actual driving trajectory of the surrounding vehicle.

구체적으로, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 검출된 주변 차량의 주행 정보(즉, 센서 처리 모듈(611)에 의해 결정된 주변 차량의 위치)에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 이 경우, 주변 차량의 실제 주행 궤적을 생성하기 위해 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보를 참조할 수 있으며, 센서부(500)에 의해 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 주변 차량 주행 궤적 생성 모듈(612a)은 상기의 교차 참조를 기반으로, 센서부(500)에 의해 검출된 주변 차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the surrounding vehicle driving trajectory generation module 612a generates the surrounding vehicle based on driving information of the surrounding vehicle detected by the sensor unit 500 (ie, the position of the surrounding vehicle determined by the sensor processing module 611). An actual driving trajectory can be created. In this case, in order to generate an actual driving trajectory of the surrounding vehicle, the surrounding vehicle driving trajectory generation module 612a may refer to map information stored in the memory 620, and the location of the surrounding vehicle detected by the sensor unit 500 An actual driving trajectory of surrounding vehicles may be generated by cross-referencing an arbitrary location on the map information stored in the memory 620 and the map information stored in the memory 620 . For example, when a nearby vehicle is detected at a specific point by the sensor unit 500, the surrounding vehicle driving trajectory generation module 612a generates the location of the detected surrounding vehicle and an arbitrary location on map information stored in the memory 620. It is possible to specify the location of the currently detected surrounding vehicle on the map information by cross-referencing, and an actual driving trajectory of the surrounding vehicle can be generated by continuously monitoring the location of the surrounding vehicle as described above. That is, the surrounding vehicle driving trajectory generating module 612a maps the location of the surrounding vehicle detected by the sensor unit 500 to the location on the map information stored in the memory 620 based on the above cross reference and accumulates the surrounding An actual driving trajectory of the vehicle can be generated.

한편, 주변 차량의 실제 주행 궤적은 후술하는 주변 차량의 예상 주행 궤적과 비교되어 메모리(620)에 저장된 지도 정보의 부정확 여부를 판단하기 위해 활용될 수 있다. 이 경우, 어느 특정한 주변 차량의 실제 주행 궤적을 예상 주행 궤적과 비교할 경우 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하는 문제가 발생할 수 있다. 예를 들어, 다수의 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 일치하고, 어느 특정 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 상이할 경우, 상기 특정 주변 차량의 실제 주행 궤적만을 예상 주행 궤적과 비교하면 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하게 될 수 있다. 따라서, 복수의 주변 차량의 실제 주행 궤적의 경향성이 예상 주행 궤적을 벗어나는지 여부를 판단할 필요성이 있으며, 이를 위해 주변 차량 주행 궤적 생성 모듈(612a)은 복수의 주변 차량의 실제 주행 궤적을 각각 생성할 수도 있다. 나아가, 주변 차량의 운전자가 직선 경로 주행을 위해 주행 과정에서 조향휠을 좌우측으로 다소 움직이는 경향이 있음을 고려하면 주변 차량의 실제 주행 궤적은 직선이 아닌 굴곡이 있는 형태로 생성될 수도 있으며, 후술하는 예상 주행 궤적 간의 오차 산출을 위해 주변 차량 주행 궤적 생성 모듈(612a)은 굴곡이 있는 형태로 생성되는 원시의 실제 주행 궤적에 소정의 평활화 기법을 적용하여 직선 형태의 실제 주행 궤적을 생성할 수도 있다. 평활화 기법으로는 주변 차량의 각 위치에 대한 보간(interpolation) 등 다양한 기법이 채용될 수 있다.Meanwhile, the actual driving trajectory of the surrounding vehicle may be compared with the expected driving trajectory of the surrounding vehicle to be described later, and may be used to determine whether the map information stored in the memory 620 is inaccurate. In this case, when comparing an actual driving trajectory of a specific surrounding vehicle with an expected driving trajectory, a problem of misjudging that the map information is inaccurate despite being accurate may occur. For example, when the actual driving trajectory and the expected driving trajectory of a plurality of surrounding vehicles match, and the actual driving trajectory and the expected driving trajectory of a specific surrounding vehicle are different, only the actual driving trajectory of the specific surrounding vehicle is different from the expected driving trajectory. Comparisons can lead to misjudgement that map information is inaccurate even though it is accurate. Therefore, there is a need to determine whether the tendency of the actual driving trajectories of the plurality of surrounding vehicles deviates from the expected driving trajectory. You may. Furthermore, considering that drivers of surrounding vehicles tend to slightly move the steering wheel to the left and right during the driving process to drive on a straight path, the actual driving trajectory of surrounding vehicles may be created in a curved form rather than a straight line, which will be described later. In order to calculate an error between the predicted driving trajectories, the surrounding vehicle driving trajectory generation module 612a may generate an actual driving trajectory in a straight shape by applying a predetermined smoothing technique to the original actual driving trajectory generated in a curved shape. As the smoothing technique, various techniques such as interpolation for each position of surrounding vehicles may be employed.

또한, 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있다.Also, the surrounding vehicle driving trajectory generating module 612a may generate an expected driving trajectory of surrounding vehicles based on map information stored in the memory 620 .

전술한 것과 같이 메모리(620)에 저장된 지도 정보는 3차원 고정밀 전자지도 데이터일 수 있으며, 따라서 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다. 일반적으로 차량은 차로의 중앙에서 주행하는 점을 고려하면, 자차량의 주변에서 주행하고 있는 주변 차량 또한 차로의 중앙에서 주행할 것으로 예상될 수 있으며, 따라서 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.As described above, the map information stored in the memory 620 may be 3D high-precision electronic map data, and thus the map information includes lanes, road center lines, regulatory lines, road boundaries, road center lines, traffic signs, road signs, and road shapes. In addition, dynamic and static information required for vehicle autonomous driving control, such as height and lane width, may be provided. Considering that vehicles generally drive in the center of the lane, it can be expected that the surrounding vehicles driving around the host vehicle will also run in the center of the lane. Therefore, the surrounding vehicle driving trajectory generating module 612a An expected driving trajectory of the vehicle may be generated as a center line of a road reflected in map information.

자차량 주행 궤적 생성 모듈(612b)은 전술한 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 주행 정보에 기초하여 자차량이 현재까지 주행한 실제 주행 궤적을 생성할 수 있다.The own vehicle driving trajectory generating module 612b may generate an actual driving trajectory the own vehicle has traveled up to now based on the driving information of the own vehicle obtained through the aforementioned driving information input interface 201 .

구체적으로, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 위치 정보)와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 자차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 자차량의 위치를 특정할 수 있으며, 상기와 같이 자차량의 위치를 지속적으로 모니터링함으로써 자차량의 실제 주행 궤적을 생성할 수 있다. 즉, 자차량 주행 궤적 생성 모듈(612b)은 상기의 교차 참조를 기반으로, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 자차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the own vehicle driving trajectory generation module 612b generates the location of the own vehicle obtained through the driving information input interface 201 (ie, the location information of the own vehicle obtained through the GPS receiver 260) and the memory 620 ), an actual driving trajectory of the own vehicle can be generated by cross-referencing an arbitrary location on the map information stored in ). For example, the current location of the own vehicle can be specified on the map information by cross-referencing the location of the own vehicle obtained through the driving information input interface 201 and an arbitrary location on the map information stored in the memory 620, As described above, an actual driving trajectory of the own vehicle may be generated by continuously monitoring the location of the own vehicle. That is, the own vehicle driving trajectory generation module 612b maps the location of the own vehicle obtained through the driving information input interface 201 to the location on the map information stored in the memory 620 based on the above cross reference and accumulates By doing so, it is possible to generate an actual driving trajectory of the own vehicle.

또한, 자차량 주행 궤적 생성 모듈(612b)은 메모리에 저장된 지도 정보에 기초하여 자차량이 목적지까지 주행해야 할 예상 주행 궤적을 생성할 수 있다.Also, the own vehicle driving trajectory generating module 612b may generate an expected driving trajectory along which the own vehicle should travel to a destination based on map information stored in a memory.

즉, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 현재 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 현재 위치 정보)와 메모리에 저장된 지도 정보를 이용하여 목적지까지의 예상 주행 궤적을 생성할 수 있으며, 자차량의 예상 주행 궤적은 주변 차량의 예상 주행 궤적과 마찬가지로 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성될 수 있다.That is, the own vehicle driving trajectory generating module 612b stores the current location of the own vehicle obtained through the driving information input interface 201 (ie, the current location information of the own vehicle obtained through the GPS receiver 260) and the memory. An expected driving trajectory to a destination may be generated using the stored map information, and the predicted driving trajectory of the own vehicle may be generated as a center line of a road reflected in the map information stored in the memory 620, similarly to the predicted driving trajectory of surrounding vehicles. can

주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 주행 궤적은 메모리(620)에 저장될 수 있으며, 프로세서(610)에 의해 자차량의 자율 주행이 제어되는 과정에서 다양한 목적으로 활용될 수 있다.The driving trajectory generated by the surrounding vehicle driving trajectory generating module 612a and the own vehicle driving trajectory generating module 612b may be stored in the memory 620, and autonomous driving of the own vehicle is controlled by the processor 610 It can be used for various purposes in the process.

주행 궤적 분석 모듈(613)은 주행 궤적 생성 모듈(612)에 의해 생성되어 메모리(620)에 저장된 각 주행 궤적(즉, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적, 자차량의 실제 주행 궤적)을 분석하여 현재 자차량에 대한 자율 주행 제어의 신뢰도를 진단할 수 있다. 자율 주행 제어의 신뢰도 진단은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차를 분석하는 과정으로 진행될 수 있다.The driving trajectory analysis module 613 generates each driving trajectory generated by the driving trajectory generating module 612 and stored in the memory 620 (that is, the actual driving trajectory and expected driving trajectory of surrounding vehicles, and the actual driving trajectory of the own vehicle). It is possible to diagnose the reliability of the autonomous driving control for the current vehicle by analyzing the data. Diagnosis of reliability of autonomous driving control may be performed by analyzing a trajectory error between an actual driving trajectory and an expected driving trajectory of surrounding vehicles.

주행 제어 모듈(614)은 자차량의 자율 주행을 제어하는 기능을 수행할 수 있으며, 구체적으로 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보를 종합적으로 이용하여 자율 주행 알고리즘을 처리하며, 차량 제어 출력 인터페이스(401)를 통해 제어 정보를 전달하여 하위 제어 시스템(400)으로 하여금 자차량의 자율 주행을 제어하도록 할 수 있고, 또한 탑승자 출력 인터페이스(301)를 통해 자차량의 주행 상태 정보 및 경고 정보를 출력부(300)로 전달하여 운전자가 인지하도록 할 수 있다. 또한, 주행 제어 모듈(614)은 상기와 같은 자율 주행을 통합적으로 제어할 때 전술한 센서 처리 모듈(611), 주행 궤적 생성 모듈(612) 및 주행 궤적 분석 모듈(613)에 의해 분석된 자차량 및 주변 차량의 주행 궤적을 고려하여 자율 주행을 제어함으로써 자율 주행 제어의 정밀도를 향상시키고 자율 주행 제어 안정성을 개선할 수 있다.The driving control module 614 may perform a function of controlling autonomous driving of the own vehicle, and specifically, driving information and driving information input from the aforementioned driving information input interface 101 and driving information input interface 201, respectively. And, the information on the surrounding objects detected through the sensor unit 500 and the map information stored in the memory 620 are comprehensively used to process the autonomous driving algorithm, and control information is transmitted through the vehicle control output interface 401. In addition, the driving state information and warning information of the own vehicle are transferred to the output unit 300 through the occupant output interface 301 so that the lower control system 400 controls the autonomous driving of the host vehicle. can be made aware of. In addition, when the driving control module 614 integrally controls the autonomous driving as described above, the sensor processing module 611, the driving trajectory generating module 612, and the driving trajectory analysis module 613 analyze the own vehicle And by controlling the autonomous driving in consideration of the driving trajectory of the surrounding vehicle, it is possible to improve the precision of the autonomous driving control and improve the stability of the autonomous driving control.

궤적 학습 모듈(615)은 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 자차량의 실제 주행 궤적에 대한 학습 또는 보정을 수행할 수 있다. 예를 들어, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 메모리(620)에 저장된 지도 정보의 부정확한 것으로 판단하여 자차량의 실제 주행 궤적의 보정이 필요한 것으로 판단할 수 있으며, 이에 따라 자차량의 실제 주행 궤적을 보정하기 위한 횡방향 시프트값을 결정하여 자차량의 주행 궤적을 보정할 수 있다.The trajectory learning module 615 may perform learning or correction on the actual driving trajectory of the own vehicle generated by the own vehicle driving trajectory generating module 612b. For example, if the trajectory error between the actual driving trajectory and the predicted driving trajectory of the surrounding vehicle is greater than a preset threshold value, it is determined that the map information stored in the memory 620 is inaccurate and the actual driving trajectory of the own vehicle needs to be corrected. Accordingly, the driving trajectory of the own vehicle may be corrected by determining a lateral shift value for correcting the actual driving trajectory of the own vehicle.

탑승자 상태 판단 모듈(616)은 전술한 내부 카메라 센서(535) 및 생체 센서에 의해 검출된 탑승자의 상태 및 생체 신호를 토대로 탑승자의 상태 및 거동을 판단할 수 있다. 탑승자 상태 판단 모듈(616)에 의해 판단된 탑승자의 상태는 자차량의 자율 주행 제어 또는 탑승자에 대한 경고를 출력하는 과정에서 활용될 수 있다.The occupant condition determination module 616 may determine the occupant's condition and behavior based on the occupant's condition and biosignal detected by the aforementioned internal camera sensor 535 and the biometric sensor. The occupant's condition determined by the occupant's condition determination module 616 may be utilized in the process of controlling autonomous driving of the own vehicle or outputting a warning to the occupant.

전술한 내용에 기초하여, 이하에서는 자차량의 현재 위치로부터 목적지까지의 경로 상의 소정 구간 별로 주행 궤적 보정에 따른 자율 주행을 제어하는 궤적 기반 제어 및 주행 군집의 주행을 추종하는 군집 추종 제어를 상호 전환하여 수행하는 실시예에 대하여 설명한다.Based on the foregoing, hereinafter, trajectory-based control that controls autonomous driving according to driving trajectory correction for each predetermined section on the route from the current location of the own vehicle to the destination and cluster following control that follows the driving of the driving cluster are mutually switched. An embodiment performed by doing so will be described.

본 실시예의 프로세서(610)는 메모리(620)에 저장된 지도 정보를 토대로 전술한 자차량 주행 궤적 생성 모듈(612)에 의해 생성되는 주행 궤적에 따라 자차량의 자율 주행을 제어할 수 있다. 구체적으로, 프로세서(610)는 센서부(500)가 자차량의 주변 차량을 검출한 결과에 기초하여 자차량의 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 주행 궤적을 보정하여 자차량의 자율 주행을 제어할 수 있다. 상기한 주행 궤적의 보정에 따른 자율 주행 제어를 본 실시예에서 궤적 기반 제어로 정의한다.The processor 610 of this embodiment may control autonomous driving of the own vehicle according to the driving trajectory generated by the aforementioned own vehicle driving trajectory generating module 612 based on map information stored in the memory 620 . Specifically, the processor 610 determines whether or not the driving trajectory of the own vehicle needs to be corrected based on the result of the sensor unit 500 detecting vehicles around the own vehicle, and determines the driving trajectory according to the determination result. It is possible to control the autonomous driving of the own vehicle by correcting it. Autonomous driving control according to the correction of the driving trajectory is defined as trajectory-based control in this embodiment.

궤적 기반 제어에 대하여 구체적으로 설명하면, 전술한 것과 같이 본 실시예의 프로세서(610)(의 주행 궤적 생성 모듈(612))는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 프로세서(610)는 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.In detail, the trajectory-based control is described in detail. As described above, the processor 610 (the driving trajectory generating module 612) of the present embodiment generates the surrounding vehicle based on the driving information of the surrounding vehicle detected by the sensor unit 500. An actual driving trajectory of the vehicle can be generated. That is, when a nearby vehicle is detected at a specific point by the sensor unit 500, the processor 610 cross-references the location of the detected surrounding vehicle with the location on the map information stored in the memory 620, thereby detecting current on map information. The location of the surrounding vehicle may be specified, and the actual driving trajectory of the surrounding vehicle may be generated by continuously monitoring the location of the surrounding vehicle as described above.

그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.And, the processor 610 (the driving trajectory generation module 612) may generate an expected driving trajectory of surrounding vehicles based on the map information stored in the memory 620, in which case the processor 610 may generate An expected driving trajectory may be generated as a center line of a road reflected in map information.

그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 자차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.Further, the processor 610 (the driving trajectory generation module 612) may generate an expected driving trajectory of the own vehicle based on the map information stored in the memory 620, in which case the processor 610 may generate the predicted driving trajectory of the own vehicle. An expected driving trajectory may be generated as a center line of a road reflected in map information.

주변 차량의 실제 주행 궤적 및 예상 주행 궤적과 자차량의 예상 주행 궤적이 생성되면, 프로세서(610)(의 궤적 학습 모듈(615))는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교를 통해 자차량의 예상 주행 궤적의 보정이 필요한지 여부를 판단할 수 있다. 구체적으로, 프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단할 수 있다. 즉, 전술한 것과 같이 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 임계값 이상이면 메모리(620)에 저장된 지도 정보가 부정확한 것으로 판단할 수 있으며, 따라서 메모리(620)에 저장된 지도 정보를 토대로 생성되는 자차량의 예상 주행 궤적 또한 보정될 필요가 있다. 이 경우, 프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교 결과에 기초하여 자차량의 예상 주행 궤적을 보정할 수 있으며, 예를 들어 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 차이만큼 자차량의 예상 주행 궤적을 좌측 또는 우측으로 시프트 시킴으로써 자차량의 예상 주행 궤적을 보정할 수 있다. 이에 따라, 프로세서(610)는 보정된 예상 주행 궤적에 따라 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행할 수 있다.When the actual driving trajectory and the expected driving trajectory of the surrounding vehicle and the expected driving trajectory of the host vehicle are generated, the processor 610 (the trajectory learning module 615 of the vehicle) compares the actual driving trajectory and the expected driving trajectory of the surrounding vehicle to determine the autonomous driving trajectory. It may be determined whether correction of the expected driving trajectory of the vehicle is required. Specifically, the processor 610 may determine that correction of the predicted driving trajectory of the own vehicle is necessary when a trajectory error between the actual driving trajectory and the predicted driving trajectory of the surrounding vehicle is equal to or greater than a preset threshold value. That is, as described above, if the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is greater than or equal to the threshold value, it may be determined that the map information stored in the memory 620 is inaccurate, and thus the map information stored in the memory 620 The predicted driving trajectory of the host vehicle generated based on the ? also needs to be corrected. In this case, the processor 610 may correct the expected driving trajectory of the host vehicle based on a comparison result between the actual driving trajectory and the expected driving trajectory of the surrounding vehicles, and for example, the The predicted driving trajectory of the own vehicle may be corrected by shifting the predicted driving trajectory of the host vehicle to the left or right by the difference. Accordingly, the processor 610 may perform trajectory-based control for controlling autonomous driving of the own vehicle according to the corrected predicted driving trajectory.

한편, 프로세서(610)는 자차량의 목적지까지의 주행 경로(이하 제1 주행 경로)가 복수의 군집 차량으로 형성된 주행 군집의 주행 경로(이하 제2 주행 경로)와 중첩되는 경우, 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어할 수도 있다. 상기한 주행 군집을 추종하는 제어를 본 실시예에서 군집 추종 제어로 정의한다. 주행 군집은 하나의 리더 차량과 하나 이상의 팔로워 차량으로 이루어지는 복수의 군집 차량으로 형성되어 차량 간 통신 방식을 통해 차량 간 주행 정보를 공유하고 외부 환경을 고려하면서 도로를 주행하는 군집을 의미한다. 자차량을 기준으로 V2X(Vehicle to Everything) 또는 V2V(Vehicle to Vehicle) 통신 커버리지에 복수의 주행 군집이 존재할 경우, 프로세서(610)는 각 주행 군집의 각 리더 차량으로부터 각 주행 군집에 대한 정보(예: 리더 차량의 제원 정보, 또는 각 주행 군집의 누적 이동 거리 등)를 수신하여 전술한 사용자 단말(120)을 통해 출력하여 탑승자에게 제공할 수 있으며, 탑승자는 각 주행 군집에 대한 정보를 확인하여 추종하고자 하는 주행 군집을 선택할 수 있다. 만약, 자차량을 기준으로 V2X 또는 V2V 통신 커버리지에 주행 군집이 존재하지 않을 경우, 프로세서(610)는 외부의 별도 서버로부터 각 주행 군집에 대한 정보를 전송받을 수도 있다.On the other hand, the processor 610, when the driving route to the destination of the host vehicle (hereinafter, the first driving route) overlaps with the driving route (hereinafter, the second driving route) of the driving cluster formed by the plurality of group vehicles, the driving of the driving group. It is also possible to control the autonomous driving of the own vehicle to follow. Control following the driving cluster is defined as cluster following control in this embodiment. A driving cluster is formed of a plurality of cluster vehicles consisting of one leader vehicle and one or more follower vehicles, and means a cluster that drives on the road while sharing driving information between vehicles through vehicle-to-vehicle communication and considering the external environment. When a plurality of driving clusters exist in Vehicle to Everything (V2X) or Vehicle to Vehicle (V2V) communication coverage based on the own vehicle, the processor 610 provides information on each driving cluster from each leader vehicle of each driving cluster (eg : Specification information of the leader vehicle, cumulative travel distance of each driving group, etc.) may be received and output through the above-described user terminal 120 to be provided to the occupant, and the occupant may check information on each driving group and follow it. You can select the driving cluster you want to do. If there is no driving cluster in the V2X or V2V communication coverage based on the own vehicle, the processor 610 may receive information on each driving cluster from a separate external server.

상기한 군집 추종 제어를 수행하는 경우, 프로세서(610)는 자차량의 제1 주행 경로와 주행 군집의 제2 주행 경로 간의 중첩이 개시되는 합류 지점으로부터, 제1 주행 경로 및 제2 주행 경로 간의 중첩이 종료되는 탈퇴 지점까지 군집 추종 제어를 수행할 수 있다. 즉, 프로세서(610)는 자차량의 주행 경로와 주행 군집의 주행 경로 간의 중첩 구간에서는 궤적 기반 제어가 아닌 군집 추종 제어를 수행할 수 있다. 이때, 프로세서(610)는 군집 추종 제어를 수행하기 전 복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터, 군집 추종 제어를 수행하기 위한 합류 지점 및 탈퇴 지점을 결정할 수 있으며, 이에 대한 설명은 후술한다.When the cluster following control is performed, the processor 610 determines the overlapping of the first driving route and the second driving route from the merging point where the overlap between the first driving route of the host vehicle and the second driving route of the driving cluster starts. Cluster follow-up control may be performed up to the end of the withdrawal point. That is, the processor 610 may perform cluster following control rather than trajectory-based control in an overlapping section between the driving route of the own vehicle and the driving route of the driving cluster. In this case, the processor 610 may determine a joining point and a leaving point for performing the cluster following control from the plurality of candidate joining points and the plurality of candidate leaving points before performing the cluster following control, which will be described later. .

본 실시예에서 프로세서(610)는 미리 정의된 제어 전환 조건의 충족 여부에 따라 궤적 기반 제어 및 군집 추종 제어를 상호 전환하여 수행할 수 있으며, 상기 제어 전환 조건은 궤적 기반 제어로부터 군집 추종 제어로 전환하기 위한 군집 추종 제어 전환 조건과, 군집 추종 제어로부터 궤적 기반 제어로 전환하기 위한 궤적 기반 제어 전환 조건을 포함할 수 있다. 즉, 프로세서(610)는 자차량의 주행 환경에 따른 제어 전환 조건의 충족 여부에 따라 궤적 기반 제어 및 군집 추종 제어를 상호 전환하여 수행함으로써, 자차량의 자율 주행 제어 연산 부하를 저감하고 목적지까지 도달하는 과정에서 차량의 주행 제어에 대한 탑승자의 개입을 최소화하여 탑승자의 편의성을 개선되도록 함과 동시에 최단 시간에 목적지까지 도달하도록 할 수 있다.In this embodiment, the processor 610 may switch between trajectory-based control and cluster following control according to whether a predefined control switching condition is satisfied, and the control switching condition converts from trajectory-based control to cluster following control. and a trajectory-based control switching condition for switching from cluster following control to trajectory-based control. That is, the processor 610 switches between trajectory-based control and cluster following control according to whether or not the control conversion condition according to the driving environment of the own vehicle is satisfied, thereby reducing the autonomous driving control computational load of the own vehicle and reaching the destination In the process, the occupant's intervention in driving control of the vehicle is minimized, so that the occupant's convenience is improved and at the same time, it is possible to reach the destination in the shortest time.

제어 전환 조건의 충족 여부에 따라 궤적 기반 제어 및 군집 추종 제어가 상호 전환되는 구성에 대하여 설명하면, 프로세서(610)는 먼저 자차량의 현재 위치를 시점으로 하여 궤적 기반 제어를 수행할 수 있으며, 자차량의 현재 위치로부터 궤적 기반 제어를 수행하는 과정에서 자차량이 합류 지점에 도달한 경우, 군집 추종 제어 전환 조건이 충족된 것으로 판단하여 군집 추종 제어를 수행할 수 있다.Referring to a configuration in which trajectory-based control and cluster following control are mutually switched depending on whether a control switching condition is satisfied, the processor 610 may first perform trajectory-based control with the current location of the own vehicle as a starting point. When the host vehicle arrives at a merging point in the process of performing trajectory-based control from the current location of the vehicle, it is determined that the flock following control transition condition is satisfied, and cluster following control may be performed.

즉, 프로세서(610)는 자차량의 현재 위치로부터 합류 지점까지는 궤적 기반 제어를 수행할 수 있으며, 자차량이 합류 지점에 도달하면 자차량의 제어를 궤적 기반 제어로부터 군집 추종 제어로 전환할 수 있다. 프로세서(610)는 합류 지점에 도달하기 전(예: 1km 전) 출력부(300)를 통해 알람을 출력하여 탑승자로 하여금 주행 군집으로의 합류를 인지하도록 할 수도 있다. 궤적 기반 제어로부터 군집 추종 제어로 전환되면, 프로세서(610)는 주행 군집의 리더 차량에게 주행 군집 합류 요청을 송신하고 리더 차량의 승인을 수신하면 자차량이 주행 군집에 합류하도록 할 수 있으며, 주행 군집의 대열을 흐트러지지 않는 범위 내에서 주행 군집 내 소정 위치로 자차량이 합류하도록 할 수 있다.That is, the processor 610 may perform trajectory-based control from the current location of the own vehicle to the merging point, and when the own vehicle reaches the merging point, the control of the own vehicle may be switched from the trajectory-based control to the cluster following control. . The processor 610 may output an alarm through the output unit 300 before reaching the merging point (eg, 1 km before) so that the occupants may recognize that they are merging into the driving group. When transitioning from trajectory-based control to cluster following control, the processor 610 may send a driving cluster joining request to the leader vehicle of the driving cluster and, upon receiving approval from the leader vehicle, allow the host vehicle to join the driving cluster, It is possible to allow the own vehicle to join a predetermined position within the driving cluster within a range in which the ranks of the vehicles are not disturbed.

프로세서(610)는 합류 지점으로부터 군집 추종 제어를 수행하는 과정에서 자차량이 탈퇴 지점에 도달한 경우, 궤적 기반 제어 전환 조건이 충족된 것으로 판단하여 궤적 기반 제어를 수행할 수 있다.The processor 610 may perform trajectory-based control by determining that the trajectory-based control transition condition is satisfied when the host vehicle reaches the exit point in the process of performing cluster following control from the confluence point.

즉, 프로세서(610)는 합류 지점으로부터 탈퇴 지점까지는 군집 추종 제어를 수행할 수 있으며, 자차량이 탈퇴 지점에 도달하면 자차량의 제어를 군집 추종 제어로부터 궤적 기반 제어로 다시 전환할 수 있다. 프로세서(610)는 탈퇴 지점에 도달하기 전(예: 1km 전) 출력부(300)를 통해 알람을 출력하여 탑승자로 하여금 주행 군집으로부터의 탈퇴를 인지하도록 할 수도 있다.That is, the processor 610 may perform cluster following control from the joining point to the leaving point, and when the own vehicle reaches the leaving point, the processor 610 may switch the control of the own vehicle from cluster following control to trajectory based control again. The processor 610 may output an alarm through the output unit 300 before reaching the departure point (eg, 1 km before) so that the occupant may recognize the withdrawal from the driving group.

한편, 전술한 것과 같이 프로세서(610)는 복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터 합류 지점 및 탈퇴 지점을 결정할 수 있으며, 본 실시예에서 프로세서(610)는 자차량이 현재 위치로부터 목적지까지 도달하는데 소요되는 시간을 기준으로 합류 지점 및 탈퇴 지점을 결정할 수 있다.Meanwhile, as described above, the processor 610 may determine a joining point and a leaving point from a plurality of candidate joining points and a plurality of candidate leaving points. Joining and exiting points can be determined based on the time required to reach them.

구체적으로, 프로세서(610)는 궤적 기반 제어를 기반으로 자차량이 현재 위치로부터 후보 합류 지점에 도달하는데 소요되는 시간과, 군집 추종 제어를 기반으로 자차량이 후보 합류 지점으로부터 후보 탈퇴 지점에 도달하는데 소요되는 시간과, 궤적 기반 제어를 기반으로 후보 탈퇴 지점으로부터 목적지에 도달하는데 소요되는 시간의 합인 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 각각 합류 지점 및 탈퇴 지점으로 결정할 수 있다.Specifically, the processor 610 determines the time required for the host vehicle to reach the candidate joining point from the current location based on the trajectory-based control and the time required for the own vehicle to reach the candidate joining point from the candidate joining point based on the cluster following control. A candidate joining point and a candidate leaving point at which the total required time, which is the sum of the required time and the time required to reach the destination from the candidate leaving point based on the trajectory-based control, are minimized, may be determined as the joining point and the leaving point, respectively.

즉, 프로세서(610)는 제1 및 제2 주행 경로 간의 중첩이 개시되는 복수의 후보 합류 지점을 확인하고, 제1 및 제2 주행 경로 간의 중첩이 종료되는 복수의 후보 탈퇴 지점을 확인할 수 있으며, 상기와 같이 확인된 복수의 후보 합류 지점 및 후보 탈퇴 지점 중 목적지까지 도달하는데 소요되는 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 상기한 합류 지점 및 탈퇴 지점으로 결정할 수 있다. 나아가, 합류 지점 및 탈퇴 지점을 결정할 때, 프로세서(610)는 각 후보 합류 지점 및 후보 탈퇴 지점의 혼잡도 또는 사고 위험도와 같은 합류 및 탈퇴 용이성을 더 고려할 수도 있다.That is, the processor 610 may identify a plurality of candidate joining points where the overlap between the first and second driving routes starts, and identify a plurality of candidate exit points where the overlap between the first and second driving routes ends; Among the plurality of candidate joining points and candidate leaving points confirmed as described above, a candidate joining point and a candidate leaving point at which a total time required to reach a destination is minimized may be determined as the joining point and the leaving point. Furthermore, when determining joining points and leaving points, the processor 610 may further consider ease of joining and leaving, such as a degree of congestion or an accident risk of each candidate joining point and candidate leaving point.

이상에서는 자차량 레벨에서 궤적 기반 제어 및 군집 추종 제어를 상호 전환하여 수행하는 구성에 대하여 설명하였으며, 전술한 구성과 함께 본 실시예는 군집 주행을 수행하는 주행 군집 레벨에서 주변 객체를 센싱하기 위해 요구되는 시스템의 총 리소스를 저감시키는 구성을 제시한다.In the above, the configuration in which trajectory-based control and cluster following control are mutually switched at the own vehicle level has been described, and along with the above-described configuration, this embodiment requires to sense surrounding objects in the driving cluster level that performs cluster driving. We present a configuration that reduces the total resource of the system to be

구체적으로, 프로세서(610)는 자차량이 주행 군집에 합류된 후 군집 추종 제어를 수행할 때, 주행 군집에 속하는 군집 차량에 대한 자차량의 상대적인 위치에 따라 센서부(500)의 주변 객체 검출 영역을 가변시킬 수 있다.Specifically, when the processor 610 performs cluster following control after the host vehicle joins the driving cluster, the surrounding object detection area of the sensor unit 500 according to the relative position of the own vehicle to the cluster vehicles belonging to the driving cluster. can be varied.

즉, 주행 군집에 속하는 복수의 군집 차량은 동일한 주행 환경 하에서 주행이 이루어지기 때문에, 각 군집 차량이 각각에 장착된 센싱 장치를 통해 주변의 모든 객체를 검출하기보다는, 각 군집 차량의 주행 군집 내에서의 위치에 따라 주변 객체 검출 영역을 분리하여 해당 주변 객체 검출 영역에 대해서만 주변 객체를 검출한 후, 그 검출 결과를 군집 차량 간 공유하는 방식이 각 군집 차량의 시스템 리소스 저감 측면에서 더 효율적일 수 있다. 상기와 같은 주행 군집 레벨에서의 주변 객체 검출 영역 분리를 구현하기 위해, 본 실시예의 프로세서(610)는 주행 군집에 속하는 군집 차량에 대한 자차량의 상대적인 위치에 따라 센서부(500)의 주변 객체 검출 영역을 가변시키도록 동작할 수 있다.That is, since a plurality of group vehicles belonging to the driving cluster drive under the same driving environment, rather than detecting all objects around each group vehicle through a sensing device mounted thereon, each group vehicle within the driving cluster A method of separating the surrounding object detection area according to the location of the surrounding object detection area, detecting the surrounding object only for the corresponding surrounding object detection area, and then sharing the detection result among group vehicles may be more efficient in terms of reducing system resources of each group vehicle. In order to realize the separation of the surrounding object detection area at the driving cluster level as described above, the processor 610 of the present embodiment detects the surrounding objects of the sensor unit 500 according to the relative position of the own vehicle to the cluster vehicles belonging to the driving cluster. It can operate to change the area.

주행 군집 내에서의 자차량의 상대 위치에 따라 센서부(500)의 주변 객체 검출 영역을 가변시키는 기능을 구현하기 위해, 프로세서(610)는 군집 추종 제어를 수행하는 경우, 미리 정의된 그룹 분류 알고리즘을 이용하여 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하고, 각 주행 그룹 중 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 센서부(500)의 주변 객체 검출 영역을 가변시킬 수 있다. 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하기 위한 그룹 분류 알고리즘은 다양한 설계 방식을 통해 구현될 수 있으며, 이를테면 군집 차량 간의 V2V 통신을 토대로 리더 차량의 위치 및 최후미 차량의 위치를 파악하고, 파악된 위치를 이용하여 주행 군집의 종방향(즉, 주행 방향) 길이를 산출한 후, 산출된 종방향 길이를 기준으로 복수 개의 주행 그룹으로 구분하는 알고리즘으로 구현될 수 있다.In order to implement a function of varying the surrounding object detection area of the sensor unit 500 according to the relative position of the host vehicle within the driving cluster, the processor 610 performs a cluster following control using a predefined group classification algorithm. The driving group is classified into a preceding driving group, a middle driving group, and a trailing driving group by using, and a driving group to which the host vehicle belongs is determined among each driving group, and the surrounding object detection area of the sensor unit 500 is determined according to the determination result. can be variable. A group classification algorithm for classifying a driving cluster into a leading driving group, a middle driving group, and a trailing driving group can be implemented through various design methods. It can be implemented as an algorithm that identifies and calculates the longitudinal (i.e., driving direction) length of the driving cluster using the identified location, and then divides into a plurality of driving groups based on the calculated longitudinal length.

주행 군집이 복수의 주행 그룹으로 분류되면, 프로세서(610)는 각 주행 그룹 중 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 센서부(500)의 주변 객체 검출 영역을 가변시킬 수 있다. 구체적으로, 프로세서(610)는 자차량이 선행 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 전방(전측방을 포함하는 것으로 정의한다)의 주변 객체를 검출하고(즉, 센서부(500)의 주변 객체 검출 영역을 전방 영역으로 변경시키고), 자차량이 미들 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 측방의 주변 객체를 검출하며(즉, 센서부(500)의 주변 객체 검출 영역을 측방 영역으로 변경시키며), 자차량이 후행 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 후방(후측방을 포함하는 것으로 정의한다)의 주변 객체를 검출할 수 있다(즉, 센서부(500)의 주변 객체 검출 영역을 후방 영역으로 변경시킬 수 있다).If the driving group is classified into a plurality of driving groups, the processor 610 may determine a driving group to which the host vehicle belongs among the driving groups and change the surrounding object detection area of the sensor unit 500 according to the determination result. Specifically, the processor 610 detects surrounding objects in front of the host vehicle (defined as including the front side) through the sensor unit 500 when the host vehicle belongs to the preceding driving group (ie, the sensor unit ( 500) is changed to the front area), and when the vehicle belongs to the middle driving group, the sensor unit 500 detects the surrounding objects on the side of the vehicle (ie, the sensor unit 500 The surrounding object detection area is changed to the side area), and when the own vehicle belongs to the following driving group, the surrounding object behind the own vehicle (defined as including the rear side) may be detected through the sensor unit 500. (That is, the surrounding object detection area of the sensor unit 500 may be changed to the rear area).

센서부(500)의 주변 객체 검출 영역이 전방 영역으로 변경된다 함은 전방 영역을 검출하기 위한 센서(즉, 전방 라이다 센서(511), 전방 레이더 센서(521), 전방 카메라 센서(531))는 반드시 활성화되고 다른 센서는 주행 환경에 따라 선택적으로 활성화되는 것을 의미할 수 있고, 센서부(500)의 주변 객체 검출 영역이 측방 영역으로 변경된다 함은 측방 영역을 검출하기 위한 센서(즉, 좌측 레이더 센서(522), 우측 레이더 센서(522), 좌측 카메라 센서(532), 우측 카메라 센서(533))는 반드시 활성화되고 다른 센서는 주행 환경에 따라 선택적으로 활성화되는 것을 의미할 수 있으며, 센서부(500)의 주변 객체 검출 영역이 후방 영역으로 변경된다 함은 후방 영역을 검출하기 위한 센서(즉, 후방 라이더 센서(513), 후방 레이더 센서(524), 후방 카메라 센서(534))는 반드시 활성화되고 다른 센서는 주행 환경에 따라 선택적으로 활성화되는 것을 의미할 수 있다.The fact that the surrounding object detection area of the sensor unit 500 is changed to the front area means a sensor for detecting the front area (ie, front lidar sensor 511, front radar sensor 521, front camera sensor 531) is necessarily activated and other sensors may be selectively activated according to the driving environment, and that the surrounding object detection area of the sensor unit 500 is changed to the lateral area means that the sensor for detecting the lateral area (ie, the left This may mean that the radar sensor 522, the right radar sensor 522, the left camera sensor 532, and the right camera sensor 533) are necessarily activated and other sensors are selectively activated according to the driving environment. If the surrounding object detection area of 500 is changed to the rear area, the sensors for detecting the rear area (ie, the rear lidar sensor 513, the rear radar sensor 524, and the rear camera sensor 534) must be activated. and other sensors may be selectively activated according to the driving environment.

나아가, 도 7에 도시된 것과 같이 복수의 군집 차량이 한 개의 차로로 군집 주행 중인 경우를 고려할 때, 전술한 선행 주행 그룹 및 후행 주행 그룹은 리더 차량 및 최후미 차량만이 해당하고, 미들 주행 그룹은 리더 차량 및 최후미 차량 사이에 위치한 군집 차량들이 해당할 수도 있으며, 이와 같은 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹을 분류하기 위한 그룹 분류 알고리즘이 설계자에 의해 미리 정의되어 있을 수도 있다. 도 7의 예시에서 자차량의 센서부(500)의 주변 객체 검출 영역은, 자차량이 선행 주행 그룹에 속할 경우(즉, 리더 차량일 경우) 전방 영역 및 측방 영역이 되고, 미들 주행 그룹에 속할 경우 측방 영역이 되며, 후행 주행 그룹에 속할 경우(즉, 최후미 차량일 경우) 후방 영역 및 측방 영역이 된다.Furthermore, as shown in FIG. 7 , considering the case where a plurality of group vehicles are group driving on one lane, only the leader vehicle and the last vehicle correspond to the preceding driving group and the trailing driving group, and the middle driving group may correspond to clustered vehicles located between the leader vehicle and the last vehicle, and a group classification algorithm for classifying such a preceding driving group, a middle driving group, and a following driving group may be predefined by a designer. In the example of FIG. 7 , the surrounding object detection area of the sensor unit 500 of the host vehicle becomes the front area and the side area when the host vehicle belongs to the preceding driving group (ie, the leader vehicle), and belongs to the middle driving group. When the vehicle belongs to the following driving group (ie, the last vehicle), it becomes the rear area and the side area.

상기와 같은 프로세서(610)의 기능이 주행 군집에 속하는 각 군집 차량에 적용될 경우, 각 군집 차량은 주행 군집 내에서의 위치에 따라 각 차량에 장착된 센서부(500)의 주변 객체 검출 영역을 가변시키도록 동작하게 된다. 이에 따라, 선행 주행 그룹에 속하는 군집 차량은 주행 군집의 전방의 주변 객체를 검출하게 되고, 미들 주행 그룹에 속하는 군집 차량은 주행 군집의 측방의 주변 객체를 검출하게 되며, 후행 주행 그룹에 속하는 군집 차량은 주행 군집의 후방의 주변 객체를 검출하게 된다. 따라서, 주행 군집의 전방, 좌우측방 및 후방에 대한 주변 객체 검출을 주행 군집에 속하는 각 군집 차량이 분담하여 수행하게 되기 때문에, 주행 군집 레벨에서 보면 주변 객체를 검출하기 위해 요구되는 시스템의 총 리소스를 크게 절감할 수 있게 된다.When the function of the processor 610 as described above is applied to each cluster vehicle belonging to a driving cluster, each cluster vehicle varies the surrounding object detection area of the sensor unit 500 mounted on each vehicle according to its location within the driving cluster. it works to make it happen. Accordingly, cluster vehicles belonging to the preceding driving group detect surrounding objects in front of the driving cluster, cluster vehicles belonging to the middle driving group detect surrounding objects on the side of the driving cluster, and cluster vehicles belonging to the trailing driving group. detects surrounding objects behind the driving cluster. Therefore, since the surrounding object detection for the front, left and right sides, and rear of the driving cluster is shared by each group vehicle belonging to the driving cluster, the total resource of the system required for detecting the surrounding object at the driving cluster level is reduced. you can make huge savings.

한편, 프로세서(610)는 군집 추종 제어를 수행할 때 주행 군집 내에서의 자차량의 상대 위치에 따라 센서부(500)의 주변 객체 검출 영역을 가변시키는 동작과 더불어, 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 센서부(500)의 센싱 파라미터를 제어할 수도 있으며, 여기서 센싱 파라미터는 센서의 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하는 것으로 정의될 수 있다.Meanwhile, when performing cluster following control, the processor 610 varies the surrounding object detection area of the sensor unit 500 according to the relative position of the own vehicles in the driving cluster, and the processor 610, respectively, installed in each cluster vehicle. The sensing parameter of the sensor unit 500 may be controlled to have a value mutually dependent on the sensing parameter of the sensor device, wherein the sensing parameter includes at least one of a field of view (FOV) of the sensor and a sensor output. can be defined

자차량의 센서부(500)의 센싱 파라미터와, 각 군집 차량의 센서 장치의 센싱 파라미터가 상호 의존적인 관계를 갖는 것은, 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화되기 위한 수단으로서 기능한다. 구체적으로, 자차량과 타 군집 차량은 하나의 주행 군집을 형성하여 주행하고 있기 때문에 자차량의 센서부(500)에 의한 주변 객체 검출 영역과 타 군집 차량의 센서 장치의 주변 객체 검출 영역은 중복될 수 있으며, 반대로 하나의 주행 군집을 형성하여 주행하고 있는 경우라도 자차량과 타 군집 차량 간의 거리가 먼 경우에는 자차량의 센서부(500) 및 타 군집 차량의 센서 장치를 통해 주변 객체를 검출할 수 없는 사각 영역이 존재할 수 있다. 상기와 같이 자차량의 센서부(500) 및 타 군집 차량 간의 센서 장치의 각 주변 객체 검출 영역이 중복될 경우, 주행 군집 레벨에서 볼 때 불필요한 전력 및 리소스의 소모가 야기되며, 따라서 이를 제거하기 위해서는 자차량의 센서부(500) 및 타 군집 차량의 센서 장치의 화각의 중첩 범위가 최소화되도록 그 화각이 제어될 필요가 있다. 또한, 상기한 것과 같이 사각 영역이 존재할 경우에도 자차량의 센서부(500) 및 타 군집 차량의 센서 장치 중 하나 이상의 화각을 확장하여 사각 영역이 제거되도록 화각 제어의 필요성이 발생한다.Having a mutually dependent relationship between the sensing parameters of the sensor unit 500 of the own vehicle and the sensing parameters of the sensor devices of each group vehicle is a means for optimizing the detection area and detection performance for surrounding objects at the driving cluster level. function as Specifically, since the own vehicle and other group vehicles form one driving cluster and travel, the surrounding object detection area by the sensor unit 500 of the own vehicle and the surrounding object detection area of the sensor device of other group vehicles may overlap. Conversely, even when driving in one driving cluster, if the distance between the own vehicle and other cluster vehicles is long, surrounding objects can be detected through the sensor unit 500 of the own vehicle and the sensor devices of other cluster vehicles. A blind area may exist. As described above, when each surrounding object detection area of the sensor device between the sensor unit 500 of the own vehicle and other group vehicles overlaps, unnecessary consumption of power and resources is caused when viewed from the driving cluster level. The angle of view needs to be controlled so that the overlapping range of the angle of view of the sensor unit 500 of the own vehicle and the sensor devices of other group vehicles is minimized. Also, as described above, even when a blind spot exists, it is necessary to control the view angle to remove the blind spot by expanding the view angle of one or more of the sensor unit 500 of the own vehicle and the sensor devices of other group vehicles.

나아가, 주행 환경에 따라서는 주변 객체에 대한 검출 중요도가 변화할 수 있으며, 이를테면 주행 군집 주변에 다수의 타차량이 존재하거나 사고가 빈번히 발생하는 지점과 같이 복잡도 및 위험도가 높은 주행 환경에서는 주변 객체에 대한 검출 중요도가 높다고 할 수 있으며, 반대로 주행 군집 주변에 존재하는 타차량이 적고 가드레일 또는 중앙 분리대와 같은 고정 시설물이 연속적으로 존재하여 그 사고 위험성이 낮은 주행 환경에서는 주변 객체에 대한 검출 중요도가 상대적으로 낮다고 할 수 있다. 이러한 주행 환경에 따른 주변 객체 검출 중요도에 대한 고려 없이 일정한 센서 출력만을 이용하여 주변 객체를 검출할 경우, 그 중요도가 높은 주변 객체에 대한 검출이 누락될 수 있고, 또한 중요도가 낮은 주변 객체를 높은 센서 출력을 통해 검출할 수도 있게 되어 차량의 불필요한 전력 소모가 야기될 수 있다.Furthermore, the importance of detection of surrounding objects may change depending on the driving environment. Conversely, in a driving environment where the risk of accidents is low because there are few other vehicles around the driving cluster and fixed facilities such as guardrails or median barriers continuously exist, the importance of detection for surrounding objects is relatively high. can be said to be low. When a nearby object is detected using only a constant sensor output without considering the importance of detecting the surrounding object according to the driving environment, the detection of the surrounding object having a high importance may be missed, and the surrounding object having a low importance may be detected by a high sensor. It can also be detected through the output, which may cause unnecessary power consumption of the vehicle.

상술한 문제점을 해결하기 위해, 본 실시예의 프로세서(610)는 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 센서부(500)의 센싱 파라미터, 즉 화각 및 센서 출력 중 하나 이상을 제어할 수 있다. 이때, 프로세서(610)는 주행 군집의 리더 차량으로부터 전송되는 센서 조정 신호에 따라 센서부(500)의 센싱 파라미터를 제어할 수 있으며, 상기한 센서 조정 신호는 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록, 주행 군집의 주행 환경 및 주행 군집 내에서의 각 군집 차량의 위치에 기초하여 리더 차량에 의해 각 군집 차량 별로 생성되어 각 군집 차량으로 각각 전송되는 신호로 정의될 수 있다.In order to solve the above problem, the processor 610 according to the present embodiment is configured to have a value interdependent with the sensing parameters of the sensor devices mounted on each group vehicle, that is, among the sensing parameters of the sensor unit 500, that is, the angle of view and sensor output. You can control more than one. At this time, the processor 610 may control the sensing parameter of the sensor unit 500 according to the sensor adjustment signal transmitted from the leader vehicle of the driving cluster, and the sensor adjustment signal detects surrounding objects at the level of the driving cluster. It is defined as a signal generated for each group vehicle by the leader vehicle based on the driving environment of the driving cluster and the position of each cluster vehicle within the driving cluster and transmitted to each cluster vehicle so that the area and detection performance can be optimized. can

리더 차량의 기준에서 볼 때, 리더 차량에 장착된 센서 장치 또는 외부 서버와 통신하는 내비게이션 단말 등을 통해 주행 군집의 주행 환경(예: 주행 군집 주변에 다수의 타차량이 존재하는지 여부, 또는 현재의 주행 지점이 사고가 빈번히 발생하는 지점에 해당하는지 여부)을 파악할 수 있으며, 또한 V2V 통신을 기반으로 각 군집 차량의 위치를 파악할 수 있다. 이에 따라, 리더 차량은 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록 하기 위한 센서 조정 신호를 각 군집 차량 별로 생성할 수 있다. 각 군집 차량은 리더 차량으로부터 자신에게 할당된 센서 조정 신호를 전송받아 장착된 센서 장치의 화각 및 센서 출력 중 하나 이상을 조정할 수 있으며, 자차량도 마찬가지로 리더 차량으로부터 자차량에게 할당된 센서 조정 신호를 전송받아 센서부(500)의 화각 및 센서 출력 중 하나 이상을 조정할 수 있다.From the point of view of the leader vehicle, the driving environment of the driving group (e.g., whether there are many other vehicles around the driving group, or the current Whether the driving point corresponds to a point where accidents frequently occur) can be identified, and the location of each grouped vehicle can be identified based on V2V communication. Accordingly, the leader vehicle may generate a sensor adjustment signal for each group vehicle to optimize the detection area and detection performance of surrounding objects at the driving cluster level. Each group vehicle can receive the sensor adjustment signal assigned to it from the leader vehicle and adjust one or more of the angle of view and sensor output of the sensor device equipped with it. Upon reception, one or more of the angle of view of the sensor unit 500 and the sensor output may be adjusted.

만약, 자차량이 주행 군집의 리더 차량의 지위에 있는 경우 전술한 리더 차량의 동작이 자차량에 의해 수행될 수 있으며, 즉 자차량은 센서부(500)에 의해 주변 객체가 검출된 결과 및 주행 군집 내에서의 각 군집 차량의 위치에 기초하여 주행 군집에 속하는 각 군집 차량 별로 센서 조정 신호를 각각 생성한 후 각 군집 차량으로 각각 전송할 수 있다.If the host vehicle is in the position of the leader vehicle of the driving cluster, the above-described operation of the leader vehicle may be performed by the host vehicle, that is, the host vehicle may perform the detection result of the surrounding object by the sensor unit 500 and the driving Sensor adjustment signals may be generated for each group vehicle belonging to the driving cluster based on the location of each group vehicle within the cluster, and then transmitted to each group vehicle.

나아가, 전술한 주행 군집 내에서의 자차량의 상대 위치에 따라 센서부(500)의 주변 객체 검출 영역이 가변되는 구성과, 센서 조정 신호에 의해 센서부(500)의 센싱 파라미터가 제어되는 구성은 상호 보완적으로 결합되어 이루어질 수도 있다. 즉, 주행 군집에 속하는 군집 차량에 대한 자차량의 상대적인 위치에 따라 센서부(500)의 주변 객체 검출 영역이 가변된 상태에서, 리더 차량으로부터 전송되는 센서 조정 신호에 의해 센서부(500)의 센싱 파라미터가 제어되는 실시예가 구현될 수도 있으며, 이에 따라 주행 군집 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최대화될 수 있다.Furthermore, the configuration in which the surrounding object detection area of the sensor unit 500 is varied according to the relative position of the host vehicle within the aforementioned driving group and the configuration in which the sensing parameter of the sensor unit 500 is controlled by the sensor adjustment signal are They may be combined in a complementary manner. That is, sensing of the sensor unit 500 by the sensor adjustment signal transmitted from the leader vehicle in a state where the surrounding object detection area of the sensor unit 500 is changed according to the relative position of the own vehicle to the group vehicles belonging to the driving cluster. An embodiment in which parameters are controlled may be implemented, whereby the detection area and detection performance for surrounding objects at the driving cluster level may be maximized.

도 8 및 도 9는 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.8 and 9 are flowcharts for explaining an autonomous driving method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 자율 주행 방법은 프로세서(610)가, 센서부(500)가 자차량의 주변 차량을 검출한 결과에 기초하여 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 예상 주행 궤적을 보정하여 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하는 S100 단계와, 프로세서(610)가, 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하는 S200 단계를 포함할 수 있다. 이때, 프로세서(610)는 미리 정의된 제어 전환 조건의 충족 여부에 따라 S100 단계 및 S200 단계를 상호 전환하여 수행할 수 있다.Referring to FIG. 8 , in an autonomous driving method according to an embodiment of the present invention, a processor 610 corrects an expected driving trajectory of the own vehicle based on a result of the sensor unit 500 detecting vehicles around the own vehicle Step S100 of determining whether it is necessary to do so, and performing trajectory-based control for controlling autonomous driving of the host vehicle by correcting the expected driving trajectory according to the determination result, and When the first driving route overlaps with the second driving route of a driving cluster formed by a plurality of group vehicles, a step S200 of performing cluster following control for controlling autonomous driving of own vehicles to follow the driving of the driving cluster may be included. there is. In this case, the processor 610 may switch and perform steps S100 and S200 depending on whether a predefined control conversion condition is satisfied.

S100 단계에서, 프로세서(610)는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성하고, 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성하며, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 자차량의 예상 주행 궤적을 보정할 필요가 있는 것으로 판단한다. 이에 따라, 프로세서(610)는 보정된 예상 주행 궤적에 따라 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행한다.In step S100, the processor 610 generates an actual driving trajectory of the surrounding vehicle based on the driving information of the surrounding vehicle detected by the sensor unit 500, and calculates the driving trajectory of the surrounding vehicle based on the map information stored in the memory 620. An expected driving trajectory is generated, and when the trajectory error between the actual driving trajectory and the predicted driving trajectory of the surrounding vehicle is greater than or equal to a preset threshold value, it is determined that the predicted driving trajectory of the own vehicle needs to be corrected. Accordingly, the processor 610 performs trajectory-based control for controlling autonomous driving of the own vehicle according to the corrected expected driving trajectory.

S200 단계에서, 자차량이 목적지까지 주행하는 방향을 기준으로, 제1 및 제2 주행 경로 간의 중첩이 개시되는 합류 지점으로부터, 제1 및 제2 주행 경로 간의 중첩이 종료되는 탈퇴 지점까지 군집 추종 제어를 수행한다.In step S200, based on the driving direction of the host vehicle to the destination, cluster following control from the merging point where the overlap between the first and second travel routes starts to the exit point where the overlap between the first and second travel routes ends. do

제어 전환 조건의 충족 여부에 따라 궤적 기반 제어 및 군집 추종 제어가 상호 전환되는 구성에 대하여 도 9를 참조하여 설명하면, 프로세서(610)는 자차량의 현재 위치로부터 궤적 기반 제어를 수행하는 과정에서(S10) 자차량이 합류 지점에 도달한 경우(S20), 군집 추종 제어 전환 조건이 충족된 것으로 판단하여 군집 추종 제어를 수행하며(S30), 또한 합류 지점으로부터 군집 추종 제어를 수행하는 과정에서 자차량이 탈퇴 지점에 도달한 경우(S40), 궤적 기반 제어 전환 조건이 충족된 것으로 판단하여 궤적 기반 제어를 수행한다(S50).Referring to FIG. 9 for a configuration in which trajectory-based control and cluster following control are switched depending on whether or not a control switching condition is satisfied, the processor 610 performs trajectory-based control from the current location of the host vehicle ( S10) When the host vehicle reaches the convergence point (S20), it is determined that the flock following control transition condition is satisfied and cluster following control is performed (S30), and the host vehicle is performed in the process of performing cluster following control from the confluence point (S30). When this withdrawal point is reached (S40), it is determined that the condition for switching to the trajectory-based control is satisfied, and the trajectory-based control is performed (S50).

프로세서(610)는 복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터 군집 추종 제어를 수행하기 위한 합류 지점 및 탈퇴 지점을 결정하며, 자차량이 목적지까지 도달하는데 소요되는 시간을 최소화하기 위해, S200 단계에서 궤적 기반 제어를 기반으로 자차량이 현재 위치로부터 후보 합류 지점에 도달하는데 소요되는 시간과, 군집 추종 제어를 기반으로 자차량이 후보 합류 지점으로부터 후보 탈퇴 지점에 도달하는데 소요되는 시간과, 궤적 기반 제어를 기반으로 후보 탈퇴 지점으로부터 목적지에 도달하는데 소요되는 시간의 합인 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 각각 합류 지점 및 탈퇴 지점으로 결정한다.The processor 610 determines a joining point and a leaving point for performing cluster following control from a plurality of candidate joining points and a plurality of candidate leaving points, and in order to minimize the time required for the own vehicle to reach the destination, step S200. The time required for the own vehicle to reach the candidate joining point from the current position based on the trajectory-based control, the time required for the own vehicle to reach the candidate joining point from the candidate joining point based on the swarm following control, and the trajectory based Based on the control, a candidate joining point and a candidate leaving point at which a total required time, which is the sum of times required to reach a destination from a candidate leaving point, are minimized are determined as the joining point and the leaving point, respectively.

한편, S200 단계에서, 프로세서(610)는 미리 정의된 그룹 분류 알고리즘을 이용하여 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하고, 각 주행 그룹 중 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 센서부(500)의 주변 객체 검출 영역을 가변시킬 수 있다. 구체적으로, 프로세서(610)는 자차량이 선행 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 전방의 주변 객체를 검출하고, 자차량이 미들 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 측방의 주변 객체를 검출하며, 자차량이 후행 주행 그룹에 속하는 경우 센서부(500)를 통해 자차량의 후방의 주변 객체를 검출할 수 있다.Meanwhile, in step S200, the processor 610 classifies the driving group into a preceding driving group, a middle driving group, and a following driving group using a predefined group classification algorithm, and determines a driving group to which the own vehicle belongs among each driving group. Accordingly, the surrounding object detection area of the sensor unit 500 may be varied according to the determination result. Specifically, the processor 610 detects surrounding objects in front of the host vehicle through the sensor unit 500 when the host vehicle belongs to the preceding driving group, and detects the sensor unit 500 when the host vehicle belongs to the middle driving group. Objects around the side of the own vehicle are detected through the sensor unit 500, and when the vehicle belongs to the following driving group, objects around the rear of the own vehicle can be detected through the sensor unit 500.

또한, S200 단계에서, 프로세서(610)는 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 센서부(500)의 센싱 파라미터를 제어할 수도 있다. 구체적으로, 프로세서(610)는 주행 군집의 리더 차량으로부터 전송되는 센서 조정 신호에 따라 센서부(500)의 센싱 파라미터를 제어할 수 있으며, 센서 조정 신호는 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록, 주행 군집의 주행 환경 및 주행 군집 내에서의 각 군집 차량의 위치에 기초하여 리더 차량에 의해 각 군집 차량 별로 생성되어 각 군집 차량으로 각각 전송되는 신호로 정의될 수 있다. 만약, 자차량이 주행 군집의 리더 차량의 지위에 있는 경우, 프로세서(610)는 센서부(500)에 의해 주변 객체가 검출된 결과 및 주행 군집 내에서의 각 군집 차량의 위치에 기초하여 주행 군집에 속하는 각 군집 차량 별로 센서 조정 신호를 각각 생성한 후 각 군집 차량으로 각각 전송할 수도 있다.In addition, in step S200, the processor 610 may control the sensing parameters of the sensor units 500 to have mutually dependent values with the sensing parameters of the sensor devices mounted on each group vehicle. Specifically, the processor 610 may control the sensing parameter of the sensor unit 500 according to the sensor adjustment signal transmitted from the leader vehicle of the driving cluster, and the sensor adjustment signal is a detection area for surrounding objects at the level of the driving cluster. and a signal generated by the leader vehicle for each group vehicle based on the driving environment of the driving cluster and the position of each cluster vehicle within the driving cluster and transmitted to each group vehicle so that detection performance can be optimized. there is. If the own vehicle is in the position of the leader vehicle of the driving cluster, the processor 610 determines the driving cluster based on the result of the detection of surrounding objects by the sensor unit 500 and the position of each group vehicle in the driving cluster. Sensor adjustment signals may be respectively generated for each clustered vehicle belonging to and then transmitted to each clustered vehicle.

이와 같이 본 실시예는 자율 주행 차량의 현재 위치로부터 목적지까지의 경로 상의 소정 구간 별로 주행 궤적 보정에 따른 자율 주행을 제어하는 궤적 기반 제어 및 주행 군집의 주행을 추종하는 군집 추종 제어를 상호 전환하여 수행함으로써, 자율 주행 차량의 자율 주행 제어 연산 부하를 저감하고 목적지까지 도달하는 과정에서 차량의 주행 제어에 대한 탑승자의 개입을 최소화시켜 탑승자의 편의성을 개선할 수 있으며 최단 시간에 목적지까지 도달하는 것을 가능하게 할 수 있다.As described above, in this embodiment, the trajectory-based control for controlling autonomous driving according to the driving trajectory correction for each predetermined section on the route from the current location of the autonomous vehicle to the destination and the cluster following control for following the driving of the driving cluster are mutually switched and performed. By doing so, it is possible to reduce the autonomous driving control computational load of the autonomous vehicle and minimize the occupant's intervention in the vehicle's driving control in the process of reaching the destination, thereby improving the convenience of the occupants and making it possible to reach the destination in the shortest time. can do.

또한, 본 실시예는 군집 추종 제어를 수행 시 주행 군집에 속하는 타 군집 차량에 대한 자차량의 상대적인 위치에 따라 센서부의 주변 객체 검출 영역을 가변시키도록 동작하기 때문에, 군집 주행 중인 전체 군집 차량의 레벨에서 볼 때 주행 군집에 속하는 각 군집 차량이 주변 객체를 센싱하기 위해 요구되는 시스템의 총 리소스를 저감시킬 수 있다.In addition, since the present embodiment operates to vary the surrounding object detection area of the sensor unit according to the relative position of the own vehicle to other cluster vehicles belonging to the driving cluster when performing cluster following control, the level of all cluster vehicles during cluster driving is operated. As seen from , the total resource of the system required for each cluster vehicle belonging to the driving cluster to sense surrounding objects can be reduced.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, it should be noted that this is only exemplary and various modifications and equivalent other embodiments are possible from those skilled in the art to which the technology pertains. will understand Therefore, the true technical protection scope of the present invention should be defined by the claims below.

100: 사용자 입력부 101: 운전 정보 입력 인터페이스
110: 주행 모드 스위치 120: 사용자 단말
200: 주행 정보 검출부 201: 주행 정보 입력 인터페이스
210: 조향각 센서 220: APS/PTS
230: 차속 센서 240: 가속도 센서
250: 요/피치/롤 센서 260: GPS 수신기
300: 출력부 301: 탑승자 출력 인터페이스
310: 스피커 320: 디스플레이 장치
400: 하위 제어 시스템 401: 차량 제어 출력 인터페이스
410: 엔진 제어 시스템 420: 제동 제어 시스템
430: 조향 제어 시스템 500: 센서부
510: 라이다 센서 511: 전방 라이다 센서
512: 상부 라이다 센서 513: 후방 라이다 센서
520: 레이더 센서 521: 전방 레이더 센서
522: 좌측 레이더 센서 523: 우측 레이더 센서
524: 후방 레이더 센서 530: 카메라 센서
531: 전방 카메라 센서 532: 좌측 카메라 센서
533: 우측 카메라 센서 534: 후방 카메라 센서
535: 내부 카메라 센서 540: 초음파 센서
600: 자율 주행 통합 제어부 610: 프로세서
611: 센서 처리 모듈 611a: 라이더 신호 처리 모듈
611b: 레이더 신호 처리 모듈 611c: 카메라 신호 처리 모듈
612: 주행 궤적 생성 모듈 612a: 주변 차량 주행 궤적 생성 모듈
612b: 자차량 주행 궤적 생성 모듈 613: 주행 궤적 분석 모듈
614: 주행 제어 모듈 615: 궤적 학습 모듈
616: 탑승자 상태 판단 모듈 620: 메모리
700: 서버
100: user input unit 101: driving information input interface
110: driving mode switch 120: user terminal
200: driving information detector 201: driving information input interface
210: steering angle sensor 220: APS/PTS
230: vehicle speed sensor 240: acceleration sensor
250: yaw/pitch/roll sensor 260: GPS receiver
300: output unit 301: occupant output interface
310: speaker 320: display device
400: sub-control system 401: vehicle control output interface
410: engine control system 420: braking control system
430: steering control system 500: sensor unit
510: lidar sensor 511: front lidar sensor
512: upper lidar sensor 513: rear lidar sensor
520: radar sensor 521: front radar sensor
522: left radar sensor 523: right radar sensor
524: rear radar sensor 530: camera sensor
531: front camera sensor 532: left camera sensor
533: right camera sensor 534: rear camera sensor
535: internal camera sensor 540: ultrasonic sensor
600: autonomous driving integrated control unit 610: processor
611: sensor processing module 611a: lidar signal processing module
611b: radar signal processing module 611c: camera signal processing module
612: driving trajectory generation module 612a: surrounding vehicle driving trajectory generation module
612b: own vehicle driving trajectory generation module 613: driving trajectory analysis module
614: driving control module 615: trajectory learning module
616: occupant state determination module 620: memory
700: server

Claims (24)

자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부;
지도 정보를 저장하는 메모리; 및
상기 메모리에 저장된 지도 정보에 기초하여 생성되는 예상 주행 궤적에 따라 상기 자차량의 자율 주행을 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 상기 예상 주행 궤적을 보정하여 상기 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하고,
상기 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 상기 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하며,
상기 프로세서는,
상기 군집 추종 제어를 수행할 때, 각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 상기 센서부의 센싱 파라미터를 제어하되, 상기 센싱 파라미터는 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하고,
상기 센싱 파라미터의 제어는, 상기 자차량의 센서부 및 타 군집 차량의 센서 장치의 화각의 중첩 범위가 감소되도록 하기 위한 화각 축소 제어, 또는 사각 영역 제거를 위한 화각 확장 제어를 포함하는 것을 특징으로 하는, 자율 주행 장치.
a sensor unit that detects surrounding objects including surrounding vehicles of the own vehicle in autonomous driving;
a memory for storing map information; and
A processor controlling autonomous driving of the host vehicle according to an expected driving trajectory generated based on map information stored in the memory;
the processor,
Based on the result of the sensor unit detecting vehicles around the host vehicle, it is determined whether it is necessary to correct the expected driving trajectory of the own vehicle, and based on the determination result, the predicted driving trajectory is corrected to determine the Perform trajectory-based control to control autonomous driving;
Cluster following control for controlling the autonomous driving of the own vehicle to follow the driving of the driving cluster when the first driving route to the destination of the own vehicle overlaps with the second driving route of the driving cluster formed by a plurality of group vehicles. to perform,
the processor,
When performing the cluster following control, the sensing parameters of the sensor units are controlled to have values mutually dependent on the sensing parameters of the sensor devices mounted on each cluster vehicle, and the sensing parameters are field of view (FOV) and Include one or more of the sensor outputs;
The control of the sensing parameter includes view angle reduction control to reduce an overlapping range of view angles of the sensor unit of the own vehicle and sensor devices of other group vehicles, or view angle expansion control to remove blind spots. , autonomous driving devices.
제1항에 있어서,
상기 프로세서는, 상기 궤적 기반 제어를 수행하는 경우,
상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는 것으로 판단하는 것을 특징으로 하는 자율 주행 장치.
According to claim 1,
When the processor performs the trajectory-based control,
An actual driving trajectory of the surrounding vehicle is generated based on the driving information of the surrounding vehicle detected by the sensor unit, an expected driving trajectory of the surrounding vehicle is generated based on the map information stored in the memory, and An autonomous driving device characterized in that it is determined that the expected driving trajectory of the own vehicle needs to be corrected when a trajectory error between an actual driving trajectory and an expected driving trajectory is equal to or greater than a preset threshold.
제1항에 있어서,
상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우,
상기 자차량이 목적지까지 주행하는 방향을 기준으로, 상기 제1 및 제2 주행 경로 간의 중첩이 개시되는 합류 지점으로부터, 상기 제1 및 제2 주행 경로 간의 중첩이 종료되는 탈퇴 지점까지 상기 군집 추종 제어를 수행하는 것을 특징으로 하는 자율 주행 장치.
According to claim 1,
When the processor performs the cluster follow-up control,
Based on the direction in which the host vehicle travels to the destination, the cluster following control from a merging point where the overlapping between the first and second driving routes starts to a leaving point where the overlapping between the first and second driving routes ends Autonomous driving device, characterized in that for performing.
제3항에 있어서,
상기 프로세서는, 미리 정의된 제어 전환 조건의 충족 여부에 따라 상기 궤적 기반 제어 및 상기 군집 추종 제어를 상호 전환하여 수행하되,
상기 제어 전환 조건은, 상기 궤적 기반 제어로부터 상기 군집 추종 제어로 전환하기 위한 군집 추종 제어 전환 조건과, 상기 군집 추종 제어로부터 상기 궤적 기반 제어로 전환하기 위한 궤적 기반 제어 전환 조건을 포함하는 것을 특징으로 하는 자율 주행 장치.
According to claim 3,
The processor converts and performs the trajectory-based control and the cluster following control according to whether a predefined control switching condition is satisfied,
The control switching condition includes a cluster following control switching condition for switching from the trajectory based control to the cluster following control, and a trajectory based control switching condition for switching from the cluster following control to the trajectory based control. autonomous driving device.
제4항에 있어서,
상기 프로세서는,
상기 자차량의 현재 위치로부터 상기 궤적 기반 제어를 수행하는 과정에서 상기 자차량이 상기 합류 지점에 도달한 경우, 상기 군집 추종 제어 전환 조건이 충족된 것으로 판단하여 상기 군집 추종 제어를 수행하는 것을 특징으로 하는 자율 주행 장치.
According to claim 4,
the processor,
In the process of performing the trajectory-based control from the current location of the own vehicle, when the own vehicle reaches the merging point, it is determined that the flock following control conversion condition is satisfied and the cluster following control is performed. autonomous driving device.
제5항에 있어서,
상기 프로세서는,
상기 합류 지점으로부터 군집 추종 제어를 수행하는 과정에서 상기 자차량이 상기 탈퇴 지점에 도달한 경우, 상기 궤적 기반 제어 전환 조건이 충족된 것으로 판단하여 상기 궤적 기반 제어를 수행하는 것을 특징으로 하는 자율 주행 장치.
According to claim 5,
the processor,
and performing the trajectory-based control by determining that the trajectory-based control conversion condition is satisfied when the host vehicle reaches the exit point in the process of performing cluster following control from the confluence point. .
제6항에 있어서,
상기 프로세서는,
복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터 상기 군집 추종 제어를 수행하기 위한 상기 합류 지점 및 상기 탈퇴 지점을 결정하되,
상기 궤적 기반 제어를 기반으로 상기 자차량이 현재 위치로부터 후보 합류 지점에 도달하는데 소요되는 시간과, 상기 군집 추종 제어를 기반으로 상기 자차량이 후보 합류 지점으로부터 후보 탈퇴 지점에 도달하는데 소요되는 시간과, 상기 궤적 기반 제어를 기반으로 후보 탈퇴 지점으로부터 목적지에 도달하는데 소요되는 시간의 합인 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 각각 상기 합류 지점 및 상기 탈퇴 지점으로 결정하는 것을 특징으로 하는 자율 주행 장치.
According to claim 6,
the processor,
determining the joining point and the leaving point for performing the cluster following control from a plurality of candidate joining points and a plurality of candidate leaving points;
A time required for the own vehicle to reach a candidate joining point from a current location based on the trajectory-based control, a time required for the own vehicle to reach a candidate joining point from a candidate joining point based on the swarm following control, and , Based on the trajectory-based control, determining a candidate joining point and a candidate leaving point at which a total required time, which is the sum of times required to reach a destination from a candidate leaving point, is minimized as the joining point and the leaving point, respectively. autonomous driving device.
제1항에 있어서,
상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우,
상기 주행 군집에 속하는 상기 군집 차량에 대한 상기 자차량의 상대적인 위치에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 하는 자율 주행 장치.
According to claim 1,
When the processor performs the cluster follow-up control,
The autonomous driving device of claim 1 , wherein a surrounding object detection area of the sensor unit is varied according to a relative position of the host vehicle to the cluster vehicles belonging to the driving cluster.
제8항에 있어서,
상기 프로세서는, 상기 군집 추종 제어를 수행하는 경우,
미리 정의된 그룹 분류 알고리즘을 이용하여 상기 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하고, 각 주행 그룹 중 상기 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 하는 자율 주행 장치.
According to claim 8,
When the processor performs the cluster follow-up control,
The driving group is classified into a preceding driving group, a middle driving group, and a trailing driving group using a predefined group classification algorithm, and a driving group to which the own vehicle belongs is determined among the driving groups, and the sensor unit according to the determination result. An autonomous driving device characterized by varying a surrounding object detection area.
제9항에 있어서,
상기 프로세서는,
상기 자차량이 상기 선행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 전방의 주변 객체를 검출하고, 상기 자차량이 상기 미들 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 측방의 주변 객체를 검출하며, 상기 자차량이 상기 후행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 후방의 주변 객체를 검출하는 것을 특징으로 하는 자율 주행 장치.
According to claim 9,
the processor,
When the own vehicle belongs to the preceding driving group, an object around the front of the own vehicle is detected through the sensor unit, and when the own vehicle belongs to the middle driving group, an object around the side of the own vehicle is detected through the sensor unit. and, when the host vehicle belongs to the following driving group, detects an object around the rear of the host vehicle through the sensor unit.
제1항에 있어서,
상기 프로세서는,
상기 주행 군집의 리더 차량으로부터 전송되는 센서 조정 신호에 따라 상기 센서부의 센싱 파라미터를 제어하되, 상기 센서 조정 신호는 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록, 상기 주행 군집의 주행 환경 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 리더 차량에 의해 상기 각 군집 차량 별로 생성되어 상기 각 군집 차량으로 각각 전송되는 것을 특징으로 하는 자율 주행 장치.
According to claim 1,
the processor,
The sensing parameter of the sensor unit is controlled according to a sensor adjustment signal transmitted from the leader vehicle of the driving cluster, and the sensor adjustment signal is used to optimize the detection area and detection performance of surrounding objects at the level of the driving cluster. The autonomous driving device according to claim 1 , wherein each group vehicle is generated by the leader vehicle based on a group driving environment and a position of each group vehicle within the driving group and transmitted to each group vehicle.
제11항에 있어서,
상기 프로세서는,
상기 자차량이 상기 주행 군집의 리더 차량의 지위에 있는 경우, 상기 센서부에 의해 주변 객체가 검출된 결과 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 주행 군집에 속하는 각 군집 차량 별로 상기 센서 조정 신호를 각각 생성한 후 각 군집 차량으로 각각 전송하는 것을 특징으로 하는 자율 주행 장치.
According to claim 11,
the processor,
When the own vehicle is in the position of the leader vehicle of the driving cluster, each cluster belonging to the driving cluster is classified based on a result of detecting a surrounding object by the sensor unit and the position of each group vehicle within the driving cluster. The autonomous driving device characterized in that the sensor adjustment signal is respectively generated for each vehicle and then transmitted to each group vehicle.
자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 상기 메모리에 저장된 지도 정보에 기초하여 생성되는 예상 주행 궤적에 따라 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하는 자율 주행 시스템에서 자율 주행을 제어하는 방법으로서,
상기 프로세서가, 상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는지 여부를 판단하고, 그 판단 결과에 따라 상기 예상 주행 궤적을 보정하여 상기 자차량의 자율 주행을 제어하는 궤적 기반 제어를 수행하는 단계; 및
상기 프로세서가, 상기 자차량의 목적지까지의 제1 주행 경로가 복수의 군집 차량으로 형성된 주행 군집의 제2 주행 경로와 중첩되는 경우, 상기 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 군집 추종 제어를 수행하는 단계;를 포함하고,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
각 군집 차량에 각각 장착된 센서 장치의 센싱 파라미터와 상호 의존적인 값을 갖도록 상기 센서부의 센싱 파라미터를 제어하되, 상기 센싱 파라미터는 화각(FOV: Field Of View) 및 센서 출력 중 하나 이상을 포함하고,
상기 센싱 파라미터의 제어는, 상기 자차량의 센서부 및 타 군집 차량의 센서 장치의 화각의 중첩 범위가 감소되도록 하기 위한 화각 축소 제어, 또는 사각 영역 제거를 위한 화각 확장 제어를 포함하는 것을 특징으로 하는 것을 특징으로 하는, 자율 주행 방법.
A sensor unit for detecting surrounding objects including surrounding vehicles of the own vehicle in autonomous driving, a memory for storing map information, and autonomous driving of the own vehicle according to an expected driving trajectory generated based on the map information stored in the memory A method for controlling autonomous driving in an autonomous driving system including a controlling processor, comprising:
The processor determines whether it is necessary to correct the expected driving trajectory of the own vehicle based on a result of the sensor unit detecting vehicles around the own vehicle, and corrects the expected driving trajectory according to the determination result performing trajectory-based control for controlling autonomous driving of the own vehicle; and
The processor controls the autonomous driving of the own vehicle to follow the driving of the driving cluster when the first driving route to the destination of the own vehicle overlaps with the second driving route of the driving cluster formed by a plurality of group vehicles. Including; performing cluster follow-up control to
In the step of performing the cluster following control, the processor,
Control a sensing parameter of the sensor unit to have a value mutually dependent on a sensing parameter of a sensor device mounted on each group vehicle, wherein the sensing parameter includes at least one of a field of view (FOV) and sensor output,
The control of the sensing parameter includes view angle reduction control to reduce an overlapping range of view angles of the sensor unit of the own vehicle and sensor devices of other group vehicles, or view angle expansion control to remove blind spots. Characterized in that, an autonomous driving method.
제13항에 있어서,
상기 궤적 기반 제어를 수행하는 단계에서, 상기 프로세서는,
상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 자차량의 예상 주행 궤적을 보정할 필요가 있는 것으로 판단하는 것을 특징으로 하는 자율 주행 방법.
According to claim 13,
In the step of performing the trajectory-based control, the processor,
An actual driving trajectory of the surrounding vehicle is generated based on the driving information of the surrounding vehicle detected by the sensor unit, an expected driving trajectory of the surrounding vehicle is generated based on the map information stored in the memory, and An autonomous driving method characterized in that it is determined that the expected driving trajectory of the own vehicle needs to be corrected when a trajectory error between an actual driving trajectory and an expected driving trajectory is equal to or greater than a preset threshold.
제13항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
상기 자차량이 목적지까지 주행하는 방향을 기준으로, 상기 제1 및 제2 주행 경로 간의 중첩이 개시되는 합류 지점으로부터, 상기 제1 및 제2 주행 경로 간의 중첩이 종료되는 탈퇴 지점까지 상기 군집 추종 제어를 수행하는 것을 특징으로 하는 자율 주행 방법.
According to claim 13,
In the step of performing the cluster following control, the processor,
Based on the direction in which the host vehicle travels to the destination, the cluster following control from a merging point where the overlapping between the first and second driving routes starts to a leaving point where the overlapping between the first and second driving routes ends Autonomous driving method characterized in that for performing.
제15항에 있어서,
상기 프로세서는, 미리 정의된 제어 전환 조건의 충족 여부에 따라 상기 궤적 기반 제어 및 상기 군집 추종 제어를 상호 전환하여 수행하되,
상기 제어 전환 조건은, 상기 궤적 기반 제어로부터 상기 군집 추종 제어로 전환하기 위한 군집 추종 제어 전환 조건과, 상기 군집 추종 제어로부터 상기 궤적 기반 제어로 전환하기 위한 궤적 기반 제어 전환 조건을 포함하는 것을 특징으로 하는 자율 주행 방법.
According to claim 15,
The processor converts and performs the trajectory-based control and the cluster following control according to whether a predefined control switching condition is satisfied,
The control switching condition includes a cluster following control switching condition for switching from the trajectory based control to the cluster following control, and a trajectory based control switching condition for switching from the cluster following control to the trajectory based control. How to do autonomous driving.
제16항에 있어서,
상기 프로세서는,
상기 자차량의 현재 위치로부터 상기 궤적 기반 제어를 수행하는 과정에서 상기 자차량이 상기 합류 지점에 도달한 경우, 상기 군집 추종 제어 전환 조건이 충족된 것으로 판단하여 상기 군집 추종 제어를 수행하는 것을 특징으로 하는 자율 주행 방법.
According to claim 16,
the processor,
In the process of performing the trajectory-based control from the current location of the own vehicle, when the own vehicle reaches the merging point, it is determined that the flock following control conversion condition is satisfied and the cluster following control is performed. How to do autonomous driving.
제17항에 있어서,
상기 프로세서는,
상기 합류 지점으로부터 군집 추종 제어를 수행하는 과정에서 상기 자차량이 상기 탈퇴 지점에 도달한 경우, 상기 궤적 기반 제어 전환 조건이 충족된 것으로 판단하여 상기 궤적 기반 제어를 수행하는 것을 특징으로 하는 자율 주행 방법.
According to claim 17,
the processor,
When the host vehicle reaches the exit point in the process of performing cluster following control from the joining point, the autonomous driving method characterized in that the trajectory-based control is performed by determining that the trajectory-based control conversion condition is satisfied. .
제18항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
복수의 후보 합류 지점 및 복수의 후보 탈퇴 지점으로부터 상기 군집 추종 제어를 수행하기 위한 상기 합류 지점 및 상기 탈퇴 지점을 결정하되,
상기 궤적 기반 제어를 기반으로 상기 자차량이 현재 위치로부터 후보 합류 지점에 도달하는데 소요되는 시간과, 상기 군집 추종 제어를 기반으로 상기 자차량이 후보 합류 지점으로부터 후보 탈퇴 지점에 도달하는데 소요되는 시간과, 상기 궤적 기반 제어를 기반으로 후보 탈퇴 지점으로부터 목적지에 도달하는데 소요되는 시간의 합인 총 소요 시간이 최소가 되는 후보 합류 지점 및 후보 탈퇴 지점을 각각 상기 합류 지점 및 상기 탈퇴 지점으로 결정하는 것을 특징으로 하는 자율 주행 방법.
According to claim 18,
In the step of performing the cluster following control, the processor,
determining the joining point and the leaving point for performing the cluster following control from a plurality of candidate joining points and a plurality of candidate leaving points;
A time required for the own vehicle to reach a candidate joining point from a current location based on the trajectory-based control, a time required for the own vehicle to reach a candidate joining point from a candidate joining point based on the swarm following control, and , Based on the trajectory-based control, determining a candidate joining point and a candidate leaving point at which a total required time, which is the sum of times required to reach a destination from a candidate leaving point, is minimized as the joining point and the leaving point, respectively. How to do autonomous driving.
제13항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
상기 주행 군집에 속하는 상기 군집 차량에 대한 상기 자차량의 상대적인 위치에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 하는 자율 주행 방법.
According to claim 13,
In the step of performing the cluster following control, the processor,
and varying a surrounding object detection area of the sensor unit according to a relative position of the host vehicle to the cluster vehicles belonging to the driving cluster.
제20항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
미리 정의된 그룹 분류 알고리즘을 이용하여 상기 주행 군집을 선행 주행 그룹, 미들 주행 그룹 및 후행 주행 그룹으로 분류하고, 각 주행 그룹 중 상기 자차량이 속하는 주행 그룹을 판단하여 그 판단 결과에 따라 상기 센서부의 주변 객체 검출 영역을 가변시키는 것을 특징으로 하는 자율 주행 방법
According to claim 20,
In the step of performing the cluster following control, the processor,
The driving group is classified into a preceding driving group, a middle driving group, and a trailing driving group using a predefined group classification algorithm, and a driving group to which the own vehicle belongs is determined among the driving groups, and the sensor unit according to the determination result. Autonomous driving method characterized by varying the surrounding object detection area
제21항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
상기 자차량이 상기 선행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 전방의 주변 객체를 검출하고, 상기 자차량이 상기 미들 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 측방의 주변 객체를 검출하며, 상기 자차량이 상기 후행 주행 그룹에 속하는 경우 상기 센서부를 통해 상기 자차량의 후방의 주변 객체를 검출하는 것을 특징으로 하는 자율 주행 방법.
According to claim 21,
In the step of performing the cluster following control, the processor,
When the own vehicle belongs to the preceding driving group, an object around the front of the own vehicle is detected through the sensor unit, and when the own vehicle belongs to the middle driving group, an object around the side of the own vehicle is detected through the sensor unit. and detecting an object around the rear of the own vehicle through the sensor unit when the own vehicle belongs to the following driving group.
제13항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
상기 주행 군집의 리더 차량으로부터 전송되는 센서 조정 신호에 따라 상기 센서부의 센싱 파라미터를 제어하되, 상기 센서 조정 신호는 주행 군집의 레벨에서 주변 객체에 대한 검출 영역 및 검출 성능이 최적화될 수 있도록, 상기 주행 군집의 주행 환경 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 리더 차량에 의해 상기 각 군집 차량 별로 생성되어 상기 각 군집 차량으로 각각 전송되는 것을 특징으로 하는 자율 주행 방법.
According to claim 13,
In the step of performing the cluster following control, the processor,
The sensing parameter of the sensor unit is controlled according to a sensor adjustment signal transmitted from the leader vehicle of the driving cluster, and the sensor adjustment signal is used to optimize the detection area and detection performance of surrounding objects at the level of the driving cluster. The autonomous driving method according to claim 1 , wherein each group vehicle is generated by the leader vehicle based on a group driving environment and a position of each group vehicle within the driving group and transmitted to each group vehicle.
제23항에 있어서,
상기 군집 추종 제어를 수행하는 단계에서, 상기 프로세서는,
상기 자차량이 상기 주행 군집의 리더 차량의 지위에 있는 경우, 상기 센서부에 의해 주변 객체가 검출된 결과 및 상기 주행 군집 내에서의 상기 각 군집 차량의 위치에 기초하여 상기 주행 군집에 속하는 각 군집 차량 별로 상기 센서 조정 신호를 각각 생성한 후 각 군집 차량으로 각각 전송하는 것을 특징으로 하는 자율 주행 방법.
According to claim 23,
In the step of performing the cluster following control, the processor,
When the own vehicle is in the position of the leader vehicle of the driving cluster, each cluster belonging to the driving cluster is classified based on a result of detecting a surrounding object by the sensor unit and the position of each group vehicle within the driving cluster. The autonomous driving method characterized in that the sensor adjustment signal is respectively generated for each vehicle and then transmitted to each group vehicle.
KR1020190058605A 2019-05-20 2019-05-20 Autonomous driving apparatus and method KR102539286B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190058605A KR102539286B1 (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method
US15/930,348 US11934204B2 (en) 2019-05-20 2020-05-12 Autonomous driving apparatus and method
CN202010419117.9A CN112046481B (en) 2019-05-20 2020-05-18 Automatic driving device and method
DE102020113421.5A DE102020113421B4 (en) 2019-05-20 2020-05-18 AUTONOMOUS DRIVING DEVICE AND METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190058605A KR102539286B1 (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method

Publications (2)

Publication Number Publication Date
KR20200133853A KR20200133853A (en) 2020-12-01
KR102539286B1 true KR102539286B1 (en) 2023-06-05

Family

ID=73790625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190058605A KR102539286B1 (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method

Country Status (1)

Country Link
KR (1) KR102539286B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230062962A (en) * 2021-11-01 2023-05-09 현대모비스 주식회사 Data communication system using a vehicle camera and data communication method and data communication vehicle
KR102570862B1 (en) * 2023-07-04 2023-08-31 주식회사 웨이브에이아이 Apparatus for platooning of autonomous vehicles and method thereof
KR102570861B1 (en) * 2023-07-04 2023-08-31 주식회사 웨이브에이아이 Apparatus for platooning of vehicles and method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170011633A1 (en) * 2015-07-08 2017-01-12 Magna Electronics Inc. Lane change system for platoon of vehicles
JP2017088133A (en) 2015-11-17 2017-05-25 株式会社デンソー Driving support device
JP2017146724A (en) 2016-02-16 2017-08-24 株式会社Subaru Map information output device
JP2018086949A (en) 2016-11-29 2018-06-07 マツダ株式会社 Vehicle control device
KR102043152B1 (en) 2017-11-17 2019-12-02 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101277452B1 (en) * 2009-12-09 2013-07-05 한국전자통신연구원 Mobile robot based on a crowed intelligence, method for controlling the same and watching robot system
KR20150076575A (en) * 2013-12-27 2015-07-07 강릉원주대학교산학협력단 stand and sterilizer
KR102136402B1 (en) * 2014-02-26 2020-07-21 한국전자통신연구원 Vehicle Information Sharing Apparatus and Method
KR102274502B1 (en) * 2015-08-13 2021-07-08 현대자동차주식회사 Method for updating Navigation Map
US9940840B1 (en) * 2016-10-06 2018-04-10 X Development Llc Smart platooning of vehicles
KR101909539B1 (en) * 2016-11-30 2018-10-19 에스엘 주식회사 Transmission for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170011633A1 (en) * 2015-07-08 2017-01-12 Magna Electronics Inc. Lane change system for platoon of vehicles
JP2017088133A (en) 2015-11-17 2017-05-25 株式会社デンソー Driving support device
JP2017146724A (en) 2016-02-16 2017-08-24 株式会社Subaru Map information output device
JP2018086949A (en) 2016-11-29 2018-06-07 マツダ株式会社 Vehicle control device
KR102043152B1 (en) 2017-11-17 2019-12-02 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle

Also Published As

Publication number Publication date
KR20200133853A (en) 2020-12-01

Similar Documents

Publication Publication Date Title
CN112046501B (en) Automatic driving device and method
US20180046196A1 (en) Autonomous driving system
CN112046500B (en) Automatic driving device and method
KR102539286B1 (en) Autonomous driving apparatus and method
US11433897B2 (en) Method and apparatus for determination of optimal cruising lane in an assisted driving system
US11685402B2 (en) Autonomous driving apparatus and method
US11654939B2 (en) Autonomous driving apparatus and method that outputs different warnings based on driving risk
CN112046481B (en) Automatic driving device and method
KR20210037790A (en) Autonomous driving apparatus and method
KR20240038680A (en) Autonomous driving apparatus and method
KR20240035960A (en) Autonomous driving apparatus and method
KR20200133854A (en) Autonomous driving apparatus and method
JP2019151261A (en) Operation characteristic estimation method and operation characteristic estimation device
KR20200133855A (en) Autonomous driving apparatus and method
KR20200133856A (en) Autonomous driving apparatus and method
KR102530702B1 (en) Autonomous driving apparatus and method
KR102648603B1 (en) Autonomous driving apparatus and method
KR20200133857A (en) Autonomous driving apparatus and method
KR20200133859A (en) Autonomous driving apparatus and method
KR20200133445A (en) Autonomous driving apparatus and method
KR102616971B1 (en) Autonomous driving apparatus and method
KR102644325B1 (en) Autonomous driving apparatus and method
KR102648470B1 (en) Autonomous driving apparatus and method
KR20200133851A (en) Autonomous driving apparatus and method
KR20200133444A (en) Autonomous driving apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant