KR20200133445A - Autonomous driving apparatus and method - Google Patents

Autonomous driving apparatus and method Download PDF

Info

Publication number
KR20200133445A
KR20200133445A KR1020190058615A KR20190058615A KR20200133445A KR 20200133445 A KR20200133445 A KR 20200133445A KR 1020190058615 A KR1020190058615 A KR 1020190058615A KR 20190058615 A KR20190058615 A KR 20190058615A KR 20200133445 A KR20200133445 A KR 20200133445A
Authority
KR
South Korea
Prior art keywords
driving
vehicle
processor
autonomous driving
occupant
Prior art date
Application number
KR1020190058615A
Other languages
Korean (ko)
Inventor
진순종
이혁
전병환
이준한
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190058615A priority Critical patent/KR20200133445A/en
Priority to US15/930,357 priority patent/US11420653B2/en
Priority to CN202010402171.2A priority patent/CN112046500B/en
Priority to DE102020113422.3A priority patent/DE102020113422A1/en
Publication of KR20200133445A publication Critical patent/KR20200133445A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0055Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
    • G05D1/0061Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

The present invention relates to an autonomous driving device and method. The autonomous driving device comprises: a sensor unit detecting a nearby vehicle of a vehicle in autonomous driving; a memory storing map information; an internal device installed inside the vehicle and supporting an occupant since a state of the vehicle Is controlled by operation of the occupant of the vehicle; and a processor controlling autonomous driving of the vehicle based on the map information stored in memory. The processor determines a driving risk of the vehicle based on the nearby vehicle detected by the sensor unit, and controls a state of an internal device according to an internal mode of the vehicle set by the occupant while the determined driving risk is smaller than a preset threshold risk.

Description

자율 주행 장치 및 방법{AUTONOMOUS DRIVING APPARATUS AND METHOD}Autonomous driving device and method {AUTONOMOUS DRIVING APPARATUS AND METHOD}

본 발명은 자율 주행 차량에 적용되는 자율 주행 장치 및 방법에 관한 것이다.The present invention relates to an autonomous driving apparatus and method applied to an autonomous driving vehicle.

오늘날의 자동차 산업은 차량 주행에 운전자의 개입을 최소화하는 자율 주행을 구현하기 위한 방향으로 나아가고 있다. 자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다.Today's automotive industry is moving toward implementing autonomous driving that minimizes driver intervention in vehicle driving. An autonomous vehicle refers to a vehicle that independently determines a driving route by recognizing the surrounding environment through a function of sensing and processing external information during driving, and independently driving by using its own power.

자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.Autonomous vehicles can drive themselves to their destination by preventing collisions with obstacles on the driving path and adjusting the vehicle speed and driving direction according to the shape of the road, even if the driver does not operate the steering wheel, accelerator pedal, or brake. have. For example, acceleration may be performed on a straight road and deceleration may be performed while changing a driving direction in response to a curvature of the road on a curved road.

자율 주행 차량의 안정적인 주행을 보장하기 위해서는 차량에 장착된 각 센서를 통해 주행 환경을 정확하게 계측해야 하고, 차량의 주행 상태를 지속적으로 모니터링하여 계측된 주행 환경에 맞추어 주행을 제어해야 한다. 이를 위해, 자율 주행 차량에는 주변 차량, 보행자, 고정 시설물 등의 주변 객체를 검출하기 위한 센서로서 라이다(Lidar) 센서, 레이더(Radar) 센서, 초음파 센서 및 카메라 센서 등 다양한 센서들이 적용되고 있으며, 이러한 센서로부터 출력되는 데이터는 주행 환경에 대한 정보, 이를테면 주변 객체의 위치, 형상, 이동 방향 및 이동 속도와 같은 상태 정보를 결정하는데 활용된다.In order to ensure stable driving of an autonomous vehicle, it is necessary to accurately measure the driving environment through each sensor mounted on the vehicle, and control the driving according to the measured driving environment by continuously monitoring the driving state of the vehicle. To this end, various sensors, such as a lidar sensor, a radar sensor, an ultrasonic sensor, and a camera sensor, are applied to the autonomous vehicle as a sensor for detecting surrounding objects such as surrounding vehicles, pedestrians, and fixed facilities. Data output from these sensors is used to determine information about the driving environment, such as the location, shape, movement direction, and movement speed of surrounding objects.

나아가, 자율 주행 차량은 미리 저장된 지도 데이터를 이용하여 차량의 위치를 결정하고 보정함으로써 주행 경로 및 주행 차선을 최적으로 결정하고, 결정된 경로 및 차선을 벗어나지 않도록 차량의 주행을 제어하며, 주변에서 갑작스럽게 진입하는 차량 또는 주행 경로 상에 존재하는 위험 요소에 대한 방어 및 회피 운행을 수행하는 기능도 제공하고 있다.Furthermore, autonomous vehicles use pre-stored map data to determine and correct the location of the vehicle to optimally determine the driving route and driving lane, control the driving of the vehicle so as not to deviate from the determined path and lane, and abruptly It also provides the function of performing defense and avoidance driving against dangers existing on the vehicle entering or the driving path.

본 발명의 배경기술은 대한민국 공개특허공보 제10-1998-0068399호(1998.10.15 공개)에 개시되어 있다.Background art of the present invention is disclosed in Korean Patent Application Publication No. 10-1998-0068399 (published on October 15, 1998).

본 발명의 일 측면에 따른 목적은 자차량의 자율 주행 과정에서 탑승자에 의해 설정되는 내부 제어 모드에 따라 차량 내부 장치의 상태를 제어함으로써 탑승자의 편의성을 향상시킬 수 있는 자율 주행 장치 및 방법을 제공하는 것이다.An object according to an aspect of the present invention is to provide an autonomous driving apparatus and method capable of improving the convenience of an occupant by controlling the state of a vehicle internal device according to an internal control mode set by an occupant in the autonomous driving process of the own vehicle. will be.

본 발명의 일 측면에 따른 자율 주행 장치는 자율 주행 중인 자차량의 주변 차량을 검출하는 센서부, 지도 정보를 저장하는 메모리, 상기 자차량의 내부에 설치되며 상기 자차량의 탑승자의 조작에 의해 그 상태가 제어되어 상기 탑승자를 지원하기 위한 내부 장치, 및 상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 센서부에 의해 검출되는 주변 차량에 기초하여 상기 자차량의 주행 위험도를 결정하고, 상기 결정된 주행 위험도가 미리 설정된 임계 위험도보다 작은 상태에서 상기 탑승자에 의해 설정되는 차량 내부 모드에 따라 상기 내부 장치의 상태를 제어하는 것을 특징으로 한다.An autonomous driving device according to an aspect of the present invention includes a sensor unit for detecting surrounding vehicles of an autonomous vehicle, a memory for storing map information, and is installed inside the host vehicle and is operated by an occupant of the host vehicle. And a processor for controlling autonomous driving of the own vehicle based on map information stored in the memory and an internal device for supporting the occupant by controlling a state, wherein the processor includes a surrounding vehicle detected by the sensor unit The driving risk of the own vehicle is determined based on the vehicle, and the state of the internal device is controlled according to a vehicle interior mode set by the occupant in a state where the determined driving risk is less than a preset threshold risk.

본 발명에 있어 상기 프로세서는, 상기 메모리에 저장된 지도 정보, 및 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적을 각각 생성하고, 상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 서버로부터 전송되는 신규 지도 정보를 이용하여 상기 메모리에 저장된 지도 정보를 업데이트하고, 상기 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.In the present invention, the processor generates an estimated driving trajectory and an actual driving trajectory of the surrounding vehicle based on map information stored in the memory and driving information of the surrounding vehicle detected by the sensor unit, respectively, and the surrounding vehicle If the trajectory error between the estimated driving trajectory and the actual driving trajectory of is greater than or equal to a preset threshold, the map information stored in the memory is updated using new map information transmitted from the server, and the own vehicle based on the updated map information It is characterized in that it controls the autonomous driving of the vehicle.

본 발명에 있어 상기 프로세서는, 상기 자차량으로부터 미리 설정된 제1 거리 이내에 위치하는 주변 차량의 수에 기초하여 상기 주행 위험도를 결정하는 것을 특징으로 한다.In the present invention, the processor may determine the driving risk based on the number of surrounding vehicles located within a predetermined first distance from the host vehicle.

본 발명에 있어 상기 프로세서는, 상기 결정된 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 상기 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.In the present invention, when it is determined that the determined driving risk is equal to or greater than the critical risk, the host vehicle is located within a preset second distance from the host vehicle and is configured to follow the driving of a driving cluster formed of a plurality of cluster vehicles. It is characterized in that it controls the autonomous driving of the vehicle.

본 발명에 있어 상기 내부 장치는 차량 시트, 조명 장치 및 디스플레이 장치를 포함하고, 상기 차량 내부 모드는 휴식 모드 및 엔터테인먼트 모드를 포함하는 것을 특징으로 한다.In the present invention, the internal device includes a vehicle seat, a lighting device and a display device, and the vehicle interior mode includes a rest mode and an entertainment mode.

본 발명에 있어 상기 프로세서는, 상기 차량 내부 모드에 따라 상기 차량 시트의 각도, 상기 조명 장치의 조도 및 상기 디스플레이 장치의 각도 중 하나 이상을 제어하고, 상기 차량 내부 모드가 상기 휴식 모드 또는 상기 엔터테인먼트 모드일 때 차로 변경을 제한하고 정속으로 주행하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.In the present invention, the processor controls one or more of an angle of the vehicle seat, an illuminance of the lighting device, and an angle of the display device according to the vehicle interior mode, and the vehicle interior mode is the rest mode or the entertainment mode. When it is, it is characterized in that the autonomous driving of the host vehicle is controlled so as to limit the lane change and drive at a constant speed.

본 발명은 출력부를 더 포함하고, 상기 프로세서는, 상기 휴식 모드 또는 상기 엔터테인먼트 모드에 따라 상기 자차량의 자율 주행을 제어하는 과정에서 상기 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 상기 출력부를 통해 상기 탑승자에게 경고를 출력하는 것을 특징으로 한다.The present invention further includes an output unit, the processor, in the process of controlling the autonomous driving of the own vehicle according to the rest mode or the entertainment mode, when it is determined that the driving risk is equal to or greater than the threshold risk, through the output unit It characterized in that the warning is output to the passenger.

본 발명에 있어 상기 센서부는, 상기 탑승자의 상태를 더 검출하고, 상기 프로세서는, 상기 센서부에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 상기 주행 군집에서의 상기 자차량의 지위를 고려하여 상기 자차량의 군집 주행을 제어하는 것을 특징으로 한다.In the present invention, the sensor unit further detects the state of the occupant, and the processor, when it is determined that the state of the occupant detected by the sensor unit is an abnormal state, the position of the own vehicle in the driving cluster It is characterized in that the cluster driving of the host vehicle is controlled in consideration of.

본 발명에 있어 상기 프로세서는, 상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 리더 차량 지위에 있는 경우, 상기 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 상기 주행 군집에서 탈퇴하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.In the present invention, the processor, when the state of the occupant is in an abnormal state, and when the own vehicle is in the leader vehicle status in the driving cluster, assigns the leader vehicle status to a following vehicle and leaves the driving cluster It is characterized in that the autonomous driving of the own vehicle is controlled so as to be performed.

본 발명에 있어 상기 프로세서는, 상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 팔로우 차량 지위에 있는 경우, 상기 자차량이 상기 주행 군집 내에서 최후미에 위치하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.In the present invention, when the occupant is in an abnormal state and the own vehicle is in the following vehicle status in the driving cluster, the processor of the host vehicle is positioned at the tail end of the driving cluster. It is characterized by controlling autonomous driving.

본 발명의 일 측면에 따른 자율 주행 방법은 프로세서가, 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 단계, 상기 프로세서가, 센서부에 의해 검출되는 주변 차량에 기초하여 상기 자차량의 주행 위험도를 결정하는 단계, 상기 프로세서가, 상기 결정된 주행 위험도 및 미리 설정된 임계 위험도를 비교하는 단계, 및 상기 주행 위험도가 상기 임계 위험도보다 작은 것으로 판단된 경우, 상기 프로세서가, 상기 자차량의 탑승자에 의해 설정되는 차량 내부 모드에 따라 내부 장치의 상태를 제어하는 단계로서, 상기 내부 장치는 상기 자차량의 내부에 설치되며 상기 탑승자의 조작에 의해 그 상태가 제어되어 상기 탑승자를 지원하기 위한 것인, 단계를 포함하는 것을 특징으로 한다.An autonomous driving method according to an aspect of the present invention includes the steps of controlling, by a processor, autonomous driving of an own vehicle based on map information stored in a memory, and the processor, based on a surrounding vehicle detected by a sensor unit, Determining a driving risk of, the processor, comparing the determined driving risk and a preset critical risk, and when the driving risk is determined to be less than the critical risk, the processor comprises: the occupant of the host vehicle Controlling the state of the internal device according to the vehicle interior mode set by, wherein the internal device is installed inside the own vehicle and the state is controlled by the operation of the occupant to support the occupant. It characterized in that it comprises a step.

본 발명의 일 측면에 따르면, 본 발명은 자차량의 자율 주행 과정에서 탑승자에 의해 설정되는 내부 제어 모드에 따라 차량 내부 장치의 상태를 제어함으로써 탑승자의 편의성을 향상시킬 수 있으며, 차량 내부 장치의 상태 제어를 차량의 주행 위험도가 낮은 상태에서 수행함으로써 차량의 주행 안정성도 확보할 수 있다.According to an aspect of the present invention, the present invention can improve the convenience of the occupant by controlling the state of the vehicle internal device according to the internal control mode set by the occupant in the autonomous driving process of the own vehicle, and the state of the vehicle internal device By performing the control in a state where the driving risk of the vehicle is low, driving stability of the vehicle can also be secured.

도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이다.
도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이다.
도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.
도 7은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.
1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied.
2 is a block diagram showing a detailed configuration of an integrated autonomous driving control unit in an autonomous driving device according to an embodiment of the present invention.
3 is an exemplary view showing an example in which an autonomous driving device according to an embodiment of the present invention is applied to a vehicle.
4 is an exemplary view showing an example of an internal structure of a vehicle to which an autonomous driving device according to an embodiment of the present invention is applied.
5 is an exemplary view showing an example of a set distance and a horizontal angle of view at which a lidar sensor, a radar sensor, and a camera sensor can detect surrounding objects in an autonomous driving apparatus according to an embodiment of the present invention.
6 is an exemplary view showing an example in which a sensor unit detects a nearby vehicle in an autonomous driving device according to an embodiment of the present invention.
7 is a flowchart illustrating an autonomous driving method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 자율 주행 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of an autonomous driving apparatus and method according to the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described later are terms defined in consideration of functions in the present invention and may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.

도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이고, 도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이며, 도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이고, 도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied, and FIG. 2 is a detailed diagram of an autonomous driving integrated control unit in an autonomous driving device according to an embodiment of the present invention. A block diagram showing the configuration, FIG. 3 is an exemplary view showing an example in which an autonomous driving device according to an embodiment of the present invention is applied to a vehicle, and FIG. 4 is an autonomous driving device according to an embodiment of the present invention applied. It is an exemplary view showing an example of the internal structure of the vehicle, and FIG. 5 is a set distance and a horizontal angle of view at which a lidar sensor, a radar sensor, and a camera sensor can detect surrounding objects in an autonomous driving device according to an embodiment of the present invention. 6 is an exemplary diagram illustrating an example in which a sensor unit detects a nearby vehicle in an autonomous driving apparatus according to an embodiment of the present invention.

먼저, 도 1 및 도 3을 참조하여 본 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 구조 및 기능에 대하여 설명한다. 도 1에 도시된 것과 같이 자율 주행 제어 시스템은 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다.First, the structure and function of the autonomous driving control system to which the autonomous driving apparatus according to the present embodiment can be applied will be described with reference to FIGS. 1 and 3. As shown in FIG. 1, the autonomous driving control system is used to control autonomous driving of a vehicle through a driving information input interface 101, a driving information input interface 201, a passenger output interface 301, and a vehicle control output interface 401. It may be implemented around the autonomous driving integrated control unit 600 that transmits and receives necessary data.

자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 예시로서 도시된 것과 같이 주행 모드 스위치(110) 및 사용자 단말(120, 예: 차량에 장착된 내비게이션 단말, 탑승자가 소지한 스마트폰 또는 태플릿 PC 등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다. 예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드, 또는 스포츠 모드(Sport Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 또한, 탑승자가 사용자 단말(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 한편, 사용자 단말(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI(User Interface)를 제공하는 제어 패널(Control Panel)(예: 터치 스크린 패널)로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 사용자 단말(120) 상의 터치 버튼으로 구현될 수도 있다.The integrated autonomous driving control unit 600 may obtain driving information according to a user's manipulation of the user input unit 100 in the autonomous driving mode or the manual driving mode of the vehicle through the driving information input interface 101. The user input unit 100 includes a driving mode switch 110 and a user terminal 120 (e.g., a navigation terminal mounted on a vehicle, a smartphone or a tablet PC, etc.) possessed by a passenger, as shown as an example in FIG. 1 Accordingly, the driving information may include driving mode information and navigation information of the vehicle. For example, the driving mode of the vehicle determined according to the operation of the occupant on the driving mode switch 110 (i.e., autonomous driving mode/manual driving mode, or sports mode/eco mode/safety A mode (Safe Mode)/Normal Mode) may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 101 as the driving information described above. In addition, navigation information such as the passenger's destination input through the user terminal 120 by the occupant and the route to the destination (the shortest route selected by the occupant among candidate routes to the destination, or a preferred route, etc.) is driving information as described above. It may be transmitted to the integrated autonomous driving controller 600 through the input interface 101. Meanwhile, the user terminal 120 may be implemented as a control panel (eg, a touch screen panel) that provides a user interface (UI) for the driver to input or modify information for autonomous driving control of the vehicle. In this case, the driving mode switch 110 described above may be implemented as a touch button on the user terminal 120.

또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 것과 같이 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다. 나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning Sysetm) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.In addition, the autonomous driving integrated control unit 600 may obtain driving information indicating the driving state of the vehicle through the driving information input interface 201. The driving information includes the steering angle formed as the passenger manipulates the steering wheel, the accelerator pedal stroke or the brake pedal stroke formed by depressing the accelerator pedal or the brake pedal, and the vehicle speed, acceleration, yaw, and pitch as the behavior formed in the vehicle. And various information indicating the driving state and behavior of the vehicle such as a roll, and each of the driving information includes a steering angle sensor 210, an APS (Accel Position Sensor)/PTS (Pedal Travel Sensor) as shown in FIG. 220, the vehicle speed sensor 230, the acceleration sensor 240, it may be detected by the driving information detection unit 200 including the yaw / pitch / roll sensor 250. Furthermore, the driving information of the vehicle may include location information of the vehicle, and the location information of the vehicle may be obtained through the GPS (Global Positioning Sysetm) receiver 260 applied to the vehicle. The driving information may be transmitted to the integrated autonomous driving controller 600 through the driving information input interface 201 and used to control the driving of the vehicle in the autonomous driving mode or the manual driving mode.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다. 또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 것과 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 사용자 단말(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.In addition, the integrated autonomous driving controller 600 may transmit driving state information provided to the occupant in the autonomous driving mode or the manual driving mode of the vehicle to the output unit 300 through the occupant output interface 301. That is, the integrated autonomous driving control unit 600 transmits the driving state information of the vehicle to the output unit 300, so that the occupant can drive the vehicle autonomously or manually based on the driving state information output through the output unit 300. The state may be checked, and the driving state information may include various information indicating the driving state of the vehicle, such as a current driving mode, a shift range, and a vehicle speed. In addition, the autonomous driving integrated control unit 600 outputs warning information through the occupant output interface 301 when it is determined that the driver needs a warning in the autonomous driving mode or the manual driving mode of the vehicle together with the driving status information. By transferring to 300, the output unit 300 may output a warning to the driver. In order to audibly and visually output such driving state information and warning information, the output unit 300 may include a speaker 310 and a display device 320 as shown in FIG. 1. In this case, the display device 320 may be implemented as the same device as the user terminal 120 described above, or may be implemented as a separate and independent device.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 것과 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.In addition, the autonomous driving integrated control unit 600 may transmit control information for driving control of the vehicle in the autonomous driving mode or the manual driving mode of the vehicle to the lower control system 400 applied to the vehicle through the vehicle control output interface 401. have. The lower control system 400 for driving control of a vehicle may include an engine control system 410, a braking control system 420, and a steering control system 430 as shown in FIG. 1, and an integrated autonomous driving control unit 600 may transmit engine control information, braking control information, and steering control information as the control information to each of the sub-control systems 410, 420, and 430 through the vehicle control output interface 401. Accordingly, the engine control system 410 may increase or decrease the fuel supplied to the engine to control the vehicle speed and acceleration, and the braking control system 420 may control the braking of the vehicle by adjusting the braking force of the vehicle. In addition, the steering control system 430 may control the steering of the vehicle through a steering device applied to the vehicle (eg, a Motor Driven Power Steering (MDPS) system).

상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.As described above, the autonomous driving integrated control unit 600 according to the present embodiment provides driving information according to the driver's manipulation and driving information indicating the driving state of the vehicle through the driving information input interface 101 and the driving information input interface 201, respectively. The driving state information and warning information generated according to the autonomous driving algorithm acquired and processed by the internal processor 610 may be transmitted to the output unit 300 through the occupant output interface 301, and the internal processor ( Control information generated according to the autonomous driving algorithm processed by 610 may be transmitted to the lower control system 400 through the vehicle control output interface 401 to perform driving control of the vehicle.

한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 것과 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. 센서부(500)는 도 1에 도시된 것과 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.Meanwhile, in order to ensure stable autonomous driving of the vehicle, it is necessary to continuously monitor the driving state by accurately measuring the driving environment of the vehicle and control the driving according to the measured driving environment. To this end, the autonomous driving apparatus of this embodiment As shown in FIG. 1, it may include a sensor unit 500 for detecting objects around the vehicle, such as surrounding vehicles, pedestrians, roads, or fixed facilities (eg, traffic lights, milestones, traffic signs, construction fences, etc.). The sensor unit 500 may include one or more of a lidar sensor 510, a radar sensor 520, and a camera sensor 530 to detect surrounding objects outside the vehicle as shown in FIG. 1.

라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(620)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The lidar sensor 510 can detect surrounding objects outside the vehicle by transmitting a laser signal around the vehicle and receiving a signal that is reflected and returned to the object. It is possible to detect surrounding objects located within a vertical field of view and a set horizontal field of view. The lidar sensor 510 may include a front lidar sensor 511, an upper lidar sensor 512, and a rear lidar sensor 513 respectively installed at the front, upper and rear of the vehicle, but the installation position thereof And the number of installations is not limited to a specific embodiment. The threshold value for determining the validity of the laser signal reflected and returned from the object may be stored in advance in the memory 620 of the integrated autonomous driving controller 600, and the processor 610 of the integrated autonomous driving controller 600 Is to determine the position (including the distance to the object), speed, and movement direction of the object through a method of measuring the time when the laser signal transmitted through the lidar sensor 510 is reflected on the object and returns. I can.

레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The radar sensor 520 can detect surrounding objects outside the vehicle by emitting electromagnetic waves around the vehicle and receiving a signal reflected back from the object, and a preset distance, a set vertical angle of view, and Nearby objects located within the set horizontal angle of view can be detected. The radar sensor 520 includes a front radar sensor 521, a left radar sensor 521, a right radar sensor 522, and a rear radar sensor 523 respectively installed on the front, left, right and rear of the vehicle. However, the installation location and the number of installations are not limited to specific embodiments. The processor 610 of the autonomous driving integrated control unit 600 analyzes the power of the electromagnetic waves transmitted and received through the radar sensor 520 to determine the location of the object (including the distance to the object) and speed. And the moving direction can be determined.

카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다. 또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.The camera sensor 530 may detect surrounding objects outside the vehicle by photographing the surroundings of the vehicle, and may detect surrounding objects located within a preset distance, a set vertical angle of view, and a set horizontal angle of view according to the specifications. . The camera sensor 530 includes a front camera sensor 531, a left camera sensor 532, a right camera sensor 533, and a rear camera sensor 534 respectively installed on the front, left, right and rear of the vehicle. However, the installation location and the number of installations are not limited to specific embodiments. The processor 610 of the autonomous driving integrated control unit 600 applies a predefined image processing processing to the image captured through the camera sensor 530, so that the location of the object (including the distance to the object) and speed And the moving direction can be determined. In addition, an internal camera sensor 535 for capturing the inside of the vehicle may be mounted at a predetermined position (eg, a rear view mirror) inside the vehicle, and the processor 610 of the autonomous driving integrated control unit 600 is an internal camera A guide or warning may be output to the occupant through the above-described output unit 300 by monitoring the occupant's behavior and condition based on the image acquired through the sensor 535.

라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 것과 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. 도 3은 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 도 5는 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)가 전방의 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 도시하고 있으며, 도 6은 각 센서가 주변 객체를 검출하는 예시를 도시하고 있다. 도 6은 주변 객체 검출의 일 예시일 뿐, 주변 객체 검출 방식은 센서의 설치 위치 및 설치 수에 의존하여 결정된다. 전술한 센서부(500)의 구성에 따라 자차량의 전방위 영역의 주변 차량 및 주변 객체가 검출될 수 있다.In addition to the lidar sensor 510, the radar sensor 520, and the camera sensor 530, the sensor unit 500 may further include an ultrasonic sensor 540 as shown in FIG. Various types of sensors for detecting surrounding objects may be further employed in the sensor unit 500. 3 is a front lidar sensor 511 or a front radar sensor 521 installed on the front of the vehicle, and a rear lidar sensor 513 or a rear radar sensor 524 is installed at the rear of the vehicle to aid understanding of this embodiment. The front camera sensor 531, the left camera sensor 532, the right camera sensor 533, and the rear camera sensor 534 are respectively installed on the front, left, right and rear sides of the vehicle. , As described above, the installation position and number of each sensor are not limited to a specific embodiment. FIG. 5 shows an example of a set distance and a horizontal angle of view at which the lidar sensor 510, the radar sensor 520, and the camera sensor 530 can detect surrounding objects in front, and FIG. 6 is An example of detecting an object is shown. 6 is only an example of detecting surrounding objects, and a method of detecting surrounding objects is determined depending on the installation location and number of sensors. According to the configuration of the sensor unit 500 described above, surrounding vehicles and surrounding objects in an omnidirectional region of the host vehicle may be detected.

나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 음성 및 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 마이크 및 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.Furthermore, the sensor unit 500 detects voice and bio signals of the occupant (eg, heart rate, electrocardiogram, respiration, blood pressure, body temperature, brain waves, blood flow (pulse wave), blood sugar, etc.) to determine the state of the occupant in the vehicle. It may further include a microphone and a biometric sensor, and the biometric sensor includes a heart rate sensor, an electrocardiogram sensor, a breathing sensor, a blood pressure sensor, a body temperature sensor, an electroencephalogram sensor, a photoplethysmography sensor, and a blood sugar sensor. This can be.

도 4는 차량의 내부 구조의 예시를 도시하고 있으며, 차량의 내부에는 차량의 운전자 또는 동승자와 같은 탑승자의 조작에 의해 그 상태가 제어되어 탑승자의 운전 또는 편의(예: 휴식, 엔터테인먼트 활동 등)를 지원하기 위한 내부 장치가 설치되어 있을 수 있다. 이러한 내부 장치에는 탑승자가 안착하는 차량 시트(S), 내부 라이트 및 무드등과 같은 조명 장치(L), 전술한 사용자 단말(120) 및 디스플레이 장치(320), 내부 테이블 등이 포함될 수 있으며, 이러한 내부 장치는 프로세서(610)에 의해 그 상태가 제어될 수 있다.4 shows an example of the internal structure of the vehicle, and the state of the vehicle is controlled by the operation of the occupant, such as the driver or passenger of the vehicle, to facilitate the driver's driving or convenience (e.g., rest, entertainment activities, etc.) Internal devices may be installed to support. Such an internal device may include a vehicle seat (S) on which the occupant is seated, a lighting device such as an interior light and mood lamp (L), the aforementioned user terminal 120 and a display device 320, an interior table, and the like. The state of the internal device may be controlled by the processor 610.

차량 시트(S)의 경우, 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 차량 시트(S)가 앞 열 시트(S1) 및 뒷 열 시트(S2)로 구성되어 있는 경우 앞 열 시트(S1)의 각도만 조절될 수 있다. 뒷 열 시트(S2)가 구비되어 있지 않은 경우로서 앞 열 시트(S1)가 시트 구조 및 발받침 구조로 구분되어 있는 경우에는 앞 열 시트(S1)의 시트 구조가 발받침 구조와 물리적으로 분리되고 그 각도가 조절되도록 구현될 수 있다. 또한, 차량 시트(S)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다. 조명 장치(L)의 경우, 그 온오프가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 제어될 수 있으며, 조명 장치(L)가 내부 라이트 및 무드등과 같이 복수의 조명 유닛을 포함할 경우 각각의 조명 유닛은 그 온오프가 독립적으로 제어될 수 있다. 사용자 단말(120) 또는 디스플레이 장치(320)는 탑승자의 시야각에 따라 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 예를 들어 탑승자의 시선 방향에 그 화면이 존재하도록 각도가 조절될 수 있다. 이 경우, 사용자 단말(120) 및 디스플레이 장치(320)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다.In the case of the vehicle seat S, the angle can be adjusted by the processor 610 (or by manual operation of the occupant), and the vehicle seat S is the front row seat S1 and the rear row seat S2 If it is composed of, only the angle of the front row seat (S1) can be adjusted. If the rear row seat (S2) is not provided and the front row seat (S1) is divided into a seat structure and a footrest structure, the seat structure of the front row seat (S1) is physically separated from the footrest structure. It can be implemented so that the angle is adjusted. In addition, an actuator (eg, a motor) for adjusting the angle of the vehicle seat S may be provided. In the case of the lighting device L, the on/off may be controlled by the processor 610 (or by manual operation of the occupant), and the lighting device L may operate a plurality of lighting units such as internal lights and mood lights. When included, each lighting unit can be independently controlled on and off. The user terminal 120 or the display device 320 may adjust the angle according to the occupant's viewing angle by the processor 610 (or by the occupant's manual operation), for example, the screen in the direction of the occupant's gaze. The angle can be adjusted so that there is. In this case, an actuator (eg, a motor) for adjusting the angles of the user terminal 120 and the display device 320 may be provided.

자율 주행 통합 제어부(600)는 도 1에 도시된 것과 같이 네트워크를 통해 서버(700)와 통신할 수 있다. 자율 주행 통합 제어부(600) 및 서버(700) 간의 네트워크 방식으로는 WAN(Wide Area Network), LAN(Local Area Network), 또는 PAN(Personal Area Network) 등 다양한 통신 방식이 채용될 수 있다. 또한, 넓은 네트워크 커버리지를 확보하기 위해, LPWAN(Low Power Wide Area Network, 사물 인터넷 중 커버리지가 매우 넓은 네트워크로서, LoRa, Sigfox, Ingenu, LTE-M, NB-IOT 등의 상용화된 기술을 포함) 통신 방식이 채용될 수 있다. 예를 들어, LoRa(저전력의 통신이 가능하면서도 최대 20Km 정도로 넓은 커버리지를 가짐), 또는 Sigfox(환경에 따라 10Km(도심) 내지 30Km(도심을 벗어난 외곽 지역)의 커버리지를 가짐)의 통신 방식이 채용될 수 있으며, 나아가 전력 절약 모드(PSM: Power Saving Mode)를 갖는 LTE-MTC(Machine-type Communications)(또는, LTE-M), NB(Narrowband) LTE-M, NB IoT와 같은 3GPP(3rd Generation Partnership Project) 릴리즈 12, 13 기반의 LTE 네트워크 기술이 채용될 수도 있다. 서버(700)는 최신성이 유지되는 지도 정보(2차원 항법 지도 데이터, 3차원 격지 지도 데이터, 또는 3차원 고정밀 전자지도 데이터 등 다양한 지도 정보가 해당될 수 있다)를 제공할 수 있으며, 나아가 도로의 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보 등 다양한 정보를 제공할 수도 있다. 자율 주행 통합 제어부(600)는 서버(700)로부터 최신의 지도 정보를 전달받아 메모리(620)에 저장된 지도 정보를 갱신할 수 있고, 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보를 제공받아 차량의 자율 주행 제어에 활용할 수도 있다.The integrated autonomous driving controller 600 may communicate with the server 700 through a network as shown in FIG. 1. As a network method between the autonomous driving integrated control unit 600 and the server 700, various communication methods such as a wide area network (WAN), a local area network (LAN), or a personal area network (PAN) may be employed. In addition, in order to secure wide network coverage, LPWAN (Low Power Wide Area Network, a network with very wide coverage among Internet of Things, including commercialized technologies such as LoRa, Sigfox, Ingenu, LTE-M, NB-IOT, etc.) communication The scheme can be employed. For example, LoRa (low-power communication is possible, but has a wide coverage of up to 20Km), or Sigfox (which has a coverage of 10Km (city) to 30Km (outskirts outside the city) depending on the environment) is adopted. In addition, 3GPP (3rd Generation) such as LTE-MTC (Machine-type Communications) (or LTE-M), NB (Narrowband) LTE-M, and NB IoT having a power saving mode (PSM) Partnership Project) Release 12, 13-based LTE network technology may be employed. The server 700 may provide map information that is kept up to date (various map information such as two-dimensional navigation map data, three-dimensional remote map data, or three-dimensional high-precision electronic map data may correspond), and further It can also provide various information such as accident information, road control information, traffic volume information and weather information. The autonomous driving integrated control unit 600 may receive the latest map information from the server 700 and update the map information stored in the memory 620, and receive accident information, road control information, traffic volume information, and weather information to It can also be used for autonomous driving control.

다음으로, 도 2를 참조하여 본 실시예의 자율 주행 통합 제어부(600)의 구조 및 기능에 대하여 설명한다. 도 2에 도시된 것과 같이 자율 주행 통합 제어부(600)는 프로세서(610) 및 메모리(620)를 포함할 수 있다.Next, the structure and function of the integrated autonomous driving controller 600 according to the present embodiment will be described with reference to FIG. 2. As shown in FIG. 2, the integrated autonomous driving controller 600 may include a processor 610 and a memory 620.

메모리(620)는 차량의 자율 주행 제어를 위해 필요한 기본 정보를 저장하거나, 프로세서(610)에 의해 차량의 자율 주행이 제어되는 과정에서 생성되는 정보를 저장할 수 있으며, 프로세서(610)는 메모리(620)에 저장된 정보에 접근(read, access)하여 차량의 자율 주행을 제어할 수 있다. 메모리(620)는 컴퓨터로 판독 가능한 기록 매체로 구현되어 프로세서(610)가 접근 가능하도록 동작할 수 있다. 구체적으로, 메모리(620)는 하드 드라이브(Hard Drive), 자기 테이프, 메모리 카드(Memory Card), ROM(Read-Only Memory), RAM(Random-Access Memory), DVD(Digital Video Disc) 또는 광학 디스크와 같은 광 데이터 저장장치로 구현될 수 있다.The memory 620 may store basic information necessary for the autonomous driving control of the vehicle, or may store information generated in the process of controlling the autonomous driving of the vehicle by the processor 610, and the processor 610 may store the memory 620 ), you can control the autonomous driving of the vehicle by accessing (read, access) the information stored in it. The memory 620 may be implemented as a computer-readable recording medium and may operate to allow the processor 610 to access it. Specifically, the memory 620 is a hard drive, magnetic tape, memory card, read-only memory (ROM), random-access memory (RAM), digital video disc (DVD), or optical disk. It may be implemented as an optical data storage device such as.

메모리(620)에는 프로세서(610)에 의한 자율 주행 제어에 요구되는 지도 정보가 저장되어 있을 수 있다. 메모리(620)에 저장된 지도 정보는 도로 단위의 정보를 제공하는 항법 지도(수치지형도)일 수도 있으나, 자율 주행 제어의 정밀도를 향상하기 위해 차선(Lane) 단위의 도로 정보를 제공하는 정밀 도로 지도, 즉 3차원 고정밀 전자지도 데이터로 구현됨이 바람직할 수 있다. 이에 따라, 메모리(620)에 저장된 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다.Map information required for autonomous driving control by the processor 610 may be stored in the memory 620. The map information stored in the memory 620 may be a navigation map (a numerical topographic map) that provides road-level information, but a precision road map that provides road information in units of lanes to improve the precision of autonomous driving control, That is, it may be desirable to be implemented as 3D high-precision electronic map data. Accordingly, the map information stored in the memory 620 is dynamic and necessary for autonomous driving control of the vehicle, such as lanes, lane center lines, regulatory lines, road boundaries, road center lines, traffic signs, road signs, road shapes and heights, and lane widths. Static information can be provided.

또한, 메모리(620)에는 차량의 자율 주행 제어를 위한 자율 주행 알고리즘이 저장되어 있을 수 있다. 자율 주행 알고리즘은 자율 주행 차량 주변을 인식하고 그 상태를 판단하여 그 판단 결과에 따라 차량의 주행을 제어하는 알고리즘(인식, 판단 및 제어 알고리즘)으로서, 프로세서(610)는 메모리(620)에 저장된 자율 주행 알고리즘을 실행하여 차량의 주변 환경에 능동적인 자율 주행 제어를 수행할 수 있다.In addition, the memory 620 may store an autonomous driving algorithm for autonomous driving control of a vehicle. The autonomous driving algorithm is an algorithm (recognition, determination and control algorithm) that recognizes the surroundings of an autonomous vehicle, determines its state, and controls the driving of the vehicle according to the determination result, and the processor 610 is an autonomous vehicle stored in the memory 620 By executing the driving algorithm, it is possible to perform active autonomous driving control in the surrounding environment of the vehicle.

프로세서(610)는 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보 및 자율 주행 알고리즘을 기반으로 차량의 자율 주행을 제어할 수 있다. 프로세서(610)는 CISC(Complex Instruction Set Computer) 또는 RISC(Reduced Instruction Set Computer)와 같은 임베디드 프로세서(Embedded Processor), 또는 주문형 반도체(ASIC: Application Specific Integrated Circuit)와 같은 전용 반도체 회로로 구현될 수도 있다.The processor 610 includes driving information and driving information respectively input from the driving information input interface 101 and the driving information input interface 201 described above, information on surrounding objects detected through the sensor unit 500, and memory. The autonomous driving of the vehicle may be controlled based on the map information stored in 620 and the autonomous driving algorithm. The processor 610 may be implemented as a dedicated semiconductor circuit such as an embedded processor such as a complex instruction set computer (CISC) or a reduced instruction set computer (RISC), or an application specific integrated circuit (ASIC). .

본 실시예에서 프로세서(610)는 자차량 및 주변 차량의 각 주행 궤적을 분석하여 자차량의 자율 주행을 제어할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 프로세서(610)는 센서 처리 모듈(611), 주행 궤적 생성 모듈(612), 주행 궤적 분석 모듈(613), 주행 제어 모듈(614), 궤적 학습 모듈(615) 및 탑승자 상태 판단 모듈(616)을 포함할 수 있다. 도 2는 기능에 따라 각 모듈을 독립적인 블록으로 도시하고 있으나, 각 모듈이 하나의 모듈로 통합되어 각각의 기능을 통합적으로 수행하는 구성으로 구현될 수도 있다.In this embodiment, the processor 610 may control autonomous driving of the own vehicle by analyzing each driving trajectory of the own vehicle and the surrounding vehicle. To this end, as shown in FIG. 2, the processor 610 includes a sensor processing module ( 611), a driving trajectory generation module 612, a driving trajectory analysis module 613, a driving control module 614, a trajectory learning module 615, and a passenger status determination module 616. Although FIG. 2 shows each module as an independent block according to a function, each module may be integrated into one module to be implemented in a configuration in which each function is integrated.

센서 처리 모듈(611)은 센서부(500)를 통해 자차량의 주변 차량이 검출된 결과를 기반으로 주변 차량의 주행 정보(즉, 주변 차량의 위치를 포함하며, 위치와 함께 주변 차량의 속도 및 이동 방향을 더 포함할 수도 있다)를 판단할 수 있다. 즉, 라이다 센서(510)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 레이더 센서(520)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 카메라 센서(530)를 통해 촬상된 이미지를 기반으로 주변 차량의 위치를 판단하거나, 초음파 센서(540)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단할 수 있다. 이를 위해, 도 1에 도시된 것과 같이 센서 처리 모듈(611)은 라이다 신호 처리 모듈(611a), 레이더 신호 처리 모듈(611b) 및 카메라 신호 처리 모듈(611c)을 포함할 수 있다(초음파 신호 처리 모듈이 센서 처리 모듈(611)에 더 부가될 수도 있다). 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)를 활용하여 주변 차량의 위치를 결정하는 방법은 특정의 실시예로 그 구현 방식이 한정되지 않는다. 또한, 센서 처리 모듈(611)은 주변 차량의 위치, 속도 및 이동 방향뿐만 아니라 주변 차량의 크기 및 종류 등의 속성 정보를 판단할 수도 있으며, 상기와 같은 주변 차량의 위치, 속도, 이동 방향, 크기 및 종류와 같은 정보를 판단하기 위한 알고리즘이 미리 정의되어 있을 수 있다.The sensor processing module 611 includes driving information of the surrounding vehicle (that is, the location of the surrounding vehicle, and includes the location of the surrounding vehicle and the speed of the surrounding vehicle along with the location) based on the result of detecting the surrounding vehicle of the host vehicle through the sensor unit 500. It may further include a moving direction). That is, the position of the surrounding vehicle is determined based on the signal received through the lidar sensor 510, the position of the surrounding vehicle is determined based on the signal received through the radar sensor 520, or the camera sensor 530 The location of the surrounding vehicle may be determined based on the image captured through the device, or the location of the surrounding vehicle may be determined based on a signal received through the ultrasonic sensor 540. To this end, the sensor processing module 611 as shown in FIG. 1 may include a lidar signal processing module 611a, a radar signal processing module 611b, and a camera signal processing module 611c (ultrasonic signal processing A module may be further added to the sensor processing module 611). A method of determining a location of a nearby vehicle using the lidar sensor 510, the radar sensor 520, and the camera sensor 530 is a specific embodiment, and the implementation method is not limited thereto. In addition, the sensor processing module 611 may determine attribute information such as the size and type of the surrounding vehicle as well as the location, speed, and movement direction of the surrounding vehicle, and the position, speed, movement direction, and size of the surrounding vehicle as described above. And an algorithm for determining information such as type may be predefined.

주행 궤적 생성 모듈(612)은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적과, 자차량의 실제 주행 궤적을 생성할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)을 포함할 수 있다.The driving trajectory generation module 612 can generate the actual driving trajectory and the expected driving trajectory of the surrounding vehicle, and the actual driving trajectory of the own vehicle, and for this purpose, as shown in FIG. 2, the surrounding vehicle driving trajectory generation module 612a And a driving trajectory generation module 612b of the own vehicle.

먼저, 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 실제 주행 궤적을 생성할 수 있다.First, the surrounding vehicle driving trajectory generation module 612a may generate an actual driving trajectory of the surrounding vehicle.

구체적으로, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 검출된 주변 차량의 주행 정보(즉, 센서 처리 모듈(611)에 의해 결정된 주변 차량의 위치)에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 이 경우, 주변 차량의 실제 주행 궤적을 생성하기 위해 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보를 참조할 수 있으며, 센서부(500)에 의해 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 주변 차량 주행 궤적 생성 모듈(612a)은 상기의 교차 참조를 기반으로, 센서부(500)에 의해 검출된 주변 차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the surrounding vehicle driving trajectory generation module 612a is based on the driving information of the surrounding vehicle detected by the sensor unit 500 (that is, the position of the surrounding vehicle determined by the sensor processing module 611). You can create an actual driving trajectory. In this case, in order to generate the actual driving trajectory of the surrounding vehicle, the surrounding vehicle driving trajectory generation module 612a may refer to the map information stored in the memory 620, and the position of the surrounding vehicle detected by the sensor unit 500 And a random location on the map information stored in the memory 620 may be cross-referenced to generate an actual driving trajectory of the surrounding vehicle. For example, when a nearby vehicle is detected at a specific point by the sensor unit 500, the surrounding vehicle driving trajectory generation module 612a is a location of the detected surrounding vehicle and an arbitrary location on the map information stored in the memory 620. By cross-referencing, it is possible to specify the location of the currently detected surrounding vehicle on the map information, and by continuously monitoring the location of the surrounding vehicle as described above, the actual driving trajectory of the surrounding vehicle can be generated. That is, the surrounding vehicle driving trajectory generation module 612a maps and accumulates the location of the surrounding vehicle detected by the sensor unit 500 to the location on the map information stored in the memory 620 based on the cross reference. The actual driving trajectory of the vehicle can be created.

한편, 주변 차량의 실제 주행 궤적은 후술하는 주변 차량의 예상 주행 궤적과 비교되어 메모리(620)에 저장된 지도 정보의 부정확 여부를 판단하기 위해 활용될 수 있다. 이 경우, 어느 특정한 주변 차량의 실제 주행 궤적을 예상 주행 궤적과 비교할 경우 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하는 문제가 발생할 수 있다. 예를 들어, 다수의 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 일치하고, 어느 특정 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 상이할 경우, 상기 특정 주변 차량의 실제 주행 궤적만을 예상 주행 궤적과 비교하면 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하게 될 수 있다. 따라서, 복수의 주변 차량의 실제 주행 궤적의 경향성이 예상 주행 궤적을 벗어나는지 여부를 판단할 필요성이 있으며, 이를 위해 주변 차량 주행 궤적 생성 모듈(612a)은 복수의 주변 차량의 실제 주행 궤적을 각각 생성할 수도 있다. 나아가, 주변 차량의 운전자가 직선 경로 주행을 위해 주행 과정에서 조향휠을 좌우측으로 다소 움직이는 경향이 있음을 고려하면 주변 차량의 실제 주행 궤적은 직선이 아닌 굴곡이 있는 형태로 생성될 수도 있으며, 후술하는 예상 주행 궤적 간의 오차 산출을 위해 주변 차량 주행 궤적 생성 모듈(612a)은 굴곡이 있는 형태로 생성되는 원시의 실제 주행 궤적에 소정의 평활화 기법을 적용하여 직선 형태의 실제 주행 궤적을 생성할 수도 있다. 평활화 기법으로는 주변 차량의 각 위치에 대한 보간(interpolation) 등 다양한 기법이 채용될 수 있다.Meanwhile, the actual driving trajectory of the surrounding vehicle may be compared with the predicted driving trajectory of the surrounding vehicle to be described later, and used to determine whether the map information stored in the memory 620 is incorrect. In this case, when comparing the actual driving trajectory of a specific surrounding vehicle with the predicted driving trajectory, a problem of erroneously determining that the map information is accurate but inaccurate may arise. For example, when the actual driving trajectory of a plurality of surrounding vehicles and the predicted driving trajectory coincide with each other, and the actual driving trajectory and the predicted driving trajectory of a specific surrounding vehicle are different, only the actual driving trajectory of the specific surrounding vehicle is matched with the expected driving trajectory. In comparison, even though the map information is accurate, it can be misjudged as inaccurate. Therefore, there is a need to determine whether the tendency of the actual driving trajectory of the plurality of surrounding vehicles deviates from the expected driving trajectory, and for this purpose, the driving trajectory generation module 612a of the surrounding vehicles generates the actual driving trajectories of the plurality of surrounding vehicles, respectively. You may. Furthermore, considering that the driver of the surrounding vehicle tends to move the steering wheel to the left and right during the driving process for a straight path driving, the actual driving trajectory of the surrounding vehicle may be generated in a curved shape rather than a straight line. In order to calculate the error between the predicted driving trajectories, the driving trajectory generation module 612a of the surrounding vehicle may generate the actual driving trajectory in the form of a straight line by applying a predetermined smoothing technique to the original actual driving trajectory that is generated in a curved form. Various techniques such as interpolation for each position of the surrounding vehicle can be employed as the smoothing technique.

또한, 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있다.Also, the surrounding vehicle driving trajectory generation module 612a may generate a predicted driving trajectory of the surrounding vehicle based on map information stored in the memory 620.

전술한 것과 같이 메모리(620)에 저장된 지도 정보는 3차원 고정밀 전자지도 데이터일 수 있으며, 따라서 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다. 일반적으로 차량은 차로의 중앙에서 주행하는 점을 고려하면, 자차량의 주변에서 주행하고 있는 주변 차량 또한 차로의 중앙에서 주행할 것으로 예상될 수 있으며, 따라서 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.As described above, the map information stored in the memory 620 may be 3D high-precision electronic map data. Therefore, the map information includes lanes, lane center lines, regulatory lines, road boundaries, road center lines, traffic signs, road signs, and road shapes. And it is possible to provide dynamic and static information necessary for autonomous driving control of the vehicle, such as height and lane width. In general, considering that the vehicle runs in the center of the lane, it may be expected that the surrounding vehicles running in the vicinity of the own vehicle also travel in the center of the lane. Therefore, the surrounding vehicle driving trajectory generation module 612a The vehicle's predicted driving trajectory can be generated as a lane center line reflected in the map information.

자차량 주행 궤적 생성 모듈(612b)은 전술한 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 주행 정보에 기초하여 자차량이 현재까지 주행한 실제 주행 궤적을 생성할 수 있다.The own vehicle driving trajectory generation module 612b may generate an actual driving trajectory that the own vehicle has traveled to date based on the driving information of the own vehicle acquired through the driving information input interface 201 described above.

구체적으로, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 위치 정보)와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 자차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 자차량의 위치를 특정할 수 있으며, 상기와 같이 자차량의 위치를 지속적으로 모니터링함으로써 자차량의 실제 주행 궤적을 생성할 수 있다. 즉, 자차량 주행 궤적 생성 모듈(612b)은 상기의 교차 참조를 기반으로, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 자차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the host vehicle driving trajectory generation module 612b includes a location of the host vehicle obtained through the driving information input interface 201 (that is, location information of the host vehicle obtained through the GPS receiver 260) and a memory 620 ), it is possible to create an actual driving trajectory of the own vehicle by cross-referencing an arbitrary location on the map information stored in ). For example, by cross-referencing the location of the own vehicle acquired through the driving information input interface 201 and an arbitrary location on the map information stored in the memory 620, the current location of the own vehicle can be specified on the map information, As described above, by continuously monitoring the position of the own vehicle, an actual driving trajectory of the own vehicle can be generated. That is, the host vehicle driving trajectory generation module 612b maps and accumulates the location of the host vehicle acquired through the driving information input interface 201 to the location on the map information stored in the memory 620 based on the cross reference. By doing so, it is possible to generate an actual traveling trajectory of the own vehicle.

또한, 자차량 주행 궤적 생성 모듈(612b)은 메모리에 저장된 지도 정보에 기초하여 자차량이 목적지까지 주행해야 할 예상 주행 궤적을 생성할 수 있다.In addition, the own vehicle driving trajectory generation module 612b may generate a predicted driving trajectory in which the own vehicle should travel to the destination based on map information stored in the memory.

즉, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 현재 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 현재 위치 정보)와 메모리에 저장된 지도 정보를 이용하여 목적지까지의 예상 주행 궤적을 생성할 수 있으며, 자차량의 예상 주행 궤적은 주변 차량의 예상 주행 궤적과 마찬가지로 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성될 수 있다.That is, the own vehicle driving trajectory generation module 612b is stored in the current position of the own vehicle obtained through the driving information input interface 201 (that is, the current position information of the own vehicle obtained through the GPS receiver 260) and the memory. An estimated driving trajectory to the destination can be generated using the stored map information, and the predicted driving trajectory of the own vehicle will be generated as a center line of the lane reflected in the map information stored in the memory 620 like the predicted driving trajectory of nearby vehicles. I can.

주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 주행 궤적은 메모리(620)에 저장될 수 있으며, 프로세서(610)에 의해 자차량의 자율 주행이 제어되는 과정에서 다양한 목적으로 활용될 수 있다.The driving trajectory generated by the surrounding vehicle driving trajectory generating module 612a and the own vehicle driving trajectory generating module 612b may be stored in the memory 620, and the autonomous driving of the own vehicle is controlled by the processor 610. It can be used for various purposes in the process.

주행 궤적 분석 모듈(613)은 주행 궤적 생성 모듈(612)에 의해 생성되어 메모리(620)에 저장된 각 주행 궤적(즉, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적, 자차량의 실제 주행 궤적)을 분석하여 현재 자차량에 대한 자율 주행 제어의 신뢰도를 진단할 수 있다. 자율 주행 제어의 신뢰도 진단은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차를 분석하는 과정으로 진행될 수 있다.The driving trajectory analysis module 613 is generated by the driving trajectory generation module 612 and stored in the memory 620 (that is, the actual driving trajectory and the expected driving trajectory of the surrounding vehicle, the actual driving trajectory of the own vehicle). By analyzing, it is possible to diagnose the reliability of autonomous driving control for the current own vehicle. The reliability diagnosis of autonomous driving control may be performed by analyzing a trajectory error between an actual driving trajectory and an expected driving trajectory of nearby vehicles.

주행 제어 모듈(614)은 자차량의 자율 주행을 제어하는 기능을 수행할 수 있으며, 구체적으로 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보를 종합적으로 이용하여 자율 주행 알고리즘을 처리하며, 차량 제어 출력 인터페이스(401)를 통해 제어 정보를 전달하여 하위 제어 시스템(400)으로 하여금 자차량의 자율 주행을 제어하도록 할 수 있고, 또한 탑승자 출력 인터페이스(301)를 통해 자차량의 주행 상태 정보 및 경고 정보를 출력부(300)로 전달하여 운전자가 인지하도록 할 수 있다. 또한, 주행 제어 모듈(614)은 상기와 같은 자율 주행을 통합적으로 제어할 때 전술한 센서 처리 모듈(611), 주행 궤적 생성 모듈(612) 및 주행 궤적 분석 모듈(613)에 의해 분석된 자차량 및 주변 차량의 주행 궤적을 고려하여 자율 주행을 제어함으로써 자율 주행 제어의 정밀도를 향상시키고 자율 주행 제어 안정성을 개선할 수 있다.The driving control module 614 may perform a function of controlling autonomous driving of the own vehicle, and specifically, driving information and driving information input from the driving information input interface 101 and the driving information input interface 201 described above, respectively. Wow, the autonomous driving algorithm is processed by comprehensively using information on surrounding objects detected through the sensor unit 500 and map information stored in the memory 620, and control information is transmitted through the vehicle control output interface 401. It is possible to allow the lower control system 400 to control the autonomous driving of the own vehicle by transmitting the vehicle, and also transmit the driving state information and warning information of the own vehicle to the output unit 300 through the occupant output interface 301 to the driver Can be made aware of. In addition, when the driving control module 614 integrally controls the autonomous driving as described above, the own vehicle analyzed by the sensor processing module 611, the driving trajectory generation module 612, and the driving trajectory analysis module 613 And by controlling the autonomous driving in consideration of the driving trajectory of the surrounding vehicle, the precision of the autonomous driving control may be improved and the stability of the autonomous driving control may be improved.

궤적 학습 모듈(615)은 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 자차량의 실제 주행 궤적에 대한 학습 또는 보정을 수행할 수 있다. 예를 들어, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 메모리(620)에 저장된 지도 정보의 부정확한 것으로 판단하여 자차량의 실제 주행 궤적의 보정이 필요한 것으로 판단할 수 있으며, 이에 따라 자차량의 실제 주행 궤적을 보정하기 위한 횡방향 시프트값을 결정하여 자차량의 주행 궤적을 보정할 수 있다.The trajectory learning module 615 may learn or correct the actual driving trajectory of the own vehicle generated by the own vehicle driving trajectory generation module 612b. For example, if the trajectory error between the actual driving trajectory of the surrounding vehicle and the expected driving trajectory is greater than or equal to a preset threshold, it is determined that the map information stored in the memory 620 is inaccurate and it is determined that the actual driving trajectory of the own vehicle needs to be corrected. Accordingly, a lateral shift value for correcting the actual traveling trajectory of the own vehicle may be determined to correct the traveling trajectory of the own vehicle.

탑승자 상태 판단 모듈(616)은 전술한 내부 카메라 센서(535) 및 생체 센서에 의해 검출된 탑승자의 상태 및 생체 신호를 토대로 탑승자의 상태 및 거동을 판단할 수 있다. 탑승자 상태 판단 모듈(616)에 의해 판단된 탑승자의 상태는 자차량의 자율 주행 제어 또는 탑승자에 대한 경고를 출력하는 과정에서 활용될 수 있다.The occupant state determination module 616 may determine the occupant's state and behavior based on the occupant's state and bio-signals detected by the aforementioned internal camera sensor 535 and the biometric sensor. The state of the occupant determined by the occupant state determination module 616 may be used in the process of controlling the autonomous driving of the own vehicle or outputting a warning to the occupant.

전술한 내용에 기초하여, 이하에서는 자차량의 자율 주행 과정에서 탑승자에 의해 설정되는 내부 제어 모드에 따라 차량 내부 장치의 상태를 제어하는 실시예에 대하여 설명한다.Based on the above description, an embodiment of controlling the state of a vehicle internal device according to an internal control mode set by an occupant in the autonomous driving process of the own vehicle will be described below.

먼저, 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어할 수 있다. 이때, 프로세서(610)는 메모리(620)에 저장된 지도 정보, 및 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 예상 주행 궤적 및 실제 주행 궤적을 각각 생성하고, 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 서버(700)로부터 전송되는 신규 지도 정보를 이용하여 메모리(620)에 저장된 지도 정보를 업데이트하며, 업데이트된 지도 정보에 기초하여 자차량의 자율 주행을 제어할 수도 있다.First, the processor 610 may control autonomous driving of the own vehicle based on map information stored in the memory 620. At this time, the processor 610 generates an estimated driving trajectory and an actual driving trajectory of nearby vehicles based on the map information stored in the memory 620 and driving information of the surrounding vehicle detected by the sensor unit 500, respectively, and When the trajectory error between the predicted driving trajectory of the vehicle and the actual driving trajectory is greater than or equal to a preset threshold, the map information stored in the memory 620 is updated using the new map information transmitted from the server 700, and the updated map information is It is also possible to control the autonomous driving of the own vehicle based on it.

구체적으로, 전술한 것과 같이 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 주변 차량의 예상 주행 궤적을 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.Specifically, as described above, the processor 610 (the driving trajectory generation module 612) may generate the predicted driving trajectory of the surrounding vehicle based on the map information stored in the memory 620. In this case, the processor 610 ) May generate the predicted driving trajectory of the surrounding vehicle as a lane center line reflected in the map information stored in the memory 620.

그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 프로세서(610)는 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.Further, the processor 610 (the driving trajectory generation module 612 of) may generate an actual driving trajectory of the surrounding vehicle based on driving information of the surrounding vehicle detected by the sensor unit 500. That is, when a nearby vehicle is detected at a specific point by the sensor unit 500, the processor 610 cross-references the detected location of the surrounding vehicle and the location on the map information stored in the memory 620 to detect the current on the map information. The location of the surrounding vehicle can be specified, and the actual driving trajectory of the surrounding vehicle can be generated by continuously monitoring the location of the surrounding vehicle as described above.

주변 차량의 예상 주행 궤적과 실제 주행 궤적이 생성되면, 프로세서(610)는 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 메모리(620)에 저장된 지도 정보가 부정확한 것으로 판단할 수 있으며, 따라서 서버(700)로부터 전송되는 신규 지도 정보를 이용하여 메모리(620)에 저장된 지도 정보를 업데이트할 수 있다. 이에 따라, 프로세서(610)는 업데이트된 지도 정보, 즉 신규 지도 정보에 기초하여 자차량의 자율 주행을 제어할 수 있다. 상기와 같은 메모리(620)에 저장된 지도 정보의 업데이트 과정은, 이하에서 설명하는, 자차량의 주행 위험도가 낮은 상태에서 차량 내부 모드에 따라 내부 장치의 상태를 제어하는 구성을 수행하기 위한 전제 과정으로 기능한다.When the predicted driving trajectory of the surrounding vehicle and the actual driving trajectory are generated, the processor 610 causes the map information stored in the memory 620 to be inaccurate when the trajectory error between the predicted driving trajectory and the actual driving trajectory of the surrounding vehicle is greater than or equal to a preset threshold. It may be determined that there is one, and accordingly, the map information stored in the memory 620 may be updated using the new map information transmitted from the server 700. Accordingly, the processor 610 may control autonomous driving of the own vehicle based on updated map information, that is, new map information. The updating process of the map information stored in the memory 620 as described above is a prerequisite for performing a configuration of controlling the state of the internal device according to the vehicle interior mode in a state where the driving risk of the own vehicle is low, which will be described below. Functions.

자차량의 자율 주행을 제어하는 과정에서 프로세서(610)는 센서부(500)에 의해 검출되는 주변 차량에 기초하여 자차량의 주행 위험도를 결정할 수 있다. 주행 위험도는 자차량과 주변 차량 간의 충돌 위험을 나타내는 정량적 지표를 의미할 수 있다. 이때 프로세서(610)는 자차량으로부터 미리 설정된 제1 거리 이내에 위치하는 주변 차량의 수에 기초하여 자차량의 주행 위험도를 결정할 수 있으며, 상기의 제1 거리는 설계자의 의도 및 자차량의 사양을 고려하여 다양하게 선택될 수 있다. 주행 위험도가 결정되면, 프로세서(610)는 결정된 주행 위험도가 미리 설정된 임계 위험도보다 작은지 여부를 판단하여 현재 자차량의 주행 위험성을 판단할 수 있으며, 임계 위험도 또한 설계자의 의도에 따라 다양하게 선택될 수 있다. 상기한 구성은, 예를 들어 자차량으로부터 제1 거리 이내에 위치하는 주변 차량의 수(예: 8) 자체가 주행 위험도로 결정되고, 결정된 임계 위험도가 특정 값을 갖는 임계 위험도(예: 5)보다 작은지 여부를 판단하는 방식으로 자차량의 주행 위험성을 판단하는 실시예로 구현될 수도 있고, 자차량으로부터 제1 거리 이내에 위치하는 주변 차량의 수에 따라 주행 위험도를 복수의 레벨(예: 제1 내지 제3 레벨)로 구분하여 결정하고, 결정된 임계 위험도가 특정 레벨 값을 갖는 임계 위험도(예: 제2 레벨)보다 작은지 여부를 판단하는 방식으로 자차량의 주행 위험성을 판단하는 실시예로 구현될 수도 있다.In the process of controlling the autonomous driving of the own vehicle, the processor 610 may determine the driving risk of the own vehicle based on the surrounding vehicles detected by the sensor unit 500. The driving risk may mean a quantitative index indicating the risk of a collision between the own vehicle and surrounding vehicles. At this time, the processor 610 may determine the driving risk of the own vehicle based on the number of surrounding vehicles located within a preset first distance from the own vehicle, and the first distance is based on the designer's intention and the specifications of the own vehicle. There are many choices. When the driving risk is determined, the processor 610 may determine whether the determined driving risk is less than a preset critical risk to determine the driving risk of the current host vehicle, and the critical risk may also be variously selected according to the intention of the designer. I can. In the above configuration, for example, the number of surrounding vehicles located within a first distance from the own vehicle (eg, 8) is itself determined as a driving risk, and the determined critical risk is less than a critical risk (eg, 5) having a specific value. It may be implemented as an embodiment in which the driving risk of the own vehicle is determined by determining whether it is small, or the driving risk is set to a plurality of levels (e.g., first) according to the number of surrounding vehicles located within a first distance from the host vehicle. To the third level) and determining whether the determined critical risk is less than the critical risk (eg, the second level) having a specific level value, and is implemented as an embodiment to determine the driving risk of the own vehicle It could be.

상기와 같이 결정된 자차량의 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 프로세서(610)는 현재 자차량의 주행 위험성이 높은 것으로 판단하여 후술하는 내부 제어 모드에 따라 내부 장치를 제어하기 전에, 현재 자차량의 주행 위험성을 해소하는 과정을 수행할 수 있으며, 이를 위해 프로세서(610)는 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어할 수 있다. 예를 들어, 프로세서(610)는 차량으로부터 제2 거리 이내에 복수의 군집 차량으로 형성된 주행 군집이 존재하며, 해당 주행 군집의 주행 경로가 자차량의 목적지까지의 주행 경로와 중첩되는 경우, 프로세서(610)는 해당 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어할 수 있다. 이에 따라, 자차량은 주행 군집의 주행을 추종하게 되어 그 주행 위험성이 해소됨으로써, 자차량의 주행 위험도는 임계 위험도보다 작은 값으로 감소할 수 있다(자차량이 주행 군집을 추종할 경우 자차량의 주행 위험도를 임계 위험도보다 작은 값으로 설정하는 로직이 프로세서(610)에 구현되어 있을 수 있다).When it is determined that the driving risk of the host vehicle determined as described above is greater than or equal to the critical risk, the processor 610 determines that the driving risk of the current host vehicle is high, and before controlling the internal device according to the internal control mode to be described later, The process of eliminating the driving risk of the vehicle can be performed, and for this purpose, the processor 610 is located within a preset second distance from the own vehicle and autonomously drives the own vehicle to follow the driving of the driving cluster formed of a plurality of cluster vehicles. Can be controlled. For example, if there is a driving cluster formed by a plurality of cluster vehicles within a second distance from the vehicle, and the driving path of the driving cluster overlaps the driving path to the destination of the own vehicle, the processor 610 ) Can control the autonomous driving of the own vehicle to follow the driving of the corresponding driving cluster. Accordingly, the host vehicle follows the driving of the driving cluster and the driving risk is eliminated, so that the driving risk of the own vehicle can be reduced to a value smaller than the critical risk (when the host vehicle follows the driving cluster, the The logic for setting the driving risk to a value smaller than the threshold risk may be implemented in the processor 610).

전술한 과정을 통해 자차량의 주행 위험도가 임계 위험도보다 작은 값을 갖도록 형성된 상태에서, 프로세서(610)는 탑승자에 의해 설정되는 차량 내부 모드에 따라 내부 장치의 상태를 제어할 수 있다. 즉, 자차량의 주행 위험도가 임계 위험도보다 작아서 자차량이 안전하게 주행할 수 있는 환경이 형성된 경우, 탑승자는 자차량의 자율 주행 감시로부터 벗어나 다른 액션(예: 휴식, 영화 감상 등)을 취하고자 하는 경우가 있으며, 탑승자가 디스플레이 장치(320)를 통해 원하는 액션을 취하기 위한 차량 내부 모드를 설정할 경우, 프로세서(610)는 설정된 차량 내부 모드에 따라 내부 장치의 상태를 제어함으로써 탑승자의 액션을 지원하도록 동작할 수 있다. 전술한 것과 같이 내부 장치는 차량 시트, 조명 장치 및 디스플레이 장치(320)를 포함할 수 있으며, 차량 내부 모드는 휴식 모드(예: 탑승자의 독서, 수면 등) 및 엔터테인먼트 모드(예: 디스플레이 장치(320)를 통한 TV 시청, 영화 감상 등 )를 포함할 수 있다.In a state in which the driving risk of the own vehicle is formed to have a value smaller than the threshold risk through the above-described process, the processor 610 may control the state of the internal device according to the vehicle interior mode set by the occupant. In other words, when the driving risk of the own vehicle is less than the critical risk, and an environment in which the own vehicle can safely travel is formed, the occupant seeks to take other actions (e.g., rest, watching movies, etc.) In some cases, when the occupant sets the vehicle interior mode for taking a desired action through the display device 320, the processor 610 operates to support the occupant's action by controlling the state of the internal device according to the set vehicle interior mode. can do. As described above, the internal device may include a vehicle seat, a lighting device, and a display device 320, and the interior mode of the vehicle is a rest mode (eg, reading, sleeping, etc.) and an entertainment mode (eg, display device 320 Watching TV through ), watching movies, etc.) can be included.

프로세서(610)는 차량 내부 모드에 따라 차량 시트의 각도, 조명 장치의 조도 및 디스플레이 장치(320)의 각도 중 하나 이상을 제어할 수 있다. 예를 들어, 차량 내부 모드가 휴식 모드로 설정된 경우, 프로세서(610)는 차량 시트의 각도를 휴식 모드에 대응하여 미리 설정된 각도(제1 각도)로 조절하여 탑승자가 수면 등을 통해 휴식을 취하도록 할 수 있고, 내부 라이트 및 무드등의 각 조도를 조절하거나 내부 라이트를 오프시키고 무드등을 온시키는 등의 방식을 통해 조명 장치의 조도를 제어하여 탑승자에게 적절한 휴식 환경이 제공되도록 할 수 있다. 또한, 차량 내부 모드가 엔터테인먼트 모드로 설정된 경우, 프로세서(610)는 차량 시트의 각도를 엔터테인먼트 모드에 대응하여 미리 설정된 각도(제2 각도)로 조절하여 탑승자가 디스플레이 장치(320)를 통해 영화 등을 감상하기 위한 적절한 환경이 제공되도록 할 수 있고, 내부 카메라 센서(535)를 통해 획득된 운전자의 안면 화상을 이용하여 운전자의 시야각을 결정하고, 결정된 시야각에 따라 디스플레이 장치(320)의 각도를 조절하여 탑승자의 시선과 디스플레이 장치(320)의 영상 출력 방향이 일치되도록 할 수 있다. 나아가, 차량 내부 모드가 휴식 모드 또는 엔터테인먼트 모드일 때, 프로세서(610)는 탑승자의 휴식 또는 엔터테인먼트 활동에 방해가 유발되지 않도록 차로 변경을 제한하고 정속으로 주행하도록 자차량의 자율 주행을 제어할 수도 있다.The processor 610 may control one or more of the angle of the vehicle seat, the illuminance of the lighting device, and the angle of the display device 320 according to the vehicle interior mode. For example, when the vehicle interior mode is set to the rest mode, the processor 610 adjusts the angle of the vehicle seat to a preset angle (first angle) corresponding to the rest mode so that the occupant takes a rest through sleep, etc. In addition, it is possible to provide an appropriate rest environment to the occupants by controlling the illuminance of the lighting device through a method such as adjusting each illuminance of the inner light and the mood light or turning off the inner light and turning on the mood light. In addition, when the vehicle interior mode is set to the entertainment mode, the processor 610 adjusts the angle of the vehicle seat to a preset angle (second angle) corresponding to the entertainment mode, so that the occupant can view a movie or the like through the display device 320. An appropriate environment for viewing can be provided, and the driver's viewing angle is determined by using the driver's face image acquired through the internal camera sensor 535, and the angle of the display device 320 is adjusted according to the determined viewing angle. The line of sight of the occupant and the direction of image output of the display device 320 may be matched. Furthermore, when the vehicle interior mode is a rest mode or an entertainment mode, the processor 610 may control the autonomous driving of the own vehicle so as to limit the lane change so as not to cause interference with the occupant's rest or entertainment activities and drive at a constant speed. .

휴식 모드 또는 엔터테인먼트 모드에 따라 자차량의 자율 주행을 제어하는 과정에서 프로세서(610)는 전술한 주행 위험도를 지속적으로 결정할 수 있으며, 이 과정에서 결정되는 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 출력부(300)를 통해 탑승자에게 경고를 출력함으로써, 탑승자로 하여금 휴식 또는 엔터테인먼트 활동을 중지하고 자차량의 자율 주행 제어에 대한 감시가 필요함을 인지하도록 할 수 있다. 실시예에 따라서는, 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 프로세서(610)는 자차량이 주변의 정차 지점(예: 갓길, 휴게소, 쉼터 등)으로 이동하도록 하위 제어 시스템(400)을 제어할 수도 있으며, 정차 지점으로 이동한 후 주행 위험도가 임계 위험도 미만으로 감소하게 되면 자차량의 자율 주행 제어를 다시 개시하도록 동작할 수도 있다.In the process of controlling the autonomous driving of the own vehicle according to the rest mode or the entertainment mode, the processor 610 may continuously determine the above-described driving risk, and when it is determined that the driving risk determined in this process is greater than or equal to the critical risk, output By outputting a warning to the occupant through the unit 300, the occupant may stop rest or entertainment activities and recognize that it is necessary to monitor the autonomous driving control of the own vehicle. Depending on the embodiment, when it is determined that the driving risk is greater than or equal to the critical risk, the processor 610 controls the lower control system 400 so that the own vehicle moves to a nearby stopping point (eg, shoulder, rest area, shelter, etc.). Alternatively, when the driving risk decreases below the critical risk after moving to the stopping point, the autonomous driving control of the own vehicle may be restarted.

한편, 전술한 것과 같이 자차량의 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 프로세서(610)는 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어할 수 있으며, 자차량의 군집 주행을 제어하는 과정에서 프로세서(610)는 센서부(500)에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 주행 군집에서의 자차량의 지위를 고려하여 자차량의 군집 주행을 제어할 수도 있다.On the other hand, as described above, when it is determined that the driving risk of the host vehicle is greater than or equal to the critical risk, the processor 610 is located within a preset second distance from the host vehicle and is configured to follow the driving of the driving cluster formed by a plurality of cluster vehicles. Autonomous driving of the vehicle can be controlled, and in the process of controlling cluster driving of the own vehicle, the processor 610 determines that the state of the occupant detected by the sensor unit 500 is an abnormal state, in the driving cluster. It is also possible to control cluster driving of the own vehicle in consideration of the status of the own vehicle.

구체적으로, 프로세서(610)(의 탑승자 상태 판단 모듈(616))는 자차량의 군집 주행 과정에서 센서부(500)의 내부 카메라 센서(535) 또는 생체 센서에 의해 검출된 탑승자의 상태 또는 생체 신호를 토대로 탑승자의 상태가 이상 상태(즉, 신체 이상 상태)인 것으로 판단할 수 있으며, 이 경우 프로세서(610)는 센서부(500)가 탑승자의 상태를 검출한 결과를 정량적 수치로 변환하고, 변환된 정량적 수치가 미리 정의된 임계치(센서부가 정상 상태에서의 탑승자를 검출한 결과를 고려하여 미리 저장되어 있을 수 있다) 이하인지 여부를 판단하는 방식을 통해 탑승자의 상태가 이상 상태인지 여부를 판단할 수 있다.Specifically, the processor 610 (of the occupant state determination module 616) is a state or biometric signal of the occupant detected by the internal camera sensor 535 of the sensor unit 500 or the biometric sensor during the cluster driving process of the own vehicle. Based on the status of the occupant can be determined to be an abnormal state (ie, a physical abnormal state), in this case, the processor 610 converts the result of the sensor unit 500 detecting the state of the occupant into a quantitative value, and converts It is possible to determine whether the occupant's state is abnormal through a method of determining whether the determined quantitative value is below a predefined threshold (which may be stored in advance in consideration of the result of detecting the occupant in a normal state by the sensor unit). I can.

이때, 센서부(500)에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 프로세서는 주행 군집에서의 자차량의 지위를 고려하여 자차량의 군집 주행을 제어할 수 있다.In this case, when it is determined that the state of the occupant detected by the sensor unit 500 is an abnormal state, the processor may control cluster driving of the own vehicle in consideration of the position of the own vehicle in the driving cluster.

구체적으로, 탑승자의 상태가 이상 상태인 경우로서 주행 군집에서 자차량이 리더 차량 지위에 있는 경우, 프로세서(610)는 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 자차량이 주행 군집에서 탈퇴하도록 자차량의 군집 주행을 제어할 수 있다. 즉, 자차량이 주행 군집에서 리더 차량 지위에 있는 경우로서 자차량 탑승자의 상태가 이상 상태인 경우, 군집 주행의 안전성 확보를 위해 자차량의 리더 차량 지위를 타 군집 차량에 부여함이 바람직하므로, 프로세서(610)는 자차량의 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 자차량이 주행 군집에서 탈퇴하도록 자차량의 군집 주행을 제어할 수 있으며, 주행 군집에서 탈퇴한 후 자차량이 탑승자에게 요구되는 특정 지점(예: 병원, 휴게소, 쉼터 등)으로 이동하도록 자차량의 자율 주행을 제어할 수도 있다.Specifically, when the occupant is in an abnormal state and the host vehicle is in the leader vehicle status in the driving cluster, the processor 610 assigns the leader vehicle status to the following vehicle and then allows the host vehicle to withdraw from the driving cluster. It is possible to control the cluster driving of vehicles. That is, when the own vehicle is in the leader vehicle position in the driving cluster, and the state of the occupant of the own vehicle is in an abnormal state, it is desirable to give the leader vehicle status of the own vehicle to other cluster vehicles to ensure the safety of the cluster driving. The processor 610 may control cluster driving of the own vehicle so that the host vehicle withdraws from the driving cluster after assigning the lead vehicle status of the host vehicle to a following vehicle, and after leaving the driving cluster, the own vehicle requests the occupant. It is also possible to control the autonomous driving of the own vehicle to move to a specific point (e.g. hospital, rest area, shelter, etc.).

또한, 탑승자의 상태가 이상 상태인 경우로서 주행 군집에서 자차량이 팔로우 차량 지위에 있는 경우, 프로세서(610)는 자차량이 주행 군집 내에서 최후미에 위치하도록 자차량의 군집 주행을 제어할 수 있다. 즉, 자차량이 주행 군집에서 팔로우 차량 지위에 있는 경우로서 자차량 탑승자의 상태가 이상 상태인 경우, 프로세서(610)는 주행 군집으로부터 자차량의 신속한 탈퇴를 위해 자차량이 주행 군집의 최후미에 위치하도록 자차량의 군집 주행을 제어할 수 있으며, 자차량이 주행 군집의 최후미에 위치하여 탈퇴한 후 자차량이 탑승자에게 요구되는 특정 지점(예: 병원, 휴게소, 쉼터 등)으로 이동하도록 자차량의 자율 주행을 제어할 수도 있다.In addition, when the occupant is in an abnormal state and the own vehicle is in the following vehicle position in the driving cluster, the processor 610 may control the cluster driving of the own vehicle so that the own vehicle is located at the end of the driving cluster. . That is, when the host vehicle is in the following vehicle status in the driving cluster, and the state of the occupant of the host vehicle is in an abnormal state, the processor 610 is positioned at the end of the driving cluster for rapid withdrawal of the own vehicle from the driving cluster. It is possible to control the running of the host vehicle so that the host vehicle is located at the end of the driving cluster and withdraws, and then the host vehicle moves to a specific point required by the occupant (e.g., hospital, rest area, shelter, etc.). You can also control autonomous driving.

나아가, 탑승자의 상태가 신체 이상 상태가 아닌, 수면 상태 등과 같은 휴식 상태로 판단된 경우, 프로세서(610)는 자차량이 목적지에 도착하면 출력부(300)를 통해 알람을 출력하여 탑승자가 목적지 도착을 인지하도록 할 수도 있다.Further, when the state of the occupant is determined to be a rest state such as a sleeping state, not a physical abnormal state, the processor 610 outputs an alarm through the output unit 300 when the own vehicle arrives at the destination so that the occupant arrives at the destination. You can also make them aware of.

도 7은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an autonomous driving method according to an embodiment of the present invention.

도 7을 참조하여 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하면, 먼저 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어한다(S100).Referring to FIG. 7, the autonomous driving method according to an embodiment of the present invention will be described. First, the processor 610 controls autonomous driving of the own vehicle based on map information stored in the memory 620 (S100).

S100 단계에서, 프로세서(610)는 메모리(620)에 저장된 지도 정보, 및 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 예상 주행 궤적 및 실제 주행 궤적을 각각 생성하고, 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 서버(700)로부터 전송되는 신규 지도 정보를 이용하여 메모리(620)에 저장된 지도 정보를 업데이트한 후, 업데이트된 지도 정보에 기초하여 자차량의 자율 주행을 제어할 수 있다.In step S100, the processor 610 generates an expected driving trajectory and an actual driving trajectory of the surrounding vehicle based on the map information stored in the memory 620 and the driving information of the surrounding vehicle detected by the sensor unit 500, respectively. , When the trajectory error between the predicted driving trajectory of the surrounding vehicle and the actual driving trajectory is greater than or equal to a preset threshold, the map information stored in the memory 620 is updated using the new map information transmitted from the server 700, and then updated. The autonomous driving of the own vehicle can be controlled based on the map information.

S100 단계에 따른 자율 주행을 제어하는 과정에서, 프로세서(610)는 센서부(500)에 의해 검출되는 주변 차량에 기초하여 자차량의 주행 위험도를 결정한다(S200). S200 단계에서, 프로세서(610)는 자차량으로부터 미리 설정된 제1 거리 이내에 위치하는 주변 차량의 수에 기초하여 자차량의 주행 위험도를 결정할 수 있다.In the process of controlling the autonomous driving according to step S100, the processor 610 determines the driving risk of the own vehicle based on the surrounding vehicle detected by the sensor unit 500 (S200). In step S200, the processor 610 may determine the driving risk of the own vehicle based on the number of surrounding vehicles located within a preset first distance from the host vehicle.

이어서, 프로세서(610)는 S200 단계에서 결정된 주행 위험도 및 미리 설정된 임계 위험도를 비교한다(S300).Subsequently, the processor 610 compares the driving risk determined in step S200 and the preset threshold risk (S300).

S300 단계에서 자차량의 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 프로세서(610)는 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 자차량의 자율 주행을 제어한다(S400). 만약, S400 단계에서 자차량으로부터 제2 거리 이내에 위치하는 주행 군집이 존재하지 않을 경우, 프로세서(610)는 탑승자의 자율 주행 제어에 대한 감시 상태가 유지될 수 있도록 디스플레이 장치(320)를 통한 탑승자의 휴식 모드 및 엔터테인먼트 모드의 설정이 제한되도록 할 수 있다.In step S300, when it is determined that the driving risk of the host vehicle is greater than or equal to the critical risk, the processor 610 is located within a preset second distance from the host vehicle and autonomously tracks the driving of the driving cluster formed by a plurality of cluster vehicles. Controls the driving (S400). If, in step S400, if the driving cluster located within the second distance from the own vehicle does not exist, the processor 610 may monitor the occupant's autonomous driving control through the display device 320 to maintain the monitoring state. It is possible to limit the settings of the relaxation mode and entertainment mode.

S300 단계에서 자차량의 주행 위험도가 임계 위험도보다 작은 것으로 판단된 경우, 또는 S400 단계를 통해 자차량이 주행 군집의 주행을 추종하도록 그 자율 주행이 제어되는 경우, 프로세서(610)는 탑승자에 의해 설정되는 차량 내부 모드에 따라 내부 장치의 상태를 제어한다(S500). 전술한 것과 같이 내부 장치는 탑승자의 조작에 의해 그 상태가 제어되어 탑승자의 운전 또는 편의(예: 휴식 또는 엔터테인먼트 활동)을 지원하기 위해 자차량의 내부에 설치된 차량 시트, 조명 장치 및 디스플레이 장치(320)를 포함할 수 있으며, 차량 내부 모드는 휴식 모드 및 엔터테인먼트 모드를 포함할 수 있다. S500 단계에서, 프로세서(610)는 차량 내부 모드에 따라 차량 시트의 각도, 조명 장치의 조도 및 디스플레이 장치(320)의 각도 중 하나 이상을 제어할 수 있다. S500 단계 이후, 프로세서(610)가 차로 변경을 제한하고 정속으로 주행하도록 자차량의 자율 주행을 제어하는 S600 단계가 더 수행될 수도 있다.When it is determined in step S300 that the driving risk of the own vehicle is less than the critical risk, or when the autonomous driving is controlled so that the host vehicle follows the driving of the driving cluster through step S400, the processor 610 is set by the occupant. The state of the internal device is controlled according to the vehicle internal mode (S500). As described above, the state of the internal device is controlled by the operation of the occupant, so that the vehicle seat, the lighting device, and the display device 320 are installed inside the own vehicle to support the occupant's driving or convenience (eg, rest or entertainment activity). ), and the in-vehicle mode may include a rest mode and an entertainment mode. In step S500, the processor 610 may control one or more of the angle of the vehicle seat, the illuminance of the lighting device, and the angle of the display device 320 according to the vehicle interior mode. After step S500, step S600 in which the processor 610 limits the lane change and controls the autonomous driving of the own vehicle to drive at a constant speed may be further performed.

휴식 모드 또는 엔터테인먼트 모드에 따라 자차량의 자율 주행을 제어하는 과정에서 결정되는 주행 위험도가 임계 위험도 이상인 것으로 판단된 경우, 프로세서(610)는 출력부(300)를 통해 탑승자에게 경고를 출력한다(S700). S700 단계에서, 프로세서(610)는 자차량이 주변의 정차 지점으로 이동하도록 하위 제어 시스템(400)을 제어할 수도 있으며, 정차 지점으로 이동한 후 주행 위험도가 임계 위험도 미만으로 감소하게 되면 자차량의 자율 주행 제어를 다시 개시하도록 동작할 수도 있다.When it is determined that the driving risk determined in the process of controlling the autonomous driving of the own vehicle according to the rest mode or the entertainment mode is greater than or equal to the critical risk, the processor 610 outputs a warning to the occupant through the output unit 300 (S700). ). In step S700, the processor 610 may control the lower control system 400 so that the own vehicle moves to the surrounding stop point, and when the driving risk decreases below the critical risk level after moving to the stop point, It may also operate to restart autonomous driving control.

한편, S400 단계 이후 센서부(500)에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 프로세서(610)는 주행 군집에서의 자차량의 지위를 고려하여 자차량의 군집 주행을 제어할 수도 있으며, 구체적으로 탑승자의 상태가 이상 상태인 경우로서 주행 군집에서 자차량이 리더 차량 지위에 있는 경우, 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 주행 군집에서 탈퇴하도록 자차량의 군집 주행을 제어하고, 탑승자의 상태가 이상 상태인 경우로서 주행 군집에서 자차량이 팔로우 차량 지위에 있는 경우, 자차량이 주행 군집 내에서 최후미에 위치하도록 자차량의 군집 주행을 제어할 수도 있다.On the other hand, when it is determined that the state of the occupant detected by the sensor unit 500 after step S400 is an abnormal state, the processor 610 may control cluster driving of the own vehicle in consideration of the position of the own vehicle in the driving cluster. In particular, when the occupant is in an abnormal state and the own vehicle is in the leader vehicle status in the driving cluster, the group driving of the own vehicle is controlled to withdraw from the driving cluster after assigning the leader vehicle status to the following vehicle following the driving group. In addition, when the occupant is in an abnormal state and the own vehicle is in the following vehicle position in the driving cluster, the cluster driving of the own vehicle may be controlled so that the own vehicle is located at the end of the driving cluster.

이와 같이 본 실시예는 자차량의 자율 주행 과정에서 탑승자에 의해 설정되는 내부 제어 모드에 따라 차량 내부 장치의 상태를 제어함으로써 탑승자의 편의성을 향상시킬 수 있으며, 차량 내부 장치의 상태 제어를 차량의 주행 위험도가 낮은 상태에서 수행함으로써 차량의 주행 안정성도 확보할 수 있다.As described above, the present embodiment can improve the convenience of the occupant by controlling the state of the vehicle internal device according to the internal control mode set by the occupant in the autonomous driving process of the own vehicle, and control the state of the vehicle internal device. By performing it in a low-risk state, driving stability of the vehicle can also be secured.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art to which the present technology pertains, various modifications and other equivalent embodiments are possible. I will understand. Therefore, the true technical protection scope of the present invention should be determined by the following claims.

100: 사용자 입력부 101: 운전 정보 입력 인터페이스
110: 주행 모드 스위치 120: 사용자 단말
200: 주행 정보 검출부 201: 주행 정보 입력 인터페이스
210: 조향각 센서 220: APS/PTS
230: 차속 센서 240: 가속도 센서
250: 요/피치/롤 센서 260: GPS 수신기
300: 출력부 301: 탑승자 출력 인터페이스
310: 스피커 320: 디스플레이 장치
400: 하위 제어 시스템 401: 차량 제어 출력 인터페이스
410: 엔진 제어 시스템 420: 제동 제어 시스템
430: 조향 제어 시스템 500: 센서부
510: 라이다 센서 511: 전방 라이다 센서
512: 상부 라이다 센서 513: 후방 라이다 센서
520: 레이더 센서 521: 전방 레이더 센서
522: 좌측 레이더 센서 523: 우측 레이더 센서
524: 후방 레이더 센서 530: 카메라 센서
531: 전방 카메라 센서 532: 좌측 카메라 센서
533: 우측 카메라 센서 534: 후방 카메라 센서
535: 내부 카메라 센서 540: 초음파 센서
600: 자율 주행 통합 제어부 610: 프로세서
611: 센서 처리 모듈 611a: 라이더 신호 처리 모듈
611b: 레이더 신호 처리 모듈 611c: 카메라 신호 처리 모듈
612: 주행 궤적 생성 모듈 612a: 주변 차량 주행 궤적 생성 모듈
612b: 자차량 주행 궤적 생성 모듈 613: 주행 궤적 분석 모듈
614: 주행 제어 모듈 615: 궤적 학습 모듈
616: 탑승자 상태 판단 모듈 620: 메모리
700: 서버
100: user input unit 101: driving information input interface
110: drive mode switch 120: user terminal
200: driving information detection unit 201: driving information input interface
210: steering angle sensor 220: APS/PTS
230: vehicle speed sensor 240: acceleration sensor
250: yaw/pitch/roll sensor 260: GPS receiver
300: output unit 301: occupant output interface
310: speaker 320: display device
400: sub-control system 401: vehicle control output interface
410: engine control system 420: braking control system
430: steering control system 500: sensor unit
510: lidar sensor 511: front lidar sensor
512: upper lid sensor 513: rear lid sensor
520: radar sensor 521: front radar sensor
522: left radar sensor 523: right radar sensor
524: rear radar sensor 530: camera sensor
531: front camera sensor 532: left camera sensor
533: right camera sensor 534: rear camera sensor
535: internal camera sensor 540: ultrasonic sensor
600: autonomous driving integrated control unit 610: processor
611: sensor processing module 611a: lidar signal processing module
611b: radar signal processing module 611c: camera signal processing module
612: driving trajectory generation module 612a: driving trajectory generation module of surrounding vehicles
612b: host vehicle driving trajectory generation module 613: driving trajectory analysis module
614: driving control module 615: trajectory learning module
616: occupant status determination module 620: memory
700: server

Claims (20)

자율 주행 중인 자차량의 주변 차량을 검출하는 센서부;
지도 정보를 저장하는 메모리;
상기 자차량의 내부에 설치되며 상기 자차량의 탑승자의 조작에 의해 그 상태가 제어되어 상기 탑승자를 지원하기 위한 내부 장치; 및
상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 센서부에 의해 검출되는 주변 차량에 기초하여 상기 자차량의 주행 위험도를 결정하고,
상기 결정된 주행 위험도가 미리 설정된 임계 위험도보다 작은 상태에서 상기 탑승자에 의해 설정되는 차량 내부 모드에 따라 상기 내부 장치의 상태를 제어하는 것을 특징으로 하는 자율 주행 장치.
A sensor unit that detects surrounding vehicles of the self-driving vehicle;
A memory for storing map information;
An internal device installed inside the own vehicle and for supporting the occupant by controlling its state by an operation of the occupant of the own vehicle; And
A processor for controlling autonomous driving of the own vehicle based on the map information stored in the memory; and
The processor,
Determining a driving risk of the host vehicle based on the surrounding vehicle detected by the sensor unit,
And controlling the state of the internal device according to a vehicle interior mode set by the occupant in a state where the determined driving risk is less than a preset threshold risk.
제1항에 있어서,
상기 프로세서는,
상기 메모리에 저장된 지도 정보, 및 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적을 각각 생성하고,
상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 서버로부터 전송되는 신규 지도 정보를 이용하여 상기 메모리에 저장된 지도 정보를 업데이트하고,
상기 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 1,
The processor,
On the basis of the map information stored in the memory and the driving information of the surrounding vehicle detected by the sensor unit, each of the predicted driving trajectory and the actual driving trajectory of the surrounding vehicle are generated,
When the trajectory error between the estimated driving trajectory of the surrounding vehicle and the actual driving trajectory is greater than or equal to a preset threshold, map information stored in the memory is updated using new map information transmitted from a server,
An autonomous driving apparatus, characterized in that controlling autonomous driving of the own vehicle based on the updated map information.
제1항에 있어서,
상기 프로세서는,
상기 자차량으로부터 미리 설정된 제1 거리 이내에 위치하는 주변 차량의 수에 기초하여 상기 주행 위험도를 결정하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 1,
The processor,
And determining the driving risk based on the number of surrounding vehicles located within a predetermined first distance from the own vehicle.
제1항에 있어서,
상기 프로세서는,
상기 결정된 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 상기 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 1,
The processor,
When it is determined that the determined driving risk is equal to or greater than the threshold risk, the autonomous driving of the host vehicle is controlled to follow the driving of a driving cluster formed of a plurality of cluster vehicles located within a preset second distance from the host vehicle. Autonomous driving device.
제1항에 있어서,
상기 내부 장치는 차량 시트, 조명 장치 및 디스플레이 장치를 포함하고,
상기 차량 내부 모드는 휴식 모드 및 엔터테인먼트 모드를 포함하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 1,
The internal device includes a vehicle seat, a lighting device and a display device,
The in-vehicle mode includes a rest mode and an entertainment mode.
제5항에 있어서,
상기 프로세서는,
상기 차량 내부 모드에 따라 상기 차량 시트의 각도, 상기 조명 장치의 조도 및 상기 디스플레이 장치의 각도 중 하나 이상을 제어하고, 상기 차량 내부 모드가 상기 휴식 모드 또는 상기 엔터테인먼트 모드일 때 차로 변경을 제한하고 정속으로 주행하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 5,
The processor,
Controls one or more of the angle of the vehicle seat, the illuminance of the lighting device, and the angle of the display device according to the vehicle interior mode. Autonomous driving apparatus, characterized in that for controlling the autonomous driving of the own vehicle so as to drive at a speed.
제5항에 있어서,
출력부;를 더 포함하고,
상기 프로세서는,
상기 휴식 모드 또는 상기 엔터테인먼트 모드에 따라 상기 자차량의 자율 주행을 제어하는 과정에서 상기 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 상기 출력부를 통해 상기 탑승자에게 경고를 출력하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 5,
It further includes an output unit,
The processor,
In the process of controlling the autonomous driving of the own vehicle according to the rest mode or the entertainment mode, when it is determined that the driving risk is equal to or greater than the threshold risk, a warning is output to the occupant through the output unit. Device.
제4항에 있어서,
상기 센서부는, 상기 탑승자의 상태를 더 검출하고,
상기 프로세서는,
상기 센서부에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 상기 주행 군집에서의 상기 자차량의 지위를 고려하여 상기 자차량의 군집 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 4,
The sensor unit further detects the state of the occupant,
The processor,
When it is determined that the state of the occupant detected by the sensor unit is an abnormal state, the autonomous driving apparatus is configured to control cluster driving of the host vehicle in consideration of the position of the host vehicle in the driving cluster.
제8항에 있어서,
상기 프로세서는,
상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 리더 차량 지위에 있는 경우, 상기 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 상기 주행 군집에서 탈퇴하도록 상기 자차량의 군집 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 8,
The processor,
When the occupant is in an abnormal state and the own vehicle is in the leader vehicle status in the driving cluster, the group driving of the own vehicle is assigned to a follower vehicle following the leader vehicle status and then leaves the driving cluster Autonomous driving device, characterized in that to control.
제8항에 있어서,
상기 프로세서는,
상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 팔로우 차량 지위에 있는 경우, 상기 자차량이 상기 주행 군집 내에서 최후미에 위치하도록 상기 자차량의 군집 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
The method of claim 8,
The processor,
When the state of the occupant is an abnormal state, and when the host vehicle is in the following vehicle status in the driving cluster, the cluster driving of the host vehicle is controlled so that the host vehicle is located at the end of the driving cluster. Autonomous driving device.
프로세서가, 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 단계;
상기 프로세서가, 센서부에 의해 검출되는 주변 차량에 기초하여 상기 자차량의 주행 위험도를 결정하는 단계;
상기 프로세서가, 상기 결정된 주행 위험도 및 미리 설정된 임계 위험도를 비교하는 단계; 및
상기 주행 위험도가 상기 임계 위험도보다 작은 것으로 판단된 경우, 상기 프로세서가, 상기 자차량의 탑승자에 의해 설정되는 차량 내부 모드에 따라 내부 장치의 상태를 제어하는 단계로서, 상기 내부 장치는 상기 자차량의 내부에 설치되며 상기 탑승자의 조작에 의해 그 상태가 제어되어 상기 탑승자를 지원하기 위한 것인, 단계;
를 포함하는 것을 특징으로 하는 자율 주행 방법.
Controlling, by the processor, autonomous driving of the own vehicle based on map information stored in the memory;
Determining, by the processor, a driving risk of the host vehicle based on the surrounding vehicles detected by the sensor unit;
Comparing, by the processor, the determined driving risk and a preset threshold risk; And
When it is determined that the driving risk is less than the threshold risk, the processor controls the state of the internal device according to the vehicle interior mode set by the occupant of the host vehicle, wherein the internal device It is installed inside and is to support the occupant by controlling its state by the operation of the occupant;
Autonomous driving method comprising a.
제11항에 있어서,
상기 자율 주행을 제어하는 단계에서, 상기 프로세서는,
상기 메모리에 저장된 지도 정보, 및 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적을 각각 생성하고,
상기 주변 차량의 예상 주행 궤적 및 실제 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 서버로부터 전송되는 신규 지도 정보를 이용하여 상기 메모리에 저장된 지도 정보를 업데이트하고,
상기 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 11,
In the step of controlling the autonomous driving, the processor,
On the basis of the map information stored in the memory and the driving information of the surrounding vehicle detected by the sensor unit, each of the predicted driving trajectory and the actual driving trajectory of the surrounding vehicle are generated,
When the trajectory error between the estimated driving trajectory of the surrounding vehicle and the actual driving trajectory is greater than or equal to a preset threshold, map information stored in the memory is updated using new map information transmitted from a server,
The autonomous driving method, characterized in that controlling the autonomous driving of the own vehicle based on the updated map information.
제11항에 있어서,
상기 결정하는 단계에서, 상기 프로세서는,
상기 자차량으로부터 미리 설정된 제1 거리 이내에 위치하는 주변 차량의 수에 기초하여 상기 주행 위험도를 결정하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 11,
In the determining step, the processor,
The autonomous driving method, characterized in that the driving risk is determined based on the number of surrounding vehicles located within a predetermined first distance from the host vehicle.
제11항에 있어서,
상기 결정된 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 상기 프로세서가, 상기 자차량으로부터 미리 설정된 제2 거리 이내에 위치하며 복수의 군집 차량으로 형성된 주행 군집의 주행을 추종하도록 상기 자차량의 자율 주행을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 11,
When it is determined that the determined driving risk is equal to or greater than the critical risk, the processor performs autonomous driving of the host vehicle to follow the driving of a driving cluster formed of a plurality of cluster vehicles located within a preset second distance from the host vehicle. Controlling; autonomous driving method further comprising a.
제11항에 있어서,
상기 내부 장치는 차량 시트, 조명 장치 및 디스플레이 장치를 포함하고,
상기 차량 내부 모드는 휴식 모드 및 엔터테인먼트 모드를 포함하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 11,
The internal device includes a vehicle seat, a lighting device and a display device,
The in-vehicle mode includes a rest mode and an entertainment mode.
제15항에 있어서,
상기 내부 장치의 상태를 제어하는 단계에서, 상기 프로세서는,
상기 차량 내부 모드에 따라 상기 차량 시트의 각도, 상기 조명 장치의 조도 및 상기 디스플레이 장치의 각도 중 하나 이상을 제어하고,
상기 프로세서가, 상기 차량 내부 모드가 상기 휴식 모드 또는 상기 엔터테인먼트 모드일 때 차로 변경을 제한하고 정속으로 주행하도록 상기 자차량의 자율 주행을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 15,
In the step of controlling the state of the internal device, the processor,
Controlling at least one of an angle of the vehicle seat, an illuminance of the lighting device, and an angle of the display device according to the vehicle interior mode,
And controlling, by the processor, an autonomous driving of the own vehicle so as to limit lane change and drive at a constant speed when the vehicle interior mode is the rest mode or the entertainment mode.
제15항에 있어서,
상기 프로세서가, 상기 휴식 모드 또는 상기 엔터테인먼트 모드에 따라 상기 자차량의 자율 주행을 제어하는 과정에서 상기 주행 위험도가 상기 임계 위험도 이상인 것으로 판단된 경우, 출력부를 통해 상기 탑승자에게 경고를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 15,
Outputting, by the processor, a warning to the occupant through an output unit when it is determined that the driving risk is equal to or greater than the threshold risk while controlling the autonomous driving of the own vehicle according to the rest mode or the entertainment mode; The autonomous driving method further comprising.
제14항에 있어서,
상기 프로세서가, 상기 센서부에 의해 검출된 탑승자의 상태가 이상 상태인 것으로 판단된 경우, 상기 주행 군집에서의 상기 자차량의 지위를 고려하여 상기 자차량의 군집 주행을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 14,
The processor, when it is determined that the state of the occupant detected by the sensor unit is an abnormal state, controlling the cluster driving of the host vehicle in consideration of the status of the host vehicle in the driving cluster; Autonomous driving method, characterized in that.
제18항에 있어서,
상기 군집 주행을 제어하는 단계에서, 상기 프로세서는,
상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 리더 차량 지위에 있는 경우, 상기 리더 차량 지위를 후행하는 팔로우 차량에 부여한 후 상기 주행 군집에서 탈퇴하도록 상기 자차량의 군집 주행을 제어하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 18,
In the step of controlling the cluster driving, the processor,
When the state of the occupant is an abnormal state and the own vehicle is in the leader vehicle status in the driving cluster, the cluster driving of the own vehicle is assigned to a follower vehicle following the leader vehicle status and then withdraws from the driving cluster. Autonomous driving method, characterized in that to control.
제18항에 있어서,
상기 군집 주행을 제어하는 단계에서, 상기 프로세서는,
상기 탑승자의 상태가 이상 상태인 경우로서 상기 주행 군집에서 상기 자차량이 팔로우 차량 지위에 있는 경우, 상기 자차량이 상기 주행 군집 내에서 최후미에 위치하도록 상기 자차량의 군집 주행을 제어하는 것을 특징으로 하는 자율 주행 방법.
The method of claim 18,
In the step of controlling the cluster driving, the processor,
When the state of the occupant is an abnormal state, and when the host vehicle is in the following vehicle status in the driving cluster, the cluster driving of the host vehicle is controlled so that the host vehicle is located at the end of the driving cluster. Autonomous driving method.
KR1020190058615A 2019-05-20 2019-05-20 Autonomous driving apparatus and method KR20200133445A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190058615A KR20200133445A (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method
US15/930,357 US11420653B2 (en) 2019-05-20 2020-05-12 Autonomous driving apparatus and method
CN202010402171.2A CN112046500B (en) 2019-05-20 2020-05-13 Automatic driving device and method
DE102020113422.3A DE102020113422A1 (en) 2019-05-20 2020-05-18 DEVICE AND METHOD FOR AUTONOMOUS DRIVING

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190058615A KR20200133445A (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method

Publications (1)

Publication Number Publication Date
KR20200133445A true KR20200133445A (en) 2020-11-30

Family

ID=73641983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190058615A KR20200133445A (en) 2019-05-20 2019-05-20 Autonomous driving apparatus and method

Country Status (1)

Country Link
KR (1) KR20200133445A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022216067A1 (en) * 2021-04-08 2022-10-13 현대자동차주식회사 Vehicle for performing minimal risk maneuver and operation method for vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022216067A1 (en) * 2021-04-08 2022-10-13 현대자동차주식회사 Vehicle for performing minimal risk maneuver and operation method for vehicle

Similar Documents

Publication Publication Date Title
CN112046500B (en) Automatic driving device and method
US20200369293A1 (en) Autonomous driving apparatus and method
KR20210037791A (en) Autonomous driving apparatus and method
US11654939B2 (en) Autonomous driving apparatus and method that outputs different warnings based on driving risk
KR20210037790A (en) Autonomous driving apparatus and method
US11934204B2 (en) Autonomous driving apparatus and method
KR102539286B1 (en) Autonomous driving apparatus and method
KR20200133854A (en) Autonomous driving apparatus and method
KR20240038680A (en) Autonomous driving apparatus and method
KR20240035960A (en) Autonomous driving apparatus and method
US20200369296A1 (en) Autonomous driving apparatus and method
KR20200133445A (en) Autonomous driving apparatus and method
KR20200133859A (en) Autonomous driving apparatus and method
KR20200133855A (en) Autonomous driving apparatus and method
KR20200133857A (en) Autonomous driving apparatus and method
KR102530702B1 (en) Autonomous driving apparatus and method
KR102616971B1 (en) Autonomous driving apparatus and method
KR102644325B1 (en) Autonomous driving apparatus and method
KR102648603B1 (en) Autonomous driving apparatus and method
KR102648470B1 (en) Autonomous driving apparatus and method
KR20200133444A (en) Autonomous driving apparatus and method
KR20200133443A (en) Autonomous driving apparatus and method
KR20200133851A (en) Autonomous driving apparatus and method
KR20200133860A (en) Autonomous driving apparatus and method
KR102653342B1 (en) Autonomous driving apparatus and method