KR102644325B1 - 자율 주행 장치 및 방법 - Google Patents

자율 주행 장치 및 방법 Download PDF

Info

Publication number
KR102644325B1
KR102644325B1 KR1020190058600A KR20190058600A KR102644325B1 KR 102644325 B1 KR102644325 B1 KR 102644325B1 KR 1020190058600 A KR1020190058600 A KR 1020190058600A KR 20190058600 A KR20190058600 A KR 20190058600A KR 102644325 B1 KR102644325 B1 KR 102644325B1
Authority
KR
South Korea
Prior art keywords
map information
vehicle
driving
memory
target
Prior art date
Application number
KR1020190058600A
Other languages
English (en)
Other versions
KR20200133849A (ko
Inventor
이일규
조무열
이준한
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190058600A priority Critical patent/KR102644325B1/ko
Publication of KR20200133849A publication Critical patent/KR20200133849A/ko
Priority to KR1020240030297A priority patent/KR20240035961A/ko
Application granted granted Critical
Publication of KR102644325B1 publication Critical patent/KR102644325B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)

Abstract

본 발명은 자율 주행 장치 및 방법에 관한 것으로서, 자율 주행 중인 자차량의 주변 차량을 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 프로세서는, 센서부가 자차량의 주변 차량을 검출한 결과에 기초하여 메모리에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단하고, 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청하며, 신규 지도 정보의 전송 요청에 대한 대상 주변 차량의 승인에 의해 대상 주변 차량으로부터 전송되는 신규 지도 정보를 통해 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 한다.

Description

자율 주행 장치 및 방법{AUTONOMOUS DRIVING APPARATUS AND METHOD}
본 발명은 자율 주행 차량에 적용되는 자율 주행 장치 및 방법에 관한 것이다.
오늘날의 자동차 산업은 차량 주행에 운전자의 개입을 최소화하는 자율 주행을 구현하기 위한 방향으로 나아가고 있다. 자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다.
자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.
자율 주행 차량의 안정적인 주행을 보장하기 위해서는 차량에 장착된 각 센서를 통해 주행 환경을 정확하게 계측해야 하고, 차량의 주행 상태를 지속적으로 모니터링하여 계측된 주행 환경에 맞추어 주행을 제어해야 한다. 이를 위해, 자율 주행 차량에는 주변 차량, 보행자, 고정 시설물 등의 주변 객체를 검출하기 위한 센서로서 라이다(Lidar) 센서, 레이더(Radar) 센서, 초음파 센서 및 카메라 센서 등 다양한 센서들이 적용되고 있으며, 이러한 센서로부터 출력되는 데이터는 주행 환경에 대한 정보, 이를테면 주변 객체의 위치, 형상, 이동 방향 및 이동 속도와 같은 상태 정보를 결정하는데 활용된다.
나아가, 자율 주행 차량은 미리 저장된 지도 데이터를 이용하여 차량의 위치를 결정하고 보정함으로써 주행 경로 및 주행 차선을 최적으로 결정하고, 결정된 경로 및 차선을 벗어나지 않도록 차량의 주행을 제어하며, 주변에서 갑작스럽게 진입하는 차량 또는 주행 경로 상에 존재하는 위험 요소에 대한 방어 및 회피 운행을 수행하는 기능도 제공하고 있다.
본 발명의 배경기술은 대한민국 공개특허공보 제10-1998-0068399호(1998.10.15 공개)에 개시되어 있다.
본 발명의 일 측면에 따른 목적은 자율 주행 차량의 자율 주행 제어에 요구되는 지도 정보를 주변의 자율 주행 차량에 적용된 신규 지도 정보를 통해 업데이트하여 자율 주행 차량의 주행 정확성을 향상시키기 위한 자율 주행 장치 및 방법을 제공하는 것이다.
본 발명의 일 측면에 따른 자율 주행 장치는 자율 주행 중인 자차량의 주변 차량을 검출하는 센서부, 지도 정보를 저장하는 메모리, 및 상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 메모리에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단하고, 상기 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 상기 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청하며, 상기 신규 지도 정보의 전송 요청에 대한 상기 대상 주변 차량의 승인에 의해 상기 대상 주변 차량으로부터 전송되는 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 한다.
본 발명에 있어 상기 프로세서는, 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 메모리에 저장된 지도 정보의 업데이트가 필요한 것으로 판단하는 것을 특징으로 한다.
본 발명에 있어 상기 프로세서는, 상기 센서부에 의해 검출된 대상 주변 객체의 위치 정보인 센서 위치 데이터와, 상기 메모리에 저장된 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제1 지도 위치 데이터 간의 제1 차이값을 산출하고, 상기 센서 위치 데이터와, 상기 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제2 지도 위치 데이터 간의 제2 차이값을 산출한 후, 상기 제1 차이값이 상기 제2 차이값 이상인 경우 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 한다.
본 발명에 있어 상기 프로세서는, 상기 제2 차이값이 상기 제1 차이값보다 큰 경우, 상기 대상 주변 차량의 탑승자가 상기 신규 지도 정보의 업데이트가 필요함을 인지하도록 하기 위한 경고 정보를 상기 대상 주변 차량으로 전송하는 것을 특징으로 한다.
본 발명에 있어 상기 센서부는, 상기 자차량에 탑승한 탑승자의 상태를 검출하고, 상기 프로세서는, 상기 신규 지도 정보로 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하며, 상기 자차량이 상기 센서부에 의해 검출된 탑승자의 상태를 토대로 상기 탑승자에게 요구되는 특정 지점으로 이동하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 한다.
본 발명의 일 측면에 따른 자율 주행 방법은 프로세서가, 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 단계, 상기 프로세서가, 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 메모리에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단하는 단계, 상기 메모리에 저장된 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 상기 프로세서가, 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청하는 단계, 및 상기 프로세서가 상기 신규 지도 정보의 전송 요청에 대한 상기 대상 주변 차량의 승인에 의해 상기 대상 주변 차량으로부터 전송되는 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 일 측면에 따르면, 본 발명은 자율 주행 차량의 자율 주행 제어에 요구되는 지도 정보를 주변의 자율 주행 차량에 적용된 신규 지도 정보를 통해 업데이트하여 자율 주행 차량의 주행 정확성을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이다.
도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이다.
도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.
도 7은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 자율 주행 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이고, 도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이며, 도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이고, 도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.
먼저, 도 1 및 도 3을 참조하여 본 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 구조 및 기능에 대하여 설명한다. 도 1에 도시된 것과 같이 자율 주행 제어 시스템은 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다.
자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 예시로서 도시된 것과 같이 주행 모드 스위치(110) 및 사용자 단말(120, 예: 차량에 장착된 내비게이션 단말, 탑승자가 소지한 스마트폰 또는 태플릿 PC 등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다. 예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드, 또는 스포츠 모드(Sport Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 또한, 탑승자가 사용자 단말(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 한편, 사용자 단말(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI(User Interface)를 제공하는 제어 패널(Control Panel)(예: 터치 스크린 패널)로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 사용자 단말(120) 상의 터치 버튼으로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 것과 같이 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다. 나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning Sysetm) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다. 또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 것과 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 사용자 단말(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 것과 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.
상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.
한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 것과 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. 센서부(500)는 도 1에 도시된 것과 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.
라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(620)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다. 또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.
라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 것과 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. 도 3은 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 도 5는 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)가 전방의 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 도시하고 있으며, 도 6은 각 센서가 주변 객체를 검출하는 예시를 도시하고 있다. 도 6은 주변 객체 검출의 일 예시일 뿐, 주변 객체 검출 방식은 센서의 설치 위치 및 설치 수에 의존하여 결정된다. 전술한 센서부(500)의 구성에 따라 자차량의 전방위 영역의 주변 차량 및 주변 객체가 검출될 수 있다.
나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 음성 및 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 마이크 및 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.
도 4는 차량의 내부 구조의 예시를 도시하고 있으며, 차량의 내부에는 차량의 운전자 또는 동승자와 같은 탑승자의 조작에 의해 그 상태가 제어되어 탑승자의 운전 또는 편의(예: 휴식, 엔터테인먼트 활동 등)를 지원하기 위한 내부 장치가 설치되어 있을 수 있다. 이러한 내부 장치에는 탑승자가 안착하는 차량 시트(S), 내부 라이트 및 무드등과 같은 조명 장치(L), 전술한 사용자 단말(120) 및 디스플레이 장치(320), 내부 테이블 등이 포함될 수 있으며, 이러한 내부 장치는 프로세서(610)에 의해 그 상태가 제어될 수 있다.
차량 시트(S)의 경우, 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 차량 시트(S)가 앞 열 시트(S1) 및 뒷 열 시트(S2)로 구성되어 있는 경우 앞 열 시트(S1)의 각도만 조절될 수 있다. 뒷 열 시트(S2)가 구비되어 있지 않은 경우로서 앞 열 시트(S1)가 시트 구조 및 발받침 구조로 구분되어 있는 경우에는 앞 열 시트(S1)의 시트 구조가 발받침 구조와 물리적으로 분리되고 그 각도가 조절되도록 구현될 수 있다. 또한, 차량 시트(S)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다. 조명 장치(L)의 경우, 그 온오프가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 제어될 수 있으며, 조명 장치(L)가 내부 라이트 및 무드등과 같이 복수의 조명 유닛을 포함할 경우 각각의 조명 유닛은 그 온오프가 독립적으로 제어될 수 있다. 사용자 단말(120) 또는 디스플레이 장치(320)는 탑승자의 시야각에 따라 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 예를 들어 탑승자의 시선 방향에 그 화면이 존재하도록 각도가 조절될 수 있다. 이 경우, 사용자 단말(120) 및 디스플레이 장치(320)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다.
자율 주행 통합 제어부(600)는 도 1에 도시된 것과 같이 네트워크를 통해 서버(700)와 통신할 수 있다. 자율 주행 통합 제어부(600) 및 서버(700) 간의 네트워크 방식으로는 WAN(Wide Area Network), LAN(Local Area Network), 또는 PAN(Personal Area Network) 등 다양한 통신 방식이 채용될 수 있다. 또한, 넓은 네트워크 커버리지를 확보하기 위해, LPWAN(Low Power Wide Area Network, 사물 인터넷 중 커버리지가 매우 넓은 네트워크로서, LoRa, Sigfox, Ingenu, LTE-M, NB-IOT 등의 상용화된 기술을 포함) 통신 방식이 채용될 수 있다. 예를 들어, LoRa(저전력의 통신이 가능하면서도 최대 20Km 정도로 넓은 커버리지를 가짐), 또는 Sigfox(환경에 따라 10Km(도심) 내지 30Km(도심을 벗어난 외곽 지역)의 커버리지를 가짐)의 통신 방식이 채용될 수 있으며, 나아가 전력 절약 모드(PSM: Power Saving Mode)를 갖는 LTE-MTC(Machine-type Communications)(또는, LTE-M), NB(Narrowband) LTE-M, NB IoT와 같은 3GPP(3rd Generation Partnership Project) 릴리즈 12, 13 기반의 LTE 네트워크 기술이 채용될 수도 있다. 서버(700)는 최신성이 유지되는 지도 정보(2차원 항법 지도 데이터, 3차원 격지 지도 데이터, 또는 3차원 고정밀 전자지도 데이터 등 다양한 지도 정보가 해당될 수 있다)를 제공할 수 있으며, 나아가 도로의 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보 등 다양한 정보를 제공할 수도 있다. 자율 주행 통합 제어부(600)는 서버(700)로부터 최신의 지도 정보를 전달받아 메모리(620)에 저장된 지도 정보를 갱신할 수 있고, 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보를 제공받아 차량의 자율 주행 제어에 활용할 수도 있다.
다음으로, 도 2를 참조하여 본 실시예의 자율 주행 통합 제어부(600)의 구조 및 기능에 대하여 설명한다. 도 2에 도시된 것과 같이 자율 주행 통합 제어부(600)는 프로세서(610) 및 메모리(620)를 포함할 수 있다.
메모리(620)는 차량의 자율 주행 제어를 위해 필요한 기본 정보를 저장하거나, 프로세서(610)에 의해 차량의 자율 주행이 제어되는 과정에서 생성되는 정보를 저장할 수 있으며, 프로세서(610)는 메모리(620)에 저장된 정보에 접근(read, access)하여 차량의 자율 주행을 제어할 수 있다. 메모리(620)는 컴퓨터로 판독 가능한 기록 매체로 구현되어 프로세서(610)가 접근 가능하도록 동작할 수 있다. 구체적으로, 메모리(620)는 하드 드라이브(Hard Drive), 자기 테이프, 메모리 카드(Memory Card), ROM(Read-Only Memory), RAM(Random-Access Memory), DVD(Digital Video Disc) 또는 광학 디스크와 같은 광 데이터 저장장치로 구현될 수 있다.
메모리(620)에는 프로세서(610)에 의한 자율 주행 제어에 요구되는 지도 정보가 저장되어 있을 수 있다. 메모리(620)에 저장된 지도 정보는 도로 단위의 정보를 제공하는 항법 지도(수치지형도)일 수도 있으나, 자율 주행 제어의 정밀도를 향상하기 위해 차선(Lane) 단위의 도로 정보를 제공하는 정밀 도로 지도, 즉 3차원 고정밀 전자지도 데이터로 구현됨이 바람직할 수 있다. 이에 따라, 메모리(620)에 저장된 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다.
또한, 메모리(620)에는 차량의 자율 주행 제어를 위한 자율 주행 알고리즘이 저장되어 있을 수 있다. 자율 주행 알고리즘은 자율 주행 차량 주변을 인식하고 그 상태를 판단하여 그 판단 결과에 따라 차량의 주행을 제어하는 알고리즘(인식, 판단 및 제어 알고리즘)으로서, 프로세서(610)는 메모리(620)에 저장된 자율 주행 알고리즘을 실행하여 차량의 주변 환경에 능동적인 자율 주행 제어를 수행할 수 있다.
프로세서(610)는 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보 및 자율 주행 알고리즘을 기반으로 차량의 자율 주행을 제어할 수 있다. 프로세서(610)는 CISC(Complex Instruction Set Computer) 또는 RISC(Reduced Instruction Set Computer)와 같은 임베디드 프로세서(Embedded Processor), 또는 주문형 반도체(ASIC: Application Specific Integrated Circuit)와 같은 전용 반도체 회로로 구현될 수도 있다.
본 실시예에서 프로세서(610)는 자차량 및 주변 차량의 각 주행 궤적을 분석하여 자차량의 자율 주행을 제어할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 프로세서(610)는 센서 처리 모듈(611), 주행 궤적 생성 모듈(612), 주행 궤적 분석 모듈(613), 주행 제어 모듈(614), 궤적 학습 모듈(615) 및 탑승자 상태 판단 모듈(616)을 포함할 수 있다. 도 2는 기능에 따라 각 모듈을 독립적인 블록으로 도시하고 있으나, 각 모듈이 하나의 모듈로 통합되어 각각의 기능을 통합적으로 수행하는 구성으로 구현될 수도 있다.
센서 처리 모듈(611)은 센서부(500)를 통해 자차량의 주변 차량이 검출된 결과를 기반으로 주변 차량의 주행 정보(즉, 주변 차량의 위치를 포함하며, 위치와 함께 주변 차량의 속도 및 이동 방향을 더 포함할 수도 있다)를 판단할 수 있다. 즉, 라이다 센서(510)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 레이더 센서(520)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 카메라 센서(530)를 통해 촬상된 이미지를 기반으로 주변 차량의 위치를 판단하거나, 초음파 센서(540)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단할 수 있다. 이를 위해, 도 1에 도시된 것과 같이 센서 처리 모듈(611)은 라이다 신호 처리 모듈(611a), 레이더 신호 처리 모듈(611b) 및 카메라 신호 처리 모듈(611c)을 포함할 수 있다(초음파 신호 처리 모듈이 센서 처리 모듈(611)에 더 부가될 수도 있다). 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)를 활용하여 주변 차량의 위치를 결정하는 방법은 특정의 실시예로 그 구현 방식이 한정되지 않는다. 또한, 센서 처리 모듈(611)은 주변 차량의 위치, 속도 및 이동 방향뿐만 아니라 주변 차량의 크기 및 종류 등의 속성 정보를 판단할 수도 있으며, 상기와 같은 주변 차량의 위치, 속도, 이동 방향, 크기 및 종류와 같은 정보를 판단하기 위한 알고리즘이 미리 정의되어 있을 수 있다.
주행 궤적 생성 모듈(612)은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적과, 자차량의 실제 주행 궤적을 생성할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)을 포함할 수 있다.
먼저, 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 실제 주행 궤적을 생성할 수 있다.
구체적으로, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 검출된 주변 차량의 주행 정보(즉, 센서 처리 모듈(611)에 의해 결정된 주변 차량의 위치)에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 이 경우, 주변 차량의 실제 주행 궤적을 생성하기 위해 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보를 참조할 수 있으며, 센서부(500)에 의해 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 주변 차량 주행 궤적 생성 모듈(612a)은 상기의 교차 참조를 기반으로, 센서부(500)에 의해 검출된 주변 차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.
한편, 주변 차량의 실제 주행 궤적은 후술하는 주변 차량의 예상 주행 궤적과 비교되어 메모리(620)에 저장된 지도 정보의 부정확 여부를 판단하기 위해 활용될 수 있다. 이 경우, 어느 특정한 주변 차량의 실제 주행 궤적을 예상 주행 궤적과 비교할 경우 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하는 문제가 발생할 수 있다. 예를 들어, 다수의 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 일치하고, 어느 특정 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 상이할 경우, 상기 특정 주변 차량의 실제 주행 궤적만을 예상 주행 궤적과 비교하면 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하게 될 수 있다. 따라서, 복수의 주변 차량의 실제 주행 궤적의 경향성이 예상 주행 궤적을 벗어나는지 여부를 판단할 필요성이 있으며, 이를 위해 주변 차량 주행 궤적 생성 모듈(612a)은 복수의 주변 차량의 실제 주행 궤적을 각각 생성할 수도 있다. 나아가, 주변 차량의 운전자가 직선 경로 주행을 위해 주행 과정에서 조향휠을 좌우측으로 다소 움직이는 경향이 있음을 고려하면 주변 차량의 실제 주행 궤적은 직선이 아닌 굴곡이 있는 형태로 생성될 수도 있으며, 후술하는 예상 주행 궤적 간의 오차 산출을 위해 주변 차량 주행 궤적 생성 모듈(612a)은 굴곡이 있는 형태로 생성되는 원시의 실제 주행 궤적에 소정의 평활화 기법을 적용하여 직선 형태의 실제 주행 궤적을 생성할 수도 있다. 평활화 기법으로는 주변 차량의 각 위치에 대한 보간(interpolation) 등 다양한 기법이 채용될 수 있다.
또한, 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있다.
전술한 것과 같이 메모리(620)에 저장된 지도 정보는 3차원 고정밀 전자지도 데이터일 수 있으며, 따라서 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다. 일반적으로 차량은 차로의 중앙에서 주행하는 점을 고려하면, 자차량의 주변에서 주행하고 있는 주변 차량 또한 차로의 중앙에서 주행할 것으로 예상될 수 있으며, 따라서 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.
자차량 주행 궤적 생성 모듈(612b)은 전술한 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 주행 정보에 기초하여 자차량이 현재까지 주행한 실제 주행 궤적을 생성할 수 있다.
구체적으로, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 위치 정보)와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 자차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 자차량의 위치를 특정할 수 있으며, 상기와 같이 자차량의 위치를 지속적으로 모니터링함으로써 자차량의 실제 주행 궤적을 생성할 수 있다. 즉, 자차량 주행 궤적 생성 모듈(612b)은 상기의 교차 참조를 기반으로, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 자차량의 실제 주행 궤적을 생성할 수 있다.
또한, 자차량 주행 궤적 생성 모듈(612b)은 메모리에 저장된 지도 정보에 기초하여 자차량이 목적지까지 주행해야 할 예상 주행 궤적을 생성할 수 있다.
즉, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 현재 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 현재 위치 정보)와 메모리에 저장된 지도 정보를 이용하여 목적지까지의 예상 주행 궤적을 생성할 수 있으며, 자차량의 예상 주행 궤적은 주변 차량의 예상 주행 궤적과 마찬가지로 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성될 수 있다.
주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 주행 궤적은 메모리(620)에 저장될 수 있으며, 프로세서(610)에 의해 자차량의 자율 주행이 제어되는 과정에서 다양한 목적으로 활용될 수 있다.
주행 궤적 분석 모듈(613)은 주행 궤적 생성 모듈(612)에 의해 생성되어 메모리(620)에 저장된 각 주행 궤적(즉, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적, 자차량의 실제 주행 궤적)을 분석하여 현재 자차량에 대한 자율 주행 제어의 신뢰도를 진단할 수 있다. 자율 주행 제어의 신뢰도 진단은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차를 분석하는 과정으로 진행될 수 있다.
주행 제어 모듈(614)은 자차량의 자율 주행을 제어하는 기능을 수행할 수 있으며, 구체적으로 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보를 종합적으로 이용하여 자율 주행 알고리즘을 처리하며, 차량 제어 출력 인터페이스(401)를 통해 제어 정보를 전달하여 하위 제어 시스템(400)으로 하여금 자차량의 자율 주행을 제어하도록 할 수 있고, 또한 탑승자 출력 인터페이스(301)를 통해 자차량의 주행 상태 정보 및 경고 정보를 출력부(300)로 전달하여 운전자가 인지하도록 할 수 있다. 또한, 주행 제어 모듈(614)은 상기와 같은 자율 주행을 통합적으로 제어할 때 전술한 센서 처리 모듈(611), 주행 궤적 생성 모듈(612) 및 주행 궤적 분석 모듈(613)에 의해 분석된 자차량 및 주변 차량의 주행 궤적을 고려하여 자율 주행을 제어함으로써 자율 주행 제어의 정밀도를 향상시키고 자율 주행 제어 안정성을 개선할 수 있다.
궤적 학습 모듈(615)은 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 자차량의 실제 주행 궤적에 대한 학습 또는 보정을 수행할 수 있다. 예를 들어, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 메모리(620)에 저장된 지도 정보의 부정확한 것으로 판단하여 자차량의 실제 주행 궤적의 보정이 필요한 것으로 판단할 수 있으며, 이에 따라 자차량의 실제 주행 궤적을 보정하기 위한 횡방향 시프트값을 결정하여 자차량의 주행 궤적을 보정할 수 있다.
탑승자 상태 판단 모듈(616)은 전술한 내부 카메라 센서(535) 및 생체 센서에 의해 검출된 탑승자의 상태 및 생체 신호를 토대로 탑승자의 상태 및 거동을 판단할 수 있다. 탑승자 상태 판단 모듈(616)에 의해 판단된 탑승자의 상태는 자차량의 자율 주행 제어 또는 탑승자에 대한 경고를 출력하는 과정에서 활용될 수 있다.
전술한 내용에 기초하여, 이하에서는 자차량의 자율 주행 제어에 요구되는 지도 정보를 주변의 자율 주행 차량에 적용된 신규 지도 정보를 통해 업데이트하는 실시예에 대하여 설명한다.
프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 과정에서, 센서부(500)가 주변 차량을 검출한 결과에 기초하여 메모리(620)에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단할 수 있다. 이때, 프로세서(610)는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성하고, 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성하며, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 메모리(620)에 저장된 지도 정보의 업데이트가 필요한 것으로 판단할 수 있다.
구체적으로, 전술한 것과 같이 본 실시예의 프로세서(610)(의 주행 궤적 생성 모듈(612))는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 프로세서(610)는 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.
그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.
프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 메모리(620)에 저장된 지도 정보의 업데이트가 필요한 것으로 판단할 수 있다. 즉, 전술한 것과 같이 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 임계값 이상이면 프로세서(610)는 메모리(620)에 저장된 지도 정보가 부정확한 것으로 판단하여 그 업데이트가 필요한 것으로 판단할 수 있다.
메모리(620)에 저장된 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 프로세서(610)는 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청할 수 있다. 본 실시예에서 자차량의 메모리(620)에 저장된 지도 정보를 업데이트하기 위한 신규 지도 정보가 적용된 주변 차량을 의미하는 것으로 설명하기 위해 '대상 주변 차량'의 용어로 표기하였으나, 대상 주변 차량은 전술한 주변 차량 주행 궤적 생성 모듈(612a)에 의해 실제 주행 궤적 및 예상 주행 궤적이 산출되는 주변 차량과 동일한 차량을 지칭할 수 있다.
또한, 대상 주변 차량에 적용된 신규 지도 정보는 3차원 고정밀 전자지도 데이터 또는 3차원 격자 지도일 수 있으나, 전술한 서버(700)에 저장된 지도 정보와는 구분되는 지도 정보를 의미할 수 있으며, 대상 주변 차량이 도로를 주행하는 과정에서 획득한 도로 데이터, 또는 대상 주변 차량이 타 차량으로부터 전송받은 도로 데이터가 반영된 지도 정보일 수 있다. 서버(즉, 지도 제공 서버, 700)에 저장된 지도 정보는 단일의 운영 업체에 의해 수집된 도로 데이터를 기반으로 생성되는 점에서 반영하고 있는 정보량의 제한이 존재하는 한계를 갖는다. 반면, 대상 주변 차량에 적용된 신규 지도 정보는 복수의 차량이 도로를 주행하면서 획득된 다양한 도로 데이터가 반영되어 있기 때문에, 서버(700)에 저장된 지도 정보 대비 지도 정보의 정확성 및 데이터의 다양성 측면에서 이점을 갖는다. 이러한 신규 지도 정보가 적용된 대상 주변 차량은 자차량과 마찬가지로 자율 주행 차량에 해당할 수 있다.
자차량으로부터의 신규 지도 정보의 전송 요청에 대한 대상 주변 차량의 승인이 있을 경우(즉, 대상 주변 차량에 탑승한 탑승자의 승인이 있을 경우), 프로세서(610)는 V2V(Vehicle to Vehicle) 통신 방식을 기반으로 대상 주변 차량으로부터 신규 지도 정보를 전송받을 수 있으며, 이에 따라 프로세서(610)는 전송받은 신규 지도 정보를 통해 메모리(620)에 저장된 지도 정보를 업데이트할 수 있다.
한편, 프로세서(610)는 메모리(620)에 저장된 지도 정보를 업데이트하기 전에, 대상 주변 차량으로부터 전송받은 신규 지도 정보에 대한 검증 과정을 수행할 수도 있다. 이를 위해 프로세서(610)는 센서부(500)에 의해 검출된 대상 주변 객체의 위치 정보인 센서 위치 데이터와, 메모리(620)에 저장된 지도 정보 상의 대상 주변 객체의 위치 정보인 제1 지도 위치 데이터 간의 제1 차이값을 산출하고, 상기의 센서 위치 데이터와 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 대상 주변 객체의 위치 정보인 제2 지도 위치 데이터 간의 제2 차이값을 산출한 후, 제1 차이값이 제2 차이값 이상인 경우 신규 지도 정보를 통해 메모리(620)에 저장된 지도 정보를 업데이트할 수 있다. 여기서, 대상 주변 차량으로부터 전송받은 신규 지도 정보를 검증하기 위해 활용되는 주변 객체를 '대상 주변 객체'로 표기하며, 대상 주변 객체는 자차량 주변의 특정 주변 차량 또는 특정 고정 시설물 등을 의미할 수 있다.
구체적으로, 프로세서(610)(의 센서 처리 모듈(611))는 센서부(500)를 통해 대상 주변 객체가 검출된 결과를 기반으로 대상 객체의 위치 정보, 즉 상기한 센서 위치 데이터를 획득할 수 있으며, 또한 검출된 대상 주변 객체의 메모리(620)에 저장된 지도 정보 상에서의 위치를 파악하여 상기한 제1 지도 위치 데이터를 획득할 수 있다. 센서부(500)의 정상 동작을 전제할 때, 센서 위치 데이터 및 제1 지도 위치 데이터 간의 차이값, 즉 제1 차이값은 메모리(620)에 저장된 지도 정보의 부정확 수준을 나타낸다(즉, 제1 차이값이 클수록 메모리(620)에 저장된 지도 정보의 부정확성은 높다고 할 수 있다).
또한, 프로세서(610)는 대상 주변 차량으로부터 전송받은 신규 지도 정보 상에서의 대상 주변 객체의 위치를 파악하여 상기한 제2 지도 위치 데이터를 획득할 수 있다. 센서 위치 데이터 및 제2 지도 위치 데이터 간의 차이값, 즉 제2 차이값은 대상 주변 차량으로부터 전송받은 신규 지도 정보의 부정확 수준을 나타낸다(즉, 제2 차이값이 클수록 대상 주변 차량으로부터 전송받은 신규 지도 정보의 부정확성은 높다고 할 수 있다).
이에 따라, 프로세서(610)는 제1 및 제2 차이값을 비교할 수 있으며, 제1 차이값이 제2 차이값 이상인 경우, 대상 주변 차량으로부터 전송받은 신규 지도 정보가 메모리(620)에 저장된 지도 정보 대비 그 정확도가 높다고 볼 수 있으므로 프로세서(610)는 신규 지도 정보를 통해 메모리(620)에 저장된 지도 정보를 업데이트할 수 있다.
반면, 제2 차이값이 제1 차이값보다 큰 경우, 메모리(620)에 저장된 지도 정보가 대상 주변 차량으로부터 전송받은 신규 지도 정보 대비 그 정확도가 높다고 볼 수 있으므로 프로세서(610)는 대상 주변 차량의 탑승자가 신규 지도 정보의 업데이트가 필요함을 인지하도록 하기 위한 경고 정보를 V2V 통신을 통해 대상 주변 차량으로 전송하고, 메모리(620)에 저장된 지도 정보에 기초한 자차량의 자율 주행 제어를 유지할 수 있다.
메모리(620)에 저장된 지도 정보가 업데이트된 후, 프로세서(610)는 신규 지도 정보로 업데이트된 지도 정보에 기초하여 자차량의 자율 주행을 제어할 수 있으며, 이에 따라 메모리(620)에 기 저장되어 있던 지도 정보에 기초하여 자율 주행을 수행하는 경우 대비 자율 주행의 정확도가 향상될 수 있다.
한편, 프로세서(610)는 자차량이 센서부(500)에 의해 검출된 탑승자의 상태를 토대로 탑승자에게 요구되는 특정 지점으로 이동하도록 자차량의 자율 주행을 제어할 수도 있다.
구체적으로, 프로세서(610)는 센서부(500)(의 내부 카메라 센서(535))에 의해 검출된 탑승자의 상태(즉, 탑승자 상태 판단 모듈(616)에 의해 판단된 탑승자의 상태)를 기반으로 현재 탑승자의 현재 건강상태 또는 피로도를 판단할 수 있으며, 상기와 같이 판단된 탑승자의 건강상태 또는 피로도에 따라 탑승자에게 요구되는 특정 지점(예: 인근 병원, 응급실, 또는 휴게소, 쉼터 등)으로 자차량이 이동하도록 하위 제어 시스템(400)을 제어할 수 있다. 자차량의 현재 자율 주행은 전술한 신규 지도 정보에 기초하여 수행되는 점에서, 탑승자의 상태에 적합한 특정 지점을 신규 지도 정보를 토대로 정확하게 결정함으로써 탑승자에 상태에 능동적인 자율 주행이 이루어질 수 있다.
도 7은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.
도 7을 참조하여 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하면, 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어한다(S100).
이어서, 프로세서(610)는 센서부(500)가 자차량의 주변 차량을 검출한 결과에 기초하여 메모리(620)에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단한다(S200). S200 단계에서, 프로세서(610)는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성하고, 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성하며, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 메모리(620)에 저장된 지도 정보의 업데이트가 필요한 것으로 판단한다.
S200 단계에서 메모리(620)에 저장된 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 프로세서(610)는 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청한다(S300).
신규 지도 정보의 전송 요청에 대한 대상 주변 차량의 승인이 이루어지지 않을 경우(S400), 프로세서(610)는 메모리(620)에 저장되어 있던 지도 정보에 기초하여 자율 주행을 제어한다(S500).
신규 지도 정보의 전송 요청에 대한 대상 주변 차량의 승인이 이루어짐에 따라(S400) 대상 주변 차량으로부터 신규 지도 정보를 전송받으면, 프로세서(610)는 센서부(500)에 의해 검출된 대상 주변 객체의 위치 정보인 센서 위치 데이터와, 메모리(620)에 저장된 지도 정보 상의 대상 주변 객체의 위치 정보인 제1 지도 위치 데이터 간의 제1 차이값을 산출하고(S600), 센서 위치 데이터와 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 대상 주변 객체의 위치 정보인 제2 지도 위치 데이터 간의 제2 차이값을 산출하며(S700), 제1 및 제2 차이값을 비교한다(S800).
S800 단계에서 제1 차이값이 제2 차이값 이상인 것으로 판단된 경우, 프로세서(610)는 대상 주변 차량으로부터 전송받은 신규 지도 정보를 통해 메모리(620)에 저장된 지도 정보를 업데이트한다(S900). 만약, S800 단계에서 제2 차이값이 제1 차이값보다 큰 것으로 판단된 경우, 프로세서(610)는 대상 주변 차량의 탑승자가 신규 지도 정보의 업데이트가 필요함을 인지하도록 하기 위한 경고 정보를 대상 주변 차량으로 전송한다(S1000). 이후, 프로세서(610)는 메모리(620)에 저장되어 있던 지도 정보에 기초하여 자율 주행을 제어한다(S500).
S900 단계 이후, 프로세서(610)는 업데이트된 신규 지도 정보에 기초하여 자차량의 자율 주행을 제어하며(S1100), S1100 단계에서 프로세서(610)는 자차량이 센서부(500)에 의해 검출된 탑승자의 상태를 토대로 탑승자에게 요구되는 특정 지점으로 이동하도록 자차량의 자율 주행을 제어할 수도 있다.
이와 같이 본 실시예는 자율 주행 차량의 자율 주행 제어에 요구되는 지도 정보를 주변의 자율 주행 차량에 적용된 신규 지도 정보를 통해 업데이트하여 자율 주행 차량의 주행 정확성을 향상시킬 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
100: 사용자 입력부 101: 운전 정보 입력 인터페이스
110: 주행 모드 스위치 120: 사용자 단말
200: 주행 정보 검출부 201: 주행 정보 입력 인터페이스
210: 조향각 센서 220: APS/PTS
230: 차속 센서 240: 가속도 센서
250: 요/피치/롤 센서 260: GPS 수신기
300: 출력부 301: 탑승자 출력 인터페이스
310: 스피커 320: 디스플레이 장치
400: 하위 제어 시스템 401: 차량 제어 출력 인터페이스
410: 엔진 제어 시스템 420: 제동 제어 시스템
430: 조향 제어 시스템 500: 센서부
510: 라이다 센서 511: 전방 라이다 센서
512: 상부 라이다 센서 513: 후방 라이다 센서
520: 레이더 센서 521: 전방 레이더 센서
522: 좌측 레이더 센서 523: 우측 레이더 센서
524: 후방 레이더 센서 530: 카메라 센서
531: 전방 카메라 센서 532: 좌측 카메라 센서
533: 우측 카메라 센서 534: 후방 카메라 센서
535: 내부 카메라 센서 540: 초음파 센서
600: 자율 주행 통합 제어부 610: 프로세서
611: 센서 처리 모듈 611a: 라이더 신호 처리 모듈
611b: 레이더 신호 처리 모듈 611c: 카메라 신호 처리 모듈
612: 주행 궤적 생성 모듈 612a: 주변 차량 주행 궤적 생성 모듈
612b: 자차량 주행 궤적 생성 모듈 613: 주행 궤적 분석 모듈
614: 주행 제어 모듈 615: 궤적 학습 모듈
616: 탑승자 상태 판단 모듈 620: 메모리
700: 서버(지도 제공 서버)

Claims (10)

  1. 자율 주행 중인 자차량의 주변 차량을 포함하는 주변 객체를 검출하는 센서부;
    지도 정보를 저장하는 메모리; 및
    상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 메모리에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단하고,
    상기 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 상기 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청하며,
    상기 신규 지도 정보의 전송 요청에 응답하여 상기 대상 주변 차량으로부터 전송되는 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하고,
    상기 프로세서는,
    상기 센서부에 의해 검출된 대상 주변 객체의 위치 정보, 상기 메모리에 저장된 지도 정보 상의 상기 대상 주변 객체의 위치 정보, 및 상기 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 상기 대상 주변 객체의 위치 정보를 토대로 상기 메모리에 저장된 지도 정보의 정확도와 상기 신규 지도 정보의 정확도를 비교하여 상기 신규 지도 정보의 정확도를 검증한 후, 상기 신규 지도 정보의 정확도가 검증된 경우에만 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 하는 자율 주행 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 메모리에 저장된 지도 정보의 업데이트가 필요한 것으로 판단하는 것을 특징으로 하는 자율 주행 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 센서부에 의해 검출된 대상 주변 객체의 위치 정보인 센서 위치 데이터와, 상기 메모리에 저장된 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제1 지도 위치 데이터 간의 제1 차이값을 산출하고,
    상기 센서 위치 데이터와, 상기 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제2 지도 위치 데이터 간의 제2 차이값을 산출한 후,
    상기 제1 차이값이 상기 제2 차이값 이상인 경우 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 하는 자율 주행 장치.
  4. 제3항에 있어서,
    상기 프로세서는,
    상기 제2 차이값이 상기 제1 차이값보다 큰 경우, 상기 대상 주변 차량의 탑승자가 상기 신규 지도 정보의 업데이트가 필요함을 인지하도록 하기 위한 경고 정보를 상기 대상 주변 차량으로 전송하는 것을 특징으로 하는 자율 주행 장치.
  5. 제1항에 있어서,
    상기 센서부는, 상기 자차량에 탑승한 탑승자의 상태를 더 검출하고,
    상기 프로세서는,
    상기 신규 지도 정보로 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하며, 상기 자차량이 상기 센서부에 의해 검출된 탑승자의 상태를 토대로 상기 탑승자에게 요구되는 특정 지점으로 이동하도록 상기 자차량의 자율 주행을 제어하는 것을 특징으로 하는 자율 주행 장치.
  6. 프로세서가, 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 단계;
    상기 프로세서가, 센서부가 상기 자차량의 주변 차량을 검출한 결과에 기초하여 상기 메모리에 저장된 지도 정보의 업데이트가 필요한지 여부를 판단하는 단계;
    상기 메모리에 저장된 지도 정보의 업데이트가 필요한 것으로 판단된 경우, 상기 프로세서가, 상기 자차량 주변의 대상 주변 차량으로 신규 지도 정보의 전송을 요청하는 단계;
    상기 프로세서가, 상기 신규 지도 정보의 전송 요청에 응답하여 상기 대상 주변 차량으로부터 상기 신규 지도 정보를 전송받는 단계; 및
    상기 프로세서가, 상기 대상 주변 차량으로부터 전송되는 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 단계;
    를 포함하고,
    상기 전송받는 단계 이후 및 상기 업데이트하는 단계 이전에,
    상기 프로세서가, 상기 센서부에 의해 검출된 대상 주변 객체의 위치 정보, 상기 메모리에 저장된 지도 정보 상의 상기 대상 주변 객체의 위치 정보, 및 상기 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 상기 대상 주변 객체의 위치 정보를 토대로 상기 메모리에 저장된 지도 정보의 정확도와 상기 신규 지도 정보의 정확도를 비교하여 상기 신규 지도 정보의 정확도를 검증하는 단계;를 더 포함하고,
    상기 업데이트하는 단계에서, 상기 프로세서는,
    상기 신규 지도 정보의 정확도가 검증된 경우에만 상기 신규 지도 정보를 통해 상기 메모리에 저장된 지도 정보를 업데이트하는 것을 특징으로 하는 자율 주행 방법.
  7. 제6항에 있어서,
    상기 판단하는 단계에서, 상기 프로세서는,
    상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우, 상기 메모리에 저장된 지도 정보의 업데이트가 필요한 것으로 판단하는 것을 특징으로 하는 자율 주행 방법.
  8. 제6항에 있어서,
    상기 검증하는 단계는,
    상기 프로세서가, 상기 센서부에 의해 검출된 대상 주변 객체의 위치 정보인 센서 위치 데이터와, 상기 메모리에 저장된 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제1 지도 위치 데이터 간의 제1 차이값을 산출하는 단계;
    상기 프로세서가, 상기 센서 위치 데이터와, 상기 대상 주변 차량으로부터 전송받은 신규 지도 정보 상의 상기 대상 주변 객체의 위치 정보인 제2 지도 위치 데이터 간의 제2 차이값을 산출하는 단계; 및
    상기 프로세서가, 상기 제1 및 제2 차이값을 비교하는 단계;를 포함하고,
    상기 업데이트하는 단계는, 상기 제1 차이값이 상기 제2 차이값 이상인 경우 수행되는 것을 특징으로 하는 자율 주행 방법.
  9. 제8항에 있어서,
    상기 제2 차이값이 상기 제1 차이값보다 큰 경우, 상기 프로세서가, 상기 대상 주변 차량의 탑승자가 상기 신규 지도 정보의 업데이트가 필요함을 인지하도록 하기 위한 경고 정보를 상기 대상 주변 차량으로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
  10. 제6항에 있어서,
    상기 센서부는, 상기 자차량에 탑승한 탑승자의 상태를 더 검출하고,
    상기 프로세서가, 상기 신규 지도 정보로 업데이트된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 단계로서, 상기 자차량이 상기 센서부에 의해 검출된 탑승자의 상태를 토대로 상기 탑승자에게 요구되는 특정 지점으로 이동하도록 상기 자차량의 자율 주행을 제어하는, 단계;를 더 포함하는 것을 특징으로 하는 자율 주행 방법.
KR1020190058600A 2019-05-20 2019-05-20 자율 주행 장치 및 방법 KR102644325B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190058600A KR102644325B1 (ko) 2019-05-20 2019-05-20 자율 주행 장치 및 방법
KR1020240030297A KR20240035961A (ko) 2019-05-20 2024-02-29 자율 주행 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190058600A KR102644325B1 (ko) 2019-05-20 2019-05-20 자율 주행 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240030297A Division KR20240035961A (ko) 2019-05-20 2024-02-29 자율 주행 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200133849A KR20200133849A (ko) 2020-12-01
KR102644325B1 true KR102644325B1 (ko) 2024-03-07

Family

ID=73790637

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190058600A KR102644325B1 (ko) 2019-05-20 2019-05-20 자율 주행 장치 및 방법
KR1020240030297A KR20240035961A (ko) 2019-05-20 2024-02-29 자율 주행 장치 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240030297A KR20240035961A (ko) 2019-05-20 2024-02-29 자율 주행 장치 및 방법

Country Status (1)

Country Link
KR (2) KR102644325B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017185946A (ja) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 車両の自動運転システム
KR101916506B1 (ko) * 2012-09-27 2018-11-07 웨이모 엘엘씨 차량 움직임에 근거하여 주행 환경에서의 변화 검출

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101027149B1 (ko) * 2008-07-16 2011-04-05 현대엠엔소프트 주식회사 차량 항법 장치 및 그의 전자지도 업데이트 방법
KR102274502B1 (ko) * 2015-08-13 2021-07-08 현대자동차주식회사 네비게이션 맵 업데이트 방법
KR102027950B1 (ko) * 2017-08-18 2019-10-02 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR102104500B1 (ko) * 2019-03-07 2020-04-24 삼성전자주식회사 정보 제공 방법 및 이를 위한 정보 제공 차량

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101916506B1 (ko) * 2012-09-27 2018-11-07 웨이모 엘엘씨 차량 움직임에 근거하여 주행 환경에서의 변화 검출
JP2017185946A (ja) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 車両の自動運転システム

Also Published As

Publication number Publication date
KR20200133849A (ko) 2020-12-01
KR20240035961A (ko) 2024-03-19

Similar Documents

Publication Publication Date Title
CN112046500B (zh) 自动驾驶装置和方法
US11685402B2 (en) Autonomous driving apparatus and method
CN112046501A (zh) 自动驾驶装置和方法
US11654939B2 (en) Autonomous driving apparatus and method that outputs different warnings based on driving risk
KR20210037790A (ko) 자율 주행 장치 및 방법
US11934204B2 (en) Autonomous driving apparatus and method
KR20240038680A (ko) 자율 주행 장치 및 방법
KR20240035960A (ko) 자율 주행 장치 및 방법
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
KR102539286B1 (ko) 자율 주행 장치 및 방법
US20200369296A1 (en) Autonomous driving apparatus and method
KR20200133857A (ko) 자율 주행 장치 및 방법
KR102616971B1 (ko) 자율 주행 장치 및 방법
KR102530702B1 (ko) 자율 주행 장치 및 방법
KR102644325B1 (ko) 자율 주행 장치 및 방법
KR20200133859A (ko) 자율 주행 장치 및 방법
KR102678198B1 (ko) 자율 주행 장치 및 방법
KR102648470B1 (ko) 자율 주행 장치 및 방법
KR102678197B1 (ko) 자율 주행 장치 및 방법
KR20200133445A (ko) 자율 주행 장치 및 방법
KR102648603B1 (ko) 자율 주행 장치 및 방법
KR20200133444A (ko) 자율 주행 장치 및 방법
KR20200133443A (ko) 자율 주행 장치 및 방법
KR20200133855A (ko) 자율 주행 장치 및 방법
KR20200133851A (ko) 자율 주행 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right