KR20230071931A - 운전자 보조 장치 및 그를 가지는 차량 - Google Patents

운전자 보조 장치 및 그를 가지는 차량 Download PDF

Info

Publication number
KR20230071931A
KR20230071931A KR1020210158025A KR20210158025A KR20230071931A KR 20230071931 A KR20230071931 A KR 20230071931A KR 1020210158025 A KR1020210158025 A KR 1020210158025A KR 20210158025 A KR20210158025 A KR 20210158025A KR 20230071931 A KR20230071931 A KR 20230071931A
Authority
KR
South Korea
Prior art keywords
information
gradient
gradient information
road
vehicle
Prior art date
Application number
KR1020210158025A
Other languages
English (en)
Inventor
안태호
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020210158025A priority Critical patent/KR20230071931A/ko
Publication of KR20230071931A publication Critical patent/KR20230071931A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • B60W2420/62
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차로 유지 보조를 수행하는 운전자 보조 장치 및 그를 가지는 차량에 관한 것이다.
운전자 보조 장치는 지도 정보를 저장하는 메모리; 복수 개의 라이다 센서들과 통신을 수행하는 통신부; 및 지도 정보에 기초하여 제1구배 정보를 획득하고, 통신부에 의해 수신된 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 제2구배 정보를 획득하고, 제1구배 정보와 제2구배 정보에 기초하여 최종 구배 정보를 획득하고, 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향 신호를 생성하는 프로세서를 포함하고, 제1구배 정보, 제2구배 정보 및 최종 구배 정보는, 도로의 중앙과 도로의 최외곽에 대한 기울기 정보를 포함한다.

Description

운전자 보조 장치 및 그를 가지는 차량 {Advanced Driver Assistance Systems, and Vehicle having the same}
본 발명은 차선을 인식하고 인식한 차선의 정보에 기초하여 차로를 유지하며 주행하도록 하는 운전자 보조 장치 및 및 그를 가지는 차량에 관한 것이다.
최근 운전자 부주의로 발생하는 사고를 방지하기 위하여 운전자에게 차량의 주행 정보를 전달해주고 운전자의 편의를 위한 안내 정보를 전달해주는 다양한 운전자 보조 장치들(ADAS: Advanced Driver Assistance Systems)이 개발되고 있다.
운전자 보조 장치의 일 예로, 차량에 거리 센서를 장착하여 주변의 장애물과의 거리 정보를 검출하고 검출한 거리 정보에 기초하여 차량의 주행 속도를 조절하는 크루즈 컨트롤 기술과, 장애물과의 거리 정보에 기초하여 충돌 방지에 대한 알림음을 출력하도록 하는 기술이 있다.
운전자 보조 장치의 다른 예로, 차선을 인식하고 인식한 차선을 이탈하여 주행하는 것에 대응하여 경보를 출력하는 차선 이탈 경보(Lane Departure Warning, LDW) 기술과, 차선을 인식하고 인식한 차선의 위치 정보에 기초하여 차로를 유지하면서 주행하도록 조향을 제어하는 차로 유지 보조(Lane Following Assist, LFA) 기술이 있다.
운전자 보조 장치의 또 다른 예로, 차선의 위치 정보, 도로 정보 및 현재 위치 정보에 기초하여 목적지까지 자율적으로 주행하되 장애물을 검출하고 검출된 장애물을 회피하면서 목적지까지 자율적으로 주행하는 자율 주행 기술이 있다.
운전자 보조 장치는 도로의 노면에 횡단 구배가 존재할 때 차량의 우측 쏠림이 발생하여 운전자 보조 기능의 성능을 저하시키는 문제점이 있었다.
일 측면은 지도 정보에 의해 획득된 구배 정보와 라이다 센서에 의해 획득된 구배 정보에 기초하여 최종 구배 정보를 획득하고 획득한 최종 구배 정보에 기초하여 조향을 제어하는 운전자 보조 장치 및 그를 가지는 차량을 제공한다.
일 측면에 따른 운전자 보조 장치는, 지도 정보를 저장하는 메모리; 복수 개의 라이다 센서들과 통신을 수행하는 통신부; 및 지도 정보에 기초하여 제1구배 정보를 획득하고, 통신부에 의해 수신된 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 제2구배 정보를 획득하고, 제1구배 정보와 제2구배 정보에 기초하여 최종 구배 정보를 획득하고, 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향 신호를 생성하는 프로세서를 포함하고, 제1구배 정보, 제2구배 정보 및 최종 구배 정보는, 도로의 중앙과 도로의 최외곽에 대한 기울기 정보를 포함한다.
일 측면에 따른 운전자 보조 장치의 복수 개의 라이다 센서들의 레이저 데이터는, 전방 중앙의 라이다 센서의 전방 레이저 데이터와, 전방 우측의 제1코너 라이다 센서의 코너 레이저 데이터를 포함한다.
일 측면에 따른 운전자 보조 장치의 복수 개의 라이다 센서들의 레이저 데이터는, 전방 우측의 제1 코너 라이다 센서의 코너 레이저 데이터와, 전방 좌측의 제2코너 라이다 센서의 코너 레이저 데이터를 포함한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 포인트 클라우드를 획득하고 획득한 포인트 클라우드에 기초하여 객체를 생성하고 생성한 객체에 기초하여 제2구배 정보를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 복수 개의 포인트들을 획득하고 획득한 복수 개의 포인트들 중에서 노면을 제외한 포인트를 제거하고, 나머지 포인트들을 이용하여 포인트 클라우드를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 생성한 객체에 대한 트랙을 생성하고 생성한 트랙에 기초하여 도로의 중앙과 도로의 최외곽의 높이 차이를 획득하고, 도로의 중앙에서 도로의 최외곽까지의 폭을 획득하며, 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 제2 구배 정보를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 획득한 차량의 쏠림량 정보와 최종 구배 정보에 기초하여 쏠림 민감도 정보를 획득하고, 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 조향각 정보를 획득하고 획득한 조향각 정보에 기초하여 조향 신호를 생성한다.
일 측면에 따른 운전자 보조 장치의 메모리는, 도로의 곡률 정보와 주행 속도 정보에 대응하는 게인 정보를 테이블로 저장하고, 통신부는 속도 센서와 통신을 수행하고, 프로세서는 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 메모리에 저장된 지도 정보에 기초하여 도로의 곡률 정보를 획득하고, 테이블로부터 획득한 도로의 곡률 정보와 속도 센서에 의해 획득된 주행 속도 정보에 대응하는 게인 정보를 획득하고, 획득한 게인 정보에 기초하여 조향각 정보를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 차로 유지 보조 모드가 오프 상태일 때 통신부에 수신된 카메라의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하며, 생성한 추종 경로의 위치 정보와 스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보에 기초하여 조향에 대한 에러 정보를 획득하고, 획득한 에러 정보에 기초하여 조향각 정보를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 추종 경로의 위치 정보, 게인 정보, 에러 정보 및 최종 구배 정보에 기초하여 조향각 정보를 획득하고, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이면 추종 경로의 위치 정보, 에러 정보 및 최종 구배 정보에 기초하여 조향각 정보를 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 제1구배 정보와 제2구배 정보가 동일하면 제1구배 정보 또는 제2구배 정보를 최종 구배 정보로 획득하고, 제1구배 정보와 제2구배 정보가 상이하면 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 오프셋 정보에 기초하여 제1구배 정보를 보정하고 보정한 제1구배 정보를 최종 구배 정보로 획득한다.
일 측면에 따른 운전자 보조 장치의 프로세서는, 메모리에 저장된 지도 정보의 업데이트 정보를 확인하고, 확인한 업데이트 정보에 기초하여 지도 정보를 업데이트한 기간이 미리 설정된 기간을 경과하였다고 판단되면 제2구배 정보를 최종 구배 정보로 획득한다.
다른 측면에 따른 차량은, 지도 정보를 저장하는 메모리; 복수 개의 라이다 센서들; 카메라; 현재 위치 정보를 인식하기 위한 위치 수신기를 포함하는 통신부; 현재 위치 정보와 지도 정보에 기초하여 현재 주행하고 있는 도로에 대한 제1구배 정보를 획득하고, 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 제2구배 정보를 획득하고, 제1구배 정보와 제2구배 정보에 기초하여 최종 구배 정보를 획득하고, 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향 신호를 생성하는 프로세서; 및 조향 신호에 기초하여 조향을 수행하는 조향 장치를 포함하고, 제1구배 정보, 제2구배 정보 및 최종 구배 정보는, 도로의 중앙과 도로의 최외곽에 대한 기울기 정보를 포함한다.
다른 측면에 따른 차량의 복수 개의 라이다 센서들의 레이저 데이터는, 전방 중앙의 라이다 센서의 전방 레이저 데이터와, 전방 우측의 제1코너 라이다 센서의 코너 레이저 데이터를 포함한다.
다른 측면에 따른 차량의 복수 개의 라이다 센서들의 레이저 데이터는, 전방 우측의 제1 코너 라이다 센서의 코너 레이저 데이터와, 전방 좌측의 제2코너 라이다 센서의 코너 레이저 데이터를 포함한다.
다른 측면에 따른 차량의 프로세서는, 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 복수 개의 포인트들을 획득하고 획득한 복수 개의 포인트들 중에서 노면을 제외한 포인트를 제거하고, 나머지 포인트들을 이용하여 포인트 클라우드를 획득하고 획득한 포인트 클라우드에 기초하여 객체를 생성하고 생성한 객체에 대한 트랙을 생성하고 생성한 트랙에 기초하여 도로의 중앙과 도로의 최외곽의 높이 차이를 획득하고, 도로의 중앙에서 도로의 최외곽까지의 폭을 획득하며, 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 제2 구배 정보를 획득한다.
다른 측면에 따른 차량의 프로세서는, 카메라의 영상 데이터에 기초하여 도로의 중앙과 도로의 최외곽에 대한 구배 정보를 획득하고, 획득한 구배 정보와 제1 구배 정보에 기초하여 차량의 쏠림량 정보를 획득하고, 획득한 차량의 쏠림량 정보와 최종 구배 정보에 기초하여 쏠림 민감도 정보를 획득하고, 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 조향각 정보를 획득하고 획득한 조향각 정보에 기초하여 조향 신호를 생성한다.
다른 측면에 따른 차량의 메모리는, 도로의 곡률 정보와 주행 속도 정보에 대응하는 게인 정보를 테이블로 저장하고, 프로세서는 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 메모리에 저장된 지도 정보에 기초하여 도로의 곡률 정보를 획득하고, 테이블로부터 획득한 도로의 곡률 정보와 속도 센서에 의해 획득된 주행 속도 정보에 대응하는 게인 정보를 획득하고, 획득한 게인 정보에 기초하여 조향각 정보를 획득한다.
다른 측면에 따른 차량의 프로세서는, 차로 유지 보조 모드가 오프 상태일 때 카메라의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하며, 생성한 추종 경로의 위치 정보와 스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보에 기초하여 조향에 대한 에러 정보를 획득하고, 획득한 에러 정보에 기초하여 조향각 정보를 획득한다.
다른 측면에 따른 차량의 프로세서는, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 추종 경로의 위치 정보, 게인 정보, 에러 정보 및 최종 구배 정보에 기초하여 조향각 정보를 획득하고, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이면 추종 경로의 위치 정보, 에러 정보 및 최종 구배 정보에 기초하여 조향각 정보를 획득한다.
다른 측면에 따른 차량의 프로세서는, 제1구배 정보와 제2구배 정보가 동일하면 제1구배 정보 또는 제2구배 정보를 최종 구배 정보로 획득하고, 제1구배 정보와 제2구배 정보가 상이하면 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 오프셋 정보에 기초하여 제1구배 정보를 보정하고 보정한 제1구배 정보를 최종 구배 정보로 획득한다.
본 발명은 정밀지도의 지도 정보와 라이다 센서의 검출 정보에 기초하여 노면의 구배를 획득함으로써 노면의 구배의 정확성 및 신뢰성을 향상시킬 수 있다.
본 발명은 차로 유지 보조(LFA) 제어 시에 노면 구배 및 차량 특성에 따라 다를 수 있는 쏠림 민감도를 고려함으로써 차로 유지 보조 주행 시 차량 우측 쏠림 현상을 방지할 수 있고 차로 유지 보조 제어에 대한 강건화를 도모할 수 있다.
본 발명은 하드웨어적인 구성이 추가되지 않은 상태에서 차로 유지 보조를 제어할 수 있어 차량의 원가 상승을 방지할 수 있고, 나아가 차량의 품질 및 상품성을 향상시킬 수 있고, 사용자의 만족도를 높일 수 있으며 제품의 경쟁력을 확보할 수 있다.
도 1은 실시 예에 따른 차량의 외관 예시도이다.
도 2는 실시 예에 따른 차량의 제어 구성도이다.
도 3은 실시 예에 따른 차량이 주행하는 도로의 구배 예시도이다.
도 4는 실시 예에 따른 차량의 프로세서의 상세 구성도이다.
도 5는 실시 예에 따른 차량에 저장된 게인 테이블의 예시도이다.
도 6은 실시 예에 따른 차량의 제어 순서도이다.
도 7은 실시 예에 따른 차량의 제2구배 정보의 획득을 위한 포인트 클라우드의 예시도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 장치'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 모듈, 부재, 장치'가 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 장치'가 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를"포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
도 1은 실시 예에 따른 차량의 외관 예시도이다.
차량(1)은 내장과 외장을 갖는 차체(Body)와, 차체를 제외한 나머지 부분으로 주행에 필요한 기계 장치가 설치되는 차대(Chassis)를 포함한다.
차량의 차체는 프론트 패널(111), 본네트(112), 루프 패널(113), 리어 패널(114), 전후좌우의 도어(115), 전후좌우의 도어에 개폐 가능하게 마련된 윈도우 글래스(116)를 포함한다.
차체의 내장은 탑승자가 앉는 시트와, 대시보드, 사용자 입력을 수신하기 위한 입력부(121, 도 2 참조), 적어도 하나의 전자 장치의 동작 정보를 표시하기 위한 표시부(131, 도 2 참조)를 포함할 수 있고, 입력부(121)와 표시부(131)는 헤드유닛에 마련될 수 있다.
차량의 차대는 차체를 지지하는 틀로, 전후좌우 차륜(117)에 구동력, 제동력 및 조향력을 인가하기 위한 동력 장치, 제동 장치, 조향 장치(150, 도 2 참조)를 포함할 수 있고, 현가 장치, 변속 장치 등을 더 포함한다.
차량(1)은 주변의 환경(예를 들어, 도로, 다른 차량, 보행자, 사이클리스트(cyclist), 차선, 도로 표지판 등)을 감지하고, 감지된 환경에 응답하여 차량(1)의 구동 및/또는 제동 및/또는 조향 중 적어도 하나를 제어할 수 있다.
차량(1)은 주변의 영상 데이터를 획득하는 카메라(141)와, 차량(1) 주변의 장애물 데이터를 획득하는 레이더 센서(142)를 포함할 수 있다.
카메라(141)는 차량(1)의 주변을 촬영한다.
카메라(141)는 하나 또는 둘 이상일 수 있다.
카메라(141)는 전방에 대한 영상을 획득하는 전방 카메라(141a)일 수 있다.
전방 카메라(141a)는 차량(1)의 전방을 촬영하고, 차량(1) 전방의 영상 데이터를 획득할 수 있다. 차량(1) 전방의 영상 데이터는 차량(1) 전방에 위치하는 도로, 다른 차량, 보행자, 사이클리스트, 차선, 연석, 가드레일, 가로수 및 가로등 중 적어도 하나에 관한 형상 정보와 위치 정보를 포함할 수 있다.
전방 카메라(141a)는 복수의 렌즈들 및 이미지 센서를 포함할 수 있다. 이미지 센서는 광을 전기 신호로 변환하는 복수의 포토 다이오드들을 포함할 수 있으며, 복수의 포토 다이오드들이 2차원 매트릭스로 배치될 수 있다.
레이더 센서(142)는 차량(1) 주변의 장애물(예를 들어, 다른 차량, 보행자, 사이클리스트 등)의 상대 위치, 상대 거리, 상대 속도 등을 획득할 수 있다.
레이더 센서(142)는 하나 또는 둘 이상일 수 있다.
레이더 센서(142)는 전방에 대한 레이더 정보를 획득하는 전방 레이더 센서(142a)와, 좌우 측방에 대한 레이더 정보를 획득하는 복수 개의 코너 레이더 센서를 포함할 수 있다.
전방 레이더 센서(142a)는 차량(1)의 전방을 향하는 감지 시야(field of sensing)를 가질 수 있다. 전방 레이더 센서(142a)는 예를 들어 차량(1)의 그릴(grille) 또는 프론트 패널(111)에 설치될 수 있다.
전방 레이더 센서(142a)는 차량(1)의 전방을 향하여 송신 전파를 방사하는 송신 안테나(또는 송신 안테나 어레이)와, 장애물에 반사된 반사 전파를 수신하는 수신 안테나(또는 수신 안테나 어레이)를 포함할 수 있다.
전방 레이더 센서(142a)는 송신 안테나에 의한 송신된 송신 전파와 수신 안테나에 의하여 수신된 반사 전파로부터 전방 레이더 데이터를 획득할 수 있다.
전방 레이더 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트에 관한 위치 정보, 거리 정보 및 속도 정도를 포함할 수 있다.
전방 레이더 센서(142a)는 송신 전파와 반사 전파 사이의 위상 차이(또는 시간 차이)에 기초하여 장애물까지의 상대 거리를 산출하고, 송신 전파와 반사 전파 사이의 주파수 차이에 기초하여 장애물의 상대 속도를 산출할 수 있다.
복수 개의 코너 레이더 센서는 차량(1)의 전방 우측을 향하는 감지 시야를 가지는 제1코너 레이더 센서와, 차량(1)의 전방 좌측을 향하는 감지 시야를 가지는 제2코너 레이더 센서와, 차량(1)의 후방 우측을 향하는 감지 시야를 가지는 제3코너 레이더 센서와, 차량(1)의 후방 좌측을 향하는 감지 시야를 가지는 제4코너 레이더 센서를 포함할 수 있다.
제1, 제2, 제3 및 제4 코너 레이더 센서들 각각은 송신 안테나와 수신 안테나를 포함할 수 있다.
복수 개의 코너 레이더 센서는 프론트 패널(111)에 마련될 수 있다.
복수 개의 코너 레이더 센서 각각은 코너 레이더 데이터를 획득할 수 있다. 각 코너 레이더 데이터는 전방 우측, 전방 좌측, 후방 좌측 및 후방 우측에 위치하는 다른 차량, 보행자 또는 사이클리스트(이하 "장애물"이라 한다)에 관한 거리 정보 및 속도 정도를 포함할 수 있다.
차량(1)은 라이다 센서(143)를 더 포함할 수 있다.
라이다 센서(143)는 차량(1)과 근거리에 위치하는 도로, 다른 차량이나 비정형 정지물 정보에 대한 정보를 획득할 수 있다.
라이다(LiDAR: Light Detection And Ranging) 센서(143)는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다. 라이다 센서(143)는 레이저를 송신하는 송신부와, 센서 범위 내에 존재하는 물체의 표면에 반사되어 돌아오는 레이저를 수신하는 수신부를 포함할 수 있다.
즉 라이다 센서는 차량 주변의 사물을 인식하기 위해 레이저 신호를 이용하는 기술로, 라이다 센서에서 송신된 펄스 레이저 신호가 주변의 사물과 부딪힌 후 되돌아오면, 프로세서(161, 도 2참조)에서 되돌아온 레이저 신호를 분석하여 사물의 위치나 운동 방향, 속도 등을 확인할 수 있다.
라이다 센서(143)는 하나 또는 둘 이상일 수 있다.
라이다 센서(143)는 전방에 대한 레이저 정보를 획득하는 전방 라이다 센서(143a)와, 좌우 측방에 대한 레이저 정보를 획득하는 복수 개의 코너 라이다 센서(143b, 143c)를 포함할 수 있다.
전방 라이다 센서(143a)는 차량(1)의 전방을 향하는 감지 시야(field of sensing)를 가질 수 있다. 전방 라이다 센서(143a)는 차량(1)의 그릴(grille) 또는 프론트 패널(111)에 설치될 수 있다.
복수 개의 코너 라이다 센서들은 차량(1)의 전방 우측을 향하는 감지 시야를 가지는 제1코너 라이다 센서(143b)와, 차량(1)의 전방 좌측을 향하는 감지 시야를 가지는 제2코너 라이다 센서(143c)와, 차량(1)의 후방 우측을 향하는 감지 시야를 가지는 제3코너 라이다 센서와, 차량(1)의 후방 좌측을 향하는 감지 시야를 가지는 제4코너 라이다 센서를 포함할 수 있다.
복수 개의 코너 라이다 센서들 중 제1, 2 코너 라이다 센서(143b, 143c)는 예를 들어 차량(1)의 그릴(grille) 또는 프론트 패널(111)에 설치될 수 있다.
이상의 전자 부품들은 차량용 통신 네트워크(NT)를 통하여 서로 통신할 수 있다. 예를 들어, 전장 부품들은 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등을 통하여 데이터를 주고 받을 수 있다.
도 2는 실시 예에 따른 차량의 제어 구성도로, 도 3 내지 5를 참조하여 설명하다.
도 3은 실시 예에 따른 차량이 주행하는 도로의 구배 예시도이고, 도 4는 실시 예에 따른 차량의 프로세서의 상세 구성도이며, 도 5는 실시 예에 따른 차량에 저장된 게인 테이블의 예시도이다.
차량(1)은 입력부(121), 표시부(131), 사운드 출력부(132), 카메라(141), 레이더 센서(142), 라이다 센서(143), 조향 장치(150), 프로세서(161), 메모리(162) 및 통신부(163)를 포함한다.
입력부(121)는 사용자 입력을 수신한다.
입력부(121)는 차로 유지 보조 모드의 온 오프 명령을 수신할 수 있다.
입력부(121)는 차량(1) 내 헤드유닛 또는 센터페시아에 마련될 수 있고, 차량용 단말기(미도시, 오디오 비디오 내비게이션(AVN) 장치임)에 마련될 수도 있다.
입력부(121)는 각종 버튼이나 스위치, 페달(pedal), 키보드, 마우스, 트랙볼(track-ball), 각종 레버(lever), 핸들(handle)이나 스틱(stick) 등과 같은 하드웨어적인 장치를 포함할 수 있다.
또한, 입력부(121)는 터치 패드(touch pad) 등과 같은 GUI(Graphical User interface), 즉 소프트웨어인 장치를 포함할 수도 있다. 터치 패드는 터치 스크린 패널(Touch Screen Panel: TSP)로 구현되어 표시부와 상호 레이어 구조를 이룰 수 있다.
터치 패드와 상호 레이어 구조를 이루는 터치 스크린 패널(TSP)로 구성되는 경우, 표시부는 입력부로도 사용될 수 있다.
출력부(130)는 프로세서(161)의 제어 명령에 대응하여 차로 이탈 경보 정보(차선 이탈 경보 정보라고도 함)를 출력할 수 있다.
출력부(130)는 차로 이탈 경보 정보를 영상 또는 빛으로 출력하는 표시부(131) 및 차로 이탈 경보 정보를 사운드로 출력하는 사운드 출력부(132) 중 적어도 하나를 포함할 수 있다.
표시부(131)는 차량에서 수행 중인 기능에 대한 동작 정보를 표시할 수 있다. 예를 들어, 표시부(131)는 전화 통화와 관련된 정보를 표시하거나, 사용자용 단말기(미도시)를 통해 출력되는 콘텐츠의 정보를 표시하거나, 음악 재생과 관련된 정보를 표시하는 것도 가능하고 외부의 방송 정보를 표시한다.
표시부(131)는 지도 정보를 표시하고, 목적지까지의 경로가 매칭된 지도 정보와 길 안내 정보를 표시하는 것도 가능하다. 표시부(131)는 주행 방향 정보인 직진, 좌회전, 우회전 및 유턴 등에 대한 정보를 표시하는 것도 가능하다.
표시부(131)는 LED 등과 같은 램프를 포함할 수 있다.
표시부(131)는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.
표시부(131)는 차량(1)에 마련된 클러스터를 포함할 수 있다.
클러스터는 차로 유지 보조 모드에 대한 정보를 표시할 수 있다.
클러스터는 차로 이탈 경보 정보를 지시하는 램프를 포함할 수 있다. 이러한 클러스터는 프로세서(161)의 제어 명령에 대응하여 램프를 점등 또는 소등시킬 수 있다.
클러스터는 차로 이탈 경보 정보에 대한 영상을 표시할 수 있다.
사운드 출력부(132)는 프로세서(161)의 제어 명령에 대응하여 사운드를 출력하되, 프로세서(161)의 제어 명령에 대응하는 레벨로 사운드를 출력한다.
사운드 출력부(132)는 차로 이탈 경보 정보를 사운드로 출력할 수 있다. 이러한 사운드 출력부(132)는 하나 또는 둘 이상의 스피커를 포함할 수 있다.
카메라(141)는 차량 전방에 대한 도로의 영상을 획득한다.
카메라(141)는 전방 카메라(141a)를 포함할 수 있다.
레이더 센서(142)는 차량(1) 주변의 장애물(예를 들어, 다른 차량, 보행자, 사이클리스트 등)의 상대 위치, 상대 거리, 상대 속도 등을 획득할 수 있다.
레이더 센서(142)는 하나 또는 둘 이상일 수 있다.
레이더 센서(142)는 전방에 대한 레이더 정보를 획득하는 전방 레이더 센서(142a)를 포함할 수 있다.
라이다 센서(143)는 차량(1)과 근거리에 위치하는 도로, 다른 차량이나 비정형 정지물 정보에 대한 정보를 획득할 수 있다.
라이다 센서(143)는 하나 또는 둘 이상일 수 있다.
라이다(LiDAR: Light Detection And Ranging) 센서(143)는 전방에 대한 레이저 정보를 획득하는 전방 라이다 센서(143a)와, 좌우 측방에 대한 레이저 정보를 획득하는 복수 개의 코너 라이다 센서(143b, 143c)를 포함할 수 있다.
속도 센서(144)는 차량의 주행 속도를 검출한다.
속도 센서(144)는 복수 개의 휠 속도 센서를 포함할 수 있다. 속도 센서(144)는 가속도 센서를 포함할 수 있다. 속도 센서(144)는 복수 개의 휠 속도 센서와 가속도 센서를 포함할 수 있다.
속도 센서(144)가 가속도 센서로 구현될 경우, 프로세서(161)는 가속도 센서에 의해 검출된 종 가속도 정보에 기초하여 차량(1)의 가속도를 획득하고 획득한 가속도에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.
속도 센서(144)가 가속도 센서와 복수 개의 휠 속도 센서로 구현될 경우, 프로세서(161)는 가속도 센서에 의해 검출된 가속도 정보와 복수 개의 휠 속도 센서에 의해 획득된 휠 속도 정보에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.
조향 장치(150)는 차량의 주행 방향을 조절하는 장치일 수 있다.
차량의 내부에는 사용자의 조향 의지에 따라 사용자에 의해 회전되는 스티어링 휠(미도시)이 마련될 수 있다.
차량은 조향 장치 중 모터의 동작을 제어하기 위한 조향 정보를 검출하는 조향 정보 검출부를 포함할 수 있다. 여기서 조향 정보는, 스티어링 휠의 조향 각속도를 포함한다.
조향 정보 검출부(미도시)는 스티어링 휠의 조향각의 각속도를 검출하는 각속도 검출부를 포함한다. 각속도 검출부는 모터에 마련되고 모터의 회전각의 각속도를 검출하는 것도 가능하다. 아울러 조향 정보 검출부는 스티어링 휠에 작용하는 조향 토크를 검출하는 것도 가능하다. 즉 차량은 스티어링 휠에 작용하는 조향 토크를 검출하는 조향 토크 검출부를 포함할 수 있다.
조향 장치(150)는 조향 정보 검출부에 의해 검출된 조향 정보로부터 스티어링 휠을 통한 운전자의 조향 의지를 획득하고, 운전자의 조향 의지에 응답하여 주행 방향을 조절할 수 있다.
일 예로, 조향 장치(150)는 유압을 이용하여 조향력을 발생시키는 유압식 또는 모터의 회전력을 이용하여 조향력을 발생시키는 전동식으로 마련될 수 있다. 이 중 전동식 조향 장치는 컬럼에 마련된 모터를 구동시켜 조향력을 발생시키는 컬럼 구동 방식과, 랙에 마련된 모터를 구동시켜 조향력을 발생시키는 랙 구동 방식을 포함할 수 있다.
랙 구동 방식의 전동식 조향 장치의 경우, 조향 장치(150)는 스티어링 휠의 조작에 의해 발생된 조향 정보에 기초하여 모터(151)를 동작시킨다.
전자식 조향 제어 유닛(152)은 스티어링 휠의 조향 정보에 기초하여 모터(151)의 제어신호를 생성하고 생성된 모터의 제어 신호를 모터(151)에 인가한다.
여기서 모터의 제어 신호는 목표 모터 토크에 대응하는 신호를 포함한다.
목표 모터 토크에 대응하는 신호는, 목표 모터 토크에 대응하는 크기를 가진 전류의 신호일 수 있다.
즉 조향 장치(150)는 스티어링 휠의 조작에 의해 발생된 조향 정보에 따라 모터(151)의 기본 어시스트량이 조절되도록 모터의 기본 어시스트 제어를 수행하는 전자식 조향 제어 유닛(152)을 포함할 수 있다. 그리고 전자식 조향 제어 유닛(152)은 저속 주행 또는 주차 시에는 조향력을 감소시키고 고속 주행 시에는 조향력을 증가시킬 수 있다.
프로세서(161)는 전방 카메라(141a)의 전방 영상 데이터, 전방 레이더 센서(142a)의 전방 레이더 데이터, 전방 라이다 센서(143a)의 전방 레이저 데이터 및 복수 개의 코너 라이다 센서들(143b, 143c)의 코너 레이저 데이터를 처리하고, 조향 장치(150)를 조향 신호를 생성할 수 있다.
예를 들어, 프로세서(161)는 전방 카메라(141a)의 전방 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 전방 레이더 센서(142a)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 전방 라이다 센서(143a) 및 복수 개의 코너 라이다 센서들(143b, 143c)의 레이저 데이터를 처리하는 디지털 시그널 프로세서를 포함할 수 있다.
프로세서(161)는 전방 카메라(141a)의 전방 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 전방 레이더 센서(142a)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 전방 라이다 센서(143a) 및 코너 라이다 센서들(143b, 143c)의 레이저 데이터에 기초하여 도로의 차선, 도로의 구배, 차량(1) 전방의 장애물들(예를 들어, 다른 차량, 보행자, 사이클리스트, 연석, 가드레일, 가로수, 가로등 등)을 인식할 수 있다.
구체적으로, 프로세서(161)는 전방 레이더 센서(142a)의 전방 레이더 데이터, 전방 라이다 센서(143a)의 전방 레이저 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
프로세서(161)는 전방 카메라(141a)의 전방 영상 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(방향) 및 유형 정보(예를 들어, 장애물이 다른 차량인지, 또는 보행자인지, 또는 사이클리스트인지, 또는 연석인지, 또는 가드레일인지, 또는 가로수인지, 또는 가로등인지 등)를 획득할 수 있고, 도로의 차선의 위치 정보를 획득할 수 있다.
또한, 프로세서(161)는 전방 영상 데이터에 의하여 감지된 장애물들을 전방 레이더 데이터에 의한 감지된 장애물에 매칭하고, 매칭 결과에 기초하여 차량(1)의 전방 장애물들의 유형 정보와 위치 정보와 속도 정보를 획득할 수 있다.
프로세서(161)는 전방 장애물들의 유형 정보와 위치 정보와 속도 정보에 기초하여 제동 신호와 조향 신호를 생성할 수 있다.
예를 들어, 프로세서(161)는 전방 장애물들의 위치 정보(상대 거리)와 속도 정보(상대 속도)에 기초하여 차량(1)과 전방 장애물 사이의 충돌까지의 시간(Time to Collision, TTC)를 산출하고, 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 장치(미도시)로 전송하거나, 조향 신호를 조향 장치(150)에 전송할 수 있다.
프로세서(161)는 전방 장애물들의 위치 정보 중 방향 정보에 기초하여 조향 신호를 조향 장치(150)에 전송할 수 있다.
다른 예로, 프로세서(161)는 전방 장애물들의 속도 정보(즉 상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 장애물들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 장치(미도시)으로 전송할 수 있다.
프로세서(161)는 복수의 코너 레이더들의 코너 레이더 데이터 또는 복수의 코너 라이더의 코너 레이저 데이터에 기초하여 차량(1) 측방(전방 우측, 전방 좌측, 후방 우측, 후방 좌측)의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
프로세서(161)는 카메라(141)에 의해 획득된 영상 데이터에 기초하여 도로의 차선을 인식하고, 인식한 차선의 위치 정보와 형상 정보(실선, 중앙선, 점선 등)를 인식하며, 카메라(141)에 의해 획득된 영상 데이터에 기초하여 차량(1)의 전방에서 주행하는 다른 차량을 인식할 수 있다.
프로세서(161)는 인식한 차선의 위치 정보에 기초하여 주행하고 있는 차로를 인식하고 인식한 차로를 주행하는 전방의 다른 차량과 일정 거리를 유지하면서 다른 차량을 추종하도록 차량의 주행을 제어할 수 있다.
프로세서(161)는 차로 유지 보조 모드의 온 명령의 수신에 대응하여 차로 유지 보조 모드를 수행할 수 있다.
프로세서(161)는 차로 유지 보조 모드를 수행할 때 카메라(141)에 의해 획득된 영상 데이터에 기초하여 도로의 차선을 인식하고, 인식한 차선의 위치 정보에 기초하여 차량이 주행하고 있는 차로를 인식하며, 차선의 위치 정보에 기초하여 인식한 차로 상에 추종 경로를 생성하며 추종 경로를 따라 주행하도록 조향을 제어할 수 있다.
프로세서(161)는 차로 유지 보조 모드의 수행 중 카메라(141)의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하고 추종 경로를 따라 주행하도록 조향을 제어할 수 있다.
프로세서(161)는 차로 유지 보조 모드의 수행 중 카메라의 영상 데이터에 기초하여 차선의 위치 정보를 획득하고, 메모리(162)에 저장된 도로 정보로부터 차선의 각도 정보 및 차선의 곡률 정보를 획득하고, 획득하고 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성할 수 있다.
프로세서(161)는 차량의 쏠림에 대한 쏠림량을 획득할 수 있다.
일 예로, 프로세서(161)는 차로 유지 보조 모드가 오프 상태라고 판단되면 카메라(141)에 의해 획득된 영상 데이터에 기초하여 차량의 쏠림량을 획득할 수 있다.
좀 더 구체적으로, 프로세서(161)는 영상 데이터 내 도로의 좌우 방향에 대한 기울기 정보를 획득하고, 현재 위치 정보에 대응하는 메모리(162)의 도로 정보로부터 도로의 구배 정보를 획득한 후 좌우 방향에 대한 기울기 정보와 구배 정보에 기초하여 차량의 쏠림량을 획득할 수 있다.
다른 예로, 프로세서(161)는 타이어 코니서티(CON)와 타이어 원주편차(OC)에 기초하여 차량의 쏠림량을 획득하는 것도 가능하다.
쏠림량은 = A + (B * CON) + (C * OC) + D * (CON * OC)
또는 쏠림량은 = A + (B * CON) + (C * OC)
여기서 코니서티(Conicity)는 타이어의 횡 단면을 중심으로 나타난 좌 우 비대칭 현상에 의해 발생된 횡력이다.
A, B, C 및 D는 차량 쏠림 시험에 의해 획득된 상수일 수 있다.
차량의 쏠림은 드리프트(DRIFT)와 풀링(PULLING)을 포함할 수 있다.
드리프트는 차량의 주행 시 운전자의 의도와 다르게 차량이 한쪽으로 치우쳐 주행하고 있는 차로에서 벗어나 주행하는 것이고, 풀링은 운전자가 스티어링 휠을 고정시킨 상태에서 직진 주행 유지 시 스티어링 휠에 토크가 발생하여 차량이 한쪽 방향으로 쏠리는 것이다.
프로세서(161)는 차로 유지 보조 모드가 오프 상태일 때 카메라(141)의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하며, 생성한 추종 경로의 위치 정보와 스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보에 기초하여 조향에 대한 에러 정보를 획득할 수 있다. 여기서 추종 경로는, 차량이 주행하는 차로(즉 자 차로)의 중앙에 위치할 수 있다.
스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보는, 영상 데이터로부터 획득될 수 있다.
즉 프로세서(161)는 도로의 지점들 중 영상 데이터 내 차량의 중앙 위치와 대응하는 지점의 위치 정보를 획득하고, 획득한 위치 정보를 스티어링 휠의 조작에 대응하는 차로 중앙의 위치 정보로 획득할 수 있다.
프로세서(161)는 생성한 추종 경로를 따라 주행하도록 운전자에게 요청할 수 있다. 이때 프로세서(161)는 차로의 중앙을 따라 주행하도록 요청하는 주행 요청 정보의 표시를 제어할 수 있다.
프로세서(161)는 추종 경로의 위치와 실제 주행한 차로 중앙의 위치 사이의 차이를 조향에 대한 에러로 획득할 수 있다.
프로세서(161)는 차로 유지 보조 모드를 수행할 때, 에러와 구배 정보에 기초하여 추종 경로를 따라 주행하도록 조향을 제어할 수 있다.
프로세서(161)는 차로 유지 보조 모드를 수행할 때, 쏠림 민감도에 대한 게인, 에러와 구배 정보에 기초하여 추종 경로를 따라 주행하도록 조향을 제어할 수 있다.
여기서 구배 정보는 도로의 횡방향에 대한 구배 정보로, 중앙선과 최외각 차선이 이루는 기울기에 대한 각도 정보일 수 있다.
도 3에 도시된 바와 같이, 대한 민국의 도로는 배수를 원활하게 하기 위해 미리 정해진 횡단 구배를 가진다. 예를 들어, 시멘트 콘크리트 및 아스팔트 포장 도로는 1.5% 내지 2.0%, 그 외 노면 간이 포장 도로는 2.0% 내지 4.0%, 비포장 도로는 3.0% 내지 6.0% 기준으로 횡단 각도가 정해져 있다. 이에 따라 프로세서(161)는 차로 유지 보조 모드를 수행할 때, 구배 정보에 기초하여 조향을 제어할 필요가 있다.
이러한 프로세서(161)의 구성을 좀 더 구체적으로 설명한다.
프로세서(161)는 메모리(162)에 저장된 지도 정보 및 위치 수신기에 수신된 현재 위치 정보에 기초하여 현재 차량이 주행하는 도로의 구배 정보를 획득한다. 여기서 메모리(162)에 저장된 지도 정보에 기초하여 획득한 도로의 구배 정보를 제1 구배 정보로 기재하도록 한다.
프로세서(161)는 전방 라이다 센서(143a)의 전방 레이저 데이터와 제1 코너 라이다 센서(143b)의 코너 레이저 데이터에 기초하여 도로의 중앙을 기준으로 도로의 우측에 대한 도로의 구배 정보를 획득할 수 있다.
프로세서(161)는 제2 라이다 센서(143c)의 코너 레이저 데이터와 제1 코너 라이다 센서(143b)의 코너 레이저 데이터에 기초하여 도로의 중앙을 기준으로 도로의 우측에 대한 도로의 구배 정보를 획득할 수 있다.
일 예로, 프로세서(161)는 전방 라이다 센서(143a)의 전방 레이저 데이터와 제1 코너 라이다 센서(143b)의 코너 레이저 데이터에 기초하여 복수 개의 포인트들을 획득하고, 획득한 복수 개의 포인트들 중에서 노면을 제외한 포인트를 제거하고 나머지 포인트들을 하나의 객체로 군집화한다.
여기서 노면을 제외한 포인트는 도로 상의 타 차량, 가로수, 연석 등과 같은 장애물에 대한 포인트일 수 있다.
프로세서(161)는 군집화에 의해 생성된 객체에 대해서 외곽선을 인식하고 전방과 좌우 측방에 대한 트랙을 생성한다.
프로세서(161)는 도로의 중앙과 도로의 외측의 높이 차이를 획득할 수 있고, 도로의 중앙에서 도로의 외측까지의 폭을 획득하며, 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 구배를 획득할 수 있다.
도로의 중앙은, 도로의 중앙선의 위치일 수 있고, 도로의 지점들 중 차량(1)의 차체의 중앙의 위치에 대응하는 지점의 위치일 수 있다.
도로의 외측은, 차량이 주행하는 차로의 오른쪽 차선의 위치일 수 있고, 도로의 최외각 차선의 위치일 수 있다.
프로세서(161)는 일정 시간 동안 전방 라이다 센서(143a)의 포인트들과 제1코너 라이다 센서(143b)의 포인트들을 추적하여 각 포인트들에 대한 학습을 수행하고, 학습 결과에 기초하여 일정 시간 동안 추적한 포인트들의 매칭, 군집도 및 트랙의 변화 추이에 기초하여 도로의 구배 정보를 획득할 수 있다.
프로세서(161)는 일정 시간 동안 제2 코너 라이다 센서(143c)의 포인트들과 제1코너 라이다 센서(143b)의 포인트들을 추적하여 각 포인트들에 대한 학습을 수행하고, 학습 결과에 기초하여 일정 시간 동안 추적한 포인트들의 매칭, 군집도 및 트랙의 변화 추이에 기초하여 도로의 구배 정보를 획득할 수 있다.
여기서 라이다 센서에 의해 획득한 도로의 구배 정보를 제2 구배 정보로 기재하도록 한다.
프로세서(161)는 제1구배 정보와 제2구배 정보가 동일한지를 비교하고, 제1구배 정보와 제2구배 정보가 동일하다고 판단되면 제1구배 정보 또는 제2구배 정보를 최종 구배 정보로 설정한다.
프로세서(161)는 제1구배 정보와 제2구배 정보가 상이하다고 판단되면 제1구배 정보와 제2구배 정보에 기초하여 최종 구배 정보를 획득한다.
좀 더 구체적으로, 프로세서(161)는 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 획득한 오프셋 정보에 기초하여 제1구배 정보를 보정하고, 보정한 제1구배 정보를 최종 구배 정보로 설정할 수 있다.
프로세서(161)는 지도 정보의 업데이트 정보를 확인하고, 지도 정보의 업데이트 날짜 정보와 현재 시점의 날짜 정보에 기초하여 지도 정보가 업데이트된 시점부터 경과된 기간 정보를 획득하고 획득한 기간 정보와 미리 설정된 기간 정보에 기초하여 지도 정보가 업데이트된 기간이 미리 설정된 기간을 초과하였다고 판단되면 제2구배 정보를 최종 구배 정보로 설정할 수 있다.
프로세서(161)는 지도 정보가 업데이트된 기간이 미리 설정된 기간 이내라고 판단되면 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 획득한 오프셋 정보에 기초하여 제1구배 정보를 보정하고, 보정한 제1구배 정보를 최종 구배 정보로 설정할 수 있다.
프로세서(161)는 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과하는지를 판단하고, 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배 미만이라고 판단되면 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
프로세서(161)는 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과하는지를 판단하고, 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과한다고 판단되면 카메라에 의해 획득된 영상 데이터에 기초하여 차량의 쏠림량 정보를 획득한다.
프로세서는 차량의 쏠림량 정보와 최종 구배 정보에 기초하여 쏠림 민감도를 획득하고 획득한 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상인지를 판단하며, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이라고 판단되면 차량의 주행 속도와 차선의 곡률을 확인하고, 메모리에 저장된 테이블로부터 차량의 주행 속도와 차선의 곡률에 대응하는 게인을 획득하고 획득한 게인과 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
프로세서는 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이라고 판단되면 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
프로세서는 획득한 조향각 정보에 기초하여 조향 토크를 획득하고 획득된 조향 토크에 기초하여 조향 토크를 조절함으로써 차로 유지 보조를 수행하도록 한다.
프로세서(161)는 최종 구배 정보에 기초하여 차로 유지 보조에 대한 조향 제어를 수행할 때, 획득한 에러와 최종 구배 정보에 기초하여 조향을 제어함으로써 추종 경로를 추종하여 주행하도록 할 수 있다.
도 4에 도시된 바와 같이, 프로세서(161)는 에러를 획득하기 위한 에러 획득부(161a), 구배 정보, 에러 정보 및 게인 정보에 기초하여 차로 유지 보조를 위한 조향각을 획득하기 위한 조향각 획득부(161b), 조향각에 기초하여 조향 토크를 획득하는 조향 토크 획득부(161c) 및 조향 토크 획득부에서 획득된 조향 토크에 기초하여 조향 장치의 토크를 조절하는 토크 조절부(161d)를 포함하는 것도 가능하다.
여기서 에러 획득부(161a), 조향각 획득부(161b)에서 수행되는 구성은, 위에서 설명한 프로세서(161)에서의 에러 획득 및 조향각 획득 구성과 동일하여 설명을 생략한다.
프로세서(161)는 운전자 보조 장치(ADAS, 160)의 프로세서일 수 있다. 이 경우, 운전자 보조 장치(ADAS, 160)는 프로세서(161), 메모리(162) 및 통신부(163)를 포함할 수 있다.
프로세서(161)는 운전자 보조 장치(160)의 동작을 구현하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)일 수 있다.
프로세서(161)는 차량(1)에 마련된 프로세서들 중 어느 하나일 수 있다. 이 경우 프로세서(161)는 차량(1)의 동작을 구현하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)일 수 있다.
메모리(162)는 지도 정보를 저장한다. 여기서 지도 정보는 차량이 주행하는데 필요한 도로 정보를 포함한다. 도로 정보는 도로의 횡방향에 대한 구배 정보를 포함할 수 있다. 도로의 횡방향에 대한 구배 정보는 중앙선과 최외각 차선이 이루는 기울기에 대한 각도 정보일 수 있다.
지도 정보는 기존의 지도보다 10배 이상 정밀하게 표현된 지도 정보로, 실제 도로 정보와 지도 정보 내의 도로 정보 간의 대략 10 내지 20cm이하의 오차를 갖는 정밀 지도일 수 있다.
예를 들어, 정밀지도는 실제 도로 내 차선의 위치, 분기 지점, 합류 지점, 도로 설치물의 종류, 건물, 설치물의 위치, 건물의 위치와 지도 상의 차선의 위치, 분기 지점, 합류 지점, 도로 설치물의 종류, 건물, 설치물의 위치, 건물의 위치 간 대략 10 내지 20cm이하의 오차를 갖는 지도 정보일 수 있다.
메모리(162)는 주행 속도와 곡률에 대응하는 게인 정보를 저장할 수 있다.
도 5에 도시된 바와 같이, 메모리(162)는 주행 속도별로 각각의 곡률에 대응하는 게인 값을 테이블로 저장할 수 있다.
메모리(162)는 프로세서(161)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 프로세서(161)가 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.
메모리(162)는 전방 카메라(141a)로부터 수신된 영상 데이터 및/또는 레이더 센서들로부터 수신된 레이더 데이터 및/또는 라이더 센서들로부터 수신된 레이저 데이터를 임시로 기억하고, 프로세서(161)의 영상 데이터 및/또는 레이더 데이터 및/또는 레이저 데이터를 임시로 기억할 수 있다.
메모리(162)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래시 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
메모리(162)는 프로세서(161)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
통신부(163)는 차량 내부 장치들 간의 통신 및 차량과 외부 장치와의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
통신부(163)는 각종 센서에서 검출된 정보들을 프로세서(161)에 전달할 수 있다.
통신부(163)는 프로세서(161)의 제어 명령을 각종 장치에 전달할 수 있다.
통신부(163)는 위치 수신기를 더 포함할 수 있다. 위치 수신기는 차량의 현재 위치에 대응하는 위치 정보를 수신한다.
이러한 위치 수신기는 GPS(Global Positioning System) 수신기를 포함할 수 있다. 여기서 GPS(Global Positioning System) 수신기는 복수의 GPS 위성의 신호를 수신하는 안테나 모듈 및 신호처리부를 포함한다.
신호 처리기는 복수의 GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 정보를 송신하는 송신부를 포함한다.
한편, 도 2 및 도 4에 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
도 6은 실시 예에 따른 차량의 제어 순서도로, 도 7을 참조하여 설명한다.
도 7은 실시 예에 따른 차량의 제2구배 정보의 획득을 위한 포인트 클라우드의 예시도이다.
차량은 메모리에 저장된 지도 정보 및 현재 위치 정보에 기초하여 현재 차량이 주행하는 도로의 구배 정보를 획득(201)한다. 좀 더 구체적으로, 차량은 메모리에 저장된 지도 정보 및 현재 위치 정보에 기초하여 현재 차량이 주행하는 도로에 대한 도로 정보를 획득하고 획득한 도로 정보에 포함된 도로의 구배 정보(즉 제2 구배 정보)를 획득한다.
차량은 전방 라이다 센서(143a)와 제1 코너 라이다 센서(143b)에서 획득한 레이저 데이터에 기초하여 포인트 클라우드 정보를 획득하고 획득한 포인트 클라우드 정보에 기초하여 차량이 현재 주행하고 있는 도로의 구배 정보(즉 제2 구배 정보)를 획득(202)한다.
차량은 제2코너 라이다 센서(143c)와 제1 코너 라이다 센서(143b)에서 획득한 레이저 데이터에 기초하여 포인트 클라우드 정보를 획득하고 획득한 포인트 클라우드 정보에 기초하여 차량이 현재 주행하고 있는 도로의 구배 정보를 획득하는 것도 가능하다.
포인트 클라우드는 3차원 공간상에 퍼져 있는 복수 개의 점들의 집합이다.
좀 더 구체적으로, 차량은 노면을 제외한 포인트를 제거하고, 전방 라이다 센서 및 복수 개의 코너 라이다 센서의 레이저 데이터를 통해 획득한 포인트들을 하나의 객체로 군집화한 후 X-Y 축 직교 좌표계로 변환한다.
차량은 군집화에 의해 생성된 객체에 대해서 외곽선을 인식하고 전방과 측방에 대한 트랙을 생성한다.
도 7에 도시된 바와 같이, 도로의 노면에 대한 포인트들을 획득하고, 획득한 포인트들의 군집화에 의해 획득된 전방과 측방에 대한 트랙을 생성할 수 있다.
차량은 도로의 중앙과 도로의 외측의 높이 차이를 획득할 수 있고, 도로의 중앙에서 도로의 외측까지의 폭을 획득하며, 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 구배를 획득할 수 있다.
구배=(높이 차이/폭)*100%
도로의 중앙은 도로의 중앙선의 위치일 수 있고, 도로의 외측은 차량의 오른 쪽 차선의 위치 또는 도로의 최외곽 차선의 위치일 수 있다.
차량은 일정 시간 동안 전방 라이다 센서와 좌측 코너 라이다 센서의 포인트들과 우측 라이다 센서의 포인트들을 추적하여 각 포인트들에 대한 학습을 수행하고, 학습 결과에 기초하여 일정 시간 동안 추적한 포인트들의 매칭, 군집도 및 트랙의 변화 추이 등의 신뢰도(Confidence Level)에 기초하여 도로의 구배 정보를 획득한다.
차량은 제1구배 정보와 제2구배 정보가 동일한지를 비교하고, 제1구배 정보와 제2구배 정보가 동일하다고 판단되면 제1구배 정보 또는 제2구배 정보를 최종 구배 정보로 획득(203)한다.
차량은 제1구배 정보와 제2구배 정보가 상이하다고 판단되면 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 획득한 오프셋 정보에 기초하여 제1구배 정보를 보정하고, 보정한 제1구배 정보를 최종 구배 정보로 획득할 수 있다.
차량은 최종 구배 정보와 미리 설정된 구배 정보에 기초하여 쏠림 민감도의 게인을 획득한다.
좀 더 구체적으로, 차량은 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과하는지를 판단(204)하고, 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배 미만이라고 판단되면 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
아울러 차량은 최종 구배 정보에 기초한 최종 구배가 미리 설정된 구배 범위를 벗어나는지, 최종 구배가 미리 설정된 구배 범위 이내인지를 판단하는 것도 가능하다(-β<최종 구배< β).
차량은 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과하는지를 판단하고, 최종 구배 정보에 기초한 최종 구배의 절대값이 미리 설정된 구배를 초과한다고 판단되면 카메라에 의해 획득된 영상 데이터에 기초하여 차량의 쏠림량 정보를 획득(205)한다.
다음 차량은 차량의 쏠림량 정보와 최종 구배 정보에 기초하여 쏠림 민감도를 획득한다.
쏠림 민감도=쏠림량/최종 구배
다음 차량은 획득한 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상인지를 판단(206)하며, 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이라고 판단되면 차량의 주행 속도와 차선의 곡률을 확인하고, 메모리(162)에 저장된 테이블로부터 차량의 주행 속도와 차선의 곡률에 대응하는 게인 정보를 획득(207)하고 차선의 곡률 정보, 획득한 게인 정보 및 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
차량은 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이라고 판단되면 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향각 정보를 획득한다.
아울러 차량은 차량의 쏠림 민감도가 미리 설정된 쏠림 민감도 범위를 벗어나는지, 차량의 쏠림 민감도가 미리 설정된 쏠림 민감도 범위 이내인지를 판단하는 것도 가능하다(-α<쏠림 민감도< α).
다음 차량은 획득한 조향각 정보에 기초하여 조향 토크를 획득하고 획득된 조향 토크에 기초하여 조향 토크를 조절함으로써 차로 유지 보조 제어를 수행하도록 한다(208).
한편, 개시된 실시 예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시 예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시 예들을 설명하였다.본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시 예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시 예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 차량 130: 출력부
141: 카메라 142: 레이더 센서
143: 라이다 센서 150: 조향 장치
160: 운전자 보조 장치161:프로세서
162: 메모리163: 통신부

Claims (21)

  1. 지도 정보를 저장하는 메모리;
    복수 개의 라이다 센서들과 통신을 수행하는 통신부; 및
    상기 지도 정보에 기초하여 제1구배 정보를 획득하고, 상기 통신부에 의해 수신된 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 제2구배 정보를 획득하고, 상기 제1구배 정보와 상기 제2구배 정보에 기초하여 최종 구배 정보를 획득하고, 상기 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향 신호를 생성하는 프로세서를 포함하고,
    상기 제1구배 정보, 제2구배 정보 및 최종 구배 정보는, 도로의 중앙과 도로의 최외곽에 대한 기울기 정보를 포함하는 운전자 보조 장치.
  2. 제 1 항에 있어서,
    상기 복수 개의 라이다 센서들의 레이저 데이터는,
    전방 중앙의 라이다 센서의 전방 레이저 데이터와, 전방 우측의 제1코너 라이다 센서의 코너 레이저 데이터를 포함하는 운전자 보조 장치.
  3. 제 1 항에 있어서,
    상기 복수 개의 라이다 센서들의 레이저 데이터는,
    전방 우측의 제1 코너 라이다 센서의 코너 레이저 데이터와, 전방 좌측의 제2코너 라이다 센서의 코너 레이저 데이터를 포함하는 운전자 보조 장치.
  4. 제 1 항에 있어서, 상기 프로세서는,
    상기 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 포인트 클라우드를 획득하고 상기 획득한 포인트 클라우드에 기초하여 객체를 생성하고 상기 생성한 객체에 기초하여 상기 제2구배 정보를 획득하는 운전자 보조 장치.
  5. 제 4 항에 있어서, 상기 프로세서는,
    상기 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 복수 개의 포인트들을 획득하고 상기 획득한 복수 개의 포인트들 중에서 노면을 제외한 포인트를 제거하고, 나머지 포인트들을 이용하여 상기 포인트 클라우드를 획득하는 운전자 보조 장치.
  6. 제 4 항에 있어서,
    상기 생성한 객체에 대한 트랙을 생성하고 상기 생성한 트랙에 기초하여 상기 도로의 중앙과 상기 도로의 최외곽의 높이 차이를 획득하고, 상기 도로의 중앙에서 상기 도로의 최외곽까지의 폭을 획득하며, 상기 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 상기 제2 구배 정보를 획득하는 운전자 보조 장치.
  7. 제 1 항에 있어서, 상기 프로세서는,
    상기 획득한 차량의 쏠림량 정보와 상기 최종 구배 정보에 기초하여 쏠림 민감도 정보를 획득하고, 상기 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 조향각 정보를 획득하고 상기 획득한 조향각 정보에 기초하여 상기 조향 신호를 생성하는 운전자 보조 장치.
  8. 제 7 항에 있어서,
    상기 메모리는, 도로의 곡률 정보와 주행 속도 정보에 대응하는 게인 정보를 테이블로 저장하고,
    상기 통신부는, 속도 센서와 통신을 수행하고,
    상기 프로세서는, 상기 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 상기 메모리에 저장된 지도 정보에 기초하여 도로의 곡률 정보를 획득하고, 상기 테이블로부터 상기 획득한 도로의 곡률 정보와 상기 속도 센서에 의해 획득된 주행 속도 정보에 대응하는 게인 정보를 획득하고, 상기 획득한 게인 정보에 기초하여 상기 조향각 정보를 획득하는 운전자 보조 장치.
  9. 제 8 항에 있어서, 상기 프로세서는,
    차로 유지 보조 모드가 오프 상태일 때 상기 통신부에 수신된 상기 카메라의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 상기 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하며, 상기 생성한 추종 경로의 위치 정보와 스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보에 기초하여 조향에 대한 에러 정보를 획득하고, 상기 획득한 에러 정보에 기초하여 상기 조향각 정보를 획득하는 운전자 보조 장치.
  10. 제 9 항에 있어서, 상기 프로세서는,
    상기 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이면 상기 추종 경로의 위치 정보, 상기 에러 정보 및 상기 최종 구배 정보에 기초하여 상기 조향각 정보를 획득하는 운전자 보조 장치.
  11. 제 1 항에 있어서, 상기 프로세서는,
    상기 제1구배 정보와 상기 제2구배 정보가 동일하면 상기 제1구배 정보 또는 상기 제2구배 정보를 상기 최종 구배 정보로 획득하고, 상기 제1구배 정보와 상기 제2구배 정보가 상이하면 상기 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 상기 오프셋 정보에 기초하여 상기 제1구배 정보를 보정하고 상기 보정한 제1구배 정보를 상기 최종 구배 정보로 획득하는 운전자 보조 장치.
  12. 제 1 항에 있어서, 상기 프로세서는,
    상기 메모리에 저장된 지도 정보의 업데이트 정보를 확인하고, 상기 확인한 업데이트 정보에 기초하여 상기 지도 정보를 업데이트한 기간이 미리 설정된 기간을 경과하였다고 판단되면 상기 제2구배 정보를 상기 최종 구배 정보로 획득하는 운전자 보조 장치.
  13. 지도 정보를 저장하는 메모리;
    복수 개의 라이다 센서들;
    카메라;
    현재 위치 정보를 인식하기 위한 위치 수신기를 포함하는 통신부;
    상기 현재 위치 정보와 상기 지도 정보에 기초하여 현재 주행하고 있는 도로에 대한 제1구배 정보를 획득하고, 상기 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 제2구배 정보를 획득하고, 상기 제1구배 정보와 상기 제2구배 정보에 기초하여 최종 구배 정보를 획득하고, 상기 최종 구배 정보에 기초하여 차로 유지 보조를 위한 조향 신호를 생성하는 프로세서; 및
    상기 조향 신호에 기초하여 조향을 수행하는 조향 장치를 포함하고,
    상기 제1구배 정보, 제2구배 정보 및 최종 구배 정보는, 도로의 중앙과 도로의 최외곽에 대한 기울기 정보를 포함하는 차량.
  14. 제 13 항에 있어서,
    상기 복수 개의 라이다 센서들의 레이저 데이터는,
    전방 중앙의 라이다 센서의 전방 레이저 데이터와, 전방 우측의 제1코너 라이다 센서의 코너 레이저 데이터를 포함하는 차량.
  15. 제 13 항에 있어서,
    상기 복수 개의 라이다 센서들의 레이저 데이터는,
    전방 우측의 제1 코너 라이다 센서의 코너 레이저 데이터와, 전방 좌측의 제2코너 라이다 센서의 코너 레이저 데이터를 포함하는 차량.
  16. 제 13 항에 있어서, 상기 프로세서는,
    상기 복수 개의 라이다 센서들의 레이저 데이터에 기초하여 복수 개의 포인트들을 획득하고 상기 획득한 복수 개의 포인트들 중에서 노면을 제외한 포인트를 제거하고, 나머지 포인트들을 이용하여 상기 포인트 클라우드를 획득하고 상기 획득한 포인트 클라우드에 기초하여 객체를 생성하고 상기 생성한 객체에 대한 트랙을 생성하고 상기 생성한 트랙에 기초하여 상기 도로의 중앙과 상기 도로의 최외곽의 높이 차이를 획득하고, 상기 도로의 중앙에서 상기 도로의 최외곽까지의 폭을 획득하며, 상기 획득한 높이 차이와 획득한 폭에 대한 비율에 기초하여 상기 제2 구배 정보를 획득하는 차량.
  17. 제 13 항에 있어서, 상기 프로세서는,
    상기 카메라의 영상 데이터에 기초하여 상기 도로의 중앙과 상기 도로의 최외곽에 대한 구배 정보를 획득하고, 상기 획득한 구배 정보와 상기 제1 구배 정보에 기초하여 차량의 쏠림량 정보를 획득하고, 상기 획득한 차량의 쏠림량 정보와 상기 최종 구배 정보에 기초하여 쏠림 민감도 정보를 획득하고, 상기 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 조향각 정보를 획득하고 상기 획득한 조향각 정보에 기초하여 상기 조향 신호를 생성하는 차량.
  18. 제 17 항에 있어서,
    상기 메모리는, 도로의 곡률 정보와 주행 속도 정보에 대응하는 게인 정보를 테이블로 저장하고,
    상기 프로세서는, 상기 획득한 쏠림 민감도 정보와 미리 설정된 쏠림 민감도 정보에 기초하여 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 상기 메모리에 저장된 지도 정보에 기초하여 도로의 곡률 정보를 획득하고, 상기 테이블로부터 상기 획득한 도로의 곡률 정보와 상기 속도 센서에 의해 획득된 주행 속도 정보에 대응하는 게인 정보를 획득하고, 상기 획득한 게인 정보에 기초하여 상기 조향각 정보를 획득하는 차량.
  19. 제 18 항에 있어서, 상기 프로세서는,
    차로 유지 보조 모드가 오프 상태일 때 상기 카메라의 영상 데이터에 기초하여 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보를 획득하고 상기 획득한 차선의 위치 정보, 차선의 각도 정보 및 차선의 곡률 정보에 기초하여 추종 경로를 생성하며, 상기 생성한 추종 경로의 위치 정보와 스티어링 휠의 조작에 대응하여 차량이 실제 주행한 차로 중앙의 위치 정보에 기초하여 조향에 대한 에러 정보를 획득하고, 상기 획득한 에러 정보에 기초하여 상기 조향각 정보를 획득하는 차량.
  20. 제 19 항에 있어서, 상기 프로세서는,
    상기 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 이상이면 상기 추종 경로의 위치 정보, 상기 게인 정보, 상기 에러 정보 및 상기 최종 구배 정보에 기초하여 상기 조향각 정보를 획득하고, 상기 차량의 쏠림 민감도의 절대값이 미리 설정된 쏠림 민감도 미만이면 상기 추종 경로의 위치 정보, 상기 에러 정보 및 상기 최종 구배 정보에 기초하여 상기 조향각 정보를 획득하는 차량.
  21. 제 13 항에 있어서, 상기 프로세서는,
    상기 제1구배 정보와 상기 제2구배 정보가 동일하면 상기 제1구배 정보 또는 상기 제2구배 정보를 상기 최종 구배 정보로 획득하고, 상기 제1구배 정보와 상기 제2구배 정보가 상이하면 상기 제2구배 정보에 기초하여 오프셋 정보를 획득하고, 상기 오프셋 정보에 기초하여 상기 제1구배 정보를 보정하고 상기 보정한 제1구배 정보를 상기 최종 구배 정보로 획득하는 운전자 보조 장치.
KR1020210158025A 2021-11-16 2021-11-16 운전자 보조 장치 및 그를 가지는 차량 KR20230071931A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210158025A KR20230071931A (ko) 2021-11-16 2021-11-16 운전자 보조 장치 및 그를 가지는 차량

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210158025A KR20230071931A (ko) 2021-11-16 2021-11-16 운전자 보조 장치 및 그를 가지는 차량

Publications (1)

Publication Number Publication Date
KR20230071931A true KR20230071931A (ko) 2023-05-24

Family

ID=86541122

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210158025A KR20230071931A (ko) 2021-11-16 2021-11-16 운전자 보조 장치 및 그를 가지는 차량

Country Status (1)

Country Link
KR (1) KR20230071931A (ko)

Similar Documents

Publication Publication Date Title
US11126877B2 (en) Predicting vehicle movements based on driver body language
US11462022B2 (en) Traffic signal analysis system
US10296001B2 (en) Radar multipath processing
US10497263B2 (en) Apparatus and method for estimating a position of a vehicle and a vehicle using same
US9880554B2 (en) Misrecognition determination device
US10139818B2 (en) Visual communication system for autonomous driving vehicles (ADV)
KR102610743B1 (ko) 차량의 차로 변경 제어 장치, 그를 포함한 시스템 및 그 방법
US10988139B2 (en) Vehicle position control method and device vehicle position control device for correcting position in drive-assisted vehicle
US10875530B2 (en) Travel control method and travel control device for drive-assisted vehicle
KR102300836B1 (ko) 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
KR102464607B1 (ko) 차량 및 그 제어 방법
US20190324452A1 (en) Control device for vehicle, and vehicle
US10688841B1 (en) Expanding sensor domain coverage using differential active suspension
US20220003855A1 (en) Point clouds based lidar recalibration system for autonomous vehicles
US11535277B2 (en) Dual buffer system to ensure a stable nudge for autonomous driving vehicles
KR20230071931A (ko) 운전자 보조 장치 및 그를 가지는 차량
US11231501B2 (en) Front and side three-LIDAR design for autonomous driving vehicles
KR20230071932A (ko) 운전자 보조 장치 및 그를 가지는 차량
US20220120568A1 (en) Electronic device for vehicle, and method of operating electronic device for vehicle
US20240046658A1 (en) Object Recognition Apparatus and Vehicle Having the Same
US20230141584A1 (en) Apparatus for displaying at least one virtual lane line based on environmental condition and method of controlling same
US20230232107A1 (en) Infrastructure and Vehicle for Communicating with the Same
US20230065284A1 (en) Control and planning with localization uncertainty
US20210096249A1 (en) Front and side four-lidar design for autonomous driving vehicles