KR101500168B1 - 주행 도로의 측면 경계 인지 방법 - Google Patents

주행 도로의 측면 경계 인지 방법 Download PDF

Info

Publication number
KR101500168B1
KR101500168B1 KR20130122000A KR20130122000A KR101500168B1 KR 101500168 B1 KR101500168 B1 KR 101500168B1 KR 20130122000 A KR20130122000 A KR 20130122000A KR 20130122000 A KR20130122000 A KR 20130122000A KR 101500168 B1 KR101500168 B1 KR 101500168B1
Authority
KR
South Korea
Prior art keywords
information
vehicle
road
group
objects
Prior art date
Application number
KR20130122000A
Other languages
English (en)
Inventor
최태성
유병용
오영철
권수림
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR20130122000A priority Critical patent/KR101500168B1/ko
Application granted granted Critical
Publication of KR101500168B1 publication Critical patent/KR101500168B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 도로의 측면 경계를 판단하기 위한 방법은, (a) 시스템이 차량으로부터 소정 범위 내에 위치한 복수 개의 오브젝트 정보를 수신하는 단계; (b) 상기 시스템이 상기 차량의 위치 정보를 수신하는 단계; (c) 상기 시스템이 상기 차량 정보 및 상기 위치 정보에 대응하는 도로 정보를 데이터베이스로부터 가져오는 단계; 및 (d) 상기 시스템이 상기 차량 정보, 상기 도로 정보, 상기 복수 개의 오브젝트 정보에 기초하여 상기 도로의 측면 경계를 판단하는 단계를 포함할 수 있다. 또한, 상기 오브젝트 정보는 상기 각 오브젝트의 위치 정보, 신호 감도 정보, 이동 상태 정보 중 적어도 하나를 포함할 수 있다.

Description

주행 도로의 측면 경계 인지 방법{Method for Recognizing Side Boundary of Road during Driving}
본 발명은 차량의 주행 중에 도로의 가장자리(예를 들어, 중앙 분리대, 가드레일 등)에 해당하는 측면 경계를 인지하는 기술에 관한 것이다.
차량을 운행하는 운전자의 편의를 위한 다양한 장치들이 차량에 탑재된다. 예를 들면, 네비게이션, 차선 이탈 방지 장치, 자동 주차 시스템, 후방 카메라 등이 있다. 이 중에서, 네비게이션은 GPS 수신기 등을 이용하여 현재 차량의 위치를 감지하고, 현재 위치로부터 목적지까지 운전자에게 최적의 길 안내를 수행한다. 또한, 차선 이탈 방지 장치는 차량의 내부 카메라를 이용하여 흰색, 황색 등으로 도색되어 있는 차선을 인지하여, 운전자 차량의 차선 이탈 여부 등을 판단하여 운전자에게 알려주는 역할을 수행한다.
일반적으로 네비게이션은 경로에 따른 적절한 차선 안내 기능은 제공하지만, 현재 차량이 도로의 어느 차선에 위치해 있는지에 관한 정보는 제공하지 않는다. 차량 내부 카메라로 차선을 인지한다 하더라도, 외부의 빛 또는 노면 상태에 따른 반사 상태, 도로의 노후나 공사 등에 따른 도색 상태에 따라 정확하게 차선을 인지할 수 없는 상황이 발생한다.
본 발명에서는 단순히 현재 차량이 위치하고 있는 도로에 대한 정보뿐만 아니라, 도로의 좌/우 측면과 차량 사이의 거리 정보 및 차량이 현재 위치하고 있는 차로의 정보를 제공하는 것을 일 목적으로 한다.
또한, 인지된 도로의 측면 경계 정보와 도로의 제원 정보를 활용하여, 가상 차선을 생성하여 운전자에게 제공하는 것을 다른 목적으로 한다.
그러나 상기한 목적으로 여기에 개시된 내용을 한정하는 것은 아니며, 발명을 실시하기 위한 구체적인 내용 또는 청구항에서 언급하는 의도는 모두 본 발명의 목적으로 포함된다.
본 발명의 일 실시예에 따른 도로의 측면 경계를 판단하기 위한 방법은, (a) 시스템이 차량으로부터 소정 범위 내에 위치한 복수 개의 오브젝트 정보를 수신하는 단계; (b) 상기 시스템이 상기 차량의 위치 정보를 수신하는 단계; (c) 상기 시스템이 상기 차량 정보 및 상기 위치 정보에 대응하는 도로 정보를 데이터베이스로부터 가져오는 단계; 및 (d) 상기 시스템이 상기 차량 정보, 상기 도로 정보, 상기 복수 개의 오브젝트 정보에 기초하여 상기 도로의 측면 경계를 판단하는 단계를 포함할 수 있다. 또한, 상기 오브젝트 정보는 상기 각 오브젝트의 위치 정보, 신호 감도 정보, 이동 상태 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 방법은 (e) 상기 측면 경계 정보를 디스플레이하는 단계를 더 포함할 수 있고, 상기 (e) 디스플레이하는 단계는, 상기 차량으로부터 상기 측면 경계까지의 거리 정보; 상기 차량이 현재 주행중인 차선 정보; 및 상기 주행중인 차선의 변경이 필요한지에 대한 정보 중 적어도 하나를 디스플레이하는 단계를 포함할 수 있다.
또한 상기 (d) 판단하는 단계는, 상기 복수 개의 오브젝트를 제1 오브젝트 그룹과 제2 오브젝트 그룹으로 구분하는 단계; 및 상기 제1 오브젝트 그룹과 제2 오브젝트 그룹 각각에 대하여 상기 도로의 측면 경계를 판단하는 단계를 더 포함하고, 상기 차량의 중심 축을 기준으로 좌측 또는 우측 중 어느 한 측면에 위치하는 오브젝트가 상기 제1 오브젝트인 경우, 상기 제2 오브젝트는 상기 한 측면과 다른 측면에 위치하는 오브젝트인 것을 특징으로 할 수 있다.
또한 상기 (d) 판단하는 단계는, 상기 제1 오브젝트 그룹에서 제1 샘플 그룹을 선택하는 단계; 상기 제1 샘플 그룹에 포함된 오브젝트들의 위치 정보에 기초하여 제1 가상 경계를 생성하는 단계; 및 상기 생성된 가상 경계를 상기 도로의 좌측 또는 우측 경계로 결정하는 단계를 포함할 수 있다.
또한 상기 결정하는 단계는, 상기 제1 가상 경계에 대하여, 상기 제1 오브젝트 그룹에 포함된 오브젝트 중에서 상기 제1 샘플 그룹에 포함되지 않은 오브젝트에 대한 코스트 밸류의 총합를 계산하는 단계; 상기 제1 샘플 그룹과 적어도 일부가 다른 제2 샘플 그룹을 선택하는 단계; 상기 제2 샘플 그룹에 기초하여 생성된 제2 가상 경계에 대한 코스트 밸류의 총합을 계산하는 단계; 상기 계산된 코스트 밸류 총합의 최대값에 대응하는 가상 경계를 상기 도로의 좌측 또는 우측 경계로 결정하는 단계를 포함할 수 있다.
또한 상기 제2 샘플 그룹을 선택하는 단계는, 상기 오브젝트에 대한 코스트 밸류와 미리 정의된 기준 코스트 밸류를 비교하여, 비정상 오브젝트를 판단하는 단계; 상기 비정상 오브젝트를 상기 제1 오브젝트 그룹에서 제외하는 단계; 상기 제2 샘플 그룹을 선택하는 단계를 포함할 수 있다.
또한 상기 방법은 상기 위치 정보, 상기 신호 감도 정보, 이동 상태 정보에 기초하여 상기 측면 경계 판단을 위한 오브젝트를 필터링하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 도로의 측면 경계를 판단하기 위한 시스템은, 차량으로부터 소정 영역 내에 위치한 복수 개의 오브젝트(object) 정보를 수신하기 위한 오브젝트 감지 모듈; 상기 차량의 위치 정보를 수신하기 위한 차량 위치 감지 모듈; 상기 위치 정보에 대응하는 도로 정보를 포함하는 데이터베이스; 및 상기 수신된 복수 개의 오브젝트 정보와 상기 도로 정보에 기초하여 상기 도로의 측면 경계를 판단하기 위한 처리 모듈을 포함할 수 있다.
또한 상기 시스템은 상기 판단된 도로의 측면 경계를 디스플레이하기 위한 디스플레이 모듈을 더 포함할 수 있다.
본 명세서에 개시된 내용에 따르면, 현재 차량이 주행중인 위치로부터 도로의 좌/우 측면 경계까지의 거리 및 차량이 현재 운행중인 차선에 대한 정보를 사용자에게 정확하게 제공할 수 있다.
또한 차량의 이동 경로에 따라 현재 주행중인 차선의 변경이 필요한지 여부를 사용자에게 알려주어, 미리 차선을 변경하여 교차로, 지하차도 등을 효율적으로 이동할 수 있도록 한다.
도 1은 도로의 측면 경계 인식을 위한 시스템의 개략적인 개념도를 나타낸다.
도 2는 차량 측면 인지 시스템에 대한 개념적인 구성도이다.
도 3은 오브젝트 감지 모듈이 차량 주위의 오브젝트를 감지한 예시적인 상황을 나타내는 개념도이다.
도 4는 코스트 밸류를 계산하는 방법을 설명하기 위한 개념도이다.
도 5는 측면 경계 정보를 판단하여 디스플레이 하기 위한 예시 프로세스를 나타내는 흐름도이다.
도 6은 측면 경계를 결정하는 예시적인 프로세스를 나타내는 세부 흐름도이다.
도 7은 측면 경계 결정을 위한 샘플 그룹을 선택하는 예시적인 프로세스를 나타내는 세부 흐름도이다.
도 1은 도로의 측면 경계 인식을 위한 시스템의 개략적인 개념도를 나타낸다. 단계 100에서, 차량에 탑재된 오브젝트(Object) 감지 모듈에서 오브젝트 정보를 수신한다. 여기서 오브젝트는, 상기 감지 모듈에 의해 감지될 수 있는 물체, 장애물, 다른 차량, 가드레일(guardrail), 중앙분리대, 가로수, 연석, 공사용 임시 시설물 등을 포함한다. 오브젝트 정보는 감지된 오브젝트의 위치 정보를 포함한다. 또한, 오브젝트와 차량(또는 차량 내의 감지 센서) 사이의 거리에 따라 신호 강도(예를 들어, 반사율)가 다르기 때문에, 이 신호 강도에 관한 정보도 포함할 수 있다. 또한, 오브젝트의 이동 여부(즉, 속도)에 대한 정보도 포함할 수 있다.
단계 110에서, 이동하고 있는 오브젝트와 정지하고 있는 오브젝트를 구분할 수 있다. 예를 들면, 도플러 효과(doppler effect)와 같은 원리를 이용하여, 수신된 신호의 위상 변화에 기초하여 감지된 오브젝트가 이동 상태인지 정지상태인지 판단할 수 있다.
단계 120에서, 수신된 오브젝트 정보에 대한 필터링을 수행한다. 예를 들어, 도로의 측면이 소정의 속도로 이동하는 상황은 일반적으로 발생하지 않기 때문에, 이동 중인 것으로 판단된 오브젝트 정보를 배제할 수 있다. 또한, 도로의 폭은 한정적이기 때문에, 오브젝트의 위치가 소정 거리 이상인 경우에, 해당 오브젝트 정보 역시 배제할 수 있다. 또한 신호의 수신 감도가 너무 약하거나 또는 너무 강해서 신뢰할 수 없다고 판단되는 경우, 그 신호에 해당하는 오브젝트 정보도 역시 배제할 수 있다.
이제 시스템은 오브젝트들을 차량의 중심 축을 기준으로 하여 차량의 우측에 위치한 오브젝트와, 차량의 좌측에 위치한 오브젝트로 구분한다. 단계 130L 및 130R에서 측면 경계 인지 로직은 구분된 각 측면에 해당하는 오브젝트들에 대하여 각각의 측면 경계를 판단한다. 이렇게 판단된 측면과 현재 차량이 위치한 도로 정보를 이용하여 최종적으로 측면 경계 정보를 생성하여 운전자에게 제공한다. 이때 측면 경계 정보뿐만 아니라, 현재 사용자가 위치하고 있는 차선을 포함한 해당 도로의 차선에 관한 정보도 함께 제공될 수 있다.
도 2는 차량 측면 인지 시스템에 대한 개념적인 구성도이다. 이 시스템(200)은 일반적으로 오브젝트 감지 모듈(Object Sensing Module)(210), 차량 위치 모듈(Vehicle Position Moduel)(220), 데이터베이스(Database)(230), 처리 모듈(Processing Module)(240), 디스플레이 모듈(Display Moduel)(250)을 포함할 수 있다. 그러나 실시 예에 따라서, 해당 구성에 추가적인 장치(예를 들어, 통신 모듈(Network Module), 입출력 모듈(I/O Moduel))를 더 포함할 수 있다. 또한, 일부 구성이 생략되어 구현될 수도 있다. 예를 들면, 오브젝트 감지 모듈(210)은 시스템(200) 외부에 (차량의 내부에) 위치한 레이더 장치로 대체되고, 시스템(200)은 통신 모듈을 이용하여 레이더 장치로부터 오브젝트 정보를 수신하여 동작하는 것도 가능하다.
시스템(200) 구성의 일 예시로서, 차량 내의 레이더 장치(오브젝트 감지 모듈(210)에 대응)로부터 오브젝트 정보를, 차량 내의 네비게이션 또는 스마트폰과 같은 모바일 컴퓨팅 디바이스(차량 위치 모듈(220) 및 데이터베이스(230)에 대응)로부터 차량 위치 정보 및 도로 데이터베이스 정보를 수신하기 위한 통신모듈과, 처리 모듈(240) 및 디스플레이 모듈(250)로 구성된 텔레매틱스가 있을 수 있다. 또는, 레이더 장치로부터 오브젝트 정보를 수신하여, 도 1에 도시된 프로세스를 구현하는 네비게이션이 다른 예시가 될 수 있다. 마찬가지로 모바일 컴퓨팅 디바이스가 도 1의 프로세스를 구현할 수도 있다. 이와 같은 변형은 당업자가 용이하게 변경할 수 있는 범위 내에서 본 발명의 범위로 이해될 수 있다.
오브젝트 감지 모듈(210)은 일반적인 센서에 해당할 수 있다. 예를 들어, 레이더 센서, 초음파 센서, 라이다 센서 등이 오브젝트 감지 모듈(210)이 될 수 있다. 오브젝트 정보는 오브젝트 감지 모듈(210)이 수신하는 신호에 포함된 정보를 의미하며, 일반적으로 신호의 감도, 오브젝트가 감지된 위치(거리 및 방향), 오브젝트의 속도 등이 포함될 수 있다. 또한 오브젝트 모듈(210)은 차량의 여러 위치에 부착된 센서로부터 수신된 신호를 종합하여 처리 모듈(240)로 제공하는 모듈로서 이해될 수도 있다.
차량 위치 모듈(220)은 차량의 현재 위치를 처리 모듈(240)로 제공한다. 일반적으로 GPS 수신기에 해당할 수 있다. 또한 GSM 모듈과 같은, 이동통신을 이용하여 위치를 결정하는 메커니즘이 적용될 수도 있다. 또는 Wi-Fi와 같은 무선 인터넷 통신 기술을 이용하여 위치를 결정하는 메커니즘이 적용될 수도 있다. 물론, 상기한 방법의 하나 이상의 조합을 이용하여 차량을 위치하는 방법도 가능하다.
데이터베이스(230)는 차량 위치 모듈(220)에서 판단된 차량의 현재 위치에 대응하는 도로 정보를 포함한다. 이 도로 정보는 도로의 제원, 즉 도로의 폭, 재질, 차선의 수뿐만 아니라, 도로의 타입(고속도로, 국도, 지방도 등), 기타 도로의 특성(예를 들어, 도로가 교량 구간이거나 터널 구간인 경우 그 정보) 등을 포함할 수 있다. 데이터베이스(230)에 포함되는 정보는 통신 모듈 등을 통해 실시간으로 수집되어 반영될 수 있다. 예를 들면, 사고처리 또는 공사 등으로 인해 4차선 도로의 우측 2개 차선을 사용할 수 없는 경우, 해당 정보를 수신하여 저장하고 있다가 필요한 경우 제어 모듈(240)로 제공하여 도로의 측면 경계 판단에 반영되도록 할 수 있다.
처리 모듈(240)은 전술한 오브젝트 감지 모듈(210), 차량 위치 모듈(220), 및 데이터베이스(230)로부터 제공된 정보에 기초하여, 도로의 측면 경계를 판단하는 기능을 수행한다. 이를 위해, 처리 모듈(240)은 측면 경계 인지를 위한 로직을 포함할 수 있다. 또한 처리모듈(240)은 시스템(200)의 전반적인 제어를 위한 제어부 또는 컨트롤러로 이해될 수 있다. 또한 처리 모듈(240)은 처리 결과를 디스플레이 모듈(250)로 하여금 사용자에게 제공하도록 할 수 있다.
디스플레이 모듈(250)은 처리 결과를 사용자에게 제공한다. 이 처리 결과는 도로의 좌/우 측면의 경계에 대한 정보 및 차선에 대한 정보(예를 들면, 가상 실선)를 포함할 수 있다. 이 정보는 현재 양 측면으로부터 이격된 거리, 현재 주행중인 차선, 및 현재 목적지까지의 경로를 고려하였을 때 차선 변경이 요구되는지 여부 등을 포함할 수 있다. 또한 디스플레이 모듈(250)은 TFT-LCD 또는 AMOLED와 같은 터치 패널(touch panel)로 구현될 수 있으며, 이 경우 입/출력 모듈로서 기능할 수 있다.
도 3은 오브젝트 감지 모듈이 차량 주위의 오브젝트를 감지한 예시적인 상황을 나타내는 개념도이다. 도 3을 참조하면, 차량(300)은 상행선에서 주행중이며, 상행선은 폭이 Wlane인 차선 3개를 포함하는 3차선 도로이다. 상행선의 폭은 WRoad=Wlane x 3에 해당한다. 실제 도로의 경우 차선과 측면 경계 사이의 소폭의 여유 공간이 있어 차이가 발생하나 계산의 편의를 위해 상기와 같이 가정한다. 실제 구현에 있어서, 이와 같은 세부 사항들은 수학적으로 모두 반영될 수 있다. 또한 설명의 편의를 위하여 하행선에 대한 자세한 묘사는 생략하였다.
오브젝트 감지 모듈(210)은 차량(300) 주변의 오브젝트들을 감지하여 그 정보를 제어 모듈(240)로 제공한다. 도 3의 도로 상황에서는, 1차선 주행 차량(301), 2차선 주행 차량(302, 303), 3차선 주행 차량(304, 305)과 같은 오브젝트들이 감지될 수 있다. 또한 중앙분리대(350)와 가드레일(360)에 해당하는 오브젝트들도 감지될 수 있다. 또한, 가드레일(360) 외부에 위치한 나무나 건물에 해당할 수 있는 오브젝트(311) 및 하행선을 주행중인 차량(312, 313)에 대한 오브젝트들도 감지될 수 있다.
제어 모듈(240)은 오브젝트 정보에 기초하여 중앙분리대(350)나 가드레일(360)과 같이, 측면 경계가 될 수 없는 오브젝트들을 판단 대상에서 제거시킬 수 있다. 예를 들면, 제어 모듈(240)은 이동 중인 오브젝트와 정지 상태인 오브젝트를 구분하여 이동 중인(통상 차량으로 추정되는) 오브젝트들(301, 302, 303, 304, 305, 312, 323)을 판단 대상에서 제외시킬 수 있다.
제어 모듈(240)은 정지 상태인 오브젝트라 하더라도 도로의 측면 경계에 물리적으로 존재할 수 없다고 판단되는 오브젝트를 제외시킬 수 있다. 예를 들어, 차량의 너비를 Wvehicle, 차선의 너비를 Wlane, 차선 수를 Nlane이라고 했을 때, 도로의 측면 경계가 위치할 수 있는 범위 x는 다음과 같다.
Figure 112013092568817-pat00001
이와 같은 수식은 다양한 조건을 고려하여 변형될 수 있다. 예를 들어, 1차로와 중앙분리대 사이에 소폭의 여유가 존재하는 경우와 같이, 법규나 안전상의 이유로 차선과 측면 경계 사이에 소폭(w)의 여유 공간이 존재하는 경우, 위 수식은 예를 들어 다음과 같이 수정될 수 있다.
Figure 112013092568817-pat00002
도로의 측면 경계가 위치할 수 있는 범위는 이 외에도 다양한 도로나 차량 조건, 통계적인 운전 습관(예를 들어 운전자가 운행중에 유지하는 일반적인 좌/우 경계사이와의 공간) 등의 조건을 반영하여 결정될 수 있다.
예를 들어, 우측 가드레일(360) 외부에 위치한 오브젝트(311)가 상기의 범위를 벗어난 영역에 존재하는 것으로 판단되는 경우, 오브젝트(311)가 정지 상태인 대상이라고 하더라도, 측면 경계 대상에서 제외될 수 있다.
측면 경계 인지 로직은 다음과 같은 방식으로 적용된다. 우선, 감지된 오브젝트들을 차량을 기준으로 차량의 좌측에 위치하는 오브젝트와 차량의 우측에 위치하는 오브젝트 그룹으로 구분한다. 이하에서는 좌측에 위치하는 오브젝트 그룹에 대하여 좌측면 경계 인지 방법을 설명한다. 이하에서 설명되는 내용은, 차량의 우측에 위치하는 오브젝트 그룹에 대응되는 방식으로 적용될 수 있다.
제어 모듈(240)은 좌측 오브젝트 그룹에 포함된 복수 개(예를 들어 N개)의 오브젝트 중에서 일부(예를 들어, n개의 오브젝트, n<N)를 선택한다. 이렇게 선택된 샘플 그룹에 포함되는 오브젝트들은, 차량의 위치를 중심으로 하는 위치 좌표(x,y)를 갖는다. 이 위치 좌표는 오브젝트 정보에 포함되거나, 그 정보로부터 변환될 수 있다. 샘플 그룹에 포함된 오브젝트들의 좌표 정보를 이용하여, 샘플 그룹에 대한 가상 측면 경계를 결정할 수 있다. 이 가상 측면 경계에 해당하는 모델 파라미터는 다음과 같이 결정될 수 있다.
Figure 112013092568817-pat00003
Figure 112013092568817-pat00004
단 여기서,
Figure 112013092568817-pat00005
Figure 112013092568817-pat00006
상기한 방식으로 생성된 모델 파라미터(가상 측면 경계)는 y=ax+b의 직선 형태를 가지며, 이 모델 파라미터에 대하여, 상기 샘플 그룹에 포함되지 않은 오브젝트들에 대한 코스트 밸류(cost value)가 계산된다. 이 코스트 밸류는 샘플 그룹을 변경하면서 여러 차례 반복 계산되며, 그 값을 최대로 하는 모델 파라미터가 최종적인 측면 경계로 결정될 수 있다. 코스트 밸류의 계산에 대해서는 도 4를 참조하여 자세히 설명한다.
도 4는 코스트 밸류를 계산하는 방법을 설명하기 위한 개념도이다. 도 4를 참조하면, 샘플 그룹으로 선택된 오브젝트들(411, 412, 413, 414)에 대한 모델 파라미터(400)가 결정된다. 이 파라미터는 전술한 바와 같이 직선의 형태를 갖는다. 코스트 밸류는 샘플 그룹으로 선택되지 않은 오브젝트들(421, 422, 423, 424)에 대해서 계산된다. 코스트 밸류는 각각의 오브젝트(421, 422, 423, 424)와 모델 파라미터(400) 사이의 최단 거리(la, lb, lc, ld)에 비례하여 결정되는 값(
Figure 112013092568817-pat00007
)의 합으로 정의될 수 있다. 즉, 코스트 밸류 W는 다음과 같이 표현될 수 있다. 참고로, 좌측에 위치한 오브젝트들의 개수를 N개, 샘플 오브젝트의 개수를 n개라고 가정하면, 코스트 밸류의 계산에 사용되는 오브젝트들의 개수는 N-n이 된다.
Figure 112013092568817-pat00008
코스트 밸류는 오브젝트 감지 모듈(210)이 수신한 신호의 신호 감도와 오브젝트의 위치 정보에 따른 가중치를 반영하여 획득될 수 있다. 예를 들어, 신호 감도에 따라 강한 가중치를 부여하거나, 미리 정해진 감도 이하의 신호 감도에는 0 또는 상대적으로 낮은 가중치를 부여할 수 있다. 이와 같이 함으로써, 신뢰도가 낮은 신호를 필터링 할 수 있다.
또한, 거리(또는 위치)에 따른 가중치가 반영될 수 있다. 여기에서 위치 가중치는 샘플 그룹에 포함되지 않은 오브젝트의 위치 정보(x, y)에 따라 결정될 수 있다. 제어 모듈(240)은 차량 위치 모듈(220)에서 파악된 차량의 위치에 대응하는 도로의 데이터를 데이터베이스(230)로부터 획득할 수 있다. 데이터베이스(230)로부터 획득된 도로 정보에 기초하여 전술한 측면 경계가 존재할 수 있는 범위가 판단되면, 해당 범위 외부에 위치하는 오브젝트에 대해서 거리 가중치를 0 또는 상대적으로 낮게 설정할 수 있다. 또한, 차량(300)이 차선의 중앙을 유지하면서 주행한다고 가정할 때, 중앙분리대(350) 또는 가드레일(360)과 같은 측면 경계일 가능성이 높은 영역이 존재한다. 예를 들면, 차량(300)의 중심 축으로부터 도로 폭의 절반의 정수배에 해당하는 영역은 측면 경계일 가능성이 높다. 따라서, 오브젝트 위치의 x좌표가 0.5*Wlane*N(예를 들어 N은 1~8 사이의 정수)에서 소정 범위 내에 분포할 때, 상대적으로 높은 가중치를 부여할 수 있다. 이러한 가중치는 정규분포를 따를 수 있다.
또는, 샘플 오브젝트 그룹에 대해 생성된 파라미터에 대하여 소정 거리 이상 이격된 오브젝트에 대해서 0 또는 상대적으로 낮은 가중치를 설정할 수 있다. 이와 같은 가중치가 반영된 코스트 밸류 계산 식은 다음과 같을 수 있다.
Figure 112013092568817-pat00009
여기서 w_rssi는 수신감도 가중치, w_position은 위치 가중치에 해당하며, l_i는 해당 오브젝트와 모델 파라미터 사이의 직선 거리를 의미한다. 처리 모듈(240)은 하나의 샘플 그룹에 대한 코스트 밸류의 계산이 완료되면, 상기 샘플 그룹과 적어도 일부의 오브젝트가 다른 샘플 그룹을 새로 선정하여 코스트 밸류를 계산할 수 있다. 이와 같은 작업은 미리 정의된 최소한의 신뢰성을 확보할 수 있는 회수만큼 반복될 수 있다. 최종적으로 코스트 밸류의 값을 최대로 하는 모델 파라미터가 도로의 측면 경계로 선택될 수 있다.
이상과 같은 방법으로 도로의 좌측면 경계와 우측면 경계가 모두 획득되면, 도 1에서 언급했던 것과 같이, 도로 정보와 좌/우 측면 경계 정보를 이용하여 최종적인 측면 경계 정보를 생성한다. 예를 들어, 차량이 차선의 폭이 3m인 3차선 도로의 1차선의 한 가운데에서 주행하고 있을 수 있다. 이 경우 도로의 폭은 9m가 된다. (편의상 좌/우 경계와 차선 사이의 이격된 거리, 갓길 정보 등은 무시한다.) 만약 계산된 좌측 경계가 1.4m, 우측 경계가 7.3m 이격된 것으로 판단되면, 도로의 폭이 8.7m(1.4+7.3)으로 계산되며, 따라서 계산된 좌/우 측면 경계는 신뢰할 수 있는 결과로 판단될 수 있다. 이제 시스템은 운행자에게 현재 3차선 도로의 1차선으로 주행하고 있다는 정보를 제공할 수 있다. 또한, 좌/우 측면 경계로부터 이격된 거리의 정보, 및/또는 목적지까지의 예상 경로를 고려할 때 차선 변경 여부의 안내 등을 함께 제공할 수 있다.
도 5는 측면 경계 정보를 판단하여 디스플레이 하기 위한 예시 프로세스를 나타내는 흐름도이다. 도 1 내지 도 4를 참조하여 전술한 설명 중에서, 이하에서 설명하는 내용과 중복되는 내용은 생략한다.
프로세스는 단계 510에서 시작한다. 단계 520에서 시스템은 차량 주위의 오브젝트 정보를 수신한다. 이 수신은 오브젝트 감지 모듈(210)에 의해 수행될 수 있다. 단계 520을 수행함으로써, 차량 주위에 위치한 오브젝트들의 위치, 이동 여부, 신뢰도(신호 감도) 등의 정보가 수집될 수 있다.
단계 530에서 차량의 위치 정보가 수신된다. 단계 530은 차량 위치 모듈(220)에 의해 수행될 수 있다. 단계 530을 수행함으로써, 차량의 현재 위치가 파악될 수 있다. 또한, 통상적으로 차량의 위치 정보는 이동하는 차량에 대하여 지속적으로 수신되기 때문에, 차량의 현재 이동 방향에 대한 정보까지 파악될 수 있다.
단계 540에서 차량/도로 정보가 수집된다. 차량 정보는 차량의 폭에 대한 정보를 포함할 수 있다. 도로 정보는 단계 520에서 수집된 차량의 현재 위치에 대응하는 도로의 이름, 종류, 차선, 차선의 폭, 중앙선과 1차선 사이의 여유 폭, 최우측 차선과 가드레일/연석 사이의 여유 폭, 갓길의 유무, 갓길의 폭 등에 대한 정보를 포함할 수 있다. 또한 단계 520에서 차량의 이동 방향이 파악되기 때문에, 현재 차량이 상행선으로 주행중인지 하행선으로 주행중인지에 대한 정보도 획득될 수 있다. 이 정보는 상행선과 하행선의 도로 사정(예를 들어, 차선의 수)이 다른 경우에 특히 유용할 수 있다. 이와 같은 정보는 시스템에 포함된 데이터베이스(230)로부터 수집될 수 있다. 그러나 전술한 바와 같이, 다양한 실시예에 따르면, 네트워크를 통해 외부 서버 등으로부터 수집될 수도 있다.
단계 550에서 차량의 측면 경계를 판단하는 작업이 수행된다. 이 작업은 제어 모듈(240)에 의해 수행될 수 있다. 이 단계에 대해서는 도 6을 참조하여 자세히 후술한다.
단계 560에서, 차량의 측면 경계 정보가 사용자에게 디스플레이 될 수 있다. 단계 560에 있어서 디스플레이 모듈(250)이 활용될 수 있다. 제공되는 디스플레이의 예시는 도 8을 참조하여 후술한다.
도 6은 측면 경계를 결정하는 예시적인 프로세스를 나타내는 세부 흐름도이다. 도 6은 도 5의 단계 550으로 이해될 수 있다. 다시 말하면, 도 5의 프로세스는 단계 510에서 시작해서 단계 550에서 도 6의 단계 610 - 680을 수행하고 단계 560으로 진입한 후, 단계 570에서 종료될 수 있다.
단계 610에서 측면 경계의 판단 프로세스가 시작된다. 단계 620에서 차량의 좌측에 위치한 오브젝트와 차량의 우측에 위치한 오브젝트를 구분하여 그룹화 한다. 예를 들어, 처리 모듈(240)은 감지된 복수 개의 오브젝트 중에서 제1 오브젝트 그룹과 제2 오브젝트 그룹을 결정할 수 있다. 만약 제1 오브젝트 그룹이 차량의 좌측에 위치한 오브젝트들을 포함하면, 제2 오브젝트 그룹은 차량의 우측에 위치한 오브젝트들을 포함할 수 있다(그 역도 같다).
이 구분 작업의 수행 이전에 전술한 필터링 작업이 수행될 수 있다. 예를 들어, 움직이는 것으로 판단된 오브젝트, 신호 감도가 신뢰하기 어려운 것으로 판단된 오브젝트, 거리 정보가 신뢰하기 어려운 것으로 판단된 오브젝트에 대한 정보가 측면 경계 판단 대상에서 제외될 수 있다. 그러나 이 필터링 작업은 적절한 단계, 예를 들어 샘플 그룹 선정 단계(단계 630)에서 수행될 수도 있다.
단계 630에서, 가상 경계(모델 파라미터)의 생성을 위한 샘플 그룹이 선정된다. 예를 들어, 제1 오브젝트에 포함된 오브젝트들 중에서 제1 샘플 그룹을 선택한다. 이 제1 샘플 그룹에 포함되는 오브젝트의 수는 충분한 신뢰도를 확보하기 위해 미리 결정된 개수 이상일 수 있다. 단계 640에서 제1 샘플 그룹에 포함된 오브젝트들의 정보를 이용하여 제1 가상 경계가 생성될 수 있다. 가상 경계 생성 방법은 전술한 바 있으므로 생략한다.
이상의 설명에 따라 좌/우 가상 경계가 모두 생성되고, 생성된 가상 경계와 도로 정보를 비교하였을 때, 신뢰할만한 수준이라고 판단되는 경우, 신뢰도를 높이기 위한 반복적인 수행 없이(즉, 단계 650, 660을 생략) 가상 경계를 측면 경계로 결정하고 프로세스를 종료할 수 있다. 그러나 시스템 성능 등이 충분한 경우 등에, 샘플 그룹을 변경하면서 도 6의 단계 630 내지 650을 반복 수행함으로써, 측면 경계의 정확도를 향상시킬 수 있다.
예를 들어, 단계 650에서, 제1 가상 경계에 대해, 제1 오브젝트 그룹에 포함되었으나 제1 샘플 그룹에 포함되지 않은 오브젝트들에 대한 코스트 밸류가 계산될 수 있다. 이 작업은 미리 정의된 횟수(N)만큼 반복될 수 있다. 단계 660에서, 만약 반복 횟수가 미리 정의된 횟수에 미달하면 단계 630으로 진행하여 프로세스를 반복한다.
추가적으로 생성되는 제2 샘플 그룹은 제1 샘플 그룹에 포함된 오브젝트와 적어도 하나의 다른 오브젝트를 포함한다. 제2 샘플 그룹에 포함된 오브젝트의 수와 제1 샘플 그룹에 포함된 오브젝트의 수는 다를 수 있다. 제2 샘플 그룹에 대하여 단계 640을 수행하여 제2 가상 경계가 생성되고, 이에 대한 코스트 밸류가 계산될 수 있다. 미리 정의된 횟수만큼 프로세스가 반복되면 단계 670으로 진행한다.
단계 670에서, 반복을 통해 생성된 가상 경계들 중에서 코스트 밸류를 최대로 하는 가상 경계를 측면 경계로 결정할 수 있다. 이렇게 결정된 측면 경계 정보는 전술한 여러 정보와 함께 단계 560 등에서 사용자에게 제공될 수 있다.
도 7은 측면 경계 결정을 위한 샘플 그룹을 선택하는 예시적인 프로세스를 나타내는 세부 흐름도이다. 도 7은 도 6에 도시된 프로세스의 반복 실행에 있어서, 중앙분리대나 가드레일이 아닌 것으로 판단되는 비정상 오브젝트를 제거하여 프로세스의 반복 회수를 줄이고 결과의 신뢰도를 향상시키기 위한 프로세스를 나타낼 수 있다.
도 7의 프로세스는 단계 710(A)에서 시작한다. 단계 710은 도 6의 단계 610 또는 단계 620에 해당할 수 있다. 또한, 도 7에 도시된 프로세스를 최초로 실행함에 있어서(즉 N'=1의 반복인 경우) 단계 720 및 730은 각각 도 6의 단계 630 및 640에 대응할 수 있다.
단계 740에서, 샘플 그룹에 대해서 생성된 모델 파라미터에 대하여, 제1 오브젝트 그룹에 포함된 오브젝트 중 제1 샘플 그룹에 포함되지 않은 오브젝트들에 대한 개별 코스트 밸류가 계산될 수 있다. 즉, 도 6의 단계 650에서 획득되는 코스트 밸류는 도 7의 단계 740에서 획득된 각각의 오브젝트들에 대한 개별 코스트 밸류의 총합으로 이해될 수 있다.
단계 750에서, 획득된 개별 코스트 밸류를 기준 코스트 밸류와 비교한다. 기준 코스트 밸류는 실험적으로 획득되거나 정의된 값일 수 있다. 이 기준 코스트 밸류는 오브젝트가 측면 경계에 해당할 수 있는 최소값을 의미할 수 있다. 단계 760에서는 상기 비교 결과에 기초하여 비정상 오브젝트를 구분할 수 있다. 즉, 신호의 감도, 오브젝트의 위치 등에 대한 가중치에 따라, 일 오브젝트에 대한 개별 코스트 밸류가 기준값보다 작게 되면, 시스템은 이 오브젝트를 측면 경계에 해당하지 않는다고 판단할 수 있다. 물론 가중치 부여 방식에 따라, 기준 코스트 밸류보다 큰 개별 코스트 밸류를 가지는 오브젝트를 비정상 오브젝트로 구분하는 것도 가능하다. 단계 770에서, 비정상 오브젝트로 판단된 오브젝트를 전체 오브젝트 그룹에서 제외시킬 수 있다. 여기서 전체 오브젝트 그룹이라 함은, 샘플 그룹을 선정하기 위한 오브젝트들의 모집단을 의미하는 것으로, 감지된 오브젝트 전체일 수 있고, 또는 좌/우측 오브젝트 그룹일 수 있다.
단계 780에서, 미리 정의된 횟수(N')만큼 프로세스가 반복되었는지 판단하고, 반복되지 않았다면 단계 720으로 다시 진행한다. 만약 미리 정의된 횟수만큼 프로세스가 반복되었다면 단계 790(B)로 진행한다. 단계 720에서, 새로 선정되는 샘플 그룹(예를 들어, 제2 샘플 그룹)은 전체 오브젝트(또는 제1 오브젝트) 그룹에서 비정상 오브젝트로 판단된 오브젝트들이 제외된 모집단에서 선택된다. 프로세스를 반복함에 따라 비정상 오브젝트들은 대부분 제외되고, 그 결과 반복횟수 감소와 높은 신뢰도를 얻을 수 있다. 예를 들어, 도 7의 미리 정의된 반복횟수(N')는 도 6의 미리 정의된 반복횟수(N)보다 작을 수 있다.
도 5 내지 도 7의 흐름도를 참조한 설명에 있어서, 도시된 흐름의 순서가 반드시 강제되는 것은 아니다. 예를 들어, 도 5의 오브젝트 정보 수신 단계(단계 520)와 차량의 위치 정보 수신 단계(단계 530)는 동시에, 또는 차량의 주행 중에 지속적으로 수신될 수 있다.
본 명세서에 개시된 내용은 독립된 단일 시스템(200)에서 수행될 수 있다. 또한, 여러 장치가 연계된 다양한 실시예가 가능하다. 예를 들어, 차량에 설치된 감지 센서로부터 오브젝트 정보를 수신하여 도 5 내지 도 7에 도시된 프로세스를 수행하는 텔레매틱스가 있을 수 있다. 또는, 차량에 설치된 감지 센서로부터 오브젝트 정보를 수신하고, 스마트폰, 태블릿과 같은 모바일 컴퓨팅 디바이스로부터 차량 위치 정보 및 도로 정보 등을 수신하여 도 5 내지 도 7에 도시된 프로세스를 수행하는 텔레매틱스가 있을 수 있다. 또는, 차량에 설치된 감지 센서로부터 오브젝트 정보를 수신하고, 차량에 도킹된 상태 또는 차량과 Wi-Fi, Bluetooth, NFC와 같은 무선 연결 상태에서 도 5 내지 도 7의 프로세스를 수신하는 모바일 컴퓨팅 디바이스가 있을 수 있다.
본 명세서에서, 특정 기능을 수행하기 위한 수단으로서 표현된 요소는 특정 기능을 수행하는 임의의 방식을 포괄하고, 이러한 요소는 특정 기능을 수행하는 회로 요소들의 조합, 또는 특정 기능을 수행하기 위한 소프트웨어를 수행하기 위해 적합한 회로와 결합된, 펌웨어(firmware), 마이크로코드(microcode) 등을 포함하는 임의의 형태의 소프트웨어를 포함할 수 있다.
본 명세서에서 본 발명의 원리들의 '일 실시예'와 이런 표현의 다양한 변형들의 지칭은 이 실시예와 관련되어 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 표현 '일 실시예에서'와, 본 명세서 전체를 통해 개시된 임의의 다른 변형 예시들은 반드시 모두 동일한 실시예를 지칭하는 것은 아니다.
본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
200 측면 경계 판단 시스템
210 오브젝트 감지 모듈
220 차량 위치 모듈
230 데이터베이스
240 처리 모듈
250 디스플레이 모듈

Claims (10)

  1. 도로의 측면 경계를 판단하기 위한 방법에 있어서,
    (a) 시스템이 차량으로부터 소정 범위 내에 위치한 복수 개의 오브젝트 정보를 수신하는 단계;
    (b) 상기 시스템이 상기 차량의 위치 정보를 수신하는 단계;
    (c) 상기 시스템이 상기 차량 정보 및 상기 위치 정보에 대응하는 도로 정보를 데이터베이스로부터 가져오는 단계; 및
    (d) 상기 시스템이 상기 복수 개의 오브젝트 정보를 기반으로 상기 복수 개의 오브젝트를 제1 오브젝트 그룹과 제2 오브젝트 그룹으로 구분하고, 상기 각각의 오브젝트 그룹, 상기 차량 정보 및 상기 도로 정보에 기초하여 상기 도로의 측면 경계를 판단하는 단계를 포함하고,
    상기 오브젝트 정보는 상기 각 오브젝트의 위치 정보, 신호 감도 정보, 이동 상태 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    (e) 상기 측면 경계 정보를 디스플레이하는 단계를 더 포함하는 방법.
  3. 제2항에 있어서,
    상기 (e) 디스플레이하는 단계는,
    상기 차량으로부터 상기 측면 경계까지의 거리 정보;
    상기 차량이 현재 주행중인 차선 정보; 및
    상기 주행중인 차선의 변경이 필요한지에 대한 정보 중 적어도 하나를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 (d) 판단하는 단계는,
    상기 차량의 중심 축을 기준으로 좌측 또는 우측 중 어느 한 측면에 위치하는 오브젝트가 상기 제1 오브젝트인 경우, 상기 제2 오브젝트는 상기 한 측면과 다른 측면에 위치하는 오브젝트로 판단하는 단계;
    를 더 포함하는 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 (d) 판단하는 단계는,
    상기 제1 오브젝트 그룹에서 제1 샘플 그룹을 선택하는 단계;
    상기 제1 샘플 그룹에 포함된 오브젝트들의 위치 정보에 기초하여 제1 가상 경계를 생성하는 단계; 및
    상기 생성된 가상 경계를 상기 도로의 좌측 또는 우측 경계로 결정하는 단계를 포함하는 방법.
  6. 제5항에 있어서,
    상기 결정하는 단계는,
    상기 제1 가상 경계에 대하여, 상기 제1 오브젝트 그룹에 포함된 오브젝트 중에서 상기 제1 샘플 그룹에 포함되지 않은 오브젝트에 대한 코스트 밸류의 총합를 계산하는 단계;
    상기 제1 샘플 그룹과 적어도 일부가 다른 제2 샘플 그룹을 선택하는 단계;
    상기 제2 샘플 그룹에 기초하여 생성된 제2 가상 경계에 대한 코스트 밸류의 총합을 계산하는 단계;
    상기 계산된 코스트 밸류 총합의 최대값에 대응하는 가상 경계를 상기 도로의 좌측 또는 우측 경계로 결정하는 단계를 포함하는 방법.
  7. 제6항에 있어서,
    상기 제2 샘플 그룹을 선택하는 단계는,
    상기 오브젝트에 대한 코스트 밸류와 미리 정의된 기준 코스트 밸류를 비교하여, 비정상 오브젝트를 판단하는 단계;
    상기 비정상 오브젝트를 상기 제1 오브젝트 그룹에서 제외하는 단계;
    상기 제2 샘플 그룹을 선택하는 단계를 포함하는 것을 특징으로 하는 방법.
  8. 제1항에 있어서,
    상기 위치 정보, 상기 신호 감도 정보, 이동 상태 정보에 기초하여 상기 측면 경계 판단을 위한 오브젝트를 필터링하는 단계를 더 포함하는 방법.
  9. 도로의 측면 경계를 판단하기 위한 시스템에 있어서,
    차량으로부터 소정 영역 내에 위치한 복수 개의 오브젝트(object) 정보를 수신하기 위한 오브젝트 감지 모듈;
    상기 차량의 위치 정보를 수신하기 위한 차량 위치 감지 모듈
    상기 위치 정보에 대응하는 도로 정보를 포함하는 데이터베이스; 및
    상기 수신된 복수 개의 오브젝트 정보를 기반으로 상기 복수 개의 오브젝트를 제1 오브젝트 그룹과 제2 오브젝트 그룹으로 구분하고, 상기 각각의 오브젝트 그룹과 상기 도로 정보에 기초하여 상기 도로의 측면 경계를 판단하기 위한 처리 모듈을 포함하는 시스템.
  10. 제9항에 있어서,
    상기 시스템은 상기 판단된 도로의 측면 경계를 디스플레이하기 위한 디스플레이 모듈을 더 포함하는 시스템.
KR20130122000A 2013-10-14 2013-10-14 주행 도로의 측면 경계 인지 방법 KR101500168B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130122000A KR101500168B1 (ko) 2013-10-14 2013-10-14 주행 도로의 측면 경계 인지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130122000A KR101500168B1 (ko) 2013-10-14 2013-10-14 주행 도로의 측면 경계 인지 방법

Publications (1)

Publication Number Publication Date
KR101500168B1 true KR101500168B1 (ko) 2015-03-06

Family

ID=53026715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130122000A KR101500168B1 (ko) 2013-10-14 2013-10-14 주행 도로의 측면 경계 인지 방법

Country Status (1)

Country Link
KR (1) KR101500168B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101891725B1 (ko) * 2016-11-18 2018-08-24 국민대학교산학협력단 단거리 레이더 센서 기반의 가상 차선 생성 방법
KR101927634B1 (ko) 2017-08-28 2018-12-10 현대오트론 주식회사 환경 요소를 제거하기 위한 방법 및 장치
KR101928652B1 (ko) * 2017-05-19 2018-12-12 연세대학교 산학협력단 다중 초음파 센서를 이용한 차량용 연석 탐지 방법 및 장치
KR20190013689A (ko) * 2017-06-22 2019-02-11 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
WO2021087242A1 (en) * 2019-10-31 2021-05-06 Waymo Llc Training trajectory scoring neural networks to accurately assign scores

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335264A (ja) * 1995-06-09 1996-12-17 Hitachi Ltd 道路車線認識方法及び装置
JP2009128356A (ja) * 2007-11-26 2009-06-11 Korea Electronics Telecommun カーナビゲーションシステムおよび方法
KR20110051531A (ko) * 2009-11-10 2011-05-18 한국전자통신연구원 차량의 차선 유지 및 이탈 방지 장치, 및 그 방법
JP2013168057A (ja) * 2012-02-16 2013-08-29 Toyota Motor Corp 道路境界判定装置及び道路境界判定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335264A (ja) * 1995-06-09 1996-12-17 Hitachi Ltd 道路車線認識方法及び装置
JP2009128356A (ja) * 2007-11-26 2009-06-11 Korea Electronics Telecommun カーナビゲーションシステムおよび方法
KR20110051531A (ko) * 2009-11-10 2011-05-18 한국전자통신연구원 차량의 차선 유지 및 이탈 방지 장치, 및 그 방법
JP2013168057A (ja) * 2012-02-16 2013-08-29 Toyota Motor Corp 道路境界判定装置及び道路境界判定方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101891725B1 (ko) * 2016-11-18 2018-08-24 국민대학교산학협력단 단거리 레이더 센서 기반의 가상 차선 생성 방법
KR101928652B1 (ko) * 2017-05-19 2018-12-12 연세대학교 산학협력단 다중 초음파 센서를 이용한 차량용 연석 탐지 방법 및 장치
KR20190013689A (ko) * 2017-06-22 2019-02-11 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
KR102070527B1 (ko) * 2017-06-22 2020-01-28 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
US11545033B2 (en) 2017-06-22 2023-01-03 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Evaluation framework for predicted trajectories in autonomous driving vehicle traffic prediction
KR101927634B1 (ko) 2017-08-28 2018-12-10 현대오트론 주식회사 환경 요소를 제거하기 위한 방법 및 장치
WO2021087242A1 (en) * 2019-10-31 2021-05-06 Waymo Llc Training trajectory scoring neural networks to accurately assign scores
US11586931B2 (en) 2019-10-31 2023-02-21 Waymo Llc Training trajectory scoring neural networks to accurately assign scores

Similar Documents

Publication Publication Date Title
US11216004B2 (en) Map automation—lane classification
CN112204634B (zh) 驱动包络确定
US10926763B2 (en) Recognition and prediction of lane constraints and construction areas in navigation
JP6783949B2 (ja) 交通標識情報を用いた道路検出
JP6410949B2 (ja) 車線認識装置および車線認識方法
JP5429380B2 (ja) 運転支援装置
EP3877897A2 (en) Vehicle trajectory modification for following
EP3211374B1 (en) Travel route calculation device
KR101500168B1 (ko) 주행 도로의 측면 경계 인지 방법
US11782439B2 (en) Determining routes for autonomous vehicles
US20210035450A1 (en) Passenger walking points in pick-up/drop-off zones
CN108986502B (zh) 感应回路检测系统和方法
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
JP2013004021A (ja) 衝突危険度判定装置
US11904906B2 (en) Systems and methods for prediction of a jaywalker trajectory through an intersection
US20230242149A1 (en) Radar object classification based on radar cross-section data
US20230400859A1 (en) Predicting Jaywaking Behaviors of Vulnerable Road Users
JP2021113816A (ja) 出力装置、制御方法、プログラム及び記憶媒体
KR20190005595A (ko) 주변 차량의 이동 경로 예측 방법 및 이동 경로 예측을 위한 학습 방법
EP4285083A1 (en) Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle
EP4131181A1 (en) Methods and system for predicting trajectories of actors with respect to a drivable area
CN115782890A (zh) 识别车道通行状态的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180227

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190227

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200227

Year of fee payment: 6