KR20110113185A - 유효 차선 마킹을 결정하기 위한 방법 및 장치 - Google Patents

유효 차선 마킹을 결정하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20110113185A
KR20110113185A KR1020117019023A KR20117019023A KR20110113185A KR 20110113185 A KR20110113185 A KR 20110113185A KR 1020117019023 A KR1020117019023 A KR 1020117019023A KR 20117019023 A KR20117019023 A KR 20117019023A KR 20110113185 A KR20110113185 A KR 20110113185A
Authority
KR
South Korea
Prior art keywords
vehicle
lane
lane markings
determined
markings
Prior art date
Application number
KR1020117019023A
Other languages
English (en)
Inventor
로버트 스판젠버저
Original Assignee
헬라 카게아아 휙크 운트 콤파니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 헬라 카게아아 휙크 운트 콤파니 filed Critical 헬라 카게아아 휙크 운트 콤파니
Publication of KR20110113185A publication Critical patent/KR20110113185A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 특히 도로 차량에서, 차량(12)의 카메라 시스템(16)의 도움으로 유효 차선 마킹(38-42; 56, 58)을 결정하기 위한 방법 및 장치에 관한 것이다. 카메라 시스템(16)의 카메라(17)의 도움으로 차량(12)의 앞에 영역의 이미지를 가지는 몇가지 사진은 사진 시리즈로 연속하여 촬영되고 각각의 사진(30, 54, 66)에 해당하는 이미지 데이터는 생성된다. 사진 시리즈의 사진(30, 54, 66)의 적어도 일부분의 이미지 데이터는 처리되고, 적어도 제1 차선 마킹(38-42)과 제1 차선 마킹(38-42)과 다른 제2 차선 마킹(56, 58)은 사진 시리즈의 적어도 하나의 사진(30)에서 감지된다. 차량(12)의 전방에서 구동하는 차량(34)은 적어도 두 개의 연속하여 촬영된 사진(30, 54)에서 감지되고 제1 차선 마킹(36-42)에 상대적인 위치(P1-P4) 뿐만 아니라 제2 차선 마킹(56, 58)에 상대적인 위치(P1-P4)가 결정된다. 사진(30, 54)의 도움으로 결정된 전방에서 구동하는 차량(34)의 위치(P1-P4)에 의존하여, 감지된 차선 마킹(36-42, 56, 58)의 하나가 유효 차선 마킹(56, 58)으로 선택된다.

Description

유효 차선 마킹을 결정하기 위한 방법 및 장치{METHOD AND DEVICE FOR DETERMINING AN APPLICABLE LANE MARKER}
본 발명은 적어도 제1 차선 마킹과 제1 차선 마킹과 다른 제2 차선 마킹이 감지되고 이들 감지된 마킹의 하나가 관련 차선 마킹으로 선택되는 유효 차선 마킹을 결정하기 위한 방법 및 장치에 관한 것이다.
선행 기술에서, 카메라 기반의 드라이버 지원 시스템은 여행의 방향에서 차량 앞에 지역의 관찰과 분석을 위한 하나 이상의 모노 또는 스테레오 카메라를 구성하는 것으로 알려져 있다. 드라이버 지원 시스템에서 사용을 위한 사진 촬영을 위해 흑백 카메라 시스템과 컬러 카메라 시스템은 여행의 방향에서 차량 앞에 감지 영역의 사진을 촬영하고 이들 사진에 해당하는 이미지 데이터를 생성함이 알려져 있다. 이미지 데이터는 적어도 하나의 프로세싱 유닛에 의해 처리되고, 사진은 분석되고 특히 사진에서 오브젝트의 이미지는 감지되고 오브젝트는 분류된다. 이러한 연결에서, 감지와 분류는 일반적으로 해당 드라이버 지원 시스템에 관련된 해당 오브젝트에 제한된다. 오브젝트 인식 외에도, 프로세싱 유닛은 특히 오브젝트 추적, 트래픽 사인으로 분류되는 오브젝트의 트래픽 사인 인식, 차선 인식 및/또는 전방에서 구동하는 차량 및/또는 마주오는 차량의 인식을 수행한다. 차선 이식을 위해, 일반적으로 차선은 차량이 현재 움직임을 감지된다. 주변 차선은 잘 감지될 수 있다. 이러한 연결에서, 예를 들어 차선 변경 보조자는 예를 들어, 현재 사용된 차선이 방향 지시기의 활성화 없이 남아있을 때 드라이버에 정보 또는 경고를 제공하는 것이 가능하다. 현재 사용된 차선의 감지를 위해, 각각의 드라이버 지원 시스템은 차선 마킹을 위해 차선에 적용되는 마킹을 사용한다. 그러나, 특히 몇가지 중복 차선 마킹의 경우에서 현재 유효 차선 마킹을 감지하고 그다음 차선 마킹의 기초하여 드라이버 보조 기능을 제공하는 각각의 드라이버 지원 시스템을 위한 사용하기가 어렵다. 예를 들어, 이러한 중복 차선 마킹은 도로 공사의 영역에서 발생하고 도로 공사에서 소위 임시 차선 마킹의 적어도 일부분에서 게다가 도로 공사 기간 동안 원래 영구 차선 마킹에 적용된다.
독일에서, 예를 들어, 영구 차선 마킹은 색상 흰색에서 차선에 적용되고 임시 차선 마킹은 색상 노란색에 적용된다. 따라서, 도로 공사 영역 뿐만 아니라 진입 영역 및 도로 공사 영역의 출구 영역에서 다른 차선 마킹이 적용되고 인간의 눈은 일반적으로 색상에서 차이를 통해 구별한다. 임시 및 영구 차선 마킹의 색상은 국가마다 다르다. 오직 색상 정보에 기반된 임시 및 영구 마킹 사이의 구별하기 위한 방법은 따라서 차량이 움직이는 것처럼 정보에 의존한다. 또한, 임시 마킹의 사용이 표준화되어 있지만 이들 표준은 항상 관찰되는 것이 아니고, 예를 들어, 또한 독일에서, 노란색 마킹은 좌측에 관련된 마킹일 수 있고 흰색 마킹은 도로 공사에서 우측에 관련된 마킹일 수 있다. 따라서, 컬러 카메라를 사용하는 경우에도, 문제는 나쁜 조명 조건에서, 특히 비가 올 때, 발생할 수 있고, 색상에 기초하여 차선 마킹 사이의 구별은 충분한 확신을 할 수 없다. 또한, 흑백 카메라의 사용에 의해 색상 차이는 오직 사진에서 다른 색상의 밝기 차이에 의해 감지된다. 이러한 방법에서, 올바른과 올바르지 않은 마킹 사이의 구별은 충분한 확신을 할 수 없다. 그러나 드라이버 지원 시스템에서 사용을 위해 사진을 촬영하기 위한 흑백 카메라의 사용은 CMOS 이미지 센서, 특히 흑백 카메라에서 사용되는 것처럼, 높은 이미지 해상도를 허용하고 예를 들어, 4096 그레이(gray) 레벨의 높은 그레이 레벨 해상도를 허용하는 이득을 가진다. 현재, 이러한 그레이 레벨 또는 밝기 해상도는 비교 가능한 컬러 센서로 얻을 수 없다. 또한 이미지 데이터의 추가 처리는 컬러 이미지의 이미지 데이터의 추가 처리에 비교되어 흑백 이미지 경우에 상당히 감소되고 이에 따라 드라이버 지원 시스템에서 흑백 카메라의 사용은 이득이다.
문서 EP 1653310 A2으로부터, 차량에 정의된 위치에 장착된 카메라를 사용하여 도로 경계 차량(road-bound vehicle)의 방향 제어를 위한 방법이 알려져 있다. 카메라의 도움으로, 영구 차선 마킹은 감지된다. 여기서, 마킹 패턴은 위험 구역 또는 도로 공사 영역을 입력한 후 감지되고, 차량의 가로 방향 제어를 위한 제어 신호가 결정된다.
문서 DE 10311240 A1으로부터, 차량의 방향 제어를 위한 방법 및 장치가 알려져 있고, 구분은 차선에서 임시와 영구 마킹 사이에 만들어진다. 임시 마킹이 감지될 때마다, 차량의 방향 제어를 위해 바람직하게 사용된다.
문서 DE 102004003848 A1으로부터, 차선 영역에서 마크된 위험 구역 및/또는 도로 공사를 인식하는 방법이 알려져 있다. 이들 방법은 차량에 장착된 예를 들어, 레이저 스캐너, 전자기장 방사를 위한 센서의 감지 영역의 공간적 분리 이미지를 사용한다. 공간적 분리 이미지에서, 위험 구역 및/또는 도로 공사를 위한 구별 기능이 찾아진다.
본 발명의 목적은 차량의 카메라 시스템의 도움으로 유효 차선 마킹을 결정하기 위한 방법 및 장치를 명시하고, 영구 차선 마킹과 임시 차선 마킹 사이의 구분을 향상시키는 것이다.
이러한 목적은 청구항 1의 기능을 가지는 방법과 독립 장치 청구항의 기능을 가지는 장치에 의해 해결된다. 본 발명의 유리한 발전은 종속 청구항에서 지정된다.
창의적인 방법과 창의적인 장치에 의해 달성되는 것은 적어도 두 개의 다른 차선 마킹으로부터 유효 차선 마킹을 선택할 때, 두 개의 감지된 차선 마킹에 전방에서 구동하는 차량의 상대적인 위치가 고려된다는 점이다.
감지된 차선 마킹에 상대적인 전방에서 구동하는 차량의 움직임의 코스를 결정하는 것과 감지된 차선 마킹의 어떤 것이 차량의 움직임 코스에 의해 유효 차선 마킹인지를 결정하는 것은 유리하다. 감지된 차선 마킹의 어떤 것이 유효 차선 마킹인지를 결정할 때, 추가 결정 기준이 고려될 수 있다, 제1 차선 마킹에 상대적이고 제2 차선 마킹에 상대적인 자신의 차량의 위치처럼, 차선의 코스에 상대적인 자신 차량의 조향각(steering angle) 또는 자신 차량의 편주 각도(yaw angle) 및/또는 자신 차량의 속도.
적어도 두 개의 기초로, 바람직하게 사진 시리즈로 연속하여 촬영된 적어도 세 개의 사진에 기초로 하여, 전방에서 구동하는 차량의 움직임의 코스를 결정하는 것이 특히 유리하다. 전방에서 구동하는 차량의 움직임의 결정된 코스와 적어도 두 개의 감지된 차선 마킹의 코스에 기반하여, 그 다음 차선 마킹의 하나가 유효 차선 마킹으로 선택될 수 있다.
또한, 각각의 차선 마킹이 오른쪽 마킹 라인과 왼쪽 마킹 라인으로 구성할 때 전방에서 구동하는 차량의 위치는 마킹 라인에 상대적으로 결정됨이 유리하다. 바람직하게 전방에서 구동하는 차량의 움직임의 코스가 적어도 미리 가능하게 두 개의 마킹 라인의 코스에 해당하는지가 검사된다. 관련성 정도, 즉 관련성 확률이 알려진 패턴 인식 방법, 즉 소위 패턴 매칭 방법을 사용함에 의해 결정될 수 있다. 마킹 라인은 부러진 라인(broken lines) 또는 실선 (solid lines)일 수 있다.
또한 두 위치에 대해 미리 정해진 범위내에 수평 오프셋 라인, 두 개의 결정된 위치를 위해 차선의 트래픽 방향에 가로 오프셋 횡측을 가지는 유효 차선 마킹으로 적어도 두 개의 차선 마킹으로부터 선택하는 것이 유리하다. 바람직하게, 위치는 차선에 차량 세로 축에 따라 수직인 참조 위치의 기준으로 결정된다. 그 다음 범위는 예를 들어, 0.8m에서 1.5m에, 바람직하게 0.8m에서 1.2m에 미리 조정된다. 또한, 전방에서 구동하는 차량의 결정된 위치에 차선 마킹은 대략 동등한 수평 거리를 가지거나 하나의 결정된 위치에 대해 적어도 보다 작은 수평 거리가 유효 차선 마킹으로 선택될 수 있다.
또한, 감지된 차선 마킹의 하나의 적어도 하나의 마킹 라인의 교차를 감지하고 유효 차선 마킹의 결정을 고려하는 것이 유리하다. 두 개의 감지된 차선 마킹의 하나의 마킹 라인의 교차는 이러한 차선 마킹이 관련 차선 마킹이 아니라는 것을 암시한다.
바람직하게 흑백 카메라, 특히 모노 흑백 카메라와 스테레오 흑백 카메라는, 사진 촬영을 위해 사용된다. 모터 차량에서 사용을 위해 적합한 흑백 카메라는 일반적으로 모터 차량에서 사용을 위해 적합한 컬러 카메라에 비교하여 보다 더 비용 효율적이고, 흑백 카메라는 일반적으로 높은 해상도와 밝기 레벨의 감지에서 보다 높은 동적이고 이에 따라 특히 감지 영역의 낮은 조명으로 오브젝트의 이미지의 보다 나은 감지가 동급 컬러 카메라에 비교되어 가능하다.
유효 차선 마킹을 결정하기 위해, 제1 결정된 차선 마킹의 코스와 전방에서 구동하는 차량의 움직임의 코스 사이에 제1 관련성 정도 뿐만 아니라 결정된 제2 차선 마킹의 코스와 전방에서 구동하는 차량의 움직임의 코스 사이에 제2 관련성 정도를 결정하는 것이 특히 유리하다. 더 높은 관련성 정도를 가지는 차선 마킹이 그 다음 유효 차선 마킹으로 선택될 수 있다. 여기서 오직 최소 관련성 정도를 가질 때 및/또는 제1 정도와 제2 정도 사이의 차이가 미리 설정된 최소 차이를 초과할 때 관련 차선 마킹으로 최상 관련성 정도를 가지는 차선 마킹을 선택하는 것이 유리하다.
차선 출발 경고 시스템이 유효 차선 마킹으로 결정된 차선 마킹의 코스 또는 유효 차선 마킹으로 선택된 차선 마킹 상의 정보로 제공될 때 특히 유리하다. 그 다음 드라이버 지원 시스템은 따라야 하는 차선 마킹으로 결정된 유효 차선 마킹의 코스를 고려한다. 차선 출발 경고 시스템은 특히 차선 변경 지원 시스템일 수 있다.
또한, 제1 차선 마킹에 상대적이고 제2 차선 마킹에 상대적인 자신 차량의 위치는 바람직하게 반복적으로, 결정될 수 있다. 결정된 위치 또는 결정된 위치들은 관련된 차선 마킹의 선택을 고려된다. 특히, 전방에서 구동하는 차량 및/또는 자신 차량의 결정된 위치, 감지된 차선 마킹의 결정된 코스 및/또는 조정 움직임(steering movement) 또는 자신 차량의 편주 비율은 분류로 공급될 수 있고 그 다음 이들 입력 변수에 기초하여 관련 차선 마킹을 결정한다.
여러 번 제1 차선 마킹에 상대적이고 제2 차선 마킹에 상대적인 자신 차량의 위치를 결정하는 것, 이들 결정된 위치에 기초하여 자신 차량의 움직임의 코스를 결정하는 것 및 예를 들어 유효 차선 마킹을 결정하기 위해 분류를 위한 입력 변수로 유효 차선 마킹의 선택에서 이러한 움직임 코스를 고려하는 것이 특히 유리하다. 자신 차량의 움직임의 코스는 조정 각도와 자신 차량의 속도의 도움으로 결정될 수 있다.
독립 장치 청구항의 장치가 창의적인 방법으로 같은 방식으로 특히 종속 청구항에 지정된 기능 또는 각각의 장치 기능에 의해, 발전될 수 있다.
본 발명의 추가 기능과 장점은 다음 설명으로부터 결정하고, 첨부된 도면과 연결되어 실시예 참조로 상세하게 본 발명을 설명한다.
도 1은 교통 상황에서 차량의 구조도의 측면을 보여준다, 차량은 사진을 촬영하고 처리하는 장치를 가진다.
도 2는 장치의 도움으로 촬영된 제1 사진의 도면을 보여준다, 사진에서 전방에서 구동하는 차량이 도시된다.
도 3은 장치의 도움으로 촬영된 제2 사진의 도면을 보여준다, 사진에서 전방에서 구동하는 차량과 영구 차선 마킹 뿐만 아니라 임시 차선 마킹이 도시된다.
도 4는 장치의 도움으로 촬영된 제3 사진을 보여준다, 사진에서 전방에서 구동하는 차량과 영구 차선 마킹 뿐만 아니라 임시 차선 마킹이 도시된다.
도 5는 도 1에 따른 사진을 촬영하고 처리하기 위한 장치의 구성 요소를 가지는 블록도이다.
도 1에서, 차량(12)의 측면은 차선(14)을 따라 차량(12)의 운행 기간 동안 교통 상황(10)에 표시된다. 차량(12)은 적어도 하나의 카메라(17)를 가지는 카메라 시스템(16)을 구비한다. 본 실시예에서, 카메라 시스템(16)은 그레이 스케일 사진을 촬영하기 위한 모노 카메라 시스템과 흑백 카메라 시스템이다. 카메라 시스템(16)은 차량(12)의 앞에서 감지 영역의 이미지로 사진의 시리즈를 촬영한다. 수평 감지 영역은 브러진 라인(18, 20)에 의해 도 1에 간략하게 도시된다. 또한, 사진에 해당하는 이미지 데이터는 생성된다. 생성된 이미지 데이터는 이들 데이터를 처리하는 유닛인, 차량(12)에 배열된 카메라 시스템(16)으로부터 프로세싱 유닛(22)으로 전송된다. 특히, 이미지 데이터는 차량(12)의 드라이버를 위해 드라이버 지원 시스템을 제공하기 위해 프로세싱 유닛(22)에서 처리된다. 카메라 시스템(16)의 카메라(17)의 사진 회수 비율은 바람직하게 초당 10-50 사진이다. 사진은 연속하여 이 비율에서 카메라에 의해 촬영되고 연속으로 프로세싱 유닛(22)에 의해 처리된다.
카메라 시스템(16)에 의해 생성된 오브젝트(28)의 이미지 데이터는 프로세싱 유닛(22)에 의해 처리되고, 오브젝트(28)의 이미지는 오브젝트 이미지 또는 오브젝트로 감지되고, 바람직하게 오브젝트(28)의 오브젝트 형태는 분류된다. 같은 방식으로, 교통 표지판, 차선 표시등, 가로등, 차선(14) 상에 전방에서 구동하는 차량 및 다가오는 차선상에 마주오는 차량은 오브젝트로 감지될 수 있고 이들 오브젝트 형태는 분류될 수 있다. 특히, 사진에서 감지된 오브젝트(28)의 이미지의 위치는 사진 시리즈의 다음 사진에서 같은 오브젝트(28)의 이미지의 위치에 결정되고 비교된다. 단순화를 위해, 사진에서 오브젝트의 이미지의 위치는 사진에서 오브젝트의 위치로 또는 오브젝트의 사진 위치로 다음에서 간략하게 언급된다. 제1 사진과 이러한 제1 사진 후에 촬영된 제2 사진에서 오브젝트(28)의 위치의 비교는 예를 들어 운전 행위에 영향을 주기 위해 및/또는 자신 차량과 환경상에 정의된 정보로 차량(12)의 드라이버에 제공하기 위해 사용된다. 이러한 정보는 예를 들어 또한 드라이버 지원 시스템, 특히 차선 변경 지원 시스템을 위해 입력 데이터로 제공할 수 있다.
도 2에서, 카메라(17)의 도움으로 촬영된 차량(12)의 앞에서 카메라(17)의 감지 영역의 제1 사진(30)이 표시된다. 사진(30)에서, 지평선은 실선(32)으로 도시된다. 또한, 사진은 전방에서 구동하는 차량(34)의 이미지, 차선 마킹(36-42)의 이미지 및 바깥쪽 차선에 다음에 옆으로 정렬된 가드 레일(44, 46)의 이미지 뿐만 아니라 차선 다음에 옆으로 정렬된 교통 표지판(48, 50)을 구성한다. 도 2에서, 차선 마킹(36-42)은 단지 간략하게 실선으로 도시된다. 사실, 차선 마킹은 또한 브러진 라인의 형태로 존재할 수 있고, 더 나은 인식을 위해, 약간 큰 폭을 가질 수 있다. 사진(30)에서, 화살(52)은 자신 차량의 운행 방향 뿐만 아니라 전방에서 구동하는 차량의 운행 방향을 지시하게 도시된다. 화살(52)의 시작 포인트(P1)는 카메라(17)의 도움으로 차량(12)의 앞에 감지 영역의 촬영된 사진 시리즈의 이전 사진에서 결정된 전방에서 구동하는 차량(34)의 위치이다. 끝 포인트(P4)는 도 2에 도시된 사진(30)에서 결정된 위치에 기반하여 전방에서 구동하는 차량(34)에 적용한다. 사진 사이에, 위치(P1)에 기반된 결정되고, 사진(30) 복수의 추가 사진은 카메라(17)의 도움으로 촬영될 수 있다. 이들 사진의 적어도 일부분의 이미지 데이터는 마찬가지로 처리되고, 또는 전방에서 구동하는 차량(34)의 위치는 반복적이지만 반드시는 아닌 결정될 수 있다.
도 3에서, 카메라(17)의 도움으로 촬영된 추가 사진(54)은 도시된다. 도 2에 따른 사진(30)에 도시된 요소 뿐만 아니라, 사진(54)은 임시 차선 마킹(56, 58)의 이미지를 구성한다. 또한, 도로 공사(60)와 도로 건설 장벽(62)의 이미지는 사진(54)에서 보여질 수 있다. 임시 차선 마킹(56, 58)의 도움으로 정의된 차선은 차선 마킹(38, 40)에 의해 경계가 정해진 차선의 코스로부터 벗어나고 이에 따라 교통은 이러한 차선으로부터 마킹(40, 42)으로 경계가 정해진 차선으로 전환된다. 단순화된 도면에 대해, 사진(30, 54)은 부가적으로 현재 차선 마킹(56, 58), 도로 공사(60, 62) 및 전방에서 구동하는 차량(34)의 위치에 의해 서로 오직 다르다. 다음 설명의 단순화를 위해, 화살(52)은 도 3에 따라 사진(54)에 마찬가지로 도시된다. 또한, 화살(64)은 전방에서 구동하는 차량(34)의 몇 개의 위치(P1-P4)를 지시하게 도시되고 따라서 차량(34)의 움직임 코스를 보여준다. 사진(54) 전에 촬영된 제1 사진에서, 전방에서 구동하는 차량(34)의 위치(P1)는 결정된다. 제1 사진 후에 촬영된 사진에서, 그러나 사진(54) 전에 촬영된, 전방에서 구동하는 차량(34)의 위치(P2)는 결정된다. 사진(54) 전에 촬영된 제3 사진에서, 전방에서 구동하는 차량(34)의 위치(P3)는 결정된다. 사진(54)에서, 전방에서 구동하는 차량(34)의 위치(P4)는 결정된다. 이들 결정된 위치를 연결함에 의해, 따라서 위치(P1)과 위치(P4) 사이에 전방에서 구동하는 차량(34)의 움직임 코스를 지시하는 화살(64)을 결정한다. 제1 및 제2 사진의 장면 사이에, 제2 및 제3 사진의 장면 사이에, 및 제3 사진과 사진(54)의 장면 사이에, 추가 사진의 다수가 촬영되고 평가될 수 있다. 화살(64)에 의해 도시된 전방에서 구동하는 차량(34)의 움직임의 결정된 코스는 임시 차선 마킹(56, 58)에 실질적으로 병렬로 이동하고 차선 마킹(38, 40)의 코스로부터 폭넓게 다르다. 화살(64)에 의해 지시되는 전방에서 구동하는 차량(34)의 움직임 코스는 위치(P3 및 P4) 사이에 원래 차선 마킹(40)을 교차한다. 영구 차선 마킹(38, 40)에 비교되는 임시 차선 마킹(56, 58)으로 전방에서 구동하는 차량(34)의 움직임의 결정된 코스의 보다 높은 관련성의 결과로, 차선 마킹(56, 58)은 유효 차선 마킹(56, 58)으로 결정되고 드라이버 지원 시스템을 위한 관련 또는 유효 차선 마킹(56, 58)으로 제공된다. 그러나, 전방에서 구동하는 차량을 위한 위치로 위치(P1, P2*, P3* 및 P4*)가 몇 개의 연속하여 촬영된 사진에서 결정되면, 차선 마킹(38, 40)에 병렬인 전방에서 구동하는 차량(34)의 움직임 코스는 이들 위치(P1, P2*, P3*, P4*)의 수단에 의해 결정된다. 그 다음 움직임 코스는 차선 마킹(56)을 교차한다. 화살(52)에 의해 마크된 움직임 코스는 따라서 차선 마킹(38, 40)의 코스에 해당하고 이에 따라 이들 차선 마킹(38, 40)은 그 다음 유효 차선 마킹으로 사용될 수 있다.
그러나 다른 요인은 유효 차선 마킹의 결정 또는 결정된 유효 차선 마킹의 평가에서 뿐만 아니라 사용될 수 있다. 특히, 차선에 가로로 정렬된 경고 장벽(62)은 결정된 유효 차선 마킹을 결정하거나 평가하는데 사용될 수 있다. 또한 자신 차량(12)의 위치, 차량(12)의 조정 각도 또는 차량(12)의 조향 각도 뿐만 아니라 차량(12)의 속도는 유효 차선 마킹의 결정 또는 평가에서 고려될 수 있다.
일반적으로, 전방에서 구동하는 기존 차량(34)의 행동이 관찰되고 유효 차선 마킹의 선택에서 고려된다. 또한 또는 대체로, 자신 차량(12)의 운전 행동이 유효 차선 마킹의 결정에서 고려될 수 있다.
차량(12, 34)이 유효 차선의 중앙에서 가령 운행한다고 가정될 수 있다, 이것은 전방에서 구동하는 차량(34)과 자신 차량(12) 둘 다 참이다. 기술된 접근의 도움으로, 유효 차선 마킹은 중복한 차선 마킹의 경우에 쉽게 결정될 수 있다. 이것은 도로 공사(60)가 적어도 한 차선의 마감을 요청할 때 특히 필요할 수 있다. 때, 움직임(54)의 코스를 분석함에 의해, 도 3에 도시된 것처럼, 차량이 도로 공사(60)의 영역에 진입하기 전 전방에서 구동하는 차량(34)이 상대적으로 갑자기 방향을 변화함이 결정된다, 그 다음 드라이버 지원 시스템은 몇가지 연속적으로 촬영된 사진에서 전방에서 구동하는 차량(34)의 위치 변화의 비교 방식에 의해 전방에서 구동하는 차량(34)의 운행 방향의 갑작스런 변화에 기초하여 차선 마킹(56, 58)으로 차선에 전송을 결정할 수 있다. 차선 마킹(56, 58)에 의해 경계되는 차선은 또한 공사 구역 차선으로 언급된다.
도 4에서, 카메라(17)의 도움으로 촬영된 추가 사진(66)이 도시되고, 전방에서 구동하는 차량(34)이 차량(12) 앞에 위치된다. 전방에서 구동하는 차량(34)과 임시 차량 마킹(56, 58) 사이의 측면 거리의 방식에 의해, 관련 차선 마킹 또는 유효 차선 마킹으로 여전히 감지된다. 영구 차선 마킹(40)은 여전히 올바르지 않은 차선 마킹으로 감지된다.
일반적으로, 본 발명에 따라 자신 차선의 결정과 해석에 대한 정보가 전방에서 구동하는 감지된 차량(34)의 도움으로 결정되고, 정보에 기초하여 유효 차선 마킹 또는 유효 차선은 몇가지 다른 차선 마킹 또는 차선들로부터 결정된다. 유효 차선의 결정에서 차량(12)의 자신 움직임을 고려하는 것이 특히 유리하다.
도 5에서, 프로세싱 유닛(22)과 카메라 시스템(16)을 가지는 블록도가 도시된다. 시스템의 도움으로 유효 차선 마킹은 선택되거나 유효 차선 마킹(56, 58)으로 이들 차선 마킹(56, 58)의 원래 선택은 확인된다. 프로세싱 유닛(22)은 중앙 처리 유닛(CPU, 78), 데이터 버스(80) 및 세 개의 저장 요소(82-86)를 구성한다.
프로세싱 유닛(22)은 제1 인터페이스(76)를 통해 카메라 시스템(16)에 연결된다. 또한, 프로세싱 유닛(22)은 제2 인터페이스(88)를 구성한다, 제2 인터페이스를 통해 프로세싱 유닛(22)의 도움으로 처리된 데이터는 예를 들어, 빛 제어 모듈(24)인 다른 요소로 출력될 수 있다. 바람직하게, 제2 인터페이스(88)는 차량 버스 시스템에 연결을 형성한다.
CPU(78), 제1 인터페이스(76), 제2 인터페이스(88) 및 저장 요소(82, 84, 86)는 데이터 버스(80)를 통해 서로 연결된다. 카메라 시스템(16)의 도움으로 생성된 사진(44a-44c, 52)에 해당하는 이미지 데이터는 입력 데이터로 제1 인터페이스(76)를 통해 카메라 시스템(16)으로부터 프로세싱 유닛(22)으로 전송된다. 이미지 데이터는 제1 저장 요소(82)에 저장된다. 프로세싱 유닛(22)의 제2 저장 요소(84)에서 이미지 위치(P1-P4, P1-P4*)를 결정하기 위해 적어도 하나의 이미지 처리 프로그램의 적어도 프로그램 데이터가 저장된다. 마찬가지로, 제2 저장 요소(84)에서 결정된 이미지 위치(P1-P4)와 감지된 차선 마킹(36-42, 56, 58)의 코스에 기반하여 유효 차선 및/또는 유효 차선 마킹(56, 58)을 결정하기 위한 루틴의 프로그램 데이터가 저장된다.
카메라(17)의 도움으로 연속하여 촬영된 사진 사이에 전방에서 구동하는 차량(34)의 위치에서 결정된 변화는 그 다음 차선 변경 지원 시스템을 위한 입력 변수 및/또는 제2 인터페이스(88)를 통한 출력으로 사용된다. 이러한 차선 변경 지원 시스템은 또한 차선 출발 경고 시스템으로 언급된다.
본 발명은 그레이 레벨 사진을 촬영하기 위한 모노 카메라와 관련하여 설명된다. 그러나, 본 발명은 마찬가지로 스테레오 카메라 시스템 및/또는 컬러 카메라에서 같은 방식으로 사용될 수 있다.

Claims (11)

  1. 카메라 시스템(16)의 카메라(17)의 도움으로 차량(12) 전방 영역의 이미지를 가진 여러 사진(30, 54, 66)이 연속으로 사진 시리즈로 촬영되고, 각각의 사진(30, 54, 66)에 해당하는 이미지 데이터가 생성되며,
    사진 시리즈의 사진(30, 54, 66) 중 적어도 일부의 이미지 데이터가 처리되고,
    적어도 제1 차선 마킹(38, 40)과, 상기 제1 차선 마킹과 다른 제2 차선 마킹(56, 58)이, 상기 사진 시리즈 중 적어도 하나의 사진에서 감지되고,
    상기 차량(12)의 전방 구동하는 차량(34)이 상기 사진 시리즈의 적어도 두 개의 연속적으로 촬영된 사진(30, 54, 66)에서 감지되고,
    상기 적어도 두 개의 사진 각각에 대해, 상기 제1 차선 마킹(38, 40)에 비해 전방에서 구동하는 상기 차량(34)의 위치(P1-P4; P1-P4*)와, 상기 제2 차선 마킹(56, 58)에 비해 전방에서 구동하는 상기 차량(34)의 위치(P1-P4; P1-P4*)가 결정되고,
    상기 사진의 도움으로 결정된 전방에서 구동하는 상기 차량(34)의 위치(P1-P4; P1-P4*)에 따라, 상기 감지된 차선 마킹(38, 40; 56, 58)의 하나는 유효 차선 마킹으로 선택되는,
    특히 도로 차량에서, 차량의 카메라 시스템의 도움으로 유효 차선 마킹을 결정하는 방법.
  2. 제1항에 있어서,
    전방에서 구동하는 상기 차량(34)의 움직임(52, 64)의 코스가 결정되고,
    전방에서 구동하는 상기 차량(34)의 움직임(52, 64)의 결정된 코스와 적어도 두 개의 감지된 차선 마킹(38, 40; 56, 58)의 코스에 기반하여 상기 차선 마킹(38, 40; 56, 58) 중 하나가 유효 차선 마킹으로 선택되고,
    바람직하게 사진 시리즈로 연속으로 촬영된 상기 사진의 적어도 세 개에, 적어도 두 개에 기반하여 특징되는 방법.
  3. 제1항 또는 제2항에 있어서,
    적어도 두 개의 차선 마킹(38, 40; 56, 58)으로부터 상기 차선 마킹(38, 40; 56, 58)이 유효 차선 마킹(38, 40)으로 선택되고, 모두 결정된 위치에 대해, 두 위치(P1-P4; P1-P4*)를 위한 현 범위내에 차선(14)의 트래픽 방향에 가로 오프셋 횡측(lateral offset transverse)을 가지거나 미리 결정된 위치(P1-P4; P1-P4*)가 보다 작은 가로 거리를 가지는 점에서 특징되는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 감지된 차선 마킹(38, 40; 56, 58) 중 적어도 하나의 교차점이 감지되고 유효 차선 마킹(38, 40; 56, 58)의 결정에 고려되는 점에서 특징되는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    제1 결정된 차선 마킹(38, 40)의 코스와 전방에서 구동하는 차량(34)의 움직임(52, 64)의 코스 사이의 제1 관련성 정도와 제2 결정된 차선 마킹(56, 58)의 코스와 전방에서 구동하는 차량(34)의 움직임(52, 64)의 코스 사이의 제2 관련성 정도가 결정되고, 차선 마킹(38, 40; 56, 58)이 유효 차선 마킹으로 선택되는 관련성의 높은 정도를 가지는 점에서 특징되는 방법.
  6. 제5항에 있어서,
    오직 관련성의 정도가 관련성의 최소 정도를 가질 때, 및/또는 제1 정도와 제2 정도 사이의 차이가 현 최소 차이를 초과할 때, 관련성의 최상위 정도를 가지는 차선 마킹(38, 40; 56, 58)이 유효 차선 마킹(38, 40; 56, 58)으로 선택되는 점에서 특징되는 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    차선 마킹(38, 40; 56, 58)의 코스가 유효 차선 마킹으로 결정되거나, 차선 마킹(38, 40; 56, 58)의 정보가 유효 차선 마킹으로 선택됨을 갖도록 차선 출발 경고 시스템이 제공되고, 드라이버 지원 시스템이 유효 차선 마킹(38, 40; 56, 58)의 코스를 다음으로 차선 마킹(38, 40; 56, 58)으로 처리하는 점에서 특징되는 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    제1 차선 마킹(38, 40)에 상대적이고 제2 차선 마킹(56, 58)에 상대적인 자신의 차량(12)의 위치 또한 결정되고, 바람직하게 반복하고, 결정된 위치가 유효 차선 마킹(38, 40; 56, 58)의 선택을 고려하는 점에서 특징되는 방법.
  9. 제8항에 있어서,
    제1 차선 마킹(38, 40)에 상대적이고 제2 차선 마킹(56, 58)에 상대적인 자신의 차량(12)의 위치가 여러 번 결정되고, 자신의 차량(12)의 움직임의 코스가 유효 차선 마킹(38, 40; 56, 58)의 선택을 고려하는 점에서 특징되는 방법.
  10. 제9항에 있어서,
    자신의 차량(12)의 움직임(52, 64)의 코스가 조향각의 도움과 자신의 차량(12)의 속도로 결정되는 점에서 특징되는 방법.
  11. 사진 시리즈로 차량(12)의 전방 영역의 이미지를 가지는 여러 사진(30, 54, 66)을 연속으로 촬영하고 각각의 사진(30, 54, 66)에 해당하는 이미지 데이터를 생성하기 위한 카메라(17)를 가지는 카메라 시스템(16)과,
    사진 시리즈의 사진(30, 54, 66)의 적어도 일부분의 이미지 데이터를 처리하기 위한 프로세싱 유닛(22)과, 상기 프로세싱 유닛(22)은 적어도 두 개의 다른 차선 마킹(38, 40; 56, 58)에서 사진 시리즈의 적어도 하나의 사진(30, 54, 66)을 감지함,
    상기 프로세싱 유닛(22)은 사진 시리즈의 적어도 두 개의 사진(30, 54, 66)에서 차량(12)의 전방에서 구동하는 차량(34)을 감지하고 각각의 시간에 감지된 제1 차선 마킹(38, 48; 56, 58)에 상대적으로 전방에서 구동하는 차량(34)의 위치(P1-P4; P1-P4*)와 적어도 두 개의 사진 각각에 대해 제2 차선 마킹에 상대적인 차량의 위치를 결정하고, 및
    두 차선 마킹(38, 40; 56, 58)에 상대적으로 전방에서 구동하는 차량(34)의 결정된 위치(P1-P4; P1-P4*)에 따라 상기 프로세싱 유닛(22)이 이들 감지된 차선 마킹(38, 40; 56, 58)의 하나를 유효 차선 마킹(56, 58)으로 선택하는,
    특히 도로 차량에서, 차량(12)의 카메라 시스템(16)의 도움으로 유효 차선 마킹을 결정하는 장치.
KR1020117019023A 2009-02-04 2010-02-04 유효 차선 마킹을 결정하기 위한 방법 및 장치 KR20110113185A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009007342.6 2009-02-04
DE102009007342A DE102009007342A1 (de) 2009-02-04 2009-02-04 Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung

Publications (1)

Publication Number Publication Date
KR20110113185A true KR20110113185A (ko) 2011-10-14

Family

ID=42269354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117019023A KR20110113185A (ko) 2009-02-04 2010-02-04 유효 차선 마킹을 결정하기 위한 방법 및 장치

Country Status (7)

Country Link
US (2) US9626571B2 (ko)
EP (1) EP2394234B1 (ko)
JP (1) JP5679461B2 (ko)
KR (1) KR20110113185A (ko)
CN (1) CN102308304B (ko)
DE (1) DE102009007342A1 (ko)
WO (1) WO2010089345A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007286A (ko) * 2017-07-12 2019-01-22 엘지전자 주식회사 차량용 주행 시스템 및 차량

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US9959595B2 (en) 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
DE102010042440B4 (de) 2010-10-14 2021-09-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Einstellen eines Eingriffsmoments eines Lenkassistenzsystems
JP5389864B2 (ja) * 2011-06-17 2014-01-15 クラリオン株式会社 車線逸脱警報装置
US8880273B1 (en) 2013-01-16 2014-11-04 Google Inc. System and method for determining position and distance of objects using road fiducials
US11907972B2 (en) * 2013-04-17 2024-02-20 Privowny, Inc. Systems and methods for online advertising using user preferences
US9145139B2 (en) * 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
DE102013217860A1 (de) * 2013-09-06 2015-03-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen eines Fahrbahnverlaufs einer Fahrbahn eines Fahrzeugs
EP2918974B1 (en) * 2014-03-11 2019-01-16 Volvo Car Corporation Method and system for determining a position of a vehicle
CN106164930B (zh) * 2014-04-04 2019-11-08 戴尔菲技术公司 车道检测方法和车辆
JP6363516B2 (ja) * 2015-01-21 2018-07-25 株式会社デンソー 車両の走行制御装置
CN105426861B (zh) * 2015-12-02 2019-05-21 百度在线网络技术(北京)有限公司 车道线确定方法及装置
DE102016009304A1 (de) * 2016-08-01 2018-02-01 Lucas Automotive Gmbh Steuerungs-System und Steuerungs-Verfahren zum Bestimmen einer Fahrbahn
US10210406B2 (en) * 2016-08-19 2019-02-19 Dura Operating, Llc System and method of simultaneously generating a multiple lane map and localizing a vehicle in the generated map
CN106297412B (zh) * 2016-09-28 2019-10-18 深圳市元征科技股份有限公司 车辆并道提示方法及装置
DE102017200545A1 (de) 2017-01-16 2018-07-19 Continental Teves Ag & Co. Ohg Vorrichtung und Verfahren zum Detektieren einer Baustelle für ein Kraftfahrzeug
CN108128246B (zh) * 2017-12-19 2021-01-08 深圳大学 一种车辆偏航警示与控制方法及系统
EP3570206B1 (en) * 2018-05-15 2023-12-06 Aptiv Technologies Limited A device and a method for searching for a lane on which a vehicle can drive
DE102018120049A1 (de) * 2018-08-17 2020-02-20 Valeo Schalter Und Sensoren Gmbh Method for recognizing driving lanes for a motor vehicle with selection of a temporary driving lane by a user on a display unit, as well as vehicle guidance system and computer program product
FR3085746B1 (fr) * 2018-09-06 2021-04-30 Renault Sas Procede de detection de faux positifs d’un dispositif de traitement d’image d’une camera
US11010617B2 (en) 2018-12-12 2021-05-18 Here Global B.V. Methods and systems for determining roadwork zone extension based on lane marking data
US11262209B2 (en) 2018-12-12 2022-03-01 Here Global B.V. Methods and systems for road work extension identification
US10976164B2 (en) 2018-12-12 2021-04-13 Here Global B.V. Methods and systems for route generation through an area
FR3094318B1 (fr) * 2019-03-28 2021-02-26 Renault Sas Procédé de commande du positionnement d’un véhicule automobile sur une voie de circulation
CN112874527A (zh) * 2019-11-29 2021-06-01 奥迪股份公司 辅助驾驶装置、包括其的车辆及相应的方法和介质
KR20220133007A (ko) * 2021-03-24 2022-10-04 현대자동차주식회사 차량의 주행 지원 장치 및 그것의 동작 방법
DE102021208245A1 (de) 2021-07-29 2023-02-02 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Kraftfahrzeug mit einem Fahrerassistenzsystem
FR3140051A1 (fr) * 2022-09-22 2024-03-29 Psa Automobiles Sa Méthodes et systèmes de détection des lignes de délimitation temporaires des voies de circulation

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4133882A1 (de) * 1990-10-24 1992-04-30 Volkswagen Ag Verfahren zum selbsttaetigen nachfuehren eines fahrzeugs auf der spur eines vorausfahrenden fahrzeugs
WO1997042521A1 (de) * 1996-05-08 1997-11-13 Daimler-Benz Aktiengesellschaft Verfahren zur erkennung des vorausliegenden fahrbahnverlaufs für kraftfahrzeuge
JP4157620B2 (ja) * 1998-06-19 2008-10-01 株式会社東芝 移動物体検出装置及びその方法
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
US7113867B1 (en) * 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
JP2004206275A (ja) * 2002-12-24 2004-07-22 Denso Corp 自動運転制御システム
DE10311240B4 (de) 2003-03-14 2017-03-02 Robert Bosch Gmbh Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
GB0325990D0 (en) * 2003-11-07 2003-12-10 Trw Ltd Method and apparatus for discriminating the colour of road markings
JP4107587B2 (ja) * 2003-12-17 2008-06-25 三菱電機株式会社 車線認識画像処理装置
DE102004003848A1 (de) 2004-01-26 2005-08-11 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP3722486B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP3722487B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP3898709B2 (ja) * 2004-05-19 2007-03-28 本田技研工業株式会社 車両用走行区分線認識装置
JP4437714B2 (ja) * 2004-07-15 2010-03-24 三菱電機株式会社 車線認識画像処理装置
DE102004040143A1 (de) * 2004-08-19 2006-02-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerinformation
DE102004052127A1 (de) 2004-10-27 2006-05-04 Hella Kgaa Hueck & Co. Verfahren zur Spurführung eines straßengebundenen Fahrzeugs
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
US7415134B2 (en) * 2005-05-17 2008-08-19 Honda Motor Co., Ltd. Traffic lane marking line recognition system for vehicle
JP4365350B2 (ja) * 2005-06-27 2009-11-18 本田技研工業株式会社 車両及び車線認識装置
DE102005039103A1 (de) * 2005-08-18 2007-03-01 Robert Bosch Gmbh Verfahren für die Erfassung eines Verkehrsraums
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
KR101075615B1 (ko) * 2006-07-06 2011-10-21 포항공과대학교 산학협력단 주행 차량의 운전자 보조 정보 생성 장치 및 방법
JP4258539B2 (ja) * 2006-08-31 2009-04-30 株式会社日立製作所 複数画角カメラ
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
JP4360403B2 (ja) * 2006-12-27 2009-11-11 トヨタ自動車株式会社 車載用障害物検知装置
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
DE102007017293A1 (de) * 2007-04-12 2008-10-16 Continental Automotive Gmbh Fahrspurdetektion mit Schwarz-Weiß-Kamera und Farbkamera
DE102007053305A1 (de) * 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
US20090173301A1 (en) * 2008-01-09 2009-07-09 Roller Bearing Company Of America, Inc Surface treated rocker arm shaft
JP5574789B2 (ja) * 2010-04-08 2014-08-20 株式会社東芝 車両周辺監視装置及び車両周辺監視方法
US9251708B2 (en) * 2010-12-07 2016-02-02 Mobileye Vision Technologies Ltd. Forward collision warning trap and pedestrian advanced warning system
CN103148183B (zh) * 2011-12-07 2017-10-24 舍弗勒技术股份两合公司 用于连续牵引机构的板簧张紧器
TWI573097B (zh) * 2012-01-09 2017-03-01 能晶科技股份有限公司 用於行動載具之影像擷取裝置及其影像疊合方法
DE102012203037A1 (de) * 2012-02-28 2013-08-29 Continental Automotive Gmbh Verfahren zur Ermittlung der Geschwindigkeit und/oder Position eines Fahrzeuges
JP5935435B2 (ja) * 2012-03-26 2016-06-15 富士通株式会社 画像処理装置、画像処理方法
CN104422426B (zh) * 2013-08-30 2017-07-11 博世汽车部件(苏州)有限公司 在高架道路区域内提供车辆导航信息的方法和设备
JP6396672B2 (ja) * 2014-04-23 2018-09-26 クラリオン株式会社 情報表示装置及び情報表示方法
JP6325670B2 (ja) * 2014-06-10 2018-05-16 クラリオン株式会社 車線選択装置、車両制御システム及び車線選択方法
DE102014221888A1 (de) * 2014-10-28 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in seinem Umfeld
US10946799B2 (en) * 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
US10449899B2 (en) * 2015-05-08 2019-10-22 Magna Electronics Inc. Vehicle vision system with road line sensing algorithm and lane departure warning
US9898671B2 (en) * 2015-05-11 2018-02-20 Magna Electronics Inc. Vehicle vision system with structure and motion estimation
US10187590B2 (en) * 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
US10607485B2 (en) * 2015-11-11 2020-03-31 Sony Corporation System and method for communicating a message to a vehicle
US10430674B2 (en) * 2015-12-14 2019-10-01 Magna Electronics Inc. Vehicle vision system using reflective vehicle tags
CN107181908B (zh) * 2016-03-11 2020-09-11 松下电器(美国)知识产权公司 图像处理方法、图像处理装置及计算机可读记录介质
US10587818B2 (en) * 2016-08-02 2020-03-10 Magna Electronics Inc. Vehicle vision system with enhanced camera brightness control
JP2018036444A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007286A (ko) * 2017-07-12 2019-01-22 엘지전자 주식회사 차량용 주행 시스템 및 차량

Also Published As

Publication number Publication date
US10183666B2 (en) 2019-01-22
US9626571B2 (en) 2017-04-18
CN102308304A (zh) 2012-01-04
CN102308304B (zh) 2013-08-21
US20180257641A1 (en) 2018-09-13
JP2012517058A (ja) 2012-07-26
EP2394234A1 (de) 2011-12-14
WO2010089345A1 (de) 2010-08-12
JP5679461B2 (ja) 2015-03-04
EP2394234B1 (de) 2018-06-13
US20120033074A1 (en) 2012-02-09
DE102009007342A1 (de) 2010-08-05

Similar Documents

Publication Publication Date Title
KR20110113185A (ko) 유효 차선 마킹을 결정하기 위한 방법 및 장치
KR102524851B1 (ko) 차로 병합 및 차로 분리의 항법을 위한 시스템 및 방법
CN106394406B (zh) 用于车辆的摄像机装置
US8560220B2 (en) Method and apparatus for determining a plausible lane for guiding a vehicle and an automobile
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
US10810877B2 (en) Vehicle control device
KR20140027479A (ko) 차선 인식 장치
US10750085B2 (en) Camera device for capturing a surrounding area of a driver's own vehicle and method for providing a driver assistance function
JP2008222153A (ja) 合流支援装置
JP7255345B2 (ja) 走行車線認識装置、走行車線認識方法およびプログラム
JP4986070B2 (ja) 車両用周囲監視装置
JP7255706B2 (ja) 信号機認識方法及び信号機認識装置
EP4060643B1 (en) Traffic signal recognition method and traffic signal recognition device
JP2007328410A (ja) 情報提供装置
JP7255707B2 (ja) 信号機認識方法及び信号機認識装置
JP2007022134A (ja) 車両用車線維持支援装置
JP2022148338A (ja) 車線境界検出装置、車線境界検出方法及び車線境界検出用コンピュータプログラム
KR20180009280A (ko) 3d 맵 데이터를 이용한 차선 위치확인 및 경로 안내 시스템
US10217006B2 (en) Method and device for detecting objects in the dark using a vehicle camera and a vehicle lighting system
KR102491382B1 (ko) 차량 및 그 제어방법
US11830254B2 (en) Outside environment recognition device
JP2024011893A (ja) 車線判定装置、車線判定方向及び車線判定用コンピュータプログラム
JPH1137752A (ja) 距離検出装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application