KR101805377B1 - 대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치 - Google Patents

대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR101805377B1
KR101805377B1 KR1020110033869A KR20110033869A KR101805377B1 KR 101805377 B1 KR101805377 B1 KR 101805377B1 KR 1020110033869 A KR1020110033869 A KR 1020110033869A KR 20110033869 A KR20110033869 A KR 20110033869A KR 101805377 B1 KR101805377 B1 KR 101805377B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
marking
peripheral
tracking
Prior art date
Application number
KR1020110033869A
Other languages
English (en)
Other versions
KR20110114485A (ko
Inventor
이원 양
마리오 뮐러-프람
게리트 뵈르
Original Assignee
로베르트 보쉬 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로베르트 보쉬 게엠베하 filed Critical 로베르트 보쉬 게엠베하
Publication of KR20110114485A publication Critical patent/KR20110114485A/ko
Application granted granted Critical
Publication of KR101805377B1 publication Critical patent/KR101805377B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • B60W30/025Control of vehicle driving stability related to comfort of drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/644Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for large deviations, e.g. maintaining a fixed line of sight while a vehicle on which the system is mounted changes course

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

디스플레이 장치(112)에 대상물(106)을 마킹하기 위한 대상물 마킹(114)의 위치를 트래킹하기 위한 방법이 제안되고, 이 경우 대상물 마킹의 위치는 주변 정보를 기초로 검출되고, 상기 주변 정보는 차량의 주변 검출 장치(102)에 의해 제공되는, 주변 검출 장치의 시야 범위에 있는 대상물에 대한 정보를 나타내고, 상기 방법은 상기 주변 검출 장치(102)와 관련해서 상기 대상물(106)의 위치 변동을 일으키는 차량(100)의 이동에 기초하여, 상기 디스플레이 장치(102)에서 상기 대상물 마킹(114)의 위치를 트래킹하기 위한 트래킹 정보를 검출하는 단계(304)를 포함한다.

Description

대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치{Method and device for tracking a position of object marking}
본 발명은 대상물 마킹의 위치를 트래킹하기 위한 방법, 해당 장치 및 해당 컴퓨터 프로그램 제품에 관한 것이다.
DE 10 2008 026 397 A1호에는 고정된 대상물에 의해 차량의 동역학을 평가하기 위한 방법이 공지되어 있다.
이러한 배경에서 본 발명에 의해 독립 청구항에 따른 대상물 마킹의 위치를 트래킹하기 위한 방법, 상기 방법을 사용하는 장치 및 해당 컴퓨터프로그램 제품이 제안된다. 바람직한 실시예들은 각각의 종속 청구범위 및 하기 설명에 제시된다.
본 발명의 과제는 대상물 마킹의 위치를 트래킹하기 위한 방법, 장치 및 컴퓨터 프로그램 제품을 제공하는 것이다.
상기 과제는 독립 청구항의 특징을 갖는 방법, 및 장치 및 컴퓨터 프로그램 제품에 의해 달성된다.
자차량(Ego vehicle)의 주변에 있는 대상물을 검출하기 위한 시스템들은 일반적으로 특히 비디오 신호들이 평가되어야 하는 경우에 지연되어 작동한다. 예컨대 위치 또는 속도와 같은 대상물 정보를 출력할 때까지 발생하는 대기 시간은 수 100 ms일 수 있다. 이것은 정보를 처리하는 조절 시스템, 예컨대 지능형 순항 제어 시스템(ACC;Adaptive Cruise Control)에는 특히 임계적이지 않다. 시야 디스플레이, 소위 헤드-업 디스플레이(HUD;Head-up Display)에서 위치와 관련하여 영상화하기 위한 대상물 정보, 특히 위치가 사용되어야 하는 경우에, 대기 시간을 즉시 볼 수 있다. 눈은 이미 50 ms부터 대기 시간을 명확하게 기록한다. 예컨대 차량과 같은 실제 대상물에서의 심볼 또는 마킹이 누적되어야 하는 경우에, 그리고 대상물의 위치 정보가 300 ms지연되는 경우에, 심볼은 운전자의 시야를 "따라간다". 특히 상대 이동이 빠른 경우에, 즉 300 ms 내에 이동이 종료되면, 자차량과 대상물 사이에서 심볼이 임의적으로 이리저리 춤추는 것을 보게 될 수도 있다.
본 발명은, 이러한 대기 시간의 보상 및 정확한 레퍼런싱을 위해 시야 디스플레이(헤드-업 디스플레이)에 의한 지연된 심볼 위치의 보정이 가능하다는 사실에 기초한다. 이것은 자차량의 가속 센서 장치에 의한 정보의 활용을 통해 달성될 수 있다. 본 발명에 따른 방법은 소위 "예측 방법"을 사용하지 않고 실시되는데, 그 이유는 수십 ms의 대기 시간을 포함하는 가속 센서 데이터가 제공되고, 직접적인 보상 연산을 위해 사용될 수 있기 때문이다.
정보를 직접 운전자의 시야에 페이드인하는 시스템을 시야 디스플레이(헤드-업 디스플레이, HUD)라고 한다. 이를 위해 특수 렌즈가 사용되고, 상기 렌즈는 윈드스크린으로 반사함으로써 차량 전방에 이미지가 떠 있는 것 같은 인상을 운전자에게 제공한다. 이와 반대로 종래의 디스플레이(Head-Down Display) 또는 차량 내의 콤비 장치인 경우에, 속도 또는 방향 지시와 같은 중요한 디스플레이를 보기 위해서 운전자는 시선을 내려야만 한다.
실시예에 따라, 공간 내의 점들을 레퍼런싱하기 위해, 정보가 의도대로 실제 이미지에 중첩되는 시야 디스플레이가 사용된다. 이러한 디스플레이는 통상의 표현으로 증강현실 헤드-업 디스플레이(augmented Head-up Display)라고 한다. 이러한 기술을 사용함으로써 예컨대 네비게이션 안내는 운전자에게 이 운전자가 따라갈 도로를 색으로 표시하는 형태로 제공될 수 있다. 차선 또는 지능형 순항 제어 시스템에 의해 검출된 선행하는 차량도 운전자의 시야에 직접 나타낼 수 있다. 3D-효과의 제공을 위한 다양한 방법들이 공지되어 있다. 무안경식(autostereoscopic) 또는 쌍안식(binocular) 시스템들에 의해 양쪽 눈에 상이한 이미지가 제공되고, 해당 렌즈를 통해 눈으로 볼 수 있게 된다. 다른 방법, 즉 양안식(biocular)은 하나의 이미지만 제공하고, 상기 이미지 간격은 눈이 이 이미지를 더 이상 인식할 수 없고, 뇌가 페이드인 된 심볼 뒤에 놓인 대상물에 대한 배치를 자동으로 처리하도록 선택된다. 2D에 따른 3D-이미지화는 그래픽 프로세서(Renderer)에 의해 실시되고, 상기 그래픽 프로세서는 2D-이미지를 운전자의 시야 및 3D-비주얼화 데이터의 원근 표시로 이루어진 장면으로 계산한다. 이를 위해 일반적으로 운전자의 헤드 위치 평가가 필요하다.
지능형 순항 제어 시스템은 무선 측정 장치, 예컨대 레이더-센서에 의해 차량 전방 영역을 모니터링한다. 반사된 신호들로부터 지능형 순항 제어 시스템은 선행하는 차량의 방향, 거리 및 상대 속도를 계산한다. 지능형 순항 제어 시스템이 자신의 차선에서 더 천천히 주행하는 앞 차량을 검출하면, 소정의 간격으로 따라가도록 속도를 조절한다. 이를 위해, 지능형 순항 제어 시스템은 주행 상황에 따라 모터 토크를 줄이거나 또는 차량을 제동한다. 커브에서도 지능형 순항 제어 시스템은 어떤 차량이 순항 제어 시스템에 중요한지 인식할 수 있다. 측정 범위에서 차량이 더 이상 발견되지 않으면, 지능형 순항 제어 시스템은 차량을 다시 자동으로 미리 설정된 속도로 가속한다.
이미지 인식 알고리즘들은 비디오 이미지로부터 대상물을 검출할 수 있고, 상기 대상물의 위치 데이터를 예컨대 메인 라인(CAN-BUS)를 통해 다른 시스템에 제공할 수 있다.
본 발명은 차량의 디스플레이 장치에 대상물을 마킹하기 위한 대상물 마킹의 위치를 트래킹하는 방법을 제공하고, 대상물 마킹의 위치는 주변 정보에 기초하여 평가되고, 상기 주변 정보는 주변 검출 장치로부터 제공되는, 주변 검출 장치의 시야에 있는 대상물에 대한 정보를 나타내고, 이 경우 상기 방법은 다음 단계를 포함한다: 주변 검출 장치와 관련해서 대상물의 위치 변경을 일으키는, 차량의 이동에 기초하여 디스플레이 장치에서 대상물 마킹의 위치를 트래킹하기 위한 트래킹 정보를 결정하는 단계.
본 발명에 따른 방법은 차량의 정보 시스템 또는 네비게이션 시스템에 적용될 수 있다. 이러한 경우에 대상물은 차량의 주변에 위치할 수 있다. 예컨대 대상물은 교통 표지판, 도로 표시 또는 도로 제한선, 다른 차량 또는 보행자일 수 있다. 대상물은 예컨대 차량의 승객들에게도 눈에 띄게 하기 위해, 승객의 시야에 대상물 마킹이 페이드인 될 수 있다. 대상물 마킹은, 대상물 마킹의 위치가 실제 존재하는 대상물의 위치에 있도록 페이드인 될 수 있다. 대상물 마킹은 대상물을 둘러싸는 프레임의 형태로 이루어질 수 있다. 또한, 대상물 마킹은 대상물의 윤곽을 나타냄으로써 이루어질 수 있다. 대상물 마킹은 디스플레이 장치에 의해 표시될 수 있다. 디스플레이 장치는 시야 디스플레이(HUD) 또는 스크린으로서 구현될 수 있다. 디스플레이 장치가 시야 디스플레이로서 구현되는 경우에, 대상물 마킹은 승객의 시야 각도로 인해 승객들이 실제로 볼 수 있는 대상물과 중첩되도록 표시될 수 있다. 그와 달리 디스플레이 장치가 실제 주변을 이미지화하는 스크린으로 구현되는 경우에, 대상물 마킹은 스크린 위에 표시된 대상물에 중첩되도록 표시될 수 있다. 대상물 자체는 대상물 인식에 기초하여 인식될 수 있다. 대상물 인식은 주변 정보에 기초하여 이루어질 수 있다. 주변 정보는 대상물이 이미지화된 이미지 정보의 형태로 제공될 수 있다. 또한, 주변 정보는 공간적 위치 정보의 형태로 제공될 수 있고, 상기 위치 정보는 예컨대 대상물의 방향, 거리 및 폭을 포함한다. 또한, 주변 정보에 기초하여 차량, 승객 또는 디스플레이 장치에 대한 대상물의 상대 위치가 검출될 수 있다. 주변 검출 장치는 정지- 또는 동영상을 위한 예컨대 카메라 형태의 이미지 검출 장치, 무선 측정 장치 또는 음향 측정 장치일 수 있다. 트래킹 정보는, 차량의 이동에 따른 대상물 마킹 및 주변 측정 장치와 디스플레이 장치의 이동에 따른 대상물 마킹이 디스플레이 장치에서 대상물의 위치와 일치하도록 대상물 마킹의 기존의 위치를 이동시킬 수 있다. 주변 검출 장치와 디스플레이 장치가 차량에 고정 연결되는 경우에, 차량의 이동은 주변 검출 장치와 디스플레이 장치에 전달될 수 있다. 대상물의 위치 변동은 차량의 기준축, 예컨대 차량 길이방향 축과, 대상물에 대한 차량의 방향 벡터 사이의 각도 변화를 포함할 수 있다. 즉, 대상물이 주변 검출 장치와 관련해서 차량의 기준축에 대해 작용하여, 주변 검출 장치, 디스플레이 장치 및 차량의 이동을 검출하기 위한 측정 장치의 이동, 배치에 대한 정보 및 차량 승객의 위치와 디스플레이를 바라보는 시야 각도에 대한 정보가 트래킹 정보를 검출하기 위해 고려될 수 있다.
결정 단계에서, 차량의 이동으로 인해 야기된 주변 검출 장치의 기준축의 편향이 결정될 수 있다. 트래킹 정보는 기준축의 편향에 기초하여 결정될 수 있다. 기준축은 주변 검출 장치의 메인 정렬 방향일 수 있다. 기준축의 편향은 가속 검출 장치 및/또는 각도 검출 장치 및/또는 속도 검출 장치에 의해 제공된 정보에 기초하여 이루어질 수 있다. 기준축의 편향은 기준축의 회전 또는 틸팅일 수 있다.
차량의 이동은 회전 운동일 수 있다. 수신 단계에서 차량의 회전 운동에 관한 정보는 차량의 회전율 센서에 대한 인터페이스를 통해 수신될 수 있다. 회전 운동은 차량의 횡축을 중심으로 이루어질 수 있다. 상기 인터페이스는 센서 데이터가 수신될 수 있는 수신 인터페이스일 수 있다. 차량의 회전 운동은 하나 또는 다수의 가속 센서들 또는 회전율 센서에 의해 검출될 수 있다. 이로 인해 공지된 차량 축을 중심으로 하는 차량의 각가속도 또는 각속도가 검출될 수 있다. 이로부터 일정한 시간 주기 내에 차량이 얼마의 각도로 회전하였는지가 계산될 수 있다. 또한, 차량의 회전 운동은 차량축의 검출된 편향에 기초하여 결정될 수 있다.
본 발명에 따른 방법의 실시예에 따라, 검출 단계에서 차량 이동의 각속도의 특성 곡선이 검출될 수 있다. 트래킹 정보는 각속도의 특성 곡선의 합산에 기초하여 결정될 수 있다. 각속도의 특성 곡선은 측정된 각가속도에 기초하여 또는 시간에 따라 측정된 각도 변화에 기초하여 검출될 수 있다.
다른 실시예에 따라, 결정 단계에서 주변 검출 장치의 이동이 차량의 이동에 기초하여 결정될 수 있다. 트래킹 정보는 주변 검출 장치의 이동에 기초하여 결정될 수 있다. 차량의 회전 운동은 주변 검출 장치에 전달되고, 따라서 주변 검출 장치의 이동을 야기한다. 차량에서 주변 검출 장치의 배치에 따라, 차량의 회전 운동은 차량의 이동에 의해 야기된 주변 검출 장치의 회전 운동에 상응할 수 있다.
검출 시점에 주변 정보를 검출하기 위해, 주변 검출 장치가 형성될 수 있다. 주변 검출 장치의 이동은 검출 시점 이후에 일정한 시간 간격 내에 이루어질 수 있다. 상기 시간 간격은 주변 정보의 검출과 그것에 기초한 대상물 마킹의 표시 사이의 대기 시간 또는 지연 시간에 상응할 수 있다.
따라서 시간 간격은 검출 시점에 후속할 수 있고, 주변 정보로부터 대상물 마킹의 위치를 검출하는 지속 시간에 상응할 수 있다.
본 발명에 따른 방법은 대상물 마킹의 위치와 트래킹 정보에 기초하여 대상물 마킹의 보정된 위치를 결정하는 단계를 포함할 수 있다. 보정된 위치에 의해 주변 검출 장치의 이동으로 인해 야기된 대상물과 대상물 마킹 사이의 이동이 매우 신속하게 보상될 수 있다. 따라서 보정된 위치는 현재 시점에 디스플레이 장치상에서 대상물의 실제 위치에 상응할 수 있다. 보정된 위치는 디스플레이 장치에 표시하기 위해 최적화될 수 있다.
디스플레이 장치는 차량의 시야 디스플레이 또는 스크린으로서 형성될 수 있다. 준비 단계에서 대상물 마킹의 트래킹된 위치가 시야 디스플레이 또는 스크린에 대한 인터페이스에 제공될 수 있다. 대상물 마킹의 트래킹된 위치는 디스플레이 장치를 위한 제어 신호로서 형성될 수 있다. 바람직하게 대상물 마킹의 트래킹된 위치의 수신에 반응하여 디스플레이 장치는 해당하는 보정된 위치에 대상물 마킹을 표시할 수 있다.
또한, 본 발명은 디스플레이 장치에 대상물을 마킹하기 위한 대상물 마킹의 위치를 트래킹하기 위한 장치에 관한 것으로, 대상물 마킹의 위치는 주변 정보에 기초하여 검출되고, 상기 주변 정보는 주변 검출 장치에 의해 제공된, 주변 검출 장치의 시야 범위에 있는 대상물에 대한 정보를 나타내며, 트래킹을 위한 장치는 하기 특징을 갖는다: 주변 검출 장치에 대해서 대상물의 위치 변동을 일으키는 차량의 이동에 기초하여, 디스플레이 장치상의 대상물 마킹의 위치를 트래킹하기 위한 트래킹 정보를 결정하는 장치.
트래킹을 위한 장치는 주변 정보에 기초하여 대상물 마킹의 위치를 검출하기 위한 장치와 주변 검출 장치의 이동을 검출하기 위한 장치를 포함할 수 있다. 대상물 마킹의 위치를 검출하기 위해, 공지된 대상물 인식 알고리즘들이 사용될 수 있다. 주변 검출 장치의 이동을 검출하기 위한 장치는 운동 센서와 운동 센서로부터 출력된 데이터로부터 주변 검출 장치의 이동을 검출하기 위해 형성된 평가 장치를 포함할 수 있다.
트래킹을 위한 장치는 본 발명에 따른 방법의 단계를 실행하기 위해 형성된 정보 시스템 또는 주행 정보 시스템 그리고 특히 네비게이션 시스템의 부분일 수 있다. 하나의 장치 형태의 본 발명의 이러한 변형예에 의해 본 발명의 과제가 신속하고 효율적으로 해결될 수 있다. 상기 장치는 예컨대 차량의 운전자에게 선택된 주행 구간과 관련해서 중요할 수 있는 정보를 표시하는 기기일 수 있다. 상기 장치는 예컨대 시야 디스플레이 또는 디스플레이 형태의 출력 장치를 포함할 수 있고, 상기 출력 장치를 통해 사용자에게 정보가 표시될 수 있다.
본 발명에 따른 방법의 실시를 위한 프로그램 코드를 가진 컴퓨터 프로그램 제품은, 프로그램이 주행 정보 시스템에서 실행되는 경우에 바람직하다. 프로그램 코드는 반도체 메모리, 하드웨어 메모리 또는 광메모리와 같은 머신 리더블(machine readable) 캐리어에 저장될 수 있고, 프로그램이 실행될 때, 전술한 실시예들 중 하나에 따른 방법의 실시를 위해 사용될 수 있다.
본 발명은 하기에서 첨부된 도면을 참고로 상세히 설명된다.
도 1a은 차량의 정지 상태에서 본 발명의 실시예를 도시한 도면.
도 1b는 차량의 정지 상태에서 본 발명에 따른 디스플레이를 도시한 도면.
도 1c는 차량의 편향 위치에서 본 발명에 따른 실시예를 도시한 도면.
도 1d는 차량의 편향 위치에서 디스플레이를 도시한 도면.
도 1e는 차량의 편향 위치에서 본 발명에 따른 디스플레이를 도시한 도면.
도 2는 본 발명의 실시예의 2개의 다이어그램을 도시한 도면.
도 3은 본 발명의 실시예의 블록 회로도.
도 4는 본 발병의 실시예의 순서도.
본 발명의 바람직한 실시예들의 하기 설명에서 상이한 도면들에 도시되고 유사하게 작용하는 부재들에는 동일하거나 또는 유사한 도면부호가 사용되고, 이 경우 상기 부재의 반복 설명은 생략된다.
도 1a 내지 도 1e를 참고로 본 발명의 실시예에 따른 차량의 디스플레이 장치에 대상물을 마킹하기 위한 대상물 마킹의 위치를 트래킹하기 위한 방법이 도시된다. 이 실시예에 따라, 비디오 센서의 대기 시간의 보상은 회전율 정보에 의해 가능해진다.
도 1a는 주변 검출 장치(102)를 포함하는 차량(100)의 개략도를 도시한다. 차량(100)은 도로(104)에서 대상물(106)을 향해 이동된다. 이 실시예에서, 주변 검출 장치(102)는 비디오 카메라(102)이고, 이것은 실질적으로 차량(100)의 메인축(108)을 따라 정렬된다. 차량(100) 전방에 도로 돌출부 형태의 장애물(110) 배치된다.
주변 검출 장치(102)는, 차량의 주변을 검출하기 위해 형성된다. 이 실시예에 따라, 주변 검출 장치(102)는 주행 방향으로 볼 때 차량(100) 전방에 있는 영역을 검출하기 위해 형성된다. 차량(100) 전방에 배치된 대상물(106)은 주변 검출 장치(102)에 의해 검출된다. 대상물(106)은 교통 표지판일 수 있다. 주변 검출 장치(102)는 주변 정보를 제공할 수 있고, 상기 주변 정보는 대상물(106)에 대한 정보를 포함할 수 있다. 주변 정보는, 대상물(106)에 대한 정보를 결정하기 위한 대상물 인식에 의해 이용될 수 있다. 예컨대 대상물(106)의 종류와 위치가 결정될 수 있다.
도 1b에는 헤드-업 디스플레이 형태의 시야 디스플레이(112)가 도시되고, 상기 디스플레이는 도 1a에 도시된 차량에서 구현될 수 있다. 시야 디스플레이(112)는 차량 승객, 예컨대 차량 운전자에게 정보를 전달할 수 있다. 이 실시예에 따라, 시야 디스플레이(112)에 의해 대상물 마킹(114)이 표시되고, 상기 대상물 마킹은 도 1a에 도시된 차량 승객의 시선 각도로 인해 대상물(106)에 중첩된다. 따라서, 대상물 마킹(114)은 승객이 볼 수 있는 실제 대상물(106)의 위치에 상응하는 위치에 표시된다. 마킹(114)은 특히 차량 운전자에게 대상물(106)을 명확하게 나타내야 한다.
이 실시예에 따라 대상물(106)은 도 1a에 도시된 비디오 카메라의 검출 영역 내에 배치된다. 마킹(114)은 비디오 카메라의 이미지 평가에 의해 생성되고, 차량 운전자에게 대상물(106)을 특히 명확하게 나타내 주어야 한다. 대상물 마킹(114)은 시야 디스플레이(112) 상에서 대상물(106) 위에 배치된다. 차량이 평평한 도로에서 이동하기 때문에, 대상물(106)과 차량 사이의 상대 각도가 매우 느리게만 변경된다. 느린 각도 변경에 의해 이미지 평가는 큰 편차 없이 대상물 마킹(114)을 대상물(106)과 일치하게 유지할 수 있다.
도 1c는 차량(100)이 도로(104) 위의 장애물(110) 위를 지나갈 때의 개략도를 도시한다. 장애물(110)에 의해 차량(100)이 편향된다. 차량(100)은 그 가로방향 축을 중심으로 신속하게 회전한다. 이러한 회전에 의해 주변 검출 장치(102)의 메인축(108)도 변경된다. 비디오 카메라(102)의 입장에서 대상물(106)은 매우 빠르게 이동한다. 그러나 실제로 대상물(106)은 그 초기 위치에 머물고, 이동은 주변 검출 장치(102)에 대한 대상물의 상대 이동일 뿐이다.
도 1d는 도 1c에 도시된 차량의 편향와 관련해서, 도 1b에 공지된 시야 디스플레이(112)를 도시한다. 차량과 대상물(106) 사이의 신속한 상대 이동으로 인해 대상물 마킹(114)은 먼저 시야 디스플레이(112) 상의 도 1b에 도시된 위치에 머무른다. 이로 인해 대상물 마킹(114)은 승객의 시야에서 대상물(106)의 위치와 더 이상 일치하지 않는다. 위치 이동은 비디오 카메라와 이미지 평가의 대기 시간에 의해 야기된다.
도 1e는 도 1c에 도시된 차량의 편향와 관련해서, 도 1b에 공지된 시야 디스플레이(112)를 도시하고, 이 경우 대상물 마킹(114)은 도 1d에 도시된 본 발명에 따른 방법과 달리 트래킹된다. 본 발명에 따른 방법은 대상물 마킹(114)의 신속한 트래킹을 가능하게 한다. 이를 위해, 차량의 각속도 또는 각가속도에 대한 이동 정보가 평가되고, 이 이동 정보로부터 대상물 마킹(114)을 위한 트래킹 정보가 결정된다. 이동 정보는 차량의 평가 센서에 의해 수신될 수 있다. 예컨대 비디오 카메라와 이미지 평가의 대기 시간에 걸친 각속도의 적분에 의해 트래킹 정보가 결정될 수 있다. 이 실시예에 따라, 상기 트래킹 정보는 도 1c에 도시된 차량의 편향에 의해 야기된 대상물(106)의 상대 이동을 보상하는데 적합하다. 이로 인해 대상물 마킹(114)의 위치가 보정될 수 있다. 이로써 지연된 프로세스에 대한 일종의 흔들림 방지 기술이 가능하다. 따라서 대상물 마킹(114)은 차량의 편향에도 불구하고 승객의 시야에서 대상물(106)의 위치와 일치한다.
도 1a 내지 도 1e를 참고로 설명된 본 발명에 따른 방법은 자차량의 주변에의 차량, 보행자 또는 도로와 같은 대상물들의 상대 이동이 자차량의 자체 이동에 의해 지배된다는 가정에 기초한다. 이것은 특히 빠른 상대 이동에 적용된다. 예를 들어, 자차량에 대해서 순항 제어 시스템(ACC)에 의해 검출된 차량은 직선의 평평한 도로에서 그리고 2개의 차량들의 속도가 일정할 때 자차량의 입장에서는 이 자차량 앞에 정지해 있는 것처럼 보인다. 자차량이 범프 위를 지나가며 횡축 중심의 상승 진동을 하면, 다른 차량은 빠르게 하강-/상승 이동을 하는 것처럼 보인다. 자차량의 회전 속도는 자차량의 회전율 센서에 의해, 차량의 직선-방향축에 대해 각도 범위의 상대 이동에 대한 추론이 가능하도록 아주 짧은 대기 시간으로 측정되어 제공된다.
본 발명에 따라, 측정 시스템의 지연 시간에 나타나는 상대적인 대상물 이동이 추정될 수 있다. 그것에 기초하여 과거에 측정된 대상물의 위치값이 상응하게 보정될 수 있다.
도 2는 본 발명의 실시예의 2개의 다이어그램을 도시한다. 하부 다이어그램에는 차량 또는 주변 검출 장치의 이동의 특성 곡선(221)이 도시된다. 상부 다이어그램에는 이동으로 인한 대상물의 상대 위치 변화의 특성 곡선(223)이 도시된다.
하부 다이어그램에서 횡축에는 시간 t이 표시되고, 종축에는 각속도 또는 회전율 w(t)이 °/s로 표시된다. 각속도는 차량의 이동 또는 주변 검출 장치와 관련될 수 있다. 시간에 따른 각속도의 변화는 곡선(221)으로 도시된다. 곡선(221)은 회전 센서에 의해 검출된, 시간 t에 따른 회전율 또는 각속도 w의 특성곡선일 수 있다. 곡선(221)은 0점 위치로부터 시점 tA를 향해 급상승하고, 후속해서 시점 t0까지 일정한 각속도 값으로 유지된다. 따라서 주변 검출 장치는 시점 tA까지는 휴지 상태이고, 이어서 일정한 각속도로 이동된다.
상부 다이어그램에서 횡축에는 시간 t이 표시되고, 종축에는 주변 검출 장치의 검출 범위 내의 대상물의 위치 S(t)가 ˚로 표시된다. 대상물의 위치는 ˚로 주어진다. 시간에 따른 대상물의 위치의 변화는 곡선(223)으로 도시된다. 주변 검출 장치가 휴지 상태에 있는 경우에 대상물의 위치는 동일하다. 시점 tA부터 대상물의 위치가 변경된다. 따라서 곡선(223)은 제 1 섹션에서 시점 tA까지 횡축에 대해 평행한 직선의 특성곡선이고, 시점 tA부터 직선으로 상승하는 특성곡선이다.
시점 t0은 현재 시점이다. 시점 t0-T은 시점 t0와 tA사이에 배치된다.
곡선(223)에 시점 t0에서 대상물의 실제 위치 S(t0)가 도시되고, 시점 t0-T에서 대상물의 시간적으로 앞서는 위치 S(t0-T)가 도시된다. 위치들 S(t0)과 S(t0-T)은 각도 Δp0만큼의 차이를 갖는다. 대상물의 위치 S(t0-T)는 이미지 처리부에 의해 계산된 대상물의 위치에 상응하고, 상기 이미지 처리부는 내부의 처리 시간 또는 지연 시간 T으로 인해 시점 t0에 상기 위치를 출력한다.
위치 S(t0-T)는 주어져 있고, 지연시간 T 동안 위치 S(t0) 또는 회전각도 Δφ0가 검색된다. 이 경우 관계식 S(t0) = S(t0-T) + Δφ0이 성립한다. w(t)의 특성곡선은 현재 시점 t0까지 공지되어 있다. S(t)가 자차량의 회전에 의해서만 야기되면, w(t) =
Figure 112016034446721-pat00001
가 성립한다. 상기 식에서,
Figure 112016034446721-pat00002
는 시간에 따른 위치의 미분값이고, n(t)는 센서 잡음 또는 드리프트를 고려할 수 있다. 따라서 값
Figure 112016034446721-pat00003
은 지연 시간 T동안 회전각 Δφ0에 대한 추정치로서 회전율의 적분에 의해 계산될 수 있다:
[수학식 1]
Figure 112016034446721-pat00004
상기 수학식 1에서, S(t0) - S(t0-T) = Δφ0이다.
도 2에 따른 실시예에 의해 선행하는 차량이 자차량의 횡축 중심의 진동에 의해 위로 이동하는 것처럼 보이는 상태가 도시된다. 비디오 센서에 의해 추정된 수직의 대상물 위치는 회전율 센서에 의해 검출된 축에 대해 각도로 주어진다. 자차량의 횡축 중심의 진동은 선행하는 차량의 (지능형 순항 제어 시스템의) 상승을 일으킨다. 동시에 이동은 상응하는 회전율을 형성한다. 현재 시점에 검색된, 예컨대 앙각(elevation angle) 형태의 대상물 위치는 지연 시간 동안 주행한 각도 거리가 회전율의 적분에 의해 계산되고 이전에 공지된 값에 더해짐으로써 계산될 수 있다.
편의상, 이 실시예에 따라 축을 중심으로 하는 회전을 위한 상황이 고려된다. 기본적으로 이 방법은 모든 회전 축들, 흔들림, 횡축 중심의 진동 또는 롤링에 적용될 수 있다.
이 방법은 차량의 회전축의 실제 위치를 무시할 수 있다. 예컨대 중심점인 운전자에 의해 회전이 측정될 수 있다.
이 방법의 정확성은 차량 이동 모델들을 사용함으로써 더 높아질 수 있다. 이를 위해 차량 질량, 서스펜션, 회전율 센서의 장착 위치 및 다른 요인들을 고려한 고유 이동이 완전히 추정되어 운전자의 관점으로 환산될 수 있다. 전술한 회전을 위해 일반적으로 약간의 병진 운동이 더해질 수 있다.
계산은 시간- 및 값 연속 형태로 실시될 수 있다. 그와 달리 차량 내의 신호 처리는 시간 - 및 값 이산적이므로, 제어장치에 실시할 때 상기 적분은 측정된 회전율과 샘플링 인터벌의 곱을 적합하게 합산하는 것으로 대체되어야 한다.
회전율 센서의 신호들은 지연 없이 제공되는 것으로 가정하였다. 실제로는 대기 시간이 존재하지만, 상기 대기 시간은 비디오 신호 처리의 지연보다 훨씬 짧다. 따라서, 시스템 전체는 전체 지연을 포함하지만, 상지 전체 지연은 일반적으로 감지되지 않거나 약하게만 감지될 수 있다. 이 경우 나머지 대기 시간을 커버하기 위해 추가로 예측 방법이 사용될 수 있다.
예로서 지능형 순항 제어 시스템(ACC)에 의해 검출된 대상물의 비주얼화가 제시된다. 이 방법은 차량 외부에 있는 모든 대상물, 예컨대 차량들, 사람들, 차선, 건물 및 이와 유사한 것들에 대해 콘택 아날로그식 시야 디스플레이(HUD)에 의한 레퍼런싱을 위해 사용될 수 있다.
시스템의 파라미터화를 위해 지연 시간 T이 미리 측정된다.
도 2의 앙각의 특성 곡선은 예컨대 선형 상승을 나타낸다. 이 방법은 물론, 회전율 센서에 의해 검출된 모든 가능한 특성 곡선에 적용된다.
다른 신호 처리를 포함하여, 이미지 생성까지의 비디오 센서의 대기 시간은 공지되어 있거나, 대상물의 검출과, 대상물의 이동에 의해 차량의 휴지 상태에서 시야 디스플레이(HUD) 내에 관련 심볼(예컨대 ACC)의 위치 설정 사이의 대기 시간이 측정되는 방식으로, 측정될 수 있다. 측정은 반복될 수 있고, 이 경우 대상물의 상대 이동은 조사된 차량의 예컨대 횡축 중심의 진동에 의해 발생된다. 본 발명에 따라 이 경우에 더 짧은 지연 시간이 주어지는데, 그 이유는 대상물 위치의 계산을 위해 회전율 센서가 이용되기 때문이다.
도 3은 본 발명의 실시예의 순서도를 도시한다. 단계 300에서 대상물의 위치를 디스플레이 장치에 마킹하기 위한 대상물 마킹에 관한 정보가 수신된다. 대상물 마킹에 관한 정보는 이미지 처리 장치에 의해 출력될 수 있다. 이미지 처리 장치는 주변 정보에 기초하여 대상물 마킹을 검출할 수 있고, 상기 주변 정보는 주변 검출 장치에 의해 출력되고, 상기 주변 검출 장치의 검출 영역에 실제 대상물이 위치한다. 대상물 마킹에 관한 정보에는 사전에 정해진, 즉 이미지 처리 장치에서 처리 지속 시간에 의해 미리 정해진 대기 시간이 제공된다. 대기 시간 동안 실제 대상에 대한 주변 검출 장치 또는 디스플레이 장치의 위치 또는 방향이 변경되는 경우에, 대상물 마킹의 위치는 에러를 갖는다.
단계 302에서 주변 검출 장치 또는 디스플레이 장치의 실제 위치 정보가 수신된다. 위치 정보는 가속 센서 및 상응하는 평가 장치에 의해 제공될 수 있다. 단계 304에서 대상물 마킹의 위치를 트래킹하기 위한 트래킹 정보가 실제 위치 정보에 기초하여 결정된다. 단계 306에서 대상물 마킹의 보정된 위치는 트래킹 정보 및 대상물 마킹에 관한 정보에 기초하여 결정된다. 단계 308에서 대상물 마킹의 보정된 위치가 디스플레이 장치에 제공된다.
도 4는 본 발명의 실시예의 블록 회로도를 도시한다. 지연 블록 T, 적분 블록
Figure 112011026804860-pat00005
및 가산 요소 + 를 도시한다. 지연 블록 T은 정보 S(t)를 수신하고 정보 S(t-T)를 출력하기 위해 형성된다. 적분 블록
Figure 112011026804860-pat00006
은 정보 w(t)=
Figure 112011026804860-pat00007
를 수신하고 정보 S(t) - S(t-T) + n(t)를 출력하기 위해 형성된다. 가산 요소 + 는 정보 S(t-T)와 정보 S(t) - S(t - T) + n(t)를 가산하고 정보 S(t) + n(t)를 출력하기 위해 형성된다.
지연 블록 T에 의해 대상물의 실제 위치 S(t)에 지연 시간 T이 제공되고 이로 인해 시간적으로 지나간 위치 S(t-T)가 형성된다. 부정확성 n(t)을 갖는 위치
Figure 112011026804860-pat00008
의 미분값에 상응하는 실제 각속도 w(t)는 적분 블록
Figure 112011026804860-pat00009
에 의해 지속 시간 t- (t-T)에 대해 적분되거나 또는 합산되고, 이로써 위치 S(t) - S(t-T) + n(t)가 주어지고, 상기 위치는 이동한 거리 S, 즉 이 실시예에서 지속 시간 t - (t-T) 동안 회전각에 상응한다. 대기 시간 T이 제공된 위치 S(t-T)에 이동한 거리 S(t) - S(t-T) + n(t)가 더해져서, 부정확성 n(t)을 갖는 실제 위치 S(t) + n(t)가 주어진다.
블록 "T"은 이미지 표시를 포함하여 비디오 신호 분기에서의 전체 신호 처리 체인의 지연 시간을 대표한다. 적분 블록 또는 합산 유닛과 가산기는 본 발명에 따른 방법의 구성 요소이다.
설명되고 도면에 도시된 실시예들은 예시적으로만 선택된다. 다양한 실시예들은 전체적으로 또는 개별 특징들과 관련해서 서로 조합될 수 있다. 또한, 하나의 실시예는 다른 실시예의 특징에 의해 보완될 수 있다. 또한, 볼 발명에 따른 방법 단계들이 반복될 수 있고 전술한 순서와 다른 순서로 실시될 수 있다.

Claims (11)

  1. 차량(100)의 디스플레이 장치(112)에 대상물(106)을 마킹하기 위한 대상물 마킹(114)의 위치를 트래킹하기 위한 방법으로서, 상기 대상물 마킹의 위치는 주변 정보를 기초로 검출되고, 상기 주변 정보는 차량의 주변 검출 장치(102)에 의해 제공되는, 상기 주변 검출 장치의 시야 범위에 있는 대상물에 관한 정보를 나타내는, 상기 방법에 있어서,
    상기 디스플레이 장치(112) 상의 상기 대상물 마킹(114)과 관련해서 승객의 시야에서 상기 대상물(106)의 상대 이동을 일으키는 차량(100)의 이동에 기초하여, 상기 디스플레이 장치(112)에서 상기 대상물 마킹(114)의 위치를 트래킹하기 위한 트래킹 정보를 결정하는 단계(304), 및
    상기 상대 이동을 보상하기 위해 상기 트래킹 정보 및 상기 대상물 마킹(114)의 위치에 기초하여 상기 대상물 마킹(114)의 보정된 위치를 결정하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서, 상기 차량(100)의 이동으로 인해 야기된, 상기 주변 검출 장치의 기준축(108)의 편향을 결정하는 단계를 포함하고, 상기 단계(304)에서 상기 트래킹 정보가 상기 기준축의 편향에 기초하여 결정되는, 방법.
  3. 제 1 항 또는 제 2 항에 있어서, 상기 차량(100)의 이동은 회전 운동이고, 차량의 회전율 센서에 대한 인터페이스를 통해 상기 차량(100)의 회전 운동에 관한 정보를 수신하는 단계(302)를 포함하는 방법.
  4. 제 1 항 또는 제 2 항에 있어서, 상기 차량(100)의 이동의 각속도의 특성 곡선을 검출하는 단계를 포함하고, 상기 단계(304)에서 상기 트래킹 정보가 상기 각속도의 특성 곡선의 합산에 기초하여 결정되는, 방법.
  5. 제 1 항 또는 제 2 항에 있어서, 상기 주변 검출 장치(102)는 검출 시점에 주변 정보를 검출하도록 형성되고, 상기 주변 검출 장치의 이동은 시간적으로 검출 시점 이후의 일정한 시간 간격 내에 이루어지는, 방법.
  6. 제 5 항에 있어서, 상기 시간 간격은 시간적으로 검출 시점에 후속하고, 주변 정보로부터 상기 대상물 마킹(114)의 위치를 검출하는 지속 시간에 상응하는, 방법.
  7. 삭제
  8. 제 1 항에 있어서, 상기 디스플레이 장치(112)는 차량(100)의 시야 디스플레이 또는 스크린으로서 형성되고, 상기 시야 디스플레이 또는 스크린에 대한 인터페이스에 상기 대상물 마킹(114)의 보정된 위치를 출력하는 단계를 포함하는 방법.
  9. 디스플레이 장치(112)에 대상물(106)을 마킹하기 위한 대상물 마킹(114)의 위치를 트래킹하기 위한 장치로서, 상기 대상물 마킹의 위치는 주변 정보를 기초로 검출되고, 상기 주변 정보는 차량의 주변 검출 장치(102)에 의해 제공되는, 상기 주변 검출 장치의 시야 범위에 있는 대상물에 관한 정보를 나타내는, 상기 장치에 있어서,
    상기 디스플레이 장치(112) 상의 상기 대상물 마킹(114)과 관련해서 승객의 시야에서 상기 대상물(106)의 상대 이동을 일으키는 차량(100)의 이동에 기초하여, 상기 디스플레이 장치(112)에서 상기 대상물 마킹(114)의 위치를 트래킹하기 위한 트래킹 정보를 결정하는 장치, 및
    상기 상대 이동을 보상하기 위해 상기 트래킹 정보 및 상기 대상물 마킹(114)의 위치에 기초하여 상기 대상물 마킹(114)의 보정된 위치를 결정하는 장치를 포함하는, 트래킹 장치.
  10. 제 9 항에 있어서, 주변 정보에 기초하여 상기 대상물 마킹의 위치를 검출하는 장치 및 상기 주변 검출 장치(102)의 이동을 검출하는 장치를 포함하는 트래킹 장치.
  11. 프로그램이 장치에서 실행될 때, 제 1 항 또는 제 2 항에 따른 방법을 실시하기 위한 프로그램 코드를 저장하기 위한 비일시적 기록 매체.
KR1020110033869A 2010-04-12 2011-04-12 대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치 KR101805377B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010003850.4 2010-04-12
DE102010003850A DE102010003850A1 (de) 2010-04-12 2010-04-12 Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung

Publications (2)

Publication Number Publication Date
KR20110114485A KR20110114485A (ko) 2011-10-19
KR101805377B1 true KR101805377B1 (ko) 2017-12-06

Family

ID=44657956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110033869A KR101805377B1 (ko) 2010-04-12 2011-04-12 대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치

Country Status (3)

Country Link
KR (1) KR101805377B1 (ko)
CN (1) CN102211523B (ko)
DE (1) DE102010003850A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012212016A1 (de) 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer optischen Anzeigevorrichtung eines Fahrzeugs
DE102012212015A1 (de) * 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Betreiben einer oder mehrerer optischer Anzeigevorrichtungen eines Fahrzeugs
DE102012214903A1 (de) 2012-08-22 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display
DE102015208738B4 (de) * 2015-05-12 2018-11-08 Volkswagen Aktiengesellschaft Head-up-Display für ein Fahrzeug
DE102015109027A1 (de) * 2015-06-08 2016-12-08 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102015116160B4 (de) 2015-09-24 2022-10-13 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102017216897A1 (de) * 2017-09-25 2019-03-28 Continental Automotive Gmbh Head-Up-Display
WO2019057496A1 (de) 2017-09-25 2019-03-28 Continental Automotive Gmbh Head-up-display
DE102018201769B4 (de) * 2018-02-06 2023-08-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE202020103679U1 (de) * 2020-06-25 2020-07-06 Soft2Tec Gmbh Vorrichtung zur Lage- und Positionserkennung von Markierungen und Computerprogrammprodukt
CN113119975B (zh) * 2021-04-29 2023-03-24 东风汽车集团股份有限公司 距离标识显示方法、装置、设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2010041240A (ja) * 2008-08-01 2010-02-18 Denso Corp 車両用表示装置
US20100082234A1 (en) * 2008-09-29 2010-04-01 Nissan Motor Co., Ltd. Information presentation apparatus for vehicle and information presentation method for vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894756A (ja) * 1994-09-21 1996-04-12 Nippondenso Co Ltd 車間距離表示装置及びターゲットクルーズ
JP4334686B2 (ja) * 1999-07-07 2009-09-30 本田技研工業株式会社 車両の画像表示装置
JP4134785B2 (ja) * 2003-03-28 2008-08-20 株式会社デンソー 表示装置
JP2008034981A (ja) * 2006-07-26 2008-02-14 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
US8855848B2 (en) 2007-06-05 2014-10-07 GM Global Technology Operations LLC Radar, lidar and camera enhanced methods for vehicle dynamics estimation
JP5008611B2 (ja) * 2008-06-27 2012-08-22 カルソニックカンセイ株式会社 車両用表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2010041240A (ja) * 2008-08-01 2010-02-18 Denso Corp 車両用表示装置
US20100082234A1 (en) * 2008-09-29 2010-04-01 Nissan Motor Co., Ltd. Information presentation apparatus for vehicle and information presentation method for vehicle

Also Published As

Publication number Publication date
KR20110114485A (ko) 2011-10-19
CN102211523A (zh) 2011-10-12
DE102010003850A1 (de) 2011-10-13
CN102211523B (zh) 2016-03-16

Similar Documents

Publication Publication Date Title
KR101805377B1 (ko) 대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치
US10878256B2 (en) Travel assistance device and computer program
EP2485203B1 (en) Vehicle-surroundings monitoring device
US11270589B2 (en) Surrounding vehicle display method and surrounding vehicle display device
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US9435879B2 (en) Alert display device and alert display method
US20080007428A1 (en) Driving support apparatus
JP7204772B2 (ja) ヘッドアップディスプレイシステム
JP4914726B2 (ja) 現在位置算出装置、現在位置算出方法
JP5327025B2 (ja) 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム
CN111034186B (zh) 周围车辆显示方法及周围车辆显示装置
US10099617B2 (en) Driving assistance device and driving assistance method
CN103502876A (zh) 用于校正车辆的投影装置的方法和设备
US11527013B2 (en) Camera parameter estimating device, camera parameter estimating method, and camera parameter estimating program
CN103608217A (zh) 用于泊车引导的加装组件
JP2012141154A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
JP6303418B2 (ja) 車両用走行案内装置および車両用走行案内方法
JPH0981757A (ja) 車両位置検出装置
KR20170089992A (ko) 영상 흔들림 보정 기능을 구비한 자동차용 영상 저장 장치
JP2007304841A (ja) 交通監視装置
JP2022154082A (ja) 表示補正システム、表示システム、表示補正方法、及びプログラム
CN114435386A (zh) 对驾驶员的通知装置
KR102641118B1 (ko) 사용자에게 ar 오브젝트를 제공하는 방법 및 장치
CN116238422A (zh) 用于探测车辆的周围环境的方法、探测系统和车辆
JP5962331B2 (ja) 速度推定装置及び速度推定方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right