KR101376524B1 - 주행 환경의 매핑 시스템 및 그 매핑 방법 - Google Patents

주행 환경의 매핑 시스템 및 그 매핑 방법 Download PDF

Info

Publication number
KR101376524B1
KR101376524B1 KR1020120124548A KR20120124548A KR101376524B1 KR 101376524 B1 KR101376524 B1 KR 101376524B1 KR 1020120124548 A KR1020120124548 A KR 1020120124548A KR 20120124548 A KR20120124548 A KR 20120124548A KR 101376524 B1 KR101376524 B1 KR 101376524B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
current
driving
mapping
Prior art date
Application number
KR1020120124548A
Other languages
English (en)
Inventor
황준연
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020120124548A priority Critical patent/KR101376524B1/ko
Application granted granted Critical
Publication of KR101376524B1 publication Critical patent/KR101376524B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와; 차량에 장착되고, 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑부; 및 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함하는 주행 환경의 매핑 시스템을 제공한다.
또한, 본 발명은 차량에 센싱부를 장착하고, 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와; 차량에 매핑부를 장착하고, 매핑부를 통해 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑 단계; 및 차량에 표시부를 장착하고, 표시부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함하는 주행 환경의 매핑 방법을 제공한다.

Description

주행 환경의 매핑 시스템 및 그 매핑 방법{System for mapping driving enviroment and Method for mapping thereof}
본 발명은 주행 환경의 매핑 시스템 및 그 매핑 방법에 관한 것이다.
일반적으로, 종래 차량은 운전자가 현재 도로 상황과 차량간의 현재 주행 상황을 경험상으로 판단하여 주행해야하므로, 주행중에 운전의 불편함을 제공하면서 운전의 부주의로 인한 교통 사고를 일으키는 문제점이 있었다.
최근에는, 차량에 주행 환경의 매핑 시스템을 구축시켜, 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지하도록 개선된 주행 환경의 매핑 시스템의 연구가 지속적으로 행해져오고 있다.
본 발명의 목적은, 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수가 있는 주행 환경의 매핑 시스템 및 그 매핑 방법을 제공하는데에 있다.
이러한 목적을 달성하기 위하여 본 발명은 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와; 차량에 장착되고, 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑부; 및 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함한다.
본 발명의 다른 특징에 따르면, 센싱부는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되거나, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치와 주변 차량의 색상 패치중 적어도 하나의 색상 패치를 영상으로 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기의 영상으로 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역일 경우에 영상으로 밝게 표시하거나, 주행 불가능한 환경의 영역일 경우에 영상으로 어둡게 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림부를 더 포함한다.
또한, 본 발명은 차량에 센싱부를 장착하고, 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와; 차량에 매핑부를 장착하고, 매핑부를 통해 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑 단계; 및 차량에 표시부를 장착하고, 표시부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함한다.
본 발명의 다른 특징에 따르면, 매핑 단계 이후에, 차량에 알림부를 더 장착하고, 알림부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림 단계를 더 수행한다.
상기한 바와 같이 이루어진 본 발명의 주행 환경의 매핑 시스템 및 그 매핑 방법에 따르면, 다음과 같은 효과를 얻을 수 있다.
하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수 있는 효과가 있다.
도 1은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도.
도 2는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 센싱부를 나타낸 구성도.
도 3은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 주행 가능한 환경의 영역일 경우와 주행 불가능 환경의 영역일 경우를 표시하여 나타낸 표시 상태도.
도 4는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 가드 레일의 색상 패치와 주변 차량의 색상 패치를 표시하여 나타낸 표시 상태도.
도 5는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 초기에 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도.
도 6 내지 도 8은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 일정 시간 동안 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도들.
도 9는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도.
도 10은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 11은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
도 12는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 13은 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
이하에서는 첨부된 도면을 참고로 하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.
<제 1, 2 실시예>
도 1은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도이고, 도 2는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 센싱부를 나타낸 구성도이다.
도 3은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 주행 가능한 환경의 영역일 경우와 주행 불가능 환경의 영역일 경우를 표시하여 나타낸 표시 상태도이고, 도 4는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 가드 레일의 색상 패치와 주변 차량의 색상 패치를 표시하여 나타낸 표시 상태도이다.
도 5는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 초기에 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도이고, 도 6 내지 도 8은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 일정 시간 동안 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도들이다.
도 9는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도이다.
도 1 내지 도 9를 참조하면, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)은 센싱부(102), 매핑부(104), 표시부(106)를 포함한다.
센싱부(102)는 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공된다.
여기서, 센싱부(102)는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하도록 제공될 수가 있다.
이때, 센싱부(102)는 도시하지는 않았지만, CMOS 카메라 또는 CCD 카메라등의 광학 카메라, 레이다, GPS 모듈, V2X 통신 모듈중 적어도 하나를 이용하여 위성 통신 및 차량간 통신을 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하도록 제공될 수가 있다.
여기서, 도 2에 도시된 바와 같이 센싱부(102)는 레이다 감지 물체(P1)와, 레이다 감지 영역((P2), 카메라 감지 차량(P3), 카메라 감지 영역(P4), 카메라 감지 차선(P5), 공간 평가를 위한 관심 영역(P6)중 적어도 하나를 센싱하도록 제공될 수가 있다.
이때, 센싱부(102)는 적어도 둘 이상으로 각각 제공되어 한쪽이 불량시 또는 센싱 효율이 떨어질 시에, 다른 한쪽에서 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공될 수가 있다.
도 1에 도시된 바와 같이, 매핑부(104)는 차량에 장착되고, 센싱부(102)를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하도록 제공된다.
도 1에 도시된 바와 같이, 표시부(106)는 차량에 장착되고, 매핑부(104)를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하도록 제공된다.
이때, 도 3에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역(A)일 경우에, 영상으로 밝게 표시하도록 제공될 수가 있다.
반면에, 도 3에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 불가능한 환경의 영역(B)일 경우에, 영상으로 어둡게 표시하도록 제공될 수가 있다.
이때, 도 4에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치(C)와 주변 차량의 색상 패치(D)중 적어도 하나의 색상 패치를 영상으로 표시하도록 제공될 수가 있다.
여기서, 매핑부(도1의 104)는 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하도록 제공될 수가 있다.
이때, 도 5에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 맵의 크기가 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도(좌표:0~100)와 주행 도로 관심 영역 폭(좌표:0~50) 및 주행 거리(좌표:0~30)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
즉, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
반면에, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
이때, 도 6 내지 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 서로 다른 명암도의 색상 패치가 부여되어 매핑된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치(도7 및 도8의 파란색 패치) 및 주변 차량의 현재 위치(도7 및 도8의 짙은 녹색 패치)와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치(도6의 파란색 패치) 및 주변 차량의 예측 위치(도6의 옅은 녹색 패치)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되도록 제공될 수가 있다.
이때, 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 짙은 색상 패치가 부여되어 매핑된 이상 물체와 주행 금지 구역중 적어도 하나의 짙은 색상 패치(적색 패치)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 도 6 내지 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기(S1, S2)의 영상으로 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 도 9에 도시된 바와 같이 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)은 알림부(908)를 더 포함한다.
즉, 알림부(908)는 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리도록 제공될 수가 있다.
이러한, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)을 이용하여 주행 환경이 매핑되는 방법을 살펴보면 다음 도 10 내지 도 13과 같다.
도 10은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이고, 도 11은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도이다.
도 12는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이고, 도 13은 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도이다.
도 10 내지 도 13은 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이다.
먼저, 도 10 내지 도 13을 참조하면, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)을 이용하여 주행 환경이 매핑되는 방법(1000, 1200)은 센싱 단계(S1002), 매핑 단계(S1004), 표시 단계(S1006)를 수행한다.
센싱 단계(S1002)는 차량에 센싱부(도1과 도2 및 도9의 102)를 장착하고, 센싱부(도1과 도2 및 도9의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 단계를 수행한다.
여기서, 센싱 단계(S1002)는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 단계일 수가 있다.
이때, 센싱 단계(S1002)는 도시하지는 않았지만, CMOS 카메라 또는 CCD 카메라등의 광학 카메라, 레이다, GPS 모듈, V2X 통신 모듈중 적어도 하나를 이용하여 위성 통신 및 차량간 통신을 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 단계일 수가 있다.
여기서, 센싱 단계(S1002)는 센싱부(도1과 도2 및 도9의 102)를 통해 레이다 감지 물체(P1)와, 레이다 감지 영역((P2), 카메라 감지 차량(P3), 카메라 감지 영역(P4), 카메라 감지 차선(P5), 공간 평가를 위한 관심 영역(P6)중 적어도 하나를 센싱하도록 제공하는 단계일 수가 있다.
이때, 센싱 단계(S1002)는 센싱부(도1과 도2 및 도9의 102)를 적어도 둘 이상으로 각각 제공하고, 센싱부(도1과 도2 및 도9의 102)를 통해 한쪽이 불량시 또는 센싱 효율이 떨어질 시에, 다른 한쪽에서 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공하는 단계일 수가 있다.
매핑 단계(S1004)는 차량에 매핑부(도1 및 도9의 104)를 장착하고, 매핑부(도1 및 도9의 104)를 통해 센싱부(도1과 도2 및 도9의 102)로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 단계를 수행한다.
표시 단계(S1006)는 차량에 표시부(도1과 도3 내지 도9의 106)를 장착하고, 표시부(도1과 도3 내지 도9의 106)를 통해 매핑부(도1 및 도9의 104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 단계를 수행한다.
여기서, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도5의 106)를 통해 매핑부(도1 및 도9의 의 104)로부터 맵의 크기가 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도(좌표:0~100)와 주행 도로 관심 영역 폭(좌표:0~50) 및 주행 거리(좌표:0~30)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
즉, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
반면에, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도6 내지 도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 서로 다른 명암도의 색상 패치가 부여되어 매핑된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치(도7 및 도8의 파란색 패치) 및 주변 차량의 현재 위치(도7 및 도8의 짙은 녹색 패치)와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치(도6의 파란색 패치) 및 주변 차량의 예측 위치(도6의 옅은 녹색 패치)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 짙은 색상 패치가 부여되어 매핑된 이상 물체와 주행 금지 구역중 적어도 하나의 짙은 색상 패치(적색 패치)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도6 내지 도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기(도6 내지 도8의 S1, S2)의 영상으로 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도3의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역(도3의 A)일 경우에, 영상으로 밝게 표시하도록 제공하는 단계일 수가 있다.
반면에, 표시 단계(S1006)는 표시부(도3의 106)를 통해 매핑부(도1 및 도9의 의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 불가능한 환경의 영역(도3의 B)일 경우에, 영상으로 어둡게 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도4의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치(도4의 C)와 주변 차량의 색상 패치(도4의 D)중 적어도 하나의 색상 패치를 영상으로 표시하도록 제공하는 단계일 수가 있다.
또한, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)을 이용하여 주행 환경이 매핑되는 방법(1200)은 알림 단계(S1208)를 더 수행한다.
즉, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)을 이용하여 주행 환경이 매핑되는 방법(1200)은 매핑 단계(S1004) 이후에, 차량에 알림부(도9의 908)를 더 장착하고, 알림부(도9의 908)를 통해 매핑부(도9의 104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 단계를 더 수행할 수가 있다.
한편, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)의 매핑부(도1 및 도9의 104)와 표시부(도1 및 도3 내지 도9의 106)는 도시하지는 않았지만, 표시 장치(미도시)로 제공될 수가 있고, 표시 장치(미도시)는 네비게이션으로 제공될 수가 있다.
이와 같은, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)은 센싱부(102), 매핑부(104), 표시부(106), 알림부(908)를 포함한다.
따라서, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)은 표시부(106)를 통해 매핑부(104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시할 수가 있으므로, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수가 있게 된다.
또한, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900) 및 그 매핑 방법(1200)은 알림부(908)를 통해 매핑부(104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알릴 수가 있으므로, 주행중에 운전의 편리함을 더욱 제공하면서 교통 사고를 미연에 더욱 방지할 수가 있게 된다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (12)

  1. 차량에 장착되어 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와;
    상기 차량에 장착되고, 상기 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하되, 상기 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 상기 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되는 매핑부; 및
    상기 차량에 장착되고, 상기 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함하는 주행 환경의 매핑 시스템.
  2. 제 1항에 있어서,
    상기 센싱부는,
    상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  3. 제 1항에 있어서,
    상기 매핑부는,
    상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보 및 상기 일정 시간 동안의 예상된 도로 상황 정보와 상기 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  4. 삭제
  5. 제 1항에 있어서,
    상기 매핑부는,
    상기 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되거나, 센싱율이 높음에 따라 상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 상기 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  6. 제 5항에 있어서,
    상기 매핑부는,
    상기 센싱부를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 상기 이상 물체와 상기 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  7. 제 1항에 있어서,
    상기 표시부는,
    상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치와 주변 차량의 색상 패치중 적어도 하나의 색상 패치를 영상으로 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  8. 제 1항에 있어서,
    상기 표시부는,
    상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기의 영상으로 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  9. 제 1항에 있어서,
    상기 표시부는,
    상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역일 경우에 영상으로 밝게 표시하거나, 주행 불가능한 환경의 영역일 경우에 영상으로 어둡게 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
  10. 제 1항에 있어서,
    상기 차량에 장착되고, 상기 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림부를 더 포함하는 주행 환경의 매핑 시스템.
  11. 차량에 센싱부를 장착하고, 상기 센싱부를 통해 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와;
    상기 차량에 매핑부를 장착하고, 상기 매핑부를 통해 상기 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑할 때에, 상기 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 상기 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 상기 매핑부에서 부여되는 매핑 단계; 및
    상기 차량에 표시부를 장착하고, 상기 표시부를 통해 상기 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함하는 주행 환경의 매핑 방법.
  12. 제 11항에 있어서,
    상기 매핑 단계 이후에,
    상기 차량에 알림부를 더 장착하고, 상기 알림부를 통해 상기 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림 단계를 더 수행하는 주행 환경의 매핑 방법.
KR1020120124548A 2012-11-06 2012-11-06 주행 환경의 매핑 시스템 및 그 매핑 방법 KR101376524B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120124548A KR101376524B1 (ko) 2012-11-06 2012-11-06 주행 환경의 매핑 시스템 및 그 매핑 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120124548A KR101376524B1 (ko) 2012-11-06 2012-11-06 주행 환경의 매핑 시스템 및 그 매핑 방법

Publications (1)

Publication Number Publication Date
KR101376524B1 true KR101376524B1 (ko) 2014-03-26

Family

ID=50649189

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120124548A KR101376524B1 (ko) 2012-11-06 2012-11-06 주행 환경의 매핑 시스템 및 그 매핑 방법

Country Status (1)

Country Link
KR (1) KR101376524B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703757B1 (ko) * 2015-12-03 2017-02-08 현대오트론 주식회사 라디오 채널 조정장치 및 그 제어방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216205A (ja) * 2007-03-07 2008-09-18 Fujitsu Ltd 車載ナビゲーション装置
KR20100019119A (ko) * 2008-08-08 2010-02-18 팅크웨어(주) 3차원 자차마크 표시 장치 및 그 방법
KR100961932B1 (ko) * 2010-01-29 2010-06-10 진주산업대학교 산학협력단 차량 안전주행 레이더 매핑 시스템
JP2010132144A (ja) * 2008-12-04 2010-06-17 Denso Corp 車両用周辺監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216205A (ja) * 2007-03-07 2008-09-18 Fujitsu Ltd 車載ナビゲーション装置
KR20100019119A (ko) * 2008-08-08 2010-02-18 팅크웨어(주) 3차원 자차마크 표시 장치 및 그 방법
JP2010132144A (ja) * 2008-12-04 2010-06-17 Denso Corp 車両用周辺監視装置
KR100961932B1 (ko) * 2010-01-29 2010-06-10 진주산업대학교 산학협력단 차량 안전주행 레이더 매핑 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703757B1 (ko) * 2015-12-03 2017-02-08 현대오트론 주식회사 라디오 채널 조정장치 및 그 제어방법

Similar Documents

Publication Publication Date Title
US9715827B2 (en) Multi-view traffic signage
CN110892233B (zh) 用于传感器范围和视场的车载增强可视化的方法和装置
US11787287B2 (en) Vehicle drive assist system, vehicle drive assist method, and vehicle drive assist program
CN109427199B (zh) 用于辅助驾驶的增强现实的方法及装置
KR101957943B1 (ko) 정보 제공 방법 및 이를 위한 정보 제공 차량
EP3112810B1 (en) Advanced driver assistance apparatus, display apparatus for vehicle and vehicle
KR102104500B1 (ko) 정보 제공 방법 및 이를 위한 정보 제공 차량
US20190244515A1 (en) Augmented reality dsrc data visualization
US20150324649A1 (en) Method and Device for Analyzing Trafficability
US10546422B2 (en) System and method for augmented reality support using a lighting system&#39;s sensor data
CN109849907A (zh) 用于保持车道的方法和设备以及车道引导设备
US20230135641A1 (en) Superimposed image display device
US11587438B2 (en) Control apparatus and method for causing light demitting devices to display crosswalk
JP2008046766A (ja) 車両外部情報表示装置
JP2008097279A (ja) 車両外部情報表示装置
CN114348015B (zh) 车辆控制装置和车辆控制方法
KR102415620B1 (ko) 보행자 판단 시스템을 포함하는 가변형 차량 속도 경고 시스템
KR101376524B1 (ko) 주행 환경의 매핑 시스템 및 그 매핑 방법
JP2009230225A (ja) 車両用周囲監視装置
US11697346B1 (en) Lane position in augmented reality head-up display system
US12080038B2 (en) System and method for augmented decision making by detecting occlusions
KR102282368B1 (ko) 정보 제공 방법 및 이를 위한 정보 제공 차량
US11893658B2 (en) Augmented vehicle testing environment
JP2019117432A (ja) 表示制御装置
JP2019117052A (ja) 表示制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161222

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171222

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181226

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191219

Year of fee payment: 7