KR101376524B1 - 주행 환경의 매핑 시스템 및 그 매핑 방법 - Google Patents
주행 환경의 매핑 시스템 및 그 매핑 방법 Download PDFInfo
- Publication number
- KR101376524B1 KR101376524B1 KR1020120124548A KR20120124548A KR101376524B1 KR 101376524 B1 KR101376524 B1 KR 101376524B1 KR 1020120124548 A KR1020120124548 A KR 1020120124548A KR 20120124548 A KR20120124548 A KR 20120124548A KR 101376524 B1 KR101376524 B1 KR 101376524B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- current
- driving
- mapping
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와; 차량에 장착되고, 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑부; 및 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함하는 주행 환경의 매핑 시스템을 제공한다.
또한, 본 발명은 차량에 센싱부를 장착하고, 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와; 차량에 매핑부를 장착하고, 매핑부를 통해 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑 단계; 및 차량에 표시부를 장착하고, 표시부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함하는 주행 환경의 매핑 방법을 제공한다.
또한, 본 발명은 차량에 센싱부를 장착하고, 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와; 차량에 매핑부를 장착하고, 매핑부를 통해 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑 단계; 및 차량에 표시부를 장착하고, 표시부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함하는 주행 환경의 매핑 방법을 제공한다.
Description
본 발명은 주행 환경의 매핑 시스템 및 그 매핑 방법에 관한 것이다.
일반적으로, 종래 차량은 운전자가 현재 도로 상황과 차량간의 현재 주행 상황을 경험상으로 판단하여 주행해야하므로, 주행중에 운전의 불편함을 제공하면서 운전의 부주의로 인한 교통 사고를 일으키는 문제점이 있었다.
최근에는, 차량에 주행 환경의 매핑 시스템을 구축시켜, 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지하도록 개선된 주행 환경의 매핑 시스템의 연구가 지속적으로 행해져오고 있다.
본 발명의 목적은, 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수가 있는 주행 환경의 매핑 시스템 및 그 매핑 방법을 제공하는데에 있다.
이러한 목적을 달성하기 위하여 본 발명은 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와; 차량에 장착되고, 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑부; 및 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함한다.
본 발명의 다른 특징에 따르면, 센싱부는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되거나, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 매핑부는 센싱부를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치와 주변 차량의 색상 패치중 적어도 하나의 색상 패치를 영상으로 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기의 영상으로 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 표시부는 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역일 경우에 영상으로 밝게 표시하거나, 주행 불가능한 환경의 영역일 경우에 영상으로 어둡게 표시하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림부를 더 포함한다.
또한, 본 발명은 차량에 센싱부를 장착하고, 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와; 차량에 매핑부를 장착하고, 매핑부를 통해 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 매핑 단계; 및 차량에 표시부를 장착하고, 표시부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함한다.
본 발명의 다른 특징에 따르면, 매핑 단계 이후에, 차량에 알림부를 더 장착하고, 알림부를 통해 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림 단계를 더 수행한다.
상기한 바와 같이 이루어진 본 발명의 주행 환경의 매핑 시스템 및 그 매핑 방법에 따르면, 다음과 같은 효과를 얻을 수 있다.
하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하거나 음성으로 알려, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수 있는 효과가 있다.
도 1은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도.
도 2는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 센싱부를 나타낸 구성도.
도 3은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 주행 가능한 환경의 영역일 경우와 주행 불가능 환경의 영역일 경우를 표시하여 나타낸 표시 상태도.
도 4는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 가드 레일의 색상 패치와 주변 차량의 색상 패치를 표시하여 나타낸 표시 상태도.
도 5는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 초기에 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도.
도 6 내지 도 8은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 일정 시간 동안 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도들.
도 9는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도.
도 10은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 11은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
도 12는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 13은 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
도 2는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 센싱부를 나타낸 구성도.
도 3은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 주행 가능한 환경의 영역일 경우와 주행 불가능 환경의 영역일 경우를 표시하여 나타낸 표시 상태도.
도 4는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 가드 레일의 색상 패치와 주변 차량의 색상 패치를 표시하여 나타낸 표시 상태도.
도 5는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 초기에 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도.
도 6 내지 도 8은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 일정 시간 동안 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도들.
도 9는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도.
도 10은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 11은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
도 12는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도.
도 13은 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도.
이하에서는 첨부된 도면을 참고로 하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.
<제 1, 2 실시예>
도 1은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도이고, 도 2는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 센싱부를 나타낸 구성도이다.
도 3은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 주행 가능한 환경의 영역일 경우와 주행 불가능 환경의 영역일 경우를 표시하여 나타낸 표시 상태도이고, 도 4는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 표시부중 가드 레일의 색상 패치와 주변 차량의 색상 패치를 표시하여 나타낸 표시 상태도이다.
도 5는 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 초기에 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도이고, 도 6 내지 도 8은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템의 매핑부를 통해 일정 시간 동안 매핑된 하나의 이미지 데이터를 3D 모델링화하여 표시한 표시 상태도들이다.
도 9는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 나타낸 블럭 구성도이다.
도 1 내지 도 9를 참조하면, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)은 센싱부(102), 매핑부(104), 표시부(106)를 포함한다.
센싱부(102)는 차량에 장착되어 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공된다.
여기서, 센싱부(102)는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하도록 제공될 수가 있다.
이때, 센싱부(102)는 도시하지는 않았지만, CMOS 카메라 또는 CCD 카메라등의 광학 카메라, 레이다, GPS 모듈, V2X 통신 모듈중 적어도 하나를 이용하여 위성 통신 및 차량간 통신을 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하도록 제공될 수가 있다.
여기서, 도 2에 도시된 바와 같이 센싱부(102)는 레이다 감지 물체(P1)와, 레이다 감지 영역((P2), 카메라 감지 차량(P3), 카메라 감지 영역(P4), 카메라 감지 차선(P5), 공간 평가를 위한 관심 영역(P6)중 적어도 하나를 센싱하도록 제공될 수가 있다.
이때, 센싱부(102)는 적어도 둘 이상으로 각각 제공되어 한쪽이 불량시 또는 센싱 효율이 떨어질 시에, 다른 한쪽에서 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공될 수가 있다.
도 1에 도시된 바와 같이, 매핑부(104)는 차량에 장착되고, 센싱부(102)를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하도록 제공된다.
도 1에 도시된 바와 같이, 표시부(106)는 차량에 장착되고, 매핑부(104)를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하도록 제공된다.
이때, 도 3에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역(A)일 경우에, 영상으로 밝게 표시하도록 제공될 수가 있다.
반면에, 도 3에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 불가능한 환경의 영역(B)일 경우에, 영상으로 어둡게 표시하도록 제공될 수가 있다.
이때, 도 4에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치(C)와 주변 차량의 색상 패치(D)중 적어도 하나의 색상 패치를 영상으로 표시하도록 제공될 수가 있다.
여기서, 매핑부(도1의 104)는 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하도록 제공될 수가 있다.
이때, 도 5에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 맵의 크기가 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도(좌표:0~100)와 주행 도로 관심 영역 폭(좌표:0~50) 및 주행 거리(좌표:0~30)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
즉, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
반면에, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되도록 제공될 수가 있다.
이때, 도 6 내지 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 서로 다른 명암도의 색상 패치가 부여되어 매핑된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치(도7 및 도8의 파란색 패치) 및 주변 차량의 현재 위치(도7 및 도8의 짙은 녹색 패치)와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치(도6의 파란색 패치) 및 주변 차량의 예측 위치(도6의 옅은 녹색 패치)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 매핑부(도1의 104)는 센싱부(도1 및 도2의 102)를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되도록 제공될 수가 있다.
이때, 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 짙은 색상 패치가 부여되어 매핑된 이상 물체와 주행 금지 구역중 적어도 하나의 짙은 색상 패치(적색 패치)를 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 도 6 내지 도 8에 도시된 바와 같이 표시부(106)는 매핑부(도1의 104)를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기(S1, S2)의 영상으로 3D 모델링화하여 표시하도록 제공될 수가 있다.
또한, 도 9에 도시된 바와 같이 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)은 알림부(908)를 더 포함한다.
즉, 알림부(908)는 차량에 장착되고, 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리도록 제공될 수가 있다.
이러한, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)을 이용하여 주행 환경이 매핑되는 방법을 살펴보면 다음 도 10 내지 도 13과 같다.
도 10은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이고, 도 11은 본 발명의 제 1 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도이다.
도 12는 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이고, 도 13은 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 일예로 나타낸 순서도이다.
도 10 내지 도 13은 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템을 이용하여 주행 환경이 매핑되는 방법을 나타낸 순서도이다.
먼저, 도 10 내지 도 13을 참조하면, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900)을 이용하여 주행 환경이 매핑되는 방법(1000, 1200)은 센싱 단계(S1002), 매핑 단계(S1004), 표시 단계(S1006)를 수행한다.
센싱 단계(S1002)는 차량에 센싱부(도1과 도2 및 도9의 102)를 장착하고, 센싱부(도1과 도2 및 도9의 102)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 단계를 수행한다.
여기서, 센싱 단계(S1002)는 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 단계일 수가 있다.
이때, 센싱 단계(S1002)는 도시하지는 않았지만, CMOS 카메라 또는 CCD 카메라등의 광학 카메라, 레이다, GPS 모듈, V2X 통신 모듈중 적어도 하나를 이용하여 위성 통신 및 차량간 통신을 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 단계일 수가 있다.
여기서, 센싱 단계(S1002)는 센싱부(도1과 도2 및 도9의 102)를 통해 레이다 감지 물체(P1)와, 레이다 감지 영역((P2), 카메라 감지 차량(P3), 카메라 감지 영역(P4), 카메라 감지 차선(P5), 공간 평가를 위한 관심 영역(P6)중 적어도 하나를 센싱하도록 제공하는 단계일 수가 있다.
이때, 센싱 단계(S1002)는 센싱부(도1과 도2 및 도9의 102)를 적어도 둘 이상으로 각각 제공하고, 센싱부(도1과 도2 및 도9의 102)를 통해 한쪽이 불량시 또는 센싱 효율이 떨어질 시에, 다른 한쪽에서 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하도록 제공하는 단계일 수가 있다.
매핑 단계(S1004)는 차량에 매핑부(도1 및 도9의 104)를 장착하고, 매핑부(도1 및 도9의 104)를 통해 센싱부(도1과 도2 및 도9의 102)로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하는 단계를 수행한다.
표시 단계(S1006)는 차량에 표시부(도1과 도3 내지 도9의 106)를 장착하고, 표시부(도1과 도3 내지 도9의 106)를 통해 매핑부(도1 및 도9의 104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 단계를 수행한다.
여기서, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도5의 106)를 통해 매핑부(도1 및 도9의 의 104)로부터 맵의 크기가 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도(좌표:0~100)와 주행 도로 관심 영역 폭(좌표:0~50) 및 주행 거리(좌표:0~30)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
즉, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
반면에, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 높음에 따라 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도6 내지 도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 서로 다른 명암도의 색상 패치가 부여되어 매핑된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치(도7 및 도8의 파란색 패치) 및 주변 차량의 현재 위치(도7 및 도8의 짙은 녹색 패치)와, 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치(도6의 파란색 패치) 및 주변 차량의 예측 위치(도6의 옅은 녹색 패치)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 매핑 단계(S1004)는 매핑부(도1 및 도9의 104)를 통해 센싱부(도1 및 도2의 102)로부터 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 이상 물체와 주행 금지 구역중 적어도 하나에 짙은 색상 패치를 부여하도록 제공하는 단계일 수가 있다.
이 후, 표시 단계(S1006)는 표시부(도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 짙은 색상 패치가 부여되어 매핑된 이상 물체와 주행 금지 구역중 적어도 하나의 짙은 색상 패치(적색 패치)를 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도6 내지 도8의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기(도6 내지 도8의 S1, S2)의 영상으로 3D 모델링화하여 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도3의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역(도3의 A)일 경우에, 영상으로 밝게 표시하도록 제공하는 단계일 수가 있다.
반면에, 표시 단계(S1006)는 표시부(도3의 106)를 통해 매핑부(도1 및 도9의 의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 불가능한 환경의 영역(도3의 B)일 경우에, 영상으로 어둡게 표시하도록 제공하는 단계일 수가 있다.
또한, 표시 단계(S1006)는 표시부(도4의 106)를 통해 매핑부(도1 및 도9의 104)로부터 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치(도4의 C)와 주변 차량의 색상 패치(도4의 D)중 적어도 하나의 색상 패치를 영상으로 표시하도록 제공하는 단계일 수가 있다.
또한, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)을 이용하여 주행 환경이 매핑되는 방법(1200)은 알림 단계(S1208)를 더 수행한다.
즉, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900)을 이용하여 주행 환경이 매핑되는 방법(1200)은 매핑 단계(S1004) 이후에, 차량에 알림부(도9의 908)를 더 장착하고, 알림부(도9의 908)를 통해 매핑부(도9의 104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 단계를 더 수행할 수가 있다.
한편, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)의 매핑부(도1 및 도9의 104)와 표시부(도1 및 도3 내지 도9의 106)는 도시하지는 않았지만, 표시 장치(미도시)로 제공될 수가 있고, 표시 장치(미도시)는 네비게이션으로 제공될 수가 있다.
이와 같은, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)은 센싱부(102), 매핑부(104), 표시부(106), 알림부(908)를 포함한다.
따라서, 본 발명의 제 1, 2 실시예에 따른 주행 환경의 매핑 시스템(100, 900) 및 그 매핑 방법(1000, 1200)은 표시부(106)를 통해 매핑부(104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시할 수가 있으므로, 주행중에 운전의 편리함을 제공하면서 교통 사고를 미연에 방지할 수가 있게 된다.
또한, 본 발명의 제 2 실시예에 따른 주행 환경의 매핑 시스템(900) 및 그 매핑 방법(1200)은 알림부(908)를 통해 매핑부(104)로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알릴 수가 있으므로, 주행중에 운전의 편리함을 더욱 제공하면서 교통 사고를 미연에 더욱 방지할 수가 있게 된다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (12)
- 차량에 장착되어 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱부와;
상기 차량에 장착되고, 상기 센싱부를 통해 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑하되, 상기 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 상기 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 부여되는 매핑부; 및
상기 차량에 장착되고, 상기 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시부를 포함하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 센싱부는,
상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 해당하는 차량의 위치, 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 도로 관심 영역 폭, 차선, 도로 경사각, 도로 곡률, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 센싱하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 매핑부는,
상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보 및 상기 일정 시간 동안의 예상된 도로 상황 정보와 상기 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보에 해당하는 차량의 속도와 주행 도로 관심 영역 폭 및 주행 거리로 맵의 크기를 결정하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 삭제
- 제 1항에 있어서,
상기 매핑부는,
상기 센싱부를 통해 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱할 때에, 센싱율이 낮음에 따라 상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 낮은 명암도의 색상 패치가 부여되거나, 센싱율이 높음에 따라 상기 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보에 상기 낮은 명암도의 색상 패치보다 높은 명암도의 색상 패치가 부여되는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 5항에 있어서,
상기 매핑부는,
상기 센싱부를 통해 현재 도로 상황 정보에 해당하는 이상 물체와 주행 금지 구역중 적어도 하나를 센싱할 때에, 상기 이상 물체와 상기 주행 금지 구역중 적어도 하나에 짙은 색상 패치가 부여되는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 표시부는,
상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 가드 레일의 색상 패치와 주변 차량의 색상 패치중 적어도 하나의 색상 패치를 영상으로 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 표시부는,
상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 일정 시간 동안의 예상된 도로 상황 정보에 해당하는 도로 경사각과 도로 곡률중 적어도 하나를 횡방향 기울기의 영상으로 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 표시부는,
상기 매핑부를 통해 부여되어 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 속도, 주변 차량의 위치, 주변 차량의 속도, 주행 금지 구역, 가드 레일, 이상 물체중 적어도 하나를 기반으로 주행 가능한 환경의 영역일 경우에 영상으로 밝게 표시하거나, 주행 불가능한 환경의 영역일 경우에 영상으로 어둡게 표시하는 것을 특징으로 하는 주행 환경의 매핑 시스템.
- 제 1항에 있어서,
상기 차량에 장착되고, 상기 매핑부를 통해 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림부를 더 포함하는 주행 환경의 매핑 시스템.
- 차량에 센싱부를 장착하고, 상기 센싱부를 통해 현재 도로 상황 정보와 상기 차량간의 현재 주행 정보중 적어도 하나의 정보를 센싱하는 센싱 단계와;
상기 차량에 매핑부를 장착하고, 상기 매핑부를 통해 상기 센싱부로부터 센싱된 현재 도로 상황 정보와 차량간의 현재 주행 정보중 적어도 하나의 정보를 공급받아 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 추출하여 하나의 이미지 데이터로 매핑할 때에, 상기 센싱부를 통해 센싱된 차량간의 현재 주행 정보에 해당하는 차량의 현재 위치 및 주변 차량의 현재 위치와, 상기 일정 시간 동안의 예상된 차량간의 주행 정보에 해당하는 차량의 예측 위치 및 주변 차량의 예측 위치에 따라 서로 다른 명암도의 색상 패치가 상기 매핑부에서 부여되는 매핑 단계; 및
상기 차량에 표시부를 장착하고, 상기 표시부를 통해 상기 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 영상으로 표시하는 표시 단계를 포함하는 주행 환경의 매핑 방법.
- 제 11항에 있어서,
상기 매핑 단계 이후에,
상기 차량에 알림부를 더 장착하고, 상기 알림부를 통해 상기 매핑부로부터 하나의 이미지 데이터로 매핑된 현재 도로 상황 정보와 차량간의 현재 주행 정보 및 일정 시간 동안의 예상된 도로 상황 정보와 일정 시간 동안의 예상된 차량간의 주행 정보중 적어도 하나의 정보를 음성으로 알리는 알림 단계를 더 수행하는 주행 환경의 매핑 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120124548A KR101376524B1 (ko) | 2012-11-06 | 2012-11-06 | 주행 환경의 매핑 시스템 및 그 매핑 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120124548A KR101376524B1 (ko) | 2012-11-06 | 2012-11-06 | 주행 환경의 매핑 시스템 및 그 매핑 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101376524B1 true KR101376524B1 (ko) | 2014-03-26 |
Family
ID=50649189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120124548A KR101376524B1 (ko) | 2012-11-06 | 2012-11-06 | 주행 환경의 매핑 시스템 및 그 매핑 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101376524B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101703757B1 (ko) * | 2015-12-03 | 2017-02-08 | 현대오트론 주식회사 | 라디오 채널 조정장치 및 그 제어방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008216205A (ja) * | 2007-03-07 | 2008-09-18 | Fujitsu Ltd | 車載ナビゲーション装置 |
KR20100019119A (ko) * | 2008-08-08 | 2010-02-18 | 팅크웨어(주) | 3차원 자차마크 표시 장치 및 그 방법 |
KR100961932B1 (ko) * | 2010-01-29 | 2010-06-10 | 진주산업대학교 산학협력단 | 차량 안전주행 레이더 매핑 시스템 |
JP2010132144A (ja) * | 2008-12-04 | 2010-06-17 | Denso Corp | 車両用周辺監視装置 |
-
2012
- 2012-11-06 KR KR1020120124548A patent/KR101376524B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008216205A (ja) * | 2007-03-07 | 2008-09-18 | Fujitsu Ltd | 車載ナビゲーション装置 |
KR20100019119A (ko) * | 2008-08-08 | 2010-02-18 | 팅크웨어(주) | 3차원 자차마크 표시 장치 및 그 방법 |
JP2010132144A (ja) * | 2008-12-04 | 2010-06-17 | Denso Corp | 車両用周辺監視装置 |
KR100961932B1 (ko) * | 2010-01-29 | 2010-06-10 | 진주산업대학교 산학협력단 | 차량 안전주행 레이더 매핑 시스템 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101703757B1 (ko) * | 2015-12-03 | 2017-02-08 | 현대오트론 주식회사 | 라디오 채널 조정장치 및 그 제어방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9715827B2 (en) | Multi-view traffic signage | |
CN110892233B (zh) | 用于传感器范围和视场的车载增强可视化的方法和装置 | |
US11787287B2 (en) | Vehicle drive assist system, vehicle drive assist method, and vehicle drive assist program | |
CN109427199B (zh) | 用于辅助驾驶的增强现实的方法及装置 | |
KR101957943B1 (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
EP3112810B1 (en) | Advanced driver assistance apparatus, display apparatus for vehicle and vehicle | |
KR102104500B1 (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
US20190244515A1 (en) | Augmented reality dsrc data visualization | |
US20150324649A1 (en) | Method and Device for Analyzing Trafficability | |
US10546422B2 (en) | System and method for augmented reality support using a lighting system's sensor data | |
CN109849907A (zh) | 用于保持车道的方法和设备以及车道引导设备 | |
US20230135641A1 (en) | Superimposed image display device | |
US11587438B2 (en) | Control apparatus and method for causing light demitting devices to display crosswalk | |
JP2008046766A (ja) | 車両外部情報表示装置 | |
JP2008097279A (ja) | 車両外部情報表示装置 | |
CN114348015B (zh) | 车辆控制装置和车辆控制方法 | |
KR102415620B1 (ko) | 보행자 판단 시스템을 포함하는 가변형 차량 속도 경고 시스템 | |
KR101376524B1 (ko) | 주행 환경의 매핑 시스템 및 그 매핑 방법 | |
JP2009230225A (ja) | 車両用周囲監視装置 | |
US11697346B1 (en) | Lane position in augmented reality head-up display system | |
US12080038B2 (en) | System and method for augmented decision making by detecting occlusions | |
KR102282368B1 (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
US11893658B2 (en) | Augmented vehicle testing environment | |
JP2019117432A (ja) | 表示制御装置 | |
JP2019117052A (ja) | 表示制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161222 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171222 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20181226 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20191219 Year of fee payment: 7 |