KR102645769B1 - 주변 객체의 안전을 보조하는 차량 안전 지원 시스템 - Google Patents

주변 객체의 안전을 보조하는 차량 안전 지원 시스템 Download PDF

Info

Publication number
KR102645769B1
KR102645769B1 KR1020230150818A KR20230150818A KR102645769B1 KR 102645769 B1 KR102645769 B1 KR 102645769B1 KR 1020230150818 A KR1020230150818 A KR 1020230150818A KR 20230150818 A KR20230150818 A KR 20230150818A KR 102645769 B1 KR102645769 B1 KR 102645769B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
guide image
display
data processing
Prior art date
Application number
KR1020230150818A
Other languages
English (en)
Inventor
구효정
최용환
Original Assignee
주식회사 마바산업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마바산업 filed Critical 주식회사 마바산업
Priority to KR1020230150818A priority Critical patent/KR102645769B1/ko
Application granted granted Critical
Publication of KR102645769B1 publication Critical patent/KR102645769B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/503Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text
    • B60Q1/5035Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays
    • B60Q1/5037Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays the display content changing automatically, e.g. depending on traffic situation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/545Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other traffic conditions, e.g. fog, heavy traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2800/00Features related to particular types of vehicles not otherwise provided for
    • B60Q2800/10Autonomous vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

차량 주변 객체의 안전을 보조하는 차량 안전 지원 시스템이 제공된다. 본 발명의 실시예에 따른 차량 안전 지원 시스템은 차량; 상기 차량에 배치된 프로젝터; 상기 차량의 주변에 위치하는 적어도 하나의 객체를 식별하여 객체 식별 정보를 생성하고, 식별된 객체의 위치에 대응하는 객체 위치 정보를 생성하는 센싱부; 및 상기 객체 식별 정보를 고려하여 가이드 이미지를 생성하는 데이터 처리부를 포함하되, 상기 프로젝터는 상기 객체 위치 정보에 대응하여 상기 적어도 하나의 객체가 위치한 바닥면에 상기 가이드 이미지를 투영하고, 상기 센싱부는 상기 객체의 이동 여부를 판단하여 객체 이동 정보를 생성하며, 상기 프로젝터는 상기 객체 이동 정보에 따라 상기 가이드 이미지가 상기 객체를 트랙킹하도록 상기 가이드 이미지의 투영 위치를 조절한다.

Description

주변 객체의 안전을 보조하는 차량 안전 지원 시스템{Safety support system for assisting the safety of objects around the vehicle}
본 발명은 차량과 주변 객체의 안전을 보조할 수 있는 차량 안전 지원 시스템에 관한 것이다. 구체적으로, 본 발명은 차량과 관련된 주체의 안전한 승하차를 지원하고, 차량과 관련된 다양한 정보를 주변 차량 또는 도로 이용자에게 제공하여 차량의 주변 객체의 안전을 보조할 수 있는 차량 안전 지원 시스템에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
4차 산업 혁명과 함께, 차량(모빌리티)에 개념 변화, 특히, 차량을 "소유"한다는 것에서 "이용" 또는 "공유"한다는 것으로 개념 변화가 발생하고 있으며, 관련된 시장과 관련된 서비스가 폭발적인 성장세에 있다.
특히, 다수의 사용자가 다양한 목적으로 공유된 차량을 이용할 수 있으므로, 다양한 모빌리티 목적성 변화 및 사용자의 다양한 니즈를 충족하기 위한 목적 기반 차량(PBV, Purpose Built Vehicle)의 개발이 활발하게 진행되고 있다.
목적 기반 차량은 다양한 종류, 특징을 가진 디스플레이(PDLC, 플렉서블 디스플레이, 투명 디스플레이, 프로젝터 등)가 차량의 내부, 외부에 배치될 수 있다. 목적 기반 차량은 종래 아날로그식 정보 표기에 비해 더욱 다양한 정보를 운행 목적, 상황에 따라 제공하도록 제어될 수 있다.
이에, 본 발명의 출원인은 차량에 배치된 다양한 디스플레이 장치를 통해 차량과 관련된 주체의 안전한 승하차를 지원하고, 차량과 관련된 다양한 정보를 주변 차량 또는 도로 이용자에게 제공하여 차량의 주변 객체의 안전을 보조할 수 있는 기술을 제안하는 데 이르렀다.
본 발명의 과제는, 차량과 관련된 주체의 안전한 승하차를 지원하고, 차량과 관련된 다양한 정보를 주변 차량 또는 도로 이용자에게 제공하여 차량의 주변 객체의 안전을 보조할 수 있는 차량 안전 지원 시스템을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 몇몇 실시예에 따른 차량의 안전 보조 시스템은 차량; 상기 차량에 배치된 프로젝터; 상기 차량의 주변에 위치하는 적어도 하나의 객체를 식별하여 객체 식별 정보를 생성하고, 식별된 객체의 위치에 대응하는 객체 위치 정보를 생성하는 센싱부; 및 상기 객체 식별 정보를 고려하여 가이드 이미지를 생성하는 데이터 처리부를 포함하되, 상기 프로젝터는 상기 객체 위치 정보에 대응하여 상기 적어도 하나의 객체가 위치한 바닥면에 상기 가이드 이미지를 투영하고, 상기 센싱부는 상기 객체의 이동 여부를 판단하여 객체 이동 정보를 생성하며, 상기 프로젝터는 상기 객체 이동 정보에 따라 상기 가이드 이미지가 상기 객체를 트랙킹(추적)하도록 상기 가이드 이미지의 투영 위치를 조절한다.
또한, 상기 객체 식별 정보는 식별된 객체의 크기 정보를 포함하고, 상기 데이터 처리부는 상기 객체의 크기 정보에 따라 상기 객체의 보호 영역을 정의하고, 상기 보호 영역의 테두리가 강조되도록 상기 가이드 이미지를 생성할 수 있다.
또한, 상기 적어도 하나의 객체는 상기 차량에서 하차하는 상태이며, 상기 센싱부는 상기 차량에서 하차하는 상기 객체를 식별하여 상기 객체 위치 정보 및 상기 객체 식별 정보를 생성하며, 상기 센싱부는 상기 차량의 도어의 오픈에 대응하여 활성화될 수 있다.
또한, 상기 차량의 승하차 영역에 배치되는 외부 디스플레이를 더 포함하며, 상기 외부 디스플레이는 상기 객체와의 접촉을 인식하여 객체 터치 정보를 생성하고, 상기 데이터 처리부는 상기 객체 식별 정보를 고려하여 보조 가이드 이미지를 더 생성하며, 상기 외부 디스플레이는 상기 객체 터치 정보를 고려하여 상기 보조 가이드 이미지를 표시하도록 제어될 수 있다.
또한, 상기 데이터 처리부는 상기 객체 식별 정보와 템플릿 이미지를 기초하여 상기 가이드 이미지와 상기 보조 가이드 이미지를 생성하도록 구성되며, 상기 데이터 처리부는 상기 템플릿 이미지를 생성하거나 선택할 수 있는 사용자 환경을 제공하도록 더 구성될 수 있다.
또한, 상기 차량의 내부 또는 외부에 배치되는 차량 디스플레이부를 더 포함하며, 상기 차량 디스플레이부는 적어도 상기 차량의 후면에 배치되는 후면 디스플레이를 포함할 수 있다.
또한, 상기 데이터 처리부는 상기 차량의 동작 상태와 관련된 정보, 상기 차량이 운행되는 도로의 교통 상태 정보 및 상기 차량이 운행되는 도로의 신호 정보 중 적어도 하나를 상기 차량 디스플레이부에 표시하도록 구성될 수 있다.
또한, 상기 데이터 처리부는 상기 차량의 후방에서 주행 중인 차량과 관계된 후방 차량 안내 정보를 더 생성하며, 상기 데이터 처리부는 상기 후방 차량 안내 정보를 상기 후면 디스플레이에 더 표시할 수 있다.
또한, 상기 데이터 처리부는 상기 객체 식별 정보 및 상기 객체 위치 정보에 따른 상기 객체의 이동과 관련된 정보를 상기 차량 디스플레이부에 표시하도록 구성될 수 있다.
또한, 상기 차량은 자율 주행 모드 또는 수동 운전 모드로 주행 모드의 전환이 가능한 차량이며, 상기 데이터 처리부는 상기 차량의 현재 주행 모드 정보를 상기 차량 디스플레이부에 표시하며, 상기 데이터 처리부는 상기 차량이 자율 주행 모드인 경우, 상기 자율 주행 모드의 자율 주행 레벨 정보를 상기 현재 주행 모드 정보와 함께 상기 차량 디스플레이부에 더 표시할 수 있다.
본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템은 차량과 관련된 객체의 위치를 트랙킹(추적)하여 표시하여 차량 주변 오브젝트들이 객체를 인식하는 것을 보조할 수 있다. 이에 따라, 차량과 관련된 객체의 안전한 승하차가 수행되는 것을 지원할 수 있다.
또한, 본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템은 차량과 관련된 다양한 정보를 외부 디스플레이를 통해 제공하여, 차량 주변 오브젝트들의 안전한 통행 또는 안전한 주행이 수행되는 것을 지원할 수 있다.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템의 구성을 설명하기 위한 예시도이다.
도 2a 및 도 2b는 차량에 배치된 프로젝터와 차량 디스플레이부를 설명하기 위한 예시도이다.
도 3a 및 도 3b는 차량에 배치된 프로젝터의 동작 상태를 설명하기 위한 예시도이다.
도 4는 차량의 주변 객체에 대응하여 프로젝터가 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다.
도 5는 차량의 주변 객체의 이동에 대응하여 프로젝터가 객체를 추적하여 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다.
도 6은 차량의 주변 객체에 대응하여 외부 디스플레이가 보조 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다.
도 7은 차량의 주변 객체의 이동에 대응하여 외부 디스플레이가 객체를 추적하여 보조 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다.
도 8은 제1, 제2 프로젝터를 선택적으로 실행하는 과정을 설명하기 위한 예시도이다.
도 9는 사용자 단말을 통해 가이드 이미지와 보조 가이드 이미지를 설정하는 과정을 설명하기 위한 예시도이다.
도 10a 내지 도 10e는 차량 디스플레이부에 차량과 관련된 정보를 출력하는 상태를 도시한 예시도이다.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.
이하, 도 1 내지 도 10e를 참조하여, 본 발명의 몇몇 실시예에 따른 주변 객체의 안전을 보조하는 차량 안전 지원 시스템을 설명한다.
도 1은 본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템의 구성을 도시하는 블록도이다. 도 2a 및 도 2b는 차량에 배치된 프로젝터와 차량 디스플레이부를 설명하기 위한 예시도이다. 도 3a 및 도 3b는 차량에 배치된 프로젝터의 동작 상태를 설명하기 위한 예시도이다.
도 1을 참조하면, 차량 안전 지원 시스템(10)은 차량(100), 프로젝터(110), 센싱부(120), 데이터 처리부(130), 차량 디스플레이부(140) 및 외부 디스플레이(150)를 포함한다.
차량(100)은 사용자의 목적과 요구에 대응하는 기능을 제공할 수 있는 목적 기반 차량(PBV)을 의미한다. 또한, 차량(100)은 여러 목적으로 활용될 수 있는 다목적 차량(MPV, multiple purpose vehicle)을 의미할 수 있으며, 후술하는 구성을 통해 여러 서비스를 제공하거나, 여러 목적으로 이용되기 위해 유연하게 변화될 수 있다.
본 실시예에서, 차량(100)은 차량의 기본 기능인 주행 기능과 함께 다양한 목적에 부합하는 서비스를 제공하기 위해 차량(100)의 내부 구성이 자유롭게 변화될 수 있다. 차량(100)의 내부 실내 공간(캐빈)에는 다양한 구성(좌석, 수납 장치, 전자 장치 등)이 배치될 수 있으며, 이러한 구성들은 서비스에 따라 다르게 제공될 수 있다.
센싱부(120)는 차량(100)의 운행을 위한 센싱 장치일 수 있다. 여기서, 차량(100)은 자율 주행으로 운행되는 자율 주행 차량일 수 있다. 즉, 센싱부(120)를 통해 수집되는 정보에 기초하여 차량(100)의 자율 주행이 수행될 수 있다. 또한, 센싱부(120)는 차량(100)의 속도 변화, 차량(100)의 주요 구성의 변화를 인식할 수 있다. 또한, 센싱부(120)는 비전 센서, 라이더 센서, 레이더 센서 및 적외선 센서 중 적어도 하나를 포함하도록 구성될 수 있으며, 차량 주변 환경의 객체를 센싱, 인식할 수 있다.
데이터 처리부(130)는 센싱부(120)에서 수집된 정보를 기초로 차량(100)의 운행, 동작에 필요한 데이터를 처리, 생성할 수 있다. 예시적으로, 센싱부(120)에서 수집된 정보에 기초하여 차량(100)의 자율 주행에 필요한 운행 데이터를 생성할 수 있다. 또한, 데이터 처리부(130)는 차량의 운행 목적 또는 서비스 내용에 따라 차량 디스플레이부(140) 및 프로젝터(110)에 표시되는 내용을 결정할 수 있다. 또한, 데이터 처리부(130)는 차량(100)의 상태와 관련된 정보를 차량 디스플레이부(140) 및 프로젝터(110)에 표시하도록 구성될 수 있다.
차량 디스플레이부(140)는 차량(100)의 실내, 실외 및 외부 중 적어도 하나에 배치될 수 있다. 예시적으로, 차량 디스플레이부(140)는 차량(100)의 전면, 좌측면, 우측면 및 후면 중 적어도 하나에 배치될 수 있으며, 각각의 위치에 따른 정보 또는 콘텐츠를 출력하도록 구성될 수 있다. 예시적으로, 차량(100)의 좌측면에 배치된 디스플레이는 반대 차선 또는 왼쪽 차선에서 주행 중인 차량에게 제공하기 위한 정보를 출력할 수 있으며, 차량(100)의 우측면에 배치된 디스플레이는 오른쪽 차선에서 주행 중인 차량 또는 보행자를 위한 정보를 출력할 수 있다. 또한, 차량(100)의 후면에 배치된 디스플레이는 후행하는 차량에게 정보를 출력할 수 있으며, 전면은 반대 차선의 주행 차량에게 정보를 출력할 수 있다. 예시적인 실시예에서, 차량 디스플레이부(140)가 배치된 차량(100)의 위치, 외부면에 따라 표시되는 콘텐츠의 출력 상태 및 내용 중 적어도 하나가 자동으로 변형되도록 제어될 수 있다. 예시적으로, 반대편 차량을 향해 표시되는 디스플레이는 동영상이 아닌 이미지 콘텐츠를 출력하도록 제어될 수 있다.
도 2a 및 도 2b를 참조하면, 차량 디스플레이부(140)는 복수로 구성될 수 있으며, 제1 디스플레이(141), 제2 디스플레이(142) 및 제3 디스플레이(143)를 포함할 수 있다.
제1 디스플레이(141)는 차량(100)의 사이드 윈도우에 대응되는 투명 디스플레이일 수 있으며, 선택적으로 광 투과성이 제어될 수 있다. 즉, 제1 디스플레이(141)는 투명한 상태와 외부 또는 내부로 이미지를 표시하는 상태가 선택적으로 제어될 수 있다. 제2 디스플레이(142)는 차량(100)의 루프의 주변부에 위치하여 상시 정보를 표시하도록 구성될 수 있다. 예시적으로, 제2 디스플레이(142)는 차량(100)의 외형을 따라 배치 가능한 플렉서블 디스플레이일 수 있으나, 이에 한정되는 것은 아니다.
또한, 제3 디스플레이(143)는 차량(100)의 후방 윈도우에 대응되는 후방 디스플레이일 수 있다. 제3 디스플레이(143)는 투명 디스플레이일 수 있으나, 이에 한정되는 것은 아니다. 도 2b와 같이, 후방 윈도우에 대응하도록 제3 디스플레이(143)가 구성될 수 있으며, 제3 디스플레이(143)는 선태적으로 투명한 상태 또는 이미지를 표시하는 상태로 제어될 수 있다.
외부 디스플레이(150)는 차량(100)의 외부 영역에 배치되는 디스플레이일 수 있다. 여기서, 외부 영역은 차량(100)과 관련된 객체의 승하차와 관련된 장소일 수 있다. 예시적으로, 외부 영역은 객체가 차량(100)에 탑승하거나, 객체가 차량(100)에서 하차하는 것을 지원하기 위해 미리 설정된 승하차 영역일 수 있다. 외부 디스플레이(150)는 이러한 승하차 영역의 바닥면에 배치될 수 있으며, 객체의 위치와 관련된 정보를 표시하도록 제어될 수 있다.
프로젝터(110)는 차량(100)의 외부를 향해 특정 이미지를 방출하도록 구성될 수 있다. 예시적인 실시예에서, 프로젝터(110)는 차량(100)의 루프의 주변부에 배치될 수 있다. 또한, 몇몇 실시예에서, 프로젝터(110)는 동작 상태에 따라 배치된 높이가 변경되도록 구성될 수 있다. 도 2a에 예시적으로 도시된 바와 같이, 프로젝터(110)는 하나로 구성될 수 있으나, 본 발명의 실시예가 이에 한정되는 것은 아니다. 실시예에서, 프로젝터(110)는 복수로 구성될 수 있다. 복수의 프로젝터(110)는 차량(100)의 외부를 향해 광을 방출하여, 하나의 이미지를 함께 구성하거나, 각각 다른 정보를 제공하도록 제어될 수 있다.
차량 디스플레이부(140)는 차량(100)이 현재 제공하는 서비스 또는 운행 목적과 관련된 정보를 표시할 수 있다. 다만, 이에 한정되는 것은 아니며, 차량 디스플레이부(140)는 차량(100)의 상태, 주변 환경과 관련된 정보를 표시할 수 있다.
또한, 프로젝터(110)에서 방출되는 특정 이미지는 차량(100)이 현재 제공하는 서비스 또는 운행 목적과 관련된 정보일 수 있다. 다만, 이에 한정되는 것은 아니며, 특정 이미지는 차량(100)의 상태, 주변 환경과 관련된 정보를 포함할 수 있다. 또한, 프로젝터(110)에서 제공되는 이미지는 차량(100)과 관련된 객체를 보호하고, 가이드하기 위한 가이드 이미지일 수 있다.
도 3a를 참조하면, 차량(100)은 정차된 상태일 수 있다. 차량(100)이 정차된 상태에서, 차량(100)에 탑승된 객체는 차량(100)에서 하차할 수 있다. 프로젝터(110)는 차량(100)에서 하차한 주변 객체의 위치 정보를 수신하고, 위치 정보에 대응하여 객체가 위치한 바닥면에 가이드 이미지(GI)를 출력할 수 있다.
여기서, 객체는 차량(100)에서 하차를 하려는 상태 또는 승차하려는 상태일 수 있으며, 주변 사물에 대한 인식, 경계 능력이 다소 부족하여 안전한 하차 및 이동을 위한 지원이 필요한 대상에 해당한다. 예시적으로, 도 3a에 도시된 바와 같이, 객체는 영유아, 노약자, 장애인, 임산부 또는 반려 동물과 같이 주변 환경으로부터 도움이 필요한 주체일 수 있으나, 이에 한정되는 것은 아니다. 이러한, 객체가 위치한 바닥면에 가이드 이미지가 제공됨에 따라, 차량(100)의 주변 오브젝트들(주변 보행자, 주변 차량)이 객체를 식별하는 것이 용이해질 수 있다. 또한, 바닥면에 표시되는 가이드 이미지에 의해 객체는 외부 환경을 더욱 용이하게 인식, 식별할 수 있으며, 하차 이후 안전하게 이동하는 것이 지원될 수 있다.
또한, 객체는 차량(100)에 하차 또는 승차하기 위해 승하차 영역을 이동하게 되며, 승하차 영역에 배치된 외부 디스플레이(150)와의 접촉이 발생될 수 있다. 외부 디스플레이(150)는 이러한 객체와의 접촉에 대응하여 보조 가이드 이미지를 표시하도록 구성될 수 있다. 이러한, 보조 가이드 이미지는 차량(100)의 주변 오브젝트들(주변 보행자, 주변 차량)이 객체를 식별하는 것을 지원할 수 있다.
보조 가이드 이미지는 가이드 이미지와 함께 하나의 정보를 표시하도록 구성될 수 있다. 예시적으로, 보조 가이드 이미지는 가이드 이미지의 보호 영역을 강조할 수 있는 색상 또는 이미지로 구성될 수 있다. 몇몇 실시예에서, 보조 가이드 이미지의 보호 영역의 색상과 보색 관계를 가지는 색상을 표시하도록 구성되어 보호 영역이 더욱 선명하게 시인되는 것을 지원할 수 있다. 또한, 몇몇 실시예에서, 보조 가이드 이미지의 보호 영역과 중첩되는 이미지를 더 표시하도록 구성되어 보호 영역이 더욱 선명하게 시인되는 것을 지원할 수 있다.
몇몇 실시예에서, 도 3b를 참조하면, 보조 가이드 이미지는 객체와 접촉이 일어나는 외부 디스플레이(150)의 부분을 강조하도록 구성될 수 있다. 즉, 외부 디스플레이(150)에서 생성되는 객체 터치 정보는 외부 디스플레이(150)와 객체의 신체 일부(발)이 접촉함에 따라 생성되게 된다. 보조 가이드 이미지는 객체를 전체적으로 강조하는 이미지가 아닌 접촉이 실제 발생되는 부분을 강조하도록 구성될 수 있다.
또한, 차량의 외부에 배치된 차량 디스플레이부(140)는 차량(100)의 주변 객체(주변 차량 또는 주변 보행자)의 안전을 지원할 수 있는 정보를 출력할 수 있으며, 차량(100)의 안전한 운행과 관련 객체의 안전한 이용이 수행되는 것을 지원할 수 있다.
여기서, 프로젝터(110), 차량 디스플레이부(140) 또는 외부 디스플레이(150)의 구성 및 동작 범위는 상기 설명 및 관련 도면에 도시된 내용에 국한되는 것이 아니다. 관련 설명 및 도면은 예시적인 것으로 주요 구성들은 각 구성의 배치 상태의 변경, 스펙 변경 또는 기술 개발 등에 따라 더 많은 범위에 다양한 정보들을 제공되도록 구성될 수 있다. 또한, 프로젝터(110), 차량 디스플레이부(140) 또는 외부 디스플레이(150)는 외부 환경에 대응하여 동작되도록 구성될 수 있다. 예시적으로, 조도에 따라 밝기가 자동으로 조정되어 관련 정보를 더욱 정확히 표현할 수 있도록 구성될 수 있다.
또한, 프로젝터(110)는 차량의 진동등에도 견고하게 작동되고, 차량의 타이어의 상태에 따라 바닥면과의 높낮이의 차이로 프로젝션이 비춰주는 이미지가 제대로 표현되지 않을 경우를 대비하여 지면까지의 위치 인식이 자동적으로 파악되어 해당면에 초점, 표현이 정확히 표현되도록 구성될 수 있다.
또한, 프로젝터(110)는 보다 넓은 바닥면을 커버하는 범위가 조정될 수 있도록 프로젝션 렌즈의 화각이 조정되도록 구성될 수 있다.
몇몇 실시예에서, 센싱부(120)는 차량(100) 주변을 인식하여 다른 영역보다 상대적으로 어두운 영역을 식별할 수 있으며, 프로젝터(110)는 식별된 어두운 영역에 화상을 출력하도록 구성될 수 있습니다. 예시적으로, 차량을 주차시 어두운 영역에 프로젝터(110)의 화상이 출력되어 블랙박스가 이미지를 잘 기록되도록 하거나 범죄자들에게 알람 경고를 통해 도난 방지를 용도로 사용될 수 있다. 또한, 주행 중에도 트럭 또는 차량이 야간 주행시 트럭의 위치를 쉽게 파악할 수 있게 하며 사고의 위험을 방지하는 것을 지원할 수 있다.
이하, 본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템(10)에 대해 더욱 상세히 설명하도록 한다.
본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템(10)은 차량에 탑승한 객체의 안전한 하차를 지원할 수 있다.
도 4는 차량의 주변 객체에 대응하여 프로젝터가 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다. 도 5는 차량의 주변 객체의 이동에 대응하여 프로젝터가 객체를 추적하여 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다. 도 6은 차량의 주변 객체에 대응하여 외부 디스플레이가 보조 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다. 도 7은 차량의 주변 객체의 이동에 대응하여 외부 디스플레이가 객체를 추적하여 보조 가이드 이미지를 출력하는 과정을 설명하기 위한 순서도이다. 도 8은 제1, 제2 프로젝터를 선택적으로 실행하는 과정을 설명하기 위한 예시도이다. 도 9는 사용자 단말을 통해 가이드 이미지와 보조 가이드 이미지를 설정하는 과정을 설명하기 위한 예시도이다. 도 10a 내지 도 10e는 차량 디스플레이부에 차량과 관련된 정보를 출력하는 상태를 도시한 예시도이다.
도 4를 참조하면, 센싱부(120)는 차량의 상태를 먼저 확인한다(S110). 여기서, 센싱부(120)는 차량(100)의 상태 변화에 대응하여 객체 식별 정보를 생성하기 위한 기능이 활성화될 수 있다.
단계(S110)에서, 센싱부(120)는 차량(100)이 주행 상태에서 정차 상태로 변화된 것을 먼저 확인할 수 있다. 또한, 센싱부(120)는 차량(100)의 정차 상태를 인식한 이후, 차량(100)의 도어가 오픈되는 지 여부를 인식할 수 있다. 센싱부(120)는 차량(100)이 정차되고, 미리 설정된 기준 시간 이내에 도어가 오픈되는 것을 인식하는 경우, 하차 지원 모드로 판단할 수 있다. 즉, 센싱부(120)는 차량(100)에서 하차하려는 객체를 식별하기 위한 객체 식별 정보를 생성하기 위한 기능이 활성화, 즉, 도어 주변의 위치한 객체를 센싱하기 위한 객체 센싱 상태로 전환될 수 있다.
단계(S112)에서, 센싱부(120)는 정차 상태와 도어의 오픈에 대응하여 차량(100)의 도어를 향해 센싱 신호를 출력할 수 있다. 적어도 하나의 객체는 차량(100)의 내부에서 오픈된 도어를 통해 차량(100)의 외부로 이동하려는 상태일 수 있다. 센싱부(120)는 센싱 신호를 통해 적어도 하나의 객체를 감지할 수 있다.
단계(S112)에서, 센싱부(120)는 센싱 신호에 기초하여 객체의 위치를 분석한 객체 위치 정보를 생성할 수 있다. 몇몇 실시예에서, 센싱부(120)는 레이더 또는 라이다를 포함할 수 있다. 센싱부(120)는 레이더 또는 라이다를 통해 출력된 센싱 신호가 객체로부터 반사되어 돌아오는 반사 신호의 소요 시간 또는 주파수 편이를 측정하여 객체의 위치 정보를 생성할 수 있다.
단계(S112)에서, 센싱부(120)는 센싱 신호에 기초하여 객체를 식별한 객체 식별 정보를 생성할 수 있다. 센싱부(120)는 비전 센서를 더 포함할 수 있다. 센싱부(120)는 비전 센서를 통해 출력된 센싱 신호가 객체로부터 반사되어 돌아오는 신호에 기초하여 객체를 촬영한 이미지를 생성할 수 있다. 센싱부(120)는 이미지를 분석하여 객체의 종류 및 크기를 식별하는 객체 분석 모델을 포함할 수 있다.
여기서, 객체 분석 모델은 딥 러닝 기반의 이미지 분석 모델일 수 있으며, 이미지 내에 포함된 객체의 종류 및 크기를 식별하여 객체 식별 정보를 생성하도록 미리 학습된 상태일 수 있다. 몇몇 실시예에서, 객체 분석 모델은 Yolo V5((You Look Once version 5)를 적용하여 구현될 수 있다. 여기서, 객체 분석 모델에서 식별되는 객체의 종류는 유아, 반려 동물, 노인, 장애인 및 임산부를 중 어느 하나일 수 있으나, 이에 한정되는 것은 아니다. 센싱부(120)는 객체 분석 모델을 이용하여 결정된 객체의 종류 정보 및 객체의 크기 정보를 포함하는 객체 식별 정보를 생성할 수 있다.
단계(S114)에서, 센싱부(120)는 객체 위치 정보를 프로젝터(110)에 제공할 수 있다. 후술하는 단계에서 프로젝터(110)는 제공되는 가이드 이미지를 객체 위치 정보에 따른 위치에 출력하게 된다. 또한, 단계(S116)에서, 센싱부(120)는 객체 식별 정보를 데이터 처리부(130)에 제공할 수 있다.
데이터 처리부(130)는 객체 식별 정보에 대응하는 가이드 이미지를 생성할 수 있다(S118). 여기서, 가이드 이미지는 객체를 외부로부터 보호하기 위한 이미지일 수 있다. 데이터 처리부(130)는 객체의 크기 정보에 따라 객체의 보호 영역을 정의할 수 있다. 예시적으로, 객체의 크기 정보에 비례하여 객체의 보호 영역이 정의될 수 있다. 또한, 객체의 보호 영역은 원형일 수 있으나, 보호 영역의 형상은 이에 한정되는 것은 아니다. 가이드 이미지는 이러한 객체의 보호 영역의 테두리가 강조되도록 구성될 수 있다. 즉, 보호 영역의 테두리가 강조됨에 따라 외부에서 객체를 인식하는 것이 용이해질 수 있으며, 이에 따라 객체가 외부로부터 보호되는 것이 지원될 수 있다. 또한, 가이드 이미지는 보호 영역의 테두리가 강조된 이미지일 수 있으며, 보호 영역의 내부와 보호 영역의 외부는 내용이 포함되지 않은 투명한 상태일 수 있다. 즉, 가이드 이미지는 보호 영역의 테두리가 강조된 링형(ring-shape)일 수 있으나, 이에 한정되는 것은 아니다.
몇몇 실시예에서, 데이터 처리부(130)는 객체 식별 정보에 따른 상기 객체의 종류를 판단하고, 객체의 종류에 따라 가이드 이미지를 다르게 생성할 수 있다. 구체적으로, 데이터 처리부(130)는 객체의 종류에 따라 보호 영역의 테두리의 형태 또는 보호 영역의 테두리의 색상을 상이하게 구성할 수 있다. 또한, 몇몇 실시예에서,
몇몇 실시예에서, 데이터 처리부(130)는 객체의 종류마다 가이드 이미지의 디자인이 상이하도록 구성할 수 있다. 또한, 데이터 처리부(130)는 객체의 특성을 반영하여 안전에 대한 경고를 더 정확히 표시하도록 가이드 이미지를 구성할 수 있다. 예를 들어, 가이드 이미지는 객체의 종류를 더 표시하도록 구성될 수 있으며, 객체에 대한 외부의 주의도가 더욱 높아지는 것이 지원될 수 있다.
데이터 처리부(130)는 생성된 가이드 이미지를 프로젝터(110)에 제공할 수 있다(S120). 프로젝터(110)는 제공된 가이드 이미지를 객체 위치 정보를 고려하여 객체에 투영할 수 있다(S122).
구체적으로, 프로젝터(110)는 가이드 이미지를 객체 위치 정보에 대응하여 객체가 위치한 바닥면에 투영할 수 있다. 여기서, 프로젝터(110)가 투영하는 가이드 이미지는 객체를 외부에서 인식하도록 제공되는 것이다. 또한, 객체를 향해서 직접적으로 가이드 이미지를 투영하게 되면 객체의 안전에 오히려 방해가 되는 장애 요인이 될 수 있다. 따라서, 가이드 이미지는 객체를 향해 직접적으로 투영되는 것이 아닌, 객체가 위치한 장소가 강조될 수 있도록 객체가 위치하는 바닥면을 향해 투영되게 된다. 프로젝터(110)가 가이드 이미지를 투영함에 따라 객체가 위치한 바닥면에는 객체의 외형에 대응하는 보호 영역이 표시될 수 있다.
본 발명의 실시예에 따른 차량 안전 지원 시스템(10)은 이러한 가이드 이미지를 단순히 바닥면에 출력하는 것에 한정되지 않고, 객체의 이동에 대응하여 가이드 이미지가 객체를 트랙킹하도록 가이드 이미지의 출력을 제어할 수 있다.
객체가 한번 식별된 이후에도, 센싱부(120)의 객체 센싱 상태는 계속 유지될 수 있다. 즉, 센싱부(120)는 객체를 계속해서 감지하기 위한 센싱 신호를 출력하는 상태를 유지할 수 있다. 즉, 센싱부(120)는 실시간 또는 근실시간으로 객체를 감지하기 위한 센싱 신호를 출력할 수 있으며, 객체의 위치 변화를 실시간 또는 근실시간을 파악할 수 있다. 예시적으로, 객체의 위치 변화(이동)에 따라, 센싱부(120)가 수신하는 반사 신호의 소요 시간 또는 주파수 편이에 변화가 발생할 수 있으며, 센싱부(120)는 이러한 변화를 계속 감지할 수 있다.
도 5를 참조하면, 센싱부(120)는 객체의 변화, 이동을 감지할 수 있으며(S124), 객체 이동 정보를 생성하여 생성된 객체 이동 정보를 프로젝터(110)에 제공할 수 있다(S126). 프로젝터(110)는 객체 이동 정보에 기초하여 가이드 이미지가 투영되는 위치를 변경할 수 있다(S128).
프로젝터(110)는 객체가 위치하는 바닥면에 가이드 이미지가 계속해서 위치하도록 객체를 트랙킹하여 가이드 이미지를 제공할 수 있다. 즉, 객체가 이동되더라도 가이드 이미지는 계속 객체에 대응되도록 제공되므로 객체의 위치, 존재를 외부 오브젝트(사람, 차량 등)이 시인하는 것이 계속 지원될 수 있으며, 객체가 차량(100)에서 하차한 이후에도 안전하게 이동되는 것이 계속 지원될 수 있다.
여기서, 센싱부(120)는 차량(100)으로부터 일정 거리로 정의되는 센싱 영역이 정의될 수 있다. 몇몇 실시예에서, 센싱 영역은 외부 디스플레이(150)가 배치된 승하차 영역일 수 있으나, 이에 한정되는 것은 아니다. 즉, 센싱부(120)는 센싱 영역 내에서 객체의 존재 및 객체의 이동을 감지하게 된다. 객체가 차량(100)으로부터 일정 거리 이상 멀어진 경우, 객체는 센싱부(120)의 센싱 영역을 벗어나는 상태가 될 수 있다. 센싱부(120)는 센싱 영역 내에 객체가 존재하지 않은 경우, 객체 이탈 정보를 생성할 수 있으며, 프로젝터(110)에 객체 이탈 정보를 전달하여 프로젝터(110)가 가이드 이미지를 더 이상 출력하지 않도록 제어할 수 있다.
또한, 몇몇 실시예에서, 센싱부(120)는 차량(100)이 정차 상태에서 주행 상태로 변화하는 것을 감지할 수 있으며, 차량(100)의 주행 상태로 변화되는 것에 대응하여 객체 이탈 정보를 생성, 프로젝터(110)에 객체 이탈 정보를 전달할 수 있다. 즉, 차량(100)이 이동되는 것에 대응하여, 프로젝터(110)는 가이드 이미지를 더 이상 출력하지 않도록 제어될 수 있다.
도 6을 참조하면, 차량(100)의 정차한 영역은 외부 디스플레이(150)가 바닥면에 배치된 승하차 영역일 수 있다. 차량(100)에서 하차한 객체가 승하차 영역을 이동함에 따라, 외부 디스플레이(150)는 객체와의 접촉을 인식할 수 있다. 외부 디스플레이(150)는 접촉이 인식된 영역에 보조 가이드 이미지를 표시하도록 제어될 수 있다. 단계(S114)는 외부 디스플레이(150)는 객체의 접촉을 인식하여 객체 터치 정보를 생성하는 것을 포함할 수 있다. 외부 디스플레이(150)는 복수의 픽셀을 포함하는 표시 패널과 표시 패널 상부에 배치되는 터치 패널을 포함할 수 있다. 터치 패널은 복수의 터치 포인트를 포함할 수 있으며, 복수의 터치 포인트와 복수의 픽셀은 대응 관계를 가질 수 있다. 터치 패널은 객체와의 터치에 따른 압력 또는 무게를 인식하여 접촉 여부를 판단할 수 있다. 외부 디스플레이(150)는 객체와 접촉이 발생하는 적어도 하나의 터치 포인트를 식별하여 객체 터치 정보를 생성할 수 있다. 객체 터치 정보에 따른 터치 포인트와 대응되는 터치 픽셀을 기준으로 터치 픽셀과 터치 픽셀의 주변 픽셀들에 보조 가이드 이미지를 출력할 수 있다.
몇몇 실시예에서, 보조 가이드 이미지는 가이드 이미지와 함께 하나의 정보를 표시하도록 구성될 수 있다. 예시적으로, 보조 가이드 이미지는 가이드 이미지의 보호 영역을 강조할 수 있는 색상 또는 이미지로 구성될 수 있다. 몇몇 실시예에서, 보조 가이드 이미지의 보호 영역의 색상과 보색 관계를 가지는 색상을 표시하도록 구성되어 보호 영역이 더욱 선명하게 시인되는 것을 지원할 수 있다. 또한, 몇몇 실시예에서, 보조 가이드 이미지의 보호 영역과 중첩되는 이미지를 더 표시하도록 구성되어 보호 영역이 더욱 선명하게 시인되는 것을 지원할 수 있다.
몇몇 실시예에서, 보조 가이드 이미지는 터치 포인트를 강조하도록 구성될 수 있다. 즉, 외부 디스플레이(150)에서 생성되는 객체 터치 정보는 외부 디스플레이(150)와 객체의 신체 일부(발)이 접촉함에 따라 생성되게 된다. 보조 가이드 이미지는 객체를 전체적으로 강조하는 이미지가 아닌 접촉이 실제 발생되는 부분을 강조하도록 구성될 수 있다.
데이터 처리부(130)는 객체 식별 정보를 고려하여 가이드 이미지에 대응하는 보조 가이드 이미지를 더 생성할 수 있으며(S118), 생성된 보조 가이드 이미지를 외부 디스플레이(150)에 제공할 수 있다(S120). 외부 디스플레이(150)는 데이터 처리부(130)에서 제공된 보조 가이드 이미지를 접촉이 인식된 영역에 표시하여 가이드 이미지와 함께 보조 가이드 이미지가 외부 오브젝트들에게 시인되도록 한다(S122).
도 7을 참조하면, 객체의 이동, 변화를 외부 디스플레이(150)는 감지할 수 있으며(S124), 객체 이동 정보를 생성할 수 있다(S126). 외부 디스플레이(150)는 객체 이동 정보에 기초하여 보조 가이드 이미지가 표시되는 위치를 변경, 객체의 이동, 변화를 트랙킹(추적)하게 된다(S128).
본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템(10)은 차량에 탑승하려는 객체의 안전한 승차를 지원할 수 있다.
센싱부(120)는 차량(100)이 정차되고, 미리 설정된 기준 시간을 초과하여 도어가 오픈되지 않는 경우, 승차 지원 모드로 판단할 수 있다. 즉, 센싱부(120)는 차량(100)에 승차하려는 객체를 식별하기 위한 객체 식별 정보를 생성하기 위한 기능이 활성화될 수 있다. 즉, 센싱부(120)는 센싱 영역에 접근하는 객체를 센싱하기 위한 객체 센싱 상태로 전환될 수 있다.
센싱부(120)는 센싱 영역에 센싱 신호를 출력할 수 있다. 객체는 차량(100)에 승차가 위해 센싱 영역으로 진입할 수 있다. 센싱부(120)는 센싱 신호를 통해 적어도 하나의 객체를 감지할 수 있으며, 객체 위치 정보 및 객체 식별 정보를 생성할 수 있다. 센싱부(120)는 객체 위치 정보를 프로젝터(110)에 제공할 수 있다. 센싱부(120)는 객체 식별 정보를 데이터 처리부(130)에 제공할 수 있다. 데이터 처리부(130)는 객체 식별 정보에 대응하는 가이드 이미지 및 보조 가이드 이미지를 생성할 수 있다.
데이터 처리부(130)는 가이드 이미지를 프로젝터(110)에 제공하고, 보조 가이드 이미지를 외부 디스플레이(150)에 제공할 수 있다. 프로젝터(110)는 객체 위치 정보에 기초하여 가이드 이미지를 객체가 위치한 센싱 영역의 바닥면에 투영할 수 있다. 또한, 외부 디스플레이(150)는 센싱 영역(승하차 영역)에 배치되어 객체와의 터치 부분을 식별할 수 있으며, 터치 부분에 보조 가이드 이미지를 출력할 수 있다. 즉, 가이드 이미지와 보조 가이드 이미지는 승차하려는 객체의 바닥면에 함께 출력되어 객체가 외부 오브젝트들에게 더욱 뚜렷하고 쉽게 시인되는 것을 지원할 수 있다. 센싱부(120)는 객체의 이동에 대응하여 객체 이동 정보를 생성하고, 외부 디스플레이(150)는 객체의 이동에 대응하여 터치되는 부분이 변경될 수 있다. 객체 이동 정보에 따라 프로젝터(110)는 가이드 이미지의 투영 위치를 변경하고, 외부 디스플레이(150)는 터치 부분의 변경에 따라 보조 가이드 이미지의 투영 위치를 변경하여 객체를 트랙킹하여 이미지를 표시하게 된다.
몇몇 실시예에서, 차량(100)과 관련된 객체는 복수일 수 있으며, 센싱부(120)는 복수의 객체를 각각 식별하여, 객체 식별 정보와 객체 위치 정보를 각각 생성할 수 있다. 제1 객체와 제2 객체가 하차하는 상태인 경우, 센싱부(120)는 제1 객체에 대응하는 제1 객체 식별 정보, 제1 객체 위치 정보를 생성하여 각각 데이터 처리부(130)와 프로젝터(110)에 제공할 수 있다. 또한, 외부 디스플레이(150)는 제1 객체에 대응하는 제1 객체 터치 정보, 제2 객체에 대응하는 제2 객체 터치 정보를 생성할 수 있다.
또한, 센싱부(120)는 제2 객체에 대응하는 제2 객체 식별 정보, 제2 객체 위치 정보를 생성하여 각각 데이터 처리부(130)와 프로젝터(110)에 제공할 수 있다. 데이터 처리부(130)는 제1 객체 식별 정보에 대응하여 제1 가이드 이미지를 생성하고, 제2 객체 식별 정보에 대응하여 제2 가이드 이미지를 생성할 수 있다. 데이터 처리부(130)는 제1 객체 식별 정보에 대응하여 제1 보조 가이드 이미지를 생성하고, 제2 객체 식별 정보에 대응하여 제2 보조 가이드 이미지를 생성할 수 있다.
프로젝터(110)는 제1 가이드 이미지를 제1 객체 위치 정보에 기초하여 제1 객체의 바닥면에 투영하며, 제2 가이드 이미지를 제2 객체 위치 정보에 기초하여 제2 객체의 바닥면에 투영할 수 있다. 또한, 센싱부(120)는 제1 객체의 이동에 따른 제1 객체 이동 정보와 제2 객체의 이동에 따른 제2 객체 이동 정보를 각각 생성할 수 있다. 프로젝터(110)는 센싱부(120)에서 제공되는 제1 객체 이동 정보와 제2 객체 이동 정보에 기초하여 각각 제1 객체와 제2 객체를 트랙킹할 수 있다. 또한, 외부 디스플레이(150)는 제1 보조 가이드 이미지를 제1 객체 터치 정보에 기초하여 출력할 수 있으며, 제2 보조 가이드 이미지를 제2 객체 터치 정보에 기초하여 출력할 수 있다.
몇몇 실시예에서, 프로젝터(110)는 차량(100)의 서로 다른 외부 위치한 제1 프로젝터(110A)와 제2 프로젝터(110B)를 포함할 수 있다. 도 8의 예시와 같이, 제1 프로젝터(110A)는 차량(100)의 우측 상단에 위치할 수 있으며, 제2 프로젝터(110B)는 차량(100)의 좌측 상단에 위치할 수 있다. 이러한, 제1 프로젝터(110A)와 제2 프로젝터(110B)는 객체의 위치에 따라 선택적으로 동작될 수 있다.
센싱부(120)는 적어도 하나의 객체에 대응하는 객체 식별 정보, 객체 위치 정보를 생성할 수 있다. 센싱부(120)는 객체 위치 정보와 제1 프로젝터(110A)의 배치 위치에 따른 제1 거리 정보(d1) 및 객체 위치 정보와 제2 프로젝터(110B)의 배치 위치에 따른 제2 거리 정보(d2)를 판단할 수 있다. 센싱부(120)는 제1 거리 정보(d1)와 제2 거리 정보(d2)를 고려하여, 제1 프로젝터(110A)와 제2 프로젝터(110B) 중 가이드 이미지를 제공할 프로젝터를 결정할 수 있다. 센싱부(120)는 제1 프로젝터(110A)와 제2 프로젝터(110B) 중 현재 객체와 더 가까이 위치하는 프로젝터를 가이드 이미지를 제공할 프로젝터로 선택할 수 있다. 즉, 제1 거리 정보(d1)와 제2 거리 정보(d2) 중 상대적으로 거리가 짧은 프로젝터를 선택할 수 있다.
센싱부(120)는 선택된 프로젝터에 객체 위치 정보를 제공할 수 있으며, 프로젝터 선택 정보와 객체 식별 정보를 데이터 처리부(130)에 제공할 수 있다. 데이터 처리부(130)는 제공된 객체 식별 정보를 고려하여 가이드 이미지를 생성하고, 프로젝터 선택 정보에 따른 프로젝터에 생성한 가이드 이미지를 제공할 수 있다.
몇몇 실시예에서, 데이터 처리부(130)는 차량(100)에 승차 또는 하차하려는 적어도 하나의 객체를 식별할 수 있다. 예시적으로, 차량(100)에 승차 또는 하차하려는 객체는 복수일 수 있으며, 데이터 처리부(130)는 복수의 객체 각각을 식별하도록 구성될 수 있다. 데이터 처리부(130)는 복수의 객체를 식별하는 객체 식별 모델을 포함할 수 있으며, 식별된 객체의 동선 정보를 생성하는 동선 생성 모델을 포함할 수 있다. 객체 식별 모델은 센싱부(120)에서 제공되는 이미지를 분석하여 적어도 하나의 객체를 식별하도록 미리 학습된 인공지능 기반의 식별 모델일 수 있다. 또한, 동선 생성 모델은 식별된 객체에 대응하는 동선 정보를 생성하도록 미리 학습된 인공지능 기반의 생성 모델일 수 있다. 동선 정보는 해당 객체의 과거 이동 동선에 기초하여 생성된 객체의 예상 이동 경로일 수 있다. 즉, 동선 정보는 과거 이동 동선에 기초하여 생성된 객체가 차량에서 하차하여 목적지로 이동하기 위한 이동 경로 또는 외부에서 차량으로 탑승하기 위한 이동 경로를 의미할 수 있다.
데이터 처리부(130)는 복수의 객체를 식별하고, 복수의 객체 각각에 대한 동선 정보를 생성할 수 있으며, 동선 정보에 대응하여 동선 이미지를 생성할 수 있다. 동선 이미지는 동선 정보에 따른 이동 경로를 표시한 것으로 가이드 이미지와 함께 제공될 수 있다. 즉, 이러한 동선 이미지가 더 제공됨에 따라 외부 모빌리티(일반 차량, 오토바이 및 자율 주행차)에게 미리 경고를 줄 수 있기에 객체의 안전한 차량 이용이 더 지원될 수 있다.
몇몇 실시예에서, 프로젝터(110)는 객체의 이동이 감지되지 않은 상태 또는 미리 설정된 시간 동안 이동이 수행되지 않은 상태에 동선 이미지를 제공하도록 동작될 수 있다. 즉, 객체가 계속 이동하는 상태에서는 가이드 이미지를 제공하여 객체를 추적하며, 객체가 이동이 잠시 멈춘 상태에서는 동선 이미지를 제공하여 객체의 이동을 지원할 수 있다. 예시적으로, 객체가 하차를 위해 차량(100)의 도어가 오픈된 상태에서, 우선적으로 동선 이미지가 제공되며, 객체의 이동이 감지되는 경우 가이드 이미지가 동선 이미지 대신 출력되고, 객체가 일정 시간 이동을 멈춘 경우, 다시 동선 이미지가 제공되도록 프로젝터(110)는 이미지의 출력을 제어할 수 있다. 몇몇 실시예에서, 동선 이미지는 동영상 또는 이미지로 차량 디스플레이부(140)로 제공될 수 있다. 차량 디스플레이부(140)는 이러한 동영상 또는 이미지 형태의 동선 이미지를 출력하여 객체에게 정보를 전달할 수 있다. 동영상은 역동적인 이미지로 보다 더 많은 시인성을 가지므로 주변차량에게 더 효과적으로 하차하는 사람의 안전을 보조하도록 알릴 수 있다, 몇몇 실시예에서, 차량 안전 지원 시스템(10)은 사용자 단말(160)을 더 포함할 수 있다. 여기서, 사용자 단말(160)은 차량 안전 지원 시스템(10)에 따른 차량(100)을 이용하는 이용자의 단말일 수 있으나, 이에 한정되는 것은 아니다. 사용자 단말(160)은 차량 안전 지원 시스템(10)을 관리하는 관리자의 단말일 수 있다.
도 9를 참조하면, 사용자 단말(160)은 데이터 처리부(130)와 네트워크를 통해 데이터를 교환하도록 구성될 수 있다. 데이터 처리부(130)는 사용자 단말(160)에 가이드 이미지 및 보조 가이드 이미지를 변경, 제어할 수 있는 사용자 환경을 제공할 수 있다. 사용자 환경은 차량 디스플레이부(140), 프로젝터(110) 및 외부 디스플레이(150) 중 적어도 하나에 출력되는 콘텐츠를 제어할 수 있는 컨텐츠 제어 환경(Content manage system, CMS)일 수 있다. 사용자 환경을 통해 사용자는 가이드 이미지 및 보조 가이드 이미지를 설정할 수 있다.
몇몇 실시예에서, 데이터 처리부(130)는 사용자 환경을 통해 설정된 템플릿 이미지와 객체 식별 정보를 고려하여 가이드 이미지 및 보조 가이드 이미지를 생성할 수 있다. 템플릿 이미지는 가이드 이미지 및 보조 가이드 이미지를 생성하기 위한 기초 이미지일 수 있다.
사용자 환경은 복수의 템플릿 이미지 중 하나를 선택할 수 있는 인터페이스 및 템플릿 이미지를 생성할 수 있는 인터페이스를 제공할 수 있다. 사용자는 사용자 환경이 제공하는 인터페이스를 통해 템플릿 이미지를 생성하거나, 선택할 수 있으며, 선택된 템플릿 이미지를 통해 가이드 이미지 및 보조 가이드 이미지가 생성되는 것을 지원할 수 있다.
본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템(10)은 차량과 관련된 정보를 차량 디스플레이부(140)를 통해 표시하도록 구성될 수 있다.
몇몇 실시예에서, 데이터 처리부(130)는 객체 식별 정보와 객체 위치 정보를 차량 디스플레이부(140)에 표시할 수 있다. 즉, 데이터 처리부(130)는 상기 객체 식별 정보 및 상기 객체 위치 정보에 따른 상기 객체의 이동과 관련된 정보를 상기 차량 디스플레이부에 표시하도록 구성될 수 있다. 도 10a를 참조하면, 제3 디스플레이(143)에 “유아가 차량에서 하차 중입니다”와 같은 객체의 이동과 관련된 정보(M1)가 표시되는 것을 알 수 있다. 차량 디스플레이부(140)에 식별된 객체의 이동과 관련된 정보가 더 표시됨에 따라, 차량(100)의 주변 오브젝트들이 객체를 인식하는 것이 더욱 지원될 수 있으며, 이에 따라 객체의 승하차와 관련된 안전이 더욱 보장될 수 있게 된다.
몇몇 실시예에서, 데이터 처리부(140)는 차량의 동작 상태와 관련된 정보, 차량이 운행되는 도로의 교통 상태 정보 및 차량이 운행되는 도로의 신호 정보 중 적어도 하나를 차량 디스플레이부(140)에 표시하도록 구성될 수 있다. 데이터 처리부(140)는 차량 디스플레이부(140) 중 후방 디스플레이에 해당하는 제3 디스플레이(143)에 상기 정보들을 출력할 수 있으나, 본 발명의 실시예가 이에 한정되는 것은 아니다.
센싱부(120)는 차량(100)의 동작 상태를 감지하도록 구성될 수 있다. 여기서, 동작 상태는 차량(100)의 속도, 온도, 타이어 공기압, 전력 상태, 연료량 등과 같이 차량(100)의 동작에 따라 변화되는 상태 정보를 포함할 수 있다. 데이터 처리부(130)는 센싱부(120)에서 감지된 동작 상태 정보(예를 들어, 차량의 현재 속도, 온도, 타이어 공기압 측정 값, 전력 상태, 연료량 등)를 차량 디스플레이부(140)에 표시하도록 구성될 수 있다.
또한, 데이터 처리부(130)는 동작 상태 정보에 포함되는 각각의 상태 정보가 미리 설정된 임계값을 초과하는 경우, 이상 상태가 발생한 것으로 판단할 수 있다. 즉, 데이터 처리부(130)는 센싱부(120)에서 제공되는 동작 상태 정보에 기초하여 차량(100)의 이상 상태 발생 여부를 판단하며, 이상 상태가 발생한 경우, 차량의 긴급 상황의 발생을 차량 디스플레이부(140)에 표시할 수 있다. 도 10b를 참조하면, 제3 디스플레이(143)에 “차량 이상 상태 발생”와 같은 차량과 관련된 긴급 상황 정보(M2)가 표시되는 것을 알 수 있다.
또한, 센싱부(120)는 차량(100)에 탑승한 탑승객의 이상 상태 여부를 판단하도록 구성될 수 있다. 즉, 센싱부(120)는 탑승객의 건강 상태 정보(예를 들어, 체온, 심박수, 자세 등)를 실시간 또는 근실시간으로 센싱할 수 있다. 데이터 처리부(130)는 센싱부(120)에서 제공되는 탑승객의 건강 상태 정보의 변화가 미리 설정된 임계값을 초과하는 경우, 탑승객의 이상 상황이 발생한 것으로 판단할 수 있다. 즉, 데이터 처리부(130)는 센싱부(120)에서 제공되는 탑승객의 건강 상태 정보에 기초하여 차량(100)의 탑승객의 이상 상태 발생 여부를 판단하며, 이상 상태가 발생한 경우, 차량의 긴급 상황의 발생을 차량 디스플레이부(140)에 표시할 수 있다.
또한, 데이터 처리부(130)는 차량 디스플레이부(140)에 출력되는 이상 상태 정보의 긴급도를 판단하도록 더 구성될 수 있다. 예를 들어, 동작 상태 정보와 임계값과의 차이값을 기초로 긴급도를 판단할 수 있으며, 차이값과 긴급한 정도는 비례 관계를 형성할 수 있다. 데이터 처리부(130)는 판단된 긴급도에 따라 차량 디스플레이부(140)에 표시되는 정보의 색상을 상이하게 구성할 수 있다. 예를 들어, 긴급도가 높은 정보의 색상은 붉은색이며, 상대적으로 긴급도가 낮은 정보의 색상은 보라색일 수 있다.
또한, 데이터 처리부(130)는 차량(100)의 운행 상태와 관련된 정보를 차량 디스플레이부(140)에 표시할 수 있다. 몇몇 실시예에서, 데이터 처리부(130)는 차량(100)의 현재 진행 방향(전진 또는 후진), 가속 정보, 감속 정보, 차로 변경, 방향 전환 등의 운행 상태와 관련된 정보가 차량 디스플레이부(140)에 표시되도록 처리할 수 있다.
이러한, 차량(100)과 관련된 동작 상태 정보가 차량 디스플레이부(140)를 통해 제공됨에 따라, 차량(100)과 관련된 차량 주변 객체는 차량의 상태를 인식하는 것이 지원될 수 있다. 특히, 주변 객체들은 차량(100)의 이상 상태 발생 여부를 인식할 수 있어, 주변 객체들이 적절한 대처, 대응을 하는 것이 지원될 수 있다.
몇몇 실시예에서, 데이터 처리부(140)는 이상 상태 발생, 긴급 상황의 발생에 대응하여 차량 디스플레이부(140)의 동작을 더 제어할 수 있다. 여기서, 이상 상태 발생에 따른 차량 디스플레이부(140)의 동작 제어는 차량 디스플레이부(140)를 구성하는 디스플레이 중 어느 하나를 선택적으로 동작하게 하는 제어를 의미할 수 있다. 이상 상태 발생에서, 차량(100)의 전력 소비를 세이빙하고, 정보 전달의 효율성을 높이기 위해 하나의 외부 디스플레이 만을 이용하여 이상 상태 발생 상황을 외부로 전달할 수 있다.
또한, 몇몇 실시예에서, 센싱부(120)는 차량(100)이 주행 중인 환경과 관련된 정보를 획득하도록 구성될 수 있다. 센싱부(120)는 차량(100)이 운행되는 도로의 교통 상태 정보 및 차량(100)이 운행되는 도로의 신호 정보를 획득할 수 있다. 데이터 처리부(130)는 센싱부(120)를 통해 획득된 도로의 교통 상태 정보 및 도로의 신호 정보를 차량 디스플레이부(140)를 통해 제공할 수 있다. 예를 들어, 데이터 처리부(130)는 도로의 신호 정보, 제한 속도 정보, 도로의 교통 상태 정보(사고 발생, 전방 정체, 스쿨존 진입 안내)에 대한 안내가 차량 디스플레이부(140)를 통해 제공될 수 있다. 도 10c를 참조하면, 제3 디스플레이(143)에 “전방 사고 발생”와 같은 도로의 교통 상태 정보(M3)가 표시되는 것을 알 수 있다.
이러한, 차량(100)과 관련된 도로의 교통 상태 정보 및 도로의 신호 정보가 차량 디스플레이부(140)를 통해 제공됨에 따라, 차량(100)과 관련된 차량 주변 객체는 차량과 관련된 도로의 정보를 인식할 수 있게 된다. 이에 따라, 주변 객체들은 해당 도로 상황에 더욱 적절한 대처, 대응을 하는 것이 지원될 수 있다.
또한, 몇몇 실시예에서, 센싱부(120)는 차량(100)의 후방에 위치한 다른 차량을 인식할 수 있다. 구체적으로, 센싱부(120)는 차량(100)의 후방에 위치한 다른 차량의 속도 및 다른 차량과의 거리를 식별할 수 있다. 데이터 처리부(130)는 후방 차량과의 거리 정보와 안전 거리 정보를 제3 디스플레이(143), 즉, 후방 디스플레이에 표시할 수 있다. 이에 따라, 후방 차량의 운전자는 제3 디스플레이(143)에서 제공되는 거리 정보에 따라 차량(100)과의 거리를 유지할 수 있으며, 안전한 주행을 수행하는 것이 지원되게 된다. 도 10d를 참조하면, 제3 디스플레이(143)에 “앞차와의 거리 2미터, 안전 거리 3미터”와 같은 후방 차량과의 거리 정보와 안전 거리 정보(M4)가 표시되는 것을 알 수 있다. 예시적으로, 현재 거리가 안전 거리보다 짧은 상태이므로 앞차와의 거리는 경고의 의미로 붉은 색상 등으로 표시될 수 있다.
또한, 몇몇 실시예에서, 차량(100)은 자율 주행 모드 또는 수동 운전 모드로 주행 모드의 전환이 가능한 차량일 수 있다. 데이터 처리부(130)는 차량(100)의 현재 주행 모드 정보를 차량 디스플레이부(140)에 표시할 수 있다. 구체적으로, 데이터 처리부(130)는 차량(100)의 현재 주행 모드 정보를 후면 디스플레이인 제3 디스플레이(143)에 표시할 수 있으나, 이에 한정되는 것은 아니다. 또한, 데이터 처리부(130)는 차량(100)이 자율 주행 모드인 경우, 자율 주행 모드의 자율 주행 레벨 정보를 현재 주행 모드 정보와 함께 차량 디스플레이부(140)에 더 표시할 수 있다. 도 10e를 참조하면, 제3 디스플레이(143)에 “자율 주행 모드, 자율 주행 레벨 3단계”와 같은 후방 차량과의 거리 정보와 안전 거리 정보(M4)가 표시되는 것을 알 수 있다. 예시적으로, 현재 거리가 안전 거리보다 짧은 상태이므로 앞차와의 거리는 경고의 의미로 붉은 색상 등으로 표시될 수 있다.
이에 따라, 차량 주변 객체들이 차량(100)의 현재 주행 모드 및 자율 주행 레벨 정보를 확인할 수 있어, 차량(100)에 주행 모드에 대해 더욱 적절한 대처, 대응을 하는 것이 지원될 수 있다.
몇몇 실시예에서, 차량 디스플레이부(140)를 통해 제공되는 정보, 특히, 제1, 제2, 제3 디스플레이(141, 142, 143)와 같이 차량의 외부에 배치된 디스플레이에 배치되는 정보들은 차량 주변 객체의 통행과 주행에 영향을 미치지 않도록 외부 조도에 따라 출력되는 디스플레이의 조도 또는 휘도를 자동으로 조절할 수 있다.
본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템은 차량과 관련된 객체의 위치를 트랙킹하여 표시하여 차량 주변 오브젝트들이 객체를 인식하는 것을 보조할 수 있다. 이에 따라, 차량과 관련된 객체의 안전한 승하차가 수행되는 것을 지원할 수 있다.
또한, 본 발명의 몇몇 실시예에 따른 차량 안전 지원 시스템은 차량과 관련된 다양한 정보를 외부 디스플레이를 통해 제공하여, 차량 주변 오브젝트들의 안전한 통행 또는 안전한 주행이 수행되는 것을 지원할 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 차량;
    상기 차량에 배치된 프로젝터;
    상기 차량의 주변에 위치하는 적어도 하나의 객체를 식별하여 객체 식별 정보를 생성하고, 식별된 객체의 위치에 대응하는 객체 위치 정보를 생성하는 센싱부; 및
    상기 객체 식별 정보를 고려하여 가이드 이미지를 생성하는 데이터 처리부를 포함하되,
    상기 프로젝터는 상기 객체 위치 정보에 대응하여 상기 적어도 하나의 객체가 위치한 바닥면에 상기 가이드 이미지를 투영하고,
    상기 센싱부는 상기 객체가 한번 식별된 이후에도 객체를 센싱하는 상태는 계속 유지되며,
    상기 센싱부는 실시간 또는 근실시간으로 상기 객체의 이동 여부를 판단하여 객체 이동 정보를 생성하며,
    상기 프로젝터는 상기 객체 이동 정보에 따라 상기 가이드 이미지가 상기 객체를 트랙킹하도록 상기 가이드 이미지의 투영 위치를 조절하여 상기 객체가 위치하는 바닥면에 상기 가이드 이미지가 계속해서 위치하도록 하는,
    차량 안전 지원 시스템.
  2. 제1 항에 있어서,
    상기 객체 식별 정보는 식별된 객체의 크기 정보를 포함하고,
    상기 데이터 처리부는 상기 객체의 크기 정보에 따라 상기 객체의 보호 영역을 정의하고, 상기 보호 영역의 테두리가 강조되도록 상기 가이드 이미지를 생성하는,
    차량 안전 지원 시스템.
  3. 제1 항에 있어서,
    상기 적어도 하나의 객체는 상기 차량에서 하차하는 상태이며,
    상기 센싱부는 상기 차량에서 하차하는 상기 객체를 식별하여 상기 객체 위치 정보 및 상기 객체 식별 정보를 생성하며, 상기 센싱부는 상기 차량의 도어의 오픈에 대응하여 활성화되는,
    차량 안전 지원 시스템.
  4. 제1 항에 있어서,
    상기 차량의 승하차 영역에 배치되는 외부 디스플레이를 더 포함하며,
    상기 외부 디스플레이는 상기 객체와의 접촉을 인식하여 객체 터치 정보를 생성하고,
    상기 데이터 처리부는 상기 객체 식별 정보를 고려하여 보조 가이드 이미지를 더 생성하며,
    상기 외부 디스플레이는 상기 객체 터치 정보를 고려하여 상기 보조 가이드 이미지를 표시하도록 제어되는,
    차량 안전 지원 시스템.
  5. 차량;
    상기 차량에 배치된 프로젝터;
    상기 차량의 주변에 위치하는 적어도 하나의 객체를 식별하여 객체 식별 정보를 생성하고, 식별된 객체의 위치에 대응하는 객체 위치 정보를 생성하는 센싱부; 및
    상기 객체 식별 정보를 고려하여 가이드 이미지를 생성하는 데이터 처리부를 포함하되,
    상기 프로젝터는 상기 객체 위치 정보에 대응하여 상기 적어도 하나의 객체가 위치한 바닥면에 상기 가이드 이미지를 투영하고,
    상기 센싱부는 상기 객체의 이동 여부를 판단하여 객체 이동 정보를 생성하며,
    상기 프로젝터는 상기 객체 이동 정보에 따라 상기 가이드 이미지가 상기 객체를 트랙킹하도록 상기 가이드 이미지의 투영 위치를 조절하고,
    상기 차량의 승하차 영역에 배치되는 외부 디스플레이를 더 포함하며,
    상기 외부 디스플레이는 상기 객체와의 접촉을 인식하여 객체 터치 정보를 생성하고,
    상기 데이터 처리부는 상기 객체 식별 정보를 고려하여 보조 가이드 이미지를 더 생성하며,
    상기 외부 디스플레이는 상기 객체 터치 정보를 고려하여 상기 보조 가이드 이미지를 표시하도록 제어되고,
    상기 데이터 처리부는 상기 객체 식별 정보와 템플릿 이미지를 기초하여 상기 가이드 이미지와 상기 보조 가이드 이미지를 생성하도록 구성되며,
    상기 데이터 처리부는 상기 템플릿 이미지를 생성하거나 선택할 수 있는 사용자 환경을 제공하도록 더 구성되는,
    차량 안전 지원 시스템.
  6. 제1 항 또는 제5 항에 있어서,
    상기 차량의 내부 또는 외부에 배치되는 차량 디스플레이부를 더 포함하며,
    상기 차량 디스플레이부는 적어도 상기 차량의 후면에 배치되는 후면 디스플레이를 포함하는,
    차량 안전 지원 시스템.
  7. 제6 항에 있어서,
    상기 데이터 처리부는,
    상기 차량의 동작 상태와 관련된 정보, 상기 차량이 운행되는 도로의 교통 상태 정보 및 상기 차량이 운행되는 도로의 신호 정보 중 적어도 하나를 상기 차량 디스플레이부에 표시하도록 구성되는,
    차량 안전 지원 시스템.
  8. 제6 항에 있어서,
    상기 데이터 처리부는 상기 차량의 후방에서 주행 중인 차량과 관계된 후방 차량 안내 정보를 더 생성하며,
    상기 데이터 처리부는 상기 후방 차량 안내 정보를 상기 후면 디스플레이에 더 표시하는,
    차량 안전 지원 시스템.
  9. 제1 항 또는 제5 항에 있어서,
    상기 데이터 처리부는, 상기 차량에 승차 또는 하차하려는 적어도 하나의 객체를 식별하며, 상기 식별된 객체에 대응하는 동선 정보를 생성하며, 상기 동선 정보에 대응하는 동선 이미지를 생성하고,
    상기 프로젝터는 상기 동선 이미지를 더 제공하도록 구성되는,
    차량 안전 지원 시스템.
  10. 제6 항에 있어서,
    상기 차량은 자율 주행 모드 또는 수동 운전 모드로 주행 모드의 전환이 가능한 차량이며,
    상기 데이터 처리부는 상기 차량의 현재 주행 모드 정보를 상기 차량 디스플레이부에 표시하며,
    상기 데이터 처리부는 상기 차량이 자율 주행 모드인 경우, 상기 자율 주행 모드의 자율 주행 레벨 정보를 상기 현재 주행 모드 정보와 함께 상기 차량 디스플레이부에 더 표시하는,
    차량 안전 지원 시스템.
KR1020230150818A 2023-11-03 2023-11-03 주변 객체의 안전을 보조하는 차량 안전 지원 시스템 KR102645769B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230150818A KR102645769B1 (ko) 2023-11-03 2023-11-03 주변 객체의 안전을 보조하는 차량 안전 지원 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230150818A KR102645769B1 (ko) 2023-11-03 2023-11-03 주변 객체의 안전을 보조하는 차량 안전 지원 시스템

Publications (1)

Publication Number Publication Date
KR102645769B1 true KR102645769B1 (ko) 2024-03-08

Family

ID=90235831

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230150818A KR102645769B1 (ko) 2023-11-03 2023-11-03 주변 객체의 안전을 보조하는 차량 안전 지원 시스템

Country Status (1)

Country Link
KR (1) KR102645769B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163294A1 (ja) * 2015-04-10 2016-10-13 日立マクセル株式会社 映像投射装置
KR101772444B1 (ko) * 2016-12-07 2017-08-29 조동걸 차량용 프로젝션형 가상 안전 삼각대 표시장치
KR101908422B1 (ko) * 2017-03-30 2018-10-16 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 그의 제어 방법
KR20210052621A (ko) * 2019-10-29 2021-05-11 엘지전자 주식회사 자율주행 레벨 결정 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163294A1 (ja) * 2015-04-10 2016-10-13 日立マクセル株式会社 映像投射装置
KR101772444B1 (ko) * 2016-12-07 2017-08-29 조동걸 차량용 프로젝션형 가상 안전 삼각대 표시장치
KR101908422B1 (ko) * 2017-03-30 2018-10-16 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 그의 제어 방법
KR20210052621A (ko) * 2019-10-29 2021-05-11 엘지전자 주식회사 자율주행 레벨 결정 장치 및 방법

Similar Documents

Publication Publication Date Title
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
KR102267331B1 (ko) 자율 주행 차량과 이를 이용한 보행자 안내 시스템 및 방법
JP4371153B2 (ja) 自律移動装置
US11119492B2 (en) Automatically responding to emergency service vehicles by an autonomous vehicle
JP6051162B2 (ja) 検出された物体の挙動を予測するシステム及び方法
CN109116839A (zh) 车辆控制系统、车辆控制方法及存储介质
US20200283021A1 (en) Vehicle control apparatus, vehicle, and control method
US11059421B2 (en) Vehicle proximity system using heads-up display augmented reality graphics elements
KR101918230B1 (ko) 차량용 램프 및 차량
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US20220135077A1 (en) Increasing awareness of passengers during pullovers and drop offs for autonomous vehicles
US10919439B2 (en) Virtual vehicle protective fence
KR102338375B1 (ko) 전기차의 인접 차량 및/또는 보행자에게 정보전달을 위한 구동 장치 및 이를 이용한 전기차의 구동 방법
KR102645769B1 (ko) 주변 객체의 안전을 보조하는 차량 안전 지원 시스템
KR102621245B1 (ko) 차량 및 그 제어방법
KR102425036B1 (ko) 차량 및 그 제어방법
KR101752798B1 (ko) 차량 및 그 제어방법
KR20230116122A (ko) 차량, 차량 충돌방지 시스템 및 충돌방지 방지 방법
KR20240031680A (ko) 사각지대 알람 제공 장치 및 방법
KR20240034476A (ko) 교통약자에 대응하는 차량 도착 알림 장치 및 방법
WO2022269697A1 (ja) 異常検知システム、異常検知方法及びプログラム記録媒体
KR20230087116A (ko) 주차 타워 진입 방법 및 장치
KR20240081709A (ko) 교통약자 유도 장치 및 방법
KR20210101672A (ko) 퍼스널 모빌리티 및 그 제어 방법
Hilgers From Advanced Driver Assistance Systems to Automated Driving

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant