KR102630051B1 - 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법 - Google Patents

버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법 Download PDF

Info

Publication number
KR102630051B1
KR102630051B1 KR1020230015311A KR20230015311A KR102630051B1 KR 102630051 B1 KR102630051 B1 KR 102630051B1 KR 1020230015311 A KR1020230015311 A KR 1020230015311A KR 20230015311 A KR20230015311 A KR 20230015311A KR 102630051 B1 KR102630051 B1 KR 102630051B1
Authority
KR
South Korea
Prior art keywords
video
tour
passenger
display
bus
Prior art date
Application number
KR1020230015311A
Other languages
English (en)
Inventor
최학찬
정공주
Original Assignee
(주)이즈피엠피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이즈피엠피 filed Critical (주)이즈피엠피
Priority to KR1020230015311A priority Critical patent/KR102630051B1/ko
Priority to KR1020230152281A priority patent/KR20240123221A/ko
Application granted granted Critical
Publication of KR102630051B1 publication Critical patent/KR102630051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/14Travel agencies
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • B60Y2200/143Busses

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)

Abstract

컨트롤러 및 컨트롤러의 제어 방법을 제시한다. 제시된 컨트롤러는 복수의 좌석을 갖춘 버스에 탑재된 디스플레이들을 제어하기 위한 컨트롤러로서, 디스플레이들 각각과 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장하도록 구성되는 저장부; 및 탑승객의 탑승 정보와 관계 정보를 참조하여 제 1 탑승객에 대응하는 제 1 디스플레이를 결정하고, 탑승 정보에 기초하여 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정하고, 버스의 위치 정보에 기초하여 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하고, 제 1 개인별 영상 및 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성하여 제 1 디스플레이에게로 전송하는 프로세서;를 포함한다.

Description

버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법{Controller for controlling display of video for bus and control method of the controller}
본 발명은 컨트롤러 및 컨트롤러의 제어 방법에 관한 것으로, 보다 상세하게는 버스용 영상을 버스에 탑재한 투명 디스플레이에 표시하도록 하는 컨트롤러 및 컨트롤러의 제어 방법에 관한 것이다.
경제가 발전함에 따라 개개인의 삶에도 경제적, 시간적 여유가 생겨 여행 수요가 급증하고 있다. 또한, 우리나라의 대외적인 위상이 높아짐에 따라 우리나라로 여행을 오는 외국인의 수도 점차 늘어나는 추세이다.
여행객들을 가이드하는 일반적인 방법은 차량을 타고 이동하면서 차창 밖으로 보이는 풍경이나 목적지의 역사나 변천사 등의 관련정보를 음성으로 안내하는 방식으로 이루어지고 있다.
그러나, 이와 같은 가이드 방식은 여행객들이 직접 여행지의 역사나 변천사 등을 체감할 수 없고, 단순히 이에 대한 설명을 주입식으로 청취하도록 하기 때문에 관광 안내의 효과가 크지 않다는 문제점이 있다.
또한, 이와 같은 가이드 방식은 여러 나라의 관광객을 함께 가이드하는 경우, 동일한 내용을 각각의 언어로 순차적으로 안내해야 하여 시간이 오래 걸리고 불편하다는 문제점이 있다.
그리고, 차량에 모니터를 설치하여 영상을 통해 가이드 하는 방식의 경우에는, 모니터를 다수 설치해야 하여 공간상에 제약을 받고 사고 발생시 부상 위험이 커질 뿐 아니라, 모든 좌석에서 모니터가 잘 보이는 것이 아니기 때문에, 탑승객들에게 오히려 불편을 초래한다는 문제점이 있다.
이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.
선행기술 : 대한민국 등록특허 제10-1905356(2018.09.28.)
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 버스에 탑승한 탑승객(관광객)들에게 투어 영상을 버스에 탑재한 디스플레이들을 통해 공통적으로 제공하되 개인별 영상을 탑승객에게 대응된 디스플레이에만 표시할 수 있는 컨트롤러 및 컨트롤러의 제어 방법을 제공함에 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 컨트롤러는, 버스에 탑재된 디스플레이들을 제어하기 위한 컨트롤러에 있어서, 상기 버스는 복수의 좌석을 포함하고, 상기 디스플레이들 각각은 복수의 좌석 각각에 대응하고, 상기 컨트롤러는, 상기 디스플레이들 각각과 상기 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장하도록 구성되는 저장부; 상기 버스의 위치 정보 및 상기 버스의 탑승객의 탑승 정보를 수신하도록 구성되는 통신부; 및 프로세서를 포함하고, 상기 프로세서는, 상기 탑승 정보와 상기 관계 정보를 참조하여, 제 1 탑승객의 제 1 좌석 위치에 대응하는 제 1 디스플레이를 결정하고, 상기 탑승 정보에 기초하여, 상기 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정하고, 상기 버스의 위치 정보에 기초하여, 상기 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하고, 상기 제 1 개인별 영상 및 상기 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성하고, 상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송한다.
한편, 본 발명의 바람직한 실시양태에 따른 컨트롤러의 제어 방법은, 버스에 탑재된 디스플레이들을 제어하기 위한 컨트롤러의 제어 방법으로서, 상기 버스는 복수의 좌석들을 포함하고, 상기 디스플레이들 각각은 복수의 좌석 각각에 대응하고, 상기 디스플레이들 각각과 상기 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장부에 저장하는 단계; 상기 버스의 위치 정보 및 상기 버스의 탑승객의 탑승 정보를 수신하는 단계; 상기 탑승 정보와 상기 관계 정보를 참조하여, 제 1 탑승객의 제 1 좌석 위치에 대응하는 제 1 디스플레이를 결정하는 단계; 상기 탑승 정보에 기초하여, 상기 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정하는 단계; 상기 버스의 위치 정보에 기초하여, 상기 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하는 단계; 상기 제 1 개인별 영상 및 상기 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성하는 단계; 및 상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송하는 단계;를 포함한다.
이러한 구성의 본 발명에 따르면, 여행지의 역사나 변천사를 생생하게 체감할 수 있도록 함으로써 여행지에 대한 학습 효과가 높고 여행지에 대한 인상이 오래 남도록 하는 등 관광정보의 체험적 전달 능력을 극대화할 수 있다는 이점이 있다.
또한, 차량(예컨대, 관광 버스)의 위치에 따라 투어 영상을 표시해 줄 수 있고, 투어 명소 등에 대한 각종 부가정보를 쉽게 안내할 수 있다는 이점이 있다.
또한, 차량내의 모든 좌석에서 확장 현실(XR) 기반의 영상을 볼 수 있으므로, 탑승객들에게 상당한 몰입감을 제공할 수 있다.
도 1은 본 발명의 실시예 설명에 채용되는 차량의 외관사시도이다.
도 2는 본 발명의 실시예 설명에 채용되는 투어 경로의 일 예를 나타낸 도면이다.
도 3은 도 1에 도시된 차량 내부의 좌석 배치 형태를 설명하기 위한 도면이다.
도 4 및 도 5는 차량의 디스플레이에 표시되는 영상의 예들을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 전체 시스템의 구성도이다.
도 7은 도 6에 도시된 컨트롤러의 내부 구성도이다.
도 8 내지 도 11은 탑승객(관광객)에게 제공될 영상의 표시 제어를 설명하는데 채용되는 도면들이다.
도 12는 본 발명의 실시예에 따른 컨트롤러의 제어 방법을 설명하기 위한 플로우차트이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 실시예 설명에 채용되는 차량의 외관사시도이고, 도 2는 본 발명의 실시예 설명에 채용되는 투어 경로의 일 예를 나타낸 도면이고, 도 3은 도 1에 도시된 차량 내부의 좌석 배치 형태를 설명하기 위한 도면이고, 도 4 및 도 5는 차량의 디스플레이에 표시되는 영상의 예들을 나타낸 도면이다.
차량(100)은 관광 버스, 트롤리 버스 등으로 구현될 수 있고, 도 2에 예시한 바와 같이 기설정된 투어 경로(tour route)(예컨대, 파트(part) 1, 파트 2, 파트 3 중에서 하나의 투어 경로; 도 2 참조)를 따라 이동할 수 있다. 도 2에 예시된 각 파트의 투어 경로별로는 출발지 및 종착지를 갖는다. 경우에 따라서는 도 2에서 파트 3의 투어 경로와 같이 출발지와 종착지가 동일할 수도 있다.
차량(100)은 차체를 구성하는 프레임, 천정, 바닥면 등을 포함하고, 차량(100)의 구동에 필요한 엔진 등을 포함할 수 있다.
특히, 차량(100)은 투명 디스플레이(10)를 탑재하고 있으며, 차량(100) 내부에는 예를 들어 도 3에서와 같이 복수의 좌석(20)이 차량(100) 중앙부에 2열 종대 형태로 설치될 수 있다.
투명 디스플레이(10)는 도 3에서와 같이 차량(100) 차체의 좌측부와 우측부에 설치된 각각의 유리창에 설치될 수 있다.
상술한 바와 같이, 차량(100)의 좌측부와 우측부에는 각각 투명 디스플레이(10)가 설치되고, 차량(100) 내부 중앙부에 복수의 좌석(20)이 2열 종대 형태로 설치될 수 있으므로, 좌측 1열의 좌석(20)은 차량(100) 차체의 좌측부에 설치된 투명 디스플레이(10)에 일대일로 대응될 수 있다. 그리고, 우측 1열의 좌석(20)은 차량(100) 차체의 우측부에 설치된 투명 디스플레이(10)에 일대일로 대응될 수 있다.
투명 디스플레이(10)는 투명 기판상에 투명 소자를 이용하여 만든 박막형상의 디스플레이 수단일 수 있다. 투명 디스플레이(10)는 차량 내부의 탑승객이 외부를 투시하여 볼 수 있도록 가시광선이 투과할 수 있도록 구성될 수 있다. 투명 디스플레이(10)는 차량(100)의 유리창 등의 전면을 모두 커버할 수 있도록 유리창 등의 형상에 대응하여 형성될 수 있다.
다시 말해서, 투명 디스플레이(10)는 가시광선 투과율을 일정수준 이상으로 조절하여 투명 소재를 통해 차량 외부를 투시 가능하게 하되, 화상 데이터의 출력이 가능하다.
투명 디스플레이(10)는 확장 현실(XR) 기반의 영상을 표시할 수 있고, 영상이 차량 위치 및 차량 운행 상태 등에 따라 변함으로써 차량(100)의 탑승객들이 마치 투명 디스플레이(10)에 표시된 확장 현실 공간을 여행하는 것처럼 느낄 수 있다.
확장 현실(XR)은 가상현실(Virtual Reality), 증강현실(Augmented Reality), 혼합현실(Mixed Reality) 등 실감 기술을 통칭한다. 이 기술들은 가상과 현실의 융합을 통해 현실의 경험을 확장하고 특별한 몰입감을 제공할 수 있다.
이와 같은 차량(100)은 특정한 투어 경로를 주행하면서 해당 차량(100)의 현재 위치, 속도 등에 기초하여 그에 상응하는 투어 영상을 투명 디스플레이(10)에 표시할 수 있다.
투어 영상은 투어 콘텐츠 기반의 영상으로서, 투어 경로상에서 차량(100)의 현재 위치 및 속도 등을 근거로 탑승객별에 대응된 투명 디스플레이에 제공될 수 있는 관광 관련 영상을 의미할 수 있다. 투어 콘텐츠는 모든 투명 디스플레이(10)에 공통적으로 시계열적으로 제공되어 표시되는 정보 또는 내용물을 의미하는 것으로서, 관광적 요소가 체화된 콘텐츠를 의미할 수 있다. 예를 들어, 투어 콘텐츠는 수원 화성, 제주도, 울릉도 등과 같이 관광적 요소가 있는 지역 또는 장소에 대한 각종 정보를 포함할 수 있다. 그리고, 투어 영상은 투어 콘텐츠의 각종 정보를 기반으로 만들어질 수 있다.
투어 영상의 일 예로는 도 4에서와 같이 투어 경로내에 있는 주요시설물(예컨대, 성곽 등의 명소)에 대한 시각화 정보가 있을 수 있다. 도 4는 차량(100)내의 탑승객이 실경기반의 MR큐레이션을 경험할 수 있게 해 준다. 예를 들어, 투어 경로상에서 차량(10)의 현재 위치가 수원 화성 근처이면 수원 화성의 역사적 가치와 시설 정보 등을 투명 디스플레이(10)에 표시한다. 이때, 미복원 시설물은 3D애니메이션으로 복구하여 투명 디스플레이(10)에 표시할 수 있다. 차량(100)은 투명 디스플레이(10)를 통해 현재 위치에 대응하는 주요시설물의 역사 또는 변천사 등을 확장 현실 영상으로 탑승객들에게 제공할 수 있다.
도 4는 차량(100)이 정차한 상태에서 현재 위치에 대응하는 주요시설물(예컨대, 수원 화성 등)의 형상 및 그에 대한 설명을 투명 디스플레이(10)에 표시하고 있어서, 투명 디스플레이(10)마다 서로 동일한 투어 영상이 표시되는 것처럼 도시하였다.
그런데, 차량(100)의 이동중에도 투어 영상의 표시가 가능한데, 이 경우에는 시계열적으로 점진적으로 흘러가는 형태의 투어 영상을 표시할 수 있다. 예를 들어, 차량(100) 차체 좌측부의 투명 디스플레이(10)들을 제 1 그룹의 디스플레이로 하고, 차량(100) 차체 우측부의 투명 디스플레이(10)들을 제 2 그룹의 디스플레이로 하여, 차량(100)의 이동 및 현재 위치에 따라 투어 영상이 각 그룹의 디스플레이에서 처음에는 제 1 디스플레이, 다음에는 제 2 디스플레이, 그 다음에는 제 3 디스플레이를 거치면서 변화되도록 할 수 있다. 즉, 제 1 디스플레이에서의 투어 영상은 제 2 디스플레이에서의 투어 영상과 상이하고, 제 2 디스플레이에서의 투어 영상은 제 3 디스플레이에서의 투어 영상과 상이하게 될 것이다. 이와 같이 하면, 모든 디스플레이에는 공통적인 투어 콘텐츠에 영상이 표시되지만, 각각의 디스플레이에는 공통적인 투어 콘텐츠에 대응하는 저마다 다른 투어 영상이 표시될 수 있다.
도 4와 같은 투어 영상이 투명 디스플레이(10)에 표시됨에 따라, 탑승객들은 마치 확장 현실(XR) 공간을 여행하는 것처럼 느끼게 될 것이다.
필요에 따라, 도 4의 경우는 터치 큐레이션도 가능할 수 있다. 이와 같이 터치 큐레이션이 가능하면 투어를 위한 탑승객들은 자신의 좌석에 앉아서 투어 명소들에 대한 경험을 인터랙티브(interactive)하게 제공받을 수 있을 것이다.
투어 영상의 다른 예로는 도 5에서와 같이 미디어아트 퍼포먼스 영상이 있을 수 있다. 도 5에서와 같은 미디어아트 퍼포먼스는 차량(100)이 비교적 역사적 의미가 낮은 공간과 고속도로 등 도로 운행 구간에 위치해 있을 때 투명 디스플레이(10)에 표시될 수 있다. 도 5와 같은 미디어아트 퍼포먼스 영상이 투명 디스플레이(10)에 표시되면 끊김없는 몰입감을 탑승객에게 제공할 수 있다.
투어 영상의 예는 상술한 예로만 한정되는 것은 아니다.
도 6은 본 발명의 실시예에 따른 전체 시스템의 구성도이다.
도 6의 시스템은 차량(100; 이하에서는 "버스(bus)"라고 함), 사용자 단말(200), 및 컨트롤러(300)를 포함할 수 있다.
버스(100)는 디스플레이(30), 통신부(32), 위치 감지부(34), 탑승 확인부(36), 관성변화 감지부(38), 및 제어부(40)를 포함할 수 있다.
디스플레이(30)는 앞서 설명한 투명 디스플레이(10)가 될 수 있다.
즉, 디스플레이(30)는 도 3에서와 같이 버스(100)의 차체 좌측부와 우측부에 각각 설치된 유리창에 설치될 수 있다.
도 6에서는 디스플레이(30)를 하나만 도시하였으나, 실제로는 도 3에서와 같이 각각의 디스플레이(30)는 각각의 좌석에 일대일로 대응되도록 구성될 수 있으므로, 복수의 디스플레이가 있는 것으로 이해하는 것이 바람직하다.
통신부(32)는 소정의 네트워크를 통해 컨트롤러(300)와 통신할 수 있다.
여기서, 네트워크는 버스(100)의 통신부(32) 및 컨트롤러(300)와 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미할 수 있다.
네트워크는 무선 통신 방식의 네트워크일 수 있다. 예를 들어, 네트워크는 무선랜(Wireless LAN (WLAN)), 와이브로(Wireless Broadband (Wibro)), WCDMA(Wideband CDMA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution (LTE)), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication (NFC)), 초음파 통신(Ultra Sound Communication (USC)), 가시광 통신(Visible Light Communication (VLC)), 와이 파이(Wi-Fi) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
위치 감지부(34)는 버스(100)의 현재 위치에 대한 GPS신호를 수신할 수 있다.
위치 감지부(34)는 GPS위성으로부터 신호를 수신하여 버스(100)의 위치정보를 생성할 수 있다. 여기서, 위치 감지부(34)가 생성하는 위치정보는 버스(100)의 현재 위치에 대한 정보일 수 있다.
물론, 필요에 따라, 위치 감지부(34)는 투어 경로상에서의 버스(100)의 현재 위치를 감지할 수 있다.
위치 감지부(34)는 버스(100)의 현재 위치 정보를 통신부(32)를 통해 컨트롤러(300)에게로 전송할 수 있다. 이때, 위치 감지부(34)는 실시간으로 버스(100)의 현재 위치 정보를 컨트롤러(300)에게로 전송한다고 볼 수 있다.
탑승 확인부(36)는 탑승객의 탑승 여부를 확인할 수 있다. 예를 들어, 탑승 확인부(36)는 탑승객의 탑승여부를 체크할 수 있는 단말(도시 생략)을 포함할 수 있다. 여기서, 탑승객의 탑승여부를 체크할 수 있는 단말은 버스(100)의 출입구에 구비될 수 있다.
버스(100)에 탑승하기 위해서는 사용자는 미리 컨트롤러(300)에 접속하여 탑승 예약을 한다. 탑승 예약시 사용자는 ID, 성별, 연령 등을 입력하고 희망하는 투어일, 투어 경로, 좌석 위치 등의 탑승 정보를 예약할 수 있다. 물론, 탑승 예약을 하고자 하는 사용자가 외국인인 경우 사용가능 언어를 탑승 정보에 추가함이 바람직하다. 그리고, 탑승 예약시 사용자는 자신이 선호하는 장소 등에 대한 추가 설명 또는 기타 사항에 대한 설명 등을 제공받고자 할 때에는 별도로 해당 사항을 추가 입력할 수 있다. 탑승 예약이 완료되면 컨트롤러(300)는 탑승 예약 완료에 따른 투어용 티겟 데이터(예컨대, 투어일, 투어 경로, 좌석 번호 등을 포함)를 해당 사용자(즉, 탑승 예약자)의 단말(200)에게로 전송한다. 이후, 사용자는 해당 투어일에 버스(100)에 탑승하게 되는데, 이때 사용자는 자신의 단말(200)의 디스플레이에 티겟 데이터가 표시되도록 한다. 그리고 나서, 사용자는 버스(100)의 출입구에 구비된 단말이 티겟 데이터를 인식할 수 있도록 자신의 단말(200)을 단말에 갖다 댄다. 그에 따라, 해당 단말이 티겟 데이터를 리드(read)함에 따라, 탑승 확인부(36)는 해당 사용자의 탑승을 확인할 수 있다.
탑승 확인부(36)는 탑승객이 탑승하였음을 나타내는 신호를 통신부(32)를 통해 컨트롤러(300)에게로 전송할 수 있다.
관성변화 감지부(38)는 가속도센서 및 자이로센서 등을 이용하여 버스(100)의 이동방향과 속도의 변화량을 포함하는 관성변화를 감지할 수 있다.
관성변화 감지부(38)는 가속도계(Accelerometer), 자이로스코프(Gyroscope) 등의 관성 측정센서가 조합된 형태로 마련될 수 있다.
관성변화 감지부(38)는 버스(100)의 가속/감속, 이동/정지 및 축회전을 감지하여, 버스(100)의 변위를 생성할 수 있다.
관성변화 감지부(38)는 감지한 관성변화 정보를 통신부(32)를 통해 컨트롤러(300)에게로 전송할 수 있다. 이때, 관성변화 감지부(38)는 실시간으로 버스(100)의 현재의 관성변화 정보를 컨트롤러(300)에게로 전송한다고 볼 수 있다.
제어부(40)는 버스(100)에서의 영상 표시에 대한 전반적인 동작을 제어할 수 있다.
제어부(40)는 버스(10)에서의 영상 표시 동작을 위한 일련의 연산들 또는 판단들을 수행할 수 있는 장치를 의미할 수 있다. 예를 들어, 제어부(40)는 CPU(central processing unit), MCU(micro controller unit), GPU(graphical processing unit), ASIC(application specific integrated circuit), 또는 FPGA(field programmable gate array)일 수 있으나, 이에 한정되는 것은 아니다.
제어부(40)는 통신부(32)를 통해 컨트롤러(300)로부터 수신한 투어 콘텐츠에 대응하는 투어 영상을 버스(100)내의 모든 디스플레이(30)에 전송하여 표시되도록 한다.
앞서 설명한 바와 같이, 투어 영상은 투어 콘텐츠 기반의 영상으로서, 버스(100)의 현재 위치 및 속도 등을 근거로 탑승객별에 대응된 투명 디스플레이에 제공될 수 있는 관광 관련 영상을 의미할 수 있다. 투어 콘텐츠는 모든 투명 디스플레이(10)에 공통적으로 시계열적으로 제공되어 표시되는 정보 또는 내용물을 의미하는 것으로서, 관광적 요소가 체화된 콘텐츠를 의미할 수 있다.
예를 들어, 버스(100)에 탑승한 탑승객들 중에서 제일 앞쪽의 탑승객의 디스플레이(30)와 제일 뒤쪽의 탑승객의 디스플레이(30)는 각기 다른 투어 영상이 표시될 수 있다. 예컨대, 10개의 디스플레이(30)가 일렬로 배치되어 있다고 가정하면, 투어 영상은 제일 앞쪽의 디스플레이(30)에서부터 디스플레이되면서 제일 뒤쪽의 디스플레이(30)까지 순차적으로 이동하면서 디스플레이되므로, 각각의 디스플레이(30)에 표시되는 투어 영상은 시간에 따라 서로 상이하다고 볼 수 있다.
그래서, 제어부(40)는 버스(100)의 현재 위치 및 탑승객의 좌석 위치에 따라 서로 차이나는 투어 영상을 탑승객별로 대응하는 디스플레이(30)에 표시되도록 할 수 있다.
이와 같이, 제어부(40)는 버스(100)내에 설치된 모든 디스플레이(30)의 투어 영상 표시를 개별적으로 제어할 수 있다.
물론, 제어부(40)는 통신부(32)를 통해 컨트롤러(300)로부터 탑승객별 투어 영상 및 개인별 영상을 이용한 통합 영상을 수신할 수 있다. 이 경우, 제어부(40)는 수신한 통합 영상을 해당 탑승객에 대응하는 디스플레이(30)에게로 전송하여 표시되도록 한다.
사용자는 탑승 예약을 할 때 선호하는 장소 등에 대한 추가 설명 또는 기타 사항에 대한 설명 등을 제공받기 위해 별도로 해당 사항을 미리 예약해 둘 수 있다. 상기의 개인별 영상은 투어 콘텐츠 또는 투어 영상과는 무관한 것으로서, 사용자가 선호하는 장소 등에 대한 추가 설명의 영상 또는 기타 사항에 대한 설명의 영상이 될 수 있다. 개인별 영상은 사용자가 선호하는 장소 또는 기타 사항을 미리 예약해 두었을 경우에만 해당 사용자(탑승객)에 대응하는 디스플레이에만 표시될 수 있다.
예를 들어, 상술한 통합 영상은 투어 영상이 메인 화면으로 되어 해당 디스플레이(30)의 전체 표시 영역에 표시되고, 개인별 영상이 투어 영상 위에 팝업 형태로 표시되되 투어 영상의 표시 영역보다는 작은 표시 영역에 표시되는 영상일 수 있다.
물론, 상술한 통합 영상은 팝업 형태가 아니라, PIP(Picture in Picture) 화면과 같이 투어 영상이 차지하는 화면 영역과 개인별 영상이 차지하는 화면 영역으로 분할된 영상이어도 된다.
한편, 도 6에서, 사용자 단말(200)은 소정의 네트워크를 통해 컨트롤러(300)에 접속할 수 있는 전자 장치로 구현될 수 있다. 상기의 네트워크는 앞서의 통신부(32) 설명에서 기술하였던 무선 통신 방식의 네트워크일 수 있다.
예를 들어, 사용자 단말(200)은 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
사용자 단말(200)은 탑승 예약 정보(예컨대, 탑승객 ID, 성별, 연령, 투어일, 투어 경로, 좌석 번호 등을 포함)를 컨트롤러(300)에게로 전송할 수 있다.
또한, 사용자 단말(200)은 탑승 예약을 할 때 사용자가 선호하는 장소 또는 기타 사항을 컨트롤러(300)에게로 전송할 수 있다.
사용자 단말(200)은 탑승 예약 완료에 따른 투어용 티겟 데이터(예컨대, 투어일, 투어 경로, 좌석 번호 등을 포함)를 컨트롤러(300)로부터 수신할 수 있다.
도 6에서는 사용자 단말(200)을 하나만 도시하였으나, 실제로는 복수의 사용자 단말(200)이 존재하는 것으로 이해하는 것이 바람직하다.
도 6에서, 컨트롤러(300)는 버스(100)의 외부에 설치된 서버일 수도 있고, 버스(100)내에 설치될 수도 있다.
컨트롤러(300)는 디스플레이(30)들 각각과 버스(100)내의 복수의 좌석들 각각 사이의 대응 관계를 나타내는 관계 정보를 저장하고, 버스(100)로부터 해당 버스(100)의 위치 정보 및 해당 버스(100)의 탑승객의 탑승 정보를 수신할 수 있다.
컨트롤러(300)는 관계 정보 및 수신한 탑승객의 탑승 정보를 근거로, 탑승객별 좌석 위치에 대응하는 디스플레이를 결정할 수 있다. 예를 들어, 컨트롤러(300)는 제 1 탑승객에 대해서는 제 1 탑승객의 좌석 위치에 대응하는 제 1 디스플레이를 제 1 탑승객의 디스플레이로 결정할 수 있다.
컨트롤러(300)는 수신한 탑승객의 탑승 정보에 기초하여, 탑승객별로 제공될 개인별 영상을 결정할 수 있다. 여기서, 개인별 영상은 해당 탑승객이 버스(100)에 탑승하였을 경우 및 해당 탑승객이 선호하는 장소 또는 기타 사항을 미리 예약한 경우에만 제공되는 것이다. 예를 들어, 제 1 탑승객이 버스(100)에 탑승하였고 미리 예약 선호하는 장소 또는 기타 사항이 있다면 컨트롤러(300)는 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 개인별 영상을 결정할 수 있다. 여기서, 제 1 개인별 영상은 제 1 탑승객이 선호하는 장소에 대한 설명 또는 기타 사항에 대한 설명을 포함하는 영상일 수 있다. 물론, 만약 제 1 탑승객의 연령대에 맞게 별도로 제작된 영상 콘텐츠(투어 콘텐츠 또는 투어 영상과는 무관함)도 제 1 개인별 영상이 될 수 있다.
즉, 컨트롤러(300)는 탑승객(사용자)으로부터 선호하는 장소 또는 기타 사항을 미리 예약받게 되면 그에 상응하는 설명 영상을 생성하여 해당 탑승객의 개인별 영상으로 저장해 둔 후, 해당 탑승객의 탑승 정보를 수신하면 저장시켜 둔 해당 개인별 영상을 해당 탑승객에게 제공될 투어 콘텐츠에 대응하는 개인별 영상으로 결정할 수 있다.
컨트롤러(300)는 버스(100)의 현재 위치 정보를 근거로, 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상을 결정할 수 있다. 즉, 버스(100)의 현재 위치에 따라 그에 상응하는 투어 영상이 탑승객들에게 제공될 수 있도록 하기 위해서이다. 왜냐하면, 버스(100)의 현재 위치가 A 위치인데, B 위치에 상응하는 투어 영상을 탑승객들에게 제공할 수는 없기 때문이다.
한편으로, 예를 들어 버스(100)의 현재 위치가 수원 화성의 초입일 경우 제일 앞쪽의 탑승객과 제일 뒤쪽의 탑승객이 디스플레이(30)를 통해 바라보는 외부 전경은 서로 다를 것이다. 이럴 경우에는, 모든 탑승객에게 수원 화성에 대한 영상을 투어 영상으로서 보여 주는 것보다는 각각의 탑승객에게 보다 적합한 투어 영상을 제공하는 것이 보다 좋을 것이다. 그에 따라, 컨트롤러(300)는 버스(100)의 현재 위치 정보 및 탑승객별 좌석 정보를 근거로, 각각의 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상을 결정하는 것이 보다 바람직하다.
이를 위해, 컨트롤러(300)는 투어 경로상에서의 버스(100)의 이동시간에 따른 위치 정보를 참조하여 투어 콘텐츠에 대응하는 하나의 투어 영상을 디스플레이별로 미리 분할해 둘 수 있다. 즉, 컨트롤러(300)는 투어 콘텐츠에 대응하는 하나의 투어 영상을 좌석 위치마다에 대응되는 디스플레이에 적합하게 표시될 수 있도록 복수의 개별 투어 영상으로 미리 분할해 둘 수 있다. 이와 같이 하면, 컨트롤러(300)는 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상으로는 버스(100)의 현재 위치에 적합한 제 1 투어 영상을 결정할 수 있다. 컨트롤러(300)는 제 2 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상으로는 버스(100)의 현재 위치에 적합한 제 2 투어 영상을 결정할 수 있다. 여기서, 제 1 투어 영상 및 제 2 투어 영상은 동일한 투어 콘텐츠내의 영상으로서, 디스플레이(30)에 표시될 때에는 서로 상이한 영상일 수 있다.
한편, 컨트롤러(300)는 탑승객의 개인별 영상 및 투어 영상을 조합하여 통합 영상을 생성할 수 있다. 여기서, 통합 영상은 투어 영상이 메인 화면으로 되어 해당 탑승객에 대응하는 디스플레이(30)의 전체 표시 영역에 표시되고, 개인별 영상이 투어 영상 위에 팝업 형태로 표시되되 투어 영상의 표시 영역보다는 작은 표시 영역에 표시되는 영상일 수 있다. 다르게는, 통합 영상은 PIP(Picture in Picture) 화면과 같이 투어 영상이 차지하는 화면 영역과 개인별 영상이 차지하는 화면 영역으로 분할된 영상이어도 된다. 예를 들어, 컨트롤러(300)는 제 1 탑승객을 위해 제 1 개인별 영상 및 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성할 수 있고, 제 2 탑승객을 위해 제 2 개인별 영상 및 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성할 수 있다.
컨트롤러(300)는 통합 영상을 해당 디스플레이(30)에게로 전송될 수 있도록 해당 디스플레이(30)의 식별자와 함께 버스(100)에게로 전송할 수 있다.
예를 들어, 컨트롤러(300)는 제 1 통합 영상 및 디스플레이 식별자를 버스(100)에게로 전송하고, 버스(100)내의 제어부(40)는 디스플레이 식별자를 근거로 제 1 통합 영상을 해당하는 제 1 디스플레이에게로 전송할 수 있다. 또한, 컨트롤러(300)는 제 1 통합 영상내의 제 1 개인별 영상은 제 1 디스플레이의 표시 범위를 벗어나지 않도록 제어할 수 있다.
한편, 컨트롤러(300)는 투어 영상의 기 지정된 구간 내에서는 개인별 영상이 나타나지 않도록 통합 영상을 생성할 수 있다. 투어 영상에는 주요시설물에 대한 설명 데이터가 포함되어 있고, 투어 영상의 기 지정된 구간은 주요시설물에 대한 설명 데이터가 포함된 구간일 수 있다. 이와 같이 주요시설물에 대한 설명을 디스플레이를 통해 표시할 때에는 개인별 영상이 표시되지 않는 것이 바람직하다. 왜냐하면, 탑승객이 디스플레이상에서 주요시설물에 대한 설명을 보다 정확하게 볼 수 있도록 하기 위해서이다.
도 7은 도 6에 도시된 컨트롤러(300)의 내부 구성도이고, 도 8 내지 도 11은 탑승객에게 제공될 영상의 표시 제어를 설명하는데 채용되는 도면들이다.
컨트롤러(300)는 통신부(310), 저장부(320), 및 프로세서(330)를 포함할 수 있다.
통신부(310)는 버스(100)내의 통신부(32)와 통신을 수행할 수 있다.
또한, 통신부(310)는 사용자 단말(200)과의 통신을 수행할 수 있다.
통신부(310)는 사용자 단말(200)로부터 탑승 정보(예컨대, 탑승객 ID, 성별, 연령, 투어일, 투어 경로, 좌석 위치, 사용가능 언어 등을 포함)를 수신하여 프로세서(330)에게로 보내고, 프로세서(330)는 수신한 탑승 정보를 저장부(320)에 저장할 수 있다.
통신부(310)는 버스(100)로부터 버스(100)의 현재 위치 정보를 수신할 수 있다. 통신부(310)는 수신한 버스(100)의 현재 위치 정보를 프로세서(330)에게로 보낸다.
저장부(320)는 디스플레이들 각각과 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장할 수 있다. 예를 들어, 도 8을 참조하여 볼 때, 관계 정보는 디스플레이(30a)와 좌석(20a)이 서로 대응되고, 디스플레이(30b)와 좌석(20b)이 서로 대응되고, 디스플레이(30c)와 좌석(20c)이 서로 대응되고, 디스플레이(30d)와 좌석(20d)이 서로 대응되는 것을 나타내는 정보일 수 있다.
저장부(320)는 사용자(탑승객)별 탑승 예약 정보 및 지역별 지리정보를 저장할 수 있다.
프로세서(330)는 관계 정보 및 수신한 탑승객의 탑승 정보를 참조하여, 탑승객별 좌석 위치에 대응하는 디스플레이를 결정할 수 있다. 예를 들어, 프로세서(300)는 제 1 탑승객에 대해서는 제 1 탑승객의 좌석 위치에 대응하는 제 1 디스플레이를 제 1 탑승객의 디스플레이로 결정할 수 있다. 다시 말해서, 제 1 탑승객의 좌석 위치가 좌측열과 우측열 중에서 좌측열의 좌석이고 제 1 디스플레이와 인접한 좌석 위치라면 제 1 디스플레이를 제 1 탑승객의 좌석 위치에 대응하는 디스플레이로 결정할 수 있다.
프로세서(330)는 탑승 정보에 기초하여, 탑승객별로 제공될 개인별 영상을 결정할 수 있다. 여기서, 개인별 영상은 탑승객별로 선호하는 장소 또는 기타 사항에 대한 설명이 담겨 있는 영상일 수 있다.
부연설명하면, 프로세서(330)는 탑승객(사용자)으로부터 선호하는 장소 또는 기타 사항을 미리 예약받게 되면 그에 상응하는 설명 영상을 생성하여 해당 탑승객의 개인별 영상으로 저장해 둔 후, 해당 탑승객의 탑승 정보를 수신하면 저장시켜 둔 해당 개인별 영상을 해당 탑승객에게 제공될 개인별 영상으로 결정할 수 있다.
한편, 제 1 개인별 영상에는 가상 객체(virtual object; VO)가 포함될 수 있다. 가상 객체(VO)는 관광 가이드 역할을 할 수 있다. 예를 들어, 가상 객체는 아바타(avatar)와 같이 탑승객을 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 물론, 가상 객체는 말풍선 형태일 수도 있다.
프로세서(330)는 버스(100)의 현재 위치 정보를 근거로, 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상을 결정할 수 있다. 버스(100)의 현재 위치가 A 위치인데, B 위치에 상응하는 투어 영상을 탑승객들에게 제공할 수는 없기 때문에, 컨트롤러(300)는 버스(100)의 현재 위치에 대응되는 투어 영상을 탑승객에게 제공될 투어 영상으로 결정하는 것이 바람직하다. 예를 들어, 프로세서(330)는 투어 경로상에서의 버스(100)의 이동시간에 따른 위치 정보를 참조하여 투어 콘텐츠에 대응하는 하나의 투어 영상을 디스플레이별로 미리 분할해 둘 수 있다. 이와 같이 하면, 컨트롤러(300)는 버스(100)의 현재 위치에 적합한 제 1 투어 영상을 결정할 수 있고, 버스(100)의 현재 위치에 적합한 제 2 투어 영상을 결정할 수 있다. 여기서, 제 1 투어 영상 및 제 2 투어 영상은 투어 콘텐츠에 대응하는 하나의 투어 영상으로부터 분할되어 생성된 영상으로서, 디스플레이(30)에 표시될 때에는 서로 상이한 영상일 수 있다. 제 1 투어 영상 및 제 2 투어 영상은 확장 현실(XR) 기반의 영상일 수 있다.
프로세서(330)는 탑승객의 개인별 영상 및 투어 영상을 조합하여 통합 영상을 생성할 수 있다. 여기서, 통합 영상은 투어 영상이 메인 화면으로 되어 해당 탑승객에 대응하는 디스플레이(30)의 전체 표시 영역에 표시되고, 개인별 영상이 투어 영상 위에 팝업 형태로 표시되되 투어 영상의 표시 영역보다는 작은 표시 영역에 표시되는 영상일 수 있다. 다르게는, 통합 영상은 PIP(Picture in Picture) 화면과 같이 투어 영상이 차지하는 화면 영역과 개인별 영상이 차지하는 화면 영역으로 분할된 영상이어도 된다.
즉, 프로세서(330)는 디스플레이별로 미리 분할된 투어 영상을 해당 개인별 영상과 병합처리함으로써 통합 영상을 생성할 수 있다.
프로세서(330)는 생성한 통합 영상을 해당 디스플레이(30)에게로 전송될 수 있도록 해당 디스플레이(30)의 식별자와 함께 버스(100)에게로 전송할 수 있다. 예를 들어, 프로세서(330)는 제 1 통합 영상 및 디스플레이 식별자를 버스(100)에게로 전송할 수 있다. 그에 따라, 버스(100)내의 제어부(40)는 디스플레이 식별자를 근거로 제 1 통합 영상을 제 1 디스플레이에게로 전송할 수 있다. 물론, 제어부(40)는 제 2 통합 영상을 그에 해당하는 제 2 디스플레이에게로 전송할 수 있다.
한편, 프로세서(330)는 투어 영상의 기 지정된 구간 내에서는 개인별 영상이 나타나지 않도록 통합 영상을 생성할 수 있다. 예를 들어, 해당 탑승객에게 제공될 투어 영상에는 주요시설물에 대한 설명 데이터가 포함되어 있고, 해당 투어 영상의 기 지정된 구간은 주요시설물에 대한 설명 데이터가 포함된 구간일 수 있다. 이와 같이 주요시설물에 대한 설명을 디스플레이를 통해 표시할 때에는 개인별 영상이 표시되지 않는 것이 바람직하다. 왜냐하면, 개인별 영상이 표시되지 않으면 해당 탑승객은 자신의 좌석 위치에 대응하는 디스플레이상에서 주요시설물에 대한 설명을 보다 정확하게 볼 수 있기 때문이다.
이번에는, 도 8 내지 도 11을 참조하여 탑승객에게 제공될 영상의 표시 제어를 설명한다.
컨트롤러(300)의 프로세서(330)는 관계 정보 및 탑승객의 탑승 정보에 따라 탑승객별 디스플레이를 결정할 수 있다.
먼저, 도 8에서와 같이, 버스(100)의 차체 좌측부에는 디스플레이(30a, 30c)가 설치되고, 버스(100)의 차체 우측부에는 디스플레이(30b, 30d)가 설치되고, 디스플레이(30a, 30c)와 디스플레이(30b, 30d) 사이에는 4개의 좌석(20a, 20b, 20c, 20d)이 2열 종대로 배치되어 있다고 가정한다. 그리고, 탑승객 A가 자신의 좌석인 좌석(20a)에 위치하고, 탑승객 B는 자신의 좌석인 좌석(20b)에 위치하고, 탑승객 C는 자신의 좌석인 좌석(20c)에 위치하고, 탑승객 D는 자신의 좌석인 좌석(20d)에 위치해 있는 것으로 가정한다.
이 경우, 프로세서(330)는 탑승 정보와 관계 정보를 근거로, 탑승객 A에 대해서는 디스플레이(30a)가 대응되는 것으로 결정할 수 있다. 또한, 프로세서(330)는 탑승객 B에 대해서 디스플레이(30b)가 대응되는 것으로 결정할 수 있다. 또한, 프로세서(330)는 탑승객 C에 대해서 디스플레이(30c)가 대응되는 것으로 결정할 수 있다. 또한, 프로세서(330)는 탑승객 D에 대해서 디스플레이(30d)가 대응되는 것으로 결정할 수 있다.
프로세서(330)는 투어 경로상에서의 버스(100)의 이동시간에 따른 위치 정보를 참조하여 투어 콘텐츠에 대응하는 하나의 투어 영상을 디스플레이별로 미리 분할해 둘 수 있다. 그래서, 프로세서(330)는 투어 콘텐츠에 대응하는 하나의 투어 영상 중에서 제 1 투어 영상을 제 1 디스플레이(30a)에게로 전송할 수 있다. 또한, 프로세서(330)는 투어 콘텐츠에 대응하는 하나의 투어 영상 중에서 제 2 투어 영상을 제 2 디스플레이(30b)에게로 전송할 수 있다. 또한, 프로세서(330)는 투어 콘텐츠에 대응하는 하나의 투어 영상 중에서 제 3 투어 영상을 제 3 디스플레이(30c)에게로 전송할 수 있다. 또한, 프로세서(330)는 투어 콘텐츠에 대응하는 하나의 투어 영상 중에서 제 4 투어 영상을 제 4 디스플레이(30d)에게로 전송할 수 있다. 여기서, 제 1 내지 제 4 투어 영상은 확장 현실(XR) 기반의 영상이므로, 탑승객들에게 특별한 몰입감을 제공할 수 있다.
이때, 프로세서(330)는 버스(100)의 현재 위치에 따라 각각의 디스플레이에 표시될 영상을 결정할 수도 있다.
예를 들어, 버스(100)의 현재 위치가 비교적 역사적 의미가 높은 주요시설물 근처이거나 버스(100)가 하나의 주요시설물을 관통하여 지나가는 경우, 프로세서(330)는 좌측부의 디스플레이(30a, 30c)와 우측부의 디스플레이(30b, 30d)에 현재 위치에 대응하는 서로 동일한 투어 영상이 표시되도록 결정할 수 있다. 이는 탑승객 A,B,C,D 모두가 동일한 주요시설물을 보고 있기 때문에 동일한 투어 영상이 표시되는 것이 바람직하다.
이와 다르게, 버스(100)가 투어 경로상의 좌측부의 주요 시설물과 도로 우측부의 주요 시설물 사이를 지나가는 경우, 프로세서(330)는 좌측부의 디스플레이(30a, 30c)와 우측부의 디스플레이(30b, 30d)에 서로 상이한 투어 영상이 표시되도록 결정할 수 있다. 왜냐하면, 투어 경로상의 좌측부의 주요 시설물과 도로 우측부의 주요 시설물은 서로 다르기 때문이다. 2열의 좌석중에서 좌측열의 탑승객 A 및 탑승객 C는 디스플레이(30a, 30c)의 투어 영상을 보면 되고, 우측열의 탑승객 B 및 탑승객 D는 디스플레이(30b, 30d)의 투어 영상을 보면 될 것이다.
한편, 프로세서(330)는 탑승객 A에게 제공될 제 1 투어 영상 및 제 1 개인별 영상을 병합처리하여 제 1 통합 영상을 생성하고, 제 1 통합 영상이 제 1 디스플레이(30a)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 B에게 제공될 제 2 투어 영상 및 제 2 개인별 영상을 병합처리하여 제 2 통합 영상을 생성하고, 제 2 통합 영상이 제 2 디스플레이(30b)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 C에게 제공될 제 3 투어 영상 및 제 3 개인별 영상을 병합처리하여 제 3 통합 영상을 생성하고, 제 3 통합 영상이 제 3 디스플레이(30c)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 D에게 제공될 제 4 투어 영상 및 제 4 개인별 영상을 병합처리하여 제 4 통합 영상을 생성하고, 제 4 통합 영상이 제 4 디스플레이(30d)에 표시되도록 버스(100)에게로 전송할 수 있다.
상기의 제 1 내지 제 4 통합 영상을 각각의 디스플레이(30a, 30b, 30c, 30d)에게로 전송할 때, 각각의 개인별 영상에는 가상 객체(VO)가 포함되어 있을 수 있다. 그에 따라, 각각의 디스플레이(30a, 30b, 30c, 30d)에는 해당 탑승객을 나타내는 소정의 가상 객체(virtual object; VO)를 표시할 수 있다. 제 1 디스플레이(30a)에는 가상 객체(VO) A가 표시될 수 있고, 제 2 디스플레이(30b)에는 가상 객체(VO) B가 표시될 수 있고, 제 3 디스플레이(30c)에는 가상 객체(VO) C가 표시될 수 있고, 제 4 디스플레이(30d)에는 가상 객체(VO) D가 표시될 수 있다.
여기서, 도 8에는 가상 객체 A,B,C,D의 형태를 도면으로 도시하지 않았지만, 실제로 도 8에 기재된 VO A, VO B, VO C, VO D에는 소정의 가상 객체가 표시될 것이다. 예를 들어, 가상 객체 A는 아바타(avatar)와 같이 탑승객 A를 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 가상 객체 B는 아바타(avatar)와 같이 탑승객 B를 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 가상 객체 C는 아바타(avatar)와 같이 탑승객 CA를 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 가상 객체 D는 아바타(avatar)와 같이 탑승객 D를 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 물론, 가상 객체들은 말풍선 형태일 수도 있다.
한편, 다른 예로서, 도 9에서와 같이, 탑승객 A가 자신의 좌석인 좌석(20a)에 위치하고, 탑승객 B는 자신의 좌석인 좌석(20d)에 위치해 있는 것으로 가정해 볼 수 있다.
이 경우, 프로세서(330)는 탑승 정보와 관계 정보를 근거로, 탑승객 A에 대해서는 디스플레이(30a, 30c)가 대응되는 것으로 결정하고, 탑승객 B에 대해서는 디스플레이(30b, 30d)가 대응되는 것으로 결정할 수 있다.
즉, 프로세서(330)는 제 1 탑승객에 인접한 탑승객(예컨대, 앞 좌석 또는 뒷 좌석의 탑승객)의 탑승 여부에 따라 제 1 탑승객에 대응되는 디스플레이의 영역을 확장할 수 있다.
도 9의 경우, 탑승객 A의 뒷 좌석(20c)에는 탑승객이 탑승하지 않았으므로, 프로세서(330)는 디스플레이(30a, 30c)를 탑승객 A에 대한 디스플레이 영역으로 할당할 수 있다. 한편, 탑승객 B의 앞 좌석(20b)에는 탑승객이 탑승하지 않았으므로, 프로세서(330)는 디스플레이(30b, 30d)를 탑승객 B에 대한 디스플레이 영역으로 할당할 수 있다.
이에 의해, 프로세서(330)는 좌석(20a)의 탑승객 A에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하고, 제 1 투어 영상 및 탑승객 A에게 제공될 제 1 개인별 영상을 이용하여 제 1 통합 영상을 생성한다. 그리고, 프로세서(330)는 좌석(20c)의 탑승객(즉, 있다고 가정한 탑승객)에게 제공될 투어 콘텐츠에 대응하는 제 2 투어 영상을 결정하고, 제 1 개인별 영상 및 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성한다. 이후, 프로세서(330)는 제 1 통합 영상을 디스플레이(30a)에게로 전송하고, 제 2 통합 영상을 디스플레이(30c)에게로 전송한다. 물론, 이와 같이, 제 1 개인별 영상이 두 개의 디스플레이(30a, 30c)에 표시되어야 하므로, 프로세서(330)는 제 1 개인별 영상에 대한 추가적인 처리를 수행해야 할 것이다.
그리고, 프로세서(330)는 좌석(20d)의 탑승객 B에게 제공될 투어 콘텐츠에 대응하는 제 4 투어 영상을 결정하고, 제 4 투어 영상 및 탑승객 B에게 제공될 제 4 개인별 영상을 이용하여 제 4 통합 영상을 생성한다. 그리고, 프로세서(330)는 좌석(20b)의 탑승객(즉, 있다고 가정한 탑승객)에게 제공될 투어 콘텐츠에 대응하는 제 3 투어 영상을 결정하고, 제 3 투어 영상 및 제 4 개인별 영상을 이용하여 제 3 통합 영상을 생성한다. 이후, 프로세서(330)는 제 3 통합 영상을 디스플레이(30b)에게로 전송하고, 제 4 통합 영상을 디스플레이(30d)에게로 전송한다. 물론, 이와 같이, 제 4 개인별 영상이 두 개의 디스플레이(30b, 30d)에 표시되어야 하므로, 프로세서(330)는 제 4 개인별 영상에 대한 추가적인 처리를 수행해야 할 것이다.
이와 같이 탑승객 A 및 탑승객 B에 대한 디스플레이 영역을 확장시켰을 경우, 탑승객 A 및 탑승객 B는 보다 넓은 디스플레이 영역에 통합 영상을 표시할 수 있으므로, 탑승객 A 및 탑승객 B의 몰입감을 더욱 극대화시킬 수 있다.
또한, 도 9의 경우, 탑승객 A 및 탑승객 B에 대한 디스플레이 영역에는 개인별 영상에 포함된 가상 객체(VO)가 표시될 수 있다. 이 경우, 좌석(20c)에는 탑승객이 없기 때문에 디스플레이(30a, 30c)에는 탑승객 A에 대한 가상 객체(VO) A가 표시된다. 그리고, 좌석(20b)에는 탑승객이 없기 때문에 디스플레이(30b, 30d)에는 탑승객 B에 대한 가상 객체(VO) B가 표시된다.
여기서, 도 9에는 가상 객체 A,B의 형태를 도면으로 도시하지 않았지만, 실제로 도 9에 개시된 VO A, VO B에는 소정의 가상 객체가 표시될 것이다. 예를 들어, 가상 객체 A는 아바타(avatar)와 같이 탑승객 A를 모형 형상으로 묘사한 것 또는 다른 애니메이션일 수 있다. 가상 객체 B는 아바타(avatar)와 같이 탑승객 B를 모형 형상으로 묘사한 것 또는 애니메이션일 수 있다. 물론, 가상 객체들은 말풍선 형태일 수도 있다.
상술한 도 9의 경우는 버스(100)가 1차선의 도로를 주행할 때 효과적일 수 있다.
한편, 또 다른 예로서, 도 10에서와 같은 경우가 있을 수 있다. 도 10은 앞서 설명한 도 9와 비교하여 볼 때 탑승객 A에 대해서는 디스플레이(30a, 30b)가 대응되는 것으로 결정하고, 탑승객 B에 대해서는 디스플레이(30c, 30d)가 대응되는 것으로 결정된다는 것이 차이난다.
즉, 도 9에서는 탑승객의 좌석 열과 앞뒤 좌석의 탑승객의 탑승 여부에 따라 해당 좌석 열과 인접한 좌측의 디스플레이들 또는 우측의 디스플레이들을 해당 탑승객에 대한 디스플레이 영역으로 확장시켰다. 이에 반해, 도 10에서는 탑승객의 좌석 행과 인접한 좌측 디스플레이 및 우측의 디스플레이를 해당 탑승객에 대한 디스플레이 영역으로 확장시켰다. 그 이외에는 도 10은 도 9의 내용과 대동소이하다.
상술한 도 10의 경우는 버스(100)가 2차선의 도로를 주행할 때 효과적일 수 있다. 예를 들어, 버스(100)가 2차선의 도로에서 어느 한 차선을 따라 주행중인데, 반대 차선의 도로상에 많은 차량들이 정차 내지는 아주 느린 주행을 하고 있으면 반대 차선을 향하고 있는 디스플레이들에는 버스(100)의 현재 위치에 대응하는 통합 영상이 제대로 표시되지 않게 된다. 따라서, 이와 같은 경우에는 반대편의 디스플레이들을 보면 된다.
한편, 또 다른 예로서, 도 11에서와 같이, 탑승객 A가 자신의 좌석인 좌석(20a)에 위치하고, 탑승객 B는 자신의 좌석인 좌석(20b)에 위치하고, 탑승객 C는 자신의 좌석인 좌석(20c)에 위치하고, 탑승객 D는 자신의 좌석인 좌석(20d)에 위치할 수 있다. 추가로, 탑승객 A와 탑승객 B는 하나의 일행이고, 탑승객 C와 탑승객 D는 또 다른 일행일 수 있다. 그에 따라, 도 11에서는 탑승객 A와 탑승객 B를 제 1 그룹(G1)으로 표시하고, 탑승객 C와 탑승객 D를 제 2 그룹(G2)으로 표시하였다.
이 경우, 프로세서(330)는 탑승객 A와 탑승객 B가 그룹으로 설정되었으므로, 디스플레이(30a) 및 디스플레이(30b)를 탑승객 A와 탑승객 B의 디스플레이로 결정할 수 있다.
또한, 프로세서(330)는 탑승객 C와 탑승객 D가 그룹으로 설정되었으므로, 디스플레이(30c) 및 디스플레이(30c)를 탑승객 C와 탑승객 D의 디스플레이로 결정할 수 있다.
도 11의 경우, 프로세서(330)는 탑승객 A에게 제공될 제 1 투어 영상과 제 1 개인별 영상 및 탑승객 B에게 제공될 제 2 개인별 영상을 병합처리하여 제 1 통합 영상을 생성하고, 제 1 통합 영상이 제 1 디스플레이(30a)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 B에게 제공될 제 2 투어 영상과 제 2 개인별 영상 및 탑승객 A에게 제공될 제 1 개인별 영상을 병합처리하여 제 2 통합 영상을 생성하고, 제 2 통합 영상이 제 2 디스플레이(30b)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 C에게 제공될 제 3 투어 영상과 제 3 개인별 영상 및 탑승객 D에게 제공될 제 4 개인별 영상을 병합처리하여 제 3 통합 영상을 생성하고, 제 3 통합 영상이 제 3 디스플레이(30c)에 표시되도록 버스(100)에게로 전송할 수 있다. 또한, 프로세서(330)는 탑승객 D에게 제공될 제 4 투어 영상과 제 4 개인별 영상 및 탑승객 C에게 제공될 제 3 개인별 영상을 병합처리하여 제 4 통합 영상을 생성하고, 제 4 통합 영상이 제 4 디스플레이(30d)에 표시되도록 버스(100)에게로 전송할 수 있다.
도 11에서와 같이 하나의 디스플레이에 두 개의 개인별 영상을 각각 표시하기 위해서는, 프로세서(330)는 개인별 영상에 대한 추가적인 처리를 수행해야 할 것이다.
도 12는 본 발명의 실시예에 따른 컨트롤러의 제어 방법을 설명하기 위한 플로우차트이다.
컨트롤러(300)는 디스플레이(30)들 각각과 버스(100)내의 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장부(320)에 저장한다(S10).
그리고 나서, 컨트롤러(300)는 버스(100)로부터 해당 버스(100)의 위치 정보 및 해당 버스(100)의 탑승객의 탑승 정보를 수신한다(S20).
이후, 컨트롤러(300)는 관계 정보 및 수신한 탑승객의 탑승 정보를 근거로, 탑승객별 좌석 위치에 대응하는 디스플레이를 결정한다(S30). 예를 들어, 컨트롤러(300)는 제 1 탑승객에 대해서는 제 1 탑승객의 좌석 위치에 대응하는 제 1 디스플레이를 제 1 탑승객의 디스플레이로 결정할 수 있다. 도 8의 경우, 제 1 탑승객(즉, 탑승객 A)의 좌석 위치에 대응되는 디스플레이로는 디스플레이(30a)가 결정될 수 있다. 제 2 탑승객(즉, 탑승객 B)의 좌석 위치에 대응되는 디스플레이로는 디스플레이(30b)가 결정될 수 있다. 제 3 탑승객(즉, 탑승객 C)의 좌석 위치에 대응되는 디스플레이로는 디스플레이(30c)가 결정될 수 있다. 제 4 탑승객(즉, 탑승객 D)의 좌석 위치에 대응되는 디스플레이로는 디스플레이(30d)가 결정될 수 있다.
그리고, 컨트롤러(300)는 수신한 탑승객의 탑승 정보에 기초하여, 탑승객별로 제공될 개인별 영상을 결정한다(S40). 예를 들어, 제 1 탑승객(즉, 탑승객 A)이 버스(100)에 탑승하였고 미리 예약한 사항이 있다면 컨트롤러(300)는 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정할 수 있다.
그리고, 컨트롤러(300)는 버스(100)의 현재 위치 정보를 근거로, 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상을 결정한다(S50). 즉, 버스(100)의 현재 위치에 따라 그에 상응하는 투어 영상이 탑승객들에게 제공될 수 있도록 하기 위해서이다. 왜냐하면, 버스(100)의 현재 위치가 A 위치인데, B 위치에 상응하는 투어 영상을 탑승객들에게 제공할 수는 없기 때문이다. 그에 따라, 컨트롤러(300)는 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상으로는 버스(100)의 현재 위치에 적합한 제 1 투어 영상을 결정할 수 있다. 컨트롤러(300)는 제 2 탑승객에게 제공될 투어 콘텐츠에 대응하는 투어 영상으로는 버스(100)의 현재 위치에 적합한 제 2 투어 영상을 결정할 수 있다. 여기서, 제 1 투어 영상 및 제 2 투어 영상은 투어 콘텐츠에 대응하는 하나의 투어 영상으로부터 분할되어 생성된 것이라고 볼 수 있다.
이후, 컨트롤러(300)는 탑승객의 개인별 영상 및 투어 영상을 조합하여 통합 영상을 생성한다(S60). 여기서, 개인별 영상은 해당 탑승객이 미리 예약한 사항이 있을 경우에만 제공될 수 있는 영상으로서, 해당 사항을 보다 구체적으로 설명하는 등의 영상이 될 수 있다. 통합 영상은 투어 영상이 메인 화면으로 되어 해당 탑승객에 대응하는 디스플레이(30)의 전체 표시 영역에 표시되고, 개인별 영상이 투어 영상 위에 팝업 형태로 표시되되 투어 영상의 표시 영역보다는 작은 표시 영역에 표시되는 영상일 수 있다. 한편, 통합 영상은 팝업 형태가 아니라, PIP(Picture in Picture) 화면과 같이 투어 영상이 차지하는 화면 영역과 개인별 영상이 차지하는 화면 영역으로 분할된 영상이어도 된다. 예를 들어, 컨트롤러(300)는 제 1 탑승객을 위해 제 1 개인별 영상 및 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성할 수 있다. 물론, 다른 탑승객(예컨대, 제 2 탑승객)이 더 있다면 컨트롤러(300)는 제 2 탑승객을 위해 제 2 개인별 영상 및 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성할 수 있다.
그리고 나서, 컨트롤러(300)는 통합 영상을 해당 디스플레이(30)에게로 전송될 수 있도록 해당 디스플레이(30)의 식별자와 함께 버스(100)에게로 전송한다(S70). 예를 들어, 컨트롤러(300)는 제 1 통합 영상 및 디스플레이 식별자를 버스(100)에게로 전송할 수 있다.
그에 따라, 버스(100)내의 제어부(40)는 수신한 디스플레이 식별자를 근거로 제 1 통합 영상을 해당하는 제 1 디스플레이에게로 전송한다. 그리하여 제 1 디스플레이는 제 1 통합 영상을 표시한다. 물론, 컨트롤러(300)가 또 다른 통합 영상 및 디스플레이 식별자를 버스(100)에게로 전송하였다면, 버스(100)내의 제어부(40)는 수신한 또 다른 통합 영상을 그에 대응되는 디스플레이에게로 전송할 것이다.
또한, 상술한 본 발명의 실시예에 따른 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
30 : 디스플레이 32, 310 : 통신부
34 : 위치 감지부 36 : 탑승 확인부
38 : 관성변화 감지부 40 : 제어부
100 : 차량(버스) 200 : 사용자 단말
300 : 컨트롤러 320 : 저장부
330 : 프로세서

Claims (12)

  1. 버스에 탑재된 디스플레이들을 제어하기 위한 컨트롤러에 있어서,
    상기 버스는 복수의 좌석을 포함하고, 상기 디스플레이들 각각은 복수의 좌석 각각에 대응하고,
    상기 컨트롤러는,
    상기 디스플레이들 각각과 상기 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장하도록 구성되는 저장부;
    상기 버스의 위치 정보 및 상기 버스의 탑승객의 탑승 정보를 수신하도록 구성되는 통신부; 및
    프로세서를 포함하고,
    상기 프로세서는,
    상기 탑승 정보와 상기 관계 정보를 참조하여, 제 1 탑승객의 제 1 좌석 위치에 대응하는 제 1 디스플레이를 결정하고,
    상기 탑승 정보에 기초하여, 상기 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정하고,
    상기 버스의 위치 정보에 기초하여, 상기 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하고,
    상기 제 1 개인별 영상 및 상기 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성하고,
    상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송하고,
    상기 프로세서는,
    상기 제 1 좌석 위치에 인접한 제 2 좌석 위치에 제 2 탑승객이 탑승하지 않은 경우,
    상기 버스의 위치 정보에 기초하여 상기 제 2 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 2 투어 영상을 결정하고, 상기 제 1 개인별 영상 및 상기 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성하고,
    상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송하고, 상기 제 2 통합 영상을 상기 제 2 좌석 위치에 대응하는 제 2 디스플레이에게로 전송하는,
    컨트롤러.
  2. 제 1항에 있어서,
    상기 프로세서는,
    상기 제 1 투어 영상의 기 지정된 구간 내에서는 상기 제 1 개인별 영상이 나타나지 않도록, 상기 제 1 통합 영상을 생성하는,
    컨트롤러.
  3. 제 1항에 있어서,
    상기 제 1 개인별 영상은,
    가상 객체를 포함한 영상인,
    컨트롤러.
  4. 제 1항에 있어서,
    상기 프로세서는,
    상기 탑승 정보와 상기 관계 정보를 참조하여, 제 2 탑승객의 제 2 좌석 위치에 대응하는 제 2 디스플레이를 결정하고,
    상기 제 2 좌석 위치의 제 2 탑승객에게 제공될 제 2 개인별 영상을 결정하고,
    상기 버스의 위치 정보에 기초하여, 상기 제 2 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 2 투어 영상을 결정하고,
    상기 제 2 개인별 영상 및 상기 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성하고,
    상기 제 2 통합 영상을 상기 제 2 디스플레이에게로 전송하는,
    컨트롤러.
  5. 제 4항에 있어서,
    상기 제 1 투어 영상 및 상기 제 2 투어 영상은 상기 투어 콘텐츠에 대응하는 하나의 투어 영상으로부터 분할되어 생성된,
    컨트롤러.
  6. 제 4항에 있어서,
    상기 제 1 개인별 영상과 상기 제 2 개인별 영상은 서로 다른 영상인,
    컨트롤러.
  7. 삭제
  8. 제 1항에 있어서,
    상기 제 2 좌석 위치는,
    상기 제 1 좌석 위치에 대응하는 좌석의 전, 후, 좌, 우의 좌석 중에서 어느 한 좌석의 위치인,
    컨트롤러.
  9. 삭제
  10. 삭제
  11. 제 1항에 있어서,
    상기 제 1 투어 영상은,
    확장 현실 기반의 영상인,
    컨트롤러.
  12. 버스에 탑재된 디스플레이들을 제어하기 위한 컨트롤러의 제어 방법으로서,
    상기 버스는 복수의 좌석들을 포함하고, 상기 디스플레이들 각각은 복수의 좌석 각각에 대응하고,
    상기 디스플레이들 각각과 상기 복수의 좌석 각각 사이의 대응 관계를 나타내는 관계 정보를 저장부에 저장하는 단계;
    상기 버스의 위치 정보 및 상기 버스의 탑승객의 탑승 정보를 수신하는 단계;
    상기 탑승 정보와 상기 관계 정보를 참조하여, 제 1 탑승객의 제 1 좌석 위치에 대응하는 제 1 디스플레이를 결정하는 단계;
    상기 탑승 정보에 기초하여, 상기 제 1 탑승객에게 제공될 제 1 개인별 영상을 결정하는 단계;
    상기 버스의 위치 정보에 기초하여, 상기 제 1 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 1 투어 영상을 결정하는 단계;
    상기 제 1 개인별 영상 및 상기 제 1 투어 영상을 이용하여 제 1 통합 영상을 생성하는 단계; 및
    상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송하는 단계;를 포함하고,
    상기 제어 방법은,
    상기 제 1 좌석 위치에 인접한 제 2 좌석 위치에 제 2 탑승객이 탑승하지 않은 경우,
    상기 버스의 위치 정보에 기초하여 상기 제 2 탑승객에게 제공될 투어 콘텐츠에 대응하는 제 2 투어 영상을 결정하고, 상기 제 1 개인별 영상 및 상기 제 2 투어 영상을 이용하여 제 2 통합 영상을 생성하고,
    상기 제 1 통합 영상을 상기 제 1 디스플레이에게로 전송하고, 상기 제 2 통합 영상을 상기 제 2 좌석 위치에 대응하는 제 2 디스플레이에게로 전송하는,
    컨트롤러의 제어 방법.
KR1020230015311A 2023-02-06 2023-02-06 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법 KR102630051B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230015311A KR102630051B1 (ko) 2023-02-06 2023-02-06 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법
KR1020230152281A KR20240123221A (ko) 2023-02-06 2023-11-07 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230015311A KR102630051B1 (ko) 2023-02-06 2023-02-06 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230152281A Division KR20240123221A (ko) 2023-02-06 2023-11-07 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법

Publications (1)

Publication Number Publication Date
KR102630051B1 true KR102630051B1 (ko) 2024-01-29

Family

ID=89716828

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020230015311A KR102630051B1 (ko) 2023-02-06 2023-02-06 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법
KR1020230152281A KR20240123221A (ko) 2023-02-06 2023-11-07 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230152281A KR20240123221A (ko) 2023-02-06 2023-11-07 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법

Country Status (1)

Country Link
KR (2) KR102630051B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278748A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 観光案内システム
KR101905356B1 (ko) 2018-01-08 2018-10-05 길기연 투명 디스플레이 창문을 이용하여 증강 현실 영상 기반의 관광 정보를 제공하는 차량
KR101996441B1 (ko) * 2017-10-18 2019-07-03 (주)네오인터넷 모바일 증강현실 기반 여행 가이드 서비스 방법
WO2022066914A1 (en) * 2020-09-25 2022-03-31 Snap Inc. Augmented reality content items including user avatar to share location
KR20220084588A (ko) * 2020-12-14 2022-06-21 (주)케이시크 연속 이동 및 콘텐츠서비스 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278748A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 観光案内システム
KR101996441B1 (ko) * 2017-10-18 2019-07-03 (주)네오인터넷 모바일 증강현실 기반 여행 가이드 서비스 방법
KR101905356B1 (ko) 2018-01-08 2018-10-05 길기연 투명 디스플레이 창문을 이용하여 증강 현실 영상 기반의 관광 정보를 제공하는 차량
WO2022066914A1 (en) * 2020-09-25 2022-03-31 Snap Inc. Augmented reality content items including user avatar to share location
KR20220084588A (ko) * 2020-12-14 2022-06-21 (주)케이시크 연속 이동 및 콘텐츠서비스 제공 방법

Also Published As

Publication number Publication date
KR20240123221A (ko) 2024-08-13

Similar Documents

Publication Publication Date Title
US11740100B2 (en) Systems and methods for providing virtual navigation guidance
US11310624B2 (en) Cognitive location and navigation services for custom applications
US20200041997A1 (en) Method and apparatus for visualizing future events for passengers of autonomous vehicles
Schroeter et al. The social car: new interactive vehicular applications derived from social media and urban informatics
JP5924733B2 (ja) 対話型車内コンテンツ提供システム及びコンテンツ提供方法
US20190086227A1 (en) A Method, Apparatus, Computer Program for Providing Point of Interest Invitations
US10904706B2 (en) Method and apparatus for providing contextual content for an end-to-end seamless experience during an autonomous vehicle trip
KR102310340B1 (ko) 차량의 주행 정보를 이용하는 게임 시스템 및 차량 내에서의 게임 서비스 제공 방법
Foell et al. Micro-navigation for urban bus passengers: Using the internet of things to improve the public transport experience
US11689886B2 (en) Passenger location platform
US20090109223A1 (en) System and Method for Virtual Journey Futuring
CN109709948A (zh) 灵活的远程车辆控制
JP4097673B2 (ja) ナビゲーションシステムおよび経路探索方法並びに経路探索サーバおよびナビゲーション端末装置
CN107014387A (zh) 电子装置及其路径引导方法、计算机程序及可读记录介质
US10210469B2 (en) Support for requirements of people in a public site or venue
KR102630051B1 (ko) 버스용 영상의 표시를 제어하기 위한 컨트롤러 및 컨트롤러의 제어 방법
US20170023368A1 (en) Multi-waypoint semantic-driven itinerary guidance to situses within buildings
Lundquist Autonomous bus passenger experience
JP2008165252A (ja) 地図表示システム、地図配信装置および地図表示装置ならびに地図表示方法
Wilts Living in a fly-over world: on moving in a heterogeneous navigational culture
Schroeter et al. The future shape of digital cars
JP2019169845A (ja) 端末装置、グループ通信システム、及びグループ通信方法
JP2007249095A5 (ko)
KR20230106838A (ko) 대중 교통 커뮤니케이션 시스템
KR20240014748A (ko) 투명 디스플레이를 탑재한 확장 현실 스마트 관광버스

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant