KR102592675B1 - Method, system, and non-transitory computer-readable recording medium for providing contents - Google Patents

Method, system, and non-transitory computer-readable recording medium for providing contents Download PDF

Info

Publication number
KR102592675B1
KR102592675B1 KR1020220056282A KR20220056282A KR102592675B1 KR 102592675 B1 KR102592675 B1 KR 102592675B1 KR 1020220056282 A KR1020220056282 A KR 1020220056282A KR 20220056282 A KR20220056282 A KR 20220056282A KR 102592675 B1 KR102592675 B1 KR 102592675B1
Authority
KR
South Korea
Prior art keywords
vehicle
virtual object
content
vehicle occupant
display
Prior art date
Application number
KR1020220056282A
Other languages
Korean (ko)
Other versions
KR20220065733A (en
Inventor
전재웅
Original Assignee
(주) 애니펜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200056782A external-priority patent/KR20200137992A/en
Application filed by (주) 애니펜 filed Critical (주) 애니펜
Publication of KR20220065733A publication Critical patent/KR20220065733A/en
Application granted granted Critical
Publication of KR102592675B1 publication Critical patent/KR102592675B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

본 발명의 일 태양에 따르면, 콘텐츠를 제공하는 방법으로서, 적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 단계, 및 상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 단계를 포함하는 방법이 제공된다.According to one aspect of the present invention, a method of providing content, comprising: determining an image sequence regarding a virtual object with reference to at least one of situation information of at least one vehicle occupant and driving information of the vehicle; and A method is provided that includes determining content to be provided to the at least one vehicle occupant by matching an image sequence regarding the virtual object based on a real world outside the vehicle projected through at least one display.

Description

콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체{METHOD, SYSTEM, AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING CONTENTS}Methods, systems, and non-transitory computer-readable recording media for providing content {METHOD, SYSTEM, AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING CONTENTS}

본 발명은 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present invention relates to methods, systems, and non-transitory computer-readable recording media for providing content.

근래에 들어, 통신 및 인공지능(AI; Artificial Intelligence) 기술의 발달과 함께 차량 자율 주행 서비스가 상용화되는 등 자율 주행 차량 시장이 활성화되고 있다.In recent years, with the development of communication and artificial intelligence (AI) technology, the autonomous vehicle market is becoming active, with autonomous vehicle driving services being commercialized.

이러한 자율 주행 차량에는 주변의 장애물을 탐지하거나 차량 내부의 상태를 파악하기 위하여 수많은 카메라가 장착되어 있으며, 이를 통해 차량의 내부 또는 외부를 지속적으로 촬영하게 된다.These self-driving vehicles are equipped with numerous cameras to detect surrounding obstacles or determine the state of the vehicle's interior, through which the interior or exterior of the vehicle is continuously filmed.

하지만, 위와 같이 촬영된 영상은 차량 주행 이후에 바로 삭제되거나 새로운 영상으로 덮어씌워질 뿐이고, 다른 용도로 제대로 활용되지 못하고 있는 실정이다.However, the video recorded as above is simply deleted or overwritten with a new video immediately after driving the vehicle, and is not properly used for other purposes.

또한, 근래에 들어, 자율 주행 차량이 상용화 및 보급되어 감에 따라 차량 탑승자가 직접 운전하는 시간이 줄어들기 때문에, 차량 주행 중에 차량 탑승자의 지루함을 달래고 흥미를 북돋을 수 있는 콘텐츠 개발이 절실하게 요구되고 있는 상황이다.In addition, in recent years, as self-driving vehicles are commercialized and distributed, the time spent by vehicle occupants directly driving is decreasing, so there is an urgent need to develop content that can alleviate the boredom and stimulate interest of vehicle occupants while driving the vehicle. The situation is becoming.

이에, 본 발명자(들)은, 차량 주행 중에 차량 탑승자에게 콘텐츠를 인터랙티브(interactive)하게 제공할 수 있는 신규하고도 진보된 기술을 제안하는 바이다.Accordingly, the present inventor(s) propose a new and advanced technology that can interactively provide content to vehicle occupants while the vehicle is driving.

한국 공개특허공보 제2018-0014910호Korean Patent Publication No. 2018-0014910

본 발명은, 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.The purpose of the present invention is to solve all the problems of the prior art described above.

또한, 본 발명은, 차량 주행 중에 발생할 수 있는 차량 탑승자의 따분함과 지루함을 해소하고 차량 영상의 활용도를 높이는 것을 그 목적으로 한다.In addition, the purpose of the present invention is to relieve the boredom and boredom of vehicle occupants that may occur while driving a vehicle and to increase the usability of vehicle images.

또한, 본 발명은, 차량 내의 적어도 두 디스플레이에서 콘텐츠가 동기화되어 제공될 수 있도록 하는 것을 그 목적으로 한다.Additionally, the purpose of the present invention is to enable content to be provided in synchronization on at least two displays in a vehicle.

또한, 본 발명은, 차량 탑승자 각각에 대해 또는 차량 탑승자의 소정 그룹 각각에 대해 콘텐츠를 제공하는 것을 그 목적으로 한다.Additionally, the purpose of the present invention is to provide content for each vehicle occupant or each predetermined group of vehicle occupants.

또한, 본 발명은, 차량 탑승자가 차량 내에서 손쉽게 콘텐츠를 저작하고 이를 공유할 수 있도록 지원하는 것을 그 목적으로 한다.Additionally, the purpose of the present invention is to support vehicle occupants to easily create and share content within the vehicle.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.A representative configuration of the present invention to achieve the above object is as follows.

본 발명의 일 태양에 따르면, 콘텐츠를 제공하는 방법으로서, 적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 단계, 및 상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 단계를 포함하는 방법이 제공된다.According to one aspect of the present invention, a method of providing content, comprising: determining an image sequence regarding a virtual object with reference to at least one of situation information of at least one vehicle occupant and driving information of the vehicle; and A method is provided that includes determining content to be provided to the at least one vehicle occupant by matching an image sequence regarding the virtual object based on a real world outside the vehicle projected through at least one display.

본 발명의 다른 태양에 따르면, 콘텐츠를 제공하는 시스템으로서, 적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 가상 객체 시퀀스 관리부, 및 상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 콘텐츠 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, a system for providing content, comprising: a virtual object sequence management unit that determines an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle; and A system including a content manager that determines content to be provided to the at least one vehicle occupant by matching an image sequence regarding the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle. provided.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, another method for implementing the present invention, another system, and a non-transitory computer-readable recording medium for recording a computer program for executing the method are further provided.

본 발명에 의하면, 차량 주행 중에 발생할 수 있는 차량 탑승자의 따분함과 지루함을 해소하고 차량 영상의 활용도를 높일 수 있게 된다.According to the present invention, it is possible to relieve the boredom and boredom of vehicle occupants that may occur while driving a vehicle and increase the usability of vehicle images.

또한, 본 발명에 의하면, 차량 내의 적어도 두 디스플레이에서 콘텐츠를 동기화하여 제공할 수 있게 된다.Additionally, according to the present invention, it is possible to synchronize and provide content on at least two displays in a vehicle.

또한, 본 발명에 따르면, 차량 탑승자 각각에 대해 또는 차량 탑승자의 소정 그룹 각각에 대해 콘텐츠를 제공할 수 있게 된다.Additionally, according to the present invention, it is possible to provide content to each vehicle occupant or to each predetermined group of vehicle occupants.

또한, 본 발명에 따르면, 차량 탑승자가 차량 내에서 손쉽게 콘텐츠를 저작하고 이를 공유할 수 있도록 지원할 수 있게 된다.Additionally, according to the present invention, it is possible to support vehicle occupants to easily create and share content within the vehicle.

도 1은 본 발명의 일 실시예에 따라 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 내지 도 8은 본 발명의 일 실시예에 따라 콘텐츠가 제공되는 상황을 예시적으로 나타내는 도면이다.
1 is a diagram showing a schematic configuration of an entire system for providing content according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating in detail the internal configuration of a content provision system according to an embodiment of the present invention.
3 to 8 are diagrams illustrating a situation in which content is provided according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein may be implemented with changes from one embodiment to another without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description described below is not to be taken in a limiting sense, and the scope of the present invention should be taken to encompass the scope claimed by the claims and all equivalents thereof. Like reference numbers in the drawings indicate identical or similar elements throughout various aspects.

본 명세서에서, 콘텐츠란, 문자, 부호, 음성, 음향, 이미지, 동영상 등으로 이루어지는 디지털 정보 또는 개별 정보 요소를 총칭하는 개념이다. 이러한 콘텐츠는, 예를 들면, 텍스트, 이미지, 동영상, 오디오, 링크(예를 들면, 웹 링크) 등의 데이터 또는 이러한 데이터 중 적어도 두 가지의 조합을 포함하여 구성될 수 있다.In this specification, content is a concept that collectively refers to digital information or individual information elements consisting of letters, codes, voices, sounds, images, videos, etc. Such content may include, for example, data such as text, images, videos, audio, links (eg, web links), or a combination of at least two of these data.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, several preferred embodiments of the present invention will be described in detail with reference to the attached drawings in order to enable those skilled in the art to easily practice the present invention.

전체 시스템의 구성Configuration of the entire system

도 1은 본 발명의 일 실시예에 따라 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an entire system for providing content according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 콘텐츠 제공 시스템(200) 및 적어도 하나의 디스플레이(300)를 포함하여 구성될 수 있다.As shown in FIG. 1, the entire system according to an embodiment of the present invention may be configured to include a communication network 100, a content provision system 200, and at least one display 300.

먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망, 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention can be configured regardless of communication mode, such as wired communication or wireless communication, and can be used as a local area network (LAN) or a metropolitan area network (MAN). ), and a wide area network (WAN). Preferably, the communication network 100 referred to in this specification may be the known Internet or World Wide Web (WWW). However, the communication network 100 is not necessarily limited thereto and may include at least a portion of a known wired or wireless data communication network, a known telephone network, or a known wired or wireless television communication network.

예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 무선 주파수(RF; Radio Frequency) 통신, 와이파이(WiFi) 통신, 셀룰러(LTE 등) 통신, 블루투스 통신(더 구체적으로는, 저전력 블루투스(BLE; Bluetooth Low Energy) 통신), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the communication network 100 is a wireless data communication network, including radio frequency (RF) communication, WiFi communication, cellular (LTE, etc.) communication, and Bluetooth communication (more specifically, Bluetooth low energy (BLE) communication). Conventional communication methods such as Bluetooth Low Energy (Bluetooth Low Energy) communication, infrared communication, ultrasonic communication, etc. may be implemented at least in part.

다음으로, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스일 수 있다. 예를 들어, 이러한 콘텐츠 제공 시스템(200)은 서버 시스템 또는 차량의 전자 제어 시스템(ECU; Electronic Control Unit)일 수 있다.Next, the content providing system 200 according to an embodiment of the present invention may be a digital device equipped with a memory means and a microprocessor to have computing capabilities. For example, this content providing system 200 may be a server system or a vehicle electronic control system (ECU).

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은 적어도 한 명의 차량 탑승자의 상황 정보 및 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하고, 차량의 적어도 하나의 디스플레이(300)를 통하여 투영되는 차량의 외부 실세계를 기반으로 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써, 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 기능을 수행할 수 있다.The content providing system 200 according to an embodiment of the present invention determines an image sequence related to a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle, and displays at least one display of the vehicle. By matching the image sequence regarding the above virtual object based on the external real world of the vehicle projected through 300, a function of determining content to be provided to at least one vehicle occupant can be performed.

여기서, 본 발명의 일 실시예에 따른 가상 객체는 차량 내의 적어도 하나의 디스플레이 상에 구현될 수 있는 있는 모든 대상을 총칭하는 개념으로서, 예를 들어, 문자, 숫자, 기호, 심볼, 도형, 사진, 이미지, 소리, 동영상, 또는 이들의 조합으로 이루어질 수 있으며, 그에 부여될 수 있는 속성(attribute)(예를 들어, 밝기, 명도, 채도)까지도 포함하는 개념일 수 있다.Here, the virtual object according to an embodiment of the present invention is a concept that collectively refers to all objects that can be implemented on at least one display in a vehicle, for example, letters, numbers, signs, symbols, shapes, photos, It may consist of an image, sound, video, or a combination thereof, and may be a concept that even includes attributes that can be assigned to it (e.g., brightness, brightness, saturation).

본 발명에 따른 콘텐츠 제공 시스템(200)의 구성과 기능에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 콘텐츠 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 콘텐츠 제공 시스템(200)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 후술할 적어도 하나의 디스플레이(300) 또는 외부 시스템(미도시됨) 내에서 실현되거나 적어도 하나의 디스플레이(300) 또는 위의 외부 시스템 내에 포함될 수도 있음은 당업자에게 자명하다.The configuration and function of the content provision system 200 according to the present invention will be discussed in more detail below. Meanwhile, although the content providing system 200 has been described as above, this description is illustrative, and at least some of the functions or components required for the content providing system 200 may be included in at least one display 300 to be described later as needed. ) or an external system (not shown), or may be included in at least one display 300 or an external system above.

다음으로, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 콘텐츠 제공 시스템(200)에 의해 결정되는 콘텐츠를 표시하는 기능을 수행할 수 있다.Next, at least one display 300 according to an embodiment of the present invention may perform a function of displaying content determined by the content providing system 200.

예를 들어, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 차량의 외부 실세계의 적어도 일부가 투영될 수 있는 투명(예를 들어, 5 내지 80%의 투명도) 또는 반투명 디스플레이를 포함할 수 있으며, 보다 구체적으로, 투명 또는 반투명 TFELD(Thin Film Electroluminescent Display), OLED, LCD, LED 등으로 구성되는 것일 수 있다.For example, at least one display 300 according to an embodiment of the present invention includes a transparent (e.g., 5 to 80% transparency) or translucent display on which at least a portion of the real world outside the vehicle can be projected. It can be done, and more specifically, it may be composed of transparent or translucent TFELD (Thin Film Electroluminescent Display), OLED, LCD, LED, etc.

다른 예를 들어, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 불투명 디스플레이 상에 차량의 외부 실세계에 관한 영상(예를 들어, 실시간 촬영 영상)을 디스플레이함으로써 차량의 외부 실세계를 투영하는 기능을 수행할 수도 있다.For another example, at least one display 300 according to an embodiment of the present invention projects the external real world of the vehicle by displaying an image (e.g., a real-time captured image) related to the external real world of the vehicle on an opaque display. It can also perform the function

또한, 차량 내에는 위와 같은 디스플레이(300)가 복수 개 배치될 수도 있으며, 예를 들어, 차량(또는 적어도 한 명의 차량 탑승자)을 기준으로 전후좌우 각각에 배치(즉, 적어도 4개의 디스플레이가 배치)될 수 있다. 또한, 이러한 디스플레이(300)는 종래의 차량 유리창(window)을 중심으로 추가 장착되거나 그 유리창을 대체하여 장착될 수 있다.In addition, a plurality of the above displays 300 may be disposed in the vehicle, for example, disposed on the front, left, right, and left sides of the vehicle (or at least one vehicle occupant) (i.e., at least four displays are disposed). It can be. Additionally, this display 300 may be additionally mounted around a conventional vehicle window or may be installed as a replacement for the window.

한편, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스일 수 있으며, 본 발명에 따른 콘텐츠 결정 기능(또는 콘텐츠 제공 기능)을 지원하기 위한 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 콘텐츠 제공 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.Meanwhile, at least one display 300 according to an embodiment of the present invention may be a digital device equipped with a memory means and a microprocessor equipped with computing capabilities, and may have a content determination function (or content provision function) according to the present invention. Applications to support functions) may be included. Such an application may be downloaded from the content provision system 200 or an external application distribution server (not shown).

콘텐츠 제공 시스템의 구성Configuration of content provision system

이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 콘텐츠 제공 시스템(200)의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.Below, we will look at the internal structure of the content providing system 200 and the function of each component, which performs important functions for implementing the present invention.

도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.FIG. 2 is a diagram illustrating in detail the internal configuration of the content providing system 200 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220), 통신부(230) 및 제어부(240)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220), 통신부(230) 및 제어부(240)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 콘텐츠 제공 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 콘텐츠 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.As shown in FIG. 2, it may include a virtual object sequence management unit 210, a content management unit 220, a communication unit 230, and a control unit 240. According to one embodiment of the present invention, at least some of the virtual object sequence management unit 210, content management unit 220, communication unit 230, and control unit 240 may be program modules that communicate with an external system. These program modules may be included in the content provision system 200 in the form of operating systems, application modules, or other program modules, and may be physically stored in various known storage devices. Additionally, these program modules may be stored in a remote memory device capable of communicating with the content providing system 200. Meanwhile, such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention.

먼저, 본 발명의 일 실시예에 따른 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자의 상황 정보 및 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 기능을 수행할 수 있다. 본 발명의 일 실시예에 따른 차량 탑승자의 상황 정보는 차량 탑승자로부터 추론되는 상황(예를 들어, 차량 탑승자의 시선, 표정, 행위, 동작, 소리 등으로부터 추론되는 상황)을 나타내는 정보를 포함할 수 있다. 예를 들어, 차량 탑승자의 시선, 표정, 행위, 동작 등에 관한 정보와 동일하거나 유사한 정보에 매칭되는 사례를 사례 데이터베이스상에서 검색하거나, 차량 탑승자의 시선, 표정, 행위, 동작, 소리 등에 관하여 기계 학습(machine learning) 또는 딥 러닝(deep learning)을 통해 학습한 결과에 기초하여 대응되는 사례를 특정할 수 있으며, 그 특정되는 사례를 기준으로 위의 상황을 나타내는 정보가 특정될 수 있다. 또한, 본 발명의 일 실시예에 따른 차량의 주행 정보에는 차량의 출발지, 목적지, 현재 위치, 주행 속도, 주행 상태(예를 들어, 출발, 정지 등) 등에 관한 정보가 포함될 수 있다. 한편, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상을 기준으로 상황 정보 획득의 대상이 되는 적어도 한 명의 차량 탑승자를 특정(예를 들어, 시선, 표정 등의 움직임이 발생되는 차량 탑승자를 특정)하거나, 또는 차량 내에서 소정의 입력 행위(예를 들어, 디스플레이(300) 또는 별도의 외부 시스템을 터치 또는 조작하는 행위)를 하거나 소정의 모션(이러한 경우에, 모션은 소정의 무게 센서, 가속도계 센서 등에 의해 감지될 수 있음)을 취하는 차량 탑승자를 상황 정보 획득의 대상이 되는 적어도 한 명의 차량 탑승자로서 특정할 수 있다. 다만, 본 발명에 따른 위와 같은 특정 방식이 반드시 앞서 열거된 것에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있음을 밝혀 둔다.First, the virtual object sequence management unit 210 according to an embodiment of the present invention may perform a function of determining an image sequence for a virtual object by referring to at least one of the situation information of at least one vehicle occupant and the driving information of the vehicle. You can. The situation information of the vehicle occupant according to an embodiment of the present invention may include information representing the situation inferred from the vehicle occupant (e.g., the situation inferred from the vehicle occupant's gaze, facial expression, behavior, motion, sound, etc.) there is. For example, a case database may be searched for cases that match information that is identical or similar to information about the vehicle occupants' gaze, facial expressions, actions, movements, etc., or machine learning (machine learning) may be conducted on the vehicle occupants' gaze, facial expressions, actions, movements, sounds, etc. The corresponding case can be specified based on the results learned through machine learning or deep learning, and information representing the above situation can be specified based on the specified case. Additionally, the vehicle's driving information according to an embodiment of the present invention may include information about the vehicle's origin, destination, current location, driving speed, and driving status (eg, start, stop, etc.). Meanwhile, the virtual object sequence management unit 210 specifies at least one vehicle occupant who is the target of situation information acquisition based on the internal image of the vehicle (for example, specifies the vehicle occupant whose movements such as gaze and facial expression occur). Or, perform a predetermined input action (for example, touching or manipulating the display 300 or a separate external system) within the vehicle, or perform a predetermined motion (in this case, the motion may be performed using a predetermined weight sensor, accelerometer sensor, etc. The vehicle occupant taking the vehicle (can be detected by, etc.) may be identified as at least one vehicle occupant subject to situation information acquisition. However, it should be noted that the above specific methods according to the present invention are not necessarily limited to those listed above, and may be changed in various ways within the scope of achieving the purpose of the present invention.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상에 기초하여 적어도 한 명의 차량 탑승자의 시선, 표정, 동작, 행위 및 소리 중 적어도 하나를 분석하여(또는 차량 내에서 차량 탑승자가 디스플레이(300)를 대상으로 소정의 입력을 행하는 행위를 분석하여) 해당 차량 탑승자의 감정(예를 들어, 기쁨(喜), 화남(怒), 슬픔(哀), 즐거움(樂) 등으로 분류될 수 있음)이나 그 주변 분위기를 해당 차량 탑승자의 상황 정보로서 특정하고, 그 상황 정보와 연관되는 가상 객체가 해당 감정 또는 해당 분위기에 대응되는 동작을 행하도록 하는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.For example, the virtual object sequence management unit 210 analyzes at least one of the gaze, facial expression, motion, action, and sound of at least one vehicle occupant based on the internal image of the vehicle (or displays the vehicle occupant within the vehicle) By analyzing the act of making a predetermined input to 300), the emotions of the occupants of the vehicle can be classified into emotions (e.g., joy, anger, sadness, joy, etc.) ) or the surrounding atmosphere is specified as situation information of the occupants of the vehicle, and the virtual object associated with the situation information performs an action corresponding to the emotion or atmosphere. It can be determined as an image sequence for the virtual object. .

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량 탑승자가 화가 난 감정 상태인 경우에, 뿔을 포함하는 악마(즉, 가상 객체 1)가 움직이면서 벼락(즉, 가상 객체 2)을 발생시키고 그 배경으로 비(즉, 가상 객체 3)가 내리는 것을 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.More specifically, when the vehicle occupant is in an angry emotional state, the virtual object sequence management unit 210 generates a thunderbolt (i.e., virtual object 2) while a devil including horns (i.e., virtual object 1) moves and the background It is possible to determine that rain (i.e., virtual object 3) is falling as an image sequence about the virtual object.

다른 예를 들어, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자에 의해 설정 또는 저작되는 소정의 가상 객체(예를 들어, 텍스트, 이미지 등)가 해당 차량의 주행 속도와 연동하여 움직이는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다. 한편, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자에게 위의 가상 객체의 설정 또는 저작을 위한 사용자 인터페이스를 더 제공할 수도 있다.For another example, the virtual object sequence management unit 210 detects that a certain virtual object (e.g., text, image, etc.) set or authored by at least one vehicle occupant moves in conjunction with the driving speed of the vehicle. It can be determined as an image sequence about a virtual object. Meanwhile, the virtual object sequence management unit 210 may further provide a user interface for setting or authoring the above virtual object to at least one vehicle occupant.

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량 탑승자에 의해 토끼 이미지가 가상 객체로서 특정되는 경우에, 차량의 주행 속도에 맞추어 해당 차량을 따라 토끼가 뛰어오는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.More specifically, when a rabbit image is specified as a virtual object by a vehicle occupant, the virtual object sequence management unit 210 displays a rabbit running along the vehicle according to the driving speed of the vehicle as an image sequence regarding the virtual object. You can decide.

또한, 가상 객체 시퀀스 관리부(210)는 차량 탑승자 각각에 대해 또는 차량 탑승자의 그룹(예를 들어, 차량 탑승자의 그룹 각각은 적어도 한 명의 탑승자로 구성될 수 있음) 각각에 대해 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.Additionally, the virtual object sequence management unit 210 may generate an image sequence related to the virtual object for each vehicle occupant or each group of vehicle occupants (for example, each group of vehicle occupants may be comprised of at least one occupant). can be decided.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량 탑승자 각각에 대해 또는 적어도 둘 이상의 차량 탑승자로 구성되는 그룹 각각에 대해 위의 상황 정보를 특정하고, 각각의 상황 정보를 참조하여 가상 객체에 관한 영상 시퀀스를 각각 결정할 수 있다.For example, the virtual object sequence management unit 210 specifies the above situation information for each vehicle occupant or each group consisting of at least two vehicle occupants, and refers to each situation information to create an image related to the virtual object. Each sequence can be determined.

또한, 가상 객체 시퀀스 관리부(210)는 차량 내에서 차량 탑승자가 착석하고 있는 좌석 각각에 대해 또는 좌석의 그룹(예를 들어, 좌석의 그룹 각각은 적어도 하나의 좌석으로 구성될 수 있음) 각각에 대해 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다.In addition, the virtual object sequence management unit 210 is configured for each seat or group of seats (for example, each group of seats may consist of at least one seat) in the vehicle on which the vehicle occupants are seated. An image sequence regarding a virtual object may also be determined.

예를 들어, 가상 객체 시퀀스 관리부(210)는, 차량 내 좌석이 2행 2열(즉, 4인석)의 배열로 구성되는 경우에, 좌석 중 차량의 좌측을 공유하는 1행 1열 및 2행 1열에 대응되는 가상 객체에 관한 영상 시퀀스와 차량의 우측을 공유하는 1행 2열 및 2행 2열에 대응하는 가상 객체에 관한 영상 시퀀스를 각각 결정할 수 있다.For example, when the seats in the vehicle are configured in an arrangement of 2 rows and 2 rows (i.e., 4-seater seats), the virtual object sequence management unit 210 may configure the 1st row, 1st row, and 2nd row sharing the left side of the vehicle among the seats. An image sequence related to the virtual object corresponding to the first row and an image sequence related to the virtual object corresponding to the first row, two columns and the second row, two columns sharing the right side of the vehicle can be determined, respectively.

또한, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자의 시점(view point), 차량의 좌석 위치에 따른 시점 및 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.In addition, the virtual object sequence management unit 210 refers to at least one of the viewpoint of at least one vehicle occupant, the viewpoint according to the seat position of the vehicle, and the viewpoint according to the position of at least one display in the vehicle to create the virtual object. You can determine the video sequence related to

예를 들어, 가상 객체 시퀀스 관리부(210)는, 차량 내 좌석이 2행 2열(즉, 4인석)의 배열로 구성되는 경우에, 좌석 중 차량의 좌측을 공유하는 1행 1열 및 2행 1열에 대하여, 1행 1열의 차량 탑승자의 시점 및 2행 1열의 차량 탑승자의 시점, 차량의 좌석 위치에 따른 시점, 또는 디스플레이의 차량 내 위치에 따른 시점에 따라, 동일한 가상 객체라도 가상 객체의 원근, 방향 등을 고려하여 가상 객체의 크기, 형상 및 방향이 다르게 특정되도록 함으로써 그 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.For example, when the seats in the vehicle are configured in an arrangement of 2 rows and 2 rows (i.e., 4-seater seats), the virtual object sequence management unit 210 may configure the 1st row, 1st row, and 2nd row sharing the left side of the vehicle among the seats. For row 1, the perspective of the virtual object even if it is the same virtual object, depending on the viewpoint of the vehicle occupant in row 1, column 1, the viewpoint of the vehicle occupant in row 2, column 1, the viewpoint according to the seat position of the vehicle, or the viewpoint according to the position of the display in the vehicle. The image sequence for the virtual object can be determined by specifying the size, shape, and direction of the virtual object differently, taking into account the direction, etc.

또한, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보를 더 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다.Additionally, the virtual object sequence management unit 210 may determine an image sequence for the virtual object by further referring to information about the real-world object specified from the external image of the vehicle.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상으로부터 해당 차량의 주변에 존재하는 적어도 하나의 실세계 객체를 특정하고, 그 특정되는 적어도 하나의 실세계 객체와 연관되는 가상 객체를 이용하여 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.For example, the virtual object sequence management unit 210 specifies at least one real-world object existing around the vehicle from an external image of the vehicle, and uses a virtual object associated with the specified at least one real-world object to The image sequence regarding the virtual object can be determined.

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상에 기초하여 해당 차량의 주변에 존재하는 실세계 객체가 참새인 것으로 특정한 경우에, 그 참새와 연관되는 논 또는 밭 이미지가 해당 차량의 주행 속도(즉, 위의 주행 정보)에 맞추어 해당 차량의 주변에 넓게 펼쳐지는 것으로 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다. 또한, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상에 기초하여 해당 차량의 주변에 존재하는 실세계 객체가 상점인 것으로 특정한 경우에, 그 상점의 운영 시간, 판매 물품 등과 같은 해당 상점과 연관된 정보가 담긴 인포메이션 박스(즉, 가상 객체)가 소정 시간 동안 표시되는 것으로 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.More specifically, when the virtual object sequence management unit 210 specifies that the real-world object existing around the vehicle is a sparrow based on the external image of the vehicle, the rice paddy or field image associated with the sparrow is displayed while the vehicle is running. The image sequence regarding the above virtual object can be determined by spreading widely around the vehicle in accordance with the speed (i.e., the above driving information). In addition, when the virtual object sequence management unit 210 specifies that a real-world object existing around the vehicle is a store based on the external image of the vehicle, information related to the store, such as the store's operating hours, items for sale, etc. The image sequence regarding the above virtual object can be determined by displaying the information box (i.e., virtual object) contained therein for a predetermined period of time.

한편, 가상 객체 시퀀스 관리부(210)는 차량 탑승자의 개인 정보를 더 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다. 본 발명의 일 실시예에 따른 차량 탑승자의 개인 정보에는, 차량 탑승자의 연령, 성별, 인종, 지역, 선호 가상 객체, 선호 가상 객체 시퀀스, 관심사 등에 관한 정보가 포함될 수 있다.Meanwhile, the virtual object sequence management unit 210 may determine the image sequence for the virtual object by further referring to the personal information of the vehicle occupants. The personal information of the vehicle occupant according to an embodiment of the present invention may include information about the vehicle occupant's age, gender, race, region, preferred virtual object, preferred virtual object sequence, interests, etc.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상에서 차량 탑승자의 얼굴을 기반으로 차량 탑승자의 신원을 특정하고, 그 특정되는 신원에 따라 해당 차량 탑승자가 선호하는 가상 객체 및 그 가상 객체에 관한 영상 시퀀스를 결정할 수 있다. 즉, 차량 탑승자의 개인 정보를 기반으로 가상 객체 또는 그 가상 객체에 관한 영상 시퀀스가 서로 다르게 개별 맞춤화되어 결정될 수 있다.For example, the virtual object sequence management unit 210 specifies the identity of the vehicle occupant based on the vehicle occupant's face in the internal image of the vehicle, and according to the specified identity, the virtual object preferred by the vehicle occupant and the virtual object A video sequence regarding can be determined. That is, the virtual object or an image sequence related to the virtual object may be individually customized and determined based on the personal information of the vehicle occupants.

다음으로, 본 발명의 일 실시예에 따른 콘텐츠 관리부(220)는 차량의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계를 기반으로 가상 객체 시퀀스 관리부(210)에 의해 결정되는 가상 객체에 관한 영상 시퀀스를 정합함으로써, 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 기능을 수행할 수 있다.Next, the content management unit 220 according to an embodiment of the present invention creates an image related to a virtual object determined by the virtual object sequence management unit 210 based on the external real world of the vehicle projected through at least one display of the vehicle. By matching the sequence, a function of determining content to be provided to at least one vehicle occupant can be performed.

예를 들어, 콘텐츠 관리부(220)는 차량의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계의 객체에 관한 속성(예를 들어, 객체의 유형(예를 들어, 사람, 동물, 식물 등), 객체의 위치, 객체의 형상, 객체의 형태 등)을 참조하여, 위의 결정되는 가상 객체에 관한 영상 시퀀스가 그 속성에 따라 매칭되도록 함으로써 생성되는 증강 현실 콘텐츠(AR; Augmented Reality)를 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠로서 결정할 수 있다.For example, the content management unit 220 may provide properties (e.g., type of object (e.g., person, animal, plant, etc.)) about an object in the external real world of the vehicle projected through at least one display of the vehicle, Augmented Reality (AR) content generated by matching the image sequence regarding the above-determined virtual object according to its properties with reference to the location of the object, the shape of the object, the shape of the object, etc.) is provided to at least one person. It can be determined as content to be provided to vehicle occupants.

보다 구체적으로, 콘텐츠 관리부(220)는 SLAM(Simultaneous Localization And Mapping) 기술에 기초하여 위의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계의 좌표(구체적으로는 외부 실세계의 적어도 하나의 객체의 좌표)를 추적하고 3차원 매핑(3D Mapping) 좌표를 추출할 수 있으며, 그 추적된 좌표 및 추출된 3차원 매핑 좌표에 관한 정보를 참조하여 위의 가상 객체에 관한 영상 시퀀스에 따라 움직이는 가상 객체가 위의 적어도 하나의 디스플레이 상에서 표시될 좌표를 결정할 수 있고, 위의 표시될 좌표 상에 위의 가상 객체를 표시하여 그에 관한 영상 시퀀스에 따라 움직이도록 함으로써, 위의 차량의 외부 실세계를 기반으로 하는 증강 현실 콘텐츠를 생성할 수 있다.More specifically, the content management unit 220 determines the coordinates of the external real world of the vehicle (specifically, the coordinates of at least one object in the external real world) projected through the at least one display above based on SLAM (Simultaneous Localization And Mapping) technology. ) can be tracked and 3D mapping (3D mapping) coordinates can be extracted, and the virtual object moving according to the image sequence regarding the above virtual object can be moved by referring to the information about the tracked coordinates and the extracted 3D mapping coordinates. Augmented reality based on the external real world of the vehicle by determining coordinates to be displayed on at least one display, and displaying the virtual object on the coordinates to be displayed and causing it to move according to an image sequence related thereto. You can create content.

다만, 본 발명의 일 실시예에 따른 콘텐츠의 유형이 반드시 상기 증강 현실 콘텐츠에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 가상 현실(Virtual Reality; VR) 콘텐츠, 혼합 현실(Mixed Reality; MR) 콘텐츠 등으로 얼마든지 변경될 수 있음을 밝혀 둔다.However, the type of content according to an embodiment of the present invention is not necessarily limited to the augmented reality content, and within the scope of achieving the purpose of the present invention, virtual reality (VR) content, mixed reality ( Please note that it can be changed at any time due to Mixed Reality (MR) content, etc.

또한, 콘텐츠 관리부(220)는 차량 내의 복수의 디스플레이 중 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 해당 콘텐츠가 제공되도록 할 수 있다.Additionally, the content manager 220 may provide corresponding content based on a display associated with at least one vehicle occupant among a plurality of displays in the vehicle.

예를 들어, 콘텐츠 관리부(220)는, 차량 내의 복수의 디스플레이 중 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 하여 차량의 외부 실세계를 기반으로 해당 차량 탑승자에 대응되는 가상 객체에 관한 영상 시퀀스를 정합함으로써 해당 차량 탑승자에게 제공될 콘텐츠를 결정할 수 있다.For example, the content management unit 220 creates an image sequence regarding a virtual object corresponding to the vehicle occupant based on the external real world of the vehicle based on the display corresponding to the gaze of each vehicle occupant among the plurality of displays in the vehicle. By matching, it is possible to determine the content to be provided to the occupants of the vehicle.

또한, 콘텐츠 관리부(240)는 위의 결정되는 콘텐츠가 저장 또는 공유되도록 하는 기능을 수행할 수 있다.Additionally, the content management unit 240 may perform the function of storing or sharing the content determined above.

예를 들어, 콘텐츠 관리부(240)는 위의 결정되는 콘텐츠가 차량 탑승자와 연관되는 디바이스(예를 들어, 차량 탑승자의 스마트폰, 클라우드 등) 내에 저장되도록 하거나, 차량 탑승자와 연관되는 소셜 네트워크 서비스(SNS), 클라우드, 웹 서버(web server) 등을 통해 다른 차량 탑승자와 공유(예를 들어, 실시간 공유)되도록 할 수 있다.For example, the content management unit 240 causes the content determined above to be stored in a device associated with the vehicle occupant (e.g., the vehicle occupant's smartphone, cloud, etc.), or a social network service associated with the vehicle occupant ( It can be shared (e.g., real-time sharing) with other vehicle occupants through SNS, cloud, web server, etc.

다른 예를 들어, 콘텐츠 관리부(220)는 위의 결정되는 콘텐츠와 연관되는 지리학적(geographical) 위치를 기준으로 하여 해당 콘텐츠가 공유되도록 할 수 있다.For another example, the content management unit 220 may allow the content to be shared based on the geographical location associated with the content determined above.

보다 구체적으로, 콘텐츠 관리부(220)는 제1 차량에서 제공되는 제1 콘텐츠가 그 제1 콘텐츠와 연관되는 GPS 좌표 위치를 기준으로 다른 차량의 차량 탑승자와 공유되도록 할 수 있다. 예를 들어, 콘텐츠 관리부(220)는 제2 차량의 차량 탑승자(즉, 다른 차량의 차량 탑승자)에 의해 위의 GPS 좌표 위치와 연관되는 위치가 특정 또는 선택되면, 위의 제1 콘텐츠가 위의 제2 차량(또는 그 제2 차량의 차량 탑승자)에게 공유되도록 할 수 있다.More specifically, the content manager 220 may allow the first content provided from the first vehicle to be shared with vehicle occupants of other vehicles based on the GPS coordinate location associated with the first content. For example, if the location associated with the above GPS coordinate location is specified or selected by the vehicle occupant of the second vehicle (i.e., the vehicle occupant of another vehicle), the content management unit 220 may store the first content above. It can be shared with the second vehicle (or the vehicle occupants of the second vehicle).

한편, 콘텐츠 관리부(220)는 위의 제2 차량의 차량 탑승자에 의해 공유되는 제1 콘텐츠에 대해 추가적으로 콘텐츠의 저작(예를 들어, 추가, 삭제, 변경 등)이 이루어지는 경우에, 그 제1 콘텐츠와 연관되는 GPS 좌표를 기준으로 그 추가 저작된 콘텐츠 또는 그 추가 저작된 콘텐츠가 반영된 제1 콘텐츠가 다른 차량의 차량 탑승자와 더 공유되도록 할 수 있다.Meanwhile, when additional content creation (e.g., addition, deletion, change, etc.) is made to the first content shared by the vehicle occupants of the second vehicle, the content management unit 220 creates the first content. Based on the GPS coordinates associated with the additional authored content or the first content reflecting the additional authored content, it can be further shared with vehicle occupants of other vehicles.

또한, 콘텐츠 관리부(220)는 위의 공유되는 콘텐츠에 대하여 부여되는 공유 제한 조건을 참조하여 그 제한 조건을 만족하는 차량 또는 차량 탑승자에게 해당 콘텐츠가 공유되도록 할 수도 있다.Additionally, the content management unit 220 may refer to the sharing restriction conditions imposed on the above shared content and allow the content to be shared with vehicles or vehicle occupants that satisfy the restriction conditions.

예를 들어, 콘텐츠 관리부(220)는, 특정 차량(또는 특정 차량 탑승자)에게만 콘텐츠가 공유되도록 하는 공유 제한 조건이 부여되는 경우에, 그 제한 조건을 만족시키는 특정 차량(또는 특정 차량 탑승자)에게만 해당 콘텐츠가 공유되도록 할 수 있다.For example, when a sharing restriction condition that allows content to be shared only with a specific vehicle (or a specific vehicle occupant) is given, the content management unit 220 may only share content with a specific vehicle (or a specific vehicle occupant) that satisfies the restriction condition. Content can be shared.

다음으로, 본 발명의 일 실시예에 따른 통신부(230)는 가상 객체 시퀀스 관리부(210) 및 콘텐츠 관리부(220)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the communication unit 230 according to an embodiment of the present invention may perform a function that allows data to be transmitted and received from/to the virtual object sequence management unit 210 and the content management unit 220.

마지막으로, 본 발명의 일 실시예에 따른 제어부(240)는 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220) 및 통신부(230) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(240)는 콘텐츠 제공 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 콘텐츠 제공 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220) 및 통신부(230)에서 각각 고유 기능을 수행하도록 제어할 수 있다.Lastly, the control unit 240 according to an embodiment of the present invention may perform a function of controlling the flow of data between the virtual object sequence management unit 210, the content management unit 220, and the communication unit 230. That is, the control unit 240 according to the present invention controls the data flow to/from the outside of the content provision system 200 or the data flow between each component of the content provision system 200, thereby controlling the virtual object sequence management unit 210. , the content management unit 220 and the communication unit 230 can each be controlled to perform their own functions.

이하에서는, 도 3 내지 도 8을 참조하여 본 발명의 일 실시예에 따라 콘텐츠가 제공되는 예시적인 상황을 살펴보기로 한다.Hereinafter, an exemplary situation in which content is provided according to an embodiment of the present invention will be looked at with reference to FIGS. 3 to 8.

제1 실시예First Example

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 차량의 전자 제어 시스템(ECU)에 포함되는 상황을 가정해 볼 수 있다.It can be assumed that the content provision system 200 according to an embodiment of the present invention is included in the electronic control system (ECU) of the vehicle.

도 3을 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 차량 탑승자(510)(또는 차량 주행 중에 디스플레이(300a)를 대상으로 소정의 입력 행위를 수행한 차량 탑승자(510))의 시선, 표정, 동작 및 소리를 분석함으로써 차량 탑승자(510)가 차량 외부를 바라보면서 조용히 생각에 잠겨있고, 차량의 외부 영상으로부터 차량 주변에 넓은 갈대밭(320)이 펼쳐지는 것으로 특정되는 경우에, 차량 탑승자(510)가 생각에 잠겨 있는 상황 및 외부 실세계의 객체인 갈대밭(320)과 연관되는 복수의 기러기(310)가 가상 객체로서 결정되고, 복수의 기러기(310)가 차량의 주행 속도에 맞추어 차량 측면을 따라 날아가는 것으로 가상 객체에 관한 영상 시퀀스가 결정될 수 있다.Referring to FIG. 3, first, the gaze of the vehicle occupant 510 (or the vehicle occupant 510 who performed a predetermined input action on the display 300a while the vehicle was running) identified from the internal image of the vehicle while the vehicle is running. , by analyzing facial expressions, movements, and sounds, when it is determined that the vehicle occupant 510 is quietly immersed in thought while looking outside the vehicle, and a wide reed field 320 is spread around the vehicle from the exterior image of the vehicle, A plurality of wild geese 310 associated with the situation in which the passenger 510 is lost in thought and the reed field 320, which is an object in the external real world, are determined as virtual objects, and the plurality of wild geese 310 are adjusted to the driving speed of the vehicle. An image sequence for a virtual object can be determined by flying along the side of the vehicle.

그 다음에, 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량의 외부 실세계인 갈대밭(320)을 배경으로 하여 복수의 기러기(310)가 차량의 주행 속도에 맞추어 차량 측면을 따라 날아가는 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 위의 차량 탑승자에게 제공될 콘텐츠로서 결정될 수 있다.Next, a sequence in which a plurality of geese 310 fly along the side of the vehicle according to the driving speed of the vehicle is matched against the background of the reed field 320, which is the external real world of the vehicle projected through the transparent display 300a of the vehicle. The augmented reality content generated by doing so may be determined as content to be provided to the occupants of the vehicle.

그 다음에, 위의 결정되는 콘텐츠가 차량의 투명 디스플레이(300a) 상에 표시되어 차량 탑승자(510)에게 제공될 수 있다.Next, the above-determined content may be displayed on the transparent display 300a of the vehicle and provided to the vehicle occupants 510.

한편, 본 발명의 일 실시예에 따라 차량의 1행 2열(즉, 조수석)에 제1 차량 탑승자(510)가 위치하고(도 3 참조), 차량의 2행 2열(즉, 조수석의 뒷좌석)에 제2 차량 탑승자(520)가 위치하는 경우에(도 4 참조), 차량 탑승자의 각각의 시점(즉, 제1 차량 탑승자(510) 및 제2 차량 탑승자(520) 각각의 시점) 또는 디스플레이의 차량 내 위치에 따른 시점에 따라 위의 가상 객체에 관한 영상 시퀀스(예를 들어, 복수의 기러기(310)의 형상 및 크기를 고려한 가상 객체에 관한 영상 시퀀스)가 결정될 수 있다.Meanwhile, according to an embodiment of the present invention, the first vehicle occupant 510 is located in the first row and second row (i.e., passenger seat) of the vehicle (see FIG. 3), and the first vehicle occupant 510 is located in the second row and second row of the vehicle (i.e., the rear seat of the passenger seat). When the second vehicle occupant 520 is located (see FIG. 4), each viewpoint of the vehicle occupant (i.e., each viewpoint of the first vehicle occupant 510 and the second vehicle occupant 520) or the display An image sequence related to the above virtual object (for example, an image sequence related to the virtual object considering the shape and size of the plurality of wild geese 310) may be determined depending on the viewpoint according to the location within the vehicle.

예를 들어, 차량의 우측면(즉, 2열)을 기준으로 제1 차량 탑승자(510)의 시점(또는 시선)이 제2 차량 탑승자(520)의 시점(또는 시선)보다 더 좌측에 존재하게 되므로(또는 차량의 우측면(즉, 2열)을 기준으로 제1 차량 탑승자(510)와 연관되는 투명 디스플레이(300a)가 제2 차량 탑승자(520)와 연관되는 투명 디스플레이(300b)보다 더 좌측에 존재하게 되므로), 제1 차량 탑승자(510)에 대해 복수의 기러기(310)(구체적으로, 복수의 기러기(310)의 측면 형상)가 해당 탑승자의 정면에서 날아가고 있는 것으로 가상 객체에 관한 영상 시퀀스(또는 콘텐츠)가 결정되는 경우에, 제2 차량 탑승자(510)에 대해서는 복수의 기러기(310)(구체적으로, 복수의 기러기(310)의 위의 측면 형상보다 원근 효과로 인해 더 작아진 측후면 형상)가 제1 차량 탑승자(510)에 비해서 좌측에서 날아가고 있는 것으로 가상 객체에 관한 영상 시퀀스(또는 콘텐츠)가 결정될 수 있다. 또한, 제1 차량 탑승자(510)와 연관되는 투명 디스플레이(300a)를 통하여 투영되는 갈대밭(320)을 배경으로 하여 제1 차량 탑승자(510)에 대하여 결정되는 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 제1 차량 탑승자(510)에게 제공되고, 제2 차량 탑승자(520)와 연관되는 투명 디스플레이(300b)를 통하여 투영되는 갈대밭(320)을 배경으로 하여 제2 차량 탑승자(520)에 대하여 결정되는 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 제2 차량 탑승자(520)에게 제공될 수 있다.For example, based on the right side (i.e., second row) of the vehicle, the viewpoint (or line of sight) of the first vehicle occupant 510 is located further to the left than the viewpoint (or line of sight) of the second vehicle occupant 520. (Or, based on the right side of the vehicle (i.e., second row), the transparent display 300a associated with the first vehicle occupant 510 is located further to the left than the transparent display 300b associated with the second vehicle occupant 520. Since), an image sequence (or In the case where the content) is determined, for the second vehicle occupant 510, a plurality of wild geese 310 (specifically, a side and rear shape that is smaller due to the perspective effect than the upper side shape of the plurality of wild geese 310) The image sequence (or content) regarding the virtual object may be determined to be flying from the left compared to the first vehicle occupant 510. In addition, an image sequence regarding the above virtual object determined for the first vehicle occupant 510 is displayed against the background of the reed field 320 projected through the transparent display 300a associated with the first vehicle occupant 510. Augmented reality content generated by matching is provided to the first vehicle occupants 510, and the second vehicle occupants 520 are presented with the reed field 320 in the background projected through the transparent display 300b associated with the second vehicle occupants 520. Augmented reality content generated by matching the image sequence regarding the above virtual object determined for the occupant 520 may be provided to the second vehicle occupant 520 .

제2 실시예Second embodiment

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 차량의 전자 제어 시스템(ECU)에 포함되는 상황을 가정해 볼 수 있다.It can be assumed that the content provision system 200 according to an embodiment of the present invention is included in the electronic control system (ECU) of the vehicle.

도 5를 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 차량 탑승자(510)(또는 차량 주행 중에 디스플레이(300a)를 대상으로 소정의 입력 행위를 수행한 차량 탑승자(510))의 시선, 표정, 동작 및 소리를 분석함으로써 차량 탑승자(510)가 차량 외부를 바라보면서 눈이 많이 와서 도로가 미끄러워질 것을 걱정하고 있는 상황이 특정될 수 있고, 차량 탑승자(510)에 의해 저작되는 미끄럼 경고 표시 이미지(550)가 가상 객체로서 특정되면, 그 특정되는 미끄럼 경고 표시 이미지(550)가 차량의 주행 속도에 따라 점멸하는 것으로 가상 객체에 관한 영상 시퀀스가 결정될 수 있다.Referring to FIG. 5, first, the line of sight of a vehicle occupant 510 (or a vehicle occupant 510 who performed a predetermined input action on the display 300a while driving the vehicle) identified from the internal image of the vehicle while driving the vehicle. , By analyzing facial expressions, movements, and sounds, a situation in which the vehicle occupant 510 is looking outside the vehicle and worrying that the road may become slippery due to heavy snow can be specified, and a slip warning authored by the vehicle occupant 510 If the display image 550 is specified as a virtual object, an image sequence related to the virtual object may be determined as the specified skid warning display image 550 blinks according to the driving speed of the vehicle.

그 다음에, 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량 외부의 설경(雪景)을 기반으로 미끄럼 경고 표시 이미지(550)가 차량의 주행 속도에 따라 점멸하는 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 해당 차량 탑승자(510)에게 제공될 콘텐츠로서 결정될 수 있다.Next, augmented reality is created by matching an image sequence in which a slip warning display image 550 flashes according to the vehicle's driving speed based on the snowy landscape outside the vehicle projected through the vehicle's transparent display 300a. The content may be determined as content to be provided to the vehicle occupants 510.

한편, 위의 결정된 콘텐츠가 다른 차량(또는 다른 차량의 차량 탑승자)과 공유될 수 있다.Meanwhile, the above-determined content may be shared with other vehicles (or vehicle occupants of other vehicles).

도 6을 참조하면, 위의 결정된 콘텐츠가 그와 연관되는 지리학적 위치(예를 들어, 해당 도로의 GPS 좌표)를 기준으로 다른 차량의 차량 탑승자와 공유될 수 있고, 다른 차량의 차량 탑승자에 의해 그 지리학적 위치와 연관되는 위치(610)가 특정 또는 선택되면, 위의 결정된 콘텐츠가 다른 차량에게 공유될 수 있다.Referring to FIG. 6, the above-determined content may be shared with vehicle occupants of other vehicles based on the geographic location associated therewith (e.g., GPS coordinates of the road in question), and may be shared by vehicle occupants of other vehicles. Once the location 610 associated with that geographic location is specified or selected, the determined content may be shared to other vehicles.

예를 들어, 위와 같이 공유되는 콘텐츠 내에 "눈이 많이 와서 미끄러우니 조심하세요."라는 텍스트가 가상 객체로서 포함되어 있고, 그 공유되는 콘텐츠와 연관되는 지리학적 위치를 기준으로 해당 콘텐츠가 다른 차량의 차량 탑승자에게 공유될 수 있다. 그 다음에, 해당 콘텐츠를 공유하는 다른 차량의 차량 탑승자가 해당 콘텐츠에 대해 "이제는 괜찮네요."라는 텍스트를 가상 객체로서 추가 저작하여 재공유하는 경우에, 위의 지리학적 위치를 기준으로 그 추가 저작된 가상 객체(즉, 텍스트)(또는 위의 공유되는 콘텐츠에 대해 위의 추가 저작된 가상 객체가 반영된 콘텐츠)가 공유될 수 있다.For example, in the content shared as above, the text “Be careful because it snows a lot and is slippery” is included as a virtual object, and based on the geographical location associated with the shared content, the content is displayed on other vehicles. It can be shared with vehicle occupants. Then, if a vehicle occupant of another vehicle sharing that content additionally authored the content as a virtual object and re-shared the text “I’m good now,” that additional authoring would be based on the above geographic location. A virtual object (i.e., text) (or content that reflects the additional authored virtual object above for the shared content above) may be shared.

제3 실시예Third embodiment

도 7을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 외부 서버(미도시됨)에 포함되는 상황을 가정해 볼 수 있다. 구체적으로, 차량 내의 적어도 하나의 디스플레이(미도시됨)를 제어하는 전자 제어 시스템(ECU)(미도시됨)과 무선 통신(예를 들어, 와이파이(WiFi), 블루투스(Bluetooth) 등) 등으로 연결되는 위의 외부 서버를 통해 차량 탑승자에게 콘텐츠가 제공되는 상황일 수 있다.Referring to FIG. 7, it can be assumed that the content providing system 200 according to an embodiment of the present invention is included in an external server (not shown). Specifically, it is connected to an electronic control system (ECU) (not shown) that controls at least one display (not shown) in the vehicle via wireless communication (e.g., WiFi, Bluetooth, etc.). There may be a situation where content is provided to vehicle occupants through the above external server.

도 7을 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 복수의 차량 탑승자(또는 차량 주행 중에 디스플레이를 대상으로 소정의 입력 행위를 수행한 복수의 차량 탑승자)의 시선, 표정, 동작 및 소리를 분석함으로써, 제1 차량 탑승자(710)와 제2 차량 탑승자(720)가 서로 다투어 제2 차량 탑승자(720)가 화가 나 있는 상황이고, 제3 차량 탑승자(730)가 창 밖을 바라보면서 웃고 있는 상황이 특정되는 경우에, 제1 차량 탑승자(710) 및 제2 차량 탑승자(720)에 대응하여 두 악마 이미지가 가상 객체로서 특정되고, 그 두 악마가 서로 싸우는 것이 해당 가상 객체에 관한 영상 시퀀스로서 결정될 수 있으며, 제3 차량 탑승자(730)에 대응하여서는 천사가 가상 객체로서 결정되고, 그 천사가 차량 주행 속도에 맞추어 차량을 따라가면서 특정 곡을 연주하는 것이 해당 가상 객체에 관한 영상 시퀀스로서 결정될 수 있다.Referring to FIG. 7, first, the gaze, facial expressions, movements, and By analyzing the sound, the first vehicle occupant 710 and the second vehicle occupant 720 are fighting with each other, and the second vehicle occupant 720 is angry, and the third vehicle occupant 730 is looking out the window. When a smiling situation is specified, two devil images corresponding to the first vehicle occupant 710 and the second vehicle occupant 720 are specified as virtual objects, and the two devils fighting each other are images related to the virtual objects. It can be determined as a sequence, and in response to the third vehicle occupant 730, an angel is determined as a virtual object, and the angel plays a specific song while following the vehicle according to the vehicle's driving speed as a video sequence for the virtual object. can be decided.

그 다음에, 제1 차량 탑승자(710) 및 제2 차량 탑승자의 시선(701, 702)에 대응되는 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량의 주행 도로를 배경으로 위의 결정되는 가상 객체에 관한 영상 시퀀스(즉, 두 악마가 서로 싸우는 것에 관한 영상 시퀀스)를 정합함으로써, 제1 차량 탑승자(710) 및 제2 차량 탑승자에게 제공될 콘텐츠가 결정될 수 있고, 제3 차량 탑승자(730)의 시선(703)에 대응되는 차량의 투명 디스플레이(300b)를 통하여 투영되는 차량의 주행 도로를 배경으로 위의 결정되는 가상 객체에 관한 영상 시퀀스(즉, 천사가 차량 주행 속도에 맞추어 차량을 따라가면서 특정 곡을 연주하는 것에 관한 영상 시퀀스)를 정합함으로써, 제3 차량 탑승자(730)에게 제공될 콘텐츠가 결정될 수 있다.Next, the virtual object determined above is displayed against the background of the vehicle's driving road projected through the transparent display 300a of the vehicle corresponding to the gaze 701 and 702 of the first vehicle occupant 710 and the second vehicle occupant. By matching the video sequence about (i.e., the video sequence about two demons fighting each other), content to be provided to the first vehicle occupant 710 and the second vehicle occupant can be determined, and the content to be provided to the first vehicle occupant 710 and the second vehicle occupant 730. An image sequence regarding the virtual object determined above against the background of the vehicle's driving road projected through the vehicle's transparent display 300b corresponding to the line of sight 703 (i.e., the angel follows the vehicle according to the vehicle's driving speed and makes a specific By matching video sequences (about playing a song), content to be provided to the third vehicle occupant 730 can be determined.

제4 실시예Embodiment 4

도 8을 참조하면, 차량의 복수의 디스플레이(300d, 300e, 300f) 상에서 콘텐츠가 제공되는 상황을 가정해 볼 수 있다.Referring to FIG. 8, it can be assumed that content is provided on a plurality of displays 300d, 300e, and 300f of a vehicle.

예를 들어, 오리(즉, 가상 객체)(810)가 헤엄치고 있는 것이 가상 객체에 관한 영상 시퀀스로서 결정되고, 차량의 외부 실세계를 배경으로 하여 그 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 차량 탑승자(미도시됨)에게 제공될 콘텐츠로 결정되는 경우에, 복수의 디스플레이 각각(300d, 300e, 300f)에서는 각 차량 탑승자가 바라보는 시점(801, 802, 803)에 따라 오리(810)의 크기, 형상 및 형태 중 적어도 하나가 달라질 수 있다.For example, a duck (i.e., virtual object) 810 swimming is determined as an image sequence for the virtual object, and augmentation is generated by registering the image sequence for the virtual object against the background of the real world outside the vehicle. When real content is determined to be content to be provided to vehicle occupants (not shown), each of the plurality of displays (300d, 300e, 300f) displays duck ( 810), at least one of the size, shape, and form may vary.

제5 실시예Example 5

본 발명의 일 실시예에 따르면, 차량의 복수의 디스플레이 상에서 콘텐츠가 제공되는 다른 상황을 가정해 볼 수 있다.According to an embodiment of the present invention, another situation in which content is provided on a plurality of displays of a vehicle can be assumed.

예를 들어, 도 8을 참조하면, 오리(즉, 가상 객체)(810)가 헤엄치고 있는 것이 가상 객체에 관한 영상 시퀀스로서 결정되고, 차량의 외부 실세계를 배경으로 하여 그 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 차량 탑승자에게 제공될 콘텐츠로 결정되는 경우에, 차량의 전후좌우의 모든 디스플레이에서 하나의 콘텐츠가 각 디스플레이의 차량 내 위치에 부합되는 시점을 기준으로 동기화되어 제공될 수 있고(예를 들어, 차량의 전면 및 좌측면의 디스플레이에서 오리(810)가 나타나고 차량의 우측면 및 후면의 디스플레이에서는 오리(810)가 나타나지 않게 됨), 이를 통해 차량 탑승자에게 마치 특정 공간에 들어와 있는 것과 같은 사용자 경험을 제공할 수 있게 된다.For example, referring to Figure 8, a duck (i.e., virtual object) 810 swimming is determined as an image sequence for the virtual object, and an image sequence for the virtual object is displayed against the background of the real world outside the vehicle. When the augmented reality content created by matching is determined as the content to be provided to vehicle occupants, one content will be synchronized and provided on all displays on the front, left, and right sides of the vehicle based on the point in time that matches the position of each display within the vehicle. (For example, the duck 810 appears on the display on the front and left sides of the vehicle, and the duck 810 does not appear on the display on the right side and rear of the vehicle), and this allows the vehicle occupants to enter a specific space as if they were entering a specific space. It is possible to provide a similar user experience.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device can be converted into one or more software modules to perform processing according to the invention and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described in terms of specific details, such as specific components, and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above embodiments. Anyone with ordinary knowledge in the technical field to which the invention pertains can make various modifications and changes from this description.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the scope of the claims are within the scope of the spirit of the present invention. It will be said to belong to

100: 통신망
200: 콘텐츠 제공 시스템
210: 가상 객체 시퀀스 관리부
220: 콘텐츠 관리부
230: 통신부
240: 제어부
300: 디스플레이
100: communication network
200: Content provision system
210: Virtual object sequence management unit
220: Content management department
230: Department of Communications
240: control unit
300: display

Claims (23)

콘텐츠를 제공하는 방법으로서,
적어도 한 명의 차량 탑승자의 상황 정보를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 단계, 및
상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 단계를 포함하고,
상기 영상 시퀀스 결정 단계에서, 상기 적어도 한 명의 차량 탑승자로부터 추론되는 감정 상태 또는 주변 분위기를 상기 적어도 한 명의 차량 탑승자의 상황 정보로서 특정하고, 상기 적어도 한 명의 차량 탑승자의 상황 정보와 연관되는 가상 객체가 상기 감정 상태 또는 주변 분위기에 대응되는 동작을 행하도록 하는 것을 상기 가상 객체에 관한 영상 시퀀스로서 결정하는
방법.
As a method of providing content,
determining an image sequence regarding the virtual object with reference to situational information of at least one vehicle occupant, and
determining content to be provided to the at least one vehicle occupant by matching an image sequence regarding the virtual object based on a real world outside the vehicle projected through at least one display of the vehicle;
In the video sequence determination step, an emotional state or surrounding atmosphere inferred from the at least one vehicle occupant is specified as situation information of the at least one vehicle occupant, and a virtual object associated with the situation information of the at least one vehicle occupant is provided. Determining as an image sequence regarding the virtual object to perform an action corresponding to the emotional state or surrounding atmosphere.
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 적어도 한 명의 차량 탑승자 및 상기 적어도 한 명의 차량 탑승자의 상황 정보 중 적어도 하나는 상기 차량의 내부 영상으로부터 특정되는
방법.
According to paragraph 1,
In the step of determining the video sequence, at least one of the at least one vehicle occupant and the situation information of the at least one vehicle occupant is specified from the internal image of the vehicle.
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보 및 상기 차량의 주행 정보 중 적어도 하나를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
According to paragraph 1,
In the image sequence determination step, determining an image sequence for the virtual object by further referring to at least one of information about a real-world object specified from an external image of the vehicle and driving information of the vehicle.
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자 각각에 대해 또는 상기 차량 탑승자의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
According to paragraph 1,
In the image sequence determining step, determining an image sequence related to the virtual object for each vehicle occupant or for each group of vehicle occupants.
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자가 상기 차량 내에서 착석하고 있는 좌석 각각에 대해 또는 상기 좌석의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
According to paragraph 1,
In the step of determining the image sequence, determining an image sequence regarding the virtual object for each seat or each group of seats on which the vehicle occupant is seated in the vehicle.
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자의 시점(view point), 상기 차량의 좌석 위치에 따른 시점 및 상기 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
According to paragraph 1,
In the step of determining the image sequence, an image related to the virtual object is referred to at least one of the viewpoint of the vehicle occupant, the viewpoint according to the seat position of the vehicle, and the viewpoint according to the position of the at least one display in the vehicle. determining the sequence
method.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자의 개인 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
According to paragraph 1,
In the video sequence determination step, determining the video sequence for the virtual object further refers to personal information of the vehicle occupants.
method.
제1항에 있어서,
상기 콘텐츠 결정 단계에서, 상기 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계의 객체에 관한 속성을 참조하여 상기 가상 객체에 관한 영상 시퀀스를 정합하는
방법.
According to paragraph 1,
In the content determination step, matching an image sequence about the virtual object with reference to properties about objects in the real world outside the vehicle projected through the at least one display.
method.
제1항에 있어서,
상기 콘텐츠 결정 단계는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 상기 결정되는 콘텐츠를 제공하는 단계를 포함하는
방법.
According to paragraph 1,
The content determining step includes providing the determined content based on a display of the at least one display that is associated with the at least one vehicle occupant.
method.
제9항에 있어서,
상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 상기 결정되는 콘텐츠를 제공하는
방법.
According to clause 9,
Providing the determined content based on a display corresponding to the gaze of each of the at least one vehicle occupant among the at least one display.
method.
제1항에 있어서,
상기 콘텐츠 결정 단계는, 상기 적어도 하나의 디스플레이에서 상기 결정되는 콘텐츠를 상기 적어도 하나의 디스플레이 각각의 상기 차량 내 위치에 부합되는 시점을 기준으로 동기화하여 제공하는 단계를 포함하는
방법.
According to paragraph 1,
The content determining step includes synchronizing and providing the determined content on the at least one display based on a time point corresponding to the location of each of the at least one display within the vehicle.
method.
제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 비일시성의 컴퓨터 판독 가능 기록 매체.A non-transitory computer-readable recording medium recording a computer program for executing the method according to claim 1. 콘텐츠를 제공하는 시스템으로서,
적어도 한 명의 차량 탑승자의 상황 정보를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 가상 객체 시퀀스 관리부, 및
상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 콘텐츠 관리부를 포함하고,
상기 가상 객체 시퀀스 관리부는, 상기 적어도 한 명의 차량 탑승자로부터 추론되는 감정 상태 또는 주변 분위기를 상기 적어도 한 명의 차량 탑승자의 상황 정보로서 특정하고, 상기 적어도 한 명의 차량 탑승자의 상황 정보와 연관되는 가상 객체가 상기 감정 상태 또는 주변 분위기에 대응되는 동작을 행하도록 하는 것을 상기 가상 객체에 관한 영상 시퀀스로서 결정하는
시스템.
As a system that provides content,
A virtual object sequence management unit that determines an image sequence for a virtual object by referring to situation information of at least one vehicle occupant, and
A content management unit that determines content to be provided to the at least one vehicle occupant by matching an image sequence regarding the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle,
The virtual object sequence management unit specifies an emotional state or surrounding atmosphere inferred from the at least one vehicle occupant as situation information of the at least one vehicle occupant, and the virtual object associated with the situation information of the at least one vehicle occupant is Determining as an image sequence regarding the virtual object to perform an action corresponding to the emotional state or surrounding atmosphere.
system.
제13항에 있어서,
상기 적어도 한 명의 차량 탑승자 및 상기 적어도 한 명의 차량 탑승자의 상황 정보 중 적어도 하나는 상기 차량의 내부 영상으로부터 특정되는
시스템.
According to clause 13,
At least one of the at least one vehicle occupant and the situation information of the at least one vehicle occupant is specified from an internal image of the vehicle.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보 및 상기 차량의 주행 정보 중 적어도 하나를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
According to clause 13,
The virtual object sequence management unit determines an image sequence for the virtual object by further referring to at least one of information about a real-world object specified from an external image of the vehicle and driving information of the vehicle.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자 각각에 대해 또는 상기 차량 탑승자의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
According to clause 13,
The virtual object sequence management unit determines an image sequence related to the virtual object for each vehicle occupant or for each group of vehicle occupants.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자가 상기 차량 내에서 착석하고 있는 좌석 각각에 대해 또는 상기 좌석의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
According to clause 13,
The virtual object sequence management unit determines an image sequence related to the virtual object for each seat on which the vehicle occupant is sitting in the vehicle or for each group of seats.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자의 시점, 상기 차량의 좌석 위치에 따른 시점 및 상기 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
According to clause 13,
The virtual object sequence management unit determines an image sequence related to the virtual object with reference to at least one of the viewpoint of the vehicle occupant, the viewpoint according to the seat position of the vehicle, and the viewpoint according to the position of the at least one display in the vehicle.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자의 개인 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
According to clause 13,
The virtual object sequence management unit determines an image sequence for the virtual object by further referring to personal information of the vehicle occupants.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계의 객체에 관한 속성을 참조하여 상기 가상 객체에 관한 영상 시퀀스를 정합하는
시스템.
According to clause 13,
The content management unit matches an image sequence related to the virtual object with reference to properties related to objects in the real world outside the vehicle projected through the at least one display.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 상기 결정되는 콘텐츠를 제공하는
시스템.
According to clause 13,
The content management unit provides the determined content based on a display associated with the at least one vehicle occupant among the at least one display.
system.
제21항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 상기 결정되는 콘텐츠를 제공하는
시스템.
According to clause 21,
The content management unit provides the determined content based on a display corresponding to the gaze of each of the at least one vehicle occupant among the at least one display.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이에서 상기 결정되는 콘텐츠를 상기 적어도 하나의 디스플레이 각각의 상기 차량 내 위치에 부합되는 시점을 기준으로 동기화하여 제공하는
시스템.
According to clause 13,
The content management unit synchronizes and provides the determined content on the at least one display based on a time point corresponding to the location of each of the at least one display within the vehicle.
system.
KR1020220056282A 2019-05-29 2022-05-06 Method, system, and non-transitory computer-readable recording medium for providing contents KR102592675B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190063491 2019-05-29
KR20190063491 2019-05-29
KR1020200056782A KR20200137992A (en) 2019-05-29 2020-05-12 Method, system, and non-transitory computer-readable recording medium for providing contents

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200056782A Division KR20200137992A (en) 2019-05-29 2020-05-12 Method, system, and non-transitory computer-readable recording medium for providing contents

Publications (2)

Publication Number Publication Date
KR20220065733A KR20220065733A (en) 2022-05-20
KR102592675B1 true KR102592675B1 (en) 2023-10-23

Family

ID=73554101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220056282A KR102592675B1 (en) 2019-05-29 2022-05-06 Method, system, and non-transitory computer-readable recording medium for providing contents

Country Status (2)

Country Link
KR (1) KR102592675B1 (en)
WO (1) WO2020242179A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059960A (en) * 2016-09-30 2018-04-12 本田技研工業株式会社 Information providing device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140354684A1 (en) * 2013-05-28 2014-12-04 Honda Motor Co., Ltd. Symbology system and augmented reality heads up display (hud) for communicating safety information
AT512717B1 (en) * 2013-07-26 2015-02-15 Avl List Gmbh Method for carrying out a test run on a test bench
KR101895485B1 (en) * 2015-08-26 2018-09-05 엘지전자 주식회사 Drive assistance appratus and method for controlling the same
KR20180014910A (en) 2016-08-02 2018-02-12 김지현 Tour content and its delivery system using Augmented Reality in Virtual Reality
WO2018131729A1 (en) * 2017-01-11 2018-07-19 전자부품연구원 Method and system for detection of moving object in image using single camera
KR102060662B1 (en) * 2017-05-16 2019-12-30 삼성전자주식회사 Electronic device and method for detecting a driving event of vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059960A (en) * 2016-09-30 2018-04-12 本田技研工業株式会社 Information providing device

Also Published As

Publication number Publication date
WO2020242179A1 (en) 2020-12-03
KR20220065733A (en) 2022-05-20

Similar Documents

Publication Publication Date Title
JP7002684B2 (en) Systems and methods for augmented reality and virtual reality
US10767997B1 (en) Systems and methods for providing immersive extended reality experiences on moving platforms
JP6657289B2 (en) Systems and methods for augmented and virtual reality
US9274595B2 (en) Coherent presentation of multiple reality and interaction models
KR102159849B1 (en) Mixed reality display accommodation
US20130249947A1 (en) Communication using augmented reality
US20130232430A1 (en) Interactive user interface
US20130249948A1 (en) Providing interactive travel content at a display device
US20130226758A1 (en) Delivering aggregated social media with third party apis
US20130222371A1 (en) Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality
US20140063061A1 (en) Determining a position of an item in a virtual augmented space
WO2020132141A1 (en) Real-time route configuring of entertainment content
US20220027772A1 (en) Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
Cronin et al. The The Infinite Retina: Spatial Computing, Augmented Reality, and how a collision of new technologies are bringing about the next tech revolution
KR102592675B1 (en) Method, system, and non-transitory computer-readable recording medium for providing contents
US20220262081A1 (en) Planner for an objective-effectuator
KR20200137992A (en) Method, system, and non-transitory computer-readable recording medium for providing contents
KR102596322B1 (en) Method, system, and non-transitory computer-readable recording medium for authoring contents based on in-vehicle video

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant