KR20200137992A - Method, system, and non-transitory computer-readable recording medium for providing contents - Google Patents

Method, system, and non-transitory computer-readable recording medium for providing contents Download PDF

Info

Publication number
KR20200137992A
KR20200137992A KR1020200056782A KR20200056782A KR20200137992A KR 20200137992 A KR20200137992 A KR 20200137992A KR 1020200056782 A KR1020200056782 A KR 1020200056782A KR 20200056782 A KR20200056782 A KR 20200056782A KR 20200137992 A KR20200137992 A KR 20200137992A
Authority
KR
South Korea
Prior art keywords
vehicle
virtual object
content
image sequence
vehicle occupant
Prior art date
Application number
KR1020200056782A
Other languages
Korean (ko)
Inventor
전재웅
Original Assignee
(주) 애니펜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 애니펜 filed Critical (주) 애니펜
Priority to PCT/KR2020/006806 priority Critical patent/WO2020242179A1/en
Publication of KR20200137992A publication Critical patent/KR20200137992A/en
Priority to KR1020220056282A priority patent/KR102592675B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to one aspect of the present invention, provided is a method for providing content, which comprises the steps of: determining an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of a vehicle; and determining content to be provided to the at least one vehicle occupant by matching the image sequence for the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle.

Description

콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체{METHOD, SYSTEM, AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING CONTENTS}Method of providing content, system, and non-transitory computer-readable recording medium {METHOD, SYSTEM, AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING CONTENTS}

본 발명은 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present invention relates to a method, system and non-transitory computer-readable recording medium for providing content.

근래에 들어, 통신 및 인공지능(AI; Artificial Intelligence) 기술의 발달과 함께 차량 자율 주행 서비스가 상용화되는 등 자율 주행 차량 시장이 활성화되고 있다.In recent years, with the development of communication and artificial intelligence (AI) technologies, the autonomous vehicle driving service has been commercialized, and the autonomous vehicle market is revitalizing.

이러한 자율 주행 차량에는 주변의 장애물을 탐지하거나 차량 내부의 상태를 파악하기 위하여 수많은 카메라가 장착되어 있으며, 이를 통해 차량의 내부 또는 외부를 지속적으로 촬영하게 된다.In such an autonomous vehicle, a number of cameras are installed in order to detect nearby obstacles or to determine the state of the vehicle, and through this, the inside or outside of the vehicle is continuously photographed.

하지만, 위와 같이 촬영된 영상은 차량 주행 이후에 바로 삭제되거나 새로운 영상으로 덮어씌워질 뿐이고, 다른 용도로 제대로 활용되지 못하고 있는 실정이다.However, the image captured as above is only deleted or overwritten with a new image immediately after driving the vehicle, and is not properly utilized for other purposes.

또한, 근래에 들어, 자율 주행 차량이 상용화 및 보급되어 감에 따라 차량 탑승자가 직접 운전하는 시간이 줄어들기 때문에, 차량 주행 중에 차량 탑승자의 지루함을 달래고 흥미를 북돋을 수 있는 콘텐츠 개발이 절실하게 요구되고 있는 상황이다.In addition, in recent years, as autonomous vehicles are commercialized and distributed, the amount of time for vehicle occupants to directly drive decreases, so there is an urgent need to develop content that can alleviate the boredom of vehicle occupants and inspire interest while driving. It is a situation.

이에, 본 발명자(들)은, 차량 주행 중에 차량 탑승자에게 콘텐츠를 인터랙티브(interactive)하게 제공할 수 있는 신규하고도 진보된 기술을 제안하는 바이다.Accordingly, the present inventor(s) proposes a new and advanced technology capable of interactively providing content to a vehicle occupant while driving a vehicle.

한국 공개특허공보 제2018-0014910호Korean Patent Application Publication No. 2018-0014910

본 발명은, 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.An object of the present invention is to solve all the problems of the prior art described above.

또한, 본 발명은, 차량 주행 중에 발생할 수 있는 차량 탑승자의 따분함과 지루함을 해소하고 차량 영상의 활용도를 높이는 것을 그 목적으로 한다.In addition, an object of the present invention is to eliminate the boredom and boredom of vehicle occupants that may occur during vehicle driving, and to increase the utilization of vehicle images.

또한, 본 발명은, 차량 내의 적어도 두 디스플레이에서 콘텐츠가 동기화되어 제공될 수 있도록 하는 것을 그 목적으로 한다.In addition, an object of the present invention is to enable content to be synchronized and provided on at least two displays in a vehicle.

또한, 본 발명은, 차량 탑승자 각각에 대해 또는 차량 탑승자의 소정 그룹 각각에 대해 콘텐츠를 제공하는 것을 그 목적으로 한다.It is another object of the present invention to provide content for each vehicle occupant or for each predetermined group of vehicle occupants.

또한, 본 발명은, 차량 탑승자가 차량 내에서 손쉽게 콘텐츠를 저작하고 이를 공유할 수 있도록 지원하는 것을 그 목적으로 한다.In addition, an object of the present invention is to support a vehicle occupant to easily create and share content within a vehicle.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.A typical configuration of the present invention for achieving the above object is as follows.

본 발명의 일 태양에 따르면, 콘텐츠를 제공하는 방법으로서, 적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 단계, 및 상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, a method of providing content, comprising: determining an image sequence related to a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle, and A method is provided comprising the step of determining content to be provided to the at least one vehicle occupant by matching an image sequence relating to the virtual object based on the external real world of the vehicle projected through at least one display.

본 발명의 다른 태양에 따르면, 콘텐츠를 제공하는 시스템으로서, 적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 가상 객체 시퀀스 관리부, 및 상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 콘텐츠 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, a system for providing content, comprising: a virtual object sequence management unit that determines an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle; and A system comprising a content management unit that determines content to be provided to the at least one vehicle occupant by matching the image sequence of the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle. Is provided.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present invention, another system, and a non-transitory computer-readable recording medium for recording a computer program for executing the method are further provided.

본 발명에 의하면, 차량 주행 중에 발생할 수 있는 차량 탑승자의 따분함과 지루함을 해소하고 차량 영상의 활용도를 높일 수 있게 된다.According to the present invention, it is possible to eliminate the boredom and boredom of a vehicle occupant that may occur while driving a vehicle, and increase the utilization of vehicle images.

또한, 본 발명에 의하면, 차량 내의 적어도 두 디스플레이에서 콘텐츠를 동기화하여 제공할 수 있게 된다.Further, according to the present invention, it is possible to provide content by synchronizing at least two displays in the vehicle.

또한, 본 발명에 따르면, 차량 탑승자 각각에 대해 또는 차량 탑승자의 소정 그룹 각각에 대해 콘텐츠를 제공할 수 있게 된다.Further, according to the present invention, it is possible to provide content for each vehicle occupant or each predetermined group of vehicle occupants.

또한, 본 발명에 따르면, 차량 탑승자가 차량 내에서 손쉽게 콘텐츠를 저작하고 이를 공유할 수 있도록 지원할 수 있게 된다.In addition, according to the present invention, it is possible to support a vehicle occupant to easily author and share content within the vehicle.

도 1은 본 발명의 일 실시예에 따라 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 내지 도 8은 본 발명의 일 실시예에 따라 콘텐츠가 제공되는 상황을 예시적으로 나타내는 도면이다.
1 is a diagram showing a schematic configuration of an entire system for providing content according to an embodiment of the present invention.
2 is a diagram illustrating in detail the internal configuration of a content providing system according to an embodiment of the present invention.
3 to 8 are diagrams illustrating a situation in which content is provided according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described later refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable those skilled in the art to practice the present invention. It is to be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be changed from one embodiment to another and implemented without departing from the spirit and scope of the present invention. In addition, it should be understood that the positions or arrangements of individual elements in each embodiment may be changed without departing from the spirit and scope of the present invention. Therefore, the detailed description to be described below is not made in a limiting sense, and the scope of the present invention should be taken as encompassing the scope claimed by the claims of the claims and all scopes equivalent thereto. Like reference numerals in the drawings indicate the same or similar elements over various aspects.

본 명세서에서, 콘텐츠란, 문자, 부호, 음성, 음향, 이미지, 동영상 등으로 이루어지는 디지털 정보 또는 개별 정보 요소를 총칭하는 개념이다. 이러한 콘텐츠는, 예를 들면, 텍스트, 이미지, 동영상, 오디오, 링크(예를 들면, 웹 링크) 등의 데이터 또는 이러한 데이터 중 적어도 두 가지의 조합을 포함하여 구성될 수 있다.In the present specification, content is a concept collectively referring to digital information or individual information elements composed of characters, codes, voices, sounds, images, videos, and the like. Such content may include, for example, data such as text, image, video, audio, link (eg, web link), or a combination of at least two of these data.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those skilled in the art to easily implement the present invention.

전체 시스템의 구성Composition of the whole system

도 1은 본 발명의 일 실시예에 따라 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an entire system for providing content according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 콘텐츠 제공 시스템(200) 및 적어도 하나의 디스플레이(300)를 포함하여 구성될 수 있다.As shown in FIG. 1, the entire system according to an embodiment of the present invention may include a communication network 100, a content providing system 200, and at least one display 300.

먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망, 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention may be configured regardless of a communication mode such as wired communication or wireless communication, and may be configured as a local area network (LAN) or a metropolitan area network (MAN). ), and a wide area network (WAN). Preferably, the communication network 100 referred to in this specification may be a known Internet or World Wide Web (WWW). However, the communication network 100 is not necessarily limited thereto, and may include a known wired/wireless data communication network, a known telephone network, or a known wired/wireless television communication network in at least part thereof.

예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 무선 주파수(RF; Radio Frequency) 통신, 와이파이(WiFi) 통신, 셀룰러(LTE 등) 통신, 블루투스 통신(더 구체적으로는, 저전력 블루투스(BLE; Bluetooth Low Energy) 통신), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the communication network 100 is a wireless data communication network, such as radio frequency (RF) communication, Wi-Fi communication, cellular (LTE, etc.) communication, Bluetooth communication (more specifically, low power Bluetooth (BLE; Bluetooth Low Energy) communication), infrared communication, ultrasonic communication, and the like may be implemented in at least part of a conventional communication method.

다음으로, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스일 수 있다. 예를 들어, 이러한 콘텐츠 제공 시스템(200)은 서버 시스템 또는 차량의 전자 제어 시스템(ECU; Electronic Control Unit)일 수 있다.Next, the content providing system 200 according to an embodiment of the present invention may be a digital device equipped with a memory means and equipped with a microprocessor to have computing power. For example, the content providing system 200 may be a server system or an electronic control system (ECU) of a vehicle.

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은 적어도 한 명의 차량 탑승자의 상황 정보 및 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하고, 차량의 적어도 하나의 디스플레이(300)를 통하여 투영되는 차량의 외부 실세계를 기반으로 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써, 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 기능을 수행할 수 있다.The content providing system 200 according to an embodiment of the present invention determines an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle, and displays at least one display of the vehicle. By matching the image sequence of the above virtual object based on the external real world of the vehicle projected through 300, a function of determining content to be provided to at least one vehicle occupant may be performed.

여기서, 본 발명의 일 실시예에 따른 가상 객체는 차량 내의 적어도 하나의 디스플레이 상에 구현될 수 있는 있는 모든 대상을 총칭하는 개념으로서, 예를 들어, 문자, 숫자, 기호, 심볼, 도형, 사진, 이미지, 소리, 동영상, 또는 이들의 조합으로 이루어질 수 있으며, 그에 부여될 수 있는 속성(attribute)(예를 들어, 밝기, 명도, 채도)까지도 포함하는 개념일 수 있다.Here, the virtual object according to an embodiment of the present invention is a concept that collectively refers to all objects that can be implemented on at least one display in a vehicle, for example, letters, numbers, symbols, symbols, figures, photos, It may be composed of images, sounds, moving pictures, or a combination thereof, and may be a concept including even attributes (eg, brightness, brightness, saturation) that may be assigned thereto.

본 발명에 따른 콘텐츠 제공 시스템(200)의 구성과 기능에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 콘텐츠 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 콘텐츠 제공 시스템(200)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 후술할 적어도 하나의 디스플레이(300) 또는 외부 시스템(미도시됨) 내에서 실현되거나 적어도 하나의 디스플레이(300) 또는 위의 외부 시스템 내에 포함될 수도 있음은 당업자에게 자명하다.The configuration and function of the content providing system 200 according to the present invention will be described in more detail below. Meanwhile, although the content providing system 200 has been described as above, this description is exemplary, and at least a part of the functions or components required for the content providing system 200 is at least one display 300 to be described later as needed. ) Or an external system (not shown), or may be included in at least one display 300 or an external system above.

다음으로, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 콘텐츠 제공 시스템(200)에 의해 결정되는 콘텐츠를 표시하는 기능을 수행할 수 있다.Next, at least one display 300 according to an embodiment of the present invention may perform a function of displaying content determined by the content providing system 200.

예를 들어, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 차량의 외부 실세계의 적어도 일부가 투영될 수 있는 투명(예를 들어, 5 내지 80%의 투명도) 또는 반투명 디스플레이를 포함할 수 있으며, 보다 구체적으로, 투명 또는 반투명 TFELD(Thin Film Electroluminescent Display), OLED, LCD, LED 등으로 구성되는 것일 수 있다.For example, the at least one display 300 according to an embodiment of the present invention includes a transparent (eg, 5 to 80% transparency) or translucent display on which at least a part of the external real world of the vehicle can be projected. It may be, and more specifically, may be composed of a transparent or translucent Thin Film Electroluminescent Display (TFELD), OLED, LCD, LED, and the like.

다른 예를 들어, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는 불투명 디스플레이 상에 차량의 외부 실세계에 관한 영상(예를 들어, 실시간 촬영 영상)을 디스플레이함으로써 차량의 외부 실세계를 투영하는 기능을 수행할 수도 있다.For another example, at least one display 300 according to an embodiment of the present invention projects an external real world of the vehicle by displaying an image (for example, a real-time photographed image) of the vehicle on an opaque display. It can also perform the function of doing.

또한, 차량 내에는 위와 같은 디스플레이(300)가 복수 개 배치될 수도 있으며, 예를 들어, 차량(또는 적어도 한 명의 차량 탑승자)을 기준으로 전후좌우 각각에 배치(즉, 적어도 4개의 디스플레이가 배치)될 수 있다. 또한, 이러한 디스플레이(300)는 종래의 차량 유리창(window)을 중심으로 추가 장착되거나 그 유리창을 대체하여 장착될 수 있다.In addition, a plurality of displays 300 as described above may be arranged in the vehicle, for example, arranged in front, rear, left, and right sides (ie, at least four displays are arranged) based on the vehicle (or at least one vehicle occupant). Can be. In addition, the display 300 may be additionally mounted around a conventional vehicle window or may be mounted in place of the window.

한편, 본 발명의 일 실시예에 따른 적어도 하나의 디스플레이(300)는, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스일 수 있으며, 본 발명에 따른 콘텐츠 결정 기능(또는 콘텐츠 제공 기능)을 지원하기 위한 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 콘텐츠 제공 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.On the other hand, at least one display 300 according to an embodiment of the present invention may be a digital device equipped with a memory means and equipped with a microprocessor to have computing power, and a content determination function (or content provision) according to the present invention. Function) may be included. Such an application may be downloaded from the content providing system 200 or an external application distribution server (not shown).

콘텐츠 제공 시스템의 구성Composition of content provision system

이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 콘텐츠 제공 시스템(200)의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the content providing system 200 that performs an important function for the implementation of the present invention and functions of each component will be described.

도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.2 is a diagram illustrating in detail the internal configuration of a content providing system 200 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220), 통신부(230) 및 제어부(240)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220), 통신부(230) 및 제어부(240)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 콘텐츠 제공 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 콘텐츠 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.As shown in FIG. 2, a virtual object sequence management unit 210, a content management unit 220, a communication unit 230, and a control unit 240 may be included. According to an embodiment of the present invention, the virtual object sequence management unit 210, the content management unit 220, the communication unit 230, and the control unit 240 may be program modules in which at least some of them communicate with an external system. Such a program module may be included in the content providing system 200 in the form of an operating system, an application program module, or other program module, and may be physically stored in various known storage devices. Further, such a program module may be stored in a remote storage device capable of communicating with the content providing system 200. Meanwhile, such a program module includes routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention, but is not limited thereto.

먼저, 본 발명의 일 실시예에 따른 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자의 상황 정보 및 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 기능을 수행할 수 있다. 본 발명의 일 실시예에 따른 차량 탑승자의 상황 정보는 차량 탑승자로부터 추론되는 상황(예를 들어, 차량 탑승자의 시선, 표정, 행위, 동작, 소리 등으로부터 추론되는 상황)을 나타내는 정보를 포함할 수 있다. 예를 들어, 차량 탑승자의 시선, 표정, 행위, 동작 등에 관한 정보와 동일하거나 유사한 정보에 매칭되는 사례를 사례 데이터베이스상에서 검색하거나, 차량 탑승자의 시선, 표정, 행위, 동작, 소리 등에 관하여 기계 학습(machine learning) 또는 딥 러닝(deep learning)을 통해 학습한 결과에 기초하여 대응되는 사례를 특정할 수 있으며, 그 특정되는 사례를 기준으로 위의 상황을 나타내는 정보가 특정될 수 있다. 또한, 본 발명의 일 실시예에 따른 차량의 주행 정보에는 차량의 출발지, 목적지, 현재 위치, 주행 속도, 주행 상태(예를 들어, 출발, 정지 등) 등에 관한 정보가 포함될 수 있다. 한편, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상을 기준으로 상황 정보 획득의 대상이 되는 적어도 한 명의 차량 탑승자를 특정(예를 들어, 시선, 표정 등의 움직임이 발생되는 차량 탑승자를 특정)하거나, 또는 차량 내에서 소정의 입력 행위(예를 들어, 디스플레이(300) 또는 별도의 외부 시스템을 터치 또는 조작하는 행위)를 하거나 소정의 모션(이러한 경우에, 모션은 소정의 무게 센서, 가속도계 센서 등에 의해 감지될 수 있음)을 취하는 차량 탑승자를 상황 정보 획득의 대상이 되는 적어도 한 명의 차량 탑승자로서 특정할 수 있다. 다만, 본 발명에 따른 위와 같은 특정 방식이 반드시 앞서 열거된 것에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있음을 밝혀 둔다.First, the virtual object sequence management unit 210 according to an embodiment of the present invention refers to at least one of situation information of at least one vehicle occupant and driving information of the vehicle to determine an image sequence for a virtual object. I can. The situation information of a vehicle occupant according to an embodiment of the present invention may include information indicating a situation inferred from the vehicle occupant (for example, a situation inferred from the vehicle occupant's gaze, facial expression, behavior, motion, sound, etc.) have. For example, search cases matching the same or similar information as information on the vehicle occupant's gaze, facial expression, behavior, motion, etc., on the case database, or machine learning about the vehicle occupant's gaze, facial expression, behavior, motion, sound, etc. A corresponding case may be specified based on a result of learning through machine learning) or deep learning, and information indicating the above situation may be specified based on the specified case. In addition, the driving information of the vehicle according to an embodiment of the present invention may include information about the vehicle's departure point, destination, current position, driving speed, driving state (eg, start, stop, etc.). On the other hand, the virtual object sequence management unit 210 specifies at least one vehicle occupant that is the object of obtaining context information based on the internal image of the vehicle (for example, specifies a vehicle occupant in which movement such as a gaze or facial expression occurs) Or, or perform a predetermined input action (for example, an action of touching or manipulating the display 300 or a separate external system) in the vehicle or a predetermined motion (in this case, the motion is a predetermined weight sensor, an accelerometer sensor) And the like) may be identified as at least one vehicle occupant who is a target of obtaining situation information. However, it should be noted that the above specific method according to the present invention is not necessarily limited to those listed above, and may be variously changed within the range capable of achieving the object of the present invention.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상에 기초하여 적어도 한 명의 차량 탑승자의 시선, 표정, 동작, 행위 및 소리 중 적어도 하나를 분석하여(또는 차량 내에서 차량 탑승자가 디스플레이(300)를 대상으로 소정의 입력을 행하는 행위를 분석하여) 해당 차량 탑승자의 감정(예를 들어, 기쁨(喜), 화남(怒), 슬픔(哀), 즐거움(樂) 등으로 분류될 수 있음)이나 그 주변 분위기를 해당 차량 탑승자의 상황 정보로서 특정하고, 그 상황 정보와 연관되는 가상 객체가 해당 감정 또는 해당 분위기에 대응되는 동작을 행하도록 하는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.For example, the virtual object sequence management unit 210 analyzes at least one of the gaze, facial expression, motion, behavior, and sound of at least one vehicle occupant based on the internal image of the vehicle (or the vehicle occupant displays ( 300) by analyzing the behavior of performing a predetermined input) can be classified into the feelings of the vehicle occupant (e.g., joy, anger, sadness, and pleasure) ) Or its surrounding atmosphere as situation information of the vehicle occupant, and causing the virtual object associated with the situation information to perform an action corresponding to the emotion or the corresponding atmosphere can be determined as an image sequence for the corresponding virtual object. .

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량 탑승자가 화가 난 감정 상태인 경우에, 뿔을 포함하는 악마(즉, 가상 객체 1)가 움직이면서 벼락(즉, 가상 객체 2)을 발생시키고 그 배경으로 비(즉, 가상 객체 3)가 내리는 것을 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.More specifically, when the vehicle occupant is in an angry emotional state, the virtual object sequence management unit 210 generates a thunderbolt (that is, virtual object 2) while a devil including a horn (ie, virtual object 1) moves, and the background It may be determined that rain (ie, virtual object 3) falls as an image sequence for the virtual object.

다른 예를 들어, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자에 의해 설정 또는 저작되는 소정의 가상 객체(예를 들어, 텍스트, 이미지 등)가 해당 차량의 주행 속도와 연동하여 움직이는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다. 한편, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자에게 위의 가상 객체의 설정 또는 저작을 위한 사용자 인터페이스를 더 제공할 수도 있다.For another example, the virtual object sequence management unit 210 corresponds to a movement of a predetermined virtual object (for example, text, image, etc.) set or created by at least one vehicle occupant in association with the driving speed of the vehicle. It can be determined as an image sequence for a virtual object. Meanwhile, the virtual object sequence management unit 210 may further provide a user interface for setting or authoring the above virtual object to at least one vehicle occupant.

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량 탑승자에 의해 토끼 이미지가 가상 객체로서 특정되는 경우에, 차량의 주행 속도에 맞추어 해당 차량을 따라 토끼가 뛰어오는 것을 해당 가상 객체에 관한 영상 시퀀스로서 결정할 수 있다.More specifically, when a rabbit image is specified as a virtual object by a vehicle occupant, the virtual object sequence management unit 210 determines that the rabbit jumps along the vehicle according to the driving speed of the vehicle as an image sequence related to the virtual object. You can decide.

또한, 가상 객체 시퀀스 관리부(210)는 차량 탑승자 각각에 대해 또는 차량 탑승자의 그룹(예를 들어, 차량 탑승자의 그룹 각각은 적어도 한 명의 탑승자로 구성될 수 있음) 각각에 대해 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.In addition, the virtual object sequence management unit 210 is an image sequence for a virtual object for each vehicle occupant or a group of vehicle occupants (for example, each group of vehicle occupants may consist of at least one occupant). Can be determined.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량 탑승자 각각에 대해 또는 적어도 둘 이상의 차량 탑승자로 구성되는 그룹 각각에 대해 위의 상황 정보를 특정하고, 각각의 상황 정보를 참조하여 가상 객체에 관한 영상 시퀀스를 각각 결정할 수 있다.For example, the virtual object sequence management unit 210 specifies the above situation information for each vehicle occupant or for each group consisting of at least two vehicle occupants, and refers to each situation information to an image of the virtual object. Each sequence can be determined.

또한, 가상 객체 시퀀스 관리부(210)는 차량 내에서 차량 탑승자가 착석하고 있는 좌석 각각에 대해 또는 좌석의 그룹(예를 들어, 좌석의 그룹 각각은 적어도 하나의 좌석으로 구성될 수 있음) 각각에 대해 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다.In addition, the virtual object sequence management unit 210 is configured for each seat in the vehicle in which the vehicle occupant is seated or a group of seats (for example, each group of seats may consist of at least one seat). It is also possible to determine an image sequence for a virtual object.

예를 들어, 가상 객체 시퀀스 관리부(210)는, 차량 내 좌석이 2행 2열(즉, 4인석)의 배열로 구성되는 경우에, 좌석 중 차량의 좌측을 공유하는 1행 1열 및 2행 1열에 대응되는 가상 객체에 관한 영상 시퀀스와 차량의 우측을 공유하는 1행 2열 및 2행 2열에 대응하는 가상 객체에 관한 영상 시퀀스를 각각 결정할 수 있다.For example, the virtual object sequence management unit 210, when the seats in the vehicle are configured in an arrangement of 2 rows and 2 rows (ie, 4 seats), among the seats, the 1 row 1 row and 2 rows sharing the left side of the vehicle An image sequence for a virtual object corresponding to column 1 and an image sequence for a virtual object corresponding to column 1 and column 2 and column 2 and column 2 sharing the right side of the vehicle may be determined, respectively.

또한, 가상 객체 시퀀스 관리부(210)는 적어도 한 명의 차량 탑승자의 시점(view point), 차량의 좌석 위치에 따른 시점 및 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.In addition, the virtual object sequence management unit 210 refers to at least one of a view point of at least one vehicle occupant, a view point according to the seat position of the vehicle, and a view point according to the in-vehicle position of at least one display. It is possible to determine an image sequence related to.

예를 들어, 가상 객체 시퀀스 관리부(210)는, 차량 내 좌석이 2행 2열(즉, 4인석)의 배열로 구성되는 경우에, 좌석 중 차량의 좌측을 공유하는 1행 1열 및 2행 1열에 대하여, 1행 1열의 차량 탑승자의 시점 및 2행 1열의 차량 탑승자의 시점, 차량의 좌석 위치에 따른 시점, 또는 디스플레이의 차량 내 위치에 따른 시점에 따라, 동일한 가상 객체라도 가상 객체의 원근, 방향 등을 고려하여 가상 객체의 크기, 형상 및 방향이 다르게 특정되도록 함으로써 그 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.For example, the virtual object sequence management unit 210, when the seats in the vehicle are configured in an arrangement of 2 rows and 2 rows (ie, 4 seats), among the seats, the 1 row 1 row and 2 rows sharing the left side of the vehicle For column 1, depending on the viewpoint of the vehicle occupant in the first row and the first column, the viewpoint of the vehicle occupant in the second row and the first column, the viewpoint according to the seat position of the vehicle, or the viewpoint according to the in-vehicle position of the display, even the same virtual object By making the size, shape, and direction of the virtual object differently specified in consideration of the direction, etc., an image sequence for the virtual object may be determined.

또한, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보를 더 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다.In addition, the virtual object sequence management unit 210 may determine an image sequence for the virtual object by further referring to information on a real-world object specified from an external image of the vehicle.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상으로부터 해당 차량의 주변에 존재하는 적어도 하나의 실세계 객체를 특정하고, 그 특정되는 적어도 하나의 실세계 객체와 연관되는 가상 객체를 이용하여 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.For example, the virtual object sequence management unit 210 specifies at least one real-world object existing around the vehicle from an external image of the vehicle, and uses a virtual object associated with the specified at least one real-world object. The image sequence for the virtual object of may be determined.

보다 구체적으로, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상에 기초하여 해당 차량의 주변에 존재하는 실세계 객체가 참새인 것으로 특정한 경우에, 그 참새와 연관되는 논 또는 밭 이미지가 해당 차량의 주행 속도(즉, 위의 주행 정보)에 맞추어 해당 차량의 주변에 넓게 펼쳐지는 것으로 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다. 또한, 가상 객체 시퀀스 관리부(210)는 차량의 외부 영상에 기초하여 해당 차량의 주변에 존재하는 실세계 객체가 상점인 것으로 특정한 경우에, 그 상점의 운영 시간, 판매 물품 등과 같은 해당 상점과 연관된 정보가 담긴 인포메이션 박스(즉, 가상 객체)가 소정 시간 동안 표시되는 것으로 위의 가상 객체에 관한 영상 시퀀스를 결정할 수 있다.More specifically, when the virtual object sequence management unit 210 specifies that the real-world object existing around the vehicle is a sparrow based on the external image of the vehicle, the image of the paddy field or field associated with the sparrow is driven by the vehicle. According to the speed (that is, the above driving information), the image sequence of the above virtual object can be determined by spreading widely around the vehicle. In addition, the virtual object sequence management unit 210 determines that the real-world object existing around the vehicle is a store based on the external image of the vehicle, and the information related to the store such as the operating time of the store and sales items is stored. As the contained information box (ie, the virtual object) is displayed for a predetermined time, an image sequence of the above virtual object may be determined.

한편, 가상 객체 시퀀스 관리부(210)는 차량 탑승자의 개인 정보를 더 참조하여 가상 객체에 관한 영상 시퀀스를 결정할 수도 있다. 본 발명의 일 실시예에 따른 차량 탑승자의 개인 정보에는, 차량 탑승자의 연령, 성별, 인종, 지역, 선호 가상 객체, 선호 가상 객체 시퀀스, 관심사 등에 관한 정보가 포함될 수 있다.Meanwhile, the virtual object sequence management unit 210 may determine an image sequence for the virtual object by further referring to personal information of the vehicle occupant. The personal information of a vehicle occupant according to an embodiment of the present invention may include information about the age, sex, race, region, preferred virtual object, preferred virtual object sequence, interest, and the like of the vehicle occupant.

예를 들어, 가상 객체 시퀀스 관리부(210)는 차량의 내부 영상에서 차량 탑승자의 얼굴을 기반으로 차량 탑승자의 신원을 특정하고, 그 특정되는 신원에 따라 해당 차량 탑승자가 선호하는 가상 객체 및 그 가상 객체에 관한 영상 시퀀스를 결정할 수 있다. 즉, 차량 탑승자의 개인 정보를 기반으로 가상 객체 또는 그 가상 객체에 관한 영상 시퀀스가 서로 다르게 개별 맞춤화되어 결정될 수 있다.For example, the virtual object sequence management unit 210 specifies the identity of the vehicle occupant based on the face of the vehicle occupant in the internal image of the vehicle, and the virtual object and the virtual object preferred by the vehicle occupant according to the specified identity. An image sequence for can be determined. That is, a virtual object or an image sequence related to the virtual object may be individually customized and determined based on personal information of the vehicle occupant.

다음으로, 본 발명의 일 실시예에 따른 콘텐츠 관리부(220)는 차량의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계를 기반으로 가상 객체 시퀀스 관리부(210)에 의해 결정되는 가상 객체에 관한 영상 시퀀스를 정합함으로써, 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 기능을 수행할 수 있다.Next, the content management unit 220 according to an embodiment of the present invention is an image of a virtual object determined by the virtual object sequence management unit 210 based on the external real world of the vehicle projected through at least one display of the vehicle. By matching the sequences, it is possible to perform a function of determining content to be provided to at least one vehicle occupant.

예를 들어, 콘텐츠 관리부(220)는 차량의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계의 객체에 관한 속성(예를 들어, 객체의 유형(예를 들어, 사람, 동물, 식물 등), 객체의 위치, 객체의 형상, 객체의 형태 등)을 참조하여, 위의 결정되는 가상 객체에 관한 영상 시퀀스가 그 속성에 따라 매칭되도록 함으로써 생성되는 증강 현실 콘텐츠(AR; Augmented Reality)를 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠로서 결정할 수 있다.For example, the content management unit 220 may include properties (eg, types of objects (eg, people, animals, plants, etc.)) of the external real-world object of the vehicle projected through at least one display of the vehicle, By referring to the location of the object, the shape of the object, the shape of the object, etc.), at least one augmented reality content (AR) generated by matching the image sequence of the virtual object determined above according to its properties It can be determined as content to be provided to vehicle occupants.

보다 구체적으로, 콘텐츠 관리부(220)는 SLAM(Simultaneous Localization And Mapping) 기술에 기초하여 위의 적어도 하나의 디스플레이를 통하여 투영되는 차량의 외부 실세계의 좌표(구체적으로는 외부 실세계의 적어도 하나의 객체의 좌표)를 추적하고 3차원 매핑(3D Mapping) 좌표를 추출할 수 있으며, 그 추적된 좌표 및 추출된 3차원 매핑 좌표에 관한 정보를 참조하여 위의 가상 객체에 관한 영상 시퀀스에 따라 움직이는 가상 객체가 위의 적어도 하나의 디스플레이 상에서 표시될 좌표를 결정할 수 있고, 위의 표시될 좌표 상에 위의 가상 객체를 표시하여 그에 관한 영상 시퀀스에 따라 움직이도록 함으로써, 위의 차량의 외부 실세계를 기반으로 하는 증강 현실 콘텐츠를 생성할 수 있다.More specifically, the content management unit 220 is based on the SLAM (Simultaneous Localization And Mapping) technology, the coordinates of the external real world of the vehicle projected through the at least one display above (specifically, the coordinates of at least one object of the external real world) ) Can be tracked and 3D Mapping coordinates can be extracted, and a virtual object moving according to the image sequence of the above virtual object can be moved by referring to the information about the tracked coordinates and the extracted 3D mapping coordinates. Augmented reality based on the real world outside of the vehicle above by determining the coordinates to be displayed on at least one display of and displaying the virtual object on the coordinates to be displayed above and moving according to the image sequence You can create content.

다만, 본 발명의 일 실시예에 따른 콘텐츠의 유형이 반드시 상기 증강 현실 콘텐츠에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 가상 현실(Virtual Reality; VR) 콘텐츠, 혼합 현실(Mixed Reality; MR) 콘텐츠 등으로 얼마든지 변경될 수 있음을 밝혀 둔다.However, the type of content according to an embodiment of the present invention is not necessarily limited to the augmented reality content, and within a range that can achieve the object of the present invention, virtual reality (VR) content, mixed reality ( Mixed Reality (MR) content, etc.

또한, 콘텐츠 관리부(220)는 차량 내의 복수의 디스플레이 중 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 해당 콘텐츠가 제공되도록 할 수 있다.In addition, the content management unit 220 may provide the corresponding content based on a display associated with at least one vehicle occupant among a plurality of displays in the vehicle.

예를 들어, 콘텐츠 관리부(220)는, 차량 내의 복수의 디스플레이 중 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 하여 차량의 외부 실세계를 기반으로 해당 차량 탑승자에 대응되는 가상 객체에 관한 영상 시퀀스를 정합함으로써 해당 차량 탑승자에게 제공될 콘텐츠를 결정할 수 있다.For example, the content management unit 220 may generate an image sequence for a virtual object corresponding to the vehicle occupant based on the external real world of the vehicle based on the display corresponding to the respective gaze of the vehicle occupant among a plurality of displays in the vehicle. By matching, content to be provided to the vehicle occupant can be determined.

또한, 콘텐츠 관리부(240)는 위의 결정되는 콘텐츠가 저장 또는 공유되도록 하는 기능을 수행할 수 있다.In addition, the content management unit 240 may perform a function of storing or sharing the determined content.

예를 들어, 콘텐츠 관리부(240)는 위의 결정되는 콘텐츠가 차량 탑승자와 연관되는 디바이스(예를 들어, 차량 탑승자의 스마트폰, 클라우드 등) 내에 저장되도록 하거나, 차량 탑승자와 연관되는 소셜 네트워크 서비스(SNS), 클라우드, 웹 서버(web server) 등을 통해 다른 차량 탑승자와 공유(예를 들어, 실시간 공유)되도록 할 수 있다.For example, the content management unit 240 allows the above-determined content to be stored in a device associated with a vehicle occupant (eg, a vehicle occupant's smartphone, cloud, etc.), or a social network service associated with a vehicle occupant ( SNS), cloud, web server, etc., can be shared with other vehicle occupants (for example, real-time sharing).

다른 예를 들어, 콘텐츠 관리부(220)는 위의 결정되는 콘텐츠와 연관되는 지리학적(geographical) 위치를 기준으로 하여 해당 콘텐츠가 공유되도록 할 수 있다.For another example, the content management unit 220 may allow the corresponding content to be shared based on a geographic location associated with the determined content.

보다 구체적으로, 콘텐츠 관리부(220)는 제1 차량에서 제공되는 제1 콘텐츠가 그 제1 콘텐츠와 연관되는 GPS 좌표 위치를 기준으로 다른 차량의 차량 탑승자와 공유되도록 할 수 있다. 예를 들어, 콘텐츠 관리부(220)는 제2 차량의 차량 탑승자(즉, 다른 차량의 차량 탑승자)에 의해 위의 GPS 좌표 위치와 연관되는 위치가 특정 또는 선택되면, 위의 제1 콘텐츠가 위의 제2 차량(또는 그 제2 차량의 차량 탑승자)에게 공유되도록 할 수 있다.More specifically, the content management unit 220 may allow the first content provided from the first vehicle to be shared with a vehicle occupant of another vehicle based on a GPS coordinate position associated with the first content. For example, when a location associated with the GPS coordinate location above is specified or selected by a vehicle occupant of a second vehicle (ie, a vehicle occupant of another vehicle), the above first content is It can be shared with a second vehicle (or a vehicle occupant of the second vehicle).

한편, 콘텐츠 관리부(220)는 위의 제2 차량의 차량 탑승자에 의해 공유되는 제1 콘텐츠에 대해 추가적으로 콘텐츠의 저작(예를 들어, 추가, 삭제, 변경 등)이 이루어지는 경우에, 그 제1 콘텐츠와 연관되는 GPS 좌표를 기준으로 그 추가 저작된 콘텐츠 또는 그 추가 저작된 콘텐츠가 반영된 제1 콘텐츠가 다른 차량의 차량 탑승자와 더 공유되도록 할 수 있다.On the other hand, when the content management unit 220 additionally creates content (eg, addition, deletion, change, etc.) for the first content shared by the vehicle occupant of the second vehicle, the first content The additional authored content or the first content reflecting the additional authored content may be further shared with vehicle occupants of other vehicles based on the GPS coordinates associated with the.

또한, 콘텐츠 관리부(220)는 위의 공유되는 콘텐츠에 대하여 부여되는 공유 제한 조건을 참조하여 그 제한 조건을 만족하는 차량 또는 차량 탑승자에게 해당 콘텐츠가 공유되도록 할 수도 있다.In addition, the content management unit 220 may refer to a sharing restriction condition imposed on the above shared content so that the content is shared with a vehicle or vehicle occupant that satisfies the restriction condition.

예를 들어, 콘텐츠 관리부(220)는, 특정 차량(또는 특정 차량 탑승자)에게만 콘텐츠가 공유되도록 하는 공유 제한 조건이 부여되는 경우에, 그 제한 조건을 만족시키는 특정 차량(또는 특정 차량 탑승자)에게만 해당 콘텐츠가 공유되도록 할 수 있다.For example, if the content management unit 220 is given a sharing restriction condition that allows content to be shared only to a specific vehicle (or a specific vehicle occupant), the content management unit 220 applies only to a specific vehicle (or a specific vehicle occupant) that satisfies the restriction condition. Content can be shared.

다음으로, 본 발명의 일 실시예에 따른 통신부(230)는 가상 객체 시퀀스 관리부(210) 및 콘텐츠 관리부(220)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the communication unit 230 according to an embodiment of the present invention may perform a function of enabling data transmission and reception from/to the virtual object sequence management unit 210 and the content management unit 220.

마지막으로, 본 발명의 일 실시예에 따른 제어부(240)는 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220) 및 통신부(230) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(240)는 콘텐츠 제공 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 콘텐츠 제공 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 가상 객체 시퀀스 관리부(210), 콘텐츠 관리부(220) 및 통신부(230)에서 각각 고유 기능을 수행하도록 제어할 수 있다.Finally, the control unit 240 according to an embodiment of the present invention may perform a function of controlling the flow of data between the virtual object sequence management unit 210, the content management unit 220, and the communication unit 230. That is, the control unit 240 according to the present invention controls the data flow from/to the outside of the content providing system 200 or the data flow between each component of the content providing system 200, so that the virtual object sequence management unit 210 , The content management unit 220 and the communication unit 230 may control each to perform a unique function.

이하에서는, 도 3 내지 도 8을 참조하여 본 발명의 일 실시예에 따라 콘텐츠가 제공되는 예시적인 상황을 살펴보기로 한다.Hereinafter, an exemplary situation in which content is provided according to an embodiment of the present invention will be described with reference to FIGS. 3 to 8.

제1 실시예Embodiment 1

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 차량의 전자 제어 시스템(ECU)에 포함되는 상황을 가정해 볼 수 있다.It can be assumed that the content providing system 200 according to an embodiment of the present invention is included in the electronic control system (ECU) of a vehicle.

도 3을 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 차량 탑승자(510)(또는 차량 주행 중에 디스플레이(300a)를 대상으로 소정의 입력 행위를 수행한 차량 탑승자(510))의 시선, 표정, 동작 및 소리를 분석함으로써 차량 탑승자(510)가 차량 외부를 바라보면서 조용히 생각에 잠겨있고, 차량의 외부 영상으로부터 차량 주변에 넓은 갈대밭(320)이 펼쳐지는 것으로 특정되는 경우에, 차량 탑승자(510)가 생각에 잠겨 있는 상황 및 외부 실세계의 객체인 갈대밭(320)과 연관되는 복수의 기러기(310)가 가상 객체로서 결정되고, 복수의 기러기(310)가 차량의 주행 속도에 맞추어 차량 측면을 따라 날아가는 것으로 가상 객체에 관한 영상 시퀀스가 결정될 수 있다.Referring to FIG. 3, first, the gaze of the vehicle occupant 510 specified from the internal image of the vehicle while driving the vehicle (or the vehicle occupant 510 performing a predetermined input action targeting the display 300a while driving the vehicle) , When the vehicle occupant 510 is quietly locked in thought while looking at the outside of the vehicle by analyzing facial expressions, motions and sounds, and when it is specified that a wide reed field 320 is spread around the vehicle from the external image of the vehicle, the vehicle A situation in which the occupant 510 is immersed in thought and a plurality of geese 310 associated with the reed field 320, which is an object of the external real world, are determined as virtual objects, and the plurality of geese 310 are matched to the driving speed of the vehicle. An image sequence of the virtual object may be determined by flying along the side of the vehicle.

그 다음에, 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량의 외부 실세계인 갈대밭(320)을 배경으로 하여 복수의 기러기(310)가 차량의 주행 속도에 맞추어 차량 측면을 따라 날아가는 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 위의 차량 탑승자에게 제공될 콘텐츠로서 결정될 수 있다.Then, the sequence of the plurality of geese 310 flying along the side of the vehicle in accordance with the driving speed of the vehicle is matched with the background of the reed field 320, which is the external real world of the vehicle projected through the vehicle's transparent display 300a. Thus, the augmented reality content generated may be determined as the content to be provided to the vehicle occupant.

그 다음에, 위의 결정되는 콘텐츠가 차량의 투명 디스플레이(300a) 상에 표시되어 차량 탑승자(510)에게 제공될 수 있다.Then, the above-determined content may be displayed on the vehicle's transparent display 300a and provided to the vehicle occupant 510.

한편, 본 발명의 일 실시예에 따라 차량의 1행 2열(즉, 조수석)에 제1 차량 탑승자(510)가 위치하고(도 3 참조), 차량의 2행 2열(즉, 조수석의 뒷좌석)에 제2 차량 탑승자(520)가 위치하는 경우에(도 4 참조), 차량 탑승자의 각각의 시점(즉, 제1 차량 탑승자(510) 및 제2 차량 탑승자(520) 각각의 시점) 또는 디스플레이의 차량 내 위치에 따른 시점에 따라 위의 가상 객체에 관한 영상 시퀀스(예를 들어, 복수의 기러기(310)의 형상 및 크기를 고려한 가상 객체에 관한 영상 시퀀스)가 결정될 수 있다.Meanwhile, according to an embodiment of the present invention, the first vehicle occupant 510 is located in the first row and the second row (ie, the passenger seat) of the vehicle (see FIG. 3), and the second row and the second row of the vehicle (ie, the rear seat of the passenger seat) In the case where the second vehicle occupant 520 is located (see FIG. 4), the respective viewpoints of the vehicle occupants (that is, the respective viewpoints of the first vehicle occupant 510 and the second vehicle occupant 520) or the display An image sequence related to the above virtual object (eg, an image sequence related to the virtual object considering the shape and size of the plurality of geese 310) may be determined according to a viewpoint according to a position in the vehicle.

예를 들어, 차량의 우측면(즉, 2열)을 기준으로 제1 차량 탑승자(510)의 시점(또는 시선)이 제2 차량 탑승자(520)의 시점(또는 시선)보다 더 좌측에 존재하게 되므로(또는 차량의 우측면(즉, 2열)을 기준으로 제1 차량 탑승자(510)와 연관되는 투명 디스플레이(300a)가 제2 차량 탑승자(520)와 연관되는 투명 디스플레이(300b)보다 더 좌측에 존재하게 되므로), 제1 차량 탑승자(510)에 대해 복수의 기러기(310)(구체적으로, 복수의 기러기(310)의 측면 형상)가 해당 탑승자의 정면에서 날아가고 있는 것으로 가상 객체에 관한 영상 시퀀스(또는 콘텐츠)가 결정되는 경우에, 제2 차량 탑승자(510)에 대해서는 복수의 기러기(310)(구체적으로, 복수의 기러기(310)의 위의 측면 형상보다 원근 효과로 인해 더 작아진 측후면 형상)가 제1 차량 탑승자(510)에 비해서 좌측에서 날아가고 있는 것으로 가상 객체에 관한 영상 시퀀스(또는 콘텐츠)가 결정될 수 있다. 또한, 제1 차량 탑승자(510)와 연관되는 투명 디스플레이(300a)를 통하여 투영되는 갈대밭(320)을 배경으로 하여 제1 차량 탑승자(510)에 대하여 결정되는 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 제1 차량 탑승자(510)에게 제공되고, 제2 차량 탑승자(520)와 연관되는 투명 디스플레이(300b)를 통하여 투영되는 갈대밭(320)을 배경으로 하여 제2 차량 탑승자(520)에 대하여 결정되는 위의 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 제2 차량 탑승자(520)에게 제공될 수 있다.For example, since the viewpoint (or line of sight) of the first vehicle occupant 510 based on the right side of the vehicle (that is, the second row) is more left than the viewpoint (or line of sight) of the second vehicle occupant 520 (Or the transparent display 300a associated with the first vehicle occupant 510 based on the right side of the vehicle (i.e., second row) is present further to the left than the transparent display 300b associated with the second vehicle occupant 520 Therefore, a sequence of images about a virtual object (or a plurality of geese 310 (specifically, a side shape of the plurality of geese 310) is flying from the front of the passenger for the first vehicle occupant 510 (or Content) is determined, for the second vehicle occupant 510, a plurality of geese 310 (specifically, a side-rear shape smaller due to a perspective effect than an upper side shape of the plurality of geese 310) As compared to the first vehicle occupant 510, the image sequence (or content) of the virtual object may be determined as flying from the left. In addition, an image sequence regarding the above virtual object determined for the first vehicle occupant 510 is displayed with the reed field 320 projected through the transparent display 300a associated with the first vehicle occupant 510 as a background. Augmented reality content generated by matching is provided to the first vehicle occupant 510, and the second vehicle with the reed field 320 projected through the transparent display 300b associated with the second vehicle occupant 520 as a background. Augmented reality content generated by matching the image sequence of the above virtual object determined for the occupant 520 may be provided to the second vehicle occupant 520.

제2 실시예Embodiment 2

본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 차량의 전자 제어 시스템(ECU)에 포함되는 상황을 가정해 볼 수 있다.It can be assumed that the content providing system 200 according to an embodiment of the present invention is included in the electronic control system (ECU) of a vehicle.

도 5를 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 차량 탑승자(510)(또는 차량 주행 중에 디스플레이(300a)를 대상으로 소정의 입력 행위를 수행한 차량 탑승자(510))의 시선, 표정, 동작 및 소리를 분석함으로써 차량 탑승자(510)가 차량 외부를 바라보면서 눈이 많이 와서 도로가 미끄러워질 것을 걱정하고 있는 상황이 특정될 수 있고, 차량 탑승자(510)에 의해 저작되는 미끄럼 경고 표시 이미지(550)가 가상 객체로서 특정되면, 그 특정되는 미끄럼 경고 표시 이미지(550)가 차량의 주행 속도에 따라 점멸하는 것으로 가상 객체에 관한 영상 시퀀스가 결정될 수 있다.Referring to FIG. 5, first, the gaze of the vehicle occupant 510 specified from the internal image of the vehicle while driving the vehicle (or the vehicle occupant 510 performing a predetermined input action targeting the display 300a while driving the vehicle) , By analyzing facial expressions, motions, and sounds, a situation in which the vehicle occupant 510 is concerned that the road becomes slippery due to snowy while looking outside the vehicle can be specified, and a slip warning written by the vehicle occupant 510 When the display image 550 is specified as a virtual object, an image sequence relating to the virtual object may be determined as the specified slip warning display image 550 flashes according to the driving speed of the vehicle.

그 다음에, 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량 외부의 설경(雪景)을 기반으로 미끄럼 경고 표시 이미지(550)가 차량의 주행 속도에 따라 점멸하는 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 해당 차량 탑승자(510)에게 제공될 콘텐츠로서 결정될 수 있다.Next, the augmented reality generated by matching the image sequence in which the slip warning display image 550 flashes according to the driving speed of the vehicle based on the snow scene outside the vehicle projected through the vehicle's transparent display 300a. The content may be determined as content to be provided to the vehicle occupant 510.

한편, 위의 결정된 콘텐츠가 다른 차량(또는 다른 차량의 차량 탑승자)과 공유될 수 있다.Meanwhile, the above-determined content may be shared with another vehicle (or a vehicle occupant of another vehicle).

도 6을 참조하면, 위의 결정된 콘텐츠가 그와 연관되는 지리학적 위치(예를 들어, 해당 도로의 GPS 좌표)를 기준으로 다른 차량의 차량 탑승자와 공유될 수 있고, 다른 차량의 차량 탑승자에 의해 그 지리학적 위치와 연관되는 위치(610)가 특정 또는 선택되면, 위의 결정된 콘텐츠가 다른 차량에게 공유될 수 있다.Referring to FIG. 6, the content determined above may be shared with a vehicle occupant of another vehicle based on a geographic location associated therewith (eg, GPS coordinates of a corresponding road), and by the vehicle occupant of another vehicle. When the location 610 associated with the geographic location is specified or selected, the above-determined content may be shared with other vehicles.

예를 들어, 위와 같이 공유되는 콘텐츠 내에 "눈이 많이 와서 미끄러우니 조심하세요."라는 텍스트가 가상 객체로서 포함되어 있고, 그 공유되는 콘텐츠와 연관되는 지리학적 위치를 기준으로 해당 콘텐츠가 다른 차량의 차량 탑승자에게 공유될 수 있다. 그 다음에, 해당 콘텐츠를 공유하는 다른 차량의 차량 탑승자가 해당 콘텐츠에 대해 "이제는 괜찮네요."라는 텍스트를 가상 객체로서 추가 저작하여 재공유하는 경우에, 위의 지리학적 위치를 기준으로 그 추가 저작된 가상 객체(즉, 텍스트)(또는 위의 공유되는 콘텐츠에 대해 위의 추가 저작된 가상 객체가 반영된 콘텐츠)가 공유될 수 있다.For example, the text "Be careful because it snows a lot and is slippery" is included as a virtual object in the shared content as above, and the content is a different vehicle based on the geographical location associated with the shared content. It can be shared with vehicle occupants. Then, when the vehicle occupant of another vehicle sharing the content additionally authors and re-shares the text "Now it's okay" for the content as a virtual object, the additional authoring based on the above geographic location The created virtual object (ie, text) (or the content in which the additionally authored virtual object is reflected in the above shared content) may be shared.

제3 실시예Embodiment 3

도 7을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)이 외부 서버(미도시됨)에 포함되는 상황을 가정해 볼 수 있다. 구체적으로, 차량 내의 적어도 하나의 디스플레이(미도시됨)를 제어하는 전자 제어 시스템(ECU)(미도시됨)과 무선 통신(예를 들어, 와이파이(WiFi), 블루투스(Bluetooth) 등) 등으로 연결되는 위의 외부 서버를 통해 차량 탑승자에게 콘텐츠가 제공되는 상황일 수 있다.Referring to FIG. 7, it can be assumed that a content providing system 200 according to an embodiment of the present invention is included in an external server (not shown). Specifically, connection with an electronic control system (ECU) (not shown) that controls at least one display (not shown) in the vehicle and wireless communication (for example, WiFi, Bluetooth, etc.) It may be a situation in which content is provided to a vehicle occupant through the external server above.

도 7을 참조하면, 먼저, 차량 주행 중에 차량의 내부 영상으로부터 특정되는 복수의 차량 탑승자(또는 차량 주행 중에 디스플레이를 대상으로 소정의 입력 행위를 수행한 복수의 차량 탑승자)의 시선, 표정, 동작 및 소리를 분석함으로써, 제1 차량 탑승자(710)와 제2 차량 탑승자(720)가 서로 다투어 제2 차량 탑승자(720)가 화가 나 있는 상황이고, 제3 차량 탑승자(730)가 창 밖을 바라보면서 웃고 있는 상황이 특정되는 경우에, 제1 차량 탑승자(710) 및 제2 차량 탑승자(720)에 대응하여 두 악마 이미지가 가상 객체로서 특정되고, 그 두 악마가 서로 싸우는 것이 해당 가상 객체에 관한 영상 시퀀스로서 결정될 수 있으며, 제3 차량 탑승자(730)에 대응하여서는 천사가 가상 객체로서 결정되고, 그 천사가 차량 주행 속도에 맞추어 차량을 따라가면서 특정 곡을 연주하는 것이 해당 가상 객체에 관한 영상 시퀀스로서 결정될 수 있다.Referring to FIG. 7, first, the gazes, facial expressions, motions, and eyes of a plurality of vehicle occupants (or a plurality of vehicle occupants who have performed a predetermined input action on the display while driving the vehicle) specified from the internal image of the vehicle while driving the vehicle By analyzing the sound, the first vehicle occupant 710 and the second vehicle occupant 720 quarrel with each other, and the second vehicle occupant 720 is angry, and the third vehicle occupant 730 is looking out the window. When the laughing situation is specified, in response to the first vehicle occupant 710 and the second vehicle occupant 720, two demon images are specified as virtual objects, and the two demons fighting each other is an image of the corresponding virtual object. It may be determined as a sequence, and in response to the third vehicle occupant 730, an angel is determined as a virtual object, and the angel follows the vehicle according to the vehicle driving speed and plays a specific song as an image sequence related to the virtual object. Can be determined.

그 다음에, 제1 차량 탑승자(710) 및 제2 차량 탑승자의 시선(701, 702)에 대응되는 차량의 투명 디스플레이(300a)를 통하여 투영되는 차량의 주행 도로를 배경으로 위의 결정되는 가상 객체에 관한 영상 시퀀스(즉, 두 악마가 서로 싸우는 것에 관한 영상 시퀀스)를 정합함으로써, 제1 차량 탑승자(710) 및 제2 차량 탑승자에게 제공될 콘텐츠가 결정될 수 있고, 제3 차량 탑승자(730)의 시선(703)에 대응되는 차량의 투명 디스플레이(300b)를 통하여 투영되는 차량의 주행 도로를 배경으로 위의 결정되는 가상 객체에 관한 영상 시퀀스(즉, 천사가 차량 주행 속도에 맞추어 차량을 따라가면서 특정 곡을 연주하는 것에 관한 영상 시퀀스)를 정합함으로써, 제3 차량 탑승자(730)에게 제공될 콘텐츠가 결정될 수 있다.Next, a virtual object determined on the background of the driving road of the vehicle projected through the transparent display 300a of the vehicle corresponding to the eyes of the first vehicle occupant 710 and the second vehicle occupant 701 and 702 By matching the image sequence related to (that is, the image sequence about two demons fighting each other), the content to be provided to the first vehicle occupant 710 and the second vehicle occupant can be determined, and the third vehicle occupant 730 An image sequence about the virtual object determined above with the background of the vehicle's driving road projected through the vehicle's transparent display 300b corresponding to the line of sight 703 (that is, an angel follows the vehicle according to the vehicle driving speed, The content to be provided to the third vehicle occupant 730 may be determined by matching an image sequence related to playing a song).

제4 실시예Embodiment 4

도 8을 참조하면, 차량의 복수의 디스플레이(300d, 300e, 300f) 상에서 콘텐츠가 제공되는 상황을 가정해 볼 수 있다.Referring to FIG. 8, a situation in which content is provided on a plurality of displays 300d, 300e, and 300f of a vehicle can be assumed.

예를 들어, 오리(즉, 가상 객체)(810)가 헤엄치고 있는 것이 가상 객체에 관한 영상 시퀀스로서 결정되고, 차량의 외부 실세계를 배경으로 하여 그 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 차량 탑승자(미도시됨)에게 제공될 콘텐츠로 결정되는 경우에, 복수의 디스플레이 각각(300d, 300e, 300f)에서는 각 차량 탑승자가 바라보는 시점(801, 802, 803)에 따라 오리(810)의 크기, 형상 및 형태 중 적어도 하나가 달라질 수 있다.For example, what the duck (i.e., virtual object) 810 is swimming is determined as an image sequence related to the virtual object, and augmentation generated by matching the image sequence related to the virtual object with the real world outside of the vehicle as a background When the actual content is determined as the content to be provided to the vehicle occupant (not shown), in each of the plurality of displays (300d, 300e, 300f), the duck (in accordance with the viewpoints 801, 802, 803) viewed by each vehicle occupant At least one of the size, shape, and shape of the 810) may vary.

제5 실시예Embodiment 5

본 발명의 일 실시예에 따르면, 차량의 복수의 디스플레이 상에서 콘텐츠가 제공되는 다른 상황을 가정해 볼 수 있다.According to an embodiment of the present invention, another situation in which content is provided on a plurality of displays of a vehicle may be assumed.

예를 들어, 도 8을 참조하면, 오리(즉, 가상 객체)(810)가 헤엄치고 있는 것이 가상 객체에 관한 영상 시퀀스로서 결정되고, 차량의 외부 실세계를 배경으로 하여 그 가상 객체에 관한 영상 시퀀스를 정합함으로써 생성되는 증강 현실 콘텐츠가 차량 탑승자에게 제공될 콘텐츠로 결정되는 경우에, 차량의 전후좌우의 모든 디스플레이에서 하나의 콘텐츠가 각 디스플레이의 차량 내 위치에 부합되는 시점을 기준으로 동기화되어 제공될 수 있고(예를 들어, 차량의 전면 및 좌측면의 디스플레이에서 오리(810)가 나타나고 차량의 우측면 및 후면의 디스플레이에서는 오리(810)가 나타나지 않게 됨), 이를 통해 차량 탑승자에게 마치 특정 공간에 들어와 있는 것과 같은 사용자 경험을 제공할 수 있게 된다.For example, referring to FIG. 8, what a duck (that is, a virtual object) 810 is swimming is determined as an image sequence related to a virtual object, and an image sequence related to the virtual object based on the external real world of the vehicle When the augmented reality content generated by matching is determined as the content to be provided to the vehicle occupant, one content will be synchronized and provided on the basis of the time point at which each display corresponds to the in-vehicle position in all displays of the vehicle. (For example, the duck 810 appears on the display on the front and left sides of the vehicle, and the duck 810 does not appear on the display on the right and rear of the vehicle), through which the vehicle occupant enters a specific space. You will be able to provide the same user experience as there is.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the computer-readable recording medium may be specially designed and constructed for the present invention or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described by specific matters such as specific elements and limited embodiments and drawings, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. Anyone with ordinary knowledge in the technical field to which the invention belongs can make various modifications and changes from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention is limited to the above-described embodiments and should not be defined, and all ranges equivalent to or equivalently changed from the claims to be described later as well as the claims to be described later are the scope of the spirit of the present invention. It will be said to belong to.

100: 통신망
200: 콘텐츠 제공 시스템
210: 가상 객체 시퀀스 관리부
220: 콘텐츠 관리부
230: 통신부
240: 제어부
300: 디스플레이
100: communication network
200: content providing system
210: virtual object sequence management unit
220: content management unit
230: communication department
240: control unit
300: display

Claims (23)

콘텐츠를 제공하는 방법으로서,
적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 단계, 및
상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 단계를 포함하는
방법.
As a method of providing content,
Determining an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle, and
And determining content to be provided to the at least one vehicle occupant by matching the image sequence of the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle.
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 적어도 한 명의 차량 탑승자 및 상기 적어도 한 명의 차량 탑승자의 상황 정보 중 적어도 하나는 상기 차량의 내부 영상으로부터 특정되는
방법.
The method of claim 1,
In the step of determining the image sequence, at least one of the situation information of the at least one vehicle occupant and the at least one vehicle occupant is specified from an internal image of the vehicle.
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
The method of claim 1,
In the step of determining the image sequence, determining an image sequence for the virtual object by further referring to information on a real-world object specified from an external image of the vehicle
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자 각각에 대해 또는 상기 차량 탑승자의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
The method of claim 1,
In the step of determining the image sequence, determining an image sequence for the virtual object for each of the vehicle occupants or each of the group of vehicle occupants
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자가 상기 차량 내에서 착석하고 있는 좌석 각각에 대해 또는 상기 좌석의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
The method of claim 1,
In the step of determining the image sequence, determining an image sequence relating to the virtual object for each seat in the vehicle occupant or for each group of seats in the vehicle
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자의 시점(view point), 상기 차량의 좌석 위치에 따른 시점 및 상기 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
The method of claim 1,
In the step of determining the image sequence, an image of the virtual object is referred to at least one of a view point of the vehicle occupant, a view point according to a seat position of the vehicle, and a view point according to a position in the vehicle of the at least one display. To determine the sequence
Way.
제1항에 있어서,
상기 영상 시퀀스 결정 단계에서, 상기 차량 탑승자의 개인 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
방법.
The method of claim 1,
In the step of determining the image sequence, determining an image sequence for the virtual object by further referring to personal information of the vehicle occupant
Way.
제1항에 있어서,
상기 콘텐츠 결정 단계에서, 상기 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계의 객체에 관한 속성을 참조하여 상기 가상 객체에 관한 영상 시퀀스를 정합하는
방법.
The method of claim 1,
In the content determination step, matching an image sequence related to the virtual object by referring to a property related to an external real world object of the vehicle projected through the at least one display
Way.
제1항에 있어서,
상기 콘텐츠 결정 단계는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 상기 결정되는 콘텐츠를 제공하는 단계를 포함하는
방법.
The method of claim 1,
The content determining step includes providing the determined content based on a display associated with the at least one vehicle occupant among the at least one display.
Way.
제9항에 있어서,
상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 상기 결정되는 콘텐츠를 제공하는
방법.
The method of claim 9,
Providing the determined content based on a display corresponding to the gaze of each of the at least one vehicle occupant among the at least one display
Way.
제1항에 있어서,
상기 콘텐츠 결정 단계는, 상기 적어도 하나의 디스플레이에서 상기 결정되는 콘텐츠를 상기 적어도 하나의 디스플레이 각각의 상기 차량 내 위치에 부합되는 시점을 기준으로 동기화하여 제공하는 단계를 포함하는
방법.
The method of claim 1,
The content determination step includes synchronizing and providing the determined content on the at least one display based on a time point corresponding to the in-vehicle location of each of the at least one display.
Way.
제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 비일시성의 컴퓨터 판독 가능 기록 매체.A non-transitory computer-readable recording medium recording a computer program for executing the method according to claim 1. 콘텐츠를 제공하는 시스템으로서,
적어도 한 명의 차량 탑승자의 상황 정보 및 상기 차량의 주행 정보 중 적어도 하나를 참조하여 가상 객체에 관한 영상 시퀀스를 결정하는 가상 객체 시퀀스 관리부, 및
상기 차량의 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계를 기반으로 상기 가상 객체에 관한 영상 시퀀스를 정합함으로써, 상기 적어도 한 명의 차량 탑승자에게 제공될 콘텐츠를 결정하는 콘텐츠 관리부를 포함하는
시스템.
As a system for providing content,
A virtual object sequence management unit that determines an image sequence for a virtual object by referring to at least one of situation information of at least one vehicle occupant and driving information of the vehicle, and
A content management unit that determines content to be provided to the at least one vehicle occupant by matching the image sequence of the virtual object based on the external real world of the vehicle projected through at least one display of the vehicle.
system.
제13항에 있어서,
상기 적어도 한 명의 차량 탑승자 및 상기 적어도 한 명의 차량 탑승자의 상황 정보 중 적어도 하나는 상기 차량의 내부 영상으로부터 특정되는
시스템.
The method of claim 13,
At least one of the situation information of the at least one vehicle occupant and the at least one vehicle occupant is specified from an internal image of the vehicle
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량의 외부 영상으로부터 특정되는 실세계 객체에 관한 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
The method of claim 13,
The virtual object sequence management unit determines an image sequence related to the virtual object by further referring to information on a real-world object specified from an external image of the vehicle.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자 각각에 대해 또는 상기 차량 탑승자의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
The method of claim 13,
The virtual object sequence management unit is configured to determine an image sequence for the virtual object for each of the vehicle occupants or for each group of vehicle occupants.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자가 상기 차량 내에서 착석하고 있는 좌석 각각에 대해 또는 상기 좌석의 그룹 각각에 대해 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
The method of claim 13,
The virtual object sequence management unit is configured to determine an image sequence for the virtual object for each seat in which the vehicle occupant is seated in the vehicle or for each group of seats.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자의 시점, 상기 차량의 좌석 위치에 따른 시점 및 상기 적어도 하나의 디스플레이의 차량 내 위치에 따른 시점 중 적어도 하나를 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
The method of claim 13,
The virtual object sequence management unit determines an image sequence for the virtual object by referring to at least one of a viewpoint of the vehicle occupant, a viewpoint according to a seat position of the vehicle, and a viewpoint according to a position in the vehicle of the at least one display.
system.
제13항에 있어서,
상기 가상 객체 시퀀스 관리부는, 상기 차량 탑승자의 개인 정보를 더 참조하여 상기 가상 객체에 관한 영상 시퀀스를 결정하는
시스템.
The method of claim 13,
The virtual object sequence management unit further determines an image sequence for the virtual object by referring to personal information of the vehicle occupant.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이를 통하여 투영되는 상기 차량의 외부 실세계의 객체에 관한 속성을 참조하여 상기 가상 객체에 관한 영상 시퀀스를 정합하는
시스템.
The method of claim 13,
The content management unit matches an image sequence related to the virtual object by referring to a property related to an object of the external real world of the vehicle projected through the at least one display.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자와 연관되는 디스플레이에 기초하여 상기 결정되는 콘텐츠를 제공하는
시스템.
The method of claim 13,
The content management unit provides the determined content based on a display associated with the at least one vehicle occupant among the at least one display.
system.
제21항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이 중 상기 적어도 한 명의 차량 탑승자 각각의 시선에 대응되는 디스플레이를 기준으로 상기 결정되는 콘텐츠를 제공하는
시스템.
The method of claim 21,
The content management unit is configured to provide the determined content based on a display corresponding to each line of sight of the at least one vehicle occupant among the at least one display.
system.
제13항에 있어서,
상기 콘텐츠 관리부는, 상기 적어도 하나의 디스플레이에서 상기 결정되는 콘텐츠를 상기 적어도 하나의 디스플레이 각각의 상기 차량 내 위치에 부합되는 시점을 기준으로 동기화하여 제공하는
시스템.
The method of claim 13,
The content management unit synchronizes and provides the content determined on the at least one display based on a time point corresponding to a position in the vehicle of each of the at least one display.
system.
KR1020200056782A 2019-05-29 2020-05-12 Method, system, and non-transitory computer-readable recording medium for providing contents KR20200137992A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2020/006806 WO2020242179A1 (en) 2019-05-29 2020-05-26 Method, system and non-transitory computer-readable recording medium for providing content
KR1020220056282A KR102592675B1 (en) 2019-05-29 2022-05-06 Method, system, and non-transitory computer-readable recording medium for providing contents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190063491 2019-05-29
KR1020190063491 2019-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220056282A Division KR102592675B1 (en) 2019-05-29 2022-05-06 Method, system, and non-transitory computer-readable recording medium for providing contents

Publications (1)

Publication Number Publication Date
KR20200137992A true KR20200137992A (en) 2020-12-09

Family

ID=73786690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200056782A KR20200137992A (en) 2019-05-29 2020-05-12 Method, system, and non-transitory computer-readable recording medium for providing contents

Country Status (1)

Country Link
KR (1) KR20200137992A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180014910A (en) 2016-08-02 2018-02-12 김지현 Tour content and its delivery system using Augmented Reality in Virtual Reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180014910A (en) 2016-08-02 2018-02-12 김지현 Tour content and its delivery system using Augmented Reality in Virtual Reality

Similar Documents

Publication Publication Date Title
JP7002684B2 (en) Systems and methods for augmented reality and virtual reality
KR102159849B1 (en) Mixed reality display accommodation
US8963916B2 (en) Coherent presentation of multiple reality and interaction models
KR101944846B1 (en) System and method for augmented and virtual reality
US20130249947A1 (en) Communication using augmented reality
US20130249948A1 (en) Providing interactive travel content at a display device
US20130232430A1 (en) Interactive user interface
US20130226758A1 (en) Delivering aggregated social media with third party apis
US20130222371A1 (en) Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality
US20140063061A1 (en) Determining a position of an item in a virtual augmented space
US20220347567A1 (en) Inter-vehicle electronic games
CN105144030A (en) Mixed reality augmentation
US20130238778A1 (en) Self-architecting/self-adaptive model
WO2020132141A1 (en) Real-time route configuring of entertainment content
Cronin et al. The The Infinite Retina: Spatial Computing, Augmented Reality, and how a collision of new technologies are bringing about the next tech revolution
KR102592675B1 (en) Method, system, and non-transitory computer-readable recording medium for providing contents
KR20200137992A (en) Method, system, and non-transitory computer-readable recording medium for providing contents
KR102596322B1 (en) Method, system, and non-transitory computer-readable recording medium for authoring contents based on in-vehicle video
US20240181341A1 (en) Inter-vehicle electronic games
US20240196026A1 (en) Content production and playout for surround screens

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2022101001058; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20220506

Effective date: 20221006