KR20190094875A - Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof - Google Patents

Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof Download PDF

Info

Publication number
KR20190094875A
KR20190094875A KR1020180014531A KR20180014531A KR20190094875A KR 20190094875 A KR20190094875 A KR 20190094875A KR 1020180014531 A KR1020180014531 A KR 1020180014531A KR 20180014531 A KR20180014531 A KR 20180014531A KR 20190094875 A KR20190094875 A KR 20190094875A
Authority
KR
South Korea
Prior art keywords
information
content
terminal
marker
digital signage
Prior art date
Application number
KR1020180014531A
Other languages
Korean (ko)
Inventor
김영덕
Original Assignee
주식회사 팝스라인
김영덕
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팝스라인, 김영덕 filed Critical 주식회사 팝스라인
Priority to KR1020180014531A priority Critical patent/KR20190094875A/en
Publication of KR20190094875A publication Critical patent/KR20190094875A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a digital signage system for providing mixed reality (MR) contents comprising a three-dimensional object and markers, and a method thereof. According to the present invention, MR contents are produced by adding one or more markers based on a three-dimensional object generated through an exclusive tool or a three-dimensional object through object recognition of an image photographed through a camera, and the produced MR contents are provided through the digital signage device associated with sight, hearing, olfaction, etc. A variety of additional information associated with the three-dimensional object is provided and virtual experience and simulation functions of products are provided. Accordingly, satisfaction of a user can be increased and utilization of the MR contents according to requests of the user can be widened.

Description

3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템 및 그 방법{Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof}Signage system and method for providing mixed reality content comprising three-dimension object and marker and method

본 발명은 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템 및 그 방법에 관한 것으로, 특히 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공하는 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템 및 그 방법에 관한 것이다.The present invention relates to a signage system and method for providing MR content including 3D objects and markers, and more particularly, to a 3D object generated through a dedicated tool or a 3D object through object recognition in an image captured by a camera. Signage system for creating MR content by adding one or more markers as a basis, and providing MR content including markers and 3D objects that provide the produced MR content through signage devices related to visual, auditory, olfactory, auditory, etc. And to a method thereof.

디지털 사이니지(Digital Signage)는 기업들의 마케팅, 광고, 트레이닝 효과 및 고객 경험을 유도할 수 있는 커뮤니케이션 툴로, 공항, 호텔, 병원 등의 공공장소에서 특정 정보를 제공하는 디지털 영상 디스플레이 장치이다.Digital signage is a communication tool that can induce marketing, advertising, training effects, and customer experiences of companies. It is a digital image display device that provides specific information in public places such as airports, hotels, and hospitals.

이러한 디지털 사이니지를 이용한 현재의 광고 방식은 대부분의 사용자가 디지털 사이니지를 통해 접하게 된 콘텐츠를 그저 보고 지나치거나, 관심이 있다고 해도 오래 기억하기는 어렵고 해당 콘텐츠에 대한 추가 정보를 확인하기 어렵다. 특히, 이러한 문제는 디지털 사이니지가 사용자들이 많고 이동이 잦은 곳, 예컨대 길거리나 지하보도 등에 설치되어 있다면 더욱 현저히 나타나게 된다.The current advertising method using digital signage is difficult to remember for a long time even if the user is just overlooking or interested in the content encountered through digital signage, and it is difficult to check additional information on the content. In particular, this problem is more prominent when the digital signage is installed in a place where there are many users and are frequently moved, such as a street or an underground walkway.

한국등록특허 제10-1619886호 [명칭: 디지털 사이니지 시스템 및 모바일 연동 방법]Korean Registered Patent No. 10-1619886 [Name: Digital Signage System and Mobile Interworking Method]

본 발명의 목적은 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공하는 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention is to create an MR content by adding one or more markers based on the 3D object generated through the dedicated tool or the object recognition in the image captured by the camera, and the MR content A signage system and method for providing MR content including 3D objects and markers provided through a signage device related to visual, auditory, olfactory, auditory, and the like are provided.

본 발명의 실시예에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법은 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법에 있어서, 디지털 사이니지에 의해, 재생 스케줄 정보 및 현재 시각 정보를 근거로 서버로부터 제공되는 MR 콘텐츠를 출력하는 단계; 상기 디지털 사이니지에 의해, 사용자의 음성을 인식하는 단계; 및 상기 디지털 사이니지에 의해, 상기 인식된 사용자의 음성을 근거로 상기 출력 중인 MR 콘텐츠에 포함된 마커가 선택될 때, 상기 선택된 마커에 대응하는 기능을 수행하는 단계를 포함할 수 있다.A signage method for providing MR content including a 3D object and a marker according to an embodiment of the present invention is a signage method for providing MR content including a 3D object and a marker. Outputting MR content provided from a server based on the time information; Recognizing, by the digital signage, a voice of a user; And when the marker included in the output MR content is selected by the digital signage based on the recognized voice of the user, performing a function corresponding to the selected marker.

본 발명은 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공함으로써, 3D 객체와 관련하여 다양한 부가 정보를 제공하고, 상품의 가상 체험 및 시뮬레이션 기능을 제공하여 사용자의 만족도를 높이며, 사용자의 요구에 따른 MR 콘텐츠의 활용폭을 넓힐 수 있는 효과가 있다.The present invention creates MR content by adding one or more markers based on the 3D object generated through a dedicated tool or 3D object through object recognition in an image captured by a camera, and visualizes the produced MR content. By providing through signage devices related to hearing, smell, hearing, etc., it provides various additional information related to 3D objects, improves user satisfaction by providing virtual experience and simulation of products, and MR contents according to user needs. It is effective to widen the range of use.

도 1은 본 발명의 실시예에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 디지털 사이니지의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 디지털 사이니지에 포함된 요소 기술의 개념을 나타낸 도이다.
도 4는 본 발명의 실시예에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법을 나타낸 흐름도이다.
도 5 내지 도 8은 본 발명의 실시예에 따른 단말의 화면을 나타낸 도이다.
도 9는 본 발명의 실시예에 따른 디지털 사이니지의 화면을 나타낸 도이다.
1 is a block diagram showing the configuration of a signage system for providing MR content including a 3D object and a marker according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a digital signage according to an embodiment of the present invention.
3 is a diagram illustrating a concept of element technology included in a digital signage according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a signage method for providing MR content including 3D objects and markers according to an embodiment of the present invention.
5 to 8 are diagrams illustrating a screen of a terminal according to an embodiment of the present invention.
9 is a diagram illustrating a screen of a digital signage according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are merely used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those skilled in the art unless the present invention has a special meaning defined in the present invention, and is excessively comprehensive. It should not be interpreted in the sense of or in the sense of being excessively reduced. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms used in the present invention include plural forms unless the context clearly indicates otherwise. Terms such as “consisting of” or “comprising” in the present invention should not be construed as necessarily including all of the various components or steps described in the present invention, and some of the components or some steps may not be included. It should be construed that it may further include, or further include, additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but the components should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 시스템(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a signage system 10 for providing MR content including 3D objects and markers according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 사이니지 시스템(10)은 단말(100), 서버(200), 디지털 사이니지(300) 및 다른 단말(400)로 구성된다. 도 1에 도시된 사이니지 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 사이니지 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 사이니지 시스템(10)이 구현될 수도 있다.As shown in FIG. 1, the signage system 10 includes a terminal 100, a server 200, a digital signage 300, and another terminal 400. Not all components of the signage system 10 shown in FIG. 1 are essential components, and the signage system 10 may be implemented by more components than those shown in FIG. Signage system 10 may also be implemented by components.

상기 단말(100) 및 상기 다른 단말(400)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal) 등과 같은 다양한 단말기에 적용될 수 있다.The terminal 100 and the other terminal 400 are a smart phone, a portable terminal, a mobile terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). ) Terminals, Telematics Terminals, Navigation Terminals, Personal Computers, Notebook Computers, Slate PCs, Tablet PCs, Ultrabooks, and Wearable Devices For example, a watch type terminal (Smartwatch), a glass type terminal (Smart Glass), a head mounted display (HMD), etc.), a Wibro terminal, an Internet Protocol Television (IPTV) terminal, a smart TV, a digital broadcasting terminal The present invention can be applied to various terminals such as an audio video navigation (AVN) terminal, an audio / video (A / V) system, a flexible terminal, and the like.

또한, 상기 단말(100)은 상기 단말(100)에 미리 설치된 전용 툴(또는 전용 프로그램)을 이용하거나 또는 상기 단말(100)에 구비된 카메라부(미도시)를 통해 촬영된 객체를 포함하는 영상 정보를 이용해서 3D 객체(또는 해당 3D 객체와 관련한 3D 객체 데이터)를 생성(또는 제작/모델링)한다.In addition, the terminal 100 is an image including an object photographed using a dedicated tool (or dedicated program) pre-installed in the terminal 100 or through a camera unit (not shown) provided in the terminal 100. The information is used to create (or create / model) a 3D object (or 3D object data related to the 3D object).

즉, 상기 단말(100)은 전용 툴(또는 전용 프로그램)을 이용해서 특정 객체와 관련한 3D 객체를 생성(또는 제작/모델링)한다. 여기서, 상기 전용 툴(또는 전용 프로그램)은 사용자의 조작(또는 사용자의 제어)에 의해 임의의 특정 객체와 관련한 3D 객체를 생성할 수 있는 공지의 툴(또는 프로그램/애플리케이션) 중 어느 하나일 수 있다.That is, the terminal 100 generates (or fabricates / models) a 3D object related to a specific object by using a dedicated tool (or dedicated program). Here, the dedicated tool (or dedicated program) may be any one of known tools (or programs / applications) capable of generating 3D objects related to any specific object by user's manipulation (or user's control). .

본 발명의 실시예에서는 3D 객체 위주로 설명하고 있으나, 이에 한정되는 것은 아니며, 2D 객체도 포함할 수 있다.In the embodiment of the present invention, the description has been mainly focused on 3D objects, but is not limited thereto and may include 2D objects.

또한, 상기 3D 객체 또는 2D 객체는 이미지(또는 정지 영상)뿐만 아니라, 상기 3D 객체/2D 객체가 적용된 동영상, 360VR 영상, 파노라마 영상 등도 포함할 수 있다.The 3D object or 2D object may include not only an image (or still image) but also a moving picture, a 360VR image, a panoramic image, etc. to which the 3D object / 2D object is applied.

또한, 상기 단말(100)은 해당 단말(100)에 포함된 카메라부를 통해 촬영된(또는 획득된) 임의의 객체를 포함하는 영상(또는 영상 정보) 내의 객체를 인식하고, 상기 단말(100)에 미리 설치된 3D 객체 생성 프로그램(미도시)을 통해 상기 인식된 객체를 이용해서 3D 객체를 생성(또는 제작/모델링)한다. 이때, 상기 영상은 상기 단말(100)과 통신하는 임의의 단말(미도시) 또는 서버(200)로부터 제공될 수도 있다. 또한, 상기 3D 객체 생성 프로그램은 사용자의 조작(또는 사용자의 제어)에 의해 임의의 영상 내에 포함된 객체를 3D 객체로 생성(또는 변환/제작)할 수 있는 공지의 프로그램(또는 툴/애플리케이션) 중 어느 하나일 수 있다.In addition, the terminal 100 recognizes an object in an image (or image information) including an arbitrary object photographed (or obtained) through a camera unit included in the terminal 100, and recognizes an object in the terminal 100. A 3D object is generated (or manufactured / modeled) using the recognized object through a pre-installed 3D object generation program (not shown). In this case, the image may be provided from any terminal (not shown) or server 200 communicating with the terminal 100. In addition, the 3D object generation program of the known program (or tools / applications) that can create (or convert / produce) the object contained in any image as a 3D object by the user's operation (or user's control) It can be either.

여기서, 상기 생성된(또는 제작된/모델링된) 3D 객체(또는 3D 객체 데이터)는 해당 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등을 포함하도록 생성되어, 해당 3D 객체에 대한 정보 제공 시 시각, 청각, 촉각, 후각 등에 대한 정보를 동시에 제공할 수 있도록 구성할 수 있다. 이때, 상기 시각 정보는 해당 3D 객체의 형상 정보, 색상 정보, 재질 정보, 패턴 정보, 디자인 정보 등을 포함하도록 생성되어, 해당 3D 객체와 관련한 정보 제공 시 사용자에게 정확하고 다양한 정보를 제공할 수 있다. 또한, 상기 청각 정보는 해당 3D 객체와 관련한 소리 정보 등을 포함한다. 또한, 상기 촉각 정보는 해당 3D 객체와 관련한 근감각(kinesthesia)에 대한 정보(예를 들어 해당 3D 객체와 관련한 질량, 굳고 말랑말랑한 정도, 반력 등에 대한 정보 포함), 해당 3D 객체와 관련한 질감(tactility)에 대한 정보(예를 들어 해당 3D 객체와 관련한 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대한 정보 포함) 등을 포함한다. 또한, 상기 후각 정보는 해당 3D 객체와 관련한 향기(또는 향) 정보 등을 포함한다.Here, the generated (or manufactured / modeled) 3D object (or 3D object data) is generated to include visual information, auditory information, tactile information, olfactory information, and the like related to the 3D object, and thus, for the corresponding 3D object. When providing information, it can be configured to simultaneously provide information on visual, auditory, tactile, olfactory sense. In this case, the visual information is generated to include shape information, color information, material information, pattern information, design information, etc. of the 3D object, so that accurate and various information can be provided to the user when providing information related to the 3D object. . The auditory information may include sound information related to the corresponding 3D object. In addition, the tactile information may include information about the kinesthesia associated with the 3D object (for example, information about mass, firmness, and reaction force associated with the 3D object), and texture related to the 3D object. ), Including information about surface patterns, small shapes, softness and roughness of the surface, and a sense of coldness associated with the 3D object. In addition, the olfactory information includes fragrance (or fragrance) information related to the 3D object.

또한, 상기 단말(100)은 상기 생성된(또는 제작된/모델링된) 3D 객체를 상기 서버(200)에 제공하여, 상기 서버(200)에 구비된 데이터베이스(미도시)를 통해 통합 관리되도록 구성할 수도 있다.In addition, the terminal 100 is configured to provide the generated (or produced / modeled) 3D object to the server 200, integrated management through a database (not shown) provided in the server 200 You may.

또한, 상기 단말(100)은 상기 생성된 3D 객체를 가상 스토어, 재고 관리, 모조품 단속 등의 유통 산업뿐만 아니라 가상 현실(또는 증강 현실/혼합 현실)에서 활용할 수도 있다.In addition, the terminal 100 may utilize the generated 3D object in virtual reality (or augmented reality / mixed reality) as well as a distribution industry such as a virtual store, inventory management, and counterfeit control.

또한, 상기 생성된(또는 제작된) 3D 객체와 관련한 마커(또는 3D 마커/객체 마커)를 삽입하기 위해서 상기 영상이 표시되고 있는 단말(100)의 화면의 일측에 표시되는 미리 설정된 마커 삽입 버튼(또는 메뉴/항목)(또는 상기 단말(100)의 일측에 구비된 마커 삽입 버튼)이 선택되는 경우, 상기 단말(100)은 상기 생성된 3D 객체에 인접하게 마커(또는 객체 마커)를 배치한다. 이에 따라, 상기 단말(100)은 해당 객체를 포함하는 영상의 일측에 상기 객체로부터 일정 거리만큼 이격된 상태로 상기 마커를 표시한다.In addition, in order to insert a marker (or 3D marker / object marker) associated with the generated (or manufactured) 3D object, a preset marker insertion button displayed on one side of the screen of the terminal 100 in which the image is displayed ( Alternatively, when a menu / item) (or a marker insertion button provided on one side of the terminal 100) is selected, the terminal 100 arranges a marker (or an object marker) adjacent to the generated 3D object. Accordingly, the terminal 100 displays the marker in a state spaced apart from the object by a predetermined distance on one side of the image including the corresponding object.

또한, 드래그 앤 드롭(drag & drop) 기능을 사용하여 상기 단말(100)의 화면의 일측에 표시되는 미리 설정된 마커 삽입 버튼이 선택(또는 드래그)된 후, 드래그 앤 드롭 기능에 의해, 상기 단말(100)의 화면에 표시 중인 3D 객체 위로 드롭될 때(또는 상기 3D 객체로부터 미리 설정된 반경 내의 영역/위치로 드롭될 때), 상기 단말(100)은 상기 3D 객체로부터 미리 설정된 거리만큼 이격된 임의의 위치(또는 특정 위치)에 상기 마커를 배치할 수도 있다.In addition, after a preset marker insertion button displayed on one side of the screen of the terminal 100 is selected (or dragged) by using a drag and drop function, the terminal ( When dropped over a 3D object being displayed on the screen of 100) (or when dropped to an area / position within a preset radius from the 3D object), the terminal 100 is separated from the 3D object by a predetermined distance. The marker may be arranged at a position (or a specific position).

이때, 상기 단말(100)은 해당 3D 객체에 대해서 일정 간격만큼 이격되어 상기 마커를 배치하며, 해당 3D 객체가 3차원으로 회전하거나 또는 축소/확대되더라도 마커가 해당 3D 객체에 일정 간격을 유지하도록 설정(또는 배치/설계)한다.In this case, the terminal 100 is arranged to be spaced apart by a predetermined interval with respect to the 3D object, and the marker is set to maintain a constant interval on the 3D object even if the 3D object is rotated or reduced / enlarged in three dimensions (Or layout / design).

즉, 상기 단말(100)은 상기 3D 객체가 동작하는 레이어(layer)와 상기 마커가 동작(또는 표시)하는 레이어를 서로 다르게 구성하여, 상기 3D 객체의 회전, 축소, 확대, 이동 등에 대해서도 상기 마커가 상기 3D 객체로부터 일정 간격만큼 이격 상태를 유지하도록 설정할 수 있다.That is, the terminal 100 configures a layer in which the 3D object operates and a layer in which the marker operates (or displays) differently, so that the marker may also be rotated, reduced, enlarged, or moved. May be set to maintain a spaced state from the 3D object by a predetermined interval.

또한, 상기 단말(100)은 해당 3D 객체 상에 오버랩되도록 상기 마커를 배치할 수도 있다.In addition, the terminal 100 may arrange the marker to overlap on the 3D object.

즉, 상기 단말(100)은 상기 3D 객체가 표시되고 있는 화면상에서 상위 레이어를 추가 형성하고, 상기 추가 형성된 상위 레이어에 상기 마커를 배치할 수도 있다.That is, the terminal 100 may further form an upper layer on the screen on which the 3D object is displayed, and place the marker on the additionally formed upper layer.

본 발명의 실시예에서는 상기 마커와 상기 3D 객체가 독립적으로 제어되도록 구성하기 위해서, 상기 3D 객체와 상기 마커가 서로 다른 레이어에 형성되는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 영상 내에서 상기 마커와 상기 3D 객체가 독립적으로 동작(또는 제어)할 수 있는 다양한 기술이 적용될 수도 있다.In an embodiment of the present invention, in order to configure the marker and the 3D object to be controlled independently, it is described that the 3D object and the marker are formed on different layers, but the present invention is not limited thereto. And various techniques in which the 3D object may independently operate (or control) may be applied.

본 발명의 실시예에서 설명하는 상기 마커 및/또는 상기 객체가 포함되는 영상은 2D 또는 3D 이미지, 정지 영상, 동영상, 360VR 영상, 파노라마 영상, 항공사진(또는 항공영상), 위성사진(또는 위성영상), 스카이뷰, 로드뷰 등을 포함한다. 여기서, 상기 항공사진(또는 항공영상)은 항공기, 드론 등을 통해 지상으로부터 일정 고도에서 촬영한 정지 영상 또는 동영상 등을 포함한다. 또한, 상기 위성사진(또는 위성영상) 또는 상기 스카이뷰는 인공위성 등을 통해 지상으로부터 일정 고도에서 촬영한 정지 영상 또는 동영상 등을 포함한다. 또한, 상기 로드뷰는 차량, 오토바이(autobicycle), 기타 이동 수단 등에 카메라(예를 들어 360도 촬영이 가능한 카메라 등 포함)를 장착하고, 상기 차량 등의 이동에 따라 상기 차량 등의 주변을 촬영한 정지 영상 또는 동영상 등을 포함한다.An image including the marker and / or the object described in the embodiment of the present invention may be a 2D or 3D image, a still image, a video, a 360VR image, a panoramic image, an aerial photograph (or aerial image), a satellite image (or a satellite image). ), Skyview, roadview, and so on. Here, the aerial photograph (or aerial image) includes a still image or a moving image photographed at a predetermined altitude from the ground through an aircraft, a drone, or the like. In addition, the satellite image (or satellite image) or the sky view includes a still image or a video photographed at a predetermined altitude from the ground through a satellite or the like. In addition, the road view is equipped with a camera (including a camera capable of shooting 360 degrees, etc.) in a vehicle, motorcycle (bibicycle), and other means of transportation, and photographed the surroundings of the vehicle, etc. as the vehicle moves It includes still images or moving pictures.

또한, 상기 항공사진(또는 항공영상), 위성사진(또는 위성영상), 스카이뷰, 로드뷰 등은 촬영 시점의 GPS를 통한 위치 정보를 촬영 영상과 함께 저장하여, 촬영된 영상 내에 포함된 임의의 객체(예를 들어 건물, 건물 내 위치한 하나 이상의 업체 등 포함)를 정확하고 용이하게 확인하고, 상기 확인된 객체와 관련한 마커를 추가할 수도 있다.In addition, the aerial photograph (or aerial image), satellite image (or satellite image), sky view, road view, etc. store any location information through the GPS at the time of shooting with the captured image, any object included in the captured image (E.g., including buildings, one or more businesses located within the building, etc.) can be accurately and easily identified, and markers associated with the identified objects may be added.

이와 같이, 상기 3D 객체와 상기 마커가 서로 다른 레이어에 형성되어, 상기 마커가 상기 3D 객체와 독립적으로 제어되도록 구성하여, 상기 3D 객체의 이동, 확대, 축소 등에 대해서도 상기 마커는 상기 3D 객체로부터 일정 간격만큼 이격되거나 상기 3D 객체 상에 위치하도록 구성할 수 있다.As such, the 3D object and the marker are formed on different layers, and the marker is configured to be controlled independently of the 3D object, so that the marker is fixed from the 3D object even when the 3D object is moved, enlarged or reduced. It may be configured to be spaced apart or positioned on the 3D object.

또한, 상기 3D 객체를 이용하여 동영상(또는 360VR 영상/파노라마 영상)을 구성한 경우, 상기 마커는 상기 동영상 내에서 상기 3D 객체가 표시되고 있는 동안에는 상기 3D 객체(또는 2D 객체)에 인접한 위치나 상기 3D 객체에 오버랩되어 표시되며, 상기 동영상 내에서 상기 3D 객체가 사라지는 경우 상기 마커도 사라지도록 구성할 수 있다. 또한, 상기 동영상 내에서 새로운 3D 객체(또는 새로운 2D 객체)가 등장하는 경우, 해당 새로운 3D 객체에 대응하여 새로운 마커가 표시되도록 구성할 수 있다.In addition, when a video (or 360 VR image / panorama image) is constructed using the 3D object, the marker is located at or adjacent to the 3D object (or 2D object) while the 3D object is displayed in the video. The display is overlapped with an object, and the marker may be disappeared when the 3D object disappears in the video. In addition, when a new 3D object (or a new 2D object) appears in the video, a new marker may be displayed corresponding to the new 3D object.

또한, 상기 3D 객체에 인접하거나 또는 오버랩되어 표시 중인 상기 마커가 선택되는 경우, 상기 마커에 대해서 설정된 설정 정보에 따라 추가적인 화면이 표시될 수 있다.In addition, when the marker being displayed adjacent to or overlapping with the 3D object is selected, an additional screen may be displayed according to the setting information set for the marker.

예를 들어, 상기 3D 객체에 인접하거나 또는 오버랩되어 표시 중인 상기 마커가 선택되는 경우, 상기 마커와 관련한(또는 상기 마커에 대응하는 상기 3D 객체와 관련한) 상세 정보를 보기 위한 화면, 결제 기능을 위한 화면, 공유 기능을 위한 화면, 상기 마커와 관련한 해당 3D 객체(또는 2D 객체)의 확대된 화면 또는 해당 3D 객체(또는 2D 객체)와 관련한 다른 이미지/화면/영상, 챗봇 기능 수행을 위한 화면 등이 화면상에서 팝업 형태로 표시되거나 또는 전체 화면에 표시되도록 구성할 수 있다.For example, when the marker being displayed adjacent to or overlapping with the 3D object is selected, a screen for viewing detailed information related to the marker (or related to the 3D object corresponding to the marker), and for payment function A screen, a screen for sharing function, an enlarged screen of the corresponding 3D object (or 2D object) related to the marker, or another image / screen / video related to the 3D object (or 2D object), a screen for performing a chatbot function, and the like. It may be configured to be displayed in a popup form on the screen or to be displayed on the entire screen.

여기서, 챗봇(chatterbot, 대화 로봇)은 사람과 기계 사이에 대화를 하기 위해 만든 프로그램 혹은 로봇으로, 상기 챗봇 기능은 해당 화면을 보고 있는 사용자와 상기 서버(200) 또는 상기 디지털 사이니지(300)에서 제공하는 로봇이 대화로 정보를 주고받을 수 있는 대화형 사용자 인터페이스 시스템을 제공하는 것으로 인공 지능(artificial intelligence: AI) 기능을 포함하며, 상기 선택된 마커에 대응하는 객체와 관련된 사용자(또는 고객)의 질문에 AI 기능 적용에 따라 자동으로 응답해주는 기능(예를 들어 가격 흥정, 재고 문의, 배송 문의, 성능 문의, 사용방법 문의 등 포함) 등을 포함한다.Here, a chatbot (chatterbot, conversation robot) is a program or robot made for a conversation between a person and a machine, the chatbot function is a user and the server 200 or the digital signage 300 looking at the screen It provides an interactive user interface system for providing a robot to send and receive information in a dialog, including artificial intelligence (AI) function, the user (or customer) questions related to the object corresponding to the selected marker Include the ability to automatically respond to AI application (including price bargains, inventory inquiries, delivery inquiries, performance inquiries, usage instructions, etc.).

또한, 본 발명의 실시예에서는 상기 마커가 고정된 형태로 구성되는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 마커는 2D 또는 3D 형태로 구성될 수 있으며, 해당 3D 객체의 축소 형태이거나 또는 설계자에 의해 임의로 설계된(또는 디자인된) 형태일 수도 있고, 애니메이션 효과(예를 들어 회전, 깜빡임, 튕김 기능 등 포함)가 적용될 수도 있다.In addition, the embodiment of the present invention has been described that the marker is configured in a fixed form, but is not limited thereto, and the marker may be configured in a 2D or 3D form, and may be a reduced form of a corresponding 3D object or a designer. May be arbitrarily designed (or designed) by, or animation effects (including, for example, rotation, flicker, bounce, etc.) may be applied.

예를 들어, 냉장고 매장이 3D 형태로 구성된 상태에서, 해당 냉장고 매장에 구성된 복수의 냉장고에 대해서 각 냉장고를 축소한 형태의 3D 마커가 상기 복수의 냉장고 각각에 인접하거나 해당 냉장고에 오버랩되어 표시될 수 있으며, 해당 3D 마커에 대해서 애니메이션 기능(예를 들어 오른쪽에서 왼쪽으로 축소된 냉장고 이미지가 회전하는 기능)이 적용된 상태일 수 있다.For example, in a state in which a refrigerator store is configured in a 3D form, a 3D marker in which each refrigerator is reduced for a plurality of refrigerators configured in the refrigerator store may be displayed adjacent to or overlapping with each of the plurality of refrigerators. In addition, an animation function (for example, a function of rotating a refrigerator image reduced from right to left) may be applied to the 3D marker.

이와 같이, 상기 마커에 대해서 애니메이션 효과가 적용됨에 따라, 상기 3D 객체(또는 2D 객체)와 함께 표시되고 있는 마커가 사용자의 눈에 잘 띄어, 해당 마커를 선택하는 경우가 더 늘어나게 되며, 상기 마커의 선택에 따라 부가 기능(또는 부가 정보)을 제공할 수 있다.As such, as the animation effect is applied to the marker, the marker displayed together with the 3D object (or 2D object) is more prominent by the user, and thus the case of selecting the marker increases. Optionally, additional functions (or additional information) may be provided.

또한, 상기 마커는 아래 설명되는 임시 마커와의 구분을 위해서 상기 마커의 테두리를 실선 처리하고, 상기 임시 마커는 점선 처리하여 표시할 수 있다. 여기서, 상기 마커는 MR 콘텐츠(Mixed Reality Contents)(또는 MR 영상)에 포함되며, 상기 MR 콘텐츠에 포함된 객체와 연동하는(또는 매칭하는) 적어도 하나의 다른 MR 콘텐츠에 대한 정보를 포함한다. 또한, 상기 임시 마커는 상기 단말(100) 및/또는 상기 서버(200)에 상기 카메라부를 통해 획득된 영상에 포함된 객체와 관련한 MR 콘텐츠가 존재함을 나타내기 위한 표시(또는 정보)일 수 있다.In addition, the markers may be displayed by solid-line processing the edges of the markers to distinguish them from the temporary markers described below, and the temporary markers may be displayed by dotted lines. In this case, the marker is included in Mixed Reality Contents (or MR image), and includes information on at least one other MR content linked to (or matching with) an object included in the MR content. In addition, the temporary marker may be an indication (or information) indicating that MR content related to an object included in an image acquired through the camera unit exists in the terminal 100 and / or the server 200. .

또한, 상기 단말(100)에 표시되는 마커가 선택(또는 터치/더블 클릭)되는 경우, 상기 단말(100)은 사용자 입력(또는 사용자 터치/사용자 선택)을 근거로 상기 선택된 마커에 대한 속성 정보를 설정한다. 여기서, 상기 마커에 대한 속성 정보(또는 마커의 속성 정보)는 해당 마커와 관련한 객체(또는 3D 객체)의 고유 코드 정보, 상기 객체와 관련한 마커의 고유 코드 정보, 해당 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보(또는 해당 객체와 관련한 적어도 하나의 MR 콘텐츠가 저장된 주소 정보/링크 주소), 상기 마커에 대응하는 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등을 포함한다. 이때, 상기 객체와 관련한 적어도 하나의 MR 콘텐츠는 해당 객체와 관련하여 동일 코드 또는 유사 코드를 가진 적어도 하나의 다른 3D 객체에 대응하는 MR 콘텐츠일 수 있다.In addition, when the marker displayed on the terminal 100 is selected (or touched / double-clicked), the terminal 100 may provide attribute information on the selected marker based on a user input (or user touch / user selected). Set it. Here, the attribute information (or the attribute information of the marker) for the marker may include unique code information of an object (or 3D object) related to the marker, unique code information of the marker related to the object, and at least one MR content related to the object. Information about (or address information / link address where at least one MR content related to the object is stored), visual information, auditory information, tactile information, olfactory information, etc., related to the 3D object corresponding to the marker. In this case, the at least one MR content related to the object may be MR content corresponding to at least one other 3D object having the same code or similar code with respect to the object.

또한, 상기 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보를 설정할 때, 상기 단말(100)은 상기 서버(200)와의 연동에 의해, 기계 학습을 통해 상기 단말(100)의 사용자(또는 특정/임의의 사용자)와 관련하여 실시간으로 확인되는 사용자 정보(예를 들어 선호도, 구매 이력 정보, 해당 객체와 관련하여 사용자가 가장 많이 검색한 상품과 관련한 정보, 해당 객체와 관련하여 가장 많이 판매된 상품과 관련한 정보, 프로모션 정보, 해당 객체 및/또는 사용자와 관련한 빅 데이터 등 포함)를 근거로 상기 단말(100) 및/또는 상기 서버(200)에 미리 저장된 복수의 MR 콘텐츠 중에서 해당 객체와 관련한 적어도 하나의 MR 콘텐츠를 선택(또는 설정)할 수 있다.In addition, when setting information on at least one MR content related to the object, the terminal 100 is linked to the server 200, the user (or specific / arbitrary) of the terminal 100 through machine learning User information (e.g., preferences, purchase history information, information about the products that users searched for the most for that object, and the most sold items for that object) Information, promotion information, and big data related to the object and / or the user), among at least one MR related to the object among a plurality of MR contents stored in the terminal 100 and / or the server 200 in advance. The content can be selected (or set).

이와 같이, 상기 단말(100)은 해당 사용자(또는 특정/임의의 사용자)에게 최적화된 맞춤형 MR 콘텐츠를 제공할 수 있도록 상기 사용자 정보를 누적하고, 상기 누적된 사용자 정보에 대한 기계 학습(Machine Learning)을 통해 해당 사용자(또는 특정/임의의 사용자)와 관련한 정보를 반영하여 적응 전환형태의 상기 선택된 마커에 대한 속성 정보를 설정할 수도 있다.As such, the terminal 100 accumulates the user information so as to provide customized MR content optimized for the corresponding user (or a specific / arbitrary user), and machine learning about the accumulated user information. Through the information related to the user (or a specific / arbitrary user) may be set through the attribute information for the selected marker of the adaptive conversion form.

또한, 상기 단말(100)의 일측에 표시되는 미리 설정된 미리보기 메뉴(또는 버튼/항목)가 선택되는 경우, 상기 단말(100)은 MR 콘텐츠 저작의 결과 영상을 미리보기 화면으로 표시한다. 이때, 상기 단말(100)은 새로운 화면으로 상기 MR 콘텐츠 저작의 결과 영상을 표시하거나 또는, 팝업 형태로 상기 MR 콘텐츠 저작의 결과 영상을 표시할 수 있다.In addition, when a preset preview menu (or button / item) displayed on one side of the terminal 100 is selected, the terminal 100 displays a result image of MR content creation as a preview screen. In this case, the terminal 100 may display the resultant image of the MR content authoring on a new screen or the resultant image of the MR content authoring in a pop-up form.

즉, 상기 미리보기 메뉴가 선택되는 경우, 상기 단말(100)은 MR 콘텐츠 저작의 결과 영상(또는 상기 생성된 객체와 해당 객체에 인접하게 배치된 마커를 포함하는 영상)을 미리보기 형태로 표시한다. 이때, 해당 MR 콘텐츠 저작의 결과 영상에는 해당 객체와 관련한 구매 기능을 제공하기 위한 바로 구매 메뉴, 해당 MR 콘텐츠에 대한 공유 기능을 제공하기 위한 공유 메뉴 등이 포함될 수 있다.That is, when the preview menu is selected, the terminal 100 displays a result image of the MR content creation (or an image including the generated object and a marker disposed adjacent to the object) in a preview form. . In this case, the resultant image of the MR content authoring may include an immediate purchase menu for providing a purchase function related to the object, a sharing menu for providing a sharing function for the MR content, and the like.

또한, 상기 단말(100)의 다른 일측에 표시되는 미리 설정된 저장 메뉴(또는 완성 메뉴/버튼/항목)가 선택되는 경우, 상기 단말(100)은 해당 3D 객체, 상기 3D 객체에 인접하게 배치된 마커 등을 포함하는 MR 콘텐츠를 생성한다. 이때, 상기 MR 콘텐츠는 해당 3D 객체, 상기 3D 객체의 속성 정보(또는 상품 정보), 3D 객체와 관련한 코드, 코드의 고유 식별 정보, 코드의 종류, 3D 객체에 대응하는 마커, 마커의 위치 정보, 마커의 속성 정보(예를 들어 해당 3D 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보, 상기 마커에 대응하는 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등 포함), 해당 마커와 관련한 바로 구매 정보, 공유 정보 등을 포함한다.In addition, when a preset storage menu (or completed menu / button / item) displayed on the other side of the terminal 100 is selected, the terminal 100 is a 3D object, a marker disposed adjacent to the 3D object. Create MR content including the like. In this case, the MR content is a corresponding 3D object, property information (or product information) of the 3D object, code associated with the 3D object, unique identification information of the code, type of code, marker corresponding to the 3D object, marker location information, Property information of a marker (including, for example, information on at least one MR content related to the corresponding 3D object, visual information related to the 3D object corresponding to the marker, auditory information, tactile information, olfactory information, etc.) Immediately include purchase information, shared information and more.

즉, 상기 미리 설정된 저장 메뉴가 선택되는 경우, 상기 단말(100)은 상기 마커에 대해서 사용자 선택에 따른 마커의 속성 정보 설정이 완료된 상태인지 여부를 확인한다.That is, when the preset storage menu is selected, the terminal 100 checks whether the attribute information setting of the marker according to the user selection is completed for the marker.

또한, 상기 확인 결과, 상기 마커에 대한 속성 정보 설정이 완료되지 않은 상태인 경우, 상기 단말(100)은 상기 마커의 속성 정보 설정이 완료되지 않은 상태임을 표시하며, 해당 마커의 속성 정보 설정에 대한 안내 정보를 일측에 표시한다.In addition, when the check result, the property information setting for the marker is not completed, the terminal 100 indicates that the property information setting of the marker is not completed, and the property information setting of the marker The guide information is displayed on one side.

또한, 상기 확인 결과, 상기 마커에 대한 속성 정보 설정이 완료된 경우, 상기 단말(100)은 상기 3D 객체, 해당 3D 객체와 관련한 마커 등을 포함하는 MR 콘텐츠를 생성한다.In addition, as a result of the checking, when the attribute information setting for the marker is completed, the terminal 100 generates MR content including the 3D object, a marker related to the 3D object, and the like.

이와 같이, 상기 단말(100)은 실제 객체를 포함하는 영상과, 해당 객체와 관련한 정보를 제공하기 위한 마커를 포함하는 영상을 혼합하여 MR 콘텐츠를 생성할 수 있다.As such, the terminal 100 may generate MR content by mixing an image including an actual object and an image including a marker for providing information related to the object.

이때, 상기 생성된 3D 객체를 이용해서 동영상이 생성된 상태에서 상기 미리 설정된 저장 버튼이 선택되는 경우, 상기 단말(100)은 상기 3D 객체 및 상기 3D 객체에 대응하는 마커와 관련한 코드의 고유 식별 정보(또는 상기 마커가 배치된 영역/위치와 관련한 코드의 고유 식별 정보)를 근거로, 해당 동영상에 포함된 3D 객체에 인접하도록 상기 마커를 각각 추가하여(또는 매칭하여/연동시켜/업데이트하여) 동영상 형태의 MR 콘텐츠를 생성할 수 있다.In this case, when the preset storage button is selected while a video is generated using the generated 3D object, the terminal 100 identifies unique identification information of a code related to the 3D object and a marker corresponding to the 3D object. (Or match / interlate / update) each of the markers so as to be adjacent to the 3D object included in the video, based on (or unique identification information of the code related to the area / location where the marker is placed). MR content in the form can be generated.

이와 같이, 상기 단말(100)은 상기 객체를 포함하는 영상이 정지 영상(또는 이미지)뿐만 아니라 동영상인 경우에도, 상기 영상에 포함된 객체와 관련한 마커를 삽입하여 상기 MR 콘텐츠를 생성할 수 있다.As such, when the image including the object is not only a still image (or an image) but also a video, the terminal 100 may generate the MR content by inserting a marker related to the object included in the image.

또한, 이와 같이, 상기 단말(100)은 상기 3D 객체와 상기 3D 객체와 관련한 마커를 포함하는 MR 콘텐츠를 활용하여 상기 MR 콘텐츠에 포함된 3D 객체에 대응하는 상품과 관련한 연관 상품 추천 기능, 상품 추천 기능, 프로모션 기능, 인터랙션 기능(또는 상호작용 기능), 시뮬레이션 기능 등을 제공하여, 상품을 검색하고 확인하는 사용자의 편의성을 향상시키며 사용자의 만족감을 높일 수 있다.In addition, as described above, the terminal 100 utilizes MR content including the 3D object and a marker related to the 3D object, an associated product recommendation function related to a product corresponding to a 3D object included in the MR content, and a product recommendation. Functions, promotions, interactions (or interactions), simulations, and the like can be provided to enhance the user's convenience of searching for and checking products and to increase user satisfaction.

또한, 상기 단말(100)의 화면상에 상기 마커가 배치되는 경우 또는 상기 단말(100)의 화면상에 배치된 마커에 대한 속성 정보의 설정이 완료되는 경우, 상기 단말(100)은 상기 마커와 관련한 상기 이미지/동영상에 포함된 객체(또는 상기 객체와 관련한 코드)와, 상기 마커를 연동하여 저장한다.In addition, when the marker is disposed on the screen of the terminal 100 or when setting of attribute information on the marker disposed on the screen of the terminal 100 is completed, the terminal 100 is connected with the marker. The object (or code related to the object) included in the related image / video is stored in association with the marker.

이때, 상기 단말(100)은 상기 배치된 마커의 외곽선을 상기 이미지/동영상에 포함된 상기 마커와 관련한 객체의 외곽선까지 연장 형성한다. 즉, 상기 단말(100)은 상기 배치된 마커의 외곽선의 좌표값을 상기 마커와 관련한 객체의 외곽선의 좌표값으로 매칭하여 저장한다.In this case, the terminal 100 extends the outline of the disposed marker to the outline of the object related to the marker included in the image / video. That is, the terminal 100 matches and stores the coordinate values of the outline of the arranged marker with the coordinate values of the outline of the object associated with the marker.

예를 들어, 상기 단말(100)은 무선 진공 청소기에 대응하는 객체와 관련한 마커가 배치되고, 상기 배치된 마커에 대한 속성 정보 설정이 완료되는 경우, 상기 배치된 마커의 외곽선의 좌표값을 상기 무선 진공 청소기의 외곽선의 좌표값으로 매칭(또는 연장 형성)한다.For example, when the marker associated with the object corresponding to the wireless vacuum cleaner is disposed, and the setting of the attribute information for the disposed marker is completed, the terminal 100 displays the coordinate value of the outline of the arranged marker. Match (or extend) the coordinate values of the outline of the vacuum cleaner.

이와 같이, 상기 마커의 외곽선을 상기 마커와 관련한 객체의 외곽선으로 연장 형성함에 따라, 추후 해당 객체를 선택할 경우에도, 해당 마커를 선택한 효과를 얻을 수 있다.As described above, as the outline of the marker is extended to the outline of the object related to the marker, an effect of selecting the marker may be obtained even when the corresponding object is selected later.

또한, 상기 단말(100)은 상기 생성된 MR 콘텐츠를 공유하기 위해서 상기 생성된 MR 콘텐츠, 상기 단말(100)의 식별 정보 등을 상기 서버(200)에 전송한다. 여기서, 상기 단말(100)의 식별 정보는 MDN(Mobile Directory Number), 모바일 IP, 모바일 MAC, Sim(subscriber identity module: 가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the terminal 100 transmits the generated MR content, identification information of the terminal 100, etc. to the server 200 in order to share the generated MR content. In this case, the identification information of the terminal 100 includes a mobile directory number (MDN), a mobile IP, a mobile MAC, a subscriber identity module (SIM) card unique information, a serial number, and the like.

상기 서버(200)는 상기 단말(100), 상기 디지털 사이니지(300), 상기 다른 단말(400) 등과 통신한다.The server 200 communicates with the terminal 100, the digital signage 300, the other terminal 400, and the like.

또한, 상기 서버(200)는 상기 단말(100)을 포함하여 복수의 단말(100)로부터 각각 전송되는 MR 콘텐츠, 단말(100)의 식별 정보 등을 수신한다. 여기서, 상기 MR 콘텐츠는 각 단말(100)에서 생성된(또는 제작된) 콘텐츠일 수 있다.In addition, the server 200 receives MR content, identification information of the terminal 100, and the like, which are transmitted from the plurality of terminals 100, including the terminal 100. Here, the MR content may be content generated (or produced) in each terminal 100.

또한, 상기 서버(200)는 상기 수신된 복수의 MR 콘텐츠를 저장(또는 관리)한다.In addition, the server 200 stores (or manages) the plurality of received MR contents.

또한, 상기 서버(200)는 상기 서버(200)에 저장된 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식(또는 형태)으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 근거로 특정 디지털 사이니지(300)에서 출력될 콘텐츠에 대한 스케줄링을 수행한다.In addition, the server 200 is a specific digital based on a plurality of MR content stored in the server 200 (or including a separate advertising or promotional content produced in a format (or form) different from the MR content) Scheduling of the content to be output from the signage 300 is performed.

즉, 상기 서버(200)는 상기 서버(200)에 저장된 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식(또는 형태)으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 이용해서 상기 서버(200)에서 관리하는 복수의 디지털 사이니지(300)별로 해당 디지털 사이니지(300)에서 날짜별 및/또는 시간대별로 출력할 콘텐츠에 대한 정보를 포함하는 재생 스케줄링 정보를 생성한다.That is, the server 200 uses the plurality of MR contents stored in the server 200 (or includes a separate advertisement or promotion content produced in a format (or form) different from MR contents). For each of the digital signages 300 managed by 200, the digital signage 300 generates playback scheduling information including information on content to be output for each date and / or time zone.

또한, 상기 서버(200)는 상기 서버(200)에 저장된 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식(또는 형태)으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 근거로 특정 디지털 사이니지(300)에서 출력될 콘텐츠에 대한 스케줄링을 수행한다.In addition, the server 200 is a specific digital based on a plurality of MR content stored in the server 200 (or including a separate advertising or promotional content produced in a format (or form) different from the MR content) Scheduling of the content to be output from the signage 300 is performed.

즉, 상기 서버(200)는 복수의 MR 콘텐츠에 대해서 타임셀에 따라 날짜별 및/또는 시간대별로 출력할 콘텐츠에 대한 정보를 포함하는 재생 스케줄링 정보를 생성한다.That is, the server 200 generates playback scheduling information including information on content to be output by date and / or time zone according to time cells for a plurality of MR contents.

또한, 상기 서버(200)는 상기 생성된 재생 스케줄 정보, 해당 재생 스케줄 정보에 따른 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함) 등을 해당 재생 스케줄 정보와 관련한 디지털 사이니지(300)에 전송한다.In addition, the server 200 corresponds to the generated playback schedule information, a plurality of MR content (or a separate advertisement or promotional content produced in a different format from the MR content, etc.) according to the corresponding playback schedule information, and the like. The digital signal is transmitted to the digital signage 300 related to the reproduction schedule information.

이때, 상기 서버(200)는 상기 생성된 재생 스케줄 정보를 미리 상기 디지털 사이니지(300)에 전송한 후, 상기 재생 스케줄 정보에 따라 해당 디지털 사이니지(300)에서 출력할 복수의 MR 콘텐츠를 스트리밍 방식, 이벤트 방식 등을 이용해서 순차적으로 해당 디지털 사이니지(300)에 전송하여, 상기 디지털 사이니지(300)에서 큰 저장 용량을 구비하지 않더라도, 상기 서버(200)로부터 제공되는 복수의 MR 콘텐츠를 순차적으로 출력할 수 있다.In this case, the server 200 transmits the generated reproduction schedule information to the digital signage 300 in advance, and then streams a plurality of MR contents to be output from the digital signage 300 according to the reproduction schedule information. By transmitting to the corresponding digital signage 300 by using a method, an event method, and the like, even if the digital signage 300 does not have a large storage capacity, the plurality of MR contents provided from the server 200 are provided. Can be output sequentially.

이와 같이, 상기 서버(200)는 상기 서버(200)에서 관리하는 복수의 디지털 사이니지(300)에 대해서 각 디지털 사이니지(300)별로 타임셀에 따른 복수의 콘텐츠(예를 들어 MR 콘텐츠, AR 콘텐츠, VR 콘텐츠, 동영상 등 포함)를 재생(또는 출력)할 순서인 재생 스케줄 정보를 생성하고, 상기 생성된 디지털 사이니지별 재생 스케줄 정보를 관리한다.As described above, the server 200 includes a plurality of contents according to time cells for each of the digital signages 300 (for example, MR content and AR) for the plurality of digital signages 300 managed by the server 200. Content, VR content, video, etc.) to generate (or output) playback schedule information, and generate the playback schedule information for each digital signage.

또한, 상기 서버(200)는 상기 디지털 사이니지별 재생 스케줄 정보에 따라, 각 디지털 사이니지(300)에 하나 이상의 콘텐츠를 순차적으로 제공할 수 있다.In addition, the server 200 may sequentially provide one or more contents to each digital signage 300 according to the playback schedule information for each digital signage.

도 2는 본 발명의 실시예에 따른 디지털 사이니지(300)의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of a digital signage 300 according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 디지털 사이니지(또는 디지털 사이니지 장치)(300)는 통신부(310), 저장부(320), 카메라부(330), 센서부(340), 표시부(350), 음성 출력부(360), 햅틱부(370), 향기 발생부(380) 및 제어부(390)로 구성된다. 도 2에 도시된 디지털 사이니지(300)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 디지털 사이니지(300)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 디지털 사이니지(300)가 구현될 수도 있다.As shown in FIG. 2, the digital signage (or digital signage device) 300 includes a communication unit 310, a storage unit 320, a camera unit 330, a sensor unit 340, a display unit 350, It is composed of a voice output unit 360, the haptic unit 370, the scent generating unit 380 and the control unit 390. Not all components of the digital signage 300 shown in FIG. 2 are essential components, and the digital signage 300 may be implemented by more components than those shown in FIG. The digital signage 300 may also be implemented by components.

또한, 도 3은 본 발명의 실시예에 따른 디지털 사이니지(300)에 포함된 요소 기술의 개념을 나타낸 도이다.3 is a diagram showing the concept of the element technology included in the digital signage 300 according to an embodiment of the present invention.

상기 디지털 사이니지(300)는 멀티비젼, 키오스크(kiosk), 터치디스플레이, 엘리베이터 디스플레이, 옥외 디지털사이니지, 미디어 월 등을 포함한다.The digital signage 300 includes a multi-vision, kiosk, touch display, elevator display, outdoor digital signage, media wall, and the like.

또한, 상기 디지털 사이니지(300)는 디스플레이 장치, 콘텐츠, 네트워크, 소프트웨어 솔루션 등 IT 기술 및 콘텐츠 관련 기술 등이 융합되어 발전 중이며, AR, VR, MR, AI, 멀티 모달리티(Multi Modality) 등 첨단 기술과 디지털 사이니지의 결합을 통해 다양한 형태의 스마트 사이니지로 응용 범위가 확장 중인 상태이다.In addition, the digital signage 300 is being developed by integrating IT technologies such as display devices, contents, networks, and software solutions, and contents-related technologies, and advanced technologies such as AR, VR, MR, AI, and Multi Modality. And digital signage are combined to expand the range of applications to various forms of smart signage.

또한, 상기 디지털 사이니지(300)는 인터랙션 실감형 디지털 사이니지 형태로 구성된다.In addition, the digital signage 300 is configured in the form of an interactive digital signage.

즉, 상기 디지털 사이니지(300)는 HTML5 기반으로 네트워크 연동성을 확대하고, 첨단 시굴 적용 및 호환성이 높은 플랫폼(예를 들어 클라우드 시스템을 통한 빅 데이터 분석 등 포함)을 적용하고, 멀티 모달리티 시스템(예를 들어 모션 제어, 음성 인식, 후각 정보 활용 등 포함)을 적용한 실감형 정보를 제공하며, 디지털 사이니지에 VR/AR/MR 기술을 적용하여 상품에 대한 체험감을 극대화하며, 마커와 3D 이벤트 시스템을 이용하여 커머스 기능을 직접 연결할 수 있다.That is, the digital signage 300 expands network interoperability based on HTML5, applies a high-precision drilling and compatible platform (including big data analysis through a cloud system, etc.), and applies a multi-modality system (eg For example, it provides realistic information using motion control, voice recognition, and use of olfactory information, and maximizes the experience of products by applying VR / AR / MR technology to digital signage, and implements markers and 3D event system. Can be used to connect commerce functions directly.

상기 통신부(310)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 상기 단말(100), 상기 서버(200), 상기 다른 단말(400) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(310)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 310 communicates with any component inside or any at least one terminal outside via a wired / wireless communication network. In this case, the external arbitrary terminal may include the terminal 100, the server 200, the other terminal 400, and the like. Here, the wireless Internet technologies include a wireless LAN (WLAN), a digital living network alliance (DLNA), a wireless broadband (Wibro), a WiMAX (World Interoperability for Microwave Access (Wimax), and a HSDPA (High Speed Downlink Packet Access). ), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In this case, the communication unit 310 transmits and receives data according to at least one wireless Internet technology in a range including the Internet technologies not listed above. In addition, near field communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and the like may be included. In addition, the wired communication technology may include power line communication (PLC), USB communication, Ethernet, serial communication, serial communication, optical / coaxial cable, and the like.

또한, 상기 통신부(310)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the communication unit 310 may mutually transmit information with any terminal via a universal serial bus (USB).

또한, 상기 통신부(310)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 단말(100), 상기 서버(200), 상기 다른 단말(400) 등과 무선 신호를 송수신한다.In addition, the communication unit 310 is a technical standard or a communication method for mobile communication (for example, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (EV), EV) Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced) and the like transmits and receives a radio signal with a base station, the terminal 100, the server 200, the other terminal 400 and the like on a mobile communication network.

또한, 상기 통신부(310)는 상기 제어부(390)의 제어에 의해 상기 서버(200)로부터 전송되는 재생 스케줄 정보, 해당 재생 스케줄 정보에 따른 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함) 등을 수신한다. 이때, 상기 MR 콘텐츠는 해당 3D 객체, 상기 3D 객체의 속성 정보(또는 상품 정보), 3D 객체와 관련한 코드, 코드의 고유 식별 정보, 코드의 종류, 3D 객체에 대응하는 마커, 마커의 위치 정보, 마커의 속성 정보(예를 들어 해당 3D 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보, 상기 마커에 대응하는 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등 포함), 해당 마커와 관련한 바로 구매 정보, 공유 정보 등을 포함한다.In addition, the communication unit 310 is controlled by the control unit 390, the reproduction schedule information transmitted from the server 200, a plurality of MR content (or produced in a format different from the MR content according to the reproduction schedule information) And separate content such as advertisements or promotions). In this case, the MR content is a corresponding 3D object, property information (or product information) of the 3D object, code associated with the 3D object, unique identification information of the code, type of code, marker corresponding to the 3D object, marker location information, Property information of a marker (including, for example, information on at least one MR content related to the corresponding 3D object, visual information related to the 3D object corresponding to the marker, auditory information, tactile information, olfactory information, etc.) Immediately include purchase information, shared information and more.

상기 저장부(320)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 320 stores various user interfaces (UIs), graphical user interfaces (GUIs), and the like.

또한, 상기 저장부(320)는 상기 디지털 사이니지(300)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 320 stores data and programs necessary for the digital signage 300 to operate.

즉, 상기 저장부(320)는 상기 디지털 사이니지(300)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 디지털 사이니지(300)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 디지털 사이니지(300)의 기본적인 기능을 위하여 출고 당시부터 디지털 사이니지(300)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(320)에 저장되고, 디지털 사이니지(300)에 설치되어, 제어부(390)에 의하여 상기 MR 콘텐츠 제공 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 320 may store a plurality of application programs or applications driven in the digital signage 300, data for operating the digital signage 300, and instructions. have. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these application programs may exist on the digital signage 300 from the time of shipment for the basic function of the digital signage 300. Meanwhile, an application program is stored in the storage 320 and installed in the digital signage 300 to be driven by the controller 390 to perform an operation (or function) of the MR content providing apparatus 100. Can be.

또한, 상기 저장부(320)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 디지털 사이니지(300)는 인터넷(internet)상에서 저장부(320)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the storage unit 320 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD). Memory, etc.), magnetic memory, magnetic disks, optical disks, random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), It may include at least one storage medium of the PROM (Programmable Read-Only Memory). In addition, the digital signage 300 may operate a web storage that performs a storage function of the storage 320 on the Internet, or may operate in connection with the web storage.

또한, 상기 저장부(320)는 상기 통신부(310)를 통해 수신된 재생 스케줄 정보, 해당 재생 스케줄 정보에 따른 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함) 등을 저장한다.In addition, the storage 320 is a plurality of MR content (or a separate advertisement or promotion produced in a different format than MR content according to the playback schedule information, the playback schedule information received through the communication unit 310) Content, etc.).

상기 카메라부(330)는 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 상기 처리된 화상 프레임은 상기 제어부(390)의 제어에 의해 상기 표시부(350)에 표시될 수 있다. 일 예로, 상기 카메라는 객체(또는 피사체)(예를 들어 상품, 사용자 등 포함)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.The camera unit 330 processes an image frame such as a still image or a video obtained by an image sensor (camera module or camera) in a video call mode, a shooting mode, a video conference mode, and the like. That is, corresponding image data obtained by the image sensor is encoded / decoded according to each standard according to a codec. The processed image frame may be displayed on the display unit 350 under the control of the controller 390. For example, the camera photographs an object (or a subject) (eg, a product, a user, etc.) and outputs a video signal corresponding to the photographed image (subject image).

또한, 상기 카메라부(330)에서 처리된 화상 프레임은 상기 저장부(320)에 저장되거나 상기 통신부(310)를 통해 상기 서버(200)나 상기 다른 단말(400)로 전송될 수 있다.In addition, the image frame processed by the camera unit 330 may be stored in the storage unit 320 or transmitted to the server 200 or the other terminal 400 through the communication unit 310.

또한, 상기 카메라부(330)는 360도 카메라(미도시)를 통해 획득된(또는 촬영된) 파노라마 영상(또는 파노라마 영상 정보)을 상기 제어부(390)에 제공할 수도 있다. 이때, 상기 360도 카메라는 2차원 또는 3차원 형태의 파노라마 영상을 촬영할 수 있다.In addition, the camera unit 330 may provide the controller 390 with a panorama image (or panorama image information) acquired (or photographed) through a 360 degree camera (not shown). In this case, the 360-degree camera can take a panorama image of a two-dimensional or three-dimensional form.

또한, 상기 카메라부(330)는 상기 디지털 사이니지(300)의 일면에 설치한다.In addition, the camera unit 330 is installed on one surface of the digital signage 300.

또한, 상기 카메라부(330)는 상기 카메라부(330)가 구성된 디지털 사이니지(300)의 정면에 위치한 사용자(또는 사용자의 움직임)에 대한 영상 정보를 획득(또는 촬영)한다.In addition, the camera unit 330 acquires (or captures) image information about a user (or a user's movement) located in front of the digital signage 300 in which the camera unit 330 is configured.

상기 센서부(340)는 상기 디지털 사이니지(300)의 일면(또는 일측)에 구성한다.The sensor unit 340 is configured on one surface (or one side) of the digital signage 300.

또한, 상기 센서부(340)는 상기 센서부(340)가 구성된 디지털 사이니지(300)의 정면에 위치한 사용자의 동작(또는 모션) 인식 기능, 음성 인식 기능, 입술 움직임 인식 기능, 눈동자의 움직임 인식 기능(또는 시선 추적 기능) 등을 수행한다.In addition, the sensor unit 340 may be a user's motion (or motion) recognition function, a voice recognition function, a lip movement recognition function, and a pupil's movement recognition function located in front of the digital signage 300 in which the sensor unit 340 is configured. Function (or eye tracking function).

또한, 상기 센서부(340)는 상기 사용자의 동작이나 입술 움직임이나 눈동자의 움직임을 인식하기 위한 동작 인식 모듈, 음성 인식을 위한 음성 인식 모듈 등을 포함한다.In addition, the sensor unit 340 may include a motion recognition module for recognizing a user's motion, a lip movement, or a pupil's movement, a voice recognition module for voice recognition, and the like.

또한, 상기 도 3에 도시된 바와 같이, 상기 센서부(340)는 웨어러블 디바이스 형태로 제공되어, 사용자의 신체(예를 들어 손, 손가락, 팔, 다리 등 포함)에 착용된 상태에서 해당 사용자의 움직임에 따른 정보를 인식할 수도 있다.In addition, as shown in FIG. 3, the sensor unit 340 is provided in the form of a wearable device, and is worn on the user's body (including a hand, finger, arm, leg, etc.) of the user. You can also recognize the information according to the movement.

상기 표시부(350)는 상기 제어부(390)의 제어에 의해 상기 저장부(320)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(350)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(350)는 터치 스크린 일 수 있다.The display unit 350 may display various contents such as various menu screens using a user interface and / or a graphic user interface stored in the storage unit 320 under the control of the controller 390. Here, the content displayed on the display unit 350 includes a menu screen including various text or image data (including various information data) and data such as icons, list menus, combo boxes, and the like. In addition, the display unit 350 may be a touch screen.

또한, 상기 표시부(350)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the display unit 350 may include a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. The display device may include at least one of a flexible display, a 3D display, an e-ink display, and a light emitting diode (LED).

또한, 상기 도 3에 도시된 바와 같이, 상기 표시부(350)는 복수의 디스플레이 장치가 하나의 대화면을 구성할 수도 있다.In addition, as illustrated in FIG. 3, in the display unit 350, a plurality of display devices may configure one large screen.

또한, 상기 표시부(350)는 상기 제어부(390)의 제어에 의해 상기 재생 스케줄 정보 및 현재 시각을 근거로 상기 서버(200)로부터 제공되는 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 표시한다.In addition, the display unit 350 controls MR content provided from the server 200 based on the play schedule information and the current time under the control of the control unit 390 (or for advertising or promotion separate from MR content). Content, etc.).

이때, 상기 표시부(350)는 상기 서버(200)로부터 실시간으로 전송되는 MR 콘텐츠를 출력하거나 또는, 상기 저장부(320)의 저장 용량을 고려하여 상기 서버(200)로부터 전송되는 MR 콘텐츠를 상기 저장부(320)에 임시 저장한 후, 상기 임시 저장된 MR 콘텐츠를 출력할 수 있다.In this case, the display unit 350 outputs MR content transmitted from the server 200 in real time or stores the MR content transmitted from the server 200 in consideration of the storage capacity of the storage unit 320. After temporary storage in the unit 320, the temporarily stored MR content may be output.

상기 음성 출력부(360)는 상기 제어부(390)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(360)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The voice output unit 360 outputs voice information included in a signal processed by a predetermined signal by the controller 390. Here, the voice output unit 360 may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부(360)는 상기 제어부(390)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit 360 outputs the guide voice generated by the controller 390.

또한, 상기 음성 출력부(360)는 상기 제어부(390)에 의해 상기 재생 스케줄 정보 및 현재 시각을 근거로 상기 서버(200)로부터 제공되는 MR 콘텐츠에 포함된 청각 정보(예를 들어 음성 정보, 소음 정보 등 포함)를 출력한다.In addition, the audio output unit 360 may include auditory information (eg, voice information and noise) included in MR content provided from the server 200 based on the playback schedule information and the current time by the controller 390. Information, etc.).

즉, 상기 음성 출력부(360)는 상기 제어부(390)에 의해 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)에 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 청각 정보가 있는 경우, 해당 청각 정보를 출력한다.That is, the audio output unit 360 displays the MR content corresponding to the current time on the display unit 350 according to the playback schedule information by the controller 390 in advance in relation to the corresponding MR content being displayed. If the auditory information is set, the auditory information is output.

상기 햅틱부(또는 햅틱 인터페이스/촉각 인터페이스)(370)는 상기 표시부(350)에 인접하게 구성한다.The haptic unit (or haptic interface / tactile interface) 370 is configured to be adjacent to the display unit 350.

또한, 상기 햅틱 인터페이스(Haptic Interface)(또는 상기 햅틱부)는 넓은 의미로는 사용자에게 촉감을 전달하는 시스템 전체를 가리키며, 사용자가 직접 접촉하게 함으로써 사용자에게 물리력 전달을 통해 촉감을 발생시키는 하드웨어 장치인 햅틱 장치(Haptic Device)와, 원격 접촉(Teletaction) 환경 또는 컴퓨터 그래픽과 물리적 특성 등으로 이루어진 가상 환경, 햅틱 장치의 움직임을 가상 환경에 전달하고 가상 환경과의 접촉력을 햅틱 장치로 전달하는 역할을 하는 제어기(미도시)(또는 상기 제어부(390))로 구성할 수 있다.In addition, the haptic interface (or the haptic unit) refers to a whole system that transmits a tactile sense to a user in a broad sense, and is a hardware device that generates a tactile sensation by transmitting a physical force to a user by directly contacting the user. A haptic device, a virtual environment consisting of a remote contact (Teletaction) environment or computer graphics and physical characteristics, and a function of transferring the movement of the haptic device to the virtual environment and transmitting the contact force with the virtual environment to the haptic device. It may be configured as a controller (not shown) (or the controller 390).

이러한 상기 햅틱 인터페이스의 궁극적인 목적은 모델링되어 있는 가상 환경(예를 들어, AR 환경, VR 환경, MR 환경 등 포함) 또는 실제 환경의 물리적 특성을 사용자가 상기 햅틱 장치를 통해 똑같이 느끼게 하는 것이다.The ultimate purpose of the haptic interface is to allow the user to feel the same physical characteristics of the virtual environment (eg, AR environment, VR environment, MR environment, etc.) or real environment being modeled through the haptic device.

또한, 상기 햅틱 인터페이스는 상기 햅틱 장치와 가상 환경이 하나의 환경에 존재할 수 있도록 상기 햅틱 장치의 위치 변화를 표현하는 가상의 대리자가 가상 환경 속에 존재한다. 상기 가상의 대리자가 가상의 물체에 부딪혀서 발생한 힘이 Fe이고, 사람이 햅틱 장치를 통해서 느끼는 힘이 Fm이라면, 두 값이 똑같이 되도록 제어하는 것이 이상적인 햅틱 인터페이스 시스템이다.In addition, the haptic interface includes a virtual delegate representing a change in position of the haptic device in the virtual environment so that the haptic device and the virtual environment exist in one environment. If the force generated by the virtual delegate hitting the virtual object is Fe and the force felt by the haptic device is Fm, then the ideal haptic interface system is to control the two values to be equal.

이상적인 햅틱 인터페이스의 구현을 위해서는 정확한 모델링 방법과 모델을 구현할 수 있는 하드웨어 및 제어 방법에 관한 연구가 뒷받침되어야 한다.In order to implement an ideal haptic interface, research on accurate modeling methods and hardware and control methods for implementing the model should be supported.

또한, 상기 햅틱 인터페이스는 좁은 의미로 하드웨어적인 부분만으로 제한되어 상기 햅틱 장치와 동일한 의미로 사용될 수도 있다.In addition, the haptic interface may be used in the same sense as the haptic device because the haptic interface is limited to only a hardware part in a narrow sense.

또한, 상기 햅틱 인터페이스는 하드웨어 개발 관점, 즉 상기 햅틱 장치를 개발하는 관점에서 크게 두 분야로 나눌 수 있다.In addition, the haptic interface can be roughly divided into two fields in terms of hardware development, that is, in terms of developing the haptic device.

즉, 사람은 촉각을 두 가지 주요 경로를 통해 느끼며, 상기 햅틱 인터페이스도 이러한 두 가지 주요 분야로 나누어 개발되고 있다.In other words, a person feels the sense of touch through two main paths, and the haptic interface is also developed in two main areas.

이러한 햅틱 인터페이스의 분야 중 하나는 근감각에 관련된 것으로, 우리가 물체의 질량이나, 굳고 말랑말랑한 정도, 물체의 외형 등을 느낄 때, 근육과 관절의 움직임을 통해 촉감을 느끼는 현상이다. 이 과정은 물리적으로는 힘과 연관되어 있으므로, 상기 햅틱 장치는 힘을 생성하기에 유리한 로봇 모양과 같은 기구적 구조를 띠고 있으며, 이와 같은 목적으로 만들어진 햅틱 장치를 힘 피드백 장치(Force Feedback Device)라고 한다.One of the fields of the haptic interface is related to muscle sensation, and when we feel the mass of the object, the degree of firmness and softness, the appearance of the object, and the like, the haptic interface feels the touch through the movement of muscles and joints. Since this process is physically related to force, the haptic device has a mechanical structure such as a robot shape that is advantageous for generating a force, and the haptic device made for this purpose is called a force feedback device. do.

또한, 햅틱 인터페이스의 분야 중 다른 하나는 질감에 관련된 것으로, 접촉하고 있는 표면의 무늬 또는 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등을 느낄 때 피부를 표면에 직접 접촉하여 느끼는 현상이다. 이 과정은 여러 가지 복잡한 물리적 요소들로 이루어져 있어서 질감을 재현하고자 하는 햅틱 장치들의 모양도 매우 다양하며, 이와 같은 질감을 전달하는 목적으로 만들어진 장치를 질감 제시 장치(Tactile Display)라고 한다.In addition, another field of the haptic interface is related to texture, and is a phenomenon in which the skin is directly contacted with the surface when the pattern or small shapes of the surface being contacted, the softness and roughness of the surface, and the sense of warmth and the like are felt. This process consists of many complex physical elements, and the shapes of haptic devices that attempt to reproduce the texture are also very diverse. A device made for the purpose of conveying such a texture is called a texture display device.

이와 같이, 상기 햅틱 장치(또는 상기 햅틱부(370))는 목적에 따라 힘 피드백 장치와 질감 제시 장치의 두 분야로 나누어지며, 본 발명의 실시예에서는 상기 두 분야의 햅틱 장치를 모두 포함하여 설명한다.As described above, the haptic device (or the haptic unit 370) is divided into two fields, a force feedback device and a texture presenting device, according to the purpose, and the embodiment of the present invention includes both the haptic devices of the two fields. do.

특히, 상기 햅틱 장치를 이용해서 질감에 대한 정보를 사용자에게 제공하기 위해서, 자극 방법 중 진동을 이용하는 진동촉각(Vibrotactile) 디스플레이는 손쉬우면서도 자극의 전달이 빨라 간단한 신호만을 필요로 하는 곳에 많이 적용되고 있다.In particular, in order to provide the user with information about the texture using the haptic device, the vibrotactile display using vibration among the stimulation methods is easily applied to a place where only a simple signal is required because the stimulus is quickly transmitted. have.

또한, 핀 배열(Pin-array) 방식은 피부에 여러 개의 핀이 모양을 이루어 수직 방향으로 직접 자극하므로 표면의 무늬를 직관적으로 전달할 수 있다.In addition, since the pin-array method has a plurality of pins formed on the skin and directly stimulates them in the vertical direction, the pattern of the surface can be intuitively transmitted.

또한, 상기 햅틱부(370)는 상기 제어부(390)의 제어에 의해 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)에 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 촉각 정보가 있는 경우, 해당 촉각 정보(예를 들어 질량, 굳고 말랑말랑한 정도, 반력, 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대응하는 정보)에 따라 동작한다.In addition, the haptic unit 370 displays the MR content corresponding to the current time on the display unit 350 under the control of the playback schedule information under the control of the control unit 390, and in relation to the corresponding MR content being displayed. When there is a preset tactile information, the tactile information is operated according to the corresponding tactile information (for example, information corresponding to mass, firmness and softness, reaction force, surface pattern, small shapes, surface softness and roughness, and a sense of cold).

이와 같이, 상기 햅틱부(370)는 촉각 피드백을 통한 명령어 확인 및 제어, 각종 실감 게임, 내비게이션, 각종 메시지 및 의사 전달, 시각장애인용 모바일 기기 등에 적용되어, 상기 디지털 사이니지(300)와 사용자 간의 인터랙션 기능을 제공할 수 있다.As described above, the haptic unit 370 is applied to command confirmation and control through tactile feedback, various sensational games, navigation, various messages and communication, and the mobile device for the visually impaired. It can provide an interaction function.

또한, 상기 햅틱부(370)는 촉감의 전달을 통해 원거리 환경 또는 가상 환경의 사실성을 크게 증대시키고, 네트워크 기반의 환경에서 눈으로만 보던 온라인 쇼핑몰에서 상품을 만져보고 살 수 있는 기능을 제공할 수 있으며, 실제 유물을 만져볼 수 있는 온라인 박물관 기능을 제공할 수 있으며, 문자를 기반으로 하는 메신저 환경에서 서로 악수를 하고 어깨를 두드리는 등 촉감을 통한 감정의 전달 기능 등을 제공하는 바와 같이, 임의의 단말과 사용자 간의 상호작용형 기능을 제공할 수 있다.In addition, the haptic unit 370 may greatly increase the realism of a remote environment or a virtual environment through the transmission of touch, and provide a function of touching and buying a product in an online shopping mall that was only visible in a network-based environment. In addition, it can provide an online museum function that can touch the actual artifacts, and in the text-based messenger environment, it provides a function of conveying emotions through the touch, such as shaking hands and tapping shoulders. It may provide an interactive function between the terminal and the user.

상기 향기 발생부(또는 후각 인터페이스)(380)는 상기 디지털 사이니지(300)의 일측(또는 일면)에 구성한다.The fragrance generation unit (or olfactory interface) 380 is configured on one side (or one surface) of the digital signage 300.

사람의 후각은 주위의 냄새 정보를 감지하여 주위 환경에 대한 정보를 받아들인다. 빵 굽는 냄새, 타는 냄새, 익숙한 연인의 냄새는 우리에게 정보로서 전달되고 있다. 이와 같이 향기는 상태나 상항, 사건에 관한 대표적인 정보를 전달하기 위해서 사이니지 시스템(10)에 사용될 수 있다.The human sense of smell senses the smell of the surrounding environment and accepts information about the environment. The smell of baking, burning, and the smell of a familiar lover are being informed to us. As such, the scent may be used in the signage system 10 to convey representative information about the condition, situation, or event.

또한, 상기 후각 인터페이스는 크게 주변 환경의 냄새를 인식하는 냄새 인식 장치(미도시)와 원하는 향기를 사용자 주변에 출력하는 상기 향기 발생부(380)로 구분된다.In addition, the olfactory interface is divided into an odor recognition device (not shown) that recognizes the smell of the surrounding environment and the scent generator 380 that outputs a desired scent around the user.

흔히 전자코(electronic nose)로 일컫는 냄새 인식 장치는 사람이 코를 통해서 감지한 냄새의 정보를 뇌에서 처리하는 것과 같은 일련의 과정을 기계가 대신하는 장비이다. 상기 전자코는 사람코의 후각 세포에 해당하는 센서(미도시)와 사람 뇌에 해당하는 컴퓨터 또는 마이크로프로세서(미도시)로 구성된다. 사람이 코의 후각세포가 감지한 냄새 정보를 뇌에서 처리해 냄새를 인식하는 것처럼, 센서가 냄새 분자에 반응하면, 마이크로프로세서가 센서의 반응되는 정도에 대한 패턴 인식 소프트웨어에 의해 냄새를 감별한다.Odor recognition devices, commonly referred to as electronic noses, are machines that replace a series of processes, such as the brain processing the information of odors detected by humans through the nose. The electronic nose is composed of a sensor (not shown) corresponding to the olfactory cells of the human nose and a computer or microprocessor (not shown) corresponding to the human brain. Just as a person processes odor information detected by the nose's olfactory cells in the brain to recognize odors, when a sensor responds to an odor molecule, the microprocessor discriminates the odor by pattern recognition software about how the sensor responds.

상기 전자코의 기본은 여러 개의 서로 다른 종류의 화학적 가스 센서들을 어레이(array)화하여 사용하는 것이다. 상기 센서 어레이(sensor array)에 의해 측정된 데이터는 냄새에 따라 구분할 수 있는 특징을 보이게 되는데, 이는 각각의 센서가 냄새의 화학적 성분에 따라 다른 민감도를 가지는 물질에 의해 제조되기 때문이다.The basis of the electronic nose is to use several different kinds of chemical gas sensors in an array. Data measured by the sensor array (sensor array) has a characteristic that can be distinguished according to the smell, because each sensor is made of a material having a different sensitivity depending on the chemical composition of the smell.

또한, 상기 향기 발생부(380)는 상기 제어부(390)의 제어에 의해 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)에 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 후각 정보가 있는 경우, 해당 후각 정보(예를 들어 장미꽃 향기, 향수 향기, 음식의 탄 향기 등 포함)에 따라 외부로 향기(또는 향)를 분사(또는 출력/발생/배출)한다.In addition, the fragrance generation unit 380 is associated with the MR content being displayed while displaying the MR content corresponding to the current time on the display unit 350 under the control of the playback schedule information under the control of the control unit 390. If there is a predetermined smell information, the fragrance (or fragrance) is sprayed (or output / generated / discharge) to the outside according to the corresponding olfactory information (including rose fragrance, perfume fragrance, burnt fragrance of food, etc.) .

또한, 상기 향기 발생부(380)에 의해 분사된(또는 발생된/출력된) 향기는 상기 전자코를 통해 인식된 후, 상기 제어부(390)의 제어에 의해 학습되어 추후 좀더 세밀하고 정확한 향기를 분사(또는 출력/발생/생성)하는데 이용될 수도 있다.In addition, the fragrance sprayed (or generated / output) by the fragrance generating unit 380 is recognized through the electronic nose, it is learned by the control of the control unit 390 to further refine the fragrance later It may also be used to dispense (or output / generate / generate).

또한, 상기 향기 발생부(380)는 온라인 게임과 연계된 기술에 적용할 수 있다. In addition, the scent generator 380 may be applied to a technology associated with an online game.

즉, 상기 향기 발생부(380)는 온라인 게임에서 화약 냄새 또는 외계 생물체의 타는 냄새나 레이싱 게임을 위한 고무 타는 냄새를 출력하여 게임의 실감성을 증가시킬 수 있다. 오늘날 방대한 양의 자료와 최상의 게임 플레이 환경을 요구하는 게임 플레이어는 몹시 경쟁심이 강하며, 따라서 기존의 게임 콘텐츠에 향기가 같이 전달되어 그들이 활동하는 데 유리하다면, 향기 기술은 일상에 적용될 수 있을 것이다. 이것은 CD 음질의 음악과 고화질 그래픽의 전례에서 보듯이 수익 가능성이 큰 특정 시장 분야에서 향기 적용이 시작될 수 있음을 나타낸다.In other words, the fragrance generating unit 380 may increase the sensibility of the game by outputting a gunpowder smell or a burning smell of an alien creature or a rubber burning smell for a racing game in an online game. Game players today demanding vast amounts of material and the best gameplay environment are highly competitive, so if the fragrances are delivered to existing game content and are advantageous for their activities, fragrance technology can be applied to everyday life. This suggests that fragrance applications can begin in certain market segments with high revenue potential, as shown in the example of CD-quality music and high-definition graphics.

또한, 상기 향기 발생부(380)는 개인 공간에서 향기를 사용하여 냄새에 대한 기억과 학습 능력을 증가시킬 수 있다.In addition, the fragrance generation unit 380 may increase the memory and learning ability for the smell by using the fragrance in the personal space.

또한, 상기 향기 발생부(380)는 시각장애인, 청각장애인, 다른 특별한 필요가 있는 개인 등에게 매우 유용한 정보 디스플레이 매체로서 상기 향기를 적용할 수도 있다. 즉, 고품질의 컴퓨터 제어 사운드 장치, 촉각 연구의 성과, 그리고 저렴한 컴퓨터 하드웨어와 소프트웨어는 보다 향상된 방법으로 개개인이 감각을 이용하여 외부 세계와 통신하고 정보를 받을 수 있는 환경을 제공해 줄 것이다.In addition, the fragrance generating unit 380 may apply the fragrance as an information display medium that is very useful for the visually impaired, the hearing impaired, and other individuals with special needs. High-quality computer-controlled sound devices, tactile research, and inexpensive computer hardware and software will provide an enhanced way for individuals to use their senses to communicate and receive information from the outside world.

본 발명의 실시예에서는 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)가 상기 디지털 사이니지(300)의 구성 요소 중 일부에 포함되어 동작하는 것으로 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)는 스탠드 얼론(stand alone) 형태로 동작하며, 상기 디지털 사이니지(300)에서 출력 중인 MR 콘텐츠가 있을 때, 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)에서 상기 디지털 사이니지(300)로부터 전송되는 MR 콘텐츠(또는 상기 MR 콘텐츠에 포함된 마커의 속성 정보)를 수신하고, 상기 수신된 MR 콘텐츠에 포함된 마커의 속성 정보를 근거로 청각 정보 및/또는 후각 정보에 대응하여 동작할 수도 있다.In the exemplary embodiment of the present invention, the haptic unit 370 and / or the fragrance generating unit 380 are described as being included in some of the components of the digital signage 300 to operate, but the present invention is not limited thereto. The haptic unit 370 and / or the scent generating unit 380 operate in a stand alone form, and when there is MR content being output from the digital signage 300, the haptic unit 370. And / or the MR content (or attribute information of the marker included in the MR content) transmitted from the digital signage 300 in the fragrance generation unit 380, and the marker included in the received MR content. It may operate in response to auditory information and / or olfactory information based on the attribute information of.

즉, 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)가 독립적으로 구성되며 상기 디지털 사이니지(300)에 인접하게 배치(또는 설치)된 상태에서 상기 디지털 사이니지(300)에서 MR 콘텐츠(또는 AR 콘텐츠/VR 콘텐츠/다른 형식의 콘텐츠)가 출력 중일 때, 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)는 상기 디지털 사이니지(300)로부터 전송되는 MR 콘텐츠(또는 해당 MR 콘텐츠에 포함된 마커의 속성 정보)를 수신한다.That is, the MR in the digital signage 300 in a state where the haptic part 370 and / or the scent generator 380 are independently configured and disposed (or installed) adjacent to the digital signage 300. When the content (or AR content / VR content / other format content) is being output, the haptic unit 370 and / or the scent generating unit 380 may transmit MR content (or, transmitted from the digital signage 300). Attribute information of the marker included in the corresponding MR content).

또한, 상기 햅틱부(370) 및/또는 상기 향기 발생부(380)는 상기 수신된 MR 콘텐츠에 포함된 마커의 속성 정보를 근거로 청각 정보에 대응하는 진동 등을 발생시키거나 후각 정보에 대응하는 향기를 분사한다.The haptic unit 370 and / or the scent generator 380 may generate vibrations corresponding to the auditory information or correspond to the olfactory information based on the attribute information of the marker included in the received MR content. Spray the fragrance.

상기 제어부(390)는 상기 디지털 사이니지(300)의 전반적인 제어 기능을 실행한다.The controller 390 executes an overall control function of the digital signage 300.

또한, 상기 제어부(390)는 상기 저장부(320)에 저장된 프로그램 및 데이터를 이용하여 디지털 사이니지(300)의 전반적인 제어 기능을 실행한다. 상기 제어부(390)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(320)에 액세스하여, 상기 저장부(320)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(320)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the controller 390 executes an overall control function of the digital signage 300 using the programs and data stored in the storage 320. The controller 390 may include a RAM, a ROM, a CPU, a GPU, a bus, and the RAM, a ROM, a CPU, a GPU, and the like may be connected to each other through a bus. The CPU may access the storage 320 to boot using the O / S stored in the storage 320 and use various programs, contents, data, etc. stored in the storage 320. Various operations can be performed.

또한, 상기 제어부(390)는 상기 수신된 재생 스케줄 정보 및 현재 시각을 근거로 상기 서버(200)로부터 제공되는 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 상기 표시부(350), 상기 음성 출력부(360), 상기 햅틱부(370), 상기 향기 발생부(380) 등을 통해 출력한다.In addition, the controller 390 displays the MR content (or an advertisement or promotion content separate from the MR content) provided from the server 200 based on the received playback schedule information and the current time. The voice output unit 350 outputs the voice output unit 360, the haptic unit 370, and the scent generator 380.

즉, 상기 제어부(390)는 상기 수신된 재생 스케줄 정보 및 현재 시각을 근거로 상기 서버(200)로부터 제공되는 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함)에 포함된 영상 정보를 상기 표시부(350)를 통해 표시(또는 출력)한다. 이때, 상기 제어부(390)는 상기 서버(200)로부터 실시간으로 전송되는 MR 콘텐츠를 상기 표시부(350)를 통해 표시하거나 또는, 상기 저장부(320)의 저장 용량을 고려하여 상기 서버(200)로부터 전송되는 MR 콘텐츠를 상기 저장부(320)에 임시 저장한 후, 상기 저장부(320)에 임시 저장된 MR 콘텐츠를 상기 표시부(350)를 통해 표시할 수 있다.That is, the controller 390 is included in the MR content provided from the server 200 based on the received play schedule information and the current time (or including advertisement or promotion content separate from the MR content). Image information is displayed (or output) through the display unit 350. In this case, the controller 390 displays the MR content transmitted from the server 200 in real time through the display unit 350 or from the server 200 in consideration of the storage capacity of the storage unit 320. After temporarily storing the transmitted MR content in the storage unit 320, the MR content temporarily stored in the storage unit 320 may be displayed through the display unit 350.

또한, 상기 제어부(390)는 상기 디지털 사이니지(300)에서 상기 MR 콘텐츠를 상기 표시부(350)를 통해 디스플레이(또는 표시)하는 중에, 상기 MR 콘텐츠에 포함된 마커의 속성 정보를 근거로 상기 MR 콘텐츠와 관련한 시각 정보뿐만 아니라 청각 정보, 촉각 정보, 후각 정보 등을 제공(또는 출력)한다.In addition, the controller 390 displays (or displays) the MR content on the display unit 350 in the digital signage 300 based on the attribute information of the marker included in the MR content. In addition to visual information related to the content, audio information, tactile information, olfactory information, and the like are provided (or output).

즉, 상기 제어부(390)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)를 통해 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 청각 정보가 있는 경우, 해당 청각 정보(또는 해당 청각 정보에 대응하는 소리/음성 정보)를 상기 음성 출력부(360)를 통해 출력한다.That is, the controller 390 displays the MR content corresponding to the current time on the display unit 350 according to the play schedule information, and when there is auditory information preset with respect to the corresponding MR content being displayed, Auditory information (or sound / voice information corresponding to the auditory information) is output through the voice output unit 360.

또한, 상기 제어부(390)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)를 통해 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 촉각 정보가 있는 경우, 해당 촉각 정보(또는 해당 촉각 정보에 대응하는 진동 정보)를 상기 햅틱부(370)를 통해 출력한다.In addition, the controller 390 displays the MR content corresponding to the current time through the display unit 350 according to the play schedule information, and when there is preset tactile information related to the corresponding MR content being displayed, Tactile information (or vibration information corresponding to the tactile information) is output through the haptic unit 370.

또한, 상기 제어부(390)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 상기 표시부(350)를 통해 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 후각 정보가 있는 경우, 해당 후각 정보에 대응하는 향기(또는 향)를 상기 향기 발생부(380)를 통해 분사(또는 출력)한다.In addition, the controller 390 displays MR content corresponding to a current time according to the play schedule information through the display unit 350, and when there is preset olfactory information related to the corresponding MR content being displayed, The fragrance (or fragrance) corresponding to the olfactory information is sprayed (or output) through the fragrance generation unit 380.

또한, 상기 디지털 사이니지(300)로부터 미리 설정된 반경 내에 위치하는 적어도 하나의 다른 단말(400)이 존재하는 경우, 상기 제어부(390)는 상기 통신부(310)를 통해 상기 적어도 하나의 다른 단말(400)과 연결한다. 이때, 상기 디지털 사이니지(300)와 상기 다른 단말(400) 간의 통신 연결 방식은 무선 통신 방식일 수 있다.In addition, when there is at least one other terminal 400 located within a preset radius from the digital signage 300, the controller 390 is the at least one other terminal 400 through the communication unit 310. ). In this case, the communication connection method between the digital signage 300 and the other terminal 400 may be a wireless communication method.

또한, 상기 제어부(390)는 상기 표시부(350)를 통해 표시 중인 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 상기 통신부(310)를 통해 상기 연결된 다른 단말(400)에 전송한다.In addition, the control unit 390 is connected to the other terminal 400 via the communication unit 310 to the MR content that is being displayed on the display unit 350 (or including advertising or promotion content separate from the MR content) through the communication unit 310 To be sent).

이와 같이, 상기 제어부(390)는 상기 디지털 사이니지(300)를 통해 상기 콘텐츠 및 상기 콘텐츠와 관련한 부가 정보(예를 들어 청각 정보, 촉각 정보, 후각 정보 등 포함)를 출력할 수도 있고, 상기 디지털 사이니지(300)에 인접한 적어도 하나의 다른 단말(400)에 상기 디지털 사이니지(300)를 통해 출력 중인 정보들(예를 들어 상기 콘텐츠 및 상기 콘텐츠와 관련한 부가 정보 등 포함)을 제공할 수도 있다.As such, the controller 390 may output the content and additional information related to the content (for example, auditory information, tactile information, olfactory information, etc.) through the digital signage 300, or the digital signal. Information (for example, the content and additional information related to the content) being output through the digital signage 300 may be provided to at least one other terminal 400 adjacent to the signage 300. .

또한, 상기 센서부(340)를 통해 인식된 상기 디지털 사이니지(300)에 인접한 특정 사용자의 음성 및/또는 동작에 따라 상기 표시부(350)에 표시 중인 MR 콘텐츠(또는 콘텐츠)의 일측에 표시되는 마커가 선택되는 경우, 상기 제어부(390)는 해당 마커와 관련한 추가 기능을 제공한다.In addition, according to a voice and / or an operation of a specific user adjacent to the digital signage 300 recognized through the sensor unit 340, the MR content (or content) displayed on the display unit 350 may be displayed. When a marker is selected, the controller 390 provides an additional function related to the marker.

즉, 상기 인식된 음성 및/또는 동작에 따라 상기 표시부(350)에서 표시 중인 MR 콘텐츠의 일측에 표시되는 마커가 선택되는 경우, 상기 제어부(390)는 상기 MR 콘텐츠를 제공받을 또 다른 단말(400)에 대한 사용자 정보를 입력받기 위한 화면(또는 사용자 인터페이스/UI)을 상기 표시부(350)에 표시한다.That is, when a marker displayed on one side of the MR content being displayed on the display unit 350 is selected according to the recognized voice and / or operation, the controller 390 may receive another terminal 400 to receive the MR content. ) Displays a screen (or user interface / UI) for receiving user information on the display unit 350.

또한, 사용자 입력(또는 사용자 선택/터치)에 따른 상기 MR 콘텐츠를 제공받을 또 다른 단말(400)에 대한 사용자 정보를 수신하는 경우, 상기 제어부(390)는 상기 수신된 또 다른 단말(400)에 대한 사용자 정보를 근거로 상기 표시부(350)에서 표시 중인 상기 MR 콘텐츠 등을 상기 통신부(310)를 통해 해당 또 다른 단말(400)에 대한 사용자 정보에 대응하는 또 다른 단말(400)에 제공(또는 전송)한다. 여기서, 상기 또 다른 단말(400)에 대한 사용자 정보는 또 다른 단말(400)의 전화번호/식별정보, 이메일 주소, SNS 계정 정보 등을 포함한다.In addition, when receiving user information about another terminal 400 to receive the MR content according to a user input (or user selection / touch), the controller 390 transmits the received information to another terminal 400. The MR content being displayed on the display unit 350 is provided to another terminal 400 corresponding to user information about another terminal 400 through the communication unit 310 based on the user information. send. In this case, the user information for the another terminal 400 includes a phone number / identification information, an e-mail address, SNS account information, etc. of another terminal 400.

또한, 상기 인식된 음성 및/또는 동작에 따라 상기 표시부(350)에서 표시 중인 MR 콘텐츠의 다른 일측에 표시되는 특정 메뉴가 선택되는 경우, 상기 제어부(390)는 상기 특정 사용자 및/또는 상기 서버(200)와 연동하여, 상기 선택된 특정 메뉴에 대응하는 정보(또는 콘텐츠)를 상기 표시부(350), 상기 음성 출력부(360), 상기 햅틱부(370) 및 상기 향기 발생부(380)를 통해 출력하거나 또는, 상기 선택된 특정 메뉴에 대응하는 기능을 수행하고 해당 기능의 수행 결과를 출력한다.In addition, when a specific menu displayed on the other side of the MR content displayed on the display unit 350 is selected according to the recognized voice and / or operation, the controller 390 may control the specific user and / or the server ( In conjunction with the 200, information (or content) corresponding to the selected specific menu is output through the display unit 350, the voice output unit 360, the haptic unit 370, and the scent generating unit 380. Or perform a function corresponding to the selected specific menu and output a result of performing the corresponding function.

본 발명의 실시예에서는, 상기 디지털 사이니지(300)와 상기 특정 사용자와 상기 또 다른 단말(400) 간의 상호 인터랙션을 통해 다양한 정보가 공유되는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 디지털 사이니지(300)는 상기 특정 사용자의 동작 및/또는 음성 인식 결과에 따른 상기 또 다른 단말(400)에 대한 사용자 정보를 수신하고, 상기 수신된 또 다른 단말(400)에 대한 사용자 정보, 현재 출력 중인 MR 콘텐츠(또는 임의의 콘텐츠)에 대한 정보 등을 상기 서버(200)에 전송하고, 상기 서버(200)에서 상기 디지털 사이니지(300)로부터 전송된 또 다른 단말(400)에 대한 사용자 정보, 현재 출력 중인 MR 콘텐츠(또는 임의의 콘텐츠)에 대한 정보 등을 근거로 해당 또 다른 단말(400)에 상기 디지털 사이니지(300)에서 출력 중인 MR 콘텐츠를 전송할 수도 있다.In the embodiment of the present invention, it is described that the various information is shared through the interaction between the digital signage 300 and the specific user and the another terminal 400, but is not limited to this, between the digital The niche 300 receives user information on the another terminal 400 according to the operation of the specific user and / or a voice recognition result, user information on the received another terminal 400, and is currently being output. Information about an MR content (or arbitrary content), etc. is transmitted to the server 200, and user information about another terminal 400 transmitted from the digital signage 300 at the server 200, present The MR content being output from the digital signage 300 may be transmitted to the corresponding another terminal 400 based on information on the MR content (or arbitrary content) being output.

또한, 상기 디지털 사이니지(300)는 상기 서버(200)에서 관리되는 재생 스케줄링 정보를 근거로 현재 시각에 따라 특정 콘텐츠를 출력하지만, 이와 같이 상기 디지털 사이니지(300)와 특정 사용자 간에 인터랙션이 수행되는 경우, 상기 재생 스케줄링 정보에 따라 현재 시각에 출력해야할 특정 콘텐츠의 출력을 잠시 보류하고, 상기 디지털 사이니지(300)와 상기 특정 사용자 간의 인터랙션 기능을 우선적으로 처리할 수 있다.In addition, the digital signage 300 outputs specific content according to the current time based on the reproduction scheduling information managed by the server 200, but the interaction between the digital signage 300 and the specific user is performed in this way. If so, the output of the specific content to be output at the current time is temporarily suspended according to the reproduction scheduling information, and the interaction function between the digital signage 300 and the specific user may be preferentially processed.

또한, 상기 디지털 사이니지(300)와 상기 특정 사용자 간의 인터랙션 기능이 완료된 후, 상기 디지털 사이니지(300)는 상기 재생 스케줄링 정보와 현재 시점의 시각 정보를 근거로 해당 현재 시점에 대응하는 특정 콘텐츠를 출력할 수 있다.In addition, after the interaction between the digital signage 300 and the specific user is completed, the digital signage 300 displays specific content corresponding to the current time based on the playback scheduling information and the time information of the current time. You can print

인터페이스의 중요성은 컴퓨터 기술이 발전할수록 커지고 있다. 컴퓨터와 인터페이스는 불가분의 관계에 있으며, 사람이 컴퓨터를 편리하게 이용하기 위해서는 컴퓨터의 인터페이스가 인간의 오감에 의존하는 형태를 가질 수밖에 없다. 이에 따라, 본 발명의 실시예에서는 상기 디지털 사이니지(300)를 통해 시청각에만 의존하던 인터페이스 기술에 사람의 직관적인 동작, 촉각, 후각을 활용하고, 멀티 모달리티를 융합하는 멀티모달 인터페이스 기술을 적용한다.The importance of interfaces is growing as computer technology advances. The interface between the computer and the interface is inseparable, and in order for a person to use the computer conveniently, the interface of the computer has to rely on the five senses of the human being. Accordingly, in the embodiment of the present invention, the digital signage 300 applies a multimodal interface technology that utilizes human's intuitive operation, tactile sense and sense of smell, and fuses multi-modality to the interface technology that depends only on audiovisual. .

여기서, 상기 멀티 모달의 사전적 의미는 '여러 개의 모드, 양상, 감각을 포함 또는 가지는 것'이다. 멀티모달 인터페이스는 인간과 컴퓨터가 2개 이상의 입출력 모달리티(Modality)를 이용하여 상호작용을 할 수 있도록 하는 것일 수 있다.Here, the dictionary meaning of the multi-modal is 'to include or have multiple modes, aspects, and senses'. The multimodal interface may allow a human and a computer to interact by using two or more input / output modalities.

상기 멀티모달 인터페이스를 위해서는 키보드, 마우스, 펜, 터치 스크린과 같은 단순히 직접적인 조작으로 입력할 수 있는 모달리티에 대한 입력 기술뿐만 아니라, 음성 인식, 2D/3D 제스처 인식, 입술 움직임 인식, 눈동자의 움직임 인식 등과 같은 좀더 복잡하고 진보된 모달리티들에 대한 입력 기술들이 사용된다. 또한, 출력 기술로는 음성 합성, 2D/3D 그래픽, 점자 출력기 등과 같은 모달리티 기술이 사용되고 있다. 이러한 개별 모달리티들을 서로 융합해 시스템에서 사용 가능한 모달리티로 입출력하는 수단을 제공하기 위한 융합 기술은 휴대와 이동성이 강조되는 차세대 컴퓨터의 중요한 인터페이스일 수 있다.For the multi-modal interface, voice recognition, 2D / 3D gesture recognition, lip movement recognition, pupil movement recognition, etc., as well as input technology for modality that can be input by simple direct manipulation such as keyboard, mouse, pen, touch screen, etc. The same input techniques for more complex and advanced modalities are used. In addition, modality technologies such as speech synthesis, 2D / 3D graphics, and braille output are used as output technologies. Convergence technology to fuse these individual modalities with each other and provide a means for inputting / outputting the modalities usable in a system may be an important interface of next-generation computers with emphasis on portability and mobility.

또한, 상기 멀티모달 인터페이스는 인간과 대화하는 거소가 비슷한 방식으로 컴퓨터와 상호작용할 수 있는 인간 중심적인 인터페이스이다. 특정의 인터페이스에 제약이 있는 환경이거나 장애인에게는 다른 입출력 방식을 선택할 수 있는 장점을 제공하며, 둘 이상의 입력을 융합하여 신뢰성 높은 입출력 결과를 얻을 수도 있다.In addition, the multimodal interface is a human-centered interface that allows a dwelling person to interact with a computer in a similar manner. It provides the advantage of selecting different input / output method for environment with limited specific interface or disabled person. It is also possible to get reliable input / output result by fusing two or more inputs.

멀티모달 시스템은 음향, 음성, 필기, 키보드 등의 다양한 입력 모드를 사용하고, 출력은 음성, 문자, 그래픽, 음향, 동영상 등 하나 이상의 다중 출력 모드로 구성될 수 있다.The multimodal system uses various input modes such as sound, voice, handwriting, keyboard, and the output may be configured with one or more multiple output modes such as voice, text, graphics, sound, and video.

또한, 멀티모달 프레임워크 구성에서 사용자는 시스템에 입력하고, 시스템에 의해 표현된 정보를 보거나 듣는다. 상호작용 관리자(Interaction Manager)는 다양한 입출력 컴포넌트 간의 데이터를 적절히 조정하며, 각 컴포넌트들이 실행되는 상태 및 문맥 정보를 관리하고, 세션 컴포넌트는 멀티모달 응용을 위한 세션 및 상태 관리를 제공하기 위해 상호작용 관리자와의 인터페이스를 제공한다. 다양한 입력장치들의 데이터는 일반화된 형식으로 변환되어 상호작용 관리자로 넘겨진다.In addition, in a multimodal framework configuration, a user enters into the system and views or hears information represented by the system. The Interaction Manager coordinates the data between the various I / O components appropriately, manages the state and contextual information that each component runs on, and the Session component provides the Interaction Manager to provide session and state management for multimodal applications. Provides an interface with Data from various input devices is converted to a generalized format and passed to the interaction manager.

또한, 이러한 입력장치들의 데이터를 일반화하기 위해 W3C에서는 EMMA 마크업 언어(Extensible Multimodal Annotation Markup Language) 형식을 사용하며, 디지털 잉크 데이터에 대해서는 InkML 마크업 언어를 사용한다. 여기서, 상기 EMMA는 멀티모달 인터랙션 프레임워크에서 음성, 문자, GUI, 잉크 등 다양한 입력 결과를 의미가 있는 데이터 형식으로 표현하기 위한 마크업 언어이며, 상기 InkML은 전자펜이나 스타일러스를 사용해 입력된 잉크를 표현하는 데이터 형식을 제공하기 위한 마크업 언어이다.In addition, in order to generalize the data of these input devices, the W3C uses the EMMA Markup Language (Extensible Multimodal Annotation Markup Language) format, and the InkML markup language for digital ink data. Here, the EMMA is a markup language for expressing various input results such as voice, text, GUI, ink, etc. in a multi-modal interaction framework in a meaningful data format, and the InkML is an ink pen inputted using an electronic pen or a stylus. Markup language for providing the data format to be represented.

이와 같이, 상기 디지털 사이니지(300)는 다양한 마크업 언어(예를 들어 EMMA 마크업 언어, InkML 마크업 언어, SALT(Speech Application Language Tags) 등 포함)를 통해 구현하여, 사용자의 경험을 향상시키고, 어떠한 애플리케이션에 접근하려할 때 신뢰성을 증가시킬 수 있는 인터페이스를 제공할 수 있다. 또한, 사용자는 동시에 하나의 기기 또는 모달리티, 나아가 더 많은 기기나 모달리티들과 상호작용을 할 수 있다. 즉, 펜 입력, 멀티미디어 출력, 비디오 입력, 햅틱 입력과 출력, TTY 통신 등과 같은 상호작용의 여러 형태로 확장 응용이 가능할 수 있다.As such, the digital signage 300 is implemented through various markup languages (including EMMA markup language, InkML markup language, Speech Application Language Tags (SALT), etc.) to enhance the user's experience. It can provide an interface that can increase reliability when trying to access any application. In addition, a user can interact with one device or modalities at the same time, and even more devices or modalities at the same time. That is, the application may be extended in various forms of interaction such as pen input, multimedia output, video input, haptic input and output, and TTY communication.

상기 다른 단말(400)은 상기 서버(200), 상기 디지털 사이니지(300) 등과 통신한다.The other terminal 400 communicates with the server 200, the digital signage 300, and the like.

또한, 상기 다른 단말(400)이 상기 디지털 사이니지(300)의 통신 반경 내에 위치하는 경우, 상기 다른 단말(400)은 상기 디지털 사이니지(300)로부터 전송되는 상기 디지털 사이니지(300)에서 출력 중인 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 수신한다.In addition, when the other terminal 400 is located within the communication radius of the digital signage 300, the other terminal 400 is output from the digital signage 300 transmitted from the digital signage 300. Receives the MR content (or a separate advertisement or promotion content produced in a different format from the MR content).

또한, 상기 특정 사용자와 상기 디지털 사이니지(300) 간의 상호작용에 의해 상기 디지털 사이니지(300)에서 출력 중인 상기 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 제공받을 단말로 상기 다른 단말(400)이 선택(또는 선정)된 경우, 상기 다른 단말(400)은 상기 디지털 사이니지(300) 및/또는 상기 서버(200)로부터 전송되는 상기 디지털 사이니지(300)에서 출력 중인 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 수신한다.In addition, the MR content being output from the digital signage 300 by the interaction between the specific user and the digital signage 300 (or a separate advertisement or content produced in a format different from the MR content) If the other terminal 400 is selected (or selected) as a terminal to be provided, the other terminal 400 is the digital signage 300 and / or the digital transmitted from the server 200 Receives MR content (or a separate advertisement or promotional content produced in a format different from MR content) output from the signage 300.

또한, 상기 다른 단말(400)은 상기 수신된 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함/MR 콘텐츠에 포함된 영상 정보)를 표시한다. 여기서, 상기 다른 단말(400)은 상기 MR 콘텐츠를 표시하면서, 상기 MR 콘텐츠와 관련한 청각 정보를 근거로 음성 정보를 출력하고, 상기 MR 콘텐츠와 관련한 촉각 정보를 근거로 상기 다른 단말(400)에 구비된 진동부(미도시)를 통해 상기 촉각 정보에 대응하는 진동을 출력할 수도 있다.In addition, the other terminal 400 displays the received MR content (or image information included in MR content included in a separate advertisement or promotion content produced in a format different from MR content). Here, the other terminal 400 displays the MR content, outputs voice information based on auditory information related to the MR content, and is provided to the other terminal 400 based on tactile information related to the MR content. A vibration corresponding to the tactile information may be output through the vibrator (not shown).

또한, 상기 또 다른 단말(400)은 상기 표시되는 MR 콘텐츠에 대해서 사용자 선택에 따라 해당 마커와 관련한 추가 MR 콘텐츠(또는 추가 애니메이션 정보)를 표시하는 기능, 해당 마커와 관련한 3D 객체에 대한 바로 구매 화면(또는 바로 구매 기능)을 표시하는 기능, 임의의 특정 단말(미도시)로의 공유 기능 등을 각각 수행할 수 있다.In addition, the another terminal 400 may display additional MR content (or additional animation information) related to the marker according to a user's selection of the displayed MR content, and a direct purchase screen for the 3D object related to the marker. (Or a function of displaying a direct purchase function) and a sharing function to any specific terminal (not shown) may be performed.

즉, 상기 또 다른 단말(400)에 표시된 MR 콘텐츠의 일측에 표시되는 마커가 선택되는 경우, 상기 또 다른 단말(400)은 해당 마커와 관련한 추가 MR 콘텐츠(또는 추가 애니메이션 정보)를 표시한다.That is, when a marker displayed on one side of MR content displayed on the another terminal 400 is selected, the another terminal 400 displays additional MR content (or additional animation information) related to the corresponding marker.

이와 같이, 상기 디지털 사이니지(300)와 상기 또 다른 단말(400) 간의 상호 인터랙션을 통해, 실시간으로 다양한 정보를 공유할 수 있다.As described above, various information may be shared in real time through the interaction between the digital signage 300 and the another terminal 400.

또한, 상기 다른 단말(400)은 상기 추가 MR 콘텐츠가 표시되는 일측(또는 상기 추가 MR 콘텐츠가 표시되는 일측에 오버레이하여/증강 현실 기능을 적용하여)에 상기 추가 MR 콘텐츠에 포함된 객체와 관련한 상세 정보를 표시한다.In addition, the other terminal 400 may detail the object related to the object included in the additional MR content on one side where the additional MR content is displayed (or by overlaying / applying augmented reality function on one side where the additional MR content is displayed). Display information.

이때, 상기 객체와 관련한 상세 정보는 상기 다른 단말(400)에 표시된 MR 콘텐츠의 일측에 표시되는 마커가 선택되는 경우, 상기 다른 단말(400)에서 실시간으로 상기 서버(200) 및/또는 상기 디지털 사이니지(300)에 상기 객체와 관련한 상세 정보를 요청하고, 이에 응답하여 상기 서버(200) 및/또는 상기 디지털 사이니지(300)에서 실시간으로 해당 객체와 관련한 상세 정보를 수집한 후, 상기 다른 단말(400)에 제공하는 정보일 수 있다.In this case, when the marker displayed on one side of the MR content displayed on the other terminal 400 is selected, the detailed information related to the object is between the server 200 and / or the digital in real time in the other terminal 400. After requesting the detailed information related to the object to the niger 300, and in response to the detailed information related to the object in real time from the server 200 and / or the digital signage 300, the other terminal It may be information provided to the 400.

여기서, 상기 상세 정보는 상기 객체와 관련한 상품명, 상품 고유 모델 번호, 제조일자, 제조사, 상품 종류에 따른 코드 정보, 원산지, 가격, 중량, 프로모션 정보(또는 이벤트 정보) 등을 포함한다.Here, the detailed information includes a product name, a product unique model number, a manufacturing date, a manufacturer, code information according to a product type, a country of origin, a price, a weight, and promotion information (or event information) related to the object.

또한, 상기 다른 단말(400)에 표시된 MR 콘텐츠의 다른 일측에 표시되는 마커와 관련한 바로 구매 메뉴(또는 항목)가 선택되는 경우, 상기 다른 단말(400)은 해당 마커와 관련한 3D 객체에 대한 바로 구매 화면을 표시한다.In addition, when the direct purchase menu (or item) related to the marker displayed on the other side of the MR content displayed on the other terminal 400 is selected, the other terminal 400 directly purchases the 3D object related to the marker. Display the screen.

즉, 상기 다른 단말(400)에 표시된 MR 콘텐츠의 다른 일측에 표시되는 마커와 관련한 바로 구매 메뉴가 선택되는 경우, 상기 다른 단말(400)은 상기 마커와 관련한 3D 객체에 대응하는 상품의 구매 기능을 위한 화면(예를 들어 장바구니 화면, 결제 화면 등 포함)을 표시한다.That is, when the immediate purchase menu is selected with respect to the marker displayed on the other side of the MR content displayed on the other terminal 400, the other terminal 400 performs a function of purchasing a product corresponding to the 3D object related to the marker. Displays a screen (for example, a shopping cart screen, a payment screen, etc.).

이와 같이, 상기 다른 단말(400)은 상기 3D 객체 및 해당 3D 객체와 관련한 마커를 포함하는 MR 콘텐츠를 활용하여 상품 검색(또는 상품 탐색/추천), 구매에 이르는 원스톱(one-stop) 서비스를 제공하여, 사용자의 편의성을 향상시킬 수 있다.As such, the other terminal 400 provides a one-stop service for product search (or product search / recommendation) and purchase using MR content including the 3D object and a marker associated with the 3D object. By providing a user's convenience can be improved.

또한, 상기 다른 단말(400)에 표시된 MR 콘텐츠의 또 다른 일측에 표시되는 공유 항목이 선택되는 경우, 상기 다른 단말(400)은 사용자 선택(또는 사용자 터치)에 따라 상기 MR 콘텐츠를 제공받을 임의의 단말을 선택(또는 선정)한다. 또한, 상기 다른 단말(400)은 상기 선택된 임의의 단말로 상기 마커와 3D 객체를 포함하는 MR 콘텐츠를 제공(또는 전송)한다. 이때, 상기 다른 단말(400)은 상기 다른 단말(400)의 사용자 또는 상기 선택된 임의의 단말의 사용자와 관련한 소셜 네트워크 서비스(Social Networking Service: SNS) 등에 상기 마커와 3D 객체를 포함하는 MR 콘텐츠를 전송(또는 공유/제공)할 수도 있다.In addition, when a shared item displayed on another side of the MR content displayed on the other terminal 400 is selected, the other terminal 400 may receive any MR content according to a user selection (or a user touch). Select (or select) a terminal. In addition, the other terminal 400 provides (or transmits) MR content including the marker and the 3D object to the selected arbitrary terminal. In this case, the other terminal 400 transmits MR content including the marker and the 3D object to a social network service (SNS) related to the user of the other terminal 400 or the user of the selected arbitrary terminal. (Or share / provide).

본 발명의 실시예에 따른 상기 단말(100) 및 상기 다른 단말(400)은 상기 디지털 사이니지(300)에 포함된 통신부, 저장부, 카메라부, 센서부, 표시부, 음성 출력부, 햅틱부, 향기 발생부, 제어부 등의 구성 요소 중 적어도 하나 이상의 구성 요소를 포함하도록 구성할 수 있다.The terminal 100 and the other terminal 400 according to an embodiment of the present invention are a communication unit, a storage unit, a camera unit, a sensor unit, a display unit, a voice output unit, a haptic unit included in the digital signage 300, It may be configured to include at least one or more components of the components, such as the fragrance generating unit, the control unit.

이와 같이, 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공할 수 있다.As described above, MR contents are created by adding one or more markers based on 3D objects generated through a dedicated tool or 3D objects through object recognition in an image captured by a camera, and visually, It may be provided through a signage device related to hearing, smell, hearing, and the like.

이하에서는, 본 발명에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법을 도 1 내지 도 9를 참조하여 상세히 설명한다.Hereinafter, a signage method for providing MR content including a 3D object and a marker according to the present invention will be described in detail with reference to FIGS. 1 to 9.

도 4는 본 발명의 실시예에 따른 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a signage method for providing MR content including 3D objects and markers according to an embodiment of the present invention.

먼저, 단말(100)은 전용 툴(또는 전용 프로그램)을 이용하거나 또는 상기 단말(100)에 구비된 카메라부(미도시)를 통해 촬영된 객체를 포함하는 영상 정보를 이용해서 3D 객체(또는 해당 3D 객체와 관련한 3D 객체 데이터)를 생성(또는 제작/모델링)한다.First, the terminal 100 uses a dedicated tool (or a dedicated program) or image information including an object photographed through a camera unit (not shown) provided in the terminal 100 (or a corresponding 3D object). 3D object data related to the 3D object) is generated (or manufactured / modeled).

즉, 상기 단말(100)은 전용 툴(또는 전용 프로그램)을 이용해서 특정 객체와 관련한 3D 객체를 생성(또는 제작/모델링)한다.That is, the terminal 100 generates (or fabricates / models) a 3D object related to a specific object by using a dedicated tool (or dedicated program).

또한, 상기 단말(100)은 해당 단말(100)에 포함된 카메라부를 통해 임의의 객체를 포함하는 영상을 촬영하고, 상기 촬영된 영상(또는 영상 정보) 내의 객체를 인식한 후, 상기 단말(100)에 미리 설치된 3D 객체 생성 프로그램(미도시)을 통해 상기 인식된 객체를 이용해서 3D 객체를 생성(또는 제작/모델링)한다. 이때, 상기 영상은 상기 단말(100)과 통신하는 임의의 단말(미도시) 또는 서버(200)로부터 제공될 수도 있다. 여기서, 상기 생성된(또는 제작된/모델링된) 3D 객체는 해당 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등을 포함하도록 생성되어, 해당 3D 객체에 대한 정보 제공 시 시각, 청각, 촉각, 후각 등에 대한 정보를 동시에 제공할 수 있도록 구성할 수 있다. 이때, 상기 시각 정보는 해당 3D 객체의 형상 정보, 색상 정보, 재질 정보, 패턴 정보, 디자인 정보 등을 포함한다. 또한, 상기 청각 정보는 해당 3D 객체와 관련한 소리 정보 등을 포함한다. 또한, 상기 촉각 정보는 해당 3D 객체와 관련한 근감각에 대한 정보(예를 들어 해당 3D 객체와 관련한 질량, 굳고 말랑말랑한 정도, 반력 등에 대한 정보 포함), 해당 3D 객체와 관련한 질감에 대한 정보(예를 들어 해당 3D 객체와 관련한 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대한 정보 포함) 등을 포함한다. 또한, 상기 후각 정보는 해당 3D 객체와 관련한 향기(또는 향) 정보 등을 포함한다.In addition, the terminal 100 photographs an image including an arbitrary object through a camera unit included in the terminal 100, recognizes an object in the photographed image (or image information), and then the terminal 100. The 3D object is generated (or manufactured / modeled) using the recognized object through a 3D object generation program (not shown) installed in advance. In this case, the image may be provided from any terminal (not shown) or server 200 communicating with the terminal 100. In this case, the generated (or produced / modeled) 3D object is generated to include visual information, auditory information, tactile information, olfactory information, etc. related to the 3D object, and thus provides visual and auditory information when the information on the 3D object is provided. It can be configured to provide information about the sense of touch, sense of smell, etc. at the same time. In this case, the visual information includes shape information, color information, material information, pattern information, design information, etc. of the corresponding 3D object. The auditory information may include sound information related to the corresponding 3D object. In addition, the tactile information may include information on muscle sensation related to the 3D object (for example, information on mass, firmness, and reaction force related to the 3D object), and information on texture related to the 3D object (eg For example, the surface pattern related to the 3D object, small shapes, including information about the smoothness and roughness of the surface, the sense of warmth and the like). In addition, the olfactory information includes fragrance (or fragrance) information related to the 3D object.

일 예로, 도 5에 도시된 바와 같이, 제 1 단말(100)은 상기 제 1 단말에 미리 설치된 전용 툴을 이용해서 3D 형태의 무선 진공 청소기(510)를 제작한다. 여기서, 상기 제작된 3D 형태의 무선 진공 청소기는 형상 정보, 색상 정보, 재질 정보, 패턴 정보, 디자인 정보 등을 포함하는 제 1 시각 정보와, 해당 무선 진공 청소기의 동작 모드(예를 들어 1단, 2단, 3단 등의 동작 모드)에 따른 소음 정보 등을 포함하는 제 1 청각 정보와, 해당 무선 진공 청소기의 동작 모드에 따른 진동의 크기 정보 등을 포함하는 제 1 촉각 정보와, 해당 무선 진공 청소기의 동작 시 미리 설정된 시간 단위로 외부로 방출되는 방향제에 대한 정보 등을 포함하는 제 1 후각 정보 등을 포함한다(S410).For example, as shown in FIG. 5, the first terminal 100 manufactures the 3D wireless vacuum cleaner 510 using a dedicated tool pre-installed in the first terminal. Here, the manufactured 3D wireless vacuum cleaner may include first visual information including shape information, color information, material information, pattern information, design information, and an operation mode of the corresponding wireless vacuum cleaner (for example, the first stage, First auditory information including noise information according to an operation mode of a second stage, a third stage, and the like, first touch information including magnitude information of vibration according to an operation mode of the wireless vacuum cleaner, and a corresponding wireless vacuum. The first olfactory information includes information on fragrances emitted to the outside in predetermined units of time during operation of the cleaner (S410).

이후, 상기 생성된(또는 제작된) 3D 객체와 관련한 마커를 삽입하기 위해서 상기 단말(100)의 화면의 일측에 표시되는 미리 설정된 마커 삽입 버튼(또는 메뉴/항목)(또는 상기 단말(100)의 일측에 구비된 마커 삽입 버튼)이 선택되는 경우, 상기 단말(100)은 상기 생성된 3D 객체에 인접하게 마커(또는 객체 마커)를 배치한다.Thereafter, a preset marker insertion button (or menu / item) displayed on one side of the screen of the terminal 100 in order to insert a marker related to the generated (or manufactured) 3D object (or the terminal 100). When a marker insertion button provided at one side is selected, the terminal 100 arranges a marker (or an object marker) adjacent to the generated 3D object.

또한, 드래그 앤 드롭 기능을 사용하여 상기 단말(100)의 화면의 일측에 표시되는 미리 설정된 마커 삽입 버튼이 선택(또는 드래그)된 후, 드래그 앤 드롭 기능에 의해, 상기 단말(100)의 화면에 표시 중인 3D 객체 위로 드롭될 때(또는 상기 3D 객체로부터 미리 설정된 반경 내의 영역/위치로 드롭될 때), 상기 단말(100)은 상기 3D 객체로부터 미리 설정된 거리만큼 이격된 임의의 위치(또는 특정 위치)에 상기 마커를 배치할 수도 있다.In addition, after the preset marker insertion button displayed on one side of the screen of the terminal 100 is selected (or dragged) using the drag and drop function, the screen is displayed on the screen of the terminal 100 by the drag and drop function. When dropped over a 3D object being displayed (or when dropped to an area / position within a preset radius from the 3D object), the terminal 100 may move to any position (or a specific position) spaced apart from the 3D object by a preset distance. The marker may also be arranged in).

이때, 상기 단말(100)은 해당 3D 객체에 대해서 일정 간격만큼 이격되어 상기 마커를 배치하며, 해당 3D 객체가 3차원으로 회전하거나 또는 축소/확대되더라도 마커가 해당 3D 객체에 일정 간격을 유지하도록 설정(또는 배치/설계)한다.In this case, the terminal 100 is arranged to be spaced apart by a predetermined interval with respect to the 3D object, and the marker is set to maintain a constant interval on the 3D object even if the 3D object is rotated or reduced / enlarged in three dimensions (Or layout / design).

즉, 상기 단말(100)은 상기 3D 객체가 동작하는 레이어와 상기 마커가 동작(또는 표시)하는 레이어를 서로 다르게 구성하여, 상기 3D 객체의 회전, 축소, 확대, 이동 등에 대해서도 상기 마커가 상기 3D 객체로부터 일정 간격만큼 이격 상태를 유지하도록 설정할 수 있다.That is, the terminal 100 configures a layer in which the 3D object operates and a layer in which the marker operates (or displays) differently, so that the marker may be rotated, reduced, enlarged, or moved in the 3D object. It can be set to maintain the distance from the object by a certain interval.

일 예로, 상기 도 5에 도시된 바와 같이, 상기 3D 형태의 무선 진공 청소기(510)를 제작한 후, 상기 도 5의 화면의 일측에 표시되는 마커 삽입 메뉴(520)가 선택(또는 터치)될 때, 도 6에 도시된 바와 같이, 상기 제 1 단말은 상기 3D 형태의 무선 진공 청소기(610)로부터 미리 설정된 간격만큼 떨어진 위치에 제 1 마커(620)를 배치한다. 이때, 상기 도 6에 도시된 3D 형태의 무선 진공 청소기(610)가 사용자 제어에 의해 확대될 때, 도 7에 도시된 바와 같이, 상기 제 1 단말은 상기 확대된 3D 형태의 무선 진공 청소기(710)로부터 미리 설정된 간격만큼 떨어진 위치에 제 1 마커(720)를 배치하여, 상기 3D 형태의 무선 진공 청소기(710)와 상기 제 1 마커(720) 사이에 일정 간격이 유지되도록 구성할 수 있다(S420).For example, as shown in FIG. 5, after the 3D type wireless vacuum cleaner 510 is manufactured, the marker insertion menu 520 displayed on one side of the screen of FIG. 5 may be selected (or touched). 6, the first terminal arranges the first marker 620 at a position separated by a predetermined interval from the 3D type wireless vacuum cleaner 610. At this time, when the 3D-type wireless vacuum cleaner 610 shown in FIG. 6 is enlarged by user control, as shown in FIG. 7, the first terminal is the enlarged 3D-type wireless vacuum cleaner 710. The first marker 720 may be disposed at a position spaced apart from each other by a predetermined interval so that a predetermined interval is maintained between the 3D wireless vacuum cleaner 710 and the first marker 720 (S420). ).

이후, 상기 단말(100)에 표시되는 마커가 선택(또는 터치/더블 클릭)되는 경우, 상기 단말(100)은 사용자 입력(또는 사용자 터치/사용자 선택)을 근거로 상기 선택된 마커에 대한 속성 정보를 설정한다. 여기서, 상기 마커에 대한 속성 정보(또는 마커의 속성 정보)는 해당 마커와 관련한 객체(또는 3D 객체)의 고유 코드 정보, 상기 객체와 관련한 마커의 고유 코드 정보, 해당 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보(또는 해당 객체와 관련한 적어도 하나의 MR 콘텐츠가 저장된 주소 정보/링크 주소), 상기 마커에 대응하는 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등을 포함한다. 이때, 상기 객체와 관련한 적어도 하나의 MR 콘텐츠는 해당 객체와 관련하여 동일 코드 또는 유사 코드를 가진 적어도 하나의 다른 3D 객체에 대응하는 MR 콘텐츠일 수 있다.Subsequently, when the marker displayed on the terminal 100 is selected (or touched / double-clicked), the terminal 100 displays attribute information on the selected marker based on a user input (or user touch / user selected). Set it. Here, the attribute information (or the attribute information of the marker) for the marker may include unique code information of an object (or 3D object) related to the marker, unique code information of the marker related to the object, and at least one MR content related to the object. Information about (or address information / link address where at least one MR content related to the object is stored), visual information, auditory information, tactile information, olfactory information, etc., related to the 3D object corresponding to the marker. In this case, the at least one MR content related to the object may be MR content corresponding to at least one other 3D object having the same code or similar code with respect to the object.

여기서, 상기 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보를 설정할 때, 상기 단말(100)은 상기 단말(100)의 사용자(또는 특정/임의의 사용자)와 관련한 사용자 정보(예를 들어 선호도, 구매 이력 정보, 해당 객체와 관련하여 사용자가 가장 많이 검색한 상품과 관련한 정보, 해당 객체와 관련하여 가장 많이 판매된 상품과 관련한 정보, 프로모션 정보, 해당 객체 및/또는 사용자와 관련한 빅 데이터 등 포함)를 근거로 상기 단말(100) 및/또는 상기 서버(200)에 미리 저장된 복수의 MR 콘텐츠 중에서 해당 객체와 관련한 적어도 하나의 MR 콘텐츠를 선택(또는 설정)할 수 있다.Here, when setting the information on the at least one MR content related to the object, the terminal 100 is associated with the user information (eg, preferences, purchases) related to the user (or a specific / arbitrary user) of the terminal 100 Historical information, information about the products the user most searched for in relation to that object, information on the products sold most in relation to that object, promotional information, and big data in relation to that object and / or user). Based on this, at least one MR content related to the object may be selected (or set) from among a plurality of MR contents stored in the terminal 100 and / or the server 200 in advance.

이와 같이, 상기 단말(100)은 해당 사용자(또는 특정/임의의 사용자)에게 최적화된 MR 콘텐츠를 제공할 수 있도록 상기 사용자 정보를 누적하고, 상기 누적된 사용자 정보에 대한 기계 학습을 통해 해당 사용자와 관련한 정보를 반영하여 적응 전환형태의 상기 선택된 마커에 대한 속성 정보를 설정할 수도 있다.As such, the terminal 100 accumulates the user information to provide the optimized MR content to the corresponding user (or a specific / arbitrary user), and the user 100 through machine learning on the accumulated user information. The attribute information for the selected marker of the adaptive conversion form may be set by reflecting the related information.

일 예로, 해당 무선 진공 청소기와 관련한 제 1 상세 정보(또는 제 1 상품 정보)(예를 들어 상품명, 상품 고유 모델 번호, 제조일자, 제조사, 상품 종류에 따른 코드 정보 등 포함)가 사전에 등록된(또는 입력된) 상태에서, 상기 도 6에 도시된 3D 형태의 무선 진공 청소기(610)와 제 1 마커(620)가 표시되고 있는 화면에서 상기 제 1 마커(620)가 선택될 때, 상기 제 1 단말은 미리 저장된 복수의 상세 정보 중에서 해당 3D 형태의 무선 진공 청소기에 대응하는 제 1 상세 정보를 확인한다.For example, first detailed information (or first product information) related to the wireless vacuum cleaner (for example, a product name, a product unique model number, a manufacturing date, a manufacturer, and code information according to a product type) is registered in advance. In the (or input) state, when the first marker 620 is selected on the screen in which the 3D type wireless vacuum cleaner 610 and the first marker 620 shown in FIG. 6 are displayed, the first marker 620 is selected. The first terminal checks first detailed information corresponding to the 3D type wireless vacuum cleaner among the plurality of detailed information stored in advance.

또한, 상기 제 1 단말은 상기 3D 형태의 무선 진공 청소기 제작 시 설정된 상기 3D 형태의 무선 진공 청소기와 관련한 형상 정보, 색상 정보, 재질 정보, 패턴 정보, 디자인 정보 등을 포함하는 제 1 시각 정보와, 해당 무선 진공 청소기의 동작 모드(예를 들어 1단, 2단, 3단 등의 동작 모드)에 따른 소음 정보 등을 포함하는 제 1 청각 정보와, 해당 무선 진공 청소기의 동작 모드에 따른 진동의 크기 정보 등을 포함하는 제 1 촉각 정보와, 해당 무선 진공 청소기의 동작 시 미리 설정된 시간 단위로 외부로 방출되는 방향제에 대한 정보 등을 포함하는 제 1 후각 정보 등을 확인한다.The first terminal may include first visual information including shape information, color information, material information, pattern information, design information, and the like associated with the 3D type wireless vacuum cleaner set when the 3D type wireless vacuum cleaner is manufactured. First auditory information including noise information according to an operation mode of the wireless vacuum cleaner (for example, operation modes such as 1st stage, 2nd stage, and 3rd stage), and magnitude of vibration according to the operation mode of the wireless vacuum cleaner. First tactile information including information and the like, and first olfactory information including information on fragrances emitted to the outside in predetermined units of time when the wireless vacuum cleaner operates.

또한, 상기 제 1 단말은 미리 저장된 복수의 MR 콘텐츠 중에서 해당 무선 진공 청소기와 관련한 3D 객체와 동일 코드를 가지거나 유사 코드를 가지는 제 2 MR 콘텐츠(예를 들어 기계 학습에 따른 사용자의 선호도가 반영된 유선 진공 청소기와 관련한 MR 콘텐츠) 및 제 3 MR 콘텐츠(예를 들어 최근 1달 동안 가장 많이 판매된 다른 무선 진공 청소기와 관련한 MR 콘텐츠)가 저장된 제 2 주소 정보 및 제 3 주소 정보를 확인한다. 여기서, 상기 제 2 MR 콘텐츠는 3D 형태의 유선 진공 청소기와 해당 3D 형태의 유선 진공 청소기와 관련한 마커를 포함하며, 상기 제 3 MR 콘텐츠는 3D 형태의 다른 무선 진공 청소기와 해당 3D 형태의 다른 무선 진공 청소기와 관련한 마커를 포함한다.In addition, the first terminal has a second MR content having the same code or a similar code as the 3D object related to the wireless vacuum cleaner among a plurality of MR content stored in advance (for example, a wireline reflecting the user's preference according to machine learning) The second address information and the third address information in which the MR content related to the vacuum cleaner and the third MR content (for example, the MR content related to another wireless vacuum cleaner most sold in the last month) are stored. Here, the second MR content includes a 3D-type wired vacuum cleaner and a marker related to the 3D-type wired vacuum cleaner, and the third MR content includes another 3D-type wireless vacuum cleaner and another 3D-type wireless vacuum. And a marker associated with the cleaner.

또한, 상기 제 1 단말은 상기 확인된 무선 진공 청소기와 관련한 제 1 상세 정보, 제 1 시각 정보, 제 1 청각 정보, 제 1 촉각 정보, 제 1 후각 정보, 상기 무선 진공 청소기와 관련한 제 2 MR 콘텐츠 및 제 3 MR 콘텐츠가 저장된 제 2 주소 정보 및 제 3 주소 정보 등을 포함하는 제 1 마커에 대한 제 1 속성 정보를 설정한다(S430).The first terminal may further include first detailed information, first visual information, first auditory information, first tactile information, first olfactory information, and second MR content related to the wireless vacuum cleaner. And set first attribute information on the first marker including second address information, third address information, and the like, in which the third MR content is stored (S430).

이후, 상기 단말(100)의 일측에 표시되는 미리 설정된 미리보기 메뉴(또는 버튼/항목)가 선택되는 경우, 상기 단말(100)은 MR 콘텐츠 저작의 결과 영상을 미리보기 화면으로 표시한다.Subsequently, when a preset preview menu (or button / item) displayed on one side of the terminal 100 is selected, the terminal 100 displays a result image of MR content creation as a preview screen.

즉, 상기 미리보기 메뉴가 선택되는 경우, 상기 단말(100)은 MR 콘텐츠 저작의 결과 영상(또는 상기 생성된 객체와 해당 객체에 인접하게 배치된 마커를 포함하는 영상)을 미리보기 형태로 표시한다. 이때, 해당 MR 콘텐츠 저작의 결과 영상에는 해당 객체와 관련한 구매 기능을 제공하기 위한 바로 구매 메뉴, 해당 MR 콘텐츠에 대한 공유 기능을 제공하기 위한 공유 메뉴 등이 포함될 수 있다.That is, when the preview menu is selected, the terminal 100 displays a result image of the MR content creation (or an image including the generated object and a marker disposed adjacent to the object) in a preview form. . In this case, the resultant image of the MR content authoring may include an immediate purchase menu for providing a purchase function related to the object, a sharing menu for providing a sharing function for the MR content, and the like.

일 예로, 상기 도 6에 도시된 3D 형태의 무선 진공 청소기(610)와 제 1 마커(620)가 표시되고 있는 화면에서 미리 설정된 미리보기 메뉴(630)가 선택될 때, 도 8에 도시된 바와 같이, 상기 제 1 단말은 상기 3D 형태의 무선 진공 청소기(810), 상기 무선 진공 청소기와 관련한 제 1 마커(820) 등에 각각 대응하는 MR 콘텐츠 저작의 결과 영상(800)을 팝업 형태로 표시한다. 이때, 상기 MR 콘텐츠 저작의 결과 영상(800)에는 해당 무선 진공 청소기(810)에 대한 구매 기능을 제공하기 위한 바로 구매 메뉴(830)와, 해당 3D 형태의 무선 진공 청소기(810)와 제 1 마커(820)로 구성되는 MR 콘텐츠를 공유하기 위한 공유 메뉴(840)가 포함된 상태일 수 있다(S440).For example, when the preset preview menu 630 is selected on the screen on which the 3D type wireless vacuum cleaner 610 and the first marker 620 shown in FIG. 6 are displayed, as shown in FIG. 8. As described above, the first terminal displays the result image 800 of the MR content creation corresponding to the 3D wireless vacuum cleaner 810, the first marker 820 related to the wireless vacuum cleaner, etc., respectively, in a pop-up form. In this case, the MR image authoring image 800 includes a direct purchase menu 830 for providing a purchase function for the wireless vacuum cleaner 810, a 3D wireless vacuum cleaner 810, and a first marker. In operation S440, a sharing menu 840 for sharing the MR content including the content 820 may be included.

이후, 상기 단말(100)의 다른 일측에 표시되는 미리 설정된 저장 메뉴(또는 완성 메뉴/버튼/항목)가 선택되는 경우, 상기 단말(100)은 해당 3D 객체, 상기 3D 객체에 인접하게 배치된 마커 등을 포함하는 MR 콘텐츠를 생성한다. 이때, 상기 MR 콘텐츠는 해당 3D 객체, 상기 3D 객체의 속성 정보(또는 상품 정보), 3D 객체와 관련한 코드, 코드의 고유 식별 정보, 코드의 종류, 3D 객체에 대응하는 마커, 마커의 위치 정보, 마커의 속성 정보(예를 들어 해당 3D 객체와 관련한 적어도 하나의 MR 콘텐츠에 대한 정보, 상기 마커에 대응하는 3D 객체와 관련한 시각 정보, 청각 정보, 촉각 정보, 후각 정보 등 포함), 해당 마커와 관련한 바로 구매 정보, 공유 정보 등을 포함한다.Subsequently, when a preset storage menu (or completion menu / button / item) displayed on the other side of the terminal 100 is selected, the terminal 100 is a 3D object, a marker disposed adjacent to the 3D object. Create MR content including the like. In this case, the MR content is a corresponding 3D object, property information (or product information) of the 3D object, code associated with the 3D object, unique identification information of the code, type of code, marker corresponding to the 3D object, marker location information, Property information of a marker (including, for example, information on at least one MR content related to the corresponding 3D object, visual information related to the 3D object corresponding to the marker, auditory information, tactile information, olfactory information, etc.) Immediately include purchase information, shared information and more.

즉, 상기 미리 설정된 저장 메뉴가 선택되는 경우, 상기 단말(100)은 상기 마커에 대해서 사용자 선택에 따른 마커의 속성 정보 설정이 완료된 상태인지 여부를 확인한다.That is, when the preset storage menu is selected, the terminal 100 checks whether the attribute information setting of the marker according to the user selection is completed for the marker.

또한, 상기 확인 결과, 상기 마커에 대한 속성 정보 설정이 완료되지 않은 상태인 경우, 상기 단말(100)은 상기 마커의 속성 정보 설정이 완료되지 않은 상태임을 표시하며, 해당 마커의 속성 정보 설정에 대한 안내 정보를 일측에 표시한다.In addition, when the check result, the property information setting for the marker is not completed, the terminal 100 indicates that the property information setting of the marker is not completed, and the property information setting of the marker The guide information is displayed on one side.

또한, 상기 확인 결과, 상기 마커에 대한 속성 정보 설정이 완료된 경우, 상기 단말(100)은 상기 3D 객체, 해당 3D 객체와 관련한 마커 등을 포함하는 MR 콘텐츠를 생성한다.In addition, as a result of the checking, when the attribute information setting for the marker is completed, the terminal 100 generates MR content including the 3D object, a marker related to the 3D object, and the like.

이때, 상기 생성된 3D 객체를 이용해서 동영상이 생성된 상태에서 상기 미리 설정된 저장 버튼이 선택되는 경우, 상기 단말(100)은 상기 3D 객체 및 상기 3D 객체에 대응하는 마커와 관련한 코드의 고유 식별 정보(또는 상기 마커가 배치된 영역/위치와 관련한 코드의 고유 식별 정보)를 근거로, 해당 동영상에 포함된 3D 객체에 인접하도록 상기 마커를 각각 추가하여(또는 매칭하여/연동시켜/업데이트하여) 동영상 형태의 MR 콘텐츠를 생성할 수 있다.In this case, when the preset storage button is selected while a video is generated using the generated 3D object, the terminal 100 identifies unique identification information of a code related to the 3D object and a marker corresponding to the 3D object. (Or match / interlate / update) each of the markers so as to be adjacent to the 3D object included in the video, based on (or unique identification information of the code related to the area / location where the marker is placed). MR content in the form can be generated.

또한, 상기 단말(100)은 상기 생성된 MR 콘텐츠를 공유하기 위해서 상기 생성된 MR 콘텐츠, 상기 단말(100)의 식별 정보 등을 상기 서버(200)에 전송한다. 여기서, 상기 단말(100)의 식별 정보는 MDN, 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the terminal 100 transmits the generated MR content, identification information of the terminal 100, etc. to the server 200 in order to share the generated MR content. Here, the identification information of the terminal 100 includes MDN, mobile IP, mobile MAC, Sim (subscriber identification module) card unique information, serial number and the like.

일 예로, 상기 도 6에 도시된 3D 형태의 무선 진공 청소기(610)와 제 1 마커(620)가 표시되고 있는 화면에서 미리 설정된 저장 메뉴(640)가 선택될 때, 상기 제 1 단말은 상기 3D 형태의 무선 진공 청소기(610), 상기 무선 진공 청소기(610)에 인접하게 배치된 제 1 마커(620), 상기 제 1 마커(620)의 위치 정보, 상기 제 1 마커(620)의 속성 정보 등을 포함하는 제 1 MR 콘텐츠를 생성한다. 이때, 상기 제 1 마커의 속성 정보는 상기 무선 진공 청소기에 대응하는 제 1 상세 정보, 상기 무선 진공 청소기와 관련한 3D 객체와 동일/유사 코드를 가지는 제 2 MR 콘텐츠 및 제 2 MR 콘텐츠가 저장된 제 2 주소 정보 내지 제 3 주소 정보, 상기 무선 진공 청소기와 관련한 제 1 시각 정보, 제 1 청각 정보, 제 1 촉각 정보, 제 1 후각 정보 등을 포함한다(S450).For example, when a preset storage menu 640 is selected on the screen on which the 3D type wireless vacuum cleaner 610 and the first marker 620 shown in FIG. 6 are displayed, the first terminal is configured to display the 3D. Wireless vacuum cleaner 610 of the form, the first marker 620 disposed adjacent to the wireless vacuum cleaner 610, location information of the first marker 620, attribute information of the first marker 620, etc. Create a first MR content comprising a. In this case, the attribute information of the first marker may include first detailed information corresponding to the wireless vacuum cleaner, a second MR content having a same / similar code as a 3D object related to the wireless vacuum cleaner, and a second stored MR content. Address information to third address information, first visual information related to the wireless vacuum cleaner, first auditory information, first tactile information, first olfactory information, and the like are included (S450).

이후, 상기 서버(200)는 상기 단말(100)로부터 전송되는 MR 콘텐츠, 단말(100)의 식별 정보 등을 수신한다.Thereafter, the server 200 receives MR content transmitted from the terminal 100, identification information of the terminal 100, and the like.

또한, 상기 서버(200)는 복수의 단말(100)로부터 각각 전송된 복수의 MR 콘텐츠를 저장(또는 관리)한다.In addition, the server 200 stores (or manages) a plurality of MR contents respectively transmitted from the plurality of terminals 100.

또한, 상기 서버(200)는 상기 서버(200)에 저장된 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식(또는 형태)으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 근거로 특정 디지털 사이니지(300)에서 출력될 콘텐츠에 대한 스케줄링을 수행한다.In addition, the server 200 is a specific digital based on a plurality of MR content stored in the server 200 (or including a separate advertising or promotional content produced in a format (or form) different from the MR content) Scheduling of the content to be output from the signage 300 is performed.

즉, 상기 서버(200)는 복수의 MR 콘텐츠에 대해서 타임셀에 따라 날짜별 및/또는 시간대별로 출력할 콘텐츠에 대한 정보를 포함하는 재생 스케줄링 정보를 생성한다.That is, the server 200 generates playback scheduling information including information on content to be output by date and / or time zone according to time cells for a plurality of MR contents.

일 예로, 상기 서버(200)는 상기 제 1 단말로부터 전송되는 제 1 MR 콘텐츠를 수신한다.For example, the server 200 receives first MR content transmitted from the first terminal.

또한, 상기 서버(200)는 상기 서버(200)의 관리자의 제어에 따라 제 1 디지털 사이니지(300)에서 2018년 1월 1일 0시 0분 0초 ~ 2018년 1월 7일 24시 0분 0초까지 일주일 동안의 제 1 재생 스케줄링 정보를 생성한다(S460).In addition, the server 200 is controlled by the administrator of the server 200 in the first digital signage 300, January 1, 2018 0: 0: 0 seconds ~ January 7, 2018 24 hours 0 The first reproduction scheduling information for one week until minute 0 seconds is generated (S460).

이후, 상기 서버(200)는 상기 생성된 재생 스케줄 정보, 해당 재생 스케줄 정보에 따른 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함) 등을 해당 재생 스케줄 정보와 관련한 디지털 사이니지(300)에 전송한다. 이때, 상기 서버(200)는 상기 생성된 재생 스케줄 정보를 미리 상기 디지털 사이니지(300)에 전송한 후, 상기 재생 스케줄 정보에 따라 해당 디지털 사이니지(300)에서 출력할 복수의 MR 콘텐츠를 순차적으로 해당 디지털 사이니지(300)에 전송하여, 상기 디지털 사이니지(300)에서 큰 저장 용량을 구비하지 않더라도, 상기 서버(200)로부터 제공되는 복수의 MR 콘텐츠를 순차적으로 출력할 수 있다.Thereafter, the server 200 corresponds to the generated reproduction schedule information and a plurality of MR contents (or separate advertisements or promotion contents produced in a format different from the MR contents) according to the reproduction schedule information. The digital signal is transmitted to the digital signage 300 related to the reproduction schedule information. At this time, the server 200 transmits the generated playback schedule information to the digital signage 300 in advance, and sequentially outputs a plurality of MR contents to be output from the corresponding digital signage 300 according to the playback schedule information. By transmitting to the digital signage 300, even if the digital signage 300 does not have a large storage capacity, a plurality of MR contents provided from the server 200 may be sequentially output.

일 예로, 상기 서버(200)는 상기 생성된 제 1 재생 스케줄 정보(예를 들어 제 1 MR 콘텐츠, 제 11 MR 콘텐츠, 제 12 MR 콘텐츠 등에 대한 재생 스케줄 정보 포함)를 상기 제 1 재생 스케줄 정보와 관련한 상기 제 1 디지털 사이니지에 전송한다(S470).For example, the server 200 may include the generated first play schedule information (eg, play schedule information about first MR content, eleventh MR content, twelfth MR content, etc.) and the first play schedule information. In operation S470, the first digital signage is transmitted.

이후, 상기 디지털 사이니지(300)는 상기 서버(200)로부터 전송되는 재생 스케줄 정보, 해당 재생 스케줄 정보에 따른 복수의 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함) 등을 수신한다.Subsequently, the digital signage 300 may include a plurality of MR contents (or separate advertisements or promotions produced in a format different from MR contents) according to the play schedule information transmitted from the server 200 and the play schedule information. Content, etc.).

또한, 상기 디지털 사이니지(300)는 상기 수신된 재생 스케줄 정보 및 현재 시각을 근거로 상기 서버(200)로부터 제공되는 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함/MR 콘텐츠에 포함된 영상 정보)를 출력한다. 이때, 상기 디지털 사이니지(300)는 상기 서버(200)로부터 실시간으로 전송되는 MR 콘텐츠를 출력하거나 또는, 상기 디지털 사이니지(300)의 저장 용량을 고려하여 상기 서버(200)로부터 전송되는 MR 콘텐츠를 임시 저장한 후 상기 임시 저장된 MR 콘텐츠를 출력할 수 있다.In addition, the digital signage 300 includes MR content provided from the server 200 based on the received playback schedule information and the current time (or content for advertisement or promotion separate from MR content / MR, etc.) Video information included in the content). In this case, the digital signage 300 outputs MR content transmitted from the server 200 in real time, or MR content transmitted from the server 200 in consideration of the storage capacity of the digital signage 300. After temporarily storing, the temporarily stored MR content may be output.

또한, 상기 디지털 사이니지(300)는 상기 디지털 사이니지(300)에서 상기 MR 콘텐츠(또는 상기 MR 콘텐츠에 포함된 영상 정보)를 디스플레이(또는 표시)하는 중에, 상기 MR 콘텐츠에 포함된 마커의 속성 정보를 근거로 상기 MR 콘텐츠와 관련한 시각 정보뿐만 아니라 청각 정보, 촉각 정보, 후각 정보 등을 제공(또는 출력)한다.In addition, the digital signage 300 displays (or displays) the MR content (or image information included in the MR content) in the digital signage 300, and attributes of the markers included in the MR content. Based on the information, audio information, tactile information, olfactory information, etc. as well as visual information related to the MR content are provided (or output).

즉, 상기 디지털 사이니지(300)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 미리 설정된 청각 정보가 있는 경우, 해당 청각 정보를 출력한다.That is, the digital signage 300 displays MR content corresponding to the current time according to the play schedule information, and outputs the auditory information when there is preset auditory information related to the corresponding MR content being displayed. .

또한, 상기 디지털 사이니지(300)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 촉각 정보가 있는 경우, 상기 디지털 사이니지(300)에 포함된 햅틱부(370)를 통해 촉각 정보를 출력한다.In addition, the digital signage 300 displays MR content corresponding to the current time according to the playback schedule information, and when there is tactile information related to the corresponding MR content being displayed, the digital signage 300 is displayed on the digital signage 300. The haptic unit 370 outputs the tactile information.

또한, 상기 디지털 사이니지(300)는 상기 재생 스케줄 정보에 따라 현재 시각에 대응하는 MR 콘텐츠를 표시하면서, 상기 표시 중인 해당 MR 콘텐츠와 관련하여 후각 정보가 있는 경우, 상기 디지털 사이니지(300)에 포함된 향기 발생부(380)를 통해 향기(또는 향)를 외부로 분사(또는 출력)한다.In addition, the digital signage 300 displays MR content corresponding to a current time according to the playback schedule information, and when there is olfactory information related to the corresponding MR content being displayed, the digital signage 300 is displayed on the digital signage 300. The fragrance (or fragrance) is sprayed (or output) to the outside through the included fragrance generating unit 380.

이때, 상기 디지털 사이니지(300)로부터 미리 설정된 반경 내에 위치하는 적어도 하나의 다른 단말(400)이 존재하는 경우, 상기 디지털 사이니지(300)는 상기 적어도 하나의 다른 단말(400)과 무선 통신 방식으로 연결하여, 해당 적어도 하나의 다른 단말(400)에 상기 디지털 사이니지(300)에서 출력 중인 MR 콘텐츠(또는 MR 콘텐츠와는 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 전송한다. 또한, 상기 다른 단말(400)은 상기 디지털 사이니지(300)로부터 전송되는 상기 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 수신하고, 상기 수신된 MR 콘텐츠(또는 MR 콘텐츠와는 다른 형식으로 제작된 별도의 광고나 홍보를 위한 콘텐츠 등 포함)를 표시한다. 여기서, 상기 다른 단말(400)은 상기 MR 콘텐츠를 표시하면서, 상기 MR 콘텐츠와 관련한 청각 정보를 근거로 음성 정보를 출력하고, 상기 MR 콘텐츠와 관련한 촉각 정보를 근거로 상기 다른 단말(400)에 구비된 진동부(미도시)를 통해 상기 촉각 정보에 대응하는 진동을 출력할 수도 잇다.In this case, when there is at least one other terminal 400 located within a preset radius from the digital signage 300, the digital signage 300 is a wireless communication scheme with the at least one other terminal 400. By connecting to, at least one other terminal 400 transmits the MR content (or content, such as advertising or promotional content separate from the MR content) being output from the digital signage 300. In addition, the other terminal 400 receives the MR content transmitted from the digital signage 300 (or includes a separate advertisement or promotion content produced in a different format from the MR content), and receives the received content. The displayed MR content (or a separate advertisement or promotional content produced in a different format from the MR content). Here, the other terminal 400 displays the MR content, outputs voice information based on auditory information related to the MR content, and is provided to the other terminal 400 based on tactile information related to the MR content. A vibration corresponding to the tactile information may be output through the vibrating unit (not shown).

일 예로, 상기 제 1 디지털 사이니지는 상기 서버(200)로부터 전송되는 제 1 재생 스케줄 정보 및 현재 시각을 근거로 상기 무선 진공 청소기와 관련한 상기 제 1 MR 콘텐츠를 표시하고, 상기 제 1 MR 콘텐츠와 관련한 음성 정보 및 상기 제 1 MR 콘텐츠와 관련해서 상기 무선 진공 청소기가 작동 중인 상태에서의 소음 정보를 출력하고, 상기 제 1 디지털 사이니지의 일측에 구비된 제 1 햅틱부(370)를 통해 해당 무선 진공 청소기의 동작 모드에 따른 진동의 크기 정보에 대응하는 진동을 출력하고, 상기 제 1 디지털 사이니지의 일측에 구비된 제 1 향기 발생부(380)를 통해 미리 설정된 시간 단위(예를 들어 1분)로 미리 설정된 양의 방향제를 분사한다.For example, the first digital signage displays the first MR content related to the wireless vacuum cleaner based on the first playback schedule information transmitted from the server 200 and the current time, and displays the first MR content and the first MR content. Outputs noise information while the wireless vacuum cleaner is operating in relation to the related voice information and the first MR content, and transmits the wireless information through the first haptic unit 370 provided on one side of the first digital signage. Outputs a vibration corresponding to the magnitude information of the vibration according to the operation mode of the vacuum cleaner, and a predetermined time unit (for example, 1 minute) through the first fragrance generating unit 380 provided on one side of the first digital signage Spray a predetermined amount of perfume.

이때, 상기 제 1 디지털 사이니지로부터 미리 설정된 반경(예를 들어 2미터) 이내에 제 2 단말 내지 제 4 단말이 위치할 때, 상기 제 1 디지털 사이니지는 블루투스, 지그비, 와이파이 등의 무선 통신 방식에 의해 상기 제 2 단말 내지 제 4 단말과 각각 통신 연결하고, 상기 제 1 디지털 사이니지에서 출력 중인 상기 제 1 MR 콘텐츠 등을 상기 제 2 단말 내지 제 4 단말에 각각 전송한다.At this time, when the second terminal to the fourth terminal is located within a predetermined radius (for example, 2 meters) from the first digital signage, the first digital signage is a wireless communication scheme such as Bluetooth, Zigbee, Wi-Fi, etc. The second terminal to the fourth terminal to communicate with each other, and transmits the first MR content and the like output from the first digital signage to the second terminal to the fourth terminal, respectively.

또한, 상기 제 2 단말 내지 제 4 단말 각각은 상기 제 1 디지털 사이니지로부터 전송되는 상기 제 1 디지털 사이니지에서 출력 중인 상기 제 1 MR 콘텐츠 등을 각각 수신하고, 상기 수신된 제 1 MR 콘텐츠를 출력한다. 이때, 상기 제 2 단말 내지 제 4 단말 각각은 해당 단말에 구비된 표시부, 음성 출력부, 진동부 등을 통해 해당 제 1 MR 콘텐츠 및 해당 제 1 MR 콘텐츠와 관련한 정보(예를 들어 청각 정보, 촉각 정보 등 포함)를 출력할 수 있다(S480).In addition, each of the second terminal to the fourth terminal receives the first MR content, etc. being output from the first digital signage transmitted from the first digital signage, respectively, and outputs the received first MR content. do. In this case, each of the second terminal to the fourth terminal includes information related to the first MR content and the first MR content (for example, auditory information and tactile sense) through a display unit, a voice output unit, and a vibration unit provided in the corresponding terminal. Information, etc.) can be output (S480).

이후, 상기 디지털 사이니지(300)는 상기 디지털 사이니지(300)에 인접한 특정 사용자의 음성 및/또는 동작을 인식한다.Thereafter, the digital signage 300 recognizes a voice and / or an operation of a specific user adjacent to the digital signage 300.

또한, 상기 인식된 음성 및/또는 동작에 따라 상기 디지털 사이니지(300)에서 표시 중인 MR 콘텐츠의 일측에 표시되는 마커가 선택되는 경우, 상기 디지털 사이니지(300)는 해당 마커와 관련한 추가 기능을 제공한다.In addition, when a marker displayed on one side of the MR content being displayed in the digital signage 300 is selected according to the recognized voice and / or operation, the digital signage 300 provides additional functions related to the marker. to provide.

즉, 상기 인식된 음성 및/또는 동작에 따라 상기 디지털 사이니지(300)에서 표시 중인 MR 콘텐츠의 일측에 표시되는 마커가 선택되는 경우, 상기 디지털 사이니지(300)는 상기 MR 콘텐츠를 제공받을 또 다른 단말(400)에 대한 사용자 정보를 입력받기 위한 화면(또는 사용자 인터페이스/UI)을 표시하고, 사용자 입력(또는 사용자 선택/터치)에 따른 상기 MR 콘텐츠를 제공받을 또 다른 단말(400)에 대한 사용자 정보를 수신한다. 여기서, 상기 또 다른 단말(400)에 대한 사용자 정보는 또 다른 단말(400)의 전화번호/식별정보, 이메일 주소, SNS 계정 정보 등을 포함한다.That is, when a marker displayed on one side of the MR content being displayed in the digital signage 300 is selected according to the recognized voice and / or operation, the digital signage 300 may receive the MR content. Displaying a screen (or user interface / UI) for receiving user information on the other terminal 400, for another terminal 400 to receive the MR content according to the user input (or user selection / touch) Receive user information. In this case, the user information about the another terminal 400 includes a phone number / identification information, an e-mail address, SNS account information, etc. of another terminal 400.

또한, 상기 디지털 사이니지(300)는 상기 수신된 또 다른 단말(400)에 대한 사용자 정보를 근거로 해당 또 다른 단말(400)에 대한 사용자 정보에 대응하는 또 다른 단말(400)에 상기 디지털 사이니지(300)에서 표시 중인 상기 MR 콘텐츠 등을 제공(또는 전송)한다.In addition, the digital signage 300 is connected between the digital to another terminal 400 corresponding to the user information for another terminal 400 based on the received user information for another terminal 400 The MR content, etc. being displayed on the display 300 is provided (or transmitted).

이때, 상기 또 다른 단말(400)은 상기 디지털 사이니지(300)로부터 제공되는 상기 MR 콘텐츠 등을 수신하고, 상기 수신된 MR 콘텐츠를 출력한다.In this case, the another terminal 400 receives the MR content provided from the digital signage 300 and outputs the received MR content.

또한, 상기 또 다른 단말(40)은 상기 표시되는 MR 콘텐츠에 대해서 사용자 선택에 따라 해당 마커와 관련한 추가 MR 콘텐츠(또는 추가 애니메이션 정보)를 표시하는 기능, 해당 마커와 관련한 3D 객체에 대한 바로 구매 화면(또는 바로 구매 기능)을 표시하는 기능, 임의의 특정 단말(미도시)로의 공유 기능 등을 각각 수행할 수 있다.Also, the another terminal 40 may display additional MR content (or additional animation information) related to the marker according to a user's selection of the displayed MR content, and a direct purchase screen for the 3D object related to the marker. (Or a function of displaying a direct purchase function) and a sharing function to any specific terminal (not shown) may be performed.

이와 같이, 상기 디지털 사이니지(300)와 상기 또 다른 단말(400) 간의 상호 인터랙션을 통해, 실시간으로 다양한 정보를 공유할 수 있다.As described above, various information may be shared in real time through the interaction between the digital signage 300 and the another terminal 400.

일 예로, 상기 제 1 디지털 사이니지는 상기 제 1 디지털 사이니지에 인접한 특정 사용자의 동작(또는 모션)을 인식하고, 상기 인식된 특정 사용자의 동작을 근거로 상기 제 1 디지털 사이니지에서 표시 중인 제 1 MR 콘텐츠 상의 일측에 표시된 제 1 마커가 선택될 때, 도 9에 도시된 바와 같이, 상기 제 1 디지털 사이니지에서 표시 중인 제 1 MR 콘텐츠를 제공받을 제 11 사용자 정보를 입력받기 위한 화면(900)을 표시한다. 여기서, 상기 제 1 디지털 사이니지는 복수의 디스플레이가 4×4 형태로 배열된 상태일 수 있다.For example, the first digital signage recognizes an operation (or motion) of a specific user adjacent to the first digital signage and is displayed on the first digital signage based on the recognized specific user's motion. 1 When the first marker displayed on one side of the MR content is selected, as shown in FIG. 9, a screen 900 for receiving input of eleventh user information to be provided with the first MR content displayed in the first digital signage. ). The first digital signage may be in a state where a plurality of displays are arranged in a 4 × 4 form.

또한, 상기 제 1 디지털 사이니지는 상기 특정 사용자의 동작 및/또는 음성을 인식하고, 상기 인식된 동작 및/또는 음성을 근거로 상기 제 11 사용자 정보(예를 들어 상기 특정 사용자와 관련한 제 11 이메일 주소)를 수신한다(또는 입력받는다).Further, the first digital signage recognizes the action and / or voice of the specific user, and based on the recognized action and / or voice, the eleventh user information (e.g., an eleventh e-mail relating to the specific user). Address (or address).

또한, 상기 제 1 디지털 사이니지는 상기 수신된(또는 입력된) 제 11 사용자 정보를 근거로 상기 제 1 디지털 사이니지에서 출력 중인 제 11 MR 콘텐츠를 상기 특정 사용자와 관련한 제 11 이메일 주소로 전송한다.In addition, the first digital signage transmits the eleventh MR content being output from the first digital signage to the eleventh e-mail address associated with the specific user based on the received (or input) eleventh user information. .

또한, 상기 특정 사용자는 상기 특정 사용자와 관련한 제 11 이메일 주소와 관련한 계정에 접속하여, 상기 제 1 디지털 사이니지로부터 전송된 제 11 MR 콘텐츠를 확인(또는 출력)할 수 있다(S490).In addition, the specific user may access an account related to an eleventh e-mail address related to the specific user, and may check (or output) the eleventh MR content transmitted from the first digital signage (S490).

본 발명의 실시예는 앞서 설명된 바와 같이, 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공하여, 3D 객체와 관련하여 다양한 부가 정보를 제공하고, 상품의 가상 체험 및 시뮬레이션 기능을 제공하여 사용자의 만족도를 높이며, 사용자의 요구에 따른 MR 콘텐츠의 활용폭을 넓힐 수 있다.As described above, an MR content may be created by adding one or more markers based on a 3D object generated through a dedicated tool or a 3D object through object recognition in an image captured by a camera, as described above. In addition, the produced MR content is provided through a signage device related to visual, auditory, olfactory, auditory, etc. to provide various additional information regarding 3D objects, and to provide a virtual experience and a simulation function of a product to improve user satisfaction. It is possible to increase the use of MR content according to the user's demand.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description may be modified and modified by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

본 발명은 전용 툴을 통해 생성된 3D 객체 또는 카메라를 통해 촬영된 영상 내에서의 객체 인식을 통한 3D 객체를 근거로 하나 이상의 마커를 추가하여 MR 콘텐츠를 제작하고, 상기 제작된 MR 콘텐츠를 시각, 청각, 후각, 청각 등과 관련한 사이니지 장치를 통해 제공함으로써, 3D 객체와 관련하여 다양한 부가 정보를 제공하고, 상품의 가상 체험 및 시뮬레이션 기능을 제공하여 사용자의 만족도를 높이며, 사용자의 요구에 따른 MR 콘텐츠의 활용폭을 넓힐 수 있는 것으로, 가상 현실 분야, 증강 현실 분야, 혼합 현실(MR) 분야, 단말 분야, 파노라마 영상 분야, 쇼핑 정보 제공 분야, 마케팅 분야, 서버 분야, 멀티 모달리티 분야 등에서 광범위하게 이용될 수 있다.The present invention creates MR content by adding one or more markers based on the 3D object generated through a dedicated tool or 3D object through object recognition in an image captured by a camera, and visualizes the produced MR content. By providing through signage devices related to hearing, smell, hearing, etc., it provides various additional information related to 3D objects, improves user satisfaction by providing virtual experience and simulation of products, and MR contents according to user needs. It can be widely used in virtual reality field, augmented reality field, mixed reality field, terminal field, panoramic image field, shopping information provision field, marketing field, server field, multi-modality field, etc. have.

Claims (1)

3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법에 있어서,
디지털 사이니지에 의해, 재생 스케줄 정보 및 현재 시각 정보를 근거로 서버로부터 제공되는 MR 콘텐츠를 출력하는 단계;
상기 디지털 사이니지에 의해, 사용자의 음성을 인식하는 단계; 및
상기 디지털 사이니지에 의해, 상기 인식된 사용자의 음성을 근거로 상기 출력 중인 MR 콘텐츠에 포함된 마커가 선택될 때, 상기 선택된 마커에 대응하는 기능을 수행하는 단계를 포함하는 3D 객체와 마커를 포함한 MR 콘텐츠를 제공하는 사이니지 방법.
In a signage method for providing MR content including 3D objects and markers,
Outputting, by the digital signage, the MR content provided from the server based on the reproduction schedule information and the current time information;
Recognizing, by the digital signage, a voice of a user; And
And performing a function corresponding to the selected marker when the marker included in the output MR content is selected by the digital signage based on the recognized user's voice. Signage method for providing MR content.
KR1020180014531A 2018-02-06 2018-02-06 Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof KR20190094875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180014531A KR20190094875A (en) 2018-02-06 2018-02-06 Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014531A KR20190094875A (en) 2018-02-06 2018-02-06 Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof

Publications (1)

Publication Number Publication Date
KR20190094875A true KR20190094875A (en) 2019-08-14

Family

ID=67622017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014531A KR20190094875A (en) 2018-02-06 2018-02-06 Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof

Country Status (1)

Country Link
KR (1) KR20190094875A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230097449A (en) 2021-12-24 2023-07-03 한국로봇융합연구원 Apparatus and method for automatically creating a virtual environment of an MR system based on markers

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619886B1 (en) 2014-03-31 2016-05-23 숭실대학교산학협력단 Method of interworking between mobile terminal and digital signage system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619886B1 (en) 2014-03-31 2016-05-23 숭실대학교산학협력단 Method of interworking between mobile terminal and digital signage system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230097449A (en) 2021-12-24 2023-07-03 한국로봇융합연구원 Apparatus and method for automatically creating a virtual environment of an MR system based on markers

Similar Documents

Publication Publication Date Title
US11494991B2 (en) Systems, methods and apparatuses of digital assistants in an augmented reality environment and local determination of virtual object placement and apparatuses of single or multi-directional lens as portals between a physical world and a digital world component of the augmented reality environment
Baytas et al. The design of social drones: A review of studies on autonomous flyers in inhabited environments
KR102043274B1 (en) Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof
Davies et al. Pervasive displays: understanding the future of digital signage
WO2019028479A1 (en) Systems, methods and apparatuses for deployment and targeting of context-aware virtual objects and behavior modeling of virtual objects based on physical principles
CN110908504B (en) Augmented reality museum collaborative interaction method and system
US20180232921A1 (en) Digital Experience Content Personalization and Recommendation within an AR or VR Environment
CN108984087A (en) Social interaction method and device based on three-dimensional avatars
She et al. Convergence of interactive displays with smart mobile devices for effective advertising: A survey
García-Crespo et al. CESARSC: Framework for creating cultural entertainment systems with augmented reality in smart cities
CN104504576A (en) Method for achieving three-dimensional display interaction of clothes and platform
Alce et al. WozARd: a wizard of Oz method for wearable augmented reality interaction—a pilot study
CN108734536A (en) Real estate building information three-dimensional display systems and method
CN115552472A (en) System and method for providing a relational landscape for a social world
Shinde et al. Internet of things integrated augmented reality
KR102507260B1 (en) Service server for generating lecturer avatar of metaverse space and mehtod thereof
Jacob et al. Collaborative augmented reality for cultural heritage, tourist sites and museums: sharing Visitors’ experiences and interactions
KR20190094875A (en) Digital signage system for providing mixed reality content comprising three-dimension object and marker and method thereof
Spacca et al. Promoting industrial cultural heritage by augmented reality: Application and assessment
US20210319501A1 (en) Method and system for managing and displaying product images with progressive resolution display with artifical realities
Adnan et al. SCAN-ME: The Development of Augmented Reality Application Prototype using Information, Interface and Interaction Aspect
Lo et al. Interactive virtual reality touring system: a case study of Shulin Ji’an Temple in Taiwan
KR102020352B1 (en) Apparatus for providing mixed reality content using three-dimension object and marker and method thereof
Pfeiffer et al. Virtual prototyping of mixed reality interfaces with internet of things (IoT) connectivity
KR20200008359A (en) System for providing mixed reality contents and method thereof