KR20200121458A - Multi-Complex Multi-recognition Signage System - Google Patents

Multi-Complex Multi-recognition Signage System Download PDF

Info

Publication number
KR20200121458A
KR20200121458A KR1020190044030A KR20190044030A KR20200121458A KR 20200121458 A KR20200121458 A KR 20200121458A KR 1020190044030 A KR1020190044030 A KR 1020190044030A KR 20190044030 A KR20190044030 A KR 20190044030A KR 20200121458 A KR20200121458 A KR 20200121458A
Authority
KR
South Korea
Prior art keywords
information
recognition
module
signage system
analysis
Prior art date
Application number
KR1020190044030A
Other languages
Korean (ko)
Other versions
KR102194605B1 (en
Inventor
신주환
이황근
Original Assignee
주식회사 이큐미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이큐미디어 filed Critical 주식회사 이큐미디어
Priority to KR1020190044030A priority Critical patent/KR102194605B1/en
Publication of KR20200121458A publication Critical patent/KR20200121458A/en
Application granted granted Critical
Publication of KR102194605B1 publication Critical patent/KR102194605B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/14Advertising or display means not otherwise provided for using special optical effects displaying different signs depending upon the view-point of the observer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • G06Q30/0244Optimization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a convergence type and a multi-recognition signage system, and more specifically, to the convergence type and the multi-recognition signage system, which includes: a server; a recognition device for generating recognition information by photographing a user skeleton and face; an image output device which receives information from the server and outputs the information; at least one panel on which information output from the image output device is projected; and a moving device for fixing and moving the position of the panel, wherein the panel is formed with one of a screen, a sculpture, a VR (virtual reality) display, and an AR (augmented reality) display, thereby recognizing and analyzing users to provide customized contents for various types of users.

Description

융복합형 다중인식 사이니지 시스템{Multi-Complex Multi-recognition Signage System}Convergence type multi-recognition signage system {Multi-Complex Multi-recognition Signage System}

본 발명은 융복합형 다중인식 사이니지 시스템에 관한 것으로, 보다 상세하게는 사용자를 인식 및 분석하여 다양한 유형의 사용자에 맞는 맞춤형 콘텐츠를 제공하며, 사용자가 직접 원하는 콘텐츠에 참여할 수 있는 융복합형 다중인식 사이니지 시스템에 관한 것이다.The present invention relates to a convergence-type multi-recognition signage system, and more specifically, provides customized content for various types of users by recognizing and analyzing users, and allowing users to directly participate in desired content. It relates to the recognition signage system.

최근, TV, PC, 모바일에 이은 제4의 스크린으로 불리며 공공장소 및 상업공간에 설치되는 디스플레이인 디지털 사이니지의 설치가 증가하고 있다.Recently, the installation of digital signage, which is a display installed in public and commercial spaces, which is called the fourth screen after TV, PC, and mobile, is increasing.

디지털 사이니지(Digital Signage)는, 디지털 정보 디스플레이(digital information display, DID)를 이용한 옥외광고로, 지하철 역사, 버스정류장, 아파트 엘리베이터, 은행 등 유동인구가 많은 곳에서 흔히 볼 수 있다.Digital signage is an outdoor advertisement using a digital information display (DID) and is commonly found in places with a large floating population such as subway stations, bus stops, apartment elevators, and banks.

이러한 디지털 사이니지는 대부분 서비스 제공 업체의 관제센터 통신망을 통해 제어되고 있으며, 이와 관련하여, “한국등록특허 제10-0987653호 디지털 사이니지 시스템”이 개시되어 있다.Most of these digital signages are controlled through a communication network of a control center of a service provider, and in this regard, “Korean Patent No. 10-0987653 Digital Signage System” has been disclosed.

그러나, 대부분의 사이니지는 단방향 통신만이 가능하거나, 정해진 좌표에서 소수 인원이 선택한 단순 콘텐츠가 출력되므로 광고업체와 고객간의 상호작용이 불가할 뿐만 아니라, 사용자의 흥미 및 관심도가 저하된다는 문제점이 발생하고 있다.However, most signages are only capable of one-way communication, or simple content selected by a small number of people at a fixed coordinate is output, so not only is it impossible to interact with the advertiser and the customer, but also a problem that the interest and interest of the user decreases. Are doing.

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 사용자를 인식 및 분석하여 다양한 유형의 사용자에 맞는 맞춤형 콘텐츠를 제공하며, 사용자가 직접 원하는 콘텐츠에 참여할 수 있는 융복합형 다중인식 사이니지 시스템을 제공하는 데 그 목적이 있다.The present invention is invented to solve the above problems, and provides customized content for various types of users by recognizing and analyzing users, and a converged multi-recognition signage system that allows users to directly participate in desired content. Its purpose is to provide.

상기 과제를 해결하기 위해 본 발명의 융복합형 다중인식 사이니지 시스템은 서버; 사용자의 골격 및 얼굴을 촬영하여 인식정보를 생성하는 인식장치; 상기 서버로부터 정보를 수신받아 이를 출력하는 영상출력장치; 상기 영상출력장치에서 출력되는 정보가 투영되는 하나 이상의 패널 및 상기 패널의 위치를 고정 및 이동시키는 이동장치를 포함하고, 상기 패널은, 스크린, 조형물, VR(가상현실)디스플레이, AR(증강현실)디스플레이 중 하나로 형성되는 것을 특징으로 할 수 있다.In order to solve the above problems, the convergence type multiple recognition signage system of the present invention includes a server; A recognition device for generating recognition information by photographing a user's skeleton and face; An image output device that receives information from the server and outputs it; At least one panel on which information output from the image output device is projected and a moving device for fixing and moving the position of the panel, wherein the panel includes a screen, a sculpture, a VR (virtual reality) display, and an AR (augmented reality) It may be characterized in that it is formed as one of the displays.

또한, 상기 서버는, 상기 인식정보의 특성을 분석하여 분석정보를 생성하는 인식정보분석모듈; 상기 분석정보를 특성별로 군집하여 군집정보를 생성하는 군집모듈; 상기 군집정보에 따른 맞춤형 콘텐츠정보를 생성하는 콘텐츠제공모듈 및 상기 인식정보와 콘텐츠정보를 정합하여 정합정보를 생성하는 정합모듈을 더 포함하고, 상기 정합모듈은, 상기 정합정보를 영상출력장치에 전달하는 것을 특징으로 할 수 있다.In addition, the server, a recognition information analysis module for generating analysis information by analyzing the characteristics of the recognition information; A cluster module for generating cluster information by clustering the analysis information according to characteristics; A content providing module for generating customized content information according to the cluster information, and a matching module for generating matching information by matching the identification information and the content information, wherein the matching module transmits the matching information to the image output device. It can be characterized by that.

또한, 상기 인식정보분석모듈은, 사용자의 유형을 분석하여 유형분석정보를 생성하는 유형분석모듈 및 상기 사용자의 시선을 분석하여 시선분석정보를 생성하는 시선분석모듈을 포함하고, 상기 군집모듈은, 상기 유형분석정보, 시선분석정보에 따라 상기 분석된 인식정보를 군집하는 것을 특징으로 할 수 있다.In addition, the recognition information analysis module includes a type analysis module for generating type analysis information by analyzing a user's type, and a gaze analysis module for generating gaze analysis information by analyzing the user's gaze, and the cluster module, It may be characterized in that the analyzed recognition information is clustered according to the type analysis information and the gaze analysis information.

또한, 상기 인식정보분석모듈은, 상기 사용자의 제스처를 분석하여 제스처분석정보를 생성하고, 상기 제스처분석정보를 정합모듈에 전달하는 제스처분석모듈을 더 포함하고, 상기 정합모듈은, 정합정보 생성 시, 상기 제스처분석정보를 이용해 콘텐츠정보의 위치가 제어된 정합정보를 생성하는 것을 특징으로 할 수 있다.In addition, the recognition information analysis module further comprises a gesture analysis module for generating gesture analysis information by analyzing the user's gesture, and transmitting the gesture analysis information to a matching module, wherein the matching module includes: , Using the gesture analysis information, matching information in which the location of the content information is controlled may be generated.

또한, 상기 서버는, 상기 맞춤형 콘텐츠에 따라 상기 패널의 위치이동신호를 생성하여 상기 이동장치를 제어하는 위치제어모듈을 더 포함하고, 상기 위치이동신호에 의해 상기 패널이 상하좌우로 이동되는 것을 특징으로 할 수 있다.In addition, the server further comprises a position control module for controlling the moving device by generating a position movement signal of the panel according to the customized content, the panel is moved up, down, left and right by the position movement signal. You can do it.

또한, 상기 융복합형 다중인식 사이니지 시스템은, 조명이 출력되는 조명장치 및 물이 분사되는 수압장치를 더 포함하고, 상기 서버는, 상기 맞춤형 콘텐츠에 따라 조명 및 수압을 제어하는 환경제어모듈을 더 포함하는 것을 특징으로 할 수 있다.In addition, the fusion-type multi-recognition signage system further includes a lighting device for outputting lighting and a hydraulic device for spraying water, and the server includes an environment control module that controls lighting and water pressure according to the customized content. It may be characterized in that it further includes.

또한, 상기 융복합형 다중인식 사이니지 시스템은, 향이 구현되는 향구현장치를 더 포함하고, 상기 서버는, 상기 콘텐츠에 따라 맞춤형 향을 구현하는 향구현모듈을 더 포함하는 것을 특징으로 할 수 있다.In addition, the fusion-type multi-recognition signage system may further include a fragrance implementation device in which a fragrance is implemented, and the server may further include a fragrance implementation module that implements a customized fragrance according to the content. .

또한, 상기 인식장치는, 상기 패널에 부착된 메모를 인식하여 메모정보를 생성하며, 상기 서버는, 상기 메모정보를 분석하여 메모분석정보를 생성하는 메모분석모듈을 더 포함하는 것을 특징으로 할 수 있다.In addition, the recognition device may generate memo information by recognizing the memo attached to the panel, and the server may further include a memo analysis module for generating memo analysis information by analyzing the memo information. have.

또한, 상기 메모분석모듈은, 상기 메모분석정보가 의문형일 경우, 해당 질문에 대한 답을 검색하여 대답정보를 생성하는 대답생성모듈을 포함하는 것을 특징으로 할 수 있다.In addition, the memo analysis module may include an answer generation module for generating answer information by searching for an answer to a corresponding question when the memo analysis information is in question.

또한, 상기 패널은, 다수개의 스크린으로 형성되며, 이때, 상기 패널에는 상기 군집정보에 따라 맞춤형 콘텐츠가 각각 투영되는 것을 특징으로 할 수 있다.In addition, the panel may be formed of a plurality of screens, and in this case, customized content may be projected on the panel according to the cluster information, respectively.

또한, 융복합형 다중인식 사이니지 시스템은, 사용자의 제어신호를 수신하며, 수신된 제어신호를 상기 서버에 실시간으로 제공하는 한 개 이상의 단말을 더 포함하는 것을 특징으로 할 수 있다.In addition, the fusion-type multiple recognition signage system may further include one or more terminals that receive a control signal from a user and provide the received control signal to the server in real time.

상기와 같이 구성되는 본 발명에 따른 융복합형 다중인식 사이니지 시스템에 의하면, 다양한 유형의 사용자에 맞는 맞춤형 콘텐츠를 제공할 수 있다.According to the fusion-type multiple recognition signage system according to the present invention configured as described above, it is possible to provide customized content for various types of users.

또한, 콘텐츠별로 패널의 위치를 조절하고, 조명, 음향 효과등을 이용해 사용자의 관심 및 흥미를 유발할 수 있다.In addition, the position of the panel for each content can be adjusted, and the user's interest and interest can be induced by using lighting and sound effects.

또한, 메모정보를 인식하므로 사용자가 별도의 단말이나 패널에 메모 내용을 입력하지 않고, 패널에 메모를 부착함으로써 메모 내용이 입력될 수 있다.In addition, since the memo information is recognized, the memo content can be input by attaching the memo to the panel without the user inputting the memo content to a separate terminal or panel.

또한, 사용자가 직접 원하는 콘텐츠에 참여할 수 있는 사용자 참여형 사이니지를 제공할 수 있다. In addition, it is possible to provide a user-participating signage that allows users to directly participate in desired content.

도 1은 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 서버를 도시한 블록도이다.
도 3은 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 인식정보분석모듈을 도시한 블록도이다.
도 4는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 메모분석모듈을 도시한 블록도이다.
도 5의 (a) 및 (b)는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 패널 이동을 도시한 예시도이다.
1 is a block diagram of a fusion type multiple recognition signage system according to an embodiment of the present invention.
2 is a block diagram showing a server of a fusion type multiple recognition signage system according to an embodiment of the present invention.
3 is a block diagram showing a recognition information analysis module of a fusion-type multiple recognition signage system according to an embodiment of the present invention.
4 is a block diagram showing a memo analysis module of a fusion type multiple recognition signage system according to an embodiment of the present invention.
5A and 5B are exemplary diagrams showing panel movement of a fusion-type multi-recognition signage system according to an embodiment of the present invention.

이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to a specific embodiment, and various transformations may be applied and various embodiments may be provided. In addition, the content described below should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention.

이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as first and second are terms used to describe various elements, and their meanings are not limited thereto, and are used only for the purpose of distinguishing one element from other elements.

본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.The same reference numbers used throughout this specification denote the same elements.

본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions used in the present invention include plural expressions unless the context clearly indicates otherwise. In addition, terms such as "include", "include" or "have" described below are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification. It is to be construed and not to preclude the possibility of the presence or addition of one or more other features, numbers, steps, actions, components, parts, or combinations thereof.

이하, 본 발명의 바람직한 실시 예에 따른 융복합형 다중인식 사이니지 시스템에 대하여 첨부한 도 1 내지 5를 참조하면서 상세하게 설명하기로 한다.Hereinafter, a fusion-type multi-recognition signage system according to a preferred embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5.

도 1은 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 구성도, 도 2는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 서버를 도시한 블록도, 도 3은 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 인식정보분석모듈을 도시한 블록도, 도 4는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 메모분석모듈을 도시한 블록도, 도 5의 (a) 및 (b)는 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템의 패널 이동을 도시한 예시도이다.1 is a block diagram of a fusion-type multi-recognition signage system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a server of a fusion-type multi-recognition signage system according to an embodiment of the present invention. Is a block diagram showing a recognition information analysis module of a fusion type multiple recognition signage system according to an embodiment of the present invention, and FIG. 4 is a memo analysis module of a fusion type multiple recognition signage system according to an embodiment of the present invention. 5A and 5B are exemplary diagrams illustrating panel movement of a fusion-type multiple recognition signage system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템은 서버(10), 인식장치(20), 영상출력장치(21), 패널(22) 및 이동장치(23)를 포함할 수 있다.As shown in Fig. 1, the fusion type multiple recognition signage system according to the embodiment of the present invention includes a server 10, a recognition device 20, an image output device 21, a panel 22, and a mobile device ( 23) may be included.

최근, TV, PC, 모바일에 이은 제4의 스크린으로 불리며 공공장소 및 상업공간에 설치되는 디스플레이인 사이니지의 설치가 증가하고 있다. 이러한 사이니지는 관제센터의 통신망을 통해 제어되고 있다. 이에 따라, 단방향 통신만이 가능해 사용자의 흥미 및 관심도가 저하된다는 문제점이 발생하고 있다.Recently, the installation of signage, which is a display installed in public and commercial spaces, which is called the fourth screen after TV, PC, and mobile is increasing. This signage is controlled through the communication network of the control center. Accordingly, only one-way communication is possible, resulting in a problem that the user's interest and interest are lowered.

따라서, 본 발명은 이를 개선하기 위해 양방향 통신, 즉 사용자와 상호작용이 가능하고, 사용자의 흥미를 유발시켜 광고 효과를 극대화시킬 수 있는 융복합형 다중인식 사이니지 시스템의 필요성이 있어 개발된 것이다.Accordingly, in order to improve this, the present invention has been developed because there is a need for a fusion-type multi-recognition signage system capable of maximizing an advertisement effect by enabling two-way communication, that is, interaction with the user, and inducing interest of the user.

먼저, 서버(10)는 인식정보분석모듈(100), 군집모듈(101), 콘텐츠제공모듈(102) 및 정합모듈(103)을 포함할 수 있다.First, the server 10 may include a recognition information analysis module 100, a cluster module 101, a content providing module 102, and a matching module 103.

인식정보분석모듈(100)은 인식장치(20)로부터 수신받은 인식정보의 특성을 분석하여 분석정보를 생성할 수 있다.The recognition information analysis module 100 may generate analysis information by analyzing characteristics of the recognition information received from the recognition device 20.

또한, 인식정보분석모듈(100)은 생성된 분석정보를 군집모듈(101)에 전달할 수 있다.In addition, the recognition information analysis module 100 may transmit the generated analysis information to the cluster module 101.

또한, 인식정보분석모듈(100)은 유형분석모듈(1000) 및 시선분석모듈(1001)을 포함할 수 있다.In addition, the recognition information analysis module 100 may include a type analysis module 1000 and a gaze analysis module 1001.

유형분석모듈(1000)은 인식장치(20)로부터 수신받은 인식정보 중, 사용자의 유형을 분석하여 유형분석정보를 생성하며, 더욱 자세하게는, 사용자의 연령 및 성별을 분석할 수 있다.The type analysis module 1000 generates type analysis information by analyzing a user's type among the recognition information received from the recognition device 20, and in more detail, may analyze the user's age and gender.

또한, 유형분석모듈(1000)은 생성된 유형분석정보를 군집모듈(101)에 전달할 수 있다.In addition, the type analysis module 1000 may transmit the generated type analysis information to the cluster module 101.

시선분석모듈(1001)은 인식장치(20)로부터 수신받은 인식정보 중, 사용자의 시선을 분석하여 시선분석정보를 생성하며, 더욱 자세하게는, 사용자가 사이니지를 주시하고 있는지 여부를 분석할 수 있다.The gaze analysis module 1001 analyzes the user's gaze among the recognition information received from the recognition device 20 to generate gaze analysis information, and in more detail, it is possible to analyze whether the user is watching the signage. .

이에 따라, 사이니지에 관심이 있는 사용자를 구분할 수 있다.Accordingly, users who are interested in signage can be identified.

또한, 시선분석모듈(1001)은 생성된 시선분석정보를 군집모듈(101)에 전달할 수 있다.In addition, the gaze analysis module 1001 may transmit the generated gaze analysis information to the cluster module 101.

또한, 시선분석모듈(1001)은 사용자의 시선에 따라 콘텐츠정보의 출력 위치를 제어하기 위해 생성된 시선분석정보를 정합모듈(103)에 전달할 수 있다. 이는 이하에서 더욱 자세하게 설명하기로 한다.In addition, the gaze analysis module 1001 may transmit the generated gaze analysis information to the matching module 103 in order to control the output position of the content information according to the gaze of the user. This will be described in more detail below.

또한, 인식정보분석모듈(100)은 제스처분석모듈(1002)을 더 포함할 수 있다.In addition, the recognition information analysis module 100 may further include a gesture analysis module 1002.

제스처분석모듈(1002)은 인식장치(20)로부터 수신받은 인식정보 중, 사용자의 제스처를 분석하여 제스처분석정보를 생성할 수 있다.The gesture analysis module 1002 may generate gesture analysis information by analyzing a user's gesture among recognition information received from the recognition device 20.

또한, 제스처분석모듈(1002)은 생성된 제스처분석정보를 정합모듈(103)에 전달할 수 있다.In addition, the gesture analysis module 1002 may transmit the generated gesture analysis information to the matching module 103.

더욱 자세하게는, 사용자의 제스처에 따라 정합정보가 제어되며, 이는 이하에서 더욱 자세하게 설명하기로 한다.In more detail, matching information is controlled according to a user's gesture, which will be described in more detail below.

군집모듈(101)은 시선분석모듈(1001)로부터 전달받은 시선분석정보 중, 사이니지를 주시하고 있는 사용자 정보를 선별한 후, 유형분석모듈(1000)로부터 전달받은 유형분석정보를 바탕으로 군집하여 특성별 군집정보를 생성할 수 있다.The clustering module 101 selects user information that is watching the signage among the gaze analysis information received from the gaze analysis module 1001, and then clusters it based on the type analysis information received from the type analysis module 1000. Cluster information for each characteristic can be created.

더욱 자세하게는, 일 예로, 사용자의 연령 및 성별에 따라 가족단위(성인 남녀 + 소인), 친구단위(동일 연령대 다수명의 남녀), 커플단위 등 유형그룹별 군집정보를 생성할 수 있다.In more detail, for example, according to the user's age and gender, group information for each type group, such as a family unit (adult male and female + child), a friend unit (multiple males and females of the same age group), and a couple unit, may be generated.

콘텐츠제공모듈(102)은 군집모듈(101)로부터 전달받은 군집정보에 따라 콘텐츠정보를 생성하며, 이에 따라, 군집정보에 따른 맞춤형 콘텐츠를 제공할 수 있다.The content providing module 102 generates content information according to the cluster information received from the cluster module 101, and accordingly, can provide customized content according to the cluster information.

또한, 콘텐츠제공모듈(102)은 콘텐츠정보 데이터베이스를 포함하며, 더욱 자세하게는, 가족용 콘텐츠, 유아용 콘텐츠, 청소년용 콘텐츠, 역사 콘텐츠, 자연환경 콘텐츠, 보드게임 콘텐츠, 증강현실 콘텐츠 정보를 포함할 수 있다.In addition, the content providing module 102 includes a content information database, and more specifically, may include family content, infant content, youth content, historical content, natural environment content, board game content, and augmented reality content information. have.

그러나, 이는 본 발명의 실시예에 불과하므로 상기에 기술한 콘텐츠 외에 사이니지에 적용 가능한 다양한 종류의 콘텐츠정보를 포함할 수 있다.However, since this is only an embodiment of the present invention, various types of content information applicable to signage may be included in addition to the above-described content.

이때, 콘텐츠정보 데이터베이스는 실시간으로 업데이트되어 최신 콘텐츠가 반영되는 것이 바람직하다.In this case, it is preferable that the content information database is updated in real time to reflect the latest content.

또한, 콘텐츠제공모듈(102)은 콘텐츠정보를 정합모듈(103), 위치제어모듈(104), 환경제어모듈(105) 및 향구현모듈(106)에 전달할 수 있다.In addition, the content providing module 102 may transmit content information to the matching module 103, the location control module 104, the environment control module 105, and the flavor implementation module 106.

정합모듈(103)은 인식장치(20)로부터 인식정보, 시선분석모듈(1001)로부터 시선분석정보, 콘텐츠제공모듈(102)로부터 콘텐츠정보, 제스처분석모듈(1002)로부터 제스처분석정보를 제공받을 수 있다.The matching module 103 may receive recognition information from the recognition device 20, gaze analysis information from the gaze analysis module 1001, content information from the content providing module 102, and gesture analysis information from the gesture analysis module 1002. have.

이때, 정합모듈(103)은 제공받은 인식정보 및 콘텐츠정보를 정합하여 정합정보를 생성하며, 생성된 정합정보를 영상출력장치(21)에 전달할 수 있다.At this time, the matching module 103 may generate matching information by matching the provided recognition information and content information, and may transmit the generated matching information to the image output device 21.

또한, 정합모듈(103)은 정합정보 생성 시, 제공받은 시선정보 및 제스처분석정보를 이용하여 콘텐츠정보의 위치가 제어된 정합정보를 생성할 수 있다.In addition, when generating the matching information, the matching module 103 may generate matching information in which the location of the content information is controlled using the received gaze information and gesture analysis information.

일 예로, 인식장치(20)로부터 얼굴 인식정보를 전달받고, 콘텐츠제공모듈(102)로부터 모자 콘텐츠정보를 제공받아 이를 정합하여 정합정보를 생성하여 이를 영상출력장치(21)에 전달할 수 있다.For example, face recognition information may be received from the recognition device 20, and mother and child content information may be received from the content providing module 102, matched to generate matching information, and transmitted to the image output device 21.

이후, 제스처분석모듈(1002)로부터 모자를 벗는 제스처분석정보를 제공받을 경우, 얼굴 인식정보에 정합된 모자 콘텐츠정보를 제거한 정합정보를 생성하여 이를 영상출력장치(21)에 전달할 수 있다.Thereafter, when receiving the gesture analysis information for removing the hat from the gesture analysis module 1002, matching information from which the hat content information matched with the face recognition information is removed may be generated and transmitted to the image output device 21.

이에 따라, 사용자의 제스처에 따른 맞춤형 콘텐츠정보를 제공할 수 있다.Accordingly, it is possible to provide customized content information according to a user's gesture.

다른 예로, 시선분석모듈(1001)로부터 시선분석정보를 전달받고, 이에 따라, 콘텐츠정보의 위치가 제어된 정합정보를 영상출력장치(21)에 전달할 수 있다.As another example, gaze analysis information may be received from the gaze analysis module 1001, and accordingly, matching information in which the location of content information is controlled may be transmitted to the image output device 21.

또한, 정합모듈(103)은 메모분석모듈(107)로부터 메모분석정보, 대답생성모듈(1070)로부터 대답정보를 제공받을 수 있다.In addition, the matching module 103 may receive memo analysis information from the memo analysis module 107 and answer information from the answer generation module 1070.

이에 따라, 기 생성된 정합정보에 메모분석정보 및 대답정보를 정합하여 영상출력장치(21)에 전달할 수 있다.Accordingly, the memo analysis information and the answer information may be matched with the previously generated matching information and transmitted to the image output device 21.

또한, 서버(10)는 위치제어모듈(104)을 더 포함할 수 있다.In addition, the server 10 may further include a position control module 104.

위치제어모듈(104)은 콘텐츠제공모듈(102)로부터 콘텐츠정보를 제공받을 수 있다.The location control module 104 may receive content information from the content providing module 102.

또한, 위치제어모듈(104)은 콘텐츠정보에 따라 패널(22)의 위치이동신호를 생성할 수 있다.In addition, the position control module 104 may generate a position movement signal of the panel 22 according to the content information.

일 예로, 콘텐츠정보가 역사 콘텐츠일 경우, 도 4의 (a)에 도시된 바와 같이 상하측 패널이 좌우로 각각 이동되도록 위치이동신호를 생성할 수 있다.For example, when the content information is historical content, a position movement signal may be generated so that the upper and lower panels are moved left and right, respectively, as shown in FIG. 4A.

다른 예로, 콘텐츠정보가 자연환경 콘텐츠일 경우, 도 4의 (b)에 도시된 바와 같이 상하측 패널이 상하로 각각 이동되도록 위치이동신호를 생성할 수 있다.As another example, when the content information is natural environment content, a position movement signal may be generated so that the upper and lower panels are respectively moved up and down, as shown in FIG. 4B.

또한, 위치제어모듈(104)은 생성된 위치이동신호를 이동장치(23)에 전달하며, 이에 따라, 이동장치(23)의 위치 이동을 제어하여 패널(22)을 상하좌우로 이동시킬 수 있다.In addition, the position control module 104 transmits the generated position movement signal to the moving device 23, and accordingly, controls the position movement of the moving device 23 to move the panel 22 up, down, left and right. .

또한, 서버(10)는 환경제어모듈(105)을 더 포함할 수 있다.In addition, the server 10 may further include an environment control module 105.

환경제어모듈(105)은 콘텐츠정보에 따라 조명장치(24) 및 수압장치(25)를 제어하는 환경제어신호를 생성할 수 있다.The environment control module 105 may generate an environment control signal for controlling the lighting device 24 and the hydraulic device 25 according to the content information.

일 예로, 콘텐츠정보가 유아용 콘텐츠일 경우, 형형색색의 조명이 출력되고 분수형태의 수압이 분사되도록 환경제어신호를 생성할 수 있다.For example, when the content information is for children, an environment control signal may be generated so that colorful lights are output and water pressure in the form of a fountain is sprayed.

이에 따라, 사용자가 콘텐츠에 몰입할 수 있을뿐만 아니라 흥미가 증대되는 효과를 가진다.Accordingly, not only can the user be immersed in the content, but also has an effect of increasing interest.

또한, 환경제어모듈(105)은 생성된 환경제어신호를 조명장치(24) 및 수압장치(25)에 전달할 수 있다.Further, the environment control module 105 may transmit the generated environment control signal to the lighting device 24 and the hydraulic device 25.

또한, 서버(10)는 향구현모듈(106)을 더 포함할 수 있다.In addition, the server 10 may further include a flavor implementation module 106.

향구현모듈(106)은 콘텐츠정보에 따라 맞춤형 향을 구현하는 향구현신호를 생성할 수 있다.The fragrance implementation module 106 may generate a fragrance implementation signal that implements a customized fragrance according to the content information.

일 예로, 콘텐츠정보가 자연환경(산) 콘텐츠일 경우, 산내음 향이 구현되도록 향구현신호를 생성할 수 있다.For example, when the content information is a natural environment (mountain) content, a scent realization signal may be generated so that a mountain sound is realized.

이에 따라, 사용자가 콘텐츠에 몰입할 수 있을뿐만 아니라 흥미가 증대되는 효과를 가진다.Accordingly, not only can the user be immersed in the content, but also has an effect of increasing interest.

또한, 향구현모듈(106)은 생성된 향구현신호를 향구현장치(26)에 전달할 수 있다.In addition, the fragrance implementation module 106 may transmit the generated fragrance implementation signal to the fragrance implementation device 26.

또한, 서버(10)는 메모분석모듈(107)을 더 포함할 수 있다.In addition, the server 10 may further include a memo analysis module 107.

메모분석모듈(107)은 인식장치(20)로부터 메모정보를 전달받을 수 있다.The memo analysis module 107 may receive memo information from the recognition device 20.

또한, 메모분석모듈(107)은 메모정보를 분석하여 메모분석정보를 생성할 수 있다.In addition, the memo analysis module 107 may analyze memo information to generate memo analysis information.

일 예로, 사용자가 통화 중에 적은 메모를 인식하여 메모분석정보를 생성할 수 있다. 이에 따라, 사용자가 별도의 단말이나 패널(22)에 메모 내용을 입력하지 않고, 패널에 메모를 부착함으로써 메모 내용이 입력될 수 있다.For example, the memo analysis information may be generated by recognizing a memo that the user wrote during a call. Accordingly, the user may not input the memo content to a separate terminal or the panel 22, but the memo content may be input by attaching the memo to the panel.

또한, 메모분석모듈(107)은 메모분석정보 정합모듈(103)에 전달할 수 있다.In addition, the memo analysis module 107 may be transferred to the memo analysis information matching module 103.

또한, 메모분석모듈(107)은 대답생성모듈(1070)을 포함할 수 있다.In addition, the memo analysis module 107 may include an answer generation module 1070.

대답생성모듈(1070)은 인터넷과 연결되어 메모분석정보가 의문형일 경우, 해당 질문에 대한 답을 검색하여 대답정보를 생성할 수 있다.When the answer generation module 1070 is connected to the Internet and the memo analysis information is of a question type, it may search for an answer to a corresponding question and generate answer information.

일 예로, 메모정보에 기재된 메모의 내용이 “우리나라의 수도는?”일 경우, 해당 질문에 대한 답인 “서울”을 대답정보로 생성할 수 있다.For example, when the content of the memo written in the memo information is “What is the capital of our country?”, “Seoul”, an answer to the question, may be generated as the answer information.

이에 따라, 사용자가 별도의 단말에 질문사항을 입력한 후 검색하지 않고, 패널에 메모를 부착함으로써 궁금증을 해소할 수 있다.Accordingly, the user can solve the curiosity by attaching a memo to the panel without searching after entering a question in a separate terminal.

또한, 대답생성모듈(1070)은 대답정보를 정합모듈(103)에 전달할 수 있다.In addition, the answer generation module 1070 may transmit the answer information to the matching module 103.

다음으로, 인식장치(20)는 사용자의 골격 및 얼굴을 촬영하여 인식정보를 생성할 수 있다.Next, the recognition device 20 may generate recognition information by photographing the user's skeleton and face.

이때, 인식장치(20)는 생성된 인식정보를 인식정보분석모듈(100) 및 정합모듈(103)에 전달할 수 있다.At this time, the recognition device 20 may transmit the generated recognition information to the recognition information analysis module 100 and the matching module 103.

또한, 인식장치(20)는 패널(22)에 부착된 메모를 인식하여 메모정보를 생성할 수 있다.Also, the recognition device 20 may generate memo information by recognizing the memo attached to the panel 22.

이때, 인식장치(20)는 생성된 메모정보를 메모분석모듈(107)에 전달할 수 있다.At this time, the recognition device 20 may transmit the generated memo information to the memo analysis module 107.

이에 따라, 사용자가 부착한 메모가 패널(22) 내에 자동으로 입력될 수 있다.Accordingly, the memo attached by the user may be automatically input into the panel 22.

다음으로, 영상출력장치(21)는 정합모듈(103)로부터 정합정보를 전달받을 수 있다.Next, the image output device 21 may receive matching information from the matching module 103.

또한, 영상출력장치(21)는 정합정보를 출력하고, 이를 패널(22)에 투영할 수 있다.In addition, the image output device 21 may output matching information and project it onto the panel 22.

또한, 영상출력장치(21)는 사용자의 오감을 자극하기 위해 정합정보를 촉각요소에 투영할 수 있다.In addition, the image output device 21 may project matching information onto a tactile element in order to stimulate the user's five senses.

일 예로, 콘텐츠정보를 패널(22)의 전면에 구비되는 투명 아크릴 박스로 형성된 조형물의 표면에 투영하여 입체효과를 나타낼 수 있다.For example, the content information may be projected onto the surface of a sculpture formed of a transparent acrylic box provided on the front surface of the panel 22 to exhibit a three-dimensional effect.

그러나, 이는 본 발명의 실시예에 불과하므로 우유, 기름, 밀가루 등 다양한 요소에 콘텐츠정보를 투영할 수 있다. However, since this is only an embodiment of the present invention, content information can be projected onto various elements such as milk, oil, and flour.

다음으로, 패널(22)은 영상출력장치(21)에서 출력되는 정보가 투영되며, 스크린, 터치스크린, 조형물, VR(가상현실)디스플레이, AR(증강현실)디스플레이 중 하나로 형성될 수 있다.Next, the panel 22 projects information output from the image output device 21, and may be formed of one of a screen, a touch screen, a sculpture, a VR (virtual reality) display, and an AR (augmented reality) display.

일 예로, 패널(22)은 다수개의 터치스크린으로 형성되며, 군집정보에 따라 패널(22)에 맞춤형 정합정보가 각각 투영될 수 있다.For example, the panel 22 is formed of a plurality of touch screens, and customized matching information may be projected on the panel 22 according to the cluster information, respectively.

이에 따라, 맞춤형 콘텐츠를 다양한 집단의 사용자에게 동시에 제공함으로써 다양한 집단을 동시에 만족시킬 수 있다.Accordingly, it is possible to simultaneously satisfy various groups by simultaneously providing customized content to various groups of users.

이때, 터치스크린은 사용자의 촉각을 자극시키기 위해, 터치 가능한 부분이 다양한 촉각을 가지는 재질로 형성될 수 있다.In this case, in order to stimulate the user's sense of touch, the touch screen may be formed of a material having various tactile senses.

또한, 이동장치(23)는 위치제어모듈(104)로부터 전달받은 위치이동신호에 의해 패널(22)의 위치를 이동 및 고정시킬 수 있다.In addition, the moving device 23 may move and fix the position of the panel 22 by the position moving signal transmitted from the position control module 104.

더욱 자세하게는, 이동장치(23)는 패널(22)의 위치를 상하좌우로 이동시키기 위해 레일 또는 로프 형태로 형성될 수 있다.In more detail, the moving device 23 may be formed in the form of a rail or a rope in order to move the position of the panel 22 up, down, left and right.

또한, 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템은 조명장치(24) 및 수압장치(25)를 더 포함할 수 있다.In addition, the fusion type multiple recognition signage system according to the embodiment of the present invention may further include a lighting device 24 and a hydraulic device 25.

조명장치(24)는 환경제어모듈(105)로부터 환경제어신호를 전달받으며, 이에 따라, 콘텐츠별 맞춤형 조명 출력 및 물 분사를 할 수 있다.The lighting device 24 receives an environment control signal from the environment control module 105, and accordingly, can output customized lighting for each content and spray water.

또한, 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템은 향구현장치(26)를 더 포함할 수 있다.In addition, the fusion type multi-recognition signage system according to an embodiment of the present invention may further include a fragrance implementation device 26.

향구현장치(26)는 향구현모듈(106)로부터 향구현신호를 전달받으며, 이에 따라, 콘텐츠별 맞춤형 향을 구현할 수 있다.The fragrance realization device 26 receives a fragrance realization signal from the fragrance realization module 106, and accordingly, can implement a customized fragrance for each content.

또한, 본 발명의 실시예에 따른 융복합형 다중인식 사이니지 시스템은 한 개 이상의 단말(30)을 더 포함할 수 있다.In addition, the fusion type multiple recognition signage system according to an embodiment of the present invention may further include one or more terminals 30.

단말(30)은 WIFI 또는 통신망(3G/4G) 연결이 가능한 모바일 타입(휴대폰, 패드, 태블릿 등)과 데스크탑 중 하나로 형성될 수 있다.The terminal 30 may be formed of one of a mobile type (mobile phone, pad, tablet, etc.) and a desktop capable of connecting to a WIFI or a communication network (3G/4G).

또한, 단말(30)은 사용자로부터 제어신호를 수신하며, 수신된 제어신호를 서버(10)에 실시간으로 제공하여 본 발명의 융복합형 다중인식 사이니지 시스템을 제어할 수 있다.In addition, the terminal 30 may receive a control signal from a user, and provide the received control signal to the server 10 in real time to control the fusion type multiple recognition signage system of the present invention.

일 예로, 콘텐츠제공모듈(102)을 제어하여 사용자가 원하는 콘텐츠를 선택할 수 있을 뿐만 아니라, 증강현실 콘텐츠 및 보드게임 콘텐츠 등 사용자가 직접 원하는 콘텐츠에 참여할 수 있다.For example, by controlling the content providing module 102, the user can select the desired content, and the user can directly participate in the desired content such as augmented reality content and board game content.

이에 따라, 사용자 참여형 사이니지를 제공할 수 있다.Accordingly, user participation type signage can be provided.

다른 예로, 콘텐츠제공모듈(102)을 제어하여 사용자가 원하는 콘텐츠를 패널(22)에 투영시킬 수 있다.As another example, by controlling the content providing module 102, the user's desired content may be projected onto the panel 22.

더욱 자세하게는, 콘텐츠제공모듈(102)의 사이니지에 적용 가능한 다양한 종류의 콘텐츠 중 사용자가 원하는 콘텐츠를 선택하고, 해당 콘텐츠 정보를 정합모듈(103)에 전달할 수 있다.In more detail, from among various types of content applicable to the signage of the content providing module 102, the user may select a desired content and transmit the corresponding content information to the matching module 103.

또한, 콘텐츠제공모듈(102)의 사용자가 원하는 콘텐츠에 왜곡, 거울, 물결 효과 등 영상효과를 더할 수 있다.In addition, image effects such as distortion, mirror, and wave effects may be added to the content desired by the user of the content providing module 102.

또한, 사용자가 원하는 영상 효과가 패널(22)의 특정 위치에서 재생되도록 정합모듈(103)을 제어할 수 있다.In addition, the matching module 103 may be controlled so that the image effect desired by the user is reproduced at a specific position of the panel 22.

더욱 자세하게는, 정합모듈(103)에서 정합정보 생성 시, 단말(30)로부터 수신받은 영상효과의 위치제어신호를 이용해 콘텐츠정보의 위치가 제어된 정합정보를 생성할 수 있다.In more detail, when the matching module 103 generates matching information, the matching information in which the location of the content information is controlled may be generated by using the position control signal of the video effect received from the terminal 30.

또 다른 예로, 인식장치(20)를 제어하여 사용자가 원하는 화면을 패널(22)에 투영시킬 수 있다.As another example, the recognition device 20 may be controlled to project a screen desired by the user on the panel 22.

더욱 자세하게는, 인식장치(20)의 줌, 방향, 해상도를 제어하여 사용자가 원하는 맞춤형인식정보를 생성하고, 생성된 맞춤형인식정보를 콘텐츠제공모듈(102)에 전달할 수 있다.In more detail, it is possible to control the zoom, direction, and resolution of the recognition device 20 to generate customized recognition information desired by the user, and transmit the generated customized recognition information to the content providing module 102.

이후, 콘텐츠제공모듈(102)은 전달받은 맞춤형인식정보에 따라 맞춤형 콘텐츠정보를 생성하며, 이를 정합모듈(103)에 전달할 수 있다.Thereafter, the content providing module 102 may generate customized content information according to the received personalized recognition information, and may transmit it to the matching module 103.

이에 따라, 사용자가 정합모듈(103)에서 정합되는 정보, 즉, 영상출력장치(21)에서 출력되어 패널(22)에 투영되는 정보를 제어할 수 있다.Accordingly, the user can control information matched by the matching module 103, that is, information output from the image output device 21 and projected onto the panel 22.

그러나, 이는 본 발명의 실시예에 불과하므로 위치제어모듈(104)을 제어하여 패널(22)의 움직임을 제어하는 등 다양한 방법으로 본 발명의 융복합형 다중인식 사이니지 시스템을 제어할 수 있다.However, since this is only an embodiment of the present invention, the fusion type multiple recognition signage system of the present invention can be controlled in various ways, such as controlling the movement of the panel 22 by controlling the position control module 104.

이상에서 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의하여 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, it will be understood that the present invention can be implemented in other specific forms by those of ordinary skill in the art. Therefore, the embodiments described above are illustrative and non-limiting in all respects.

10: 서버
100: 인식정보분석모듈
1000: 유형분석모듈
1001: 시선분석모듈
1002: 제스처분석모듈
101: 군집모듈
102: 콘텐츠제공모듈
103: 정합모듈
104: 위치제어모듈
105: 환경제어모듈
106: 향구현모듈
107: 메모분석모듈
1070: 대답생성모듈
20: 인식장치
21: 영상출력장치
22: 패널
23: 이동장치
24: 조명장치
25: 수압장치
26: 향구현장치
30: 단말
10: server
100: recognition information analysis module
1000: type analysis module
1001: gaze analysis module
1002: gesture analysis module
101: cluster module
102: content providing module
103: matching module
104: position control module
105: environment control module
106: fragrance implementation module
107: memo analysis module
1070: answer generation module
20: recognition device
21: image output device
22: panel
23: moving device
24: lighting device
25: hydraulic device
26: fragrance implementation device
30: terminal

Claims (11)

융복합형 다중인식 사이니지 시스템에 있어서,
서버;
사용자의 골격 및 얼굴을 촬영하여 인식정보를 생성하는 인식장치;
상기 서버로부터 정보를 수신받아 이를 출력하는 영상출력장치;
상기 영상출력장치에서 출력되는 정보가 투영되는 하나 이상의 패널 및
상기 패널의 위치를 고정 및 이동시키는 이동장치를 포함하고,
상기 패널은,
스크린, 터치스크린, 조형물, VR(가상현실)디스플레이, AR(증강현실)디스플레이 중 하나로 형성되는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
In the convergence type multiple recognition signage system,
server;
A recognition device for generating recognition information by photographing a user's skeleton and face;
An image output device that receives information from the server and outputs it;
At least one panel on which information output from the image output device is projected, and
Including a moving device for fixing and moving the position of the panel,
The panel,
Convergence type multi-recognition signage system, characterized in that it is formed of one of a screen, a touch screen, a sculpture, a VR (virtual reality) display, and an AR (augmented reality) display.
제 1항에 있어서,
상기 서버는,
상기 인식정보의 특성을 분석하여 분석정보를 생성하는 인식정보분석모듈;
상기 분석정보를 특성별로 군집하여 군집정보를 생성하는 군집모듈;
상기 군집정보에 따른 맞춤형 콘텐츠정보를 생성하는 콘텐츠제공모듈 및
상기 인식정보와 콘텐츠정보를 정합하여 정합정보를 생성하는 정합모듈을 더 포함하고,
상기 정합모듈은,
상기 정합정보를 영상출력장치에 전달하는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
The method of claim 1,
The server,
A recognition information analysis module for generating analysis information by analyzing characteristics of the recognition information;
A cluster module for generating cluster information by clustering the analysis information according to characteristics;
A content providing module that generates customized content information according to the cluster information, and
Further comprising a matching module for generating matching information by matching the recognition information and content information,
The matching module,
Convergence type multiple recognition signage system, characterized in that transmitting the matching information to an image output device.
제 2항에 있어서,
상기 인식정보분석모듈은,
사용자의 유형을 분석하여 유형분석정보를 생성하는 유형분석모듈 및
상기 사용자의 시선을 분석하여 시선분석정보를 생성하는 시선분석모듈을 포함하고,
상기 군집모듈은,
상기 유형분석정보, 시선분석정보에 따라 상기 분석된 인식정보를 군집하는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The recognition information analysis module,
A type analysis module that analyzes the user's type and generates type analysis information, and
And a gaze analysis module for generating gaze analysis information by analyzing the gaze of the user,
The cluster module,
Convergence type multiple recognition signage system, characterized in that clustering the analyzed recognition information according to the type analysis information and gaze analysis information.
제 2항에 있어서,
상기 인식정보분석모듈은,
상기 사용자의 제스처를 분석하여 제스처분석정보를 생성하고, 상기 제스처분석정보를 정합모듈에 전달하는 제스처분석모듈을 더 포함하고,
상기 정합모듈은,
상기 정합정보 생성 시, 상기 제스처분석정보를 이용해 콘텐츠정보의 위치가 제어된 정합정보를 생성하는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The recognition information analysis module,
Further comprising a gesture analysis module for analyzing the user's gesture to generate gesture analysis information, and transmitting the gesture analysis information to a matching module,
The matching module,
When generating the matching information, the convergence type multiple recognition signage system, characterized in that generating matching information in which the location of the content information is controlled using the gesture analysis information.
제 2항에 있어서,
상기 서버는,
상기 콘텐츠정보에 따라 상기 패널의 위치이동신호를 생성하여 상기 이동장치를 제어하는 위치제어모듈을 더 포함하고,
상기 위치이동신호에 의해 상기 패널이 상하좌우로 이동되는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The server,
Further comprising a position control module for controlling the moving device by generating a position movement signal of the panel according to the content information,
Convergence type multiple recognition signage system, characterized in that the panel is moved up, down, left and right by the position movement signal.
제 2항에 있어서,
상기 융복합형 다중인식 사이니지 시스템은,
조명이 출력되는 조명장치 및
물이 분사되는 수압장치를 더 포함하고,
상기 서버는,
상기 콘텐츠정보에 따라 조명 및 수압을 제어하는 환경제어모듈을 더 포함하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The convergence type multiple recognition signage system,
A lighting device that outputs lighting, and
Further comprising a hydraulic device to which water is sprayed,
The server,
Convergence type multi-recognition signage system further comprising an environment control module for controlling lighting and water pressure according to the content information.
제 2항에 있어서,
상기 융복합형 다중인식 사이니지 시스템은,
향이 구현되는 향구현장치를 더 포함하고,
상기 서버는,
상기 콘텐츠정보에 따라 맞춤형 향을 구현하는 향구현모듈을 더 포함하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The convergence type multiple recognition signage system,
Further comprising a fragrance implementation device in which fragrance is implemented,
The server,
Convergence type multi-recognition signage system further comprising a fragrance realization module that implements a customized fragrance according to the content information.
제 1항에 있어서,
상기 인식장치는,
상기 패널에 부착된 메모를 인식하여 메모정보를 생성하며,
상기 서버는,
상기 메모정보를 분석하여 메모분석정보를 생성하는 메모분석모듈을 더 포함하는 융복합형 다중인식 사이니지 시스템.
The method of claim 1,
The recognition device,
Recognizes the memo attached to the panel to generate memo information,
The server,
Convergence type multiple recognition signage system further comprising a memo analysis module for analyzing the memo information to generate memo analysis information.
제 8항에 있어서,
상기 메모분석모듈은,
상기 메모분석정보가 의문형일 경우, 해당 질문에 대한 답을 검색하여 대답정보를 생성하는 대답생성모듈을 포함하는 융복합형 다중인식 사이니지 시스템.
The method of claim 8,
The memo analysis module,
Convergence type multi-recognition signage system comprising an answer generation module for generating answer information by searching for an answer to a corresponding question when the memo analysis information is questionable.
제 2항에 있어서,
상기 패널은,
다수개의 스크린으로 형성되며,
이때, 상기 패널에는 상기 군집정보에 따라 맞춤형 콘텐츠가 각각 투영되는 것을 특징으로 하는 융복합형 다중인식 사이니지 시스템.
The method of claim 2,
The panel,
It is formed by multiple screens,
At this time, the convergence type multiple recognition signage system, characterized in that the customized content is projected on the panel according to the cluster information, respectively.
제 1항에 있어서,
융복합형 다중인식 사이니지 시스템은,
사용자의 제어신호를 수신하며, 수신된 제어신호를 상기 서버에 실시간으로 제공하는 한 개 이상의 단말을 더 포함하는 융복합형 다중인식 사이니지 시스템.
The method of claim 1,
Convergence type multiple recognition signage system,
Convergence type multiple recognition signage system further comprising at least one terminal receiving a control signal of a user and providing the received control signal to the server in real time.
KR1020190044030A 2019-04-16 2019-04-16 Multi-Complex Multi-recognition Signage System KR102194605B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190044030A KR102194605B1 (en) 2019-04-16 2019-04-16 Multi-Complex Multi-recognition Signage System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190044030A KR102194605B1 (en) 2019-04-16 2019-04-16 Multi-Complex Multi-recognition Signage System

Publications (2)

Publication Number Publication Date
KR20200121458A true KR20200121458A (en) 2020-10-26
KR102194605B1 KR102194605B1 (en) 2020-12-23

Family

ID=73006187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190044030A KR102194605B1 (en) 2019-04-16 2019-04-16 Multi-Complex Multi-recognition Signage System

Country Status (1)

Country Link
KR (1) KR102194605B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110128416A (en) * 2010-05-24 2011-11-30 동양산업기계(주) Moving type display apparatus
KR101348142B1 (en) * 2013-09-14 2014-01-07 주식회사 코어셀 The method for providing the customized marketing contens for the customers classified as individuals or groups by using face recognition technology and the system thereof
KR20180000566A (en) * 2016-06-23 2018-01-03 주식회사 케이티 Device for providing targeting advertising contents, contents server and digital signage

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110128416A (en) * 2010-05-24 2011-11-30 동양산업기계(주) Moving type display apparatus
KR101348142B1 (en) * 2013-09-14 2014-01-07 주식회사 코어셀 The method for providing the customized marketing contens for the customers classified as individuals or groups by using face recognition technology and the system thereof
KR20180000566A (en) * 2016-06-23 2018-01-03 주식회사 케이티 Device for providing targeting advertising contents, contents server and digital signage

Also Published As

Publication number Publication date
KR102194605B1 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
US11290681B2 (en) System and methods for facilitating virtual presence
US10163111B2 (en) Virtual photorealistic digital actor system for remote service of customers
US20210295837A1 (en) Non-Transitory Computer Readable Medium, Information Processing Method, Information Processing Device, and Information Processing System
CN102595212A (en) Simulated group interaction with multimedia content
CN102592231A (en) Interaction meeting platform in different places
TW202205176A (en) Method and electronic equipment for superimposing live broadcast character images in real scenes
KR20200122040A (en) Intelligent contents service system and method using the interlocking between smartphone and digital signage
KR102194605B1 (en) Multi-Complex Multi-recognition Signage System
Navas Medrano et al. Enabling remote deictic communication with mobile devices: An elicitation study
CN107371060B (en) Video image synthesis system based on television output and application method
KR101615330B1 (en) Display system and method for the advertisements
KR102009575B1 (en) Method for offering study theme cafe, computer-readable recording medium with offering program of study theme cafe, module and system with the same
Bauer-Krösbacher Mobile interpretation at cultural attractions: Insights into users and non-users of audio-guides
CN103873557A (en) Information issuing system with human-computer interaction function and realization method thereof
Saleme et al. A conceptual architecture and a framework for dealing with variability in mulsemedia systems
KR102232184B1 (en) System for providing virtual studio for reality contents based on artificial intelligence
CN210015702U (en) Ferris wheel multimedia informatization vocal accompaniment system
KR20210110239A (en) Digital exhibition platform system for social museum service
CN211653601U (en) Desktop system based on somatosensory interaction
Kerdvibulvech An innovative use of multidisciplinary applications between information technology and socially digital media for connecting people
KR102394981B1 (en) Digital actor management system by replacement or linkage of real-world object based on VR-AR-MR
Tomitsch et al. Design Implications for a Ubiquitous Ambient Sound Display for the Deaf.
Bäckström Large digital screen as a corporate communication channel: Enhancing the dissemination of information, administration and interaction
CN103700194A (en) Interactive entertainment platform based on terminal technology
Teng Design Opportunities for Assistive and Social Technologies Situated in Space

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant