KR20160047925A - System and projecting method of interactive image based on location - Google Patents

System and projecting method of interactive image based on location Download PDF

Info

Publication number
KR20160047925A
KR20160047925A KR1020140144471A KR20140144471A KR20160047925A KR 20160047925 A KR20160047925 A KR 20160047925A KR 1020140144471 A KR1020140144471 A KR 1020140144471A KR 20140144471 A KR20140144471 A KR 20140144471A KR 20160047925 A KR20160047925 A KR 20160047925A
Authority
KR
South Korea
Prior art keywords
image
spectator
sector
message
personal information
Prior art date
Application number
KR1020140144471A
Other languages
Korean (ko)
Other versions
KR101698645B1 (en
Inventor
옥승진
Original Assignee
옥승진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옥승진 filed Critical 옥승진
Priority to KR1020140144471A priority Critical patent/KR101698645B1/en
Publication of KR20160047925A publication Critical patent/KR20160047925A/en
Application granted granted Critical
Publication of KR101698645B1 publication Critical patent/KR101698645B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3105Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying all colours simultaneously, e.g. by using two or more electronic spatial light modulators

Abstract

The present invention relates to a location-based interactive image system and a projection method. According to one embodiment of the present invention, the location-based interactive image system includes: a personal information registration system issuing an RFID card; a first sensing unit including at least one first detector detecting a location and a motion of an audience; a second sensing unit including at least one second wireless detector detecting a path location of the audience with a mobile terminal or the RFID card; a projector unit including at least one projector projecting an image onto the bottom; and an image server unit merging an interactive image with a message-merged character image in each sector and transmitting the same to the projector of each sector. A message corresponding to the information of the audience can be provided with the interactive image.

Description

위치기반 인터랙티브 영상 시스템 및 투영방법{SYSTEM AND PROJECTING METHOD OF INTERACTIVE IMAGE BASED ON LOCATION}≪ Desc / Clms Page number 1 > SYSTEM AND PROJECTING METHOD OF INTERACTIVE IMAGE BASED ON LOCATION [

본 발명은 위치기반 인터랙티브 영상 시스템 및 투영방법에 관한 것이다. 구체적으로는 관람자의 정보에 상응하는 메시지가 인터랙티브 영상과 함께 제공되는 위치기반 인터랙티브 영상 시스템 및 투영방법에 관한 것이다.
The present invention relates to a position-based interactive imaging system and a projection method. And more particularly, to a location-based interactive image system and a projection method in which a message corresponding to information of a spectator is provided together with an interactive image.

영상기술의 발달로 전시장에서 관람자의 위치 또는 모션에 반응하는 인터랙티브 영상 기술이 발전하고, 그에 대한 수요가 증대하고 있다. 인터랙티브 영상이란 관람자의 위치나 모션에 따라 투영될 영상이 인터랙티브하게 반응하여 동작하는 영상을 말한다. 예컨대, 전시공간의 바닥에 투영된 물고기가 관람자의 발 착지지점을 피하며 움직이거나 스크린에 투영된 관람자의 그림자 또는 영상에 다양한 동물들이 반응하거나 낙하하는 물 등이 부딪혀 물방울로 부셔지는 영상 등이 대표적인 인터랙티브 영상의 예이다.With the development of video technology, interactive video technology responding to viewer's position or motion in exhibition hall has been developed and demand for it is increasing. An interactive image is an image that interactively reacts to the image to be projected according to the viewer's position or motion. For example, when the fish projected on the floor of the exhibition space moves away from the spot of the viewer's feet, or the images of the viewer's shadows or images projected on the screen are reacted by various animals, This is an example of an interactive image.

현재에는, 관람자의 위치 및 모션에 반응하는 인터랙티브 영상을 제공하는 다양한 기술이 제공되고 있다. 예컨대, 스크린에 비춰진 관람자의 그림자를 이용하거나 적외선 카메라 등을 이용하여 관람자의 위치를 검출하여 이용하거나 크로마키 방법으로 관람자의 영상을 획득하여 스크린에 투사하거나 관람자의 촬영 영상으로부터 관람자의 모션을 인식하여 투영하고자 하는 동영상의 각종 동물 내지 식물의 움직임 또는 물 등의 흐름 등을 인터랙티브하게 동작시키는 등의 다양한 방식의 기술이 제공되고 있다.Currently, a variety of techniques are provided to provide interactive images that respond to the viewer's location and motion. For example, the viewer's position can be detected by using the shadow of the spectator shaded on the screen or by using an infrared camera, or the spectator's image can be acquired by the chroma key method and projected on the screen or the viewer's motion can be recognized from the captured image of the spectator A variety of techniques are provided to interactively operate the movement of various animals or plants, the flow of water, etc. of a moving image to be projected.

하지만, 기존의 인터랙티브 영상은 단순히 관람자의 위치 또는 모션에 반응할 뿐 관람자와 반응 객체가 서로간 대화하듯이 반응하는 기술은 제시되지 않고 있다.However, existing interactive images are not merely responding to the viewer 's position or motion, but are not presented as a reaction between viewer and reaction object.

특히, 관람자의 정보에 상응하는 메시지가 인터랙티브 영상과 함께 제공되며 상호반응하는 인터랙티브 영상 기술이 제공되지 않고 있다.In particular, a message corresponding to the viewer's information is provided with the interactive image, and interactive interactive image technology is not provided.

대한민국 공개특허공보 제10-2004-0088166호(2004년 10월 16일 공개)Korean Patent Publication No. 10-2004-0088166 (published October 16, 2004)

본 발명은 전술한 문제를 해결하기 위해, 관람자의 정보에 상응하는 메시지가 인터랙티브 영상과 함께 제공되며 상호반응하는 인터랙티브 영상 기술을 제안하고자 한다.
In order to solve the above-mentioned problem, the present invention proposes an interactive video technique in which a message corresponding to information of a spectator is provided with an interactive image and interact with each other.

전술한 목적을 달성하기 위하여, 본 발명의 하나의 모습에 따라, 관람자의 모바일단말에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 관람자의 개인정보를 등록받아 RFID 카드를 발급하는 개인정보 등록시스템; 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치되며 관람자의 위치 및 모션을 감지하는 적어도 하나 이상의 제1 검출기를 포함하는 제1 감지유닛; 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치되며 식별앱이 저장된 모바일단말 또는 RFID 카드의 식별정보를 감지하여 모바일단말 또는 RFID 카드를 소지하는 관람자의 경로 위치를 검출하는 적어도 하나 이상의 제2 무선검출기를 포함하는 제2 감지유닛; 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치되어 바닥으로 영상을 투영하는 적어도 하나 이상의 프로젝터를 포함하는 프로젝터 유닛; 및 각 섹터의 제1 검출기에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하고, 개인정보 등록시스템에 등록된 정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정된 캐릭터 영상을 생성하되 각 섹터의 제2 무선검출기에서 검출된 식별정보 및 관람자의 경로 위치를 수신하여 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 캐릭터 영상을 생성하고, 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하여 캐릭터 영상과 병합하고, 각 섹터 별로 인터랙티브 영상과 메시지 병합된 캐릭터 영상을 병합하여 각 섹터의 프로젝터로 전송하는 영상 서버유닛;을 포함하여 이루어지는 위치기반 인터랙티브 영상 시스템이 제안된다.
According to one aspect of the present invention, there is provided a personal information registration system for registering personal information through an identification app stored in a mobile terminal of a spectator, or registering personal information of a spectator and issuing an RFID card, ; At least one first detector installed at the top or bottom of each of at least one or more sectors on the spectator's viewing path and including at least one first detector for detecting the position and motion of the spectator; At least one or more than one of the mobile terminals or RFID cards installed on the upper, side, or bottom of each of at least one sector on the viewing route and detecting the identification information of the mobile terminal or the RFID card in which the identification app is stored, A second sensing unit including a second wireless detector; A projector unit including at least one projector installed on an upper portion of each of at least one or more sectors on a viewing route and projecting an image onto a floor; And an interactive image that interactively operates according to the position and motion of the spectator detected by the first detector of each sector, receives information registered in the personal information registration system to generate a corresponding character image, And generating a character image so as to perform an interactive operation around the path position of the spectator by receiving the identification information detected by the second radio detector of each sector and the path position of the spectator and generating a character image corresponding to the registered spectator's personal information Level image, and merging the image with the character image, and merging the interactive image and the message image merged for each sector, and transmitting the merged character image to the projector of each sector, and a position-based interactive image system do.

이때, 하나의 예에서, 영상 서버유닛은: 각 섹터의 제1 검출기에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하는 인터랙티브 영상서버; 개인정보 등록시스템에 등록된 정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정된 캐릭터 영상을 생성하되 각 섹터의 제2 무선검출기에서 검출된 식별정보 및 관람자의 경로 위치를 수신하여 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 캐릭터 영상을 생성하는 캐릭터 영상서버; 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하는 메시지 서버; 및 메시지 서버에서 생성된 메시지를 캐릭터 영상버서에서 생성된 캐릭터 영상과 병합하고, 각 섹터 별로 인터랙티브 영상서버에서 생성된 인터랙티브 영상과 병합된 캐릭터 영상을 병합하여 각 섹터의 프로젝터로 전송하는 영상 병합서버;를 포함할 수 있다.At this time, in one example, the video server unit comprises: an interactive video server for generating an interactive video that interactively operates according to the position and motion of the viewer sensed by the first detector of each sector; A second step of receiving the information registered in the personal information registration system and generating a corresponding character image or generating a character image set upon registration of personal information, receiving the identification information detected by the second radio detector of each sector and the path location of the spectator, A character image server for generating a character image to operate in an exciting manner around the path position; A message server for generating or extracting a message at a level corresponding to personal information of a registered spectator; A video merging server for merging a message generated by the message server with the character image generated by the character video server, merging the interactive image and the merged character image generated by the interactive video server for each sector, and transmitting the merged character image to the projector of each sector; . ≪ / RTI >

또한, 하나의 예에서, 개인정보 등록시스템에 등록된 개인정보는 나이 또는 연령대 정보를 포함하고, 개인정보에 상응하는 수준의 메시지는 나이 또는 연령대 정보에 상응하는 수준의 메시지일 수 있다.
Further, in one example, the personal information registered in the personal information registration system includes age or age information, and the message at a level corresponding to the personal information may be a message at a level corresponding to age or age information.

또 하나의 예에서, 영상 서버유닛은 제2 무선검출기에서 검출된 관람자의 경로 위치 및 제2 무선검출기와 동일 섹터에 설치된 제1 검출기에서 감지된 관람자의 위치를 종합하여 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성할 수 있다.In another example, the video server unit compares the path position of the spectator detected by the second radio detector and the position of the spectator detected by the first detector installed in the same sector as the second radio detector, It is possible to generate a character image that operates in a tactical manner.

또한, 하나의 예에서, 개인정보에 상응하는 수준의 메시지는 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 메시지일 수 있다.Also, in one example, the message at a level corresponding to the personal information may be a message relating to the display of the viewer's path or the reaction of the interactive image.

또 하나의 예에 따르면, 위치기반 인터랙티브 영상 시스템은 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치된 적어도 하나 이상의 지향성 스피커를 포함하는 스피커유닛을 더 포함하고, 영상 서버유닛은, 각 섹터의 제1 검출기에서 감지된 관람자의 위치 및 각 섹터의 제2 무선검출기에서 검출된 관람자의 경로 위치를 종합 판단하여 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출하고 관람자가 특정 위치에 위치하는 경우 해당 섹터의 지향성 스피커로 음성 신호를 제공할 수 있다.
According to another example, the location-based interactive video system further comprises a speaker unit including at least one directional speaker installed on each of at least one or more sectors on the viewing path, wherein the video server unit comprises: The position of the spectator sensed by the detector and the position of the path of the spectator detected by the second wireless detector of each sector to generate or generate a voice signal at a level corresponding to the personal information of the exhibitor or the interactive image on the viewer's path, And when the spectator is located at a specific position, the speech signal can be provided to the directional speaker of the corresponding sector.

다음으로, 전술한 목적을 달성하기 위하여, 본 발명의 다른 하나의 모습에 따라, 관람자의 모바일단말에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 관람자의 개인정보를 등록받아 RFID 카드를 발급하는 개인정보 등록단계; 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치된 제1 검출기를 통해 하부의 관람자의 위치 및 모션을 감지하고, 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치된 제2 무선검출기를 통해 모바일단말 또는 RFID 카드의 식별정보를 감지하여 모바일단말 또는 RFID 카드를 소지하는 관람자의 경로 위치를 검출하는 감지단계; 제1 검출기에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하고, 개인정보에 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정되는 캐릭터 영상을 생성하되 제2 무선검출기에서 검출된 식별정보 및 관람자의 경로 위치에 따라 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성하는 영상생성단계; 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하는 메시지 생성단계; 메시지를 캐릭터 영상과 병합하고 각 섹터 별로 인터랙티브 영상과 메시지 병합된 캐릭터 영상을 병합하는 영상병합단계; 및 영상병합단계에서 병합된 영상을 해당 섹터의 각 상부에 설치된 프로젝터로 전송하고 프로젝터에서 바닥으로 병합 영상을 투영하는 영상투영단계;를 포함하여 이루어지는 위치기반 인터랙티브 영상 투영방법이 제안된다.
In order to achieve the above object, according to another aspect of the present invention, there is provided a method of managing personal information, comprising: registering personal information through an identification app stored in a mobile terminal of a spectator or issuing an RFID card by registering personal information of a spectator Personal information registration step; Detecting a position and motion of a lower viewer through a first detector installed on the top or bottom of each of at least one or more sectors on the spectator's viewing path and detecting a position and motion of a lower viewer through the second wireless detector installed on the top, A sensing step of sensing a position of a path of a spectator holding a mobile terminal or an RFID card by sensing identification information of the mobile terminal or the RFID card through the sensing step; An interactive image that interactively operates according to the position and motion of the spectator sensed by the first detector, generates a character image corresponding to the personal information, or generates a character image set upon registration of the personal information, An image generating step of generating a character image which is operated in an exciting manner around the path position of the spectator according to the identification information and the path position of the spectator; A message generating step of generating or extracting a message at a level corresponding to personal information of a registered spectator; Merging a message with a character image, and merging an interactive image and a message image merged with each other in each sector; And an image projection step of transferring the merged image to a projector installed on each of the sectors in the merging step and projecting the merged image to the bottom of the projector.

이때, 하나의 예에서, 개인정보 등록단계에서 등록된 개인정보는 나이 또는 연령대 정보를 포함하고, 메시지 생성단계에서의 개인정보에 상응하는 수준의 메시지는 나이 또는 연령대 정보에 상응하는 수준의 메시지일 수 있다.
At this time, in one example, the personal information registered in the personal information registration step includes age or age range information, and the message corresponding to the personal information in the message generating step is a message corresponding to age or age information .

또한, 하나의 예에서, 영상생성단계에서는, 제2 무선검출기에서 검출된 관람자의 경로 위치 및 제2 무선검출기와 동일 섹터에 설치된 제1 검출기에서 감지된 관람자의 위치를 종합하여 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성할 수 있다.In one example, in the image generating step, the path position of the spectator detected by the second radio detector and the position of the spectator detected by the first detector installed in the same sector as the second radio detector are integrated to determine The character image can be generated in an interactive manner.

또 하나의 예에서, 개인정보에 상응하는 수준의 메시지는 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 메시지일 수 있다.In another example, a message at a level corresponding to personal information may be a message relating to a reaction of an exhibit or an interactive image on the viewer's path.

또한, 하나의 예에 따르면, 위치기반 인터랙티브 영상 투영방법은: 각 섹터의 제1 검출기에서 감지된 관람자의 위치 및 각 섹터의 제2 무선검출기에서 검출된 관람자의 경로 위치를 종합 판단하여 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출하는 음성신호 생성단계; 및 관람자가 관람경로 상의 특정 위치에 위치하는 경우 관람경로 상의 적어도 하나 이상의 섹터 중 해당 섹터의 상부에 설치된 지향성 스피커로 음성신호 생성단계에서 생성 또는 추출된 음성신호를 제공하여 하부의 관람자를 지향하여 출력하는 음성출력단계;를 더 포함할 수 있다.
Further, according to one example, the location-based interactive image projection method may include: a comprehensive determination of the position of the spectator detected by the first detector of each sector and the position of the path of the spectator detected by the second radio detector of each sector, A voice signal generation step of generating or extracting a voice signal at a level corresponding to the personal information about the reaction of the display or the interactive image on the display; And when the spectator is located at a specific position on the viewing path, the audio signal generated or extracted in the audio signal generating step is provided to the directional speaker installed on the upper side of the sector among at least one or more sectors on the viewing route, And a voice output step of outputting the voice output.

본 발명의 실시예에 따라, 관람자의 정보에 상응하는 메시지가 인터랙티브 영상과 함께 제공되며 상호반응하는 인터랙티브 영상 기술을 구현할 수 있다.
According to the embodiment of the present invention, a message corresponding to the information of the spectator can be provided together with the interactive image, and an interactive image technique in which the interaction is performed can be implemented.

본 발명의 다양한 실시예에 따라 직접적으로 언급되지 않은 다양한 효과들이 본 발명의 실시예들에 따른 다양한 구성들로부터 당해 기술분야에서 통상의 지식을 지닌 자에 의해 도출될 수 있음은 자명하다.
It is apparent that various effects not directly referred to in accordance with various embodiments of the present invention can be derived by those of ordinary skill in the art from the various configurations according to the embodiments of the present invention.

도 1은 본 발명의 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 나타내는 개략적인 블럭도이다.
도 2는 본 발명의 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 개략적인 블럭도이다.
도 3은 본 발명의 다른 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 개략적인 블럭도이다.
도 4는 본 발명의 다른 하나의 실시예에 따른 위치기반 인터랙티브 영상 투영방법을 개략적으로 나타내는 흐름도이다.
도 5는 본 발명의 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 투영방법을 개략적으로 나타내는 흐름도이다.
1 is a schematic block diagram illustrating a location-based interactive imaging system in accordance with one embodiment of the present invention.
2 is a schematic block diagram of a location-based interactive imaging system in accordance with another embodiment of the present invention.
3 is a schematic block diagram of a location-based interactive imaging system in accordance with another embodiment of the present invention.
FIG. 4 is a flowchart schematically illustrating a position-based interactive image projection method according to another embodiment of the present invention.
5 is a flow chart schematically illustrating a position-based interactive image projection method according to another embodiment of the present invention.

전술한 과제를 달성하기 위한 본 발명의 실시예들이 첨부된 도면을 참조하여 설명될 것이다. 본 설명에 있어서, 동일부호는 동일한 구성을 의미하고, 당해 분야의 통상의 지식을 가진 자에게 본 발명의 이해를 도모하기 위하여 부차적인 설명은 생략될 수도 있다.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a block diagram showing the configuration of a first embodiment of the present invention; Fig. In the description, the same reference numerals denote the same components, and a detailed description may be omitted for the sake of understanding of the present invention to those skilled in the art.

본 명세서에서 하나의 구성요소가 다른 구성요소와 연결, 결합 또는 배치 관계에서 '직접'이라는 한정이 없는 이상, '직접 연결, 결합 또는 배치'되는 형태뿐만 아니라 그들 사이에 또 다른 구성요소가 개재됨으로써 연결, 결합 또는 배치되는 형태로도 존재할 수 있다.As used herein, unless an element is referred to as being 'direct' in connection, combination, or placement with other elements, it is to be understood that not only are there forms of being 'directly connected, They may also be present in the form of being connected, bonded or disposed.

본 명세서에 비록 단수적 표현이 기재되어 있을지라도, 발명의 개념에 반하거나 명백히 다르거나 모순되게 해석되지 않는 이상 복수의 구성 전체를 대표하는 개념으로 사용될 수 있음에 유의하여야 한다. 본 명세서에서 '포함하는', '갖는', '구비하는', '포함하여 이루어지는' 등의 기재는 하나 또는 그 이상의 다른 구성요소 또는 그들의 조합의 존재 또는 부가 가능성이 있는 것으로 이해되어야 한다.
It should be noted that, even though a singular expression is described in this specification, it can be used as a concept representing the entire constitution unless it is contrary to, or obviously different from, or inconsistent with the concept of the invention. It is to be understood that the phrases "including", "having", "having", "comprising", etc. in this specification are intended to be additionally or interchangeable with one or more other elements or combinations thereof.

본 발명의 하나의 모습에 따른 위치기반 인터랙티브 영상 시스템을 도면을 참조하여 살펴볼 것이다. 이때, 중복되는 도면부호는 동일 구성을 의미하므로, 해당 도면에 기재되지 않은 도면부호는 다른 도면을 참조하기로 한다.A location-based interactive image system according to one aspect of the present invention will be described with reference to the drawings. Here, the same reference numerals denote the same elements, and therefore, reference numerals not shown in the drawings refer to other drawings.

도 1은 본 발명의 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 나타내는 개략적인 블럭도이고, 도 2는 본 발명의 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 개략적인 블럭도이고, 도 3은 본 발명의 다른 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 시스템을 개략적인 블럭도이다.
FIG. 1 is a schematic block diagram showing a position-based interactive image system according to an embodiment of the present invention, FIG. 2 is a schematic block diagram of a position-based interactive image system according to another embodiment of the present invention, 3 is a schematic block diagram of a location-based interactive imaging system in accordance with another embodiment of the present invention.

도 1, 2 또는/및 3을 참조하여 살펴보면, 하나의 예에 따른 위치기반 인터랙티브 영상 시스템은 개인정보 등록시스템(10), 제1 감지유닛(30), 제2 감지유닛(40), 프로젝터 유닛(70) 및 영상 서버유닛(50)을 포함하여 이루어진다. 또한, 도 2를 참조하면, 하나의 예에 따른 위치기반 인터랙티브 영상 시스템은 스피커 유닛(80)을 더 포함할 수 있다. 도면을 참조하여 각 구성들을 구체적으로 살펴본다.
1, 2, and / or 3, a location-based interactive video system according to one example includes a personal information registration system 10, a first sensing unit 30, a second sensing unit 40, (70) and a video server unit (50). 2, a location-based interactive video system according to one example may further include a speaker unit 80. [ Each configuration will be described in detail with reference to the drawings.

먼저, 도 1 내지 3을 참조하면, 개인정보 등록시스템(10)은 관람자의 모바일단말(도시되지 않음)에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 관람자의 개인정보를 등록받아 RFID 카드(5)를 발급한다. 예컨대, 모바일단말(도시되지 않음)은 스마트폰이나 태블릿 PC 등일 수 있고, 이에 한정되지 않는다. 모바일단말에서 사용자가 미리 식별앱을 다운받아 저장한다. 식별앱은 식별번호를 부여하고 감지된 식별번호에 따라 모바일단말 소지자의 위치를 감지하고 개인정보를 등록하기 위한 애플리케이션이다.1 to 3, the personal information registration system 10 receives personal information through an identification app stored in a mobile terminal (not shown) of the spectator, registers the personal information of the visitor, 5). For example, the mobile terminal (not shown) may be a smart phone, a tablet PC, and the like, but is not limited thereto. The user downloads the identification app in advance from the mobile terminal and stores it. The identification app is an application for assigning an identification number, detecting the position of the mobile terminal holder according to the detected identification number, and registering personal information.

예컨대, 다른 방식으로, 관람자는 전시물이 게시되는 장소의 입구에서 개인정보를 개인정보 등록시스템(10)에 등록하고 식별번호가 부여되는 RFID 카드(5)를 발급받을 수 있다. 이때, RFID 카드(5)는 RFID 칩이 내장된 기기를 지칭하는 의미로 해석되어야 하며, 반드시 카드 모양에 한정해석되어서는 안된다.For example, in a different manner, the spectator can register personal information in the personal information registration system 10 at the entrance of the place where the exhibit is posted, and receive the RFID card 5 to which the identification number is assigned. At this time, the RFID card 5 should be interpreted to mean a device in which the RFID chip is embedded, and it should not necessarily be limited to a card shape.

예컨대, 하나의 예에서, 개인정보 등록시스템(10)에 등록된 개인정보는 나이 또는 연령대 정보를 포함한다. 예컨대, 연령대는 연령구간별로 표현되거나 또는 유아, 유치원, 초등학생, 중학생, 고등학생, 대학생 등으로도 표현될 수도 있다. 이때, 나이 또는 연령대 정보는 캐릭터 및 인터랙티브한 메시지를 생성하기 위한 정보로 사용된다.
For example, in one example, the personal information registered in the personal information registration system 10 includes age or age range information. For example, the age range may be expressed by age range or may be expressed as an infant, a kindergarten, an elementary school student, a junior high school student, a high school student, a college student, or the like. At this time, the age or age information is used as information for generating a character and an interactive message.

다음으로, 도 1 내지 3을 참조하여 제1 감지유닛(30) 및 제2 감지유닛(40)을 살펴본다. 제1 감지유닛(30)은 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치된 적어도 하나 이상의 제1 검출기(31)를 포함한다. 이때, 각 섹터의 상부 또는 바닥에 설치된 제1 검출기(31)는 각 섹터를 통과하거나 각 섹터에 있는 관람자의 위치 및 모션을 감지한다. 예컨대, 각 섹터의 상부에 설치된 제1 검출기(31)는 카메라(31a), 예를 들면, 적외선 카메라일 수 있고, 한편, 각 섹터의 바닥에 설치된 제1 검출기(31)는 압력센서일 수 있다. 즉, 각 섹터의 상부에 카메라(31a)를 설치하여 관람자의 위치 및 모션을 감지하거나, 각 섹터의 바닥에 압력센서를 설치하여 관람자의 위치 및 관람자의 착지 위치에 따른 모션을 검출할 수 있다. 이에 따라, 바닥에 투영된 영상과 구분된 관람자의 위치 및 모션을 획득할 수 있다.Next, the first sensing unit 30 and the second sensing unit 40 will be described with reference to Figs. The first sensing unit 30 includes at least one first detector 31 installed at the top or bottom of each of at least one or more sectors on the viewer's viewing path. At this time, the first detector 31 installed on the upper or bottom of each sector passes through each sector or senses the position and motion of the spectators in each sector. For example, the first detector 31 installed at the top of each sector may be a camera 31a, for example an infrared camera, while the first detector 31 installed at the bottom of each sector may be a pressure sensor . That is, a camera 31a may be installed at the upper part of each sector to detect the position and motion of the spectator, or a pressure sensor may be installed at the bottom of each sector to detect motions according to the position of the spectator and the landing position of the spectator. Accordingly, it is possible to acquire the position and the motion of the spectator separated from the image projected on the floor.

예컨대, 이때, 관람자의 관람경로 상의 섹터가 다수인 경우, 다수 섹터는 연속적이거나 단속적일 수 있다.For example, at this time, if there are a plurality of sectors on the viewer's viewing path, the multiple sectors may be continuous or intermittent.

계속하여, 도 1 내지 3을 참조하면, 제2 감지유닛(40)은 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치된 적어도 하나 이상의 제2 무선검출기(41)를 포함한다. 이때, 각 섹터의 상부, 측면 또는 바닥에 설치된 제2 무선검출기(41)는 식별앱이 저장된 모바일단말 또는 RFID 카드(5)의 식별정보를 감지한다. 이에 따라, 모바일단말 또는 RFID 카드(5)의 식별정보를 이용하여 모바일단말 또는 RFID 카드(5)를 소지하는 관람자의 경로 위치를 검출한다. 즉, 모바일단말(도시되지 않음) 또는 RFID 카드(5)의 식별정보를 이용하므로, 제2 감지유닛(40)에서는 제1 감지유닛(30)과 달리 특정 관람자의 위치를 파악할 수 있게 된다. 이때, 제2 무선검출기(41)를 이용하여 모바일단말과 RFID 카드(5)를 감지하는 기술은 널리 공지된 기술이므로 구체적인 설명은 생략하기로 한다.
1 to 3, the second sensing unit 40 includes at least one second wireless detector 41 installed on the top, side, or bottom of each of at least one sector on the viewing route. At this time, the second wireless detector 41 installed on the top, side, or bottom of each sector senses the identification information of the mobile terminal or the RFID card 5 in which the identification app is stored. Accordingly, the path position of the spectator holding the mobile terminal or the RFID card 5 is detected by using the identification information of the mobile terminal or the RFID card 5. That is, since the identification information of the mobile terminal (not shown) or the RFID card 5 is used, the position of a specific spectator can be grasped in the second sensing unit 40, unlike the first sensing unit 30. [ At this time, the technique of detecting the mobile terminal and the RFID card 5 using the second wireless detector 41 is a well-known technology, and thus a detailed description thereof will be omitted.

다음으로, 도 1 내지 3을 참조하면, 프로젝터 유닛(70)은 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치된 적어도 하나 이상의 프로젝터(71)를 포함한다. 이때, 각 섹터의 상부에 설치된 프로젝터(71)는 후술하는 영상 서버유닛(50)으로부터 영상을 받아 바닥으로 투영한다. 이때, 투영되는 영상은 인터랙티브 영상이다. 만일, 제2 무선검출기(41)를 통해 감지된 특정 관람자가 위치된 섹터에서는 인터랙티브 영상과 캐릭터 영상 및 메시지가 병합된 영상이 투영될 수 있다.
Next, referring to Figs. 1 to 3, the projector unit 70 includes at least one projector 71 installed on each of at least one or more sectors on the viewing route. At this time, the projector 71 installed at the upper part of each sector receives the image from the image server unit 50 to be described later and projects it to the floor. At this time, the projected image is an interactive image. In a sector where a specific spectator sensed through the second wireless detector 41 is located, an image in which an interactive image, a character image, and a message are merged can be projected.

다음으로, 도 1 내지 3을 참조하여, 영상 서버유닛(50)을 구체적으로 살펴본다. 영상 서버유닛(50)은 각 섹터의 제1 검출기(31)에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성한다. 예컨대, 이때, 다수 섹터의 경우, 영상 서버유닛(50)에서 생성되는 인터랙티브 영상은 연속되거나 단속적인 각 섹터에서 연속적인 영상의 각 섹터별 분할영상이거나 각 섹터별 독립적인 영상일 수 있다.Next, with reference to Figs. 1 to 3, the video server unit 50 will be described in detail. The video server unit 50 generates an interactive image that operates interactively according to the position and motion of the spectators sensed by the first detector 31 of each sector. For example, in the case of a plurality of sectors, the interactive image generated by the image server unit 50 may be a segmented image of each sector of a continuous image in each continuous or intermittent sector, or an independent image of each sector.

또한, 영상 서버유닛(50)은 개인정보 등록시스템(10)에 등록된 개인정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정된 캐릭터 영상을 생성한다. 이때, 영상 서버유닛(50)은 각 섹터의 제2 무선검출기(41)에서 검출된 식별정보 및 관람자의 경로 위치를 수신하여 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 캐릭터 영상을 생성한다.Also, the video server unit 50 receives the personal information registered in the personal information registration system 10 to generate a corresponding character image, or generates a character image set upon registration of personal information. At this time, the video server unit 50 receives the identification information detected by the second wireless detector 41 of each sector and the path position of the spectator, and generates a character image so as to perform an interactive operation around the path position of the spectator.

또한, 영상 서버유닛(50)은 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하여 캐릭터 영상과 병합하고, 각 섹터 별로 인터랙티브 영상과 메시지 병합된 캐릭터 영상을 병합하여 각 섹터의 프로젝터(71)로 전송한다. In addition, the image server unit 50 generates or extracts a message corresponding to the personal information of the registered spectator and merges it with the character image, merges the interactive image and the message image merged for each sector, (71).

예컨대, 이때, 개인정보에 상응하는 수준의 메시지는 나이 또는 연령대 정보에 상응하는 수준의 메시지일 수 있다. For example, at this time, a message at a level corresponding to personal information may be a message at a level corresponding to age or age information.

또한, 하나의 예에서, 개인정보에 상응하는 수준의 메시지는 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 메시지일 수 있다.Also, in one example, the message at a level corresponding to the personal information may be a message relating to the display of the viewer's path or the reaction of the interactive image.

또, 하나의 예에서, 영상 서버유닛(50)은 제2 무선검출기(41)에서 검출된 관람자의 경로 위치 및 제2 무선검출기(41)와 동일 섹터에 설치된 제1 검출기(31)에서 감지된 관람자의 위치를 종합하여 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성할 수 있다.In one example, the video server unit 50 detects the path position of the spectator detected by the second wireless detector 41 and the path position detected by the first detector 31 installed in the same sector as the second wireless detector 41 A character image can be generated which is intuitively operated around the path position of the spectators by combining the positions of the spectators.

예컨대, 영상 서버유닛(50)은 각 섹터별로 영상서버를 구비하여 각 섹터별로 독립적으로 영상 및 메시지 처리가 되거나 또는 각 섹터별 처리된 영상 및 메시지가 통합처리되어 각 섹터의 프로젝터(71)로 전송될 수 있다. 또는, 영상 서버유닛(50)은 예컨대 도 2에 도시된 바와 같이 기능별 서버를 구비할 수 있다. 또는, 영상 서버유닛(50)은 각 섹터별로 각각 도 2와 같은 기능별 서버를 구비할 수도 있다.For example, the video server unit 50 includes a video server for each sector, and processes video and messages independently for each sector or processes video and messages processed for each sector, and transmits them to the projector 71 of each sector . Alternatively, the video server unit 50 may include a function-specific server, for example, as shown in FIG. Alternatively, the video server unit 50 may have a functional server as shown in FIG. 2 for each sector.

예컨대, 관람자의 관람경로 상의 다수의 섹터가 연속되거나 단속적인 경우에도, 영상 서버유닛(50)은 각 섹터별로 영상서버가 구비되어 각 섹터별로 영상 및 메시지가 처리될 수 있음은 물론, 인터랙티브 영상, 캐릭터 영상, 메시지 등이 각 섹터별로 연속되어 이어지도록 처리할 수도 있다.
For example, even when a plurality of sectors on a spectator's viewing path are continuous or intermittent, the video server unit 50 may include a video server for each sector to process video and messages for each sector, A character image, a message, and the like may be processed successively for each sector.

예컨대, 도 2를 참조하여 구체적으로 살펴보면, 영상 서버유닛(50)은 인터랙티브 영상서버(51), 캐릭터 영상서버(53), 메시지 서버(55) 및 영상 병합서버(57)를 포함할 수 있다. 이때, 각각의 서버들은 각 섹터별로 각각 구비되거나 또는 일부 또는 전체 섹터의 통합으로 구비될 수 있다.2, the video server unit 50 may include an interactive video server 51, a character video server 53, a message server 55, and a video merge server 57. At this time, each of the servers may be provided for each sector or may be provided by integration of some or all of the sectors.

인터랙티브 영상서버(51)는 각 섹터의 제1 검출기(31)에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성한다. 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하는 기술은 이미 널리 알려져 있으므로, 구체적인 설명은 생략하기로 한다. 예컨대, 제1 검출기(31)가 각 섹터의 상부에 설치되는 카메라(31a)인 경우, 관람자의 위치는 제1 검출기(31)에서 획득된 관람자의 이미지의 영상 내 위치로부터 판독될 수 있고, 영상분석을 통해 관람자의 모션도 판독될 수 있다. 또한, 예컨대, 제1 검출기(31)가 각 섹터의 하부에 설치된 압력센서 등인 경우 압력센서의 신호로부터 관람자의 위치 및 관람자의 착지 지점에 따른 모션을 검출할 수 있다.The interactive image server 51 generates an interactive image that operates interactively according to the position and motion of the spectator sensed by the first detector 31 of each sector. Techniques for generating an interactive image that operates interactively according to the position and motion of a spectator are already well known, so a detailed description thereof will be omitted. For example, if the first detector 31 is a camera 31a installed at the top of each sector, the position of the spectator can be read from the position in the image of the spectator's image obtained at the first detector 31, The motion of the spectator can also be read through analysis. Further, for example, when the first detector 31 is a pressure sensor or the like provided under each sector, it is possible to detect a motion in accordance with the position of the spectator and the landing point of the spectator from the signal of the pressure sensor.

예컨대, 이때, 인터랙티브 영상서버(51)에서 생성되는 인터랙티브 영상은 연속되거나 단속적인 각 섹터에서 연속적인 영상의 각 섹터별 분할영상이거나 각 섹터별 독립적인 영상일 수 있다.For example, at this time, the interactive image generated by the interactive image server 51 may be a divided image of each sector of a continuous image in each continuous or intermittent sector, or an independent image of each sector.

다음, 캐릭터 영상서버(53)는 개인정보 등록시스템(10)에 등록된 정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정된 캐릭터 영상을 생성한다. 즉, 캐릭터 영상서버(53)는 예컨대, 기 저장된 캐릭터 영상을 선택 추출하여 개인정보에 상응하는 영상을 생성하거나, 개인정보 등록시 설정된 캐릭터 영상을 추출하여 캐릭터 영상을 생성한다. 이때, 캐릭터 영상서버(53)는 각 섹터의 제2 무선검출기(41)에서 검출된 식별정보 및 관람자의 경로 위치를 수신하여 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 캐릭터 영상을 생성한다. 예컨대, 이때, 캐릭터 영상의 인터랙티브 동작은 관람자와 동행하는 동작일 수 있다. 이때, 동행이란, 관람자의 일측에서 따르거나 관람자 주위를 돌거나 관람자를 뒤따르거나 앞서는 것을 포함한다.Next, the character video server 53 receives the information registered in the personal information registration system 10 to generate a corresponding character image or a character image set upon registration of personal information. That is, the character video server 53 generates a character image by, for example, selecting and extracting a previously stored character image to generate an image corresponding to the personal information, or extracting a character image set upon personal information registration. At this time, the character video server 53 receives the identification information detected by the second wireless detector 41 of each sector and the path position of the spectator, and generates a character image so as to perform an interactive operation around the path position of the spectator. For example, at this time, the interactive operation of the character image may be an operation accompanying the viewer. At this time, companionship includes following from one side of the spectator, turning around the spectator, or following or leading the spectator.

예컨대, 하나의 예에서, 캐릭터 영상서버(53)는 제2 무선검출기(41)에서 검출된 관람자의 경로 위치 및 제2 무선검출기(41)와 동일 섹터에 설치된 제1 검출기(31)에서 감지된 관람자의 위치를 종합하여 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성할 수 있다.For example, in one example, the character image server 53 detects the path position of the viewer detected by the second wireless detector 41 and the path position detected by the first detector 31 installed in the same sector as the second wireless detector 41 A character image can be generated which is intuitively operated around the path position of the spectators by combining the positions of the spectators.

다음, 메시지 서버(55)는 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출한다. 예컨대, 이때, 개인정보에 상응하는 수준의 메시지는 나이 또는 연령대 정보에 상응하는 수준의 메시지일 수 있다.Next, the message server 55 generates or extracts a message at a level corresponding to the personal information of the registered spectator. For example, at this time, a message at a level corresponding to personal information may be a message at a level corresponding to age or age information.

예컨대, 하나의 예에서, 개인정보에 상응하는 수준의 메시지는 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 메시지일 수 있다. 예컨대, 관람자의 경로 상의 전시물에 관한 메시지의 경우, 영상 서버유닛(50)의 메시지 서버(55)는 영상 서버유닛(50)에서 획득한 제2 무선검출기(41)에서 검출된 관람자의 경로 위치를 토대로 해당 경로 위치에 대응하는 경로 상의 전시물에 대한 메시지를 생성할 수 있다. 만일, 인터랙티브 영상의 반응에 관한 메시지의 경우에도, 영상 서버유닛(50)의 메시지 서버(55)는 영상 서버유닛(50)에서 획득한 제1 검출기(31)에서 감지된 관람자의 위치를 토대로 해당 위치 지점에 투영될 또는 투영된 인터랙티브 영상에 대한 메시지를 생성할 수 있다.For example, in one example, a message at a level corresponding to personal information may be a message relating to a reaction of an exhibit or an interactive image on the viewer's path. For example, in the case of a message relating to an exhibit on the path of the spectator, the message server 55 of the video server unit 50 calculates the path position of the spectator detected by the second radio detector 41 acquired by the video server unit 50 A message for an exhibit on a route corresponding to the route position can be generated. The message server 55 of the video server unit 50 may also display a message corresponding to the position of the viewer based on the position of the viewer detected by the first detector 31 acquired by the video server unit 50 And generate a message for the interactive image to be projected or projected at the location point.

다음, 영상 병합서버(57)는 메시지 서버(55)에서 생성된 메시지를 캐릭터 영상버서에서 생성된 캐릭터 영상과 병합하고, 각 섹터 별로 인터랙티브 영상서버(51)에서 생성된 인터랙티브 영상과 병합된 캐릭터 영상을 병합하여 각 섹터의 프로젝터(71)로 전송한다.
Next, the image merge server 57 merges the message generated by the message server 55 with the character image generated by the character image server, and for each sector, the character image merged with the interactive image generated by the interactive image server 51 And transmits them to the projector 71 of each sector.

다음으로, 도 3을 참조하여, 또 하나의 예에 따른 위치기반 인터랙티브 영상 시스템을 살펴본다. 이때, 하나의 예에 따른 위치기반 인터랙티브 영상 시스템은 스피커 유닛(80)을 더 포함한다. 스피커 유닛(80)은 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치된 적어도 하나 이상의 지향성 스피커(81)를 포함한다. 지향성 스피커(81)는 직진방향으로만 음성신호를 전달할 수 있으므로, 거의 지향성 스피커(81)의 직하부에 위치하는 관람자에게만 음성신호를 전달할 수 있다.Next, with reference to FIG. 3, a location-based interactive image system according to another example will be described. At this time, the position-based interactive video system according to one example further includes a speaker unit 80. [ The speaker unit 80 includes at least one directional speaker 81 installed on each of at least one or more sectors on the viewing path. Since the directional speaker 81 can transmit voice signals only in the straight direction, it is possible to transmit voice signals only to the spectators located directly below the directional speaker 81.

이때, 영상 서버유닛(50)은, 각 섹터의 제1 검출기(31)에서 감지된 관람자의 위치 및 각 섹터의 제2 무선검출기(41)에서 검출된 관람자의 경로 위치를 종합 판단하여 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출할 수 있다. 이때, 영상 서버유닛(50)은 관람자가 특정 위치에 위치하는 경우 해당 섹터의 지향성 스피커(81)로 음성 신호를 제공할 수 있다. 예컨대, 도시되지 않았으나, 영상 서버유닛(50)은 음성신호를 생성 또는 추출하여 지향성 스피커(81)로 음성신호를 제공하는 음성 서버를 구비할 수 있다.
At this time, the video server unit 50 comprehensively determines the position of the spectator sensed by the first detector 31 of each sector and the path position of the spectator detected by the second wireless detector 41 of each sector, It is possible to generate or extract a voice signal at a level corresponding to the personal information about the reaction of the display or the interactive image on the display. At this time, the video server unit 50 may provide a voice signal to the directional speaker 81 of the corresponding sector when the viewer is located at a specific position. For example, although not shown, the video server unit 50 may include a voice server that generates or extracts voice signals and provides voice signals to the directional speakers 81. [

다음으로, 본 발명의 하나의 모습에 따른 위치기반 인터랙티브 영상 투영방법을 도면을 참조하여 살펴본다. 이때, 전술한 하나의 모습에 따른 위치기반 인터랙티브 영상 시스템의 실시예들 및 도 1 내지 3이 참조될 수 있고, 중복되는 설명들은 생략될 수 있다.Next, a position-based interactive image projection method according to one aspect of the present invention will be described with reference to the drawings. Here, embodiments of the position-based interactive image system according to the above-described one aspect and FIGS. 1 to 3 can be referred to, and redundant explanations can be omitted.

도 4는 본 발명의 다른 하나의 실시예에 따른 위치기반 인터랙티브 영상 투영방법을 개략적으로 나타내는 흐름도이고, 도 5는 본 발명의 또 하나의 실시예에 따른 위치기반 인터랙티브 영상 투영방법을 개략적으로 나타내는 흐름도이다.
FIG. 4 is a flow chart schematically illustrating a position-based interactive image projection method according to another embodiment of the present invention, and FIG. 5 is a flowchart schematically illustrating a method of projecting a position-based interactive image according to another embodiment of the present invention. to be.

도 4 및/또는 5를 참조하면, 본 발명의 하나의 예에 따른 위치기반 인터랙티브 영상 투영방법은 개인정보 등록단계(S100), 감지단계(S300), 영상생성단계(S500), 메시지 생성단계(S600), 영상병합단계(S700) 및 영상투영단계(S800)를 포함하여 이루어진다. 또한, 도 5를 참조하면, 하나의 예에 따른 위치기반 인터랙티브 영상 투영방법은 음성신호 생성단계(S900) 및 음성출력단계(S950)를 더 포함할 수 있다. 이때, 도 5의 음성신호 생성단계(S900)는 영상생성단계(S500), 메시지 생성단계(S600), 영상병합단계(S700) 중의 어느 하나의 단계와 병행하여 이루어질 수 있고, 음성출력단계(S950)는 영상투영단계(S800)와 병행하여 이루어질 수 있다.
4 and / or 5, a location-based interactive image projection method according to an exemplary embodiment of the present invention includes a step of registering personal information (S100), a step of sensing (S300), a step of generating an image (S500) S600), merging the image (S700), and projecting the image (S800). Referring to FIG. 5, the location-based interactive image projection method according to one example may further include a voice signal generation step S900 and a voice output step S950. 5 may be performed in parallel with any one of the image generation step S500, the message generation step S600, and the image merging step S700, and the voice output step S950 May be performed in parallel with the image projection step S800.

도 4 내지 5를 참조하면, 개인정보 등록단계(S100)에서는, 관람자의 모바일단말에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 관람자의 개인정보를 등록받아 RFID 카드(5)를 발급한다. 예컨대, 모바일단말(도시되지 않음)은 스마트폰이나 태블릿 PC 등일 수 있고, 이에 한정되지 않는다. 식별앱은 식별번호를 부여하고 감지된 식별번호에 따라 모바일단말 소지자의 위치를 감지하고 개인정보를 등록하기 위한 애플리케이션이다. 또한, 다른 방식으로, 관람자는 전시물이 게시되는 장소의 입구에서 개인정보를 등록하고 식별번호가 부여되는 RFID 카드(5)를 발급받을 수 있다. 이때, RFID 카드(5)는 RFID 칩이 내장된 기기를 지칭하는 의미로 해석되어야 하며, 반드시 카드 모양에 한정해석되어서는 안된다.4 to 5, in the personal information registration step S100, the personal information is registered through the identification app stored in the mobile terminal of the spectator, or the personal information of the spectator is registered, and the RFID card 5 is issued. For example, the mobile terminal (not shown) may be a smart phone, a tablet PC, and the like, but is not limited thereto. The identification app is an application for assigning an identification number, detecting the position of the mobile terminal holder according to the detected identification number, and registering personal information. Alternatively, the spectator can receive the RFID card 5, which registers personal information at the entrance of the place where the exhibit is posted and is given an identification number. At this time, the RFID card 5 should be interpreted to mean a device in which the RFID chip is embedded, and it should not necessarily be limited to a card shape.

이때, 하나의 예에서, 개인정보 등록단계(S100)에서 등록된 개인정보는 나이 또는 연령대 정보를 포함할 수 있다. 예컨대, 연령대는 연령구간별로 표현되거나 또는 유아, 유치원, 초등학생, 중학생, 고등학생, 대학생 등으로도 표현될 수도 있다. 이때, 나이 또는 연령대 정보는 캐릭터 및 인터랙티브한 메시지를 생성하기 위한 정보로 사용된다.
In this case, in one example, the personal information registered in the personal information registration step S100 may include age or age range information. For example, the age range may be expressed by age range or may be expressed as an infant, a kindergarten, an elementary school student, a junior high school student, a high school student, a college student, or the like. At this time, the age or age information is used as information for generating a character and an interactive message.

다음으로, 도 4 내지 5를 참조하면, 감지단계(S300)에서는, 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치된 제1 검출기(31)를 통해 하부의 관람자의 위치 및 모션을 감지한다(S310). 이때, 제1 검출기(31)는 각 섹터를 통과하거나 각 섹터에 있는 관람자의 위치 및 모션을 감지한다. 예컨대, 각 섹터의 상부에 카메라(31a), 예를 들면, 적외선 카메라를 설치하여 관람자의 위치 및 모션을 감지하거나, 각 섹터의 바닥에 압력센서를 설치하여 관람자의 위치 및 관람자의 착지 위치에 따른 모션을 검출할 수 있다.Next, referring to Figs. 4 to 5, in the sensing step S300, the position and motion of the lower viewer through the first detector 31 installed on the top or bottom of each of at least one or more sectors on the spectator's viewing path (S310). At this time, the first detector 31 passes through each sector or senses the position and motion of a viewer in each sector. For example, a camera 31a, for example, an infrared camera may be installed at the upper part of each sector to detect the position and motion of the spectator, or a pressure sensor may be installed at the bottom of each sector to determine the position of the spectator Motion can be detected.

이때, 관람자의 관람경로 상의 섹터가 다수인 경우, 다수 섹터는 연속적이거나 단속적일 수 있다.At this time, if there are a plurality of sectors on the viewers' viewing route, the multiple sectors may be continuous or intermittent.

또한, 감지단계(S300)에서는, 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치된 제2 무선검출기(41)를 통해 모바일단말 또는 RFID 카드(5)의 식별정보를 감지하여 모바일단말 또는 RFID 카드(5)를 소지하는 관람자의 경로 위치를 검출한다(S330). 이때, 제2 무선검출기(41)는 식별앱이 저장된 모바일단말 또는 RFID 카드(5)의 식별정보를 감지한다. 이에 따라, 모바일단말 또는 RFID 카드(5)의 식별정보를 이용하여 모바일단말 또는 RFID 카드(5)를 소지하는 관람자의 경로 위치를 검출한다. 즉, 모바일단말(도시되지 않음) 또는 RFID 카드(5)의 식별정보를 이용하므로, 제2 감지유닛(40)에서는 제1 감지유닛(30)과 달리 특정 관람자의 위치를 파악할 수 있게 된다. 이에 따라, 개인정보를 등록한 특정 관람자에게 개인정보에 상응하는 메시지를 생성하거나 특정 관람자의 경로 위치 주변에 캐릭터 영상을 제공할 수 있다.
In the detecting step S300, the identification information of the mobile terminal or the RFID card 5 is sensed through the second wireless detector 41 installed on the top, side, or bottom of each of the at least one sector, The path position of the spectator holding the image 5 is detected (S330). At this time, the second wireless detector 41 detects the identification information of the mobile terminal or the RFID card 5 in which the identification app is stored. Accordingly, the path position of the spectator holding the mobile terminal or the RFID card 5 is detected by using the identification information of the mobile terminal or the RFID card 5. That is, since the identification information of the mobile terminal (not shown) or the RFID card 5 is used, the position of a specific spectator can be grasped in the second sensing unit 40, unlike the first sensing unit 30. [ Accordingly, it is possible to generate a message corresponding to the personal information to a specific spectator registering the personal information or to provide a character image around the path position of the specific spectator.

다음으로, 영상생성단계(S500)에서는, 제1 검출기(31)에서 감지된 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성한다(S510). 예컨대, 이때, 다수 섹터의 경우, 생성되는 인터랙티브 영상은 연속되거나 단속적인 각 섹터에서 연속적인 영상의 각 섹터별 분할영상이거나 각 섹터별 독립적인 영상일 수 있다.Next, in the image generation step S500, an interactive image is generated interactively according to the position and motion of the spectator detected by the first detector 31 (S510). For example, in the case of multiple sectors, the generated interactive image may be a segmented image of each sector of a continuous image in each continuous or intermittent sector, or an independent image of each sector.

또한, 영상생성단계(S500)에서는, 개인정보에 상응하는 캐릭터 영상을 생성하거나 개인정보의 등록시 설정되는 캐릭터 영상을 생성하되, 제2 무선검출기(41)에서 검출된 식별정보 및 관람자의 경로 위치에 따라 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성한다(S550). 예컨대, 이때, 캐릭터 영상의 인터랙티브 동작은 관람자와 동행하는 동작일 수 있다.In the image generation step S500, a character image corresponding to the personal information is generated or a character image to be set upon registration of personal information is generated. The identification information detected by the second wireless detector 41 and the position information In operation S550, a character image is generated in an exciting manner around the path position of the spectator. For example, at this time, the interactive operation of the character image may be an operation accompanying the viewer.

예컨대, 하나의 예에서, 영상생성단계(S500)에서는, 제2 무선검출기(41)에서 검출된 관람자의 경로 위치 및 제2 무선검출기(41)와 동일 섹터에 설치된 제1 검출기(31)에서 감지된 관람자의 위치를 종합하여 관람자의 경로 위치 주변에서 익터랙티브 동작하는 캐릭터 영상을 생성할 수 있다.
For example, in one example, in the image generating step S500, the path position of the spectator detected by the second wireless detector 41 and the path position of the spectator detected by the first detector 31 installed in the same sector as the second wireless detector 41 It is possible to generate a character image that operates intuitively around the path position of the spectator by combining the positions of the spectators.

다음으로, 메시지 생성단계(S600)에서는, 등록된 관람자의 개인정보에 상응하는 수준의 메시지를 생성 또는 추출한다. Next, in the message generating step S600, a message at a level corresponding to the personal information of the registered spectator is generated or extracted.

예컨대, 하나의 예에서, 메시지 생성단계(S600)에서의 개인정보에 상응하는 수준의 메시지는 나이 또는 연령대 정보에 상응하는 수준의 메시지일 수 있다.For example, in one example, the message at the level corresponding to the personal information in the message generation step S600 may be a message at a level corresponding to the age or age information.

또한, 하나의 예에서, 개인정보에 상응하는 수준의 메시지는 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 메시지일 수 있다. 예컨대, 관람자의 경로 상의 전시물에 관한 메시지의 경우, 감지단계(S300)에서 획득한 제2 무선검출기(41)에서 검출된 관람자의 경로 위치를 토대로 해당 경로 위치에 대응하는 경로 상의 전시물에 대한 메시지를 생성할 수 있다. 만일, 인터랙티브 영상의 반응에 관한 메시지의 경우에도, 감지단계(S300)에서 획득한 제1 검출기(31)에서 감지된 관람자의 위치를 토대로 해당 위치 지점에 투영될 또는 투영된 인터랙티브 영상에 대한 메시지를 생성할 수 있다.
Also, in one example, the message at a level corresponding to the personal information may be a message relating to the display of the viewer's path or the reaction of the interactive image. For example, in the case of a message relating to an exhibit on a route of a spectator, a message for an exhibit on a route corresponding to the corresponding route position is determined based on the viewpoint location of the spectator detected by the second wireless detector 41 acquired in the sensing step S300 Can be generated. Even in the case of a message relating to the reaction of the interactive image, a message for the interactive image to be projected or projected on the corresponding position point based on the position of the spectator sensed by the first detector 31 acquired in the sensing step S300 Can be generated.

다음으로, 영상병합단계(S700)에서는, 메시지를 캐릭터 영상과 병합하고 각 섹터 별로 인터랙티브 영상과 메시지 병합된 캐릭터 영상을 병합한다.
Next, in the image merging step (S700), the message is merged with the character image, and the interactive image and the merged character image are merged for each sector.

다음으로, 영상투영단계(S800)에서는 영상병합단계(S700)에서 병합된 영상을 해당 섹터의 각 상부에 설치된 프로젝터(71)로 전송하고 프로젝터(71)에서 바닥으로 병합 영상을 투영한다.
Next, in the image projection step S800, the merged image is transmitted to the projector 71 installed in each of the upper sectors of the corresponding sector in the merging step S700, and the merged image is projected from the projector 71 to the bottom.

또한, 도 5를 참조하여 하나의 예에 따른 위치기반 인터랙티브 영상 투영방법을 살펴본다. 이때, 위치기반 인터랙티브 영상 투영방법은 음성신호 생성단계(S900) 및 음성출력단계(S950)를 더 포함할 수 있다. 이때, 음성신호 생성단계(S900)에서는, 각 섹터의 제1 검출기(31)에서 감지된 관람자의 위치 및 각 섹터의 제2 무선검출기(41)에서 검출된 관람자의 경로 위치를 종합 판단하여 관람자의 경로 상의 전시물 또는 인터랙티브 영상의 반응에 관한 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출한다. 5, a location-based interactive image projection method according to one example will be described. At this time, the location-based interactive image projection method may further include a voice signal generation step S900 and a voice output step S950. At this time, in the audio signal generating step S900, the position of the spectator sensed by the first detector 31 of each sector and the path position of the spectator detected by the second wireless detector 41 of each sector are determined in total, And generates or extracts a voice signal at a level corresponding to the personal information about the reaction of the exhibit on the route or the interactive image.

또한, 음성출력단계(S950)에서는, 관람자가 관람경로 상의 특정 위치에 위치하는 경우 관람경로 상의 적어도 하나 이상의 섹터 중 해당 섹터의 상부에 설치된 지향성 스피커(81)로 음성신호 생성단계에서 생성 또는 추출된 음성신호를 제공하여 하부의 관람자를 지향하여 출력한다.
In the audio output step S950, when the spectator is located at a specific position on the viewing path, the directional speaker 81 installed at the upper part of the sector among at least one sector on the viewing route generates And outputs a voice signal to the lower viewer.

이상에서, 전술한 실시예 및 첨부된 도면들은 본 발명의 범주를 제한하는 것이 아니라 본 발명에 대한 당해 기술분야에서 통상의 지식을 가진 자의 이해를 돕기 위해 예시적으로 설명된 것이다. 또한, 전술한 구성들의 다양한 조합에 따른 실시예들이 앞선 구체적인 설명들로부터 당업자에게 자명하게 구현될 수 있다. 따라서, 본 발명의 다양한 실시예는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있고, 본 발명의 범위는 특허청구범위에 기재된 발명에 따라 해석되어야 하며, 당해 기술분야에서 통상의 지식을 가진 자에 의한 다양한 변경, 대안, 균등물들을 포함하고 있다.
The foregoing embodiments and accompanying drawings are not intended to limit the scope of the present invention but to illustrate the present invention in order to facilitate understanding of the present invention by those skilled in the art. Embodiments in accordance with various combinations of the above-described configurations can also be implemented by those skilled in the art from the foregoing detailed description. Accordingly, various embodiments of the present invention may be embodied in various forms without departing from the essential characteristics thereof, and the scope of the present invention should be construed in accordance with the invention as set forth in the appended claims. Alternatives, and equivalents by those skilled in the art.

5: RFID 카드 10: 개인정보 등록시스템
30: 제1 감지유닛 31: 제1 검출기
40: 제2 감지유닛 41: 제2 무선검출기
50: 영상 서버유닛 51: 인터랙티브 영상서버
53: 캐릭터 영상서버 55: 메시지 서버
57: 영상 병합서버 70: 프로젝터 유닛
71: 프로젝터 80: 스피터 유닛
81: 지향성 스피커
5: RFID card 10: Personal information registration system
30: first detection unit 31: first detector
40: second sensing unit 41: second wireless detector
50: video server unit 51: interactive video server
53: character video server 55: message server
57: video merge server 70: projector unit
71: projector 80:
81: Directional speaker

Claims (11)

관람자의 모바일단말에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 상기 관람자의 상기 개인정보를 등록받아 RFID 카드를 발급하는 개인정보 등록시스템;
상기 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치되며 상기 관람자의 위치 및 모션을 감지하는 적어도 하나 이상의 제1 검출기를 포함하는 제1 감지유닛;
상기 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치되며 상기 식별앱이 저장된 상기 모바일단말 또는 상기 RFID 카드의 식별정보를 감지하여 상기 모바일단말 또는 상기 RFID 카드를 소지하는 상기 관람자의 경로 위치를 검출하는 적어도 하나 이상의 제2 무선검출기를 포함하는 제2 감지유닛;
상기 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치되어 바닥으로 영상을 투영하는 적어도 하나 이상의 프로젝터를 포함하는 프로젝터 유닛; 및
상기 각 섹터의 제1 검출기에서 감지된 상기 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하고, 상기 개인정보 등록시스템에 등록된 정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 상기 개인정보의 등록시 설정된 캐릭터 영상을 생성하되 상기 각 섹터의 제2 무선검출기에서 검출된 상기 식별정보 및 상기 관람자의 경로 위치를 수신하여 상기 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 상기 캐릭터 영상을 생성하고, 등록된 상기 관람자의 상기 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하여 상기 캐릭터 영상과 병합하고, 각 섹터 별로 상기 인터랙티브 영상과 메시지 병합된 상기 캐릭터 영상을 병합하여 각 섹터의 프로젝터로 전송하는 영상 서버유닛;을 포함하여 이루어지는 위치기반 인터랙티브 영상 시스템.
A personal information registration system for registering personal information through an identification app stored in a mobile terminal of a spectator or issuing an RFID card by registering the personal information of the spectator;
At least one first detector installed at the top or bottom of each of at least one or more sectors on the view path of the spectator and including at least one first detector for detecting the position and motion of the spectator;
The RFID tag is installed on the upper, side, or bottom of each of the at least one sector on the viewing route, and detects the identification information of the mobile terminal or the RFID card in which the identification app is stored, A second sensing unit including at least one second wireless detector for sensing a position;
A projector unit including at least one projector installed on each of at least one or more sectors on the viewing route and projecting an image onto the floor; And
An interactive image that interactively operates according to the position and motion of the spectator sensed by the first detector of each sector, receives information registered in the personal information registration system to generate a corresponding character image, Generating a character image set at the time of registration, receiving the identification information detected by the second wireless detector of each sector and the path position of the spectator, generating the character image to operate in an exciting manner around the path position of the spectator, And generating a message of a level corresponding to the personal information of the spectator, merging the message with the character image, merging the interactive image and the message image merged for each sector, and transmitting the message image to a projector of each sector Unit; Rack creative imaging system.
청구항 1에서,
상기 영상 서버유닛은:
상기 각 섹터의 제1 검출기에서 감지된 상기 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하는 인터랙티브 영상서버;
상기 개인정보 등록시스템에 등록된 정보를 수신하여 상응하는 캐릭터 영상을 생성하거나 상기 개인정보의 등록시 설정된 캐릭터 영상을 생성하되 상기 각 섹터의 제2 무선검출기에서 검출된 상기 식별정보 및 상기 관람자의 경로 위치를 수신하여 상기 관람자의 경로 위치 주변에서 익터랙티브 동작하도록 상기 캐릭터 영상을 생성하는 캐릭터 영상서버;
등록된 상기 관람자의 상기 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하는 메시지 서버; 및
상기 메시지 서버에서 생성된 메시지를 상기 캐릭터 영상버서에서 생성된 상기 캐릭터 영상과 병합하고, 각 섹터 별로 상기 인터랙티브 영상서버에서 생성된 상기 인터랙티브 영상과 상기 병합된 상기 캐릭터 영상을 병합하여 각 섹터의 프로젝터로 전송하는 영상 병합서버;를 포함하는 것을 특징으로 하는 위치기반 인터랙티브 영상 시스템.
In claim 1,
The video server unit comprises:
An interactive image server for generating an interactive image that operates interactively according to a position and a motion of the spectator sensed by a first detector of each sector;
A second wireless detector for detecting the identification information detected by the second wireless detector of each sector and a path position of the spectator; A character image server for receiving the character image and generating the character image to operate in an exciting manner around the path position of the spectator;
A message server for generating or extracting a message at a level corresponding to the personal information of the registered spectator; And
Merges the generated message with the character image generated by the character server and merges the interactive image generated by the interactive image server and the merged character image for each sector into a projector of each sector Wherein the location-based interactive image system comprises:
청구항 1에서,
상기 개인정보 등록시스템에 등록된 상기 개인정보는 나이 또는 연령대 정보를 포함하고,
상기 개인정보에 상응하는 수준의 메시지는 상기 나이 또는 연령대 정보에 상응하는 수준의 메시지인 것을 특징으로 하는 위치기반 인터랙티브 영상 시스템.
In claim 1,
Wherein the personal information registered in the personal information registration system includes age or age range information,
Wherein the message at a level corresponding to the personal information is a message at a level corresponding to the age or age information.
청구항 1 내지 3 중 어느 하나에서,
상기 영상 서버유닛은 상기 제2 무선검출기에서 검출된 상기 관람자의 경로 위치 및 상기 제2 무선검출기와 동일 섹터에 설치된 상기 제1 검출기에서 감지된 상기 관람자의 위치를 종합하여 상기 관람자의 경로 위치 주변에서 익터랙티브 동작하는 상기 캐릭터 영상을 생성하는 것을 특징으로 하는 위치기반 인터랙티브 영상 시스템.
The method according to any one of claims 1 to 3,
Wherein the image server unit compares the path location of the spectator detected by the second radio detector and the position of the spectator detected by the first detector installed in the same sector as the second radio detector, Wherein the character image generating unit is operable to generate the character image that is operated in an intuitive manner.
청구항 1 내지 3 중 어느 하나에서,
상기 개인정보에 상응하는 수준의 메시지는 상기 관람자의 경로 상의 전시물 또는 상기 인터랙티브 영상의 반응에 관한 메시지인 것을 특징으로 하는 위치기반 인터랙티브 영상 시스템.
The method according to any one of claims 1 to 3,
Wherein the message at a level corresponding to the personal information is a message relating to an exhibit on the path of the spectator or a reaction of the interactive image.
청구항 1 내지 3 중 어느 하나에서,
상기 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부에 설치된 적어도 하나 이상의 지향성 스피커를 포함하는 스피커유닛을 더 포함하고,
상기 영상 서버유닛은, 상기 각 섹터의 제1 검출기에서 감지된 상기 관람자의 위치 및 상기 각 섹터의 제2 무선검출기에서 검출된 상기 관람자의 경로 위치를 종합 판단하여 상기 관람자의 경로 상의 전시물 또는 상기 인터랙티브 영상의 반응에 관한 상기 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출하고 상기 관람자가 특정 위치에 위치하는 경우 해당 섹터의 상기 지향성 스피커로 상기 음성 신호를 제공하는 것을 특징으로 하는 위치기반 인터랙티브 영상 시스템.
The method according to any one of claims 1 to 3,
Further comprising: a speaker unit including at least one directional speaker installed on each of at least one or more sectors on the viewing route,
The image server unit comprehensively judges the position of the spectator sensed by the first detector of each sector and the path position of the spectator detected by the second wireless detector of each sector, Wherein the controller generates or extracts a voice signal at a level corresponding to the personal information about the reaction of the image and provides the voice signal to the directional speaker of the sector when the viewer is located at a specific position. system.
관람자의 모바일단말에 저장된 식별앱을 통해 개인정보를 등록받거나, 또는 상기 관람자의 상기 개인정보를 등록받아 RFID 카드를 발급하는 개인정보 등록단계;
상기 관람자의 관람경로 상의 적어도 하나 이상의 섹터 각각의 상부 또는 바닥에 설치된 제1 검출기를 통해 하부의 상기 관람자의 위치 및 모션을 감지하고, 상기 적어도 하나 이상의 섹터 각각의 상부, 측면 또는 바닥에 설치된 제2 무선검출기를 통해 상기 모바일단말 또는 상기 RFID 카드의 식별정보를 감지하여 상기 모바일단말 또는 상기 RFID 카드를 소지하는 상기 관람자의 경로 위치를 검출하는 감지단계;
상기 제1 검출기에서 감지된 상기 관람자의 위치 및 모션에 따라 인터랙티브 동작하는 인터랙티브 영상을 생성하고, 상기 개인정보에 상응하는 캐릭터 영상을 생성하거나 상기 개인정보의 등록시 설정되는 캐릭터 영상을 생성하되 상기 제2 무선검출기에서 검출된 상기 식별정보 및 상기 관람자의 경로 위치에 따라 상기 관람자의 경로 위치 주변에서 익터랙티브 동작하는 상기 캐릭터 영상을 생성하는 영상생성단계;
등록된 상기 관람자의 상기 개인정보에 상응하는 수준의 메시지를 생성 또는 추출하는 메시지 생성단계;
상기 메시지를 상기 캐릭터 영상과 병합하고 각 섹터 별로 상기 인터랙티브 영상과 메시지 병합된 상기 캐릭터 영상을 병합하는 영상병합단계; 및
상기 영상병합단계에서 병합된 영상을 해당 섹터의 각 상부에 설치된 프로젝터로 전송하고 상기 프로젝터에서 바닥으로 병합 영상을 투영하는 영상투영단계;를 포함하여 이루어지는 위치기반 인터랙티브 영상 투영방법.
A personal information registration step of registering personal information through an identification app stored in a mobile terminal of a spectator or issuing an RFID card by registering the personal information of the spectator;
Detecting a position and motion of a lower viewer through a first detector installed on the top or bottom of each of at least one or more sectors on the viewer's viewing path, A sensing step of sensing the identification information of the mobile terminal or the RFID card through the wireless detector and detecting the path position of the viewer holding the mobile terminal or the RFID card;
An interactive image that interactively operates according to the position and motion of the spectator sensed by the first detector, generates a character image corresponding to the personal information, or generates a character image set upon registration of the personal information, An image generating step of generating the character image to be excited around the path position of the spectator according to the identification information detected by the wireless detector and the path position of the spectator;
A message generating step of generating or extracting a message at a level corresponding to the personal information of the registered spectator;
Merging the message with the character image and merging the interactive image and the message image merged for each sector; And
And an image projecting step of projecting the merged image to a floor installed in each sector of the corresponding sector in the merging step and projecting the merged image to the floor at the projector.
청구항 7에서,
상기 개인정보 등록단계에서 등록된 상기 개인정보는 나이 또는 연령대 정보를 포함하고,
상기 메시지 생성단계에서의 상기 개인정보에 상응하는 수준의 메시지는 상기 나이 또는 연령대 정보에 상응하는 수준의 메시지인 것을 특징으로 하는 위치기반 인터랙티브 영상 투영방법.
In claim 7,
Wherein the personal information registered in the personal information registration step includes age or age range information,
Wherein the message at a level corresponding to the personal information in the message generation step is a message at a level corresponding to the age or age information.
청구항 7 또는 8에서,
상기 영상생성단계에서는, 상기 제2 무선검출기에서 검출된 상기 관람자의 경로 위치 및 상기 제2 무선검출기와 동일 섹터에 설치된 상기 제1 검출기에서 감지된 상기 관람자의 위치를 종합하여 상기 관람자의 경로 위치 주변에서 익터랙티브 동작하는 상기 캐릭터 영상을 생성하는 것을 특징으로 하는 위치기반 인터랙티브 영상 투영방법.
In claim 7 or 8,
Wherein the image generating step generates a plurality of images by combining the path position of the spectator detected by the second radio detector and the position of the spectator detected by the first detector installed in the same sector as the second radio detector, Wherein the character image is generated in an intuitive manner.
청구항 7 또는 8에서,
상기 개인정보에 상응하는 수준의 메시지는 상기 관람자의 경로 상의 전시물 또는 상기 인터랙티브 영상의 반응에 관한 메시지인 것을 특징으로 하는 위치기반 인터랙티브 영상 투영방법.
In claim 7 or 8,
Wherein the message at the level corresponding to the personal information is a message relating to an exhibit on the viewer's path or a reaction of the interactive image.
청구항 7 또는 8에서,
상기 각 섹터의 제1 검출기에서 감지된 상기 관람자의 위치 및 상기 각 섹터의 제2 무선검출기에서 검출된 상기 관람자의 경로 위치를 종합 판단하여 상기 관람자의 경로 상의 전시물 또는 상기 인터랙티브 영상의 반응에 관한 상기 개인정보에 상응하는 수준의 음성 신호를 생성 또는 추출하는 음성신호 생성단계; 및
상기 관람자가 상기 관람경로 상의 특정 위치에 위치하는 경우 상기 관람경로 상의 적어도 하나 이상의 섹터 중 해당 섹터의 상부에 설치된 지향성 스피커로 상기 음성신호 생성단계에서 생성 또는 추출된 음성신호를 제공하여 하부의 상기 관람자를 지향하여 출력하는 음성출력단계;를 더 포함하는 것을 특징으로 하는 위치기반 인터랙티브 영상 투영방법.
In claim 7 or 8,
And a second radio detector for detecting the position of the spectator detected by the first detector of each sector and the path position of the spectator detected by the second radio detector of each sector, A voice signal generation step of generating or extracting a voice signal at a level corresponding to personal information; And
When the spectator is located at a specific position on the viewing path, the audio signal generated or extracted in the audio signal generating step is provided to the directional speaker installed on the upper side of the sector among the at least one sector on the viewing path, And an audio output step of outputting an image based on the output of the position-based interactive image projecting step.
KR1020140144471A 2014-10-23 2014-10-23 System and projecting method of interactive image based on location KR101698645B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140144471A KR101698645B1 (en) 2014-10-23 2014-10-23 System and projecting method of interactive image based on location

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140144471A KR101698645B1 (en) 2014-10-23 2014-10-23 System and projecting method of interactive image based on location

Publications (2)

Publication Number Publication Date
KR20160047925A true KR20160047925A (en) 2016-05-03
KR101698645B1 KR101698645B1 (en) 2017-01-20

Family

ID=56022594

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140144471A KR101698645B1 (en) 2014-10-23 2014-10-23 System and projecting method of interactive image based on location

Country Status (1)

Country Link
KR (1) KR101698645B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503548B1 (en) 2022-06-07 2023-02-23 윤두현 integrated interactive system for virtual reality implementation in a space

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040088166A (en) 2003-04-09 2004-10-16 (주)엑스오비스 Interactive moving image system using shadow
KR20110006466A (en) * 2009-07-14 2011-01-20 주식회사 프라이머스코즈 3-d virtual-reality aquarium device
KR20110037453A (en) * 2009-10-07 2011-04-13 (주)한국공간정보통신 System and method for providing ubiquitous services based on the length of user stay
KR20130112188A (en) * 2012-04-03 2013-10-14 모젼스랩(주) Mobile device and display device synchronization method using motion recognition unit
KR101383176B1 (en) * 2013-06-18 2014-04-09 주식회사 하나디자인 Method of making video content through the participatory

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040088166A (en) 2003-04-09 2004-10-16 (주)엑스오비스 Interactive moving image system using shadow
KR20110006466A (en) * 2009-07-14 2011-01-20 주식회사 프라이머스코즈 3-d virtual-reality aquarium device
KR20110037453A (en) * 2009-10-07 2011-04-13 (주)한국공간정보통신 System and method for providing ubiquitous services based on the length of user stay
KR20130112188A (en) * 2012-04-03 2013-10-14 모젼스랩(주) Mobile device and display device synchronization method using motion recognition unit
KR101383176B1 (en) * 2013-06-18 2014-04-09 주식회사 하나디자인 Method of making video content through the participatory

Also Published As

Publication number Publication date
KR101698645B1 (en) 2017-01-20

Similar Documents

Publication Publication Date Title
KR101913371B1 (en) Method and system for transmission of information
US11184579B2 (en) Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object
KR102021050B1 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal and server
CN104081433B (en) Conversion between image coordinate and map reference
CN102469372B (en) Multimedia device, multiple image sensors having different types and method for controlling the same
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
US20190086214A1 (en) Image processing device, image processing method, and program
KR101639312B1 (en) Method, apparatus, program and storage medium for positioning and navigating
KR20110128322A (en) Narrowcasting from public displays, and related arrangements
TW201428236A (en) Position system and method
US9536161B1 (en) Visual and audio recognition for scene change events
JP2007149053A (en) Route guidance system and method
TW201327467A (en) Methods, apparatuses, and computer program products for restricting overlay of an augmentation
JP7245363B2 (en) Positioning method and device, electronic equipment and storage medium
CN103376921A (en) Laser labeling system and method
US9991955B2 (en) Mobile device, transmitting device, and guidance system
KR20210124313A (en) Interactive object driving method, apparatus, device and recording medium
JP2010101949A (en) Display device and display method
KR101698645B1 (en) System and projecting method of interactive image based on location
US20140085402A1 (en) Conference terminal and method for processing videos from other conference terminals
US20140333786A1 (en) System and method for remotely creating and processing media files
JP7425090B2 (en) Audio reproduction device having multiple directional speakers and audio reproduction method
US10965915B2 (en) Collection system, program for terminal, and collection method
KR20110095443A (en) Method and system of providing information of subject
FI117662B (en) AV system as well as controls

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200106

Year of fee payment: 4