KR101242089B1 - Interactive stage system apatrtus and simulation method of the same - Google Patents

Interactive stage system apatrtus and simulation method of the same Download PDF

Info

Publication number
KR101242089B1
KR101242089B1 KR1020120044740A KR20120044740A KR101242089B1 KR 101242089 B1 KR101242089 B1 KR 101242089B1 KR 1020120044740 A KR1020120044740 A KR 1020120044740A KR 20120044740 A KR20120044740 A KR 20120044740A KR 101242089 B1 KR101242089 B1 KR 101242089B1
Authority
KR
South Korea
Prior art keywords
stage
miniature
information
image
miniature stage
Prior art date
Application number
KR1020120044740A
Other languages
Korean (ko)
Inventor
전석
류아름
원선진
Original Assignee
(주)린소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)린소프트 filed Critical (주)린소프트
Priority to KR1020120044740A priority Critical patent/KR101242089B1/en
Application granted granted Critical
Publication of KR101242089B1 publication Critical patent/KR101242089B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J1/00Stage arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography

Abstract

PURPOSE: An interactive stage system and a simulation method of the same are provided to implement the same environment as a real stage in a miniature stage. CONSTITUTION: An interactive stage system comprises: a miniature stage(110) which is manufactured by reducing the size of a real stage; one or more objects(120) which are provided to the miniature stage; a user interface device(130) which displays the miniature stage on a screen, and applies a generic number to the object; a camera(140) which is installed to grasp the size, position, and movement of the miniature stage; and a beam projector(150) which reflects a stereo-scopic image to the miniature stage.

Description

대화형 무대 장치 및 그의 시뮬레이션 방법{INTERACTIVE STAGE SYSTEM APATRTUS AND SIMULATION METHOD OF THE SAME}INTERACTIVE STAGE SYSTEM APATRTUS AND SIMULATION METHOD OF THE SAME}

본 발명은 대화형 무대 장치에 관한 것으로, 특히 입체 영상이 투영되는 미니어처 무대에서 임의의 동선을 따라 이동하는 미니어처 객체를 인식하면서 그 미니어처 객체에 영상이나 이미지를 투영시켜 미니어처 무대를 실제 무대와 같은 환경으로 제공함으로써 미니어처 무대를 통해 다양한 연출이 가능하도록 하는 대화형 무대 장치 및 그의 시뮬레이션 방법에 관한 것이다. The present invention relates to an interactive stage device, and more particularly, to recognize a miniature object moving along an arbitrary line in a miniature stage on which a stereoscopic image is projected, and to project the image or image onto the miniature object to make the miniature stage look like an actual stage. The present invention relates to an interactive stage apparatus and a simulation method thereof, which enable various productions through a miniature stage.

오늘날 영상 콘텐츠가 새로운 산업으로 급속히 부상되고 있고, 콘텐츠 중에서 우선적으로 주목하는 것은 연극, 쇼(show), 뮤지컬 등의 무대 공연과 관련된 것들이다. Today, image content is rapidly emerging as a new industry, and the first priority among the contents is related to stage performances such as plays, shows, and musicals.

이러한 무대공연을 위한 무대를 연출하기 위해서 연출가나 제작자, 기획자(이하 '연출가'로 통칭함)는 기획 초기단계에서 자신이 원하는 연출을 위한 최초 스케치를 통해서 무대를 구상하게 된다. 그리고 공연 작품의 방향이 결정되면 실제 무대를 축소해 만든 미니어처 무대를 이용하여 연출을 기획한다. 이처럼 미니어처 무대를 이용하여 연출을 기획하는 것은 보다 효과적으로 무대 연출을 하기 위함이다. 즉 무대 공연의 기획 단계에서 실제 무대나 공연장을 이용하여 리허설이나 공연 연습을 할 경우 그 횟수만큼 시간이나 비용이 가중되기 때문에, 실제 무대에서 리허설이나 공연을 하기 전에 무대를 축소해 만든 미니어처 무대를 많이 이용하여 원하는 무대 연출을 결정하는 것이다. In order to direct the stage for such a stage performance, the director, producer, and planner (hereinafter referred to as 'director') envisions the stage through the initial sketch for the desired direction in the initial stage of planning. When the direction of the performance is decided, the miniature stage made by miniaturizing the actual stage is planned. Likewise, planning a direction using a miniature stage is to perform the stage more effectively. In other words, when rehearsing or performing a practice using a real stage or a performance hall during the planning stage of a stage performance, the number of times or costs is increased, so a miniature stage made by minimizing the stage before rehearsing or performing on a real stage To determine the desired stage production.

하지만, 실제 공연을 하게 되는 무대 공간의 각종 데이터(즉, 너비, 높이, 깊이, 무대구조 등)가 실제 무대를 축소해서 만든 미니어처 무대와 완전하게 부합되지 않고, 또한 조명 및 영상시설 등의 여러 환경 요소들도 실제 무대에서와 같이 미니어처 무대에 적용하기란 현실적으로 어려운 문제가 있다. 그렇기 때문에 상기의 미니어처 무대만으로는 연출가 자신이 최초로 기획한 연출 방향이 실제 무대 공간에서는 적절하게 적용되지 못하고 있다. 예컨대, 연출가는 자신이 생각하는 각본에 따라 무대 공간을 만들기 위하여 영상이나 조명 등의 각종 장비의 위치, 각도 등을 조정해야 하며, 출연자들의 배역에 따른 등장 및 퇴장, 이동 동선, 위치 등을 계획하여 연출하게 된다. 그렇지만, 단순히 실제 무대를 소형으로 제작한 미니어처만으로는 실제 무대에서의 현장감이나 분위기 등이 전혀 고려되지 못하고 있어 연출가가 의도한 대로 무대 공간을 구상할 수 없는 것이다. However, the various types of data (ie, width, height, depth, stage structure, etc.) of the stage space where the actual performance is performed do not completely match the miniature stage created by miniaturizing the actual stage, and also various environments such as lighting and video facilities. Elements are also difficult to apply to the miniature stage as in the real stage. For this reason, the direction directed by the director himself for the first time in the miniature stage alone is not properly applied in the actual stage space. For example, the director should adjust the position and angle of various equipment such as video and lighting to make the stage space according to the script he thinks, and plan the appearance and exit, moving line, location, etc. according to the cast of the performers. Will be directed. However, simply miniatures made of actual stages do not take into account the realism and atmosphere of the actual stages at all, and the stage space cannot be conceived as the director intended.

따라서 연출가는 미니어처 무대를 통해 계획한 무대 연출을 실제 무대 공간에 적용할 경우, 연출가가 의도한 무대 연출과의 차이로 인하여 실제 무대 공간에서 공연 연습을 하는 도중에 연출이나 기획을 수정하는 일이 발생하게 된다. 이는 대부분의 무대 공연을 위한 시설을 빌려 사용하는 현실을 감안하면 시간 및 비용 측면에서 큰 부담이 되는 게 사실이다. 이에 연출이 적절하게 수정되지 못하여 작품의 질이 저하되고 또한 연출에 적합하지 않는 무대로 인하여 공연의 완성도가 저하되는 다른 문제점을 초래하게 된다. Therefore, when the director applies the stage direction planned through the miniature stage to the actual stage space, the director or the director may revise the direction or plan while performing the performance in the actual stage space due to the difference from the stage stage intended by the director. do. This is a huge burden in terms of time and money given the reality of renting facilities for most stage performances. As a result, the production is not properly modified, and the quality of the work is deteriorated, and due to the stage that is not suitable for the production, the performance of the performance is degraded.

본 발명은 상기한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 공연 연출을 위해 실제 사용될 무대의 환경과 동일한 환경을 미니어처 무대에 구현하고 미니어처 무대만으로 실제 무대와 같은 시각적인 무대 환경을 제공하기 위한 것이다. The present invention is to solve the above problems, an object of the present invention is to implement the same environment on the miniature stage and to provide a visual stage environment, such as a real stage only with a miniature stage for the production of performances will be.

본 발명의 다른 목적은 미니어처 무대 위에서 임의의 동선을 따라 이동하는 객체의 움직임을 추적하면서 객체에 공연 연출에 따라 미리 의미가 부여된 영상이나 이미지, 효과 등을 투영시켜 미니어처 무대를 통해 다양한 연출을 할 수 있도록 한 것이다. Another object of the present invention is to track the movement of an object moving along a random line on the miniature stage while projecting the image, image, effects, etc., which have been previously given meaning according to the performance of the performance, to perform various productions through the miniature stage. I would have to.

상기한 목적을 달성하기 위한 본 발명의 특징에 따르면, 실제 무대를 축소하여 제작된 미니어처 무대; 상기 미니어처 무대에 제공되는 하나 이상의 객체; 상기 미니어처 무대를 실제 무대와 동일한 환경으로 구현하도록 실제 무대의 정보 및 실제 무대에 제공될 조명 및 배경 정보를 저장하며, 정보를 기초로 하여 상기 미니어처 무대를 화면 표시하며, 상기 표시되는 화면을 참조하여 상기 객체별로 고유번호를 부여하여 대응하는 영상 정보와 링크되도록 하는 사용자 인터페이스 장치; 상기 미니어처 무대를 촬영하면서, 상기 미니어처 무대 및 객체의 크기와 위치, 그리고 동선을 파악하도록 상기 미니어처 무대의 전방에 설치되는 카메라; 및 상기 인터페이스 장치로부터 정보를 제공받아 상기 미니어처 무대를 실제 무대와 동일하게 입체 영상을 투영하는 빔 프로젝터를 포함하는 대화형 무대장치가 제공된다. According to a feature of the present invention for achieving the above object, a miniature stage produced by reducing the actual stage; One or more objects provided to the miniature stage; Store the information of the actual stage and lighting and background information to be provided to the actual stage to implement the miniature stage in the same environment as the actual stage, and screen display the miniature stage based on the information, with reference to the displayed screen A user interface device which assigns a unique number to each object so as to be linked with corresponding image information; A camera installed in front of the miniature stage to capture the miniature stage and the size and location of the miniature stage and the object and the moving line while photographing the miniature stage; And a beam projector configured to receive information from the interface device and to project a stereoscopic image on the miniature stage in the same manner as the actual stage.

여기서, 상기 카메라는 상기 미니어처 무대의 공간에서 거리 값 추출이 가능하고, 추출된 거리 값에 대한 깊이 정보(3D depth - map) 를 실시간으로 검출할 수 있는 깊이 정보 카메라임을 특징으로 한다. The camera may be a depth information camera capable of extracting a distance value in a space of the miniature stage, and detecting depth information (3D depth-map) of the extracted distance value in real time.

본 발명의 다른 특징에 따르면, 깊이 정보 카메라가 미니어처 무대에 위치한 적어도 하나의 객체를 인식하는 단계; 사용자 인터페이스 장치가 상기 인식된 객체마다 고유 번호를 부여하는 단계; 상기 사용자 인터페이스 장치가 상기 고유 번호에 대응하는 영상파일을 링크하는 단계; 그리고 상기 사용자 인터페이스 장치로부터 상기 링크한 영상 파일을 제공받는 빔 프로젝터가 상기 고유 번호와 대응하는 객체로 상기 영상 파일을 투영하는 단계를 포함하는 대화형 무대장치를 이용한 시뮬레이션 방법이 제공된다. According to another feature of the invention, the depth information camera step of recognizing at least one object located on the miniature stage; The user interface device assigning a unique number to each of the recognized objects; Linking the video file corresponding to the unique number by the user interface device; And projecting the image file to an object corresponding to the unique number by a beam projector provided with the linked image file from the user interface device.

본 발명은 상기 하나의 객체를 인식하는 단계 이전에 상기 사용자 인터페이스가, 실제 무대 공간을 실측하여 얻어진 정보와 음향, 조명 및 영상 시설에 대한 정보를 입력받는 단계; 및 상기 입력된 정보를 이용하여 입체 영상으로 재구성하는 단계를 포함하는 것을 특징으로 한다. The present invention includes the steps of the user interface before the step of recognizing the object, the information obtained by the actual stage space and the information on the sound, lighting and video facilities; And reconstructing a stereoscopic image using the input information.

또한 본 발명은 입체 영상으로 구현된 미니어처 무대에서 객체가 이동하면 이동하는 객체를 인식하고 고유번호를 부여하며 고유번호에 대응하는 영상파일을 투영시켜 상기 객체의 동선을 실시간으로 검출하는 것을 특징으로 한다.In addition, the present invention is characterized by detecting the moving line of the object in real time by recognizing a moving object, assigning a unique number and projecting an image file corresponding to the unique number when the object moves in the miniature stage implemented as a three-dimensional image .

여기서, 상기 미니어처 무대에서 기존에 위치하였던 객체가 이동할 경우 이동하는 객체를 추적하면서 대응하는 영상파일을 계속하여 투영하지만, 상기 미니어처 무대에 새롭게 객체가 추가될 경우 상기의 객체를 인식하는 단계부터 영상 파일을 투영하는 단계를 반복하여 수행한다. In this case, when an existing object moves on the miniature stage, the corresponding image file is continuously projected while tracking the moving object. However, when the object is newly added to the miniature stage, the image file starts from the step of recognizing the object. Repeat the step of projecting this.

상기와 같은 본 발명에 따르면, 실제 공연이 이루어지게 되는 무대 공간에 대한 실측 정보, 그리고 조명 및 영상 시설 등에 정보를 입력하고, 입력된 정보를 기초로 하여 입체 영상으로 구현하여 미니어처 무대에 투영함으로써, 미니어처 무대를 실제 무대와 같은 시각적인 환경을 제공할 수 있다. 그리고 미니어처 무대 위에 위치하는 다수의 객체의 움직임을 파악할 수 있기 때문에, 연출가는 화면을 보면서 다양한 연출을 수행할 수 있어 공연 기획자 및 해당 분야에 관심을 가지고 있는 준 전문가들의 기획 역량을 강화하여 양질의 공연 콘텐츠를 생산할 수도 있다.According to the present invention as described above, by inputting the actual information, the actual information on the stage space to be performed, and lighting and video facilities and the like, based on the input information to implement a three-dimensional image to the miniature stage, The miniature stage can provide a visual environment like a real stage. And since the movement of a large number of objects on the miniature stage can be grasped, the director can perform various productions while viewing the screen, enhancing the planning capabilities of the performance planners and paraprofessionals who are interested in the field. You can also produce content.

더불어 종래 실제 무대 및 공연장을 대관해야만 가능했던 다양한 현장 중심의 테스트와 시도들을 미니어처 무대를 통해 수행할 수 있기 때문에 공연 준비에 따른 비용 및 시간을 크게 절감할 수 있는 효과도 기대할 수 있다.In addition, various field-oriented tests and trials that could only be performed by renting actual stages and concert halls can be performed through miniature stages, which can significantly reduce the cost and time required for performance preparation.

도 1은 본 발명의 실시 예에 따른 대화형 무대 장치의 전체 시스템 구성도
도 2는 본 발명의 실시 예에 따른 대화형 무대 장치에서의 시뮬레이션 방법을 보인 흐름도
도 3a 및 도 3b는 본 발명에서 객체의 거리 값 추출 상태를 보인 예시도
도 4는 본 발명에서 미니어처 무대 위의 객체를 인식한 화면 예시도
도 5는 도 4에 의해 인식한 객체마다 고유번호가 부여된 화면 예시도
도 6a 및 6b는 도 5에 의해 고유번호가 부여된 각 객체에 대응하는 영상 정보가 투영된 상태를 보인 화면 예시도
도 7은 본 발명에 따라 미니어처 무대가 실제 무대의 환경과 동일한 환경으로 구현된 상태를 보인 화면 예시도
1 is an overall system configuration of an interactive stage device according to an embodiment of the present invention
2 is a flowchart illustrating a simulation method in an interactive stage device according to an embodiment of the present invention.
3a and 3b is an exemplary view showing a distance value extraction state of the object in the present invention
Figure 4 is an exemplary screen for recognizing the object on the miniature stage in the present invention
FIG. 5 is a diagram illustrating an example in which a unique number is assigned to each object recognized by FIG. 4.
6A and 6B are diagrams illustrating screens in which image information corresponding to each object to which a unique number is assigned by FIG. 5 is projected;
7 is a screen example showing a state in which the miniature stage is implemented in the same environment as the environment of the actual stage according to the present invention

이하 본 발명에 의한 대화형 무대 장치 및 그의 시뮬레이션 방법의 바람직한 실시 예를 첨부된 도면을 참고하여 상세하게 설명한다. Hereinafter, exemplary embodiments of an interactive stage device and a simulation method thereof according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 대화형 무대 장치의 전체 시스템 구성도를 도시하고 있다. 도 1에 따르면 대화형 무대장치의 전체 시스템(100)은 먼저 미니어처 무대(110)를 구성한다. 상기 미니어처 무대(110)는 실제 공연이 이루어지는 무대 공간의 설계도 및 실측한 정보를 바탕으로 일정 비율로 축소되어 제작된다. 1 is a block diagram illustrating an entire system of an interactive stage apparatus according to an exemplary embodiment of the present invention. According to FIG. 1, the entire system 100 of the interactive stage apparatus first constitutes a miniature stage 110. The miniature stage 110 is produced in a reduced ratio based on the design of the stage space where the actual performance is performed and the measured information.

상기 미니어처 무대(110)에는 미리 설정된 동선이나 연출가의 의도에 따라 이동하는 적어도 하나 이상의 객체(Object)(120)가 제공된다. 상기 객체(120)는 무대 공연에 필수적인 구성으로 배역에 따른 다수의 출연자나 소품, 장비 등이 그 대상이 된다. 이러한 객체(120)는 상술한 출연자, 소품, 장비 등을 나타내기 위하여 다면체나 원형 등의 형상으로 다양하게 제작되어 제공될 수 있으나, 미니어처 무대(110)에는 모두 동일한 형상으로 제작된 객체로서 본 실시 예는 육면체로 제작된 객체가 제공된다. 이는 후술하는 카메라가 객체를 인식함에 있어서 서로 다른 형상으로 제작된 객체를 모두 인식하기가 어렵기 때문이다. The miniature stage 110 is provided with at least one object 120 that moves according to a predetermined movement of the line or the intention of the director. The object 120 is an essential component for a stage performance, and a plurality of performers, props, equipment, etc. according to the cast are the object. The object 120 may be produced and provided in various shapes such as a polyhedron or a circle to represent the above-described performers, props, equipment, etc., the miniature stage 110 as the object is all produced in the same shape An example is provided with an object made of a cube. This is because it will be difficult for the camera to be described later to recognize all objects made in different shapes.

실제 공연이 이루어지는 무대 공간에 대한 실측 정보로서 무대의 너비, 높이, 깊이 및 무대 구조 등에 대한 정보를 입력받으며, 또한 무대 공간에 설치되어 조명, 영상, 음향 및 영상 등의 효과를 제공하는 각종 장비 등의 정보를 입력받고 이를 후술하는 빔 프로젝터(140)로 제공하는 사용자 인터페이스 장치(130)가 구성된다. 상기의 정보들은 사용자 인터페이스 장치(130)가 미니어처 무대(110)를 실제 무대와 같은 시각적인 환경으로 제공하기 위한 일련의 정보들로서, 무대 공간과 관련된 구체적인 정보 등이 더 추가될 수 있다. 또한 사용자 인터페이스 장치(130)는 상기 하나 이상의 객체(120)가 인식되면 각 객체(120)에 대응하는 영상이나 그래픽 파일을 링크시켜 빔 프로젝터가 각 객체(120)에 투영시키도록 각 객체(120)별로 고유한 값을 부여하는 역할도 한다. 따라서 객체(120)별 고유번호 및 그 고유번호에 대응하는 정보(즉, 영상 및 그래픽 파일 등)가 상호 1:1로 매칭되는 테이블(도면 미도시)을 구비한다. 이러한 기능들을 제공하기 위한 사용자 인터페이스 장치(130)는 CPU와 같은 중앙처리장치 및 데이터 베이스, 그리고 사용자 입력이 가능한 각종 입력 장치나 정보를 표시하는 모니터 등의 구성이 포함되는 컴퓨터 장치일 수 있다.As the actual information on the stage space where actual performances are performed, information about the stage's width, height, depth, and stage structure is input, and various equipment installed in the stage space to provide effects such as lighting, video, sound, and video. The user interface device 130 is configured to receive the information and provide it to the beam projector 140 to be described later. The above information is a series of information for the user interface device 130 to provide the miniature stage 110 in a visual environment such as an actual stage, and specific information related to the stage space may be further added. In addition, when the at least one object 120 is recognized, the user interface device 130 links the image or graphic file corresponding to each object 120 to project the beam projector to each object 120. It also gives unique values. Accordingly, a table (not shown) in which a unique number for each object 120 and information corresponding to the unique number (ie, an image and a graphic file) are 1: 1 matched with each other. The user interface device 130 for providing such functions may be a computer device including a central processing unit such as a CPU and a database, and a configuration for displaying various input devices or information capable of user input.

상기 사용자 인터페이스 장치(130)로부터 각종 정보를 전달받고 이를 미니어처 무대(110)에 투영하는 빔 프로젝터(140)가 구성된다. 여기서 전달되는 정보에는 상기 객체(120)에 투영되는 정보 및 미니어처 무대(110)의 전부 또는 일부에 배경, 음향, 조명 등을 위한 정보 등이 포함된다. 이에 상기 빔 프로젝터(140)는 상기 미니어처 무대(110)의 전방이나 전방 상면에 설치된 상태에서 미니어처 무대(110)에 입체 영상을 제공할 수 있다. A beam projector 140 is configured to receive various information from the user interface device 130 and to project it on the miniature stage 110. The information transmitted here includes information projected on the object 120 and information for background, sound, lighting, etc. in all or part of the miniature stage 110. Accordingly, the beam projector 140 may provide a stereoscopic image to the miniature stage 110 in a state where the beam projector 140 is installed at the front or front upper surface of the miniature stage 110.

상기 미니어처 무대(110)에 위치한 객체의 움직임을 추적하기 위한 카메라(150)가 구성된다. 상기 카메라(130)는 3차원 공간에서 객체(120)의 영상 및 깊이 값 데이터를 획득하여 거리 추출이 가능한 깊이 정보 카메라이며, 추출한 거리 값에 대한 3차원 깊이 정보(3D depth - map)를 실시간으로 검출하는 기능을 수행한다. 이를 통해 미니어처 무대(110)에 위치한 객체(120)의 크기(size), 위치, 동선 등의 정보를 파악할 수 있게 된다. 물론 상기 카메라(130)는 미니어처 무대(110)를 전체적으로 촬영하고 이를 상기 사용자 인터페이스 장치(130)로 전달한다. The camera 150 is configured to track the movement of an object located on the miniature stage 110. The camera 130 is a depth information camera capable of extracting distance by obtaining image and depth value data of the object 120 in a three-dimensional space, and real-time 3D depth information (3D depth-map) of the extracted distance value. Perform the function of detecting. Through this, it is possible to grasp information such as a size, a position, a moving line, etc. of the object 120 located in the miniature stage 110. Of course, the camera 130 photographs the miniature stage 110 as a whole and transmits it to the user interface device 130.

이어 상기한 바와 같은 구성에 따라 본 발명의 구체적인 실시 예에 의한 대화형 무대 장치를 통해 다양한 연출을 수행하는 시뮬레이션 기능을 첨부된 도면을 참조하여 상세하게 설명한다. 도 2는 본 발명의 바람직한 실시 예에 따른 대화형 무대 장치에서의 시뮬레이션 방법을 보인 흐름도이다. Next, with reference to the accompanying drawings, a simulation function for performing a variety of directing through the interactive stage device according to a specific embodiment of the present invention according to the configuration as described above will be described in detail. 2 is a flowchart illustrating a simulation method in an interactive stage device according to a preferred embodiment of the present invention.

우선, 상술한 도 1과 같이 미니어처 무대를 포함하여 무대 장치를 전체적으로 구성한다(s100). 무대 장치는 미니어처 무대(110)에 전체적으로 영상 정보를 투영할 수 있도록 미니어처 무대(110)의 전방에 빔 프로젝터(140)가 설치되며, 또한 미니어처 무대(110)상에 위치하는 객체(120)를 인식하도록 적절한 위치에 카메라(150)가 설치된다. 그리고 사용자 인터페이스 장치(130)는 상기 빔 프로젝터(140)로 정보를 전송하고 카메라(150)로부터 정보를 전송받을 수 있는 위치이면 어디에 설치되어도 상관없다. First, as shown in FIG. 1, the stage apparatus including the miniature stage as a whole is configured (S100). In the stage apparatus, the beam projector 140 is installed in front of the miniature stage 110 so as to project the image information on the miniature stage 110 as a whole, and also recognizes the object 120 located on the miniature stage 110. The camera 150 is installed at an appropriate position so as to. The user interface device 130 may be installed wherever it can transmit information to the beam projector 140 and receive information from the camera 150.

무대 장치가 완성되면, 미니어처 무대(110)의 공연 연출을 위해 실제 사용될 무대의 환경과 동일한 환경으로 구현해야 한다(s110). 이를 위해 먼저 연출가는 실제 공연이 이루어지게 될 무대 공간에 대한 실측 정보, 그리고 공연의 진행 상황에 따라 반영되는 조명, 음향 및 영상 정보에 대한 데이터를 사용자 인터페이스 장치(130)에 입력 저장한다(s112). 입력 저장된 상술한 정보들은 추후에 연출가가 수정할 수 있으며, 따라서 연출가는 모니터를 확인하면서 모니터에 표시되는 미니어처 무대가 공연이 진행될 실제 무대와 동일한 환경이 되도록 수정하면서 완벽하게 구현할 수 있다. When the stage device is completed, the miniature stage 110 should be implemented in the same environment as the environment of the stage actually used for the performance of the stage (s110). To this end, the director first stores actual information on stage spaces where actual performances are to be performed and data on lighting, sound, and image information reflected according to the progress of the performances in the user interface device 130 (s112). . The above-described information stored in the input can be modified later by the director, and thus the director can completely realize the miniature stage displayed on the monitor so that it is the same environment as the actual stage where the performance will be performed.

상기의 데이터의 입력이 완료되면 상기 사용자 인터페이스 장치(130)는 입력된 데이터를 기초로 하여 입체 영상으로 미니어처 무대(110)에 투영될 무대 영상을 재구성한다(s114). 입력된 정보를 이용하여 입체 영상인 3D 영상으로 구현하는 것은 일련의 공지된 기술에 의해 수행될 수 있으며, 따라서 본 실시 예에서는 이에 대한 상세한 설명은 생략하기로 한다. When the input of the data is completed, the user interface device 130 reconstructs the stage image to be projected onto the miniature stage 110 as a stereoscopic image based on the input data (S114). Implementation of a 3D image, which is a stereoscopic image, by using the input information may be performed by a series of known techniques, and thus, a detailed description thereof will be omitted.

사용자 인터페이스 장치(130)가 미니어처 무대(110)를 실제 무대와 같은 시각적인 환경을 제공할 수 있는 조건이 완성되면, 연출가는 이후 미니어처 무대(110)에 무대 영상을 투영하기 위한 명령을 입력한다. 명령 입력에 따라 상기 빔 프로젝터(140)는 상기 사용자 인터페이스 장치(130)로부터 상기 과정에서 구현된 입체 영상을 전송받고, 이를 미니어처 무대(110)에 투영한다(s116). 이와 같이 미니어처 무대(110)에 입체 영상이 투영되면, 카메라(150)는 미니어처 무대(110)를 실시간으로 촬영하여 사용자 인터페이스 장치(130)로 전송하고, 사용자 인터페이스 장치(130)는 미니어처 무대(110)의 무대 영상을 모니터에 표시한다. 모니터에 표시된 미니어처 무대(110)의 무대 영상은 연출가가 확인할 수 있다. 그리고 연출가는 모니터를 확인하면서 미니어처 무대(110)에 반영되는 여러 조건을 수정할 수 있고, 이러한 과정을 통해 미니어처 무대(110)를 실제 무대와 동일하게 그리고 현실감 있는 무대로 구현한다.When the condition that the user interface device 130 can provide the miniature stage 110 with a visual environment like a real stage is completed, the director then inputs a command for projecting the stage image on the miniature stage 110. In response to a command input, the beam projector 140 receives a stereoscopic image implemented in the process from the user interface device 130 and projects the stereoscopic image on the miniature stage 110 (S116). When the stereoscopic image is projected on the miniature stage 110 as described above, the camera 150 captures the miniature stage 110 in real time and transmits the same to the user interface device 130, and the user interface device 130 transmits the miniature stage 110. The stage image of) is displayed on the monitor. The stage image of the miniature stage 110 displayed on the monitor can be confirmed by the director. In addition, the director may modify various conditions reflected in the miniature stage 110 while checking the monitor, and through this process, the miniature stage 110 may be realized in the same and realistic stage as the actual stage.

이처럼 일련의 증강현실을 기반으로 하여 상기 미니어처 무대(110)가 실제 무대 공간처럼 구현되면 연출가는 자신이 기획한 연출 방향에 따라 출연자나 사물 등의 위치나 동선을 미니어처무대(110) 위에서 시뮬레이션할 수 있다. 시뮬레이션은 미니어처 무대(110) 위에서 객체(120)를 이동시키고 이를 모니터를 통해 확인하면서 수행할 수 있다. 이의 시뮬레이션 과정(s120)은 기본적으로 1. 객체 인식, 2. 객체 각각에 대한 고유번호 부여, 3. 고유번호와 대응되는 영상 및 그래픽 파일 링크, 4. 링크된 정보를 객체에 투영하는 과정을 순차적으로 진행하며, 이의 결과로 상기 객체(120)는 영상 등의 이미지가 투영된 상태로서 의미 부여된 객체 콘텐츠로 표현된다. 이의 과정을 구체적으로 설명한다. 참고로, 본 실시 예에서 객체와 객체 콘텐츠를 구분하여 설명하며, 객체는 영상 등의 이미지가 투영되기 전의 사물로 정의하고 객체 콘텐츠는 영상 등의 이미지가 투영되어 의미가 부여된 사물로 정의한다. 다시 말해 객체는 미니어처 무대(110)에 위치하고 있는 객체 그 자체이고, 객체 콘텐츠는 영상이 투영되어 모니터에 사람이나 동물 등의 모습으로 표시되는 객체를 의미한다. When the miniature stage 110 is implemented as a real stage space based on a series of augmented reality as described above, the director can simulate the position or movement of the performer or the object on the miniature stage 110 according to the direction of the planning. have. The simulation may be performed while moving the object 120 on the miniature stage 110 and checking it on a monitor. Its simulation process (s120) is basically 1. the object recognition, 2. assign a unique number for each object, 3. link image and graphic files corresponding to the unique number, 4. project the process of projecting the linked information to the object As a result, the object 120 is represented as an object content meaning as a state in which an image such as an image is projected. This process will be described in detail. For reference, in the present embodiment, the object and the object content are classified and described. The object is defined as an object before the image such as an image is projected, and the object content is defined as an object to which an image such as an image is projected. In other words, the object is the object itself located on the miniature stage 110, and the object content refers to an object in which an image is projected and displayed on the monitor as a person or an animal.

먼저 미니어처 무대(110) 위에 있는 객체는 출연자나 동물, 각종 사물 들을 나타낸다. 이러한 객체는 공연의 연출 방향 및 연출가의 의도에 따라 미니어처 무대(110) 위에서 이동된다. 이 경우 실질적으로 연출가는 공연 각본대로 객체의 위치나 동선, 소품 들의 위치를 모니터를 통해 확인할 수 있을 것이다. 그리고 객체(120)의 위치와 이동 상태 등을 종합적으로 보고 판단하여 수정하게 된다. 물론, 이전에 상기 미니어처 무대(110) 위에서 이동하는 객체(120)를 각각 인식하는 과정이 선행되어야 한다.First, the object on the miniature stage 110 represents a performer, an animal, or various objects. These objects are moved on the miniature stage 110 according to the direction of the performance and the intention of the director. In this case, the director will be able to check the position of the object, the moving line, and the position of the props on the monitor as the performance script. In addition, the position and movement state of the object 120 and the like are comprehensively determined and corrected. Of course, the process of recognizing each of the objects 120 moving on the miniature stage 110 must be preceded.

객체(120)를 인식하는 과정(122)은, 우선하여 카메라(150)가 객체(120)의 움직임 및 객체(120)의 3차원 거리 값을 실시간으로 추적하여 각 객체의 크기, 위치, 동선 등의 정보를 파악할 필요가 있다. 이러한 객체(120)의 움직임 및 3차원 거리 값 추출은 미니어처 무대(110)의 전방에 설치되어 미니어처 무대(110)를 촬영하고 있는 카메라(150)가 수행한다. 상기 카메라(150)는 촬영 대상 공간인 미니어처 무대(110)를 2차원 이미지와 3차원 거리 값(x, y, z)을 동시에 획득할 수 있는 장치로서 이와 같은 거리 값을 추출하는 일례를 도 3a 및 도 3b에 도시하고 있다. 그리고 상기 카메라(150)를 이용하여 미니어처 무대(110) 위의 객체(120)를 인식한 결과 화면은 도 4에 도시되어 있다. In the process 122 of recognizing the object 120, first, the camera 150 tracks the movement of the object 120 and the three-dimensional distance value of the object 120 in real time, so that the size, position, moving line, etc. of each object may be changed. It is necessary to grasp the information. The movement of the object 120 and the 3D distance value extraction are performed by the camera 150 installed in front of the miniature stage 110 and photographing the miniature stage 110. The camera 150 is a device capable of simultaneously acquiring a two-dimensional image and a three-dimensional distance value (x, y, z) of the miniature stage 110, which is a photographing space, as shown in FIG. 3A. And FIG. 3B. In addition, a screen of the result of recognizing the object 120 on the miniature stage 110 using the camera 150 is illustrated in FIG. 4.

도 4와 같이 객체가 인식되면 각각의 객체(120)를 구분하도록 객체(120)마다 고유번호를 부여한다(s124). 고유번호의 부여는 미니어처 무대(110) 위의 객체(120)를 촬영한 화면이 모니터에 화면 표시된 상태에서, 도 5에 도시한 바와 같이 화면 표시된 객체에 대해 서로 중복되지 않도록 고유한 번호를 순서대로 부여한다.When the object is recognized as shown in FIG. 4, a unique number is assigned to each object 120 to distinguish each object 120 (S124). In order to assign a unique number, a unique number is ordered in order that the screen of the object 120 on the miniature stage 110 is displayed on the monitor so that the screen is not duplicated with respect to the displayed object as shown in FIG. 5. Grant.

상기 객체(120)마다 고유번호가 부여되면 상기 사용자 인터페이스 장치(130)는 데이터베이스를 참조하여 고유번호와 1:1 매칭되어 있는 영상 및 그래픽 파일을 불러와서 링크시킨다(s126). 이후, 상기 링크된 영상 및 그래픽 파일은 빔 프로젝터(140)로 전송된다. When a unique number is assigned to each of the objects 120, the user interface device 130 refers to a database and loads and links an image and a graphic file having a 1: 1 match with the unique number (s126). Thereafter, the linked image and graphic files are transmitted to the beam projector 140.

상기 빔 프로젝터(140)는 고유번호에 따라 서로 다른 영상이나 이미지가 선택되어 사용자 인터페이스 장치(130)에서 전송된 영상 및 그래픽 파일을 상기 미니어처 무대(110)에 있는 각각의 객체(120)로 투영한다(s128). 이처럼 객체에 영상 및 그래픽 파일 등이 투영된 예는 도 6a 및 도 6b에 도시된 바와 같다. 도 6a 및 도 6b의 화면은 카메라(150)가 촬영한 미니어처 무대(110)의 화면을 모니터에 표시된 것이다. The beam projector 140 selects a different image or image according to a unique number and projects the image and graphic files transmitted from the user interface device 130 to each object 120 in the miniature stage 110. (s128). An example of projecting an image, a graphic file, or the like on the object is as illustrated in FIGS. 6A and 6B. 6A and 6B show the screen of the miniature stage 110 captured by the camera 150 on a monitor.

이와 같은 상기의 과정을 통해 미니어처 무대(110)는 배경이미지나 조명 등의 정보가 투영됨과 아울러 객체(120)에도 이에 대응하는 각각의 영상 등이 투영되기 때문에 미니어처 무대(110)는 도 7과 같이 실제 무대처럼 구현될 수 있다. Through the above process, the miniature stage 110 is projected with information such as a background image or lighting, and the respective images, etc., are also projected onto the object 120, so the miniature stage 110 is as shown in FIG. 7. It can be implemented like a real stage.

그리고, 연출가는 이처럼 실제 무대와 동일한 환경을 제공하는 미니어처 무대(110)를 표시하는 모니터를 보면서 자신이 의도한 대로 연출이 되는지를 확인할 수 있다. 여기서 연출가에 의해 미니어처 무대(110) 위에 위치한 다수의 객체(120)에 대한 위치나 동선을 변경할 필요가 있다. 즉 모니터에 표시된 현재의 무대 장면이 연출가 자신이 의도한 구조와 다른 구조로 수정할 필요가 있거나 더 나은 연출 효과를 제공할 필요가 발생할 수 있다. In addition, the director can check the monitor displaying the miniature stage 110 that provides the same environment as the actual stage, and confirm whether the stage is directed as intended. Here, it is necessary for the director to change the positions or moving lines of the plurality of objects 120 located on the miniature stage 110. That is, the current stage scene displayed on the monitor may need to be modified to a structure different from the structure intended by the director, or may need to provide a better rendering effect.

이럴 경우, 연출가는 미니어처 무대(110) 위에 있는 객체(120)를 이동시킨다. 그때마다 미니어처 무대(110)를 촬영하고 있는 카메라(150)는 상술한 바와 같이 객체(120)를 인식하고 객체마다 서로 다른 영상이나 이미지 등을 투영시키고, 변화되는 미니어처 무대(110)를 실시간으로 모니터에 화면 표시되게 한다. 화면 표시된 미니어처 무대(110)를 확인하면서 연출가는 자신이 의도하는 방향으로 다양하게 연출을 수행한다(s130). In this case, the director moves the object 120 on the miniature stage 110. At this time, the camera 150 photographing the miniature stage 110 recognizes the object 120 as described above, projects different images or images for each object, and monitors the changed miniature stage 110 in real time. To display on the screen. While checking the miniature stage (110) displayed on the screen, the director performs a variety of direction in his direction (s130).

한편, 상기 미니어처 무대(110)에서 객체(120)가 추가되거나 제거되지 않고 현재 제공된 객체(120)만을 이동시킬 경우에는, 카메라(150)는 이동하는 객체를 추적하면서 대응하는 영상파일을 계속하여 투영한다. 그러나 상기 미니어처 무대(110)에 새롭게 객체(120)가 추가될 경우 상술한 바와 같이 객체(120)를 다시 인식하고 인식한 객체(120)에 고유번호를 부여하며, 고유번호와 대응되는 영상파일을 링크시켜 이를 추가된 객체(120)에 투영하는 단계를 반복하여 수행한다. On the other hand, when the object 120 is not added or removed in the miniature stage 110 and only the currently provided object 120 is moved, the camera 150 continuously tracks the corresponding image file while tracking the moving object. do. However, when the object 120 is newly added to the miniature stage 110, as described above, the object 120 is re-recognized and a unique number is assigned to the recognized object 120, and an image file corresponding to the unique number is provided. Linking and projecting it on the added object 120 is repeatedly performed.

이상에서 설명한 바와 같이 본 발명은 미니어처 무대를 실제 무대환경처럼 구현하고, 그 미니어처 무대 위에서 이동하는 객체의 움직임을 추적하면서 연출가 자신이 의도하는 연출 방향대로 다양한 연출을 수행할 수 있게 됨을 알 수 있다. As described above, the present invention implements the miniature stage as the actual stage environment, and it can be seen that the director can perform various direction in the direction of the director's intended direction while tracking the movement of the object moving on the miniature stage.

본 발명의 권리범위는 위에서 설명된 실시 예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 기술분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The scope of the present invention is not limited to the embodiments described above, but is defined by the claims, and various changes and modifications can be made by those skilled in the art within the scope of the claims. It is self evident.

110 ; 미니어처 무대 120 : 객체
130 : 사용자 인터페이스 장치 140 : 빔 프로젝터
150 : 카메라
110; Miniature Stage 120: Objects
130: user interface device 140: beam projector
150: camera

Claims (6)

실제무대를 축소하여 제작된 미니어처 무대;
상기 미니어처 무대에 제공되는 하나 이상의 객체;
상기 미니어처 무대를 실제 무대와 동일한 환경으로 구현하도록 실제무대의 정보와 실제무대에 제공될 조명 및 배경 정보를 저장하고, 이러한 정보에 기초하여 미니어처 무대를 화면에 표시하며, 표시되는 화면을 참조하여 객체 별로 고유번호를 부여하여 대응하는 영상 정보와 링크되도록 하는 사용자 인터페이스 장치;
상기 미니어처 무대를 촬영하면서, 미니어처 무대 및 객체의 크기와 위치, 그리고 동선을 파악하도록 설치되는 카메라; 그리고
상기 인터페이스 장치로부터 정보를 제공받아 미니어처 무대를 실제 무대와 동일하게 입체 영상을 투영하는 빔프로젝터를 포함하고;
상기 인터페이스 장치에 의하여, 입체 영상으로 구현된 미니어처 무대에서 객체가 이동하면 이동하는 객체를 인식하고 대응하는 영상파일을 투영시켜 객체의 동선이 실시간으로 검출되고, 미니어처 무대에 새롭게 객체가 추가될 경우 상기의 객체를 인식하고 고유번호에 대응하는 영상정보가 링크되는 것을 특징으로 하는 대화형 무대 장치.
Miniature stage produced by reducing the actual stage;
One or more objects provided to the miniature stage;
To store the miniature stage in the same environment as the actual stage, information about the actual stage and lighting and background information to be provided to the stage are stored, and based on the information, the miniature stage is displayed on the screen, and the object is referred to the displayed screen. A user interface device for assigning a unique number to each link so as to be linked with corresponding video information;
A camera installed to capture the miniature stage and the size and location of the miniature stage and the object and the moving line while photographing the miniature stage; And
A beam projector receiving information from the interface device and projecting a stereoscopic image on the miniature stage in the same manner as the actual stage;
When the object moves in the miniature stage implemented as a stereoscopic image by the interface device, the moving object is recognized in real time by projecting a corresponding image file and the moving line of the object is detected in real time, and when the object is newly added to the miniature stage, Recognizing an object of the interactive stage device, characterized in that the video information corresponding to the unique number is linked.
삭제delete 깊이 정보 카메라가 미니어처 무대에 위치한 적어도 하나의 객체를 인식하는 단계와;
실제 무대 공간을 실측하여 얻어진 정보와 음향, 조명 및 영상 시설에 대한 정보를 구비하고, 이러한 정보를 이용하여 입체 영상으로 재구성할 수 있는 사용자 인터페이스 장치가 인식된 객체마다 고유 번호를 부여하는 단계;
상기 사용자 인터페이스 장치가 상기 고유 번호에 대응하는 영상파일을 링크하는 단계; 그리고
상기 사용자 인터페이스 장치로부터 상기 링크한 영상 파일을 제공받는 빔 프로젝터가 상기 고유 번호와 대응하는 객체로 상기 영상 파일을 투영하는 단계를 포함하고;
입체 영상으로 구현된 미니어처 무대에서 객체가 이동하면, 이동하는 객체를 인식하고 고유번호를 부여하며 고유번호에 대응하는 영상파일을 투영시켜 상기 객체의 동선을 실시간으로 검출하는 것을 특징으로 하는 대화형 무대장치를 이용한 시뮬레이션 방법.
Recognizing, by the depth information camera, at least one object located on the miniature stage;
Assigning a unique number to each object recognized by a user interface device having information obtained by actually measuring an actual stage space and information on sound, lighting, and image facilities, and reconstructing a stereoscopic image using such information;
Linking the video file corresponding to the unique number by the user interface device; And
Projecting the image file to an object corresponding to the unique number by a beam projector provided with the linked image file from the user interface device;
When an object moves in a miniature stage implemented as a stereoscopic image, the moving stage recognizes the moving object, assigns a unique number, and projects an image file corresponding to the unique number to detect the moving line of the object in real time. Simulation method using the device.
삭제delete 삭제delete 제 3 항에 있어서,
상기 미니어처 무대에서 기존에 위치하였던 객체가 이동할 경우 이동하는 객체를 추적하면서 대응하는 영상파일을 계속하여 투영하지만, 상기 미니어처 무대에 새롭게 객체가 추가될 경우 상기의 객체를 인식하는 단계부터 영상 파일을 투영하는 단계를 반복하여 수행하는 것을 특징으로 하는 무대장치를 이용한 시뮬레이션 방법.
The method of claim 3, wherein
When an object previously located on the miniature stage moves, the corresponding image file is continuously projected while tracking the moving object. However, when an object is newly added to the miniature stage, the image file is projected from the step of recognizing the object. Simulation method using a stage device characterized in that to repeat the steps to perform.
KR1020120044740A 2012-04-27 2012-04-27 Interactive stage system apatrtus and simulation method of the same KR101242089B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120044740A KR101242089B1 (en) 2012-04-27 2012-04-27 Interactive stage system apatrtus and simulation method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120044740A KR101242089B1 (en) 2012-04-27 2012-04-27 Interactive stage system apatrtus and simulation method of the same

Publications (1)

Publication Number Publication Date
KR101242089B1 true KR101242089B1 (en) 2013-03-11

Family

ID=48181612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120044740A KR101242089B1 (en) 2012-04-27 2012-04-27 Interactive stage system apatrtus and simulation method of the same

Country Status (1)

Country Link
KR (1) KR101242089B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015056128A1 (en) * 2013-10-14 2015-04-23 Aram Akopian Attraction facility
WO2015133669A1 (en) * 2014-03-03 2015-09-11 (주)바이널 Stage display system
KR101747800B1 (en) * 2016-01-25 2017-06-16 주식회사 디지소닉 Apparatus for Generating of 3D Sound, and System for Generating of 3D Contents Using the Same
KR101800192B1 (en) * 2016-05-31 2017-11-22 (주)잼투고 Method and System for Motion-based Control of Studio Equipment
WO2018186516A1 (en) * 2017-04-03 2018-10-11 주식회사 머셔앤칼린 Apparatus and method for producing performance using virtual reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11156064A (en) 1997-11-28 1999-06-15 Audio Technica Corp Infrared ray detection device for stage control system
KR20090000550A (en) * 2007-02-22 2009-01-08 성필문 Methode of a cyber public performance on stage with 3d display
KR20100018363A (en) * 2008-08-06 2010-02-17 김수종 Automatic Location Tracking System for Moving Objects
JP2010194232A (en) * 2009-02-27 2010-09-09 Yamaha Corp Stage setting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11156064A (en) 1997-11-28 1999-06-15 Audio Technica Corp Infrared ray detection device for stage control system
KR20090000550A (en) * 2007-02-22 2009-01-08 성필문 Methode of a cyber public performance on stage with 3d display
KR20100018363A (en) * 2008-08-06 2010-02-17 김수종 Automatic Location Tracking System for Moving Objects
JP2010194232A (en) * 2009-02-27 2010-09-09 Yamaha Corp Stage setting

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015056128A1 (en) * 2013-10-14 2015-04-23 Aram Akopian Attraction facility
CN105828897A (en) * 2013-10-14 2016-08-03 阿兰姆·阿克皮安 Attraction facility
WO2015133669A1 (en) * 2014-03-03 2015-09-11 (주)바이널 Stage display system
KR101747800B1 (en) * 2016-01-25 2017-06-16 주식회사 디지소닉 Apparatus for Generating of 3D Sound, and System for Generating of 3D Contents Using the Same
KR101800192B1 (en) * 2016-05-31 2017-11-22 (주)잼투고 Method and System for Motion-based Control of Studio Equipment
WO2017209439A1 (en) * 2016-05-31 2017-12-07 Jam2Go, Inc. Method and system for motion-based control of studio equipment
WO2018186516A1 (en) * 2017-04-03 2018-10-11 주식회사 머셔앤칼린 Apparatus and method for producing performance using virtual reality

Similar Documents

Publication Publication Date Title
KR101918262B1 (en) Method and system for providing mixed reality service
US20220264173A1 (en) Recording remote expert sessions
US8644467B2 (en) Video conferencing system, method, and computer program storage device
TWI567659B (en) Theme-based augmentation of photorepresentative view
KR101242089B1 (en) Interactive stage system apatrtus and simulation method of the same
US20110216090A1 (en) Real-time interactive augmented reality system and method and recording medium storing program for implementing the method
US10275898B1 (en) Wedge-based light-field video capture
US20040104935A1 (en) Virtual reality immersion system
US20130100141A1 (en) System and method of producing an animated performance utilizing multiple cameras
CN106097435A (en) A kind of augmented reality camera system and method
JP2002247602A (en) Image generator and control method therefor, and its computer program
US20210255328A1 (en) Methods and systems of a handheld spatially aware mixed-reality projection platform
KR20100084597A (en) Immersive collaborative environment using motion capture, head mounted display, and cave
KR102010030B1 (en) Method and system for providing mixed reality service
WO2020213426A1 (en) Image processing device, image processing method, and program
US20190096438A1 (en) System and methods for generating media assets
Camba et al. From reality to augmented reality: Rapid strategies for developing marker-based AR content using image capturing and authoring tools
CN107479701B (en) Virtual reality interaction method, device and system
Ostkamp et al. Supporting design, prototyping, and evaluation of public display systems
JP6555755B2 (en) Image processing apparatus, image processing method, and image processing program
JP5252703B2 (en) 3D image display device, 3D image display method, and 3D image display program
US20190378335A1 (en) Viewer position coordination in simulated reality
CN111064946A (en) Video fusion method, system, device and storage medium based on indoor scene
CN111695424A (en) Crime scene restoration method, crime scene restoration system and storage medium based on three-dimensional real scene
JP2012160134A (en) Simulation apparatus for plant control system and creation method of simulation screen

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160303

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170804

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180321

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190318

Year of fee payment: 7