WO2015133669A1 - Stage display system - Google Patents

Stage display system Download PDF

Info

Publication number
WO2015133669A1
WO2015133669A1 PCT/KR2014/002075 KR2014002075W WO2015133669A1 WO 2015133669 A1 WO2015133669 A1 WO 2015133669A1 KR 2014002075 W KR2014002075 W KR 2014002075W WO 2015133669 A1 WO2015133669 A1 WO 2015133669A1
Authority
WO
WIPO (PCT)
Prior art keywords
stage
moving object
image layer
texture
direction pattern
Prior art date
Application number
PCT/KR2014/002075
Other languages
French (fr)
Korean (ko)
Inventor
조홍래
김길중
이상훈
안효진
문치우
최윤호
박지현
주영렬
고승진
유태진
주인탁
Original Assignee
(주)바이널
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)바이널 filed Critical (주)바이널
Publication of WO2015133669A1 publication Critical patent/WO2015133669A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas

Definitions

  • the present invention relates to a stage rendering system.
  • Various production devices such as sound devices, video devices, and lighting devices are used to maximize the directing effects on stages such as musicals and concerts.
  • the performance is recorded in detail in the cue sheet of the performance of the performer from the beginning to the end of the performance, such as the sequence of actions of the performer, timed sound effects, lighting effects, etc. Defer to the cue signal from the director. For this reason, the actor had to perform according to a predetermined script, there was a problem that it is difficult to provide a directing effect for expressing various emotions.
  • the musical "Circus of the Sun” installs a sensor at the bottom of the stage and provides various graphic effects on the stage as image projection through image processing of the top view image.
  • Such a conventional stage directing device recognizes the performer's position through a sensor installed at the bottom, so the accuracy of actor recognition is low, and the installation of such a stage theater takes a lot of cost and time, so performance on a limited stage is limited. It must be done.
  • the lower sensor recognizes one performer, so that the same graphic effect is produced to all the performers within a range, and thus there is a problem in that it is difficult to express various directing effects.
  • Patent Document 1 Korean Patent Application No. 10-2009-0040269 discloses a method of displaying various stage effects by tracking a performer's position on a stage in real time and controlling a stage device based on the position information.
  • Korean Patent Application No. 10-2009-0040269 discloses a method of displaying various stage effects by tracking a performer's position on a stage in real time and controlling a stage device based on the position information.
  • the audience by synthesizing a texture on an image layer based on positional information according to a direction pattern and outputting it on a stage, the audience can be immersed in the actor's act by providing various stage effects in response to the actor's act on the stage.
  • it aims to provide a stage rendering system that can significantly reduce the cost of the stage installation.
  • the present invention for achieving the above object is a position acquisition unit for obtaining position information from an electronic tag attached to at least one moving object, an image processing unit for synthesizing a texture on an image layer based on the position information according to predetermined direction pattern information And an image output unit configured to output the image layer.
  • the present invention by synthesizing the texture on the image layer based on the positional information according to the direction pattern and output on the stage, by providing a variety of stage directing effects in response to the actor's acting on the stage, In addition to being able to immerse yourself in the performance of the stage, the cost of installing the stage is greatly reduced.
  • FIG. 1 is a block diagram of a stage production system according to an embodiment of the present invention.
  • FIG. 2 is a view for explaining an image layer and the direction pattern according to an embodiment of the present invention.
  • FIG. 3 is a view for explaining the operation according to the moving object tracking direction pattern of the present invention.
  • FIG. 4 is a view for explaining the operation according to the moving object tracking first direction pattern of the present invention.
  • FIG. 5 is a view for explaining the operation according to the moving object tracking second direction pattern of the present invention.
  • FIG. 6 is a view for explaining the operation according to the area recognition direction pattern of the present invention.
  • FIG. 7 is a view for explaining the operation according to the stop direction pattern during movement of the present invention.
  • FIG. 8 is a view for explaining an image layer and a rendering pattern for one or more moving objects.
  • FIG. 9 is a view for explaining the operation according to the collective direction pattern of the present invention.
  • FIG. 10 is a view for explaining the operation according to the background rendering pattern of the present invention.
  • the stage rendering system includes a position obtaining unit 112a, 112b, 112c, and 112d for obtaining position information, an image processor 116 for synthesizing a texture on an image layer based on the position information, and an image layer. And an image output unit 118 output on the stage.
  • the location obtaining units 112a, 112b, 112c, and 112d perform a function of obtaining location information from the electronic tag 108.
  • the electronic tag 108 refers to a medium in which a small IC chip such as an RF tag or a smart tag is embedded to read information recorded on the chip.
  • the electronic tag 108 may be attached to the moving object 110 on the stage, and the position obtaining units 112a, 112b, 112c, and 112d may obtain location information from the electronic tag 108 attached to the moving object.
  • the position information is information on the position of the moving object 110 on the stage.
  • the moving object 110 may be an actor acting on the stage, an actor, a performer, or a specific object appearing in a performance.
  • Real-time location information supporting wireless communication standards such as ZigBee, RuBee, Ultra Wide Band (UWB), Wi-Fi in order for the location acquisition unit 112a, 112b, 112c, 112d to obtain location information from the electronic tag 108 Technology related to the system (RTLS) and active RFID (RADIO FREQUENCY IDENTIFICATION) may be applied.
  • wireless communication standards such as ZigBee, RuBee, Ultra Wide Band (UWB), Wi-Fi in order for the location acquisition unit 112a, 112b, 112c, 112d to obtain location information from the electronic tag 108 Technology related to the system (RTLS) and active RFID (RADIO FREQUENCY IDENTIFICATION) may be applied.
  • the position acquisition unit (112a, 112b, 112c, 112d) may obtain the identification information for identifying one or more moving objects as well as the position information for the position of the moving object.
  • the identification information is information for identifying one or more moving objects on the stage, respectively, and may be a unique tag value recorded in the electronic tag 108.
  • tag values 0x0001, 0x0002, and 0x0003 may be designated for each electronic tag 108.
  • the position acquisition units 112a, 112b, 112c, and 112d may identify and manage one or more moving objects on the stage by using the identification information.
  • the image processor 116 performs a function of synthesizing the texture on the image layer based on the position information according to the predetermined direction pattern information.
  • the image processor 116 may receive location information corresponding to the position of the moving object 110 on the stage from the electronic tag 108 attached to the moving object 110.
  • the image layer is a virtual plane modeled to correspond to the stage. That is, the size of the image layer corresponds to the size of the stage, and the coordinates of the image layer may correspond to any position or area of the stage.
  • the stage may be formed of a stage stage 102 constituting the stage floor and a first background stage 104 and a second background stage 106 together with the stage stage 102 to form a three-dimensional space.
  • the image layer may be composed of three image layers to be reproduced in a three-dimensional space corresponding to each stage stage 102, the first background stage 104, and the second background stage 106.
  • Texture is a graphic element for applying realistic three-dimensional stereoscopic effect to a two-dimensional plane such as a stage stage, and can express various colors and textures on the stage. Textures include color textures representing colors or textures, normal textures representing arbitrary materials, highlight textures representing the reflection form of light, and the like.
  • the image processor 116 may synthesize a texture that can be expressed in granular units on the image layer by using a computer-based application program, for example, an interface such as Direct X 11 or Vertex Shader. have.
  • image distortion can be expressed in the background graphics on the image layer using Vertex Shader.
  • the image processor 116 may synthesize the texture on the corresponding coordinates of the image layer in consideration of the position information. As described above, the image layer may configure coordinates corresponding to any position or area of the stage. The image processor 116 may convert the position information acquired from the position acquirers 112a, 112b, 112c, and 112d into coordinate information corresponding to the coordinates of the image layer. The image processor 116 determines coordinates on the image layer to synthesize the texture according to the predetermined presentation pattern information, and synthesizes the texture on the coordinates on the determined image layer.
  • the predetermined direction pattern information may include a moving object tracking direction pattern for synthesizing a texture with coordinates on an image layer corresponding to the current position to indicate a current position of the moving object on the stage, and moving to display a moving trajectory of the moving object moving on the stage.
  • Moving object tracking composition combining the texture in the path, the texture is applied to the area formed by the coordinates on the image layer corresponding to the arbitrary position of the image layer and the current position so that the area varies according to the movement trajectory of the moving object moving on the stage.
  • Moving object tracking Second direction pattern area recognition direction pattern that synthesizes different textures before entering if the moving object enters a specific area on the stage, and stops during movement of synthesizing different textures with the moving texture when the moving object stops on the stage. At least one rendering pattern .
  • the location obtaining unit obtains location information and identification information from the electronic tag.
  • the image processor 116 receives location information and identification information, manages each moving object, and combines a texture corresponding to each moving object with coordinates on the image layer based on the location information according to the identification information.
  • the image processor 116 may synthesize different textures with respect to one or more moving objects. As a result, the moving object on the stage can be identified through the identification information, and can produce different effects for each moving object.
  • the relationship between the moving bodies can be established for one or more moving objects.
  • the direction pattern information may be displayed on the image layer corresponding to the current position information of each of the moving objects when the distance between the moving objects calculated based on the location information is within a certain distance so as to produce the collective directing effect when one or more moving objects are collected. It may be a collection directing pattern that synthesizes a texture in a collection area including coordinates.
  • the stage may be formed of the stage stage 102 constituting the stage floor and the first background stage 104 and the second background stage 106 together with the stage stage 102 to form a three-dimensional space.
  • the image layer may include a background image layer to be reproduced in three-dimensional space corresponding to each stage stage 102, the first background stage 104, and the second background stage 106. It is also possible to set the relationship to the texture on the background image layer based on the positional information of the moving object.
  • the direction pattern information may be a background direction pattern that synthesizes a texture on an image layer to have a size or position at a specific point in time with respect to the moving object based on the position information.
  • the size and position of the object may vary depending on the distance to the object from the viewpoint of the moving object.
  • the image processing unit 116 may synthesize an increasing texture on the background image layer, and the moving object becomes smaller when the moving object moves away from it.
  • the texture may be synthesized on the background image layer.
  • the positions of the textures on the background image layer may vary according to the position information of the moving object. For example, when the moving object moves to the left, either texture may move to the right or the left and right of the textures may be different. As a result, background rendering at a specific point in time with respect to the moving object is possible.
  • the rendering pattern information may be determined by cue sheet data.
  • the cue sheet data may include information about the number of moving objects, the designated textures for the moving objects, and the like, per film or chapter of the performance.
  • the cue sheet data may be as shown in Table 1.
  • Table 1 Mobile body information Set directing pattern Zone settings Identifying information 0x0001 Direction Tracking Heart directing x: 450 y: 300 fire pit Identifying information 0x0002 Direction Tracking
  • the texture having the light source effect may be synthesized with the coordinates on the image layer corresponding to the heroine position to make the heroine stand on the light.
  • the texture having the lameness effect can be synthesized in the set area, and the heroine is maximized in directing effect.
  • the main character appears to rescue the heroine.
  • a texture with a wave effect can be directed to track the position of the main character, thereby emphasizing the effect of the main character. If the main character is within a certain distance from the heroine, the texture of the heart-shaped texture can be synthesized to maximize the expression of the emotion between the two main characters.
  • the image output unit 118 outputs a texture-synthesized image layer on the stage.
  • the image output unit 118 may project an image layer on a stage stage or a background stage to produce as if the actor coexists with the graphic effect due to the image layer projected on the stage.
  • the image output unit 118 may be installed corresponding to the number of stages so as to project an image layer to respective stages forming a three-dimensional space. If the stage size is large, the image output unit 118 may be configured to project the image layer in each region by dividing the stage into two or four regions.
  • the stage directing system of the present invention provides various stage directing effects in response to the acting of the performer on the stage, so that the audience can not only be immersed in the acting of the performer but also maximizes the directing effect with a minimum image projection apparatus. Because it can provide a significant cost savings in the installation stage.
  • FIG. 2 is a view for explaining an image layer and a direction pattern according to an embodiment of the present invention.
  • an image layer 202 processed by the image processor 116 and a texture 204 synthesized with the image layer are displayed.
  • the director or stage director can monitor the production situation and apply the effect according to the situation through the displayed video layer.
  • the image layer 202 is projected onto the stage composed of three-dimensional space through the image output unit 118, and the texture 204 synthesized on the image layer 202 is displayed on the stage.
  • the position of the texture 204 synthesized on the image layer 202 may be determined according to the position information and the identification information of the moving object obtained from the electronic tag 108 through the position acquisition units 112a, 112b, 112c, and 112d. .
  • the image processor 116 may maximize the rendering effect by synthesizing the texture 204 having a three-dimensional graphic effect on the image layer 202 using a graphic interface such as Direct X 11 or Vertex Shader.
  • stage rendering system of the present invention will be described with reference to FIGS. 3 to 10.
  • FIG. 3 is a view for explaining the operation according to the moving object tracking direction pattern of the present invention.
  • the texture is synthesized on the image layer 302 to correspond to the current position on the stage of the moving object.
  • the image processing unit 116 moves to the first point 304 on the stage of the moving object.
  • the texture is synthesized at the coordinates 304 on the image layer corresponding to
  • the image processor 116 synthesizes the texture at coordinates 306 on the image layer corresponding to the second point 306 on the stage of the moving object.
  • a texture is synthesized at each of the coordinates 304 and 306 on the image layer corresponding to the current position of the moving object on the stage, and the texture, which is a graphic element, can produce the effect of tracking the moving object.
  • FIG. 4 is a view for explaining the operation according to the moving object tracking first direction pattern of the present invention.
  • the texture is synthesized on the image layer 402 to correspond to the movement path 406 on the stage of the moving object.
  • the image processor 116 may record respective coordinates of the moving path 406 using the position information of the moving object.
  • the image processor 116 synthesizes the texture in the coordinates or the region 406 on the image layer corresponding to the moving path 406 of the moving object.
  • the texture is synthesized in an area formed by an arbitrary point of the image layer (designated as both bottom vertices in this embodiment) and the current position of the moving object.
  • the image processor 116 moves to the bottom of the stage.
  • the texture is synthesized in the triangular region 506 formed by both vertices and the first point 504.
  • the image processor 116 may texture the triangular area 506 formed by the lower vertices of the stage and the second point 508. Synthesize.
  • arbitrary points and the area to be formed may change according to the current position on the stage of the moving object, and the specific area may produce the effect of tracking the moving object.
  • the texture is synthesized at the current position in the region 606 on the image layer 602 or the specific region of the movable body corresponding to the specific region 606 when the movable body on the stage enters the predetermined specific region 606. do.
  • the texture may be a texture 608 that is different from the texture 604 outside the specific region that produces a special effect corresponding to the preset specific region.
  • the texture may be synthesized throughout the particular region 606 or only to some of the specific regions 606.
  • the image processing unit 116 When the current position location information of the moving object enters the specific area 606 on the preset image layer, the image processing unit 116 is located on the specific layer 606 on the image layer 602 or on the image layer corresponding to the current location information of the moving object.
  • the texture before entering the coordinates and a different texture 608 are synthesized.
  • FIG. 7 is a view for explaining the operation according to the stop direction pattern during movement of the present invention. Referring to FIG. 7, when the moving object on the stage stops during the movement, a texture different from the moving texture is combined with coordinates on the image layer corresponding to the current position of the moving object.
  • the image processor 116 monitors the position information of the moving object and, if there is no change in the current position information of the moving object, synthesizes a texture and a different texture during movement to coordinates on the image layer corresponding to the current position information of the moving object.
  • FIG. 8 is a diagram for describing an image layer and a rendering pattern for one or more moving objects. Referring to FIG. 8, the image layer 802 and the textures 804 and 808 synthesized to the image layer 802 when one or more moving objects appear on the stage are shown.
  • the location obtaining unit may obtain identification information and location information from an electronic tag attached to one or more moving objects.
  • the image processor 116 may synthesize a texture on an image layer by using unique information 806 and 810 including position information and identification information of each moving object on the stage. Different textures are synthesized in the coordinates 804 corresponding to the current position 804 of the first moving object and the coordinates 808 corresponding to the current position 804 of the second moving object on the image layer 802. Can be distinguished through identification information.
  • the present invention can produce a different effect for each performer as compared to a stage directing device for acquiring the position of the performer using a sensor installed on the floor of the conventional stage can be a variety of acting of the performer.
  • FIG. 9 is a view for explaining the operation according to the collective direction pattern of the present invention. Referring to FIG. 9, when one or more moving objects on the stage are gathered within a certain distance, a texture having an effect of emphasizing the moving moving objects is synthesized on the image layer.
  • the image processing unit 116 includes an aggregation area 912 including coordinates on the image layer 902 corresponding to the current position information of each of the moving objects. You can synthesize the texture on At this time, the texture may be a graphic effect that is produced only when the actors gather.
  • the respective mobile bodies can be distinguished through the identification information, and the coordinates on the image layer corresponding to each position of the mobile bodies Textures can be synthesized.
  • the second mobile body 906, the third mobile body 908, and the fourth mobile body 910 are assembled within a predetermined distance, the second mobile body 906, the third mobile body 908, and the fourth mobile body 910 are located.
  • the texture 912 may be synthesized in the aggregation area 912 including coordinates on the image layer 902 corresponding to each current location information.
  • FIG. 10 is a view for explaining the operation according to the background rendering pattern of the present invention.
  • a texture whose size and position are adjusted according to the position of the moving object is synthesized in the background image layer constituting the background of the stage.
  • the image processor may synthesize a texture on the background image layer to have a size or a position at a specific point in time with respect to the moving object based on the position information of the moving object. For example, a texture representing a house and a tree may be synthesized in the background image layer output to the background stage.
  • the moving object is moved to the background stage at a point of view 1006 away from the background stage. While the size of the texture 1004 to be synthesized is adjusted to be small, at the point of view 1016 where the moving object approaches the background stage, the size of the texture 1018 to be synthesized to the background stage is adjusted.
  • the texture 1010 representing the tree and the texture 1025 representing the house are adjusted to move to the right relative to the movement of the viewpoint of the moving object.
  • the size of the texture 1024 representing the tree may be largely adjusted to have a size at the viewpoint of the position 1022 of the moving object.

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a stage display system. The present invention is characterized by comprising: a location acquisition unit for acquiring location information from electronic tags attached to one or more moving bodies; an image processing unit for compositing, in accordance with a previously set display pattern information, texture onto an image layer on the basis of the location information; and an image output unit for outputting the image layer. According to the present invention, by compositing a texture onto an image layer according to the display pattern and on the basis of the location information, and outputting the display pattern onto the stage, a variety of stage display effects are provided corresponding to the performance of the actors on the stage, thereby allowing the audience to be absorbed in the performance of the actors, and additionally having the benefit of significantly reducing the stage setup expense.

Description

무대 연출 시스템Stage production system
본 발명은 무대 연출 시스템에 관한 것이다.The present invention relates to a stage rendering system.
뮤지컬, 콘서트 등 공연 등 무대에서의 연출 효과를 극대화 하기 위하여 음향 장치, 영상 장치, 조명 장치 등 다양한 연출 장치들이 이용된다.Various production devices such as sound devices, video devices, and lighting devices are used to maximize the directing effects on stages such as musicals and concerts.
일반적으로, 공연은 연기자의 동작 순서, 시간이 정해진 음향 효과, 조명 효과 등 공연의 개시부터 종료까지의 전 진행 과정에 대한 세부 사항은 큐 시트(cue sheet)에 상세히 기록되고, 연기자는 무대감독 또는 연출자의 큐 신호에 맞추어 연기한다. 이로 인하여, 연기자는 미리 정해진 각본에 따라 연기할 수 밖에 없어 다양한 감정 표현을 위한 연출 효과를 제공하기 어려운 문제점이 있었다.In general, the performance is recorded in detail in the cue sheet of the performance of the performer from the beginning to the end of the performance, such as the sequence of actions of the performer, timed sound effects, lighting effects, etc. Defer to the cue signal from the director. For this reason, the actor had to perform according to a predetermined script, there was a problem that it is difficult to provide a directing effect for expressing various emotions.
이러한 문제점을 해결하기 위하여, 뮤지컬 "태양의 서커스"에서는 무대의 하단에 센서를 설치하고 탑뷰(top view) 영상의 이미지 프로세싱을 통해 무대에 다양한 그래픽 효과를 영상 프로젝션으로 제공한다.In order to solve this problem, the musical "Circus of the Sun" installs a sensor at the bottom of the stage and provides various graphic effects on the stage as image projection through image processing of the top view image.
그러나, 이러한 종래의 무대 연출 장치 등은 연기자의 위치를 하단에 설치된 센서를 통해 인식하기 때문에 연기자 인식의 정확도가 낮고, 이러한 무대 공연장의 설치에는 많은 비용과 시간이 소요되기 때문에 한정된 무대에서의 공연이 이루어질 수 밖에 없다. 또한, 두명 이상의 연기자가 인접할 때 하단 센서는 한명의 연기자로 인식하기 때문에 범위 내의 모든 연기자들에게 동일한 그래픽 효과가 연출되어 다양한 연출 효과를 표현하기 어려운 문제점이 존재한다.However, such a conventional stage directing device recognizes the performer's position through a sensor installed at the bottom, so the accuracy of actor recognition is low, and the installation of such a stage theater takes a lot of cost and time, so performance on a limited stage is limited. It must be done. In addition, when two or more performers are adjacent to each other, the lower sensor recognizes one performer, so that the same graphic effect is produced to all the performers within a range, and thus there is a problem in that it is difficult to express various directing effects.
[특허문헌][Patent Documents]
(특허문헌 1) 이와 같은 선행기술로는 무대 위에서 공연자의 위치를 실시간으로 추적하고 위치 정보에 기반하여 무대 장치를 제어함으로써 각종 무대 효과를 나타내는 방법에 관한 한국특허출원 제10-2009-0040269호 가 공지되어 있다.(Patent Document 1) With such prior art, Korean Patent Application No. 10-2009-0040269 discloses a method of displaying various stage effects by tracking a performer's position on a stage in real time and controlling a stage device based on the position information. Known.
본 발명은 연출 패턴에 따라 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하여 무대 상에 출력함으로써, 무대 상의 연기자의 연기에 감응하는 다양한 무대 연출 효과를 제공하여 관객들이 연기자의 연기에 몰입할 수 있을 뿐만 아니라 무대 설치에 드는 비용이 크게 절감될 수 있는 무대 연출 시스템을 제공하는 것을 목적으로 한다.According to the present invention, by synthesizing a texture on an image layer based on positional information according to a direction pattern and outputting it on a stage, the audience can be immersed in the actor's act by providing various stage effects in response to the actor's act on the stage. In addition, it aims to provide a stage rendering system that can significantly reduce the cost of the stage installation.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention, which are not mentioned above, can be understood by the following description, and more clearly by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
이러한 목적을 달성하기 위한 본 발명은 하나 이상의 이동체에 부착되는 전자 태그로부터 위치 정보를 획득하는 위치 획득부, 미리 정해진 연출 패턴 정보에 따라 상기 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하는 영상 처리부, 상기 영상 레이어를 출력하는 영상 출력부를 포함하는 것을 특징으로 한다.The present invention for achieving the above object is a position acquisition unit for obtaining position information from an electronic tag attached to at least one moving object, an image processing unit for synthesizing a texture on an image layer based on the position information according to predetermined direction pattern information And an image output unit configured to output the image layer.
전술한 바와 같은 본 발명에 의하면, 연출 패턴에 따라 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하여 무대 상에 출력함으로써, 무대 상의 연기자의 연기에 감응하는 다양한 무대 연출 효과를 제공하여 관객들이 연기자의 연기에 몰입할 수 있을 뿐만 아니라 무대 설치에 드는 비용이 크게 절감되는 장점이 있다.According to the present invention as described above, by synthesizing the texture on the image layer based on the positional information according to the direction pattern and output on the stage, by providing a variety of stage directing effects in response to the actor's acting on the stage, In addition to being able to immerse yourself in the performance of the stage, the cost of installing the stage is greatly reduced.
도 1은 본 발명의 실시예에 따른 무대 연출 시스템의 구성도.1 is a block diagram of a stage production system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상 레이어 및 연출 패턴을 설명하기 위한 도면.2 is a view for explaining an image layer and the direction pattern according to an embodiment of the present invention.
도 3은 본 발명의 이동체 추적 연출 패턴에 따른 동작을 설명하기 위한 도면.3 is a view for explaining the operation according to the moving object tracking direction pattern of the present invention.
도 4는 본 발명의 이동체 트래킹 제1 연출 패턴에 따른 동작을 설명하기 위한 도면.4 is a view for explaining the operation according to the moving object tracking first direction pattern of the present invention.
도 5는 본 발명의 이동체 트래킹 제2 연출 패턴에 따른 동작을 설명하기 위한 도면.5 is a view for explaining the operation according to the moving object tracking second direction pattern of the present invention.
도 6은 본 발명의 영역 인식 연출 패턴에 따른 동작을 설명하기 위한 도면.6 is a view for explaining the operation according to the area recognition direction pattern of the present invention.
도 7은 본 발명의 이동 중 정지 연출 패턴에 따른 동작을 설명하기 위한 도면.7 is a view for explaining the operation according to the stop direction pattern during movement of the present invention.
도 8은 하나 이상의 이동체에 대한 영상 레이어 및 연출 패턴을 설명하기 위한 도면.8 is a view for explaining an image layer and a rendering pattern for one or more moving objects.
도 9는 본 발명의 집합 연출 패턴에 따른 동작을 설명하기 위한 도면.9 is a view for explaining the operation according to the collective direction pattern of the present invention.
도 10은 본 발명의 배경 연출 패턴에 따른 동작을 설명하기 위한 도면.10 is a view for explaining the operation according to the background rendering pattern of the present invention.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above objects, features, and advantages will be described in detail with reference to the accompanying drawings, whereby those skilled in the art to which the present invention pertains may easily implement the technical idea of the present invention. In describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.
도 1은 본 발명의 실시예에 따른 무대 연출 시스템의 구성도이다. 도 1을 참조하면, 무대 연출 시스템은 위치 정보를 획득하는 위치 획득부(112a, 112b, 112c, 112d), 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하는 영상 처리부(116), 영상 레이어를 무대 상에 출력하는 영상 출력부(118)를 포함한다.1 is a block diagram of a stage production system according to an embodiment of the present invention. Referring to FIG. 1, the stage rendering system includes a position obtaining unit 112a, 112b, 112c, and 112d for obtaining position information, an image processor 116 for synthesizing a texture on an image layer based on the position information, and an image layer. And an image output unit 118 output on the stage.
위치 획득부(112a, 112b, 112c, 112d)는 전자 태그(108)로부터 위치 정보를 획득하는 기능을 수행한다. 전자 태그(108)는 예를 들어, RF 태그, 스마트 태그 등 극소형 IC 칩이 내장되어 칩에 기록된 정보가 판독 가능한 매체를 의미한다. 전자 태그(108)는 무대 위의 이동체(110)에 부착되며, 위치 획득부(112a, 112b, 112c, 112d)는 이동체에 부착되는 전자 태그(108)로부터 위치 정보를 획득할 수 있다. 위치 정보는 이동체(110)의 무대 상에서의 위치에 대한 정보이다. 이동체(110)는 무대 상에서 연기하는 연기자, 배우, 공연자 또는 공연에 등장하는 특정 물체일 수 있다. The location obtaining units 112a, 112b, 112c, and 112d perform a function of obtaining location information from the electronic tag 108. The electronic tag 108 refers to a medium in which a small IC chip such as an RF tag or a smart tag is embedded to read information recorded on the chip. The electronic tag 108 may be attached to the moving object 110 on the stage, and the position obtaining units 112a, 112b, 112c, and 112d may obtain location information from the electronic tag 108 attached to the moving object. The position information is information on the position of the moving object 110 on the stage. The moving object 110 may be an actor acting on the stage, an actor, a performer, or a specific object appearing in a performance.
위치 획득부(112a, 112b, 112c, 112d)가 전자 태그(108)로부터 위치 정보를 획득하기 위하여, ZigBee, RuBee, Ultra Wide Band(UWB), Wi-Fi 같은 무선 통신 규격을 지원하는 실시간 위치정보 시스템(RTLS), 액티브 RFID(RADIO FREQUENCY IDENTIFICATION) 관련 기술이 응용될 수 있다. Real-time location information supporting wireless communication standards such as ZigBee, RuBee, Ultra Wide Band (UWB), Wi-Fi in order for the location acquisition unit 112a, 112b, 112c, 112d to obtain location information from the electronic tag 108 Technology related to the system (RTLS) and active RFID (RADIO FREQUENCY IDENTIFICATION) may be applied.
본 발명의 일 실시예에서, 위치 획득부(112a, 112b, 112c, 112d)는 이동체의 위치에 대한 위치 정보뿐만 아니라 하나 이상의 이동체를 식별할 수 있는 식별 정보를 획득할 수 있다. 식별 정보는 무대 위의 하나 이상의 이동체들을 각각 식별하기 위한 정보로, 전자 태그(108)에 기록된 고유의 태그 값 등일 수 있다. In one embodiment of the present invention, the position acquisition unit (112a, 112b, 112c, 112d) may obtain the identification information for identifying one or more moving objects as well as the position information for the position of the moving object. The identification information is information for identifying one or more moving objects on the stage, respectively, and may be a unique tag value recorded in the electronic tag 108.
예를 들어, 전자 태그(108)마다 태그 값(0x0001, 0x0002, 0x0003)을 지정할 수 있다. 위치 획득부(112a, 112b, 112c, 112d)는 이러한 식별 정보를 이용하여 무대 상의 하나 이상의 이동체들을 식별하고 관리할 수 있다.For example, tag values 0x0001, 0x0002, and 0x0003 may be designated for each electronic tag 108. The position acquisition units 112a, 112b, 112c, and 112d may identify and manage one or more moving objects on the stage by using the identification information.
영상 처리부(116)는 미리 정해진 연출 패턴 정보에 따라 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하는 기능을 수행한다. 보다 상세하게는, 영상 처리부(116)는 이동체(110)에 부착되는 전자 태그(108)로부터 무대 상의 이동체(110)의 위치에 대응하는 위치 정보를 수신할 수 있다.The image processor 116 performs a function of synthesizing the texture on the image layer based on the position information according to the predetermined direction pattern information. In more detail, the image processor 116 may receive location information corresponding to the position of the moving object 110 on the stage from the electronic tag 108 attached to the moving object 110.
영상 레이어는 무대에 대응하도록 모델링된 가상의 평면이다. 즉, 영상 레이어의 크기는 무대의 크기에 대응되며, 영상 레이어의 좌표는 무대의 임의의 위치 또는 영역에 대응될 수 있다. The image layer is a virtual plane modeled to correspond to the stage. That is, the size of the image layer corresponds to the size of the stage, and the coordinates of the image layer may correspond to any position or area of the stage.
바람직하게는, 무대는 무대 바닥을 구성하는 무대 스테이지(102) 및 무대 스테이지(102)와 함께 3차원 공간을 형성하는 제1 배경 스테이지(104) 및 제2 배경 스테이지(106)로 형성될 수 있다. 이 경우 영상 레이어는 각각의 무대 스테이지(102), 제1 배경 스테이지(104), 제2 배경 스테이지(106)에 대응하여 3차원 공간에 재현될 수 있도록 3 개의 영상 레이어로 구성될 수 있다.Preferably, the stage may be formed of a stage stage 102 constituting the stage floor and a first background stage 104 and a second background stage 106 together with the stage stage 102 to form a three-dimensional space. . In this case, the image layer may be composed of three image layers to be reproduced in a three-dimensional space corresponding to each stage stage 102, the first background stage 104, and the second background stage 106.
텍스쳐는 무대 스테이지와 같은 2차원적 평면에 사실감 있는 3차원적 입체 효과를 적용시키기 위한 그래픽 요소로 무대 상에 다양한 색상, 질감등을 표현할 수 있다. 텍스쳐는 색상 또는 질감을 표현하는 컬러 텍스쳐, 임의의 재질을 표현하는 노멀 텍스처, 빛의 반사 형태를 표현하는 하이라이트 텍스쳐 등을 포함한다. Texture is a graphic element for applying realistic three-dimensional stereoscopic effect to a two-dimensional plane such as a stage stage, and can express various colors and textures on the stage. Textures include color textures representing colors or textures, normal textures representing arbitrary materials, highlight textures representing the reflection form of light, and the like.
그래픽 표현 효과를 극대화하기 위하여, 영상 처리부(116)는 컴퓨터 기반의 응용 프로그램, 예를 들어 Direct X 11, Vertex Shader와 같은 인터페이스를 이용하여 세밀한 입자 단위로 표현 가능한 텍스쳐를 영상 레이어 상에 합성할 수 있다. 또한, Vertex Shader를 이용하여 영상 레이어 상의 배경 그래픽에 이미지 왜곡 표현이 가능하다.In order to maximize the graphic expression effect, the image processor 116 may synthesize a texture that can be expressed in granular units on the image layer by using a computer-based application program, for example, an interface such as Direct X 11 or Vertex Shader. have. In addition, image distortion can be expressed in the background graphics on the image layer using Vertex Shader.
영상 처리부(116)는 위치 정보를 고려하여 영상 레이어의 대응하는 좌표 상에 텍스쳐를 합성할 수 있다. 상술한 바와 같이, 영상 레이어는 무대의 임의의 위치 또는 영역에 대응하는 좌표를 구성할 수 있다. 영상 처리부(116)는 위치 획득부(112a, 112b, 112c, 112d)로부터 획득된 위치 정보를 영상 레이어의 좌표에 대응하는 좌표 정보로 변환할 수 있다. 영상 처리부(116)는 미리 정해진 연출 패턴 정보에 따라 텍스쳐를 합성할 영상 레이어 상의 좌표를 결정하고, 결정된 영상 레이어 상의 좌표에 텍스쳐를 합성한다.The image processor 116 may synthesize the texture on the corresponding coordinates of the image layer in consideration of the position information. As described above, the image layer may configure coordinates corresponding to any position or area of the stage. The image processor 116 may convert the position information acquired from the position acquirers 112a, 112b, 112c, and 112d into coordinate information corresponding to the coordinates of the image layer. The image processor 116 determines coordinates on the image layer to synthesize the texture according to the predetermined presentation pattern information, and synthesizes the texture on the coordinates on the determined image layer.
예를 들어, 미리 정해진 연출 패턴 정보는 무대 상의 이동체의 현재 위치를 표시하도록 현재 위치에 대응되는 영상 레이어 상의 좌표에 텍스쳐를 합성하는 이동체 추적 연출 패턴, 무대 상에서 이동하는 이동체의 이동 궤적을 표시하도록 이동 경로에 텍스쳐를 합성하는 이동체 트래킹 제1 연출 패턴, 무대 상에서 이동하는 이동체의 이동 궤적에 따라 면적이 변화하도록 영상 레이어의 임의의 지점과 현재 위치에 대응되는 영상 레이어 상의 좌표가 형성하는 영역에 텍스쳐를 합성하는 이동체 트래킹 제2 연출 패턴, 이동체가 무대 상의 특정 영역 내에 진입하면 진입 전과 서로 다른 텍스쳐를 합성하는 영역 인식 연출 패턴, 무대 상에서 이동체가 정지하면 이동 중의 텍스쳐와 서로 다른 텍스쳐를 합성하는 이동 중 정지 연출 패턴 중적어도 하나일 수 있다.For example, the predetermined direction pattern information may include a moving object tracking direction pattern for synthesizing a texture with coordinates on an image layer corresponding to the current position to indicate a current position of the moving object on the stage, and moving to display a moving trajectory of the moving object moving on the stage. Moving object tracking composition combining the texture in the path, the texture is applied to the area formed by the coordinates on the image layer corresponding to the arbitrary position of the image layer and the current position so that the area varies according to the movement trajectory of the moving object moving on the stage. Moving object tracking Second direction pattern, area recognition direction pattern that synthesizes different textures before entering if the moving object enters a specific area on the stage, and stops during movement of synthesizing different textures with the moving texture when the moving object stops on the stage. At least one rendering pattern .
본 발명의 일 실시예에서, 무대 상에는 하나 이상의 이동체가 있을 수 있다. 이 경우, 위치 획득부는 전자 태그로부터 위치 정보 및 식별 정보를 획득한다. 영상 처리부(116)는 위치 정보 및 식별 정보를 수신하여 각각의 이동체들을 관리하고, 식별 정보에 따라 위치 정보를 기반으로 각각의 이동체에 대응하는 텍스쳐를 영상 레이어 상의 좌표에 합성한다. 영상 처리부(116)는 하나 이상의 이동체에 대하여 서로 다른 텍스쳐를 합성할 수 있다. 그 결과, 무대 상의 이동체는 식별 정보를 통해 식별될 수 있으며, 이동체마다 서로 다른 연출 효과를 연출할 수 있다.In one embodiment of the invention, there may be one or more moving objects on the stage. In this case, the location obtaining unit obtains location information and identification information from the electronic tag. The image processor 116 receives location information and identification information, manages each moving object, and combines a texture corresponding to each moving object with coordinates on the image layer based on the location information according to the identification information. The image processor 116 may synthesize different textures with respect to one or more moving objects. As a result, the moving object on the stage can be identified through the identification information, and can produce different effects for each moving object.
바람직하게는, 하나 이상의 이동체에 대하여 이동체간 관계를 설정할 수 있다. 예를 들어, 연출 패턴 정보는 하나 이상의 이동체들이 모이면 집합 연출 효과를 연출하도록 위치 정보를 기초로 계산된 이동체들 간의 거리가 일정 거리 이내이면, 이동체들 각각의 현재 위치 정보에 대응되는 영상 레이어 상의 좌표들을 포함하는 집합 영역에 텍스쳐를 합성하는 집합 연출 패턴일 수 있다.Preferably, the relationship between the moving bodies can be established for one or more moving objects. For example, the direction pattern information may be displayed on the image layer corresponding to the current position information of each of the moving objects when the distance between the moving objects calculated based on the location information is within a certain distance so as to produce the collective directing effect when one or more moving objects are collected. It may be a collection directing pattern that synthesizes a texture in a collection area including coordinates.
상술한 바와 같이, 무대는 무대 바닥을 구성하는 무대 스테이지(102) 및 무대 스테이지(102)와 함께 3차원 공간을 형성하는 제1 배경 스테이지(104) 및 제2 배경 스테이지(106)로 형성될 수 있다. 영상 레이어는 각각의 무대 스테이지(102), 제1 배경 스테이지(104), 제2 배경 스테이지(106)에 대응하여 3차원 공간에 재현될 수 있도록 배경 영상 레이어를 포함할 수 있다. 이동체의 위치 정보를 기반으로 배경 영상 레이어 상의 텍스쳐에 관계를 설정하는 것도 가능하다. As described above, the stage may be formed of the stage stage 102 constituting the stage floor and the first background stage 104 and the second background stage 106 together with the stage stage 102 to form a three-dimensional space. have. The image layer may include a background image layer to be reproduced in three-dimensional space corresponding to each stage stage 102, the first background stage 104, and the second background stage 106. It is also possible to set the relationship to the texture on the background image layer based on the positional information of the moving object.
예를 들어, 연출 패턴 정보는 위치 정보를 기반으로 이동체에 대한 특정 시점에서의 크기 또는 위치를 갖도록 영상 레이어 상에 텍스쳐를 합성하는 배경 연출 패턴일 수 있다. For example, the direction pattern information may be a background direction pattern that synthesizes a texture on an image layer to have a size or position at a specific point in time with respect to the moving object based on the position information.
보다 상세하게는, 이동체의 시점에서 물체와의 거리에 따라 물체의 크기, 위치가 달라질 수 있다. 이동체가 배경 영상 레이어가 출력되는 제1 배경 스테이지(104) 또는 제2 배경 스테이지에 접근하면 영상 처리부(116)는 점점 커지는 텍스쳐를 배경 영상 레이어 상에 합성할 수 있고, 이동체가 멀어지면 점점 작아지는 텍스쳐를 배경 영상 레이어 상에 합성할 수 있다. More specifically, the size and position of the object may vary depending on the distance to the object from the viewpoint of the moving object. When the moving object approaches the first background stage 104 or the second background stage from which the background image layer is output, the image processing unit 116 may synthesize an increasing texture on the background image layer, and the moving object becomes smaller when the moving object moves away from it. The texture may be synthesized on the background image layer.
뿐만 아니라, 배경 영상 레이어 상에 합성되는 텍스쳐가 두 개 이상인 경우 이동체의 위치 정보에 따라 배경 영상 레이어 상의 텍스쳐의 위치가 서로 달라질 수 있다. 예를 들어, 이동체가 왼쪽으로 이동하면 어느 하나의 텍스쳐는 상대적으로 오른쪽으로 이동하거나, 텍스쳐 간의 좌우가 달라질 수 있다. 이로써, 이동체에 대한 특정 시점에서의 배경 연출이 가능하다. In addition, when two or more textures are synthesized on the background image layer, the positions of the textures on the background image layer may vary according to the position information of the moving object. For example, when the moving object moves to the left, either texture may move to the right or the left and right of the textures may be different. As a result, background rendering at a specific point in time with respect to the moving object is possible.
연출 패턴 정보는 큐 시트(cue sheet) 데이터에 의해 결정될 수 있다. 큐 시트 데이터는 공연의 막 또는 장마다 등장하는 이동체의 수, 이동체에 대한 지정 텍스쳐 등에 대한 정보를 포함할 수 있다.The rendering pattern information may be determined by cue sheet data. The cue sheet data may include information about the number of moving objects, the designated textures for the moving objects, and the like, per film or chapter of the performance.
큐 시트 데이터는 표 1과 같을 수 있다.The cue sheet data may be as shown in Table 1.
표 1
이동체 정보 집합 연출 패턴 영역 설정
식별 정보 0x0001 연출패턴 추적 하트 연출 x :450 y :300불구덩이
식별 정보 0x0002 연출패턴 트래킹
Table 1
Mobile body information Set directing pattern Zone settings
Identifying information 0x0001 Direction Tracking Heart directing x: 450 y: 300 fire pit
Identifying information 0x0002 Direction Tracking
예를 들어, 주인공이 위험에 빠진 여주인공을 구출하는 상황을 가정할 수 있다. 여주인공은 식별 정보(0x0001)로 식별되고, 주인공은 식별 정보(0x0002)로 식별된다. 먼저, 여주인공이 등장하면 여주인공 위치에 대응하는 영상 레이어 상의 좌표에 광원 효과를 갖는 텍스쳐를 합성하여 여주인공이 빛 위에 서 있는 듯한 느낌이 들게 할 수 있다. 여주인공이 미리 지정된 좌표(x : 450, y :300)에 진입하면, 설정된 영역에 불구덩이 효과를 갖는 텍스쳐를 합성할 수 있으며, 여주인공이 위험에 빠진 연출 효과가 극대화된다. 이 때 주인공이 등장하여 여주인공을 구출할 수 있다. 주인공에게는 물결 효과를 갖는 텍스쳐가 주인공의 위치를 트래킹하도록 연출하여, 주인공의 등장 효과를 강조할 수 있다. 주인공이 여주인공과 일정 거리 내에 있으면, 하트 모양의 텍스쳐를 합성하여, 위기 상황에서 벗어난 두 주인공 간의 감정 표현을 극대화할 수 있다.For example, suppose the main character rescues a heroine in danger. The heroine is identified by identification information (0x0001), and the heroine is identified by identification information (0x0002). First, when the heroine appears, the texture having the light source effect may be synthesized with the coordinates on the image layer corresponding to the heroine position to make the heroine stand on the light. When the heroine enters the predetermined coordinates (x: 450, y: 300), the texture having the lameness effect can be synthesized in the set area, and the heroine is maximized in directing effect. At this time, the main character appears to rescue the heroine. For the main character, a texture with a wave effect can be directed to track the position of the main character, thereby emphasizing the effect of the main character. If the main character is within a certain distance from the heroine, the texture of the heart-shaped texture can be synthesized to maximize the expression of the emotion between the two main characters.
영상 출력부(118)는 텍스쳐가 합성된 영상 레이어를 무대 상에 출력하는 기능을 수행한다. 영상 출력부(118)는 무대 스테이지 또는 배경 스테이지에 영상 레이어를 투사하여 연기자가 무대 상에 투사되는 영상 레이어로 인한 그래픽 효과 공존하는 것처럼 연출할 수 있다. 영상 출력부(118)는 3차원 공간을 형성하는 각각의 스테이지들에 영상 레이어를 투사하도록 스테이지들의 수에 대응하여 설치될 수 있다. 무대의 크기가 큰 경우, 영상 출력부(118)는 무대를 2개 또는 4개의 영역으로 분할하여 각각의 영역에 영상 레이어를 투사하도록 구성될 수도 있다.The image output unit 118 outputs a texture-synthesized image layer on the stage. The image output unit 118 may project an image layer on a stage stage or a background stage to produce as if the actor coexists with the graphic effect due to the image layer projected on the stage. The image output unit 118 may be installed corresponding to the number of stages so as to project an image layer to respective stages forming a three-dimensional space. If the stage size is large, the image output unit 118 may be configured to project the image layer in each region by dividing the stage into two or four regions.
상술한 바와 같이, 본 발명의 무대 연출 시스템은 무대 상의 연기자의 연기에 감응하는 다양한 무대 연출 효과를 제공하여 관객들이 연기자의 연기에 몰입할 수 있을 뿐만 아니라 최소한의 영상 프로젝션 장치로도 극대화된 연출 효과를 제공할 수 있기 때문에 무대 설치에 드는 비용이 크게 절감되는 장점이 있다.As described above, the stage directing system of the present invention provides various stage directing effects in response to the acting of the performer on the stage, so that the audience can not only be immersed in the acting of the performer but also maximizes the directing effect with a minimum image projection apparatus. Because it can provide a significant cost savings in the installation stage.
도 2는 본 발명의 일 실시예에 따른 영상 레이어 및 연출 패턴을 설명하기 위한 도면이다. 도 2를 참조하면, 영상 처리부(116)에 의해 처리되는 영상 레이어 (202) 및 영상 레이어에 합성되는 텍스쳐(204)가 표시된다. 연출자 또는 무대 감독은 표시되는 영상 레이어를 통해 연출 상황을 모니터링하고, 상황에 맞는 연출 효과를 적용할 수 있다. 2 is a view for explaining an image layer and a direction pattern according to an embodiment of the present invention. Referring to FIG. 2, an image layer 202 processed by the image processor 116 and a texture 204 synthesized with the image layer are displayed. The director or stage director can monitor the production situation and apply the effect according to the situation through the displayed video layer.
영상 레이어(202)는 영상 출력부(118)를 통해 3차원 공간으로 구성되는 무대에 투사되며, 영상 레이어(202) 상에 합성되는 텍스쳐(204)가 무대 상에 표시된다. 영상 레이어(202) 상에 합성되는 텍스쳐(204)의 위치는 위치 획득부(112a, 112b, 112c, 112d)를 통해 전자 태그(108)로부터 획득된 이동체의 위치 정보, 식별 정보에 따라 결정될 수 있다.The image layer 202 is projected onto the stage composed of three-dimensional space through the image output unit 118, and the texture 204 synthesized on the image layer 202 is displayed on the stage. The position of the texture 204 synthesized on the image layer 202 may be determined according to the position information and the identification information of the moving object obtained from the electronic tag 108 through the position acquisition units 112a, 112b, 112c, and 112d. .
영상 처리부(116)는 Direct X 11, Vertex Shader와 같은 그래픽 인터페이스를 이용하여 영상 레이어(202) 상에 입체적인 그래픽 효과를 갖는 텍스쳐(204)를 합성하여 연출 효과를 극대화할 수 있다.The image processor 116 may maximize the rendering effect by synthesizing the texture 204 having a three-dimensional graphic effect on the image layer 202 using a graphic interface such as Direct X 11 or Vertex Shader.
이하, 도 3 내지 도 10을 참조하여 본 발명의 무대 연출 시스템이 제공하는 기능을 설명한다.Hereinafter, the functions provided by the stage rendering system of the present invention will be described with reference to FIGS. 3 to 10.
1. 이동체 추적 연출 기능1. Moving object tracking function
도 3은 본 발명의 이동체 추적 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 3을 참조하면, 텍스쳐는 이동체의 무대 상의 현재 위치에 대응하도록 영상 레이어(302) 상에 합성된다. 3 is a view for explaining the operation according to the moving object tracking direction pattern of the present invention. Referring to FIG. 3, the texture is synthesized on the image layer 302 to correspond to the current position on the stage of the moving object.
이동체가 무대 상의 제1 지점(304)에서 제2 지점(306)으로 이동하는 경우, 이동체의 현재 위치가 제1 지점(304)일 때 영상 처리부(116)는 이동체의 무대 상의 제1 지점(304)에 대응되는 영상 레이어 상의 좌표(304)에 텍스쳐를 합성한다. 이동체가 제2 지점(306)으로 이동하면, 영상 처리부(116)는 이동체의 무대 상의 제2 지점(306)에 대응되는 영상 레이어 상의 좌표(306)에 텍스쳐를 합성한다.When the moving object moves from the first point 304 on the stage to the second point 306, when the current position of the moving object is the first point 304, the image processing unit 116 moves to the first point 304 on the stage of the moving object. The texture is synthesized at the coordinates 304 on the image layer corresponding to When the moving object moves to the second point 306, the image processor 116 synthesizes the texture at coordinates 306 on the image layer corresponding to the second point 306 on the stage of the moving object.
그 결과, 무대 상의 이동체의 현재 위치에 대응하는 영상 레이어 상의 각각의 좌표(304, 306)에 텍스쳐가 합성되며, 그래픽 요소인 텍스쳐가 이동체를 추적하는 효과를 연출할 수 있다.As a result, a texture is synthesized at each of the coordinates 304 and 306 on the image layer corresponding to the current position of the moving object on the stage, and the texture, which is a graphic element, can produce the effect of tracking the moving object.
2. 이동체 트래킹 연출 기능2. Moving object tracking function
도 4는 본 발명의 이동체 트래킹 제1 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 4를 참조하면, 텍스쳐는 이동체의 무대 상의 이동 경로(406)에 대응하도록 영상 레이어(402) 상에 합성된다.4 is a view for explaining the operation according to the moving object tracking first direction pattern of the present invention. Referring to FIG. 4, the texture is synthesized on the image layer 402 to correspond to the movement path 406 on the stage of the moving object.
이동체가 무대에 진입하여 무대 상의 특정 지점(404)까지 이동하는 경우, 영상 처리부(116)는 이동체의 위치 정보를 이용하여 이동 경로(406)에 대한 각각의 좌표들을 기록할 수 있다. 영상 처리부(116)는 이동체의 이동 경로(406)에 대응되는 영상 레이어 상의 좌표 또는 영역(406)에 텍스쳐를 합성한다. When the moving object enters the stage and moves to a specific point 404 on the stage, the image processor 116 may record respective coordinates of the moving path 406 using the position information of the moving object. The image processor 116 synthesizes the texture in the coordinates or the region 406 on the image layer corresponding to the moving path 406 of the moving object.
그 결과, 무대 상의 이동체의 이동 경로 상에 특정 그래픽 요소가 연출될 수 있다. 예를 들어, 이동체가 이동하는 경로가 불타는 듯한 화염 텍스쳐를 합성하여 이동체의 극중 성격을 극대화시킬 수 있다.As a result, specific graphic elements can be rendered on the movement path of the moving object on the stage. For example, it is possible to maximize the character of the moving object by synthesizing a flame texture in which the path of the moving object appears to be burning.
도 5는 본 발명의 이동체 트래킹 제2 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 5를 참조하면, 텍스쳐는 영상 레이어의 임의의 지점(본 실시예에서는 양 하단 정점들로 지정된다) 및 이동체의 현재 위치가 형성하는 영역에 합성된다.5 is a view for explaining an operation according to the moving object tracking second direction pattern of the present invention. Referring to FIG. 5, the texture is synthesized in an area formed by an arbitrary point of the image layer (designated as both bottom vertices in this embodiment) and the current position of the moving object.
이동체가 무대에 진입하여 무대 상의 제1 지점(504)에서 제2 지점(508)으로 이동하는 경우, 이동체의 무대 상의 현재 위치가 제1 지점(504)일 때 영상 처리부(116)는 무대의 하단 양 정점들과 제1 지점(504)이 형성하는 삼각 형태의 영역(506)에 텍스쳐를 합성한다. 이동체가 제1 지점(504)에서 제2 지점(508)으로 이동하면, 영상 처리부(116)는 무대의 하단 양 정점들과 제2 지점(508)이 형성하는 삼각 형태의 영역(506)에 텍스쳐를 합성한다.When the moving object enters the stage and moves from the first point 504 to the second point 508 on the stage, when the current position on the stage of the moving object is the first point 504, the image processor 116 moves to the bottom of the stage. The texture is synthesized in the triangular region 506 formed by both vertices and the first point 504. When the moving object moves from the first point 504 to the second point 508, the image processor 116 may texture the triangular area 506 formed by the lower vertices of the stage and the second point 508. Synthesize.
그 결과, 이동체의 무대 상의 현재 위치에 따라 임의의 지점들과 형성하는 영역이 변화할 수 있으며, 특정 영역이 이동체를 추적하는 듯한 효과를 연출할 수 있다.As a result, arbitrary points and the area to be formed may change according to the current position on the stage of the moving object, and the specific area may produce the effect of tracking the moving object.
3. 특정 영역 인식 연출 기능3. Specific area recognition directing function
도 6은 본 발명의 영역 인식 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 6을 참조하면, 텍스쳐는 무대 상의 이동체가 미리 설정된 특정 영역(606) 내에 진입하면 특정 영역(606)에 대응되는 영상 레이어(602) 상의 영역(606) 또는 이동체의 특정 영역 내의 현재 위치에 합성된다. 이 때, 텍스쳐는 미리 설정된 특정 영역에 대응되는 특수한 효과를 연출하는 특정 영역 밖에서의 텍스쳐(604)와 서로 다른 텍스쳐(608)일 수 있다. 텍스쳐는 특정 영역(606) 전체에 걸쳐서 합성되거나 특정 영역(606) 중 일부 영역에만 합성될 수 있다.6 is a view for explaining an operation according to the area recognition direction pattern of the present invention. Referring to FIG. 6, the texture is synthesized at the current position in the region 606 on the image layer 602 or the specific region of the movable body corresponding to the specific region 606 when the movable body on the stage enters the predetermined specific region 606. do. In this case, the texture may be a texture 608 that is different from the texture 604 outside the specific region that produces a special effect corresponding to the preset specific region. The texture may be synthesized throughout the particular region 606 or only to some of the specific regions 606.
영상 처리부(116)는 이동체의 현재 위치 위치 정보가 미리 설정된 영상 레이어 상의 특정 영역(606) 내에 진입되면, 영상 레이어(602) 상의 특정 영역(606) 또는 이동체의 현재 위치 정보에 대응되는 영상 레이어 상의 좌표에 진입 전의 텍스쳐와 서로 다른 텍스쳐(608)를 합성한다.When the current position location information of the moving object enters the specific area 606 on the preset image layer, the image processing unit 116 is located on the specific layer 606 on the image layer 602 or on the image layer corresponding to the current location information of the moving object. The texture before entering the coordinates and a different texture 608 are synthesized.
그 결과, 이동체가 미리 정해진 특정 영역 내에 진입하는 경우 특정 영역을 강조하는 효과를 연출할 수 있다. 예를 들어, 주인공이 함정에 빠지거나 물에 빠지는 상황을 효과적으로 연출할 수 있다.As a result, when the moving object enters a predetermined specific area, an effect of emphasizing the specific area can be produced. For example, you can effectively create situations where the main character falls into a trap or falls into the water.
4. 이동 중 정치 연출 기능4. Political presentation on the go
도 7은 본 발명의 이동 중 정지 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 7을 참조하면, 무대 상의 이동체가 이동 중에 정지하면, 이동 중의 텍스쳐와 서로 다른 텍스쳐가 이동체의 현재 위치에 대응되는 영상 레이어 상의 좌표에 합성된다.7 is a view for explaining the operation according to the stop direction pattern during movement of the present invention. Referring to FIG. 7, when the moving object on the stage stops during the movement, a texture different from the moving texture is combined with coordinates on the image layer corresponding to the current position of the moving object.
영상 처리부(116)는 이동체의 위치 정보를 모니터링하여, 이동체의 현재 위치 정보에 변화가 없으면, 이동체의 현재 위치 정보에 대응되는 영상 레이어 상의 좌표에 이동 중에 텍스쳐와 서로 다른 텍스쳐를 합성한다.The image processor 116 monitors the position information of the moving object and, if there is no change in the current position information of the moving object, synthesizes a texture and a different texture during movement to coordinates on the image layer corresponding to the current position information of the moving object.
그 결과, 연기자가 이동 중에 정지하면 새로운 그래픽 효과가 연출됨으로써 연기자의 작은 제스쳐에도 극대화된 시각적인 연출이 가능하다.As a result, when the performer stops while moving, a new graphic effect is produced, thereby maximizing visual presentation even with the small gesture of the performer.
5. 집합 연출 기능5. assembly rendering function
도 8은 하나 이상의 이동체에 대한 영상 레이어 및 연출 패턴을 설명하기 위한 도면이다. 도 8을 참조하면, 무대 상에 하나 이상의 이동체가 등장하는 경우의 영상 레이어(802) 및 영상 레이어(802)에 합성되는 텍스쳐들(804, 808)이 나타난다.FIG. 8 is a diagram for describing an image layer and a rendering pattern for one or more moving objects. Referring to FIG. 8, the image layer 802 and the textures 804 and 808 synthesized to the image layer 802 when one or more moving objects appear on the stage are shown.
위치 획득부는 하나 이상의 이동체에 부착되는 전자 태그로부터 식별 정보 및 위치 정보를 획득할 수 있다. 영상 처리부(116)는 무대 상의 각각의 이동체에 대한 위치 정보 및 식별 정보를 포함하는 고유 정보(806, 810)를 이용하여 영상 레이어 상에 텍스쳐를 합성할 수 있다. 영상 레이어(802) 상의 제1 이동체의 현재 위치(804)에 대응하는 좌표(804) 및 제2 이동체의 현재 위치(804)에 대응하는 좌표(808)에는 서로 다른 텍스쳐가 합성되며, 각각의 이동체들은 식별 정보를 통해 구별될 수 있다.The location obtaining unit may obtain identification information and location information from an electronic tag attached to one or more moving objects. The image processor 116 may synthesize a texture on an image layer by using unique information 806 and 810 including position information and identification information of each moving object on the stage. Different textures are synthesized in the coordinates 804 corresponding to the current position 804 of the first moving object and the coordinates 808 corresponding to the current position 804 of the second moving object on the image layer 802. Can be distinguished through identification information.
그 결과, 종래의 무대 바닥에 설치되는 센서를 이용하여 연기자의 위치를 획득하는 무대 연출 장치 등에 비해 본 발명은 각각의 연기자마다 서로 다른 효과를 연출할 수 있어 연기자의 연기가 다양해질 수 있다.As a result, the present invention can produce a different effect for each performer as compared to a stage directing device for acquiring the position of the performer using a sensor installed on the floor of the conventional stage can be a variety of acting of the performer.
도 9는 본 발명의 집합 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 9를 참조하면, 무대 상의 하나 이상의 이동체들이 일정 거리 내에 모이면 모여있는 이동체들을 강조하는 효과를 갖는 텍스쳐가 영상 레이어 상에 합성된다.9 is a view for explaining the operation according to the collective direction pattern of the present invention. Referring to FIG. 9, when one or more moving objects on the stage are gathered within a certain distance, a texture having an effect of emphasizing the moving moving objects is synthesized on the image layer.
영상 처리부(116)는 식별 정보 및 위치 정보를 기초로 계산된 이동체들 간의 거리가 일정 거리 이내이면, 이동체들 각각의 현재 위치 정보에 대응되는 영상 레이어(902) 상의 좌표들이 포함되는 집합 영역(912) 상에 텍스쳐를 합성할 수 있다. 이 때, 텍스쳐는 연기자들이 모였을 때에만 연출되는 그래픽 효과일 수 있다. If the distance between the moving objects calculated based on the identification information and the location information is within a certain distance, the image processing unit 116 includes an aggregation area 912 including coordinates on the image layer 902 corresponding to the current position information of each of the moving objects. You can synthesize the texture on At this time, the texture may be a graphic effect that is produced only when the actors gather.
즉, 무대 상에 제1 이동체, 제2 이동체, 제3 이동체, 제4 이동체가 등장하면 각각의 이동체들은 식별 정보를 통해 구별될 수 있고, 이동체들 각각의 위치에 대응하는 영상 레이어 상의 좌표들에는 텍스쳐가 합성될 수 있다. 예를 들어, 제2 이동체(906), 제3 이동체(908), 제4 이동체(910)가 일정 거리 이내로 모이면 제2 이동체(906), 제3 이동체(908), 제4 이동체(910) 각각의 현재 위치 정보에 대응되는 영상 레이어(902) 상의 좌표들을 포함하는 집합 영역(912)에 텍스쳐(912)를 합성할 수 있다.That is, when the first mobile body, the second mobile body, the third mobile body, and the fourth mobile body appear on the stage, the respective mobile bodies can be distinguished through the identification information, and the coordinates on the image layer corresponding to each position of the mobile bodies Textures can be synthesized. For example, when the second mobile body 906, the third mobile body 908, and the fourth mobile body 910 are assembled within a predetermined distance, the second mobile body 906, the third mobile body 908, and the fourth mobile body 910 are located. The texture 912 may be synthesized in the aggregation area 912 including coordinates on the image layer 902 corresponding to each current location information.
그 결과, 연기자들이 모였을 때 새로운 그래픽 효과가 연출됨으로써 연기자들의 작은 제스쳐에도 극대화된 시각적인 연출이 가능하다.As a result, when the actors gather, new graphic effects are produced to maximize the visual appearance of the actors' small gestures.
6. 배경 연출 기능6. Background rendering function
도 10은 본 발명의 배경 연출 패턴에 따른 동작을 설명하기 위한 도면이다. 도 10을 참조하면, 무대의 배경을 구성하는 배경 영상 레이어에는 이동체의 위치에 따라 크기 및 위치가 조정되는 텍스쳐가 합성된다.10 is a view for explaining the operation according to the background rendering pattern of the present invention. Referring to FIG. 10, a texture whose size and position are adjusted according to the position of the moving object is synthesized in the background image layer constituting the background of the stage.
영상 처리부는 이동체의 위치 정보를 기반으로 이동체에 대한 특정 시점에서의 크기 또는 위치를 갖도록 배경 영상 레이어 상에 텍스쳐를 합성할 수 있다. 예를 들어, 배경 스테이지에 출력되는 배경 영상 레이어에는 집과 나무를 표현하는 텍스쳐가 합성될 수 있다. The image processor may synthesize a texture on the background image layer to have a size or a position at a specific point in time with respect to the moving object based on the position information of the moving object. For example, a texture representing a house and a tree may be synthesized in the background image layer output to the background stage.
예를 들어, 이동체가 배경 스테이지에 접근하기 전의 장면(1002)과 배경 스테이지에 접근한 후의 장면(1014)을 비교하면, 이동체가 배경 스테이지로부터 멀리 떨어져 있는 위치(1006)의 시점에서, 배경 스테이지에 합성되는 텍스쳐(1004)의 크기는 작게 조정되지만, 이동체가 배경 스테이지에 가깝게 접근한 위치(1016)의 시점에서, 배경 스테이지에 합성되는 텍스쳐(1018)의 크기는 크게 조정된다.For example, comparing the scene 1002 before the moving object approaches the background stage and the scene 1014 after approaching the background stage, the moving object is moved to the background stage at a point of view 1006 away from the background stage. While the size of the texture 1004 to be synthesized is adjusted to be small, at the point of view 1016 where the moving object approaches the background stage, the size of the texture 1018 to be synthesized to the background stage is adjusted.
또 다른 예에서, 이동체가 배경 스테이지를 향한 방향에서 왼쪽으로 이동하면 나무를 표현하는 텍스쳐(1010) 및 집을 표현하는 텍스쳐(1025)는 이동체의 시점의 이동에 따라 상대적으로 오른쪽으로 이동하도록 조정된다. 이 경우, 이동체가 왼쪽으로 이동함과 동시에 배경 스테이지에 가깝게 접근하면, 이동체의 위치(1022)의 시점에서의 크기를 갖도록 나무를 표현하는 텍스쳐(1024)의 크기가 크게 조정될 수 있다.In another example, when the moving object moves to the left in the direction toward the background stage, the texture 1010 representing the tree and the texture 1025 representing the house are adjusted to move to the right relative to the movement of the viewpoint of the moving object. In this case, when the moving object moves to the left and close to the background stage, the size of the texture 1024 representing the tree may be largely adjusted to have a size at the viewpoint of the position 1022 of the moving object.
그 결과, 무대 상의 연기자의 위치에 감응하는 배경 효과를 연출할 수 있고, 관객에게 보다 입체감있고 사실적인 연출 효과를 제공할 수 있다. As a result, it is possible to produce a background effect in response to the position of the performer on the stage, and to provide a more three-dimensional and realistic rendering effect to the audience.
상술한 기능들은 예시적인 것이며, 본 발명의 범위 내에서 이동체의 위치를 기반으로 하여 커스텀 효과를 제공하도록 응용될 수 있다.The above functions are exemplary and can be applied to provide a custom effect based on the position of the moving object within the scope of the present invention.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by.

Claims (12)

  1. 하나 이상의 이동체에 부착되는 전자 태그로부터 위치 정보를 획득하는 위치 획득부;A position obtaining unit obtaining position information from an electronic tag attached to at least one moving object;
    미리 정해진 연출 패턴 정보에 따라 상기 위치 정보를 기반으로 영상 레이어 상에 텍스쳐를 합성하는 영상 처리부;An image processor for synthesizing a texture on an image layer based on the position information according to predetermined direction pattern information;
    상기 영상 레이어를 출력하는 영상 출력부Image output unit for outputting the image layer
    를 포함하는 무대 연출 시스템. Stage production system comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보는 큐시트(cue sheet) 데이터에 의해 결정되는The rendering pattern information is determined by cue sheet data.
    무대 연출 시스템.Stage rendering system.
  3. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보가 이동체 추적 연출 패턴 정보인 경우,When the direction pattern information is moving object tracking direction pattern information,
    상기 영상 처리부는The image processor
    상기 이동체의 현재 위치 정보에 대응되는 상기 영상 레이어 상의 좌표에 상기 텍스쳐를 합성하는Comprising the texture to the coordinates on the image layer corresponding to the current position information of the moving object
    무대 연출 시스템.Stage rendering system.
  4. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보가 이동체 트래킹 제1 연출 패턴 정보인 경우,When the direction pattern information is moving object tracking first direction pattern information,
    상기 영상 처리부는The image processor
    상기 이동체의 이동 경로에 대응되는 상기 영상 레이어 상의 좌표에 상기 텍스쳐를 합성하는Comprising the texture to the coordinates on the image layer corresponding to the moving path of the moving object
    무대 연출 시스템.Stage rendering system.
  5. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보가 이동체 트래킹 제2 연출 패턴 정보인 경우,When the direction pattern information is moving object tracking second direction pattern information,
    상기 영상 처리부는The image processor
    상기 영상 레이어의 제1 지점, 제2 지점 및 상기 이동체의 현재 위치 정보에 대응되는 상기 영상 레이어의 좌표가 형성하는 영역에 상기 텍스쳐를 합성하는Comprising the texture in the area formed by the coordinates of the image layer corresponding to the first point, the second point and the current position information of the moving object of the image layer
    무대 연출 시스템. Stage rendering system.
  6. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보가 영역 인식 연출 패턴 정보 정보인 경우,When the direction pattern information is area recognition direction pattern information information,
    상기 영상 처리부는The image processor
    상기 이동체의 현재 위치 정보가 미리 설정된 상기 영상 레이어 상의 특정 영역 내에 진입되면, When the current position information of the moving object enters a specific area on the preset image layer,
    상기 영상 레이어 상의 상기 특정 영역 또는 상기 이동체의 현재 위치 정보에 대응되는 상기 영상 레이어 상의 좌표에 진입 전의 텍스쳐와 서로 다른 텍스쳐를 합성하는Comprising a texture before the entry into the coordinates on the image layer corresponding to the current position information of the specific area or the moving object on the image layer
    무대 연출 시스템.Stage rendering system.
  7. 제1항에 있어서,The method of claim 1,
    상기 연출 패턴 정보가 이동 중 정지 연출 패턴 정보인 경우,When the direction pattern information is the stop direction pattern information while moving,
    상기 영상 처리부는The image processor
    상기 이동체의 현재 위치 정보에 변화가 없으면,If there is no change in the current position information of the moving object,
    상기 이동체의 현재 위치 정보에 대응되는 상기 영상 레이어 상의 좌표에 이동 중의 텍스쳐와 서로 다른 텍스쳐를 합성하는Comprising a texture in motion and a different texture to the coordinates on the image layer corresponding to the current position information of the moving object
    무대 연출 시스템.Stage rendering system.
  8. 제1항에 있어서,The method of claim 1,
    상기 영상 처리부는The image processor
    이동체 추적 연출 패턴 정보, 이동체 트래킹 제1 연출 패턴 정보, 이동체 트래킹 제2 연출 패턴 정보, 영역 인식 연출 패턴 정보, 이동 중 정지 연출 패턴 정보 중 적어도 하나의 패턴에 따라 상기 영상 레이어 상의 좌표 또는 영역에 텍스쳐를 합성하는Texture at a coordinate or area on the image layer according to at least one of moving object tracking direction pattern information, moving object tracking first direction pattern information, moving object tracking second direction pattern information, region recognition direction pattern information, and stationary direction direction pattern information during movement. To synthesize
    무대 연출 시스템.Stage rendering system.
  9. 제1항에 있어서,The method of claim 1,
    상기 위치 획득부는The position acquisition unit
    하나 이상의 이동체들에 부착되는 전자 태그로부터 식별 정보를 획득하고,Obtaining identification information from an electronic tag attached to one or more moving objects,
    상기 영상 처리부는 The image processor
    상기 식별 정보에 따라 상기 위치 정보를 기반으로 상기 영상 레이어 상의 각각의 좌표에 서로 다른 텍스쳐를 합성하는Comprising a different texture to each coordinate on the image layer based on the position information according to the identification information
    무대 연출 시스템.Stage rendering system.
  10. 제9항에 있어서,The method of claim 9,
    상기 연출 패턴 정보가 집합 연출 패턴 정보인 경우,When the direction pattern information is the group direction pattern information,
    상기 영상 처리부는The image processor
    상기 식별 정보 및 상기 위치 정보를 기초로 계산된 상기 이동체들 간의 거리가 일정 거리 이내이면, 상기 이동체들 각각의 현재 위치 정보에 대응되는 상기 영상 레이어 상의 좌표들을 포함하는 집합 영역에 텍스쳐를 합성하는When the distance between the moving objects calculated on the basis of the identification information and the position information is within a certain distance, a texture is synthesized in an aggregation area including coordinates on the image layer corresponding to current position information of each of the moving objects.
    무대 연출 시스템.Stage rendering system.
  11. 제1항에 있어서,The method of claim 1,
    상기 영상 레이어는 무대의 배경을 구성하는 배경 영상 레이어를 포함하고,The image layer includes a background image layer constituting the background of the stage,
    상기 영상 처리부는The image processor
    미리 정해진 연출 패턴 정보에 따라 상기 위치 정보를 기반으로 상기 배경 영상 레이어 상에 텍스쳐를 합성하는Comprising a texture on the background image layer based on the position information according to the predetermined direction pattern information
    무대 연출 시스템.Stage rendering system.
  12. 제11항에 있어서,The method of claim 11,
    상기 연출 패턴 정보가 배경 연출 패턴 정보인 경우,When the direction pattern information is the background direction pattern information,
    상기 영상 처리부는The image processor
    상기 위치 정보를 기반으로 상기 이동체에 대한 특정 시점에서의 크기 또는 위치를 갖도록 상기 배경 영상 레이어 상에 텍스쳐를 합성하는Comprising a texture on the background image layer to have a size or position at a specific point in time with respect to the moving object based on the position information
    무대 연출 시스템.Stage rendering system.
PCT/KR2014/002075 2014-03-03 2014-03-12 Stage display system WO2015133669A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0025191 2014-03-03
KR1020140025191A KR20150103791A (en) 2014-03-03 2014-03-03 Stage direction system

Publications (1)

Publication Number Publication Date
WO2015133669A1 true WO2015133669A1 (en) 2015-09-11

Family

ID=54055460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/002075 WO2015133669A1 (en) 2014-03-03 2014-03-12 Stage display system

Country Status (2)

Country Link
KR (1) KR20150103791A (en)
WO (1) WO2015133669A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108513414A (en) * 2018-03-26 2018-09-07 中国地质大学(武汉) A kind of stage follow spotlight system and method for focus autotracking
EP4163757A4 (en) * 2020-06-03 2023-11-29 Guangzhou Haoyang Electronic Co., Ltd. Automatic control system for follow spotlight, and automatic control method for follow spotlight

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109204106B (en) * 2018-08-27 2020-08-07 浙江大丰实业股份有限公司 Stage equipment moving system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264321A (en) * 2007-04-23 2008-11-06 Takahiro Matsuo Performance device and its performance method
KR20100073076A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Education apparatus and method using virtual reality
KR20100121213A (en) * 2009-05-08 2010-11-17 엘피엠테크놀로지 주식회사 Method and apparatus for stage effect based on the location of actors
KR101197126B1 (en) * 2010-11-11 2012-11-07 한국과학기술원 Augmented reality system and method of a printed matter and video
KR101242089B1 (en) * 2012-04-27 2013-03-11 (주)린소프트 Interactive stage system apatrtus and simulation method of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264321A (en) * 2007-04-23 2008-11-06 Takahiro Matsuo Performance device and its performance method
KR20100073076A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Education apparatus and method using virtual reality
KR20100121213A (en) * 2009-05-08 2010-11-17 엘피엠테크놀로지 주식회사 Method and apparatus for stage effect based on the location of actors
KR101197126B1 (en) * 2010-11-11 2012-11-07 한국과학기술원 Augmented reality system and method of a printed matter and video
KR101242089B1 (en) * 2012-04-27 2013-03-11 (주)린소프트 Interactive stage system apatrtus and simulation method of the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108513414A (en) * 2018-03-26 2018-09-07 中国地质大学(武汉) A kind of stage follow spotlight system and method for focus autotracking
CN108513414B (en) * 2018-03-26 2023-12-19 中国地质大学(武汉) Stage light-following lamp system and method with self-tracking focus
EP4163757A4 (en) * 2020-06-03 2023-11-29 Guangzhou Haoyang Electronic Co., Ltd. Automatic control system for follow spotlight, and automatic control method for follow spotlight

Also Published As

Publication number Publication date
KR20150103791A (en) 2015-09-14

Similar Documents

Publication Publication Date Title
US20170364752A1 (en) Sound and video object tracking
CN110121695B (en) Apparatus in a virtual reality domain and associated methods
CN105278905B (en) Apparatus and method for displaying object having visual effect
CN107507243A (en) A kind of camera parameters method of adjustment, instructor in broadcasting's video camera and system
US20120069180A1 (en) Information presentation apparatus
WO2013141522A1 (en) Karaoke and dance game
CN110013678A (en) Immersion interacts panorama holography theater performance system, method and application
JPWO2008081780A1 (en) Viewing environment control device, viewing environment control system, and viewing environment control method
CN106030665A (en) Creating a realistic color for a virtual object in an augmented reality environment
CN110333837B (en) Conference system, communication method and device
CN102903144A (en) Cloud computing based interactive augmented reality system implementation method
WO2009003011A1 (en) Digital image projection system
US20110001935A1 (en) Digital image projection system
WO2016182167A1 (en) Device for implementing three-dimensionalization of planar design
WO2015133669A1 (en) Stage display system
CN109640070A (en) A kind of stereo display method, device, equipment and storage medium
WO2019123509A1 (en) Terminal device, system, program and method
CN106454251A (en) Real-time holographic image acquisition and projection apparatus and method based on depth image
KR20150072954A (en) Method and Apparatus for Providing Augmented Reality Service
CN107368491B (en) Image making system and method
CN103841299A (en) Virtual studio system
CN111698391B (en) Method for controlling real-time change of light parameters through simulated environment light parameters
CN108475103A (en) Interactive display
CN109413364A (en) A kind of interactive remote meeting system and method
AU2020277170B2 (en) Realistic illumination of a character for a scene

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14884340

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 13/01/2017)

122 Ep: pct application non-entry in european phase

Ref document number: 14884340

Country of ref document: EP

Kind code of ref document: A1