WO2024028997A1 - 光演出システム、光演出方法、プログラム、制御装置及び発光装置 - Google Patents

光演出システム、光演出方法、プログラム、制御装置及び発光装置 Download PDF

Info

Publication number
WO2024028997A1
WO2024028997A1 PCT/JP2022/029730 JP2022029730W WO2024028997A1 WO 2024028997 A1 WO2024028997 A1 WO 2024028997A1 JP 2022029730 W JP2022029730 W JP 2022029730W WO 2024028997 A1 WO2024028997 A1 WO 2024028997A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
projection
dimensional
data
light emitting
Prior art date
Application number
PCT/JP2022/029730
Other languages
English (en)
French (fr)
Inventor
宏勲 中原
悟崇 奥田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2022579908A priority Critical patent/JP7292542B1/ja
Priority to PCT/JP2022/029730 priority patent/WO2024028997A1/ja
Publication of WO2024028997A1 publication Critical patent/WO2024028997A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present disclosure relates to a light production system, a light production method, a program, a control device, and a light emitting device.
  • Light production systems are widely used that project various contents such as images onto buildings, structures, etc. by installing multiple light emitting devices in buildings, structures, etc. and controlling the light emitting devices.
  • Patent Document 1 is an image projection system that projects content onto a group of window glasses of a building, and is used to identify the layout (position, horizontal size, vertical size) of each window glass included in a predetermined area on the exterior of the building.
  • a reference point (origin) and reference axes (x-axis, y-axis) are defined, and one image is divided into multiple divided images based on the position and size of each windowpane indicated by the xy coordinates.
  • Patent Document 1 when projecting content onto a projection target that has a three-dimensional shape and is arranged in a three-dimensional space, the three-dimensional layout information of the projection target is not sufficiently taken into consideration. There was a problem in that it was difficult to properly project content onto multiple projection targets.
  • the present disclosure has been made to solve the above-mentioned problems, and aims to provide a light production system that can appropriately project content onto a projection target having a three-dimensional shape arranged in a three-dimensional space. .
  • a light production system includes a plurality of light emitting devices installed corresponding to a plurality of projection objects having three-dimensional shapes arranged in a three-dimensional space, and stores three-dimensional arrangement information of the plurality of projection objects.
  • a 3D information storage unit that generates 2D layout information for a plurality of projection targets from the 3D layout information stored in the 3D information storage unit; and 2D layout information generated by the data generation unit.
  • a data calculation unit that divides one video data made up of multiple pixels into multiple divided video data, and a plurality of light emitting devices, project the multiple divided video data onto multiple projection targets. and a light emitting device control section that controls the light emitting device to perform the control.
  • a control device includes a three-dimensional information storage unit that stores three-dimensional arrangement information of a plurality of projection targets having three-dimensional shapes arranged in a three-dimensional space, and a three-dimensional A data generation unit that generates two-dimensional placement information of multiple projection targets from placement information, and a data generation unit that uses the two-dimensional placement information generated by the data generation unit to divide one video data consisting of a plurality of pixels into multiple pieces.
  • a data calculation unit that divides into video data; a light emitting device control unit that controls the plurality of divided video data to be projected onto the plurality of projection targets via the plurality of light emitting devices respectively corresponding to the plurality of projection targets; Equipped with
  • the light production method includes a three-dimensional information storage step for storing three-dimensional arrangement information of a plurality of projection targets having three-dimensional shapes arranged in a three-dimensional space; A data generation step that generates two-dimensional placement information of a plurality of projection targets from the dimensional placement information, and a data generation step that uses the two-dimensional placement information generated in the data generation step to convert one video data consisting of a plurality of pixels into a plurality of pieces of image data. a data calculation step of dividing into divided video data; and a light emitting device control step of controlling the plurality of divided video data to be projected onto the plurality of projection targets via the plurality of light emitting devices respectively corresponding to the plurality of projection targets. , is provided.
  • a program includes a three-dimensional information storage step for storing three-dimensional arrangement information of a plurality of projection targets having three-dimensional shapes arranged in a three-dimensional space, and a three-dimensional arrangement stored in the three-dimensional information storage step.
  • a data generation step that generates two-dimensional placement information of multiple projection targets from the information, and one image data composed of a plurality of pixels is converted into multiple divided images using the two-dimensional placement information generated in the data generation step.
  • a light emitting device includes a light source, a three-dimensional information storage unit that stores three-dimensional arrangement information of a plurality of projection targets having three-dimensional shapes arranged in a three-dimensional space, and a three-dimensional information storage unit that stores A data generation section that generates two-dimensional placement information of a plurality of projection targets from the three-dimensional placement information, and a piece of video data consisting of a plurality of pixels using the two-dimensional placement information generated by the data generation section.
  • a data calculation unit that divides the divided video data into a plurality of divided video data, and a light emitting device control unit that controls the plurality of divided video data to be projected onto a plurality of projection targets.
  • the apparatus includes a communication control section that acquires divided video data from a device control section, and a lighting control section that controls a light source so as to project the divided video data stored in the communication control section onto a projection target.
  • content can be appropriately projected onto a projection target having a three-dimensional shape arranged in a three-dimensional space.
  • FIG. 1 is a diagram illustrating an application example of the light production system according to Embodiment 1.
  • FIG. 1 is a diagram illustrating an application example of the light production system according to Embodiment 1.
  • FIG. 1 is a diagram showing a schematic configuration of a light production system according to Embodiment 1.
  • FIG. 1 is a diagram showing a hardware configuration of a control device according to Embodiment 1.
  • FIG. A diagram showing a schematic configuration of a light production system according to Embodiment 1 1 is a diagram showing a schematic configuration of a light emitting device according to Embodiment 1.
  • FIG. 3 is a flowchart showing a processing flow of the light production system according to Embodiment 1.
  • FIG. FIG. 3 is a diagram showing intermediate data generated by the data generation unit according to the first embodiment.
  • FIG. 3 is a diagram showing intermediate data generated by the data generation unit according to the first embodiment.
  • 5 is a diagram illustrating an example of processing unprocessed video data using video processing instructions according to the first embodiment;
  • FIG. 3 is a diagram illustrating processing contents of a data calculation unit according to the first embodiment.
  • FIG. 3 is a diagram illustrating processing contents of a data calculation unit according to the first embodiment.
  • FIG. 3 is a diagram illustrating processing contents of a data calculation unit according to the first embodiment.
  • Embodiment 1 The light production system 100 in this embodiment will be explained using FIGS. 1 to 13. In this embodiment, as an example, a case will be described in which the light production system 100 is applied to a light production system 100 that projects images onto spectator seats 3 installed in an outfield stand 2 of a stadium 1, as shown in FIG.
  • the audience seats 3 are comprised of seats 7-1 to 7-n, each having a backrest 8 including a front surface 9 and a back surface 10, and a seat portion 11 including a top surface 12.
  • Light-emitting devices 5-1 to 5-n that emit light are installed on the back surface 10 of the backrest section 8 of one of the seats 7-1 to 7-n, and the other seat 7 corresponds to the back surface 10 of the backrest section 8.
  • the front surface 9 of the backrest 8 of -1 to 7-n is the projection target 6-1 to 6-n of the light emitting devices 5-1 to 5-n arranged on one of the seats 7-1 to 7-n. Become. There is a one-to-one correspondence between the light emitting devices 5-1 to 5-n and the projection objects 6-1 to 6-n.
  • n is the number of light emitting devices 5-1 to 5-n, projection objects 6-1 to 6-n, and seats 7-1 to 7-n, and is an integer of 2 or more.
  • the light emitting devices 5-1 to 5-n emit light to corresponding projection targets 6-1 to 6-n, respectively.
  • the light emitting devices 5-1 to 5-n, the projection objects 6-1 to 6-n, and the seats 7-1 to 7-n will be described as the light emitting device 5, the projection object 6, and the seat 7, respectively.
  • the light production system 100 installs light emitting devices 5-1 to 5-n so as to irradiate light onto the audience seats 3 arranged in the stadium 1, and projects light onto the audience seats 3.
  • the control device 20 controls the light emitting devices 5-1 to 5-n to display the video 4 called HOMERUN on the audience seats 3 and perform a light effect.
  • n forms horizontally linear or curved rows, and the plurality of horizontally formed rows are arranged in a stepwise manner.
  • the light production system 100 includes a data input section 21 into which information necessary for controlling the light emitting device 5 is input, and information necessary for controlling the light emitting device 5 input to the data input section 21.
  • a control device 20 that controls the light emitting device 5 using the light emitting device 5; a light emitting device 5 that is controlled by the control device 20 and projects an image onto the projection target 6 by emitting light; a projection target 6 on which the image is projected;
  • the control device 20 and the light emitting device 5 are connected via a network.
  • the control device 20 includes a data acquisition section 22, a data storage section 23, a processing section 24, and a light emitting device control section 25.
  • the processing section 24 includes a data generation section 26, a video data processing section 27, and a data calculation section 28.
  • FIG. 4 is a diagram showing the hardware configuration of the control device 20 in this embodiment.
  • the control device 20 is configured to include a transmitting/receiving device 29, a processor (CPU: Central Processing Unit) 30, a memory (ROM: Read Only Memory) 31, and a memory (RAM: Random Access Memory) 32.
  • the control device 20 controls the light emitting device 5 by the processor 30 processing a program stored in a memory in advance.
  • various functional modules are realized by the processor 30 executing a predetermined program stored in the memory.
  • the functional module includes a processing section 24 and a light emitting device control section 25.
  • the memory 31 and the memory 32 include a data storage section 23.
  • the transmitting/receiving device 29 includes a data acquisition section 22 .
  • each functional module of the control device 20 may be realized by the processor 30 executing software processing according to a preset program as described above, or the function corresponding to each functional module may be realized at least in part. It may also be configured to perform predetermined numerical/logical calculation processing using hardware such as an electronic circuit.
  • the data input unit 21 receives information necessary for the control device 20 to control the light emitting device 5 through presetting, human input, etc.
  • the data acquisition unit 22 receives information input to the data input unit 21.
  • the control device 20 acquires the information necessary for controlling the light emitting device 5, and the data storage section 23 stores the information necessary for the control device 20 output from the data acquisition section 22 to control the light emitting device 5. Store.
  • the data input section 21 includes an unprocessed video data input section 40A, a video processing instruction input section 41A, a three-dimensional information input section 42A, a divided video data correction information input section 43A, and a projection target information input section 44A.
  • the data acquisition section 22 includes an unprocessed video data acquisition section 40B, a video processing instruction acquisition section 41B, a three-dimensional information acquisition section 42B, a divided video data correction information acquisition section 43B, and a projection target information acquisition section 44B.
  • the data storage unit 23 includes an unprocessed video data storage unit 40C, a video processing instruction storage unit 41C, a three-dimensional information storage unit 42C, a divided video data correction information storage unit 43C, and a projection target information storage unit 44C.
  • the unprocessed video data input unit 40A receives unprocessed video data, which is video data before performing video processing, and the unprocessed video data acquisition unit 40B receives the unprocessed video data input unit.
  • the unprocessed video data inputted to the unprocessed video data storage unit 40C is acquired, and the unprocessed video data storage unit 40C stores the unprocessed video data information output from the unprocessed video data acquisition unit 40B.
  • the image processing instruction input unit 41A receives an image processing instruction used when processing unprocessed image data into image data to be projected onto the projection target 6 by the light emitting device 5, and the image processing instruction acquisition unit 41B
  • the video processing instruction input to the instruction input section 41A is acquired, and the video processing instruction storage section 41C stores the video processing instruction output from the video processing instruction acquisition section 41B.
  • the video processing instruction is image processing, coordinate transformation, or a combination thereof, and refers to a specific instruction used when processing unprocessed video data.
  • the video processing instructions include instructions for cropping video data, color tone conversion, scaling, rotation, vertical or horizontal translation, shear conversion, kerning, tilt insertion, transformation, and the like.
  • the image depth is the depth in the depth direction of the display content represented by the video data, and more specifically, the distance between the display content represented by the video data and the viewpoint in the depth direction. For example, if the image depth is changed so that it becomes deeper as it goes to the top of the video data, the distance between the display content represented by the video data and the viewpoint becomes longer as it goes to the top of the video data.
  • the insertion of a tilt into the video data is not limited to the tilt caused by rotating the video data in the horizontal direction, but may also be the tilt caused by rotating the video data in the vertical direction. Modifications to video data include insertion of distortion, insertion of warp, trapezoidal correction based on perspective according to the inclination of video data in the depth direction, and the like.
  • three-dimensional drawing data including a projection object 6 and three-dimensional arrangement information of the projection object 6, which are used when generating intermediate data to be described later, are input to the three-dimensional information input section 42A.
  • the dimensional information acquisition unit 42B acquires the 3D drawing data including the projection target 6 inputted to the 3D information input unit 42A and the 3D arrangement information of the projection target 6, and the 3D information storage unit 42C acquires the 3D information.
  • Three-dimensional drawing data including the projection target 6 output from the acquisition unit 42B and three-dimensional arrangement information of the projection target 6 are stored.
  • the three-dimensional drawing data including the projection target 6 is, for example, three-dimensional drawing data of the stadium 1.
  • the three-dimensional arrangement information of the projection target 6 is, for example, the xyz coordinates of the front surface 9 of the backrest 8 of the audience seats 3 extracted from the three-dimensional drawing data of the stadium 1.
  • 3D drawing data including the projection object 6 will be referred to as 3D drawing data
  • 3D arrangement information of the projection object 6 will be referred to as 3D arrangement information
  • 3D drawing data including the projection object 6 and 3D arrangement information of the projection object 6.
  • the general term for placement information will be explained as three-dimensional information.
  • the divided video data correction information input section 43A receives divided video data correction information used when correcting the divided video data, which will be described later, and the divided video data correction information acquisition section 43B
  • the divided video data correction information input to the video data correction information input section 43A is acquired, and the divided video data correction information storage section 43C stores the divided video data correction information output from the divided video data correction information acquisition section 43B. .
  • the divided video data correction information is information regarding the optical characteristics of the light emitting device 5 and the physical characteristics and optical characteristics of the projection object 6, such as the shape of the projection object 6, the color of the projection object 6, and the reflection of the projection object 6.
  • projection target information used when the light emitting device control unit 25 controls the light emitting device 5 is input to the projection target information input unit 44A, and the projection target information acquisition unit 44B inputs the projection target information used when the light emitting device control unit 25 controls the light emitting device 5.
  • the projection target information input to the information input unit 44A is acquired, and the projection target information storage unit 44C stores the projection target information output from the projection target information acquisition unit 44B.
  • the projection target information is information on whether projection onto the projection target 6 is possible or not, which is determined for each projection target 6. If the projection target information cannot be projected onto a specific projection target 6 among the projection targets 6, it will be described later.
  • the light emitting device control unit 25 controls the divided video data not to be projected onto the projection target 6 via the light emitting device 5 corresponding to a specific projection target 6 among the projection targets 6. Furthermore, when the projection target information can be projected onto a specific projection target 6 among the projection targets 6, the light emitting device control unit 25, which will be described later, controls the light emitting device 5 corresponding to the specific projection target 6 among the projection targets 6.
  • the divided video data is controlled to be projected onto the projection target 6 via the .
  • the projection target information is If it is assumed that it is impossible to project onto a specific projection target 6, and the audience detection unit determines that a specific seat among the seats 7 is not in use, the projection target information Assume that it is possible to project onto the projection target 6.
  • the projection target information is transferred to the specific projection target 6 among the projection targets 6. If it is determined that projection is not possible and tickets for a specific seat among the seats 7 are not sold, it is assumed that the projection target information can be projected onto the specific projection target 6 among the projection targets 6. .
  • the data generation unit 26 generates two-dimensional placement information of the projection target 6 using the three-dimensional placement information acquired from the three-dimensional information storage unit 42C, and intermediate data created from the generated two-dimensional placement information. is output to the data calculation section 28.
  • a predetermined point O is set in the three-dimensional drawing data acquired from the three-dimensional information storage unit 42C
  • a virtual plane S is set between the projection target 6 and the point O in the three-dimensional drawing data.
  • point O corresponds to the viewpoint of the person viewing the image projected onto the audience seats 3 in the light production system 100.
  • parallel translation and rotation matrix operations are performed on the point (X, Y, Z) to obtain a point (X', Y', Z') in the three-dimensional coordinate system C.
  • a point (x, y) of the two-dimensional coordinate system is obtained on the virtual plane S.
  • the 3D layout information that is the 3D layout information of the projection target 6 is the 3D coordinate system W
  • the 3D layout information of the projection target 6 seen from the point O is the 3D coordinate system C, and is located on the virtual plane S.
  • the generated two-dimensional placement information of the projection target 6 is expressed in a two-dimensional coordinate system.
  • the data generation unit 26 generates, as intermediate data, data in which the two-dimensional arrangement information of the projection target 6 is composed of a plurality of surfaces that have one-to-one correspondence with a plurality of areas generated by partitioning the virtual plane S. do. Since the light-emitting device 5 and the projection target 6 have a one-to-one correspondence, a plurality of regions having a one-to-one correspondence with the projection target 6 and a plurality of surfaces constituting intermediate data also have a one-to-one correspondence with the light-emitting device 5. There is.
  • the virtual plane S is, for example, a plane perpendicular to the depth direction when viewed from the point O, a vertical plane, or a line formed by connecting the upper edges of the front surface 9 of the backrest 8 in the audience seats 3 arranged in a stairway. These include a plane along the inclination, a plane parallel to the inclination, and the like.
  • the intermediate data includes inclination information with respect to the vertical direction in addition to the two-dimensional arrangement information of the projection target 6.
  • the video data processing unit 27 processes the unprocessed video data acquired from the unprocessed video data storage unit 40C using the video processing instruction acquired from the video processing instruction storage unit 41C, and generates 1 video data.
  • the obtained video data of 1 is output to the data calculation section 28.
  • One piece of video data generated in the video data processing section 27 becomes the video projected onto the audience seats 3 by the light production system 100.
  • the data calculation unit 28 uses the intermediate data input from the data generation unit 26, the video data of 1, and the divided video data correction information acquired from the divided video data correction information storage unit 43C to divide the video data of 1 into By dividing into video data, video data to be projected onto the projection target 6 by the light emitting device 5 is generated.
  • one video data is divided into divided video data along the contours of a plurality of surfaces constituting the intermediate data, and the RGB values held by the divided video data are calculated from the RGB values held by one video data. calculate.
  • a divided video data correction instruction is generated from the divided video data correction information, the RGB values and luminescence amount held by the divided video data are corrected using the divided video data correction instruction, and the RGB values held by the corrected divided video data are and outputs the amount of light emission to the light emitting device control section 25.
  • the RGB values and the amount of light emitted by the corrected divided video data output to the light emitting device control unit 25 are the RGB values of a red LED 53 (Light-emitting Diode), a green LED 54, and a blue LED 55 installed in the light emitting device 5, which will be described later. This is a command that determines the value and amount of light emitted.
  • one video data is divided into divided video data along the contours of the multiple surfaces that make up the intermediate data
  • the divided video data that has a one-to-one correspondence with the plurality of surfaces making up the intermediate data also has a one-to-one correspondence with the light-emitting device 5.
  • RGB Red-Green-Blue color model
  • RGB values include, for example, 2 gradations in which R, G, and B each take a value of 0 or 1, 16 gradations in which each value ranges from 0 to 15, 64 gradations in which each value ranges from 0 to 65, and 0 to 255. It is expressed in 256 gradations taking values of , 1024 gradations taking values from 0 to 1023, etc.
  • Divided video data correction instructions are similar to video processing instructions, and include video data cropping, color tone conversion, scaling, rotation, vertical or horizontal translation, shear conversion, kerning, tilt insertion, transformation, etc. instructions, etc.
  • the data calculation unit 28 generates a tone conversion instruction that is a divided video data correction instruction from the gradation of the light emitting device 5 that is the divided video data correction information, or generates a tone conversion instruction that is a divided video data correction instruction from the gradation of the light emitting device 5 that is the divided video data correction information, or An instruction to insert distortion or warp, which is an instruction to correct divided video data, is generated from the shape.
  • the light emitting device control section 25 uses the RGB values and light emission amount possessed by the divided video data inputted from the data calculation section 28 and the projection target information acquired from the projection target information storage section 44C, and uses the projection target information acquired from the projection target information storage section 44C to install the light emitting device 5, which will be described later.
  • the red LED 53, green LED 54, and blue LED 55 are controlled.
  • the light emitting device 5 includes an antenna 50, a communication control section 51, a lighting control section 52, a red LED 53, a green LED 54, a blue LED 55, a reflecting mirror 56, and a window 57.
  • Antenna 50 connects light emitting device 5 to the network.
  • the communication control unit 51 communicates with the light emitting device control unit 25 via the antenna 50 and outputs the RGB values and the amount of light emitted by the corrected divided video data transmitted from the light emitting device control unit 25 to the lighting control unit 52.
  • the lighting control unit 52 controls the RGB values and light emission amount of the red LED 53 , the green LED 54 , and the blue LED 55 using the RGB values and light emission amount possessed by the corrected divided video data input from the communication control unit 51 .
  • the red LED 53 is an LED that emits light at a wavelength of approximately 620 to 630 nm.
  • Green LED 54 is an LED that emits light at a wavelength of approximately 520-535 nm.
  • the blue LED 55 is an LED that emits light at a wavelength of approximately 450 to 465 nm.
  • the reflecting mirror 56 reflects the light from the red LED 53, green LED 54, and blue LED 55, and the reflected light from the red LED 53, green LED 54, and blue LED 55 passes through the window 57 and illuminates the projection target 6.
  • the light emitting device 5 is set so that the illuminance of the outline of the projection object 6 is 1/2 of the illuminance of the projection object 6.
  • FIG. 7 A processing flow when the light production system 100 is applied to the light production system 100 that projects images onto the audience seats 3 installed in the stadium 1 will be described.
  • step S1 information necessary for the control device 20 to control the light emitting device 5 is input into the data input section 21 by presetting.
  • unprocessed video data is sent to the unprocessed video data input section 40A
  • video processing instructions are sent to the video processing instruction input section 41A
  • 3D drawing data including the projection target 6 and the projection target are sent to the 3D information input section 42A.
  • the divided video data correction information is input to the divided video data correction information input section 43A
  • the projection target information is input to the projection target information input section 44A by presetting.
  • the unprocessed video data is video data shown in FIG.
  • the drawing data is the three-dimensional drawing data of the stadium 1
  • the three-dimensional layout information of the projection target 6 is the three-dimensional layout information of the audience seats 3
  • the divided video data correction information is the gradation of the light source of the light emitting device 5
  • the projection target information is the diagram. A case where the audience detection unit determines whether or not the audience seats 3 are used will be described.
  • step S2 the data acquisition unit 22 acquires information input to the data input unit 21 that is necessary for the control device 20 to control the light emitting device 5, and the data storage unit 23 outputs information from the data acquisition unit 22.
  • the control device 20 stores information necessary for controlling the light emitting device 5.
  • the unprocessed video data acquisition unit 40B acquires video data shown in FIG.
  • the video data shown in FIG. 8(a) is stored.
  • the video processing instruction acquisition unit 41B acquires instructions for horizontal translation of the video data
  • the video processing instruction storage unit 41C acquires instructions for horizontal translation of the video data output from the video processing instruction acquisition unit 41B.
  • the three-dimensional information acquisition unit 42B acquires three-dimensional drawing data of the stadium 1 and three-dimensional layout information of the audience seats 3
  • the three-dimensional information storage unit 42C acquires three-dimensional drawing data of the stadium 1 and three-dimensional layout information of the spectator seats 3.
  • the divided video data correction information acquisition unit 43B acquires the gradation of the light source of the light emitting device 5, and the divided video data correction information storage unit 43C acquires the gradation of the light source of the light emitting device 5 output from the divided video data correction information acquisition unit 43B. Stores the gradation of .
  • the projection target information acquisition unit 44B acquires the determination result of whether the audience seat 3 is used or not by the audience detection unit (not shown), and the projection target information storage unit 44C determines whether the audience seat 3 is used or not by the audience detection unit (not shown). Store the judgment results.
  • step S3 the video data processing unit 27 determines whether or not the unprocessed video data is to be processed using the video processing instruction. If the unprocessed video data is to be processed using the video processing instruction (step S3: YES), the process proceeds to step S4, and if the unprocessed video data is not to be processed using the video processing instruction (step S3). : In the case of NO), the process advances to step S6.
  • the unprocessed video data is not processed using a video processing instruction, the unprocessed video data is output to the data calculation unit 28, and the unprocessed video data is projected onto the audience seats 3 by the light production system 100 in this embodiment. The result is an image of
  • step S4 the video data processing section 27 processes the unprocessed video data using the video processing instruction, and then outputs it to the data calculation section 28.
  • step S6 the process advances to step S6. Specifically, with reference to FIG. 8, an example will be described in which unprocessed video data is processed using an instruction to horizontally translate the video data.
  • FIG. 8(a) shows the unprocessed video data
  • FIG. 8(b) shows the video data obtained by processing the unprocessed video data shown in FIG. 8(a) using instructions for horizontal translation of the video data. shows.
  • the squares indicated by black dashed lines are unprocessed video data of 9 pixels in the vertical direction and 20 pixels in the horizontal direction, and video data obtained by processing the unprocessed video data using instructions for horizontal translation of the video data. shows.
  • One of the squares shown in FIG. 8(a) is one pixel data in the unprocessed video data
  • one of the squares shown in FIG. 8(b) is one pixel data of the unprocessed video data. This is one pixel data in processed video data.
  • FIG. 8(b) corresponds to the image data obtained by transversely shifting FIG. 8(a) by two pixels.
  • step S5 the data generation unit 26 uses the three-dimensional information to generate two-dimensional placement information of the projection target 6, and outputs intermediate data created from the generated two-dimensional placement information to the data calculation unit 28.
  • step S6 the process advances to step S6.
  • intermediate data shown in FIG. 9 is generated using three-dimensional drawing data of the stadium 1 and three-dimensional layout information of the audience seats 3.
  • FIG. 9 is a diagram showing how the data generation unit 26 generates intermediate data.
  • arrows of three orthogonal axes (x-axis, y-axis, and z-axis) that define directions are shown in the figure.
  • the x-axis arrow indicates the width direction
  • the opposite direction to the y-axis arrow indicates the vertical direction (gravitational direction).
  • the z-axis indicates the depth direction.
  • a point O is set in the three-dimensional space shown in the three-dimensional drawing data of the stadium 1, and the point O is connected to a total of four seats 7, two vertical rows and two horizontal rows, which are the projection objects 6 installed in the three-dimensional space.
  • a virtual plane S is generated between them in a direction perpendicular to the Z-axis.
  • FIG. 10 is a diagram showing the intermediate data shown in FIG. 9 on the XY plane, and one of the squares indicated by the solid black line is one plane in the intermediate data.
  • step S6 the data calculation unit 28 determines whether there is a one-to-one correspondence between the plurality of pixels forming the video data input from the video data processing unit 27 and the plurality of surfaces forming the intermediate data. .
  • the video data input from the video data processing section 27 will be expressed as 1 video data. If there is a one-to-one correspondence between the plurality of pixels constituting one video data and the plurality of surfaces constituting the intermediate data (step S6: YES), the process proceeds to step S7, and one video data is constructed. If the plurality of pixels and the plurality of surfaces forming the intermediate data do not have a one-to-one correspondence (step S6: NO), the process proceeds to step S8.
  • step S7 the data calculation unit 28 divides one piece of video data into divided video data using the intermediate data input from the data generation unit 26 and one piece of video data. After step S7 ends, the process advances to step S9.
  • FIG. 11 is a diagram showing one piece of video data, intermediate data, and divided video data when a plurality of pixels making up one piece of video data and a plurality of planes making up intermediate data have a one-to-one correspondence. Since there is a one-to-one correspondence between the plurality of pixels that make up the video data and the plurality of planes that make up the intermediate data, the divided video data that has a one-to-one correspondence with the plurality of planes that make up the intermediate data also constitutes the video data. There is a one-to-one correspondence with multiple pixels.
  • FIG. 11(a) shows one piece of video data shown in FIG. 8(b), FIG. 11(b) shows intermediate data, and FIG. 11(c) shows divided video data.
  • the intermediate data shown in FIG. 11(b) is data composed of 180 surfaces generated by the process of step S5 in the audience seats 3, which are composed of a total of 180 seats 7, 9 columns long and 20 rows wide. .
  • the squares indicated by solid black lines indicate intermediate data in 9 vertical columns and 20 horizontal columns, and one square corresponds to one side of the intermediate data.
  • the coordinate axes of the intermediate data shown in FIG. 11(b) are horizontal axis x and vertical axis y.
  • the divided video data shown in FIG. 11(c) is calculated by the data calculation unit 28 from the contours of a total of 180 planes, 9 columns in the vertical direction and 20 columns in the horizontal direction, composing the intermediate data, which are shown by solid black lines in FIG. 11(b). This is data obtained by dividing one video data shown in FIG. 11(a) along the lines.
  • FIG. 11(c) shows divided video data in which the squares indicated by solid black lines are divided into 9 columns in the vertical direction and 20 columns in the horizontal direction, and one of the squares shown in FIG. 11(c) represents one division. This is video data.
  • the data calculation unit 28 calculates that when a plurality of pixels constituting one video data and a plurality of surfaces constituting intermediate data have a one-to-one correspondence, that is, the plurality of pixels constituting the divided video data and one video data
  • the RGB values held by each of the 180 pixels (9 vertical pixels and 20 horizontal pixels) that make up one video data are the same as the RGB values of the 9 vertical pixels and 20 horizontal pixels that make up one video data. It is calculated as the RGB values held by 180 divided video data corresponding to a total of 180 pixels.
  • step S8 similarly to step S7, the data calculation unit 28 converts one piece of video data into divided video data using the intermediate data input from the data generation unit 26 and one piece of video data. To divide. After step S8 ends, the process advances to step S9.
  • FIG. 12 is a diagram showing one piece of video data, intermediate data, and divided video data when a plurality of pixels making up one piece of video data and a plurality of surfaces making up intermediate data do not have a one-to-one correspondence.
  • FIG. 12(a) shows one video data shown in FIG. 8(b)
  • FIG. 12(b) shows intermediate data
  • FIG. 12(c) shows divided video data.
  • the intermediate data shown in FIG. 12(b) is the 280 seats generated by the process of step S5 in the audience seats 3, which is composed of a total of 280 seats 7, 5 columns by 20 rows, and 6 columns by 30 rows. This data consists of surfaces.
  • the squares indicated by solid black lines in FIG. 12(b) indicate intermediate data of 5 columns by 20 columns and 6 columns by 30 columns, and one square represents one surface in the intermediate data. It is.
  • the coordinate axes of the intermediate data shown in FIG. 12(b) are horizontal axis x and vertical axis y.
  • the intermediate data shown in FIG. 12(b) is, for example, intermediate data of the stepped audience seats 3 arranged so as to surround the stadium in the circular stadium 1.
  • the number of horizontal rows increases from the lower side to the upper side of the spectator seats 3 arranged in a stair-like manner, and the number of horizontal rows arranged in the spectator seats 3 increases from 20 horizontal rows to 30 horizontal rows. .
  • the divided video data shown in FIG. 12(c) is calculated by the data calculation unit 28 into 5 vertical columns, 20 horizontal columns, 6 vertical columns, 30 horizontal columns, which constitute intermediate data, which are shown by solid black lines in FIG. 12(b).
  • This data is obtained by dividing one video data shown in FIG. 12(a) along the outline of a total of 280 surfaces in a row.
  • FIG. 12(c) shows divided video data in which the squares indicated by solid black lines are divided into 5 vertical columns and 20 horizontal columns, and 6 vertical columns and 30 horizontal columns.
  • One of the squares shown is 1 divided video data.
  • FIG. 13 shows a diagram in which part of two pixels of one piece of video data correspond to one piece of divided video data.
  • 1 divided video data is indicated by an area surrounded by a solid black line.
  • Parts of two pixels of one video data are indicated by an area A and an area B, which are divided by a black dashed line at the center of the area.
  • area A is a part of one pixel A'' of one video data
  • area B is a part of one pixel B'' of one video data.
  • the area occupancy rates of area A and area B with respect to the area are calculated.
  • the area occupancy rates of region A and region B with respect to the region are both 50%.
  • the area occupancy rate of area A is assumed to be area occupancy rate A'
  • the area occupancy rate of area B is assumed to be area occupancy rate B'.
  • the product of the RGB value of one pixel A'' in one video data, the RGB value of one pixel B'' in one video data, and the area occupation rate is calculated.
  • the RGB value of one pixel A'' of one video data is the RGB value of pixel A''
  • the RGB value of one pixel B'' of one video data is the RGB value of pixel B''.
  • ' is expressed as RGB values.
  • the products of the RGB values of pixel A'' and the RGB values of pixel B'' and the area occupancy rate are summed.
  • FIG. 13 a method for calculating the RGB values possessed by divided video data when the area occupancy rate is less than 100% has been explained, but when the area occupancy rate is 100%, one piece of video data is configured.
  • the RGB values held by each of the plurality of pixels are calculated as the RGB values held by the divided video data corresponding to the plurality of pixels constituting one piece of video data.
  • step S9 the data calculation unit 28 uses the divided video data correction information to determine whether or not to correct the RGB values and light emission amount held by the divided video data.
  • step S9: YES the process proceeds to step S10, and using the divided video data correction information, If the RGB values and light emission amount held by the divided video data are not to be corrected (step S9: NO), the process advances to step S11.
  • the data calculation unit 28 calculates the RGB values held by the divided video data calculated in step S7 or step S8. It is output to the light emitting device control section 25.
  • step S10 the data calculation unit 28 generates a divided video data correction instruction from the divided video data correction information acquired from the divided video data correction information storage unit 43C, and uses the divided video data correction instruction to The RGB values and the amount of light emitted are corrected, and the RGB values and amount of light emitted by the corrected divided video data are output to the light emitting device control section 25.
  • step S10 ends, the process advances to step S11.
  • step S11 the light emitting device control unit 25 determines whether or not it is possible to project onto the projection target 6 using the projection target information acquired from the projection target information storage unit 44C. If the projection target 6 can be projected (step S11: YES), the process proceeds to step S12, and if the projection target 6 cannot be projected (step S11: NO), the process advances to step S13. Proceed to.
  • the light emitting device control unit 25 determines that the projection target 6 can be projected, and the process proceeds to step S12. If the audience detection section (not shown) determines that the audience seats 3 are in use, it is determined that the projection target 6 cannot be projected, and the process proceeds to step S13.
  • step S12 the light emitting device control unit 25 uses the RGB values and light emission amount possessed by the divided video data input from the data calculation unit 28 to emit light corresponding to the projection target 6 determined to be projectable.
  • the device 5 is controlled to emit light.
  • step S13 the light emitting device control unit 25 controls the light emitting device 5 corresponding to the projection target 6 determined to be impossible to project so as to turn off the light. In this way, light effects are performed through steps S1 to S13 shown in FIG.
  • the light production system 100 of the present embodiment generates two-dimensional layout information of the projection target 6 using the three-dimensional layout information of the projection target 6, and uses the generated two-dimensional layout information to create one image.
  • Light effects are performed by dividing the data into divided video data and controlling the divided video data to be projected onto the projection target 6 via the light emitting devices 5 corresponding to the projection target 6, respectively.
  • the three-dimensional arrangement information of the projection object 6 is taken into consideration.
  • the light production system 100 of this embodiment can appropriately project content onto the projection target 6 arranged three-dimensionally.
  • the light production system 100 of the present embodiment generates two-dimensional arrangement information of the projection object 6 using the three-dimensional arrangement information of the projection object 6 stored in the three-dimensional information storage section 42C, and Using the dimensional arrangement information, one video data is divided into divided video data, and the divided video data is controlled to be projected onto the projection target 6 via the light emitting devices 5 corresponding to the projection target 6. Perform the performance.
  • the shape, number, arrangement, etc. of the projection target 6 having a three-dimensional shape arranged in a three-dimensional space is changed, the shape, number, arrangement, etc. of the three-dimensional information stored in the three-dimensional information storage section 42C can be changed.
  • the light production system 100 of this embodiment can easily accommodate changes in the shape, number, arrangement, etc. of the projection targets 6.
  • the light production system 100 has the three-dimensional drawing data acquired from the three-dimensional information storage unit 42C that corresponds to the viewpoint of the person viewing the image projected onto the audience seats 3 in the light production system 100.
  • Set a predetermined point O to Two-dimensional layout information of the projection target 6 is generated by projecting the dimensional layout information.
  • the predetermined point O is updated to the viewpoint of the person viewing the changed image, and the changed image can be viewed.
  • Two-dimensional placement information of the projection target 6 is generated in consideration of the human viewpoint.
  • the light production system 100 of this embodiment can easily accommodate changes in the viewpoint of the person viewing the video.
  • the light production system 100 of the present embodiment generates a divided video data correction instruction from divided video data correction information that is information regarding the optical characteristics of the light emitting device 5 and the physical characteristics and optical characteristics of the projection target 6.
  • a light effect is performed by correcting the RGB values and light emission amount held by the divided video data using the divided video data correction instruction, and controlling the corrected divided video data to be projected onto the projection target 6.
  • the optical characteristics of the light emitting device 5 and the physical characteristics and optical characteristics of the projection object 6 are reflected in the divided image data projected onto the projection object 6.
  • the light production system 100 of this embodiment can perform high-definition light production according to the optical characteristics of the light emitting device 5 and the physical and optical characteristics of the projection target 6.
  • the light production system 100 of this embodiment uses the projection target information to determine whether or not to project the divided video data onto the projection target 6, and controls the light emitting device 5 using the determination result. Thereby, when a specific seat among the seats 7 is used or when a ticket for a specific seat among the seats 7 is sold, the projection target 6 corresponding to the specific seat among the seats 7 No light is emitted. As a result, the light production system 100 of the present embodiment can prevent the user of the seat 7 from being irradiated with unnecessary light.
  • the light production system 100 of this embodiment is set so that the illuminance of the outline of the projection target 6 is 1/2 of the illuminance of the projection target 6. As a result, it is possible to prevent the adjacent seats 7 from being irradiated with unnecessary light.
  • the light production system 100 of the present embodiment includes a plurality of light emitting devices 5 installed corresponding to a plurality of projection objects 6 having three-dimensional shapes arranged in a three-dimensional space, and A three-dimensional information storage section 42C that stores three-dimensional arrangement information, a data generation section 26 that generates two-dimensional arrangement information of a plurality of projection targets 6 from the three-dimensional arrangement information stored in the three-dimensional information storage section 42C, and Using the two-dimensional arrangement information generated by the generation unit 26, the data calculation unit 28 divides one video data composed of a plurality of pixels into a plurality of divided video data, and the plurality of light emitting devices 5, It includes a light emitting device control unit 25 that controls the plurality of divided video data to be projected onto the plurality of projection targets 6.
  • the projection object 6 arranged in three dimensions content can be projected appropriately.
  • the light production method of the present embodiment includes a three-dimensional information storage step for storing three-dimensional arrangement information of a plurality of projection objects 6 having three-dimensional shapes arranged in a three-dimensional space; A data generation step that generates two-dimensional placement information of a plurality of projection targets 6 from the three-dimensional placement information generated, and one image composed of a plurality of pixels using the two-dimensional placement information generated in the data generation step. A data calculation step of dividing the data into a plurality of divided image data, and a step of projecting the plurality of divided image data onto the plurality of projection targets 6 via the plurality of light emitting devices 5 respectively corresponding to the plurality of projection targets 6. and a light emitting device 5 control step.
  • the projection object 6 arranged in three dimensions content can be projected appropriately.
  • the program of the present embodiment includes a three-dimensional information storage step for storing three-dimensional arrangement information of a plurality of projection targets 6 having three-dimensional shapes arranged in three-dimensional space;
  • a data generation step that generates two-dimensional placement information of a plurality of projection targets 6 from three-dimensional placement information, and one video data composed of a plurality of pixels using the two-dimensional placement information generated in the data generation step.
  • a data calculation step of dividing into a plurality of divided image data, and controlling the plurality of divided image data to be projected onto a plurality of projection targets 6 via a plurality of light emitting devices 5 respectively corresponding to the plurality of projection targets 6.
  • the computer is caused to execute the light emitting device 5 control step.
  • the projection object 6 arranged in three dimensions content can be projected appropriately.
  • the light emitting device of this embodiment also includes a light source, a three-dimensional information storage section 42C that stores three-dimensional arrangement information of a plurality of projection objects 6 having three-dimensional shapes arranged in three-dimensional space, and a three-dimensional information storage section 42C.
  • a data generation section 26 generates two-dimensional arrangement information of the plurality of projection targets 6 from the three-dimensional arrangement information stored in the section 42C, and a data generation section 26 generates two-dimensional arrangement information of the plurality of projection targets 6 from the plurality of pixels using the two-dimensional arrangement information generated by the data generation section 26.
  • the plurality of divided video data is controlled to be projected onto the plurality of projection targets 6 via the data calculation unit 28 that divides one piece of video data into a plurality of divided video data and the plurality of light emitting devices 5.
  • a communication control section 51 that communicates with the control device 20 including the light emitting device control section 25 via a network and acquires the divided video data from the light emitting device control section 25; , and a lighting control unit 52 that controls the light source so as to project onto the projection target 6.
  • step S5 is performed after step S3 and step S4, but step S3 and step S4 may be performed after step S5.
  • the projection target 6 of the light emitting device 5 is the audience seats 3, but the projection target 6 of the light emitting device 5 may be a building, a structure, a wall surface, or the like.
  • the video processing instruction is input to the video processing instruction input unit 41A by presetting, input by a person, etc.; , may be automatically generated using the shapes of a plurality of surfaces constituting the intermediate data, the inclination of the intermediate data with respect to the vertical direction, etc.
  • the video data processing unit 27 processes the unprocessed video data using an instruction to horizontally move the video data in parallel.
  • the unprocessed video data may be processed using an instruction to enlarge or reduce the image data so that there is a one-to-one correspondence between the pixels of the intermediate data and the plurality of surfaces forming the intermediate data.
  • a blank area is not included in a plurality of planes that constitute intermediate data, but a blank area may be included in a plurality of planes that constitute intermediate data, and a blank area is not included in a plurality of planes that constitute intermediate data. If a blank area is included in the plane, the video data processing unit 27 may process the unprocessed video data in accordance with the blank area.
  • the video processing instruction and the divided video data correction instruction are each a single instruction, but a plurality of instructions may be combined.
  • 5-1 to 5-n light emitting device 6-1 to 6-n projection target, 20 control device, 21 data input section, 22 data acquisition section, 23 data storage section, 24 processing section, 25 light emitting device control section, 26 Data generation section, 27 Video data processing section, 28 Data calculation section, 100 Light production system

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Projection Apparatus (AREA)

Abstract

光演出システム(100)は、3次元空間に配置された3次元形状を有する複数の投影対象(6)とそれぞれ対応して設置される複数の発光装置(5)と、複数の投影対象(6)の3次元配置情報を格納する3次元情報記憶部(42C)と、3次元情報記憶部(42C)に格納された3次元配置情報から複数の投影対象(6)の2次元配置情報を生成するデータ生成部(26)と、データ生成部(26)で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部(28)と、複数の発光装置(5)を介して、複数の分割映像データを、複数の投影対象(6)に投影するように制御する発光装置制御部(25)と、を備える。これにより、3次元に配置された投影対象(6)にコンテンツを適切に投影できる。 

Description

光演出システム、光演出方法、プログラム、制御装置及び発光装置
 本開示は、光演出システム、光演出方法、プログラム、制御装置及び発光装置に関わる。
 建物、構造物等に複数の発光装置を設置し、発光装置を制御することで、建物、構造物等に映像等の様々なコンテンツを投影する光演出システムが広く利用されている。
 例えば、特許文献1は、建物の窓ガラス群にコンテンツを投影する画像投影システムであり、建物の外面の所定領域に含まれる各窓ガラスのレイアウト(位置、横サイズ、縦サイズ)を特定するための基準となる点(原点)と、基準となる軸(x軸、y軸)が規定され、xy座標により示される各窓ガラスの位置及び大きさに基づいて、1の画像を複数の分割画像に分割し、各窓ガラスにそれぞれ対応する投影装置を介して、複数の分割画像を、各窓ガラスの内側に配置された投影面それぞれに投影するよう制御することにより、建物の窓ガラス群にコンテンツを投影している。
特開2018-036478公報
 しかしながら、特許文献1の方法では、3次元空間に配置された3次元形状を有する投影対象にコンテンツを投影する場合、当該投影対象の3次元配置情報が十分に考慮されないため、3次元形状を有する複数の投影対象にコンテンツを適切に投影しづらいという課題があった。
 本開示は、上述した課題を解決するためになされたものであり、3次元空間に配置された3次元形状を有する投影対象にコンテンツを適切に投影できる光演出システムを提供することを目的とする。
 本開示に係る光演出システムは、3次元空間に配置された3次元形状を有する複数の投影対象とそれぞれ対応して設置される複数の発光装置と、複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、3次元情報記憶部に格納された3次元配置情報から複数の投影対象の2次元配置情報を生成するデータ生成部と、データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、複数の発光装置を介して、複数の分割映像データを、複数の投影対象に投影するように制御する発光装置制御部と、を備える。
 本開示に係る制御装置は、3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、3次元情報記憶部に格納された3次元配置情報から複数の投影対象の2次元配置情報を生成するデータ生成部と、データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、複数の投影対象とそれぞれ対応する複数の発光装置を介して、複数の分割映像データを、複数の投影対象に投影するように制御する発光装置制御部と、を備える。
 本開示に係る光演出方法は、3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶ステップと、3次元情報記憶ステップに格納された3次元配置情報から複数の投影対象の2次元配置情報を生成するデータ生成ステップと、データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、複数の投影対象とそれぞれ対応する複数の発光装置を介して、複数の分割映像データを、複数の投影対象に投影するように制御する発光装置制御ステップと、を備える。
 本開示に係るプログラムは、3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶ステップと、3次元情報記憶ステップに格納された3次元配置情報から複数の投影対象の2次元配置情報を生成するデータ生成ステップと、データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、複数の投影対象とそれぞれ対応する複数の発光装置を介して、複数の分割映像データを、複数の投影対象に投影するように制御する発光装置制御ステップと、をコンピュータに実行させる。
 本開示に係る発光装置は、光源と、3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、3次元情報記憶部に格納された3次元配置情報から複数の投影対象の2次元配置情報を生成するデータ生成部と、データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、複数の分割映像データを、複数の投影対象に投影するように制御する発光装置制御部と、を備える制御装置とネットワークを介して通信し、発光装置制御部から分割映像データを取得する通信制御部と、通信制御部に格納された分割映像データを、投影対象に投影するように、光源を制御する点灯制御部と、を備える。
 本開示によれば、3次元空間に配置された3次元形状を有する投影対象にコンテンツを適切に投影できる。
実施の形態1に係る光演出システムの適用例を示す図である。 実施の形態1に係る光演出システムの適用例を示す図である。 実施の形態1に係る光演出システムの概略構成を示す図である。 実施の形態1に係る制御装置のハードウェア構成を示す図である。 実施の形態1に係る光演出システムの概略構成を示す図 実施の形態1に係る発光装置の概略構成を示す図である。 実施の形態1に係る光演出システムの処理フローを示すフローチャートである。 実施の形態1に係るデータ生成部が生成した中間データを示す図である。 実施の形態1に係るデータ生成部が生成した中間データを示す図である。 実施の形態1に係る映像加工指示を用いて加工前映像データを加工する例を示す図である。 実施の形態1に係るデータ算出部の処理内容を説明する図である。 実施の形態1に係るデータ算出部の処理内容を説明する図である。 実施の形態1に係るデータ算出部の処理内容を説明する図である。
 以下、本開示の実施の形態について、添付の図面を参照しながら説明する。なお、図面は模式的に示されたものであり、異なる図面にそれぞれ示されているサイズおよび位置の相互関係は、必ずしも正確に記載されたものではなく、適宜変更され得る。また、以下の説明では、同様の構成要素には同じ符号を付して図示し、それらの名称および機能も同一又は同様のものとする。よって、それらについての詳細な説明を省略する場合がある。
実施の形態1.
 図1~図13を用いて本実施の形態における光演出システム100について説明する。
 本実施の形態では、一例として、図1に示すように光演出システム100をスタジアム1の外野スタンド2に設置された観客席3に映像を投影する光演出システム100に適用する場合について説明する。
 図2に示すように、観客席3は、前面9と背面10とを含む背当て部8と上面12を含む腰掛部11とを有する座席7-1~7-nによって構成される。一方の座席7-1~7-nの背当て部8の背面10に、光を発する発光装置5-1~5-nが設置され、背当て部8の背面10に対応する他方の座席7-1~7-nの背当て部8の前面9が、一方の座席7-1~7-nに配置された発光装置5-1~5-nの投影対象6-1~6-nとなる。発光装置5-1~5-nと投影対象6-1~6-nとは1対1対応している。
 nは、発光装置5-1~5-n、投影対象6-1~6-n及び座席7-1~7-nの数であり、2以上の整数である。発光装置5-1~5-nは、それぞれ対応する投影対象6-1~6-nに光を発する。
 以下の説明では、発光装置5-1~5-n、投影対象6-1~6-n及び座席7-1~7-nをそれぞれ発光装置5、投影対象6及び座席7として説明する。
 図1及び図2に示すように、光演出システム100は、スタジアム1に配置された観客席3に光が照射できるように発光装置5-1~5-nを設置し、観客席3に投影する映像データを用いて、制御装置20が発光装置5-1~5-nを制御することで、観客席3にHOMERUNという映像4を表示し、光演出を行う。ここで、スタジアム1という3次元空間において、観客席3及び観客席3を構成する座席7-1~7-nと同様に発光装置5-1~5-nの投影対象6-1~6-nは、横方向に直線状又は曲線状に列を形成し、横方向に形成した複数の列が階段状に配置される。
 図3において、光演出システム100は、発光装置5を制御するために必要な情報が入力されるデータ入力部21と、データ入力部21に入力された発光装置5を制御するために必要な情報を用いて発光装置5を制御する制御装置20と、制御装置20により制御され、光を発することで、投影対象6に映像を投影する発光装置5と、映像が投影される投影対象6と、を備え、制御装置20と発光装置5とがネットワークを介して接続される。
 制御装置20は、データ取得部22と、データ記憶部23と、処理部24と、発光装置制御部25と、を有する。処理部24は、データ生成部26と、映像データ加工部27と、データ算出部28と、を有する。
 図4は、本実施の形態における制御装置20のハードウェア構成を示す図である。制御装置20は、送受信装置29、プロセッサ(CPU:Central Processing Unit)30、メモリ(ROM:Read Only Memory)31、およびメモリ(RAM:RandomAccess Memory)32を含んで構成される。制御装置20は、メモリに予め格納されたプログラムをプロセッサ30が処理することで、発光装置5を制御する。
 制御装置20においては、メモリに格納された所定のプログラムをプロセッサ30が実行することで、各種の機能モジュールが実現される。機能モジュールには、処理部24及び発光装置制御部25が含まれる。なお、メモリ31およびメモリ32には、データ記憶部23が含まれる。送受信装置29には、データ取得部22が含まれる。
 なお、制御装置20の各機能モジュールは、上記の通り予め設定されたプログラムに従ってプロセッサ30がソフトウェア処理を実行することにより実現してもよいし、少なくとも一部について、各機能モジュールに相当する機能を有する電子回路等のハードウェアにより所定の数値・論理演算処理を実行するように構成されてもよい。
 図5において、データ入力部21は、制御装置20が発光装置5を制御するために必要な情報が事前設定、人による入力等により入力され、データ取得部22は、データ入力部21に入力された制御装置20が発光装置5を制御するために必要な情報を取得し、データ記憶部23は、データ取得部22から出力された制御装置20が発光装置5を制御するために必要な情報を格納する。
 データ入力部21は、加工前映像データ入力部40Aと、映像加工指示入力部41Aと、3次元情報入力部42Aと、分割映像データ補正情報入力部43Aと、投影対象情報入力部44Aと、を有する。
 データ取得部22は、加工前映像データ取得部40Bと、映像加工指示取得部41Bと、3次元情報取得部42Bと、分割映像データ補正情報取得部43Bと、投影対象情報取得部44Bと、を有する。
 データ記憶部23は、加工前映像データ記憶部40Cと、映像加工指示記憶部41Cと、3次元情報記憶部42Cと、分割映像データ補正情報記憶部43Cと、投影対象情報記憶部44Cと、を有する。
 図5に示すように、加工前映像データ入力部40Aには、映像加工を施す前の映像データである加工前映像データが入力され、加工前映像データ取得部40Bは、加工前映像データ入力部40Aに入力された加工前映像データを取得し、加工前映像データ記憶部40Cは、加工前映像データ取得部40Bから出力された加工前映像データ情報を格納する。
 映像加工指示入力部41Aには、加工前映像データを発光装置5が投影対象6に投影する映像データに加工する際に用いられる映像加工指示が入力され、映像加工指示取得部41Bは、映像加工指示入力部41Aに入力された映像加工指示を取得し、映像加工指示記憶部41Cは、映像加工指示取得部41Bから出力された映像加工指示を格納する。
 映像加工指示は、画像処理及び座標変換並びにそれらの組み合わせであり、加工前映像データを加工する際に用いられる具体的な指示を指す。
 例えば、映像加工指示は、映像データへの切り抜き、色調変換、拡大縮小、回転、縦方向又は横方向の平行移動、シアー変換、カーニング、傾き挿入、変形等の指示である。
 ここで、映像データへのカーニングとは、加工前映像データにおいて予め定められた分割領域間の間隔を調整することをいう。
 映像データへの傾き挿入とは、映像データの映像深度を変更することをいう。
 映像深度とは、映像データが表す表示内容の奥行方向の深さであって、より具体的には奥行方向における映像データが表す表示内容と視点との間の距離をいう。例えば、映像データの上部に行くほど映像深度が深くなるように変更すると、映像データの上部に行くほど映像データが表す表示内容と視点との間の距離が長くなる。
 なお、映像データへの傾きの挿入は、映像データの左右方向回りの回転による傾きに限らず、映像データの上下方向回りの回転による傾きでもよい。
 映像データへの変形とは、ゆがみの挿入、反りの挿入、映像データの奥行方向への傾きに応じた遠近法に基づく台形補正等である。
 図5に示すように、3次元情報入力部42Aには、後述する中間データを生成する際に用いられる投影対象6を含む3次元図面データ及び投影対象6の3次元配置情報が入力され、3次元情報取得部42Bは、3次元情報入力部42Aに入力された投影対象6を含む3次元図面データ及び投影対象6の3次元配置情報を取得し、3次元情報記憶部42Cは、3次元情報取得部42Bから出力された投影対象6を含む3次元図面データ及び投影対象6の3次元配置情報を格納する。
 投影対象6を含む3次元図面データは、例えば、スタジアム1の3次元図面データ等である。投影対象6の3次元配置情報は、例えば、スタジアム1の3次元図面データから抽出された観客席3の背当て部8の前面9のxyz座標等である。
 以下の説明では、投影対象6を含む3次元図面データを3次元図面データ、投影対象6の3次元配置情報を3次元配置情報、投影対象6を含む3次元図面データ及び投影対象6の3次元配置情報の総称を3次元情報として説明する。
 図5に示すように、分割映像データ補正情報入力部43Aには、後述する分割映像データを補正する際に用いられる分割映像データ補正情報が入力され、分割映像データ補正情報取得部43Bは、分割映像データ補正情報入力部43Aに入力された分割映像データ補正情報を取得し、分割映像データ補正情報記憶部43Cは、分割映像データ補正情報取得部43Bから出力された分割映像データ補正情報を格納する。
 分割映像データ補正情報は、発光装置5の光学的特性並びに投影対象6の物理的特性及び光学的特性に関する情報であり、例えば、投影対象6の形状、投影対象6の色、投影対象6の反射率、投影対象6の透過率、後述する発光装置5の光源が持つ階調等である。
 図5に示すように、投影対象情報入力部44Aには、発光装置制御部25が、発光装置5を制御する際に用いられる投影対象情報が入力され、投影対象情報取得部44Bは、投影対象情報入力部44Aに入力された投影対象情報を取得し、投影対象情報記憶部44Cは、投影対象情報取得部44Bから出力された投影対象情報を格納する。
 投影対象情報は、それぞれの投影対象6において決定される投影対象6への投影可否情報であり、投影対象情報が投影対象6のうちの特定の投影対象6へ投影不可能である場合、後述する発光装置制御部25は、投影対象6のうちの特定の投影対象6と対応する発光装置5を介して、分割映像データを、投影対象6に投影しないように制御する。さらに、投影対象情報が投影対象6のうちの特定の投影対象6へ投影可能である場合、後述する発光装置制御部25は、投影対象6のうちの特定の投影対象6と対応する発光装置5を介して、分割映像データを、投影対象6に投影するように制御する。
 例えば、図示しない観客検知部による座席7の使用の有無の判定結果、観客検知部で、座席7のうちの特定の座席が使用されていると判断された場合、投影対象情報が投影対象6のうちの特定の投影対象6へ投影不可能であるとし、観客検知部で座席7のうちの特定の座席が使用されていないと判断された場合、投影対象情報が投影対象6のうちの特定の投影対象6へ投影可能であるとする。
 また、座席7のチケット販売の有無の判定結果、座席7のうちの特定の座席のチケットが販売されていると判断された場合、投影対象情報が投影対象6のうちの特定の投影対象6へ投影不可能であるとし、座席7のうちの特定の座席のチケットが販売されていないと判断された場合、投影対象情報が投影対象6のうちの特定の投影対象6へ投影可能であるとする。
 図5において、データ生成部26は、3次元情報記憶部42Cから取得した3次元配置情報を用いて、投影対象6の2次元配置情報を生成し、生成した2次元配置情報から作成した中間データをデータ算出部28へ出力する。
 具体的には、3次元情報記憶部42Cから取得した3次元図面データ中に予め定められた点Oを設定し、3次元図面データ中の投影対象6と点Oとの間で、仮想平面Sを生成し、仮想平面S上に点Oから見た投影対象6の3次元配置情報を射影して、投影対象6の2次元配置情報を生成する。ここで、点Oは光演出システム100において、観客席3に投影された映像を見る人の視点に相当する。
 詳述すると、投影対象6の3次元配置情報が3次元座標系Wで表されているとき、3次元座標系Wの点(X,Y,Z)を、点Oから見た3次元座標系Cで表すために点(X,Y,Z)に対して平行移動と回転の行列演算を行い、3次元座標系Cの点(X´,Y´,Z´)を得る。3次元座標系Cの点(X´,Y´,Z´)に対して2次元射影の行列演算を行うことで仮想平面S上に2次元座標系の点(x,y)を得る。
 つまり、投影対象6の3次元配置情報である3次元配置情報は3次元座標系Wで、点Oから見た投影対象6の3次元配置情報は3次元座標系Cで、仮想平面S上に生成された投影対象6の2次元配置情報は2次元座標系で表される。
 そして、データ生成部26は、投影対象6の2次元配置情報が、仮想平面Sを区画して生成された複数の領域と1対1対応する複数の面から構成されるデータを中間データとして生成する。
 発光装置5と投影対象6とは1対1対応しているため、投影対象6と1対1対応する複数の領域及び中間データを構成する複数の面も発光装置5と1対1対応している。
 仮想平面Sは、例えば、点Oから見て奥行方向に垂直な面、鉛直面、階段状に配置された観客席3において、背当て部8の前面9の上縁部を結んでできる線の傾きに沿った平面、当該傾きに平行な平面等である。ここで、仮想平面Sが鉛直面以外の場合、中間データは、投影対象6の2次元配置情報に加えて、鉛直方向に対して傾き情報を有する。
 映像データ加工部27は、加工前映像データ記憶部40Cから取得した加工前映像データを、映像加工指示記憶部41Cから取得した映像加工指示を用いて加工し、1の映像データを生成し、生成した1の映像データをデータ算出部28に出力する。映像データ加工部27において生成された1の映像データが、光演出システム100で観客席3に投影する映像となる。
 データ算出部28は、データ生成部26から入力された中間データ、1の映像データ及び分割映像データ補正情報記憶部43Cから取得した分割映像データ補正情報を用いて、1の映像データを後述する分割映像データに分割することで、発光装置5が投影対象6に投影する映像データを生成する。
 具体的には、中間データを構成する複数の面の輪郭に沿って、1の映像データを分割映像データに分割し、1の映像データが保有するRGB値から分割映像データが保有するRGB値を算出する。
 そして、分割映像データ補正情報から分割映像データ補正指示を生成し、分割映像データ補正指示を用いて分割映像データが保有するRGB値及び発光量を補正し、補正した分割映像データが保有するRGB値及び発光量を発光装置制御部25に出力する。
 発光装置制御部25に出力される補正した分割映像データが保有するRGB値及び発光量は、後述する発光装置5に搭載される赤色LED53(Light-emitting Diode)、緑色LED54、及び青色LED55のRGB値及び発光量を決定する指令となる。
 加えて、中間データを構成する複数の面の輪郭に沿って、1の映像データを分割映像データに分割しているため、中間データを構成する複数の面と分割映像データは1対1対応している。
 先述したように、中間データを構成する複数の面と発光装置5とは1対1対応しているため、中間データを構成する複数の面と1対1対応する分割映像データも発光装置5と1対1対応している。
 ここで、RGB(Red-Green-Blue color model)とは、色の表現形式の一つであり、R(Red)、G(Green)、B(Blue)の配合比率を変化させることですべての色を表す方法である。階調とは、色や明るさの濃淡の階段数を指す。RGB値は、例えば、R、G、Bがそれぞれ0か1かの値を取る2階調、0~15の値を取る16階調、0~65の値を取る64階調、0~255の値を取る256階調、0~1023の値を取る1024階調等で表現される。
 分割映像データ補正指示とは、映像加工指示と同様のものであり、映像データの切り抜き、色調変換、拡大縮小、回転、縦方向又は横方向の平行移動、シアー変換、カーニング、傾き挿入、変形等の指示等である。
 例えば、データ算出部28は、分割映像データ補正情報である発光装置5が持つ階調から分割映像データ補正指示である色調変換の指示を生成したり、分割映像データ補正情報である投影対象6の形状から分割映像データ補正指示であるゆがみの挿入又は反りの挿入の指示を生成する。
 発光装置制御部25は、データ算出部28から入力された分割映像データが保有するRGB値及び発光量並びに投影対象情報記憶部44Cから取得した投影対象情報を用いて、後述する発光装置5に搭載される赤色LED53、緑色LED54、及び青色LED55を制御する。
 図6において、発光装置5は、アンテナ50と、通信制御部51と、点灯制御部52と、赤色LED53と、緑色LED54と、青色LED55と、反射鏡56と、窓57と、を有する。アンテナ50は、発光装置5をネットワークに接続する。通信制御部51は、アンテナ50を介して発光装置制御部25と通信し、発光装置制御部25から送信された補正した分割映像データが保有するRGB値及び発光量を点灯制御部52に出力する。
 点灯制御部52は、通信制御部51から入力された補正した分割映像データが保有するRGB値及び発光量を用いて、赤色LED53、緑色LED54及び青色LED55のRGB値及び発光量を制御する。
 赤色LED53は、およそ620~630nmの波長で発光するLEDである。緑色LED54は、およそ520~535nmの波長で発光するLEDである。青色LED55は、およそ450~465nmの波長で発光するLEDである。
 反射鏡56は、赤色LED53、緑色LED54及び青色LED55の光を反射し、反射した赤色LED53、緑色LED54及び青色LED55の光は窓57を透過して、投影対象6を照らす。
 発光装置5は、投影対象6の輪郭の照度が投影対象6の照度の1/2となるように設定する。
 図7を用いて、本実施の形態における光演出システム100の処理フローについて説明する。
 光演出システム100をスタジアム1に設置された観客席3に映像を投影する光演出システム100に適用する場合の処理フローについて説明する。
 ステップS1において、事前設定により、データ入力部21に制御装置20が発光装置5を制御するために必要な情報が入力される。
 具体的には、加工前映像データ入力部40Aに加工前映像データが、映像加工指示入力部41Aに映像加工指示が、3次元情報入力部42Aに投影対象6を含む3次元図面データ及び投影対象6の3次元配置情報が、分割映像データ補正情報入力部43Aに分割映像データ補正情報が、投影対象情報入力部44Aに投影対象情報が事前設定により入力される。
 図7を用いて説明する処理フローでは、加工前映像データが後述する図8(a)に示す映像データ、映像加工指示が映像データに対する横方向の平行移動の指示、投影対象6を含む3次元図面データがスタジアム1の3次元図面データ、投影対象6の3次元配置情報が観客席3の3次元配置情報、分割映像データ補正情報が発光装置5の光源が持つ階調、投影対象情報が図示しない観客検知部による観客席3の使用の有無の判定結果である場合について説明する。
 そしてステップS2において、データ取得部22は、データ入力部21に入力された制御装置20が発光装置5を制御するために必要な情報を取得し、データ記憶部23は、データ取得部22から出力された制御装置20が発光装置5を制御するために必要な情報を格納する。
 具体的には、加工前映像データ取得部40Bは、後述する図8(a)に示す映像データを取得し、加工前映像データ記憶部40Cは、加工前映像データ取得部40Bから出力された後述する図8(a)に示す映像データを格納する。
 映像加工指示取得部41Bは、映像データに対する横方向の平行移動の指示を取得し、映像加工指示記憶部41Cは、映像加工指示取得部41Bから出力された映像データに対する横方向の平行移動の指示を格納する。
 3次元情報取得部42Bは、スタジアム1の3次元図面データ及び観客席3の3次元配置情報を取得し、3次元情報記憶部42Cは、3次元情報取得部42Bから出力されたスタジアム1の3次元図面データ及び観客席3の3次元配置情報を格納する。
 分割映像データ補正情報取得部43Bは、発光装置5の光源が持つ階調を取得し、分割映像データ補正情報記憶部43Cは、分割映像データ補正情報取得部43Bから出力された発光装置5の光源が持つ階調を格納する。
 投影対象情報取得部44Bは、図示しない観客検知部による観客席3の使用の有無の判定結果を取得し、投影対象情報記憶部44Cは、図示しない観客検知部による観客席3の使用の有無の判定結果を格納する。
 そしてステップS3において、映像データ加工部27は、加工前映像データを、映像加工指示を用いて加工するか否かを判定する。
 加工前映像データを、映像加工指示を用いて加工する場合(ステップS3:YESの場合)に、処理をステップS4に進め、加工前映像データを、映像加工指示を用いて加工しない場合(ステップS3:NOの場合)に、処理をステップS6に進める。
 加工前映像データを、映像加工指示を用いて加工しない場合は、加工前映像データをデータ算出部28に出力し、加工前映像データが本実施の形態における光演出システム100で観客席3に投影する映像となる。
 そしてステップS4において、映像データ加工部27は、加工前映像データを、映像加工指示を用いて加工した後、データ算出部28に出力する。ステップS4終了後、処理をステップS6に進める。
 具体的に、図8を用いて加工前映像データを映像データに対する横方向の平行移動の指示を用いて加工する例について説明する。
 図8(a)に加工前映像データを示し、図8(b)に、図8(a)に示す加工前映像データを、映像データに対する横方向の平行移動の指示を用いて加工した映像データを示す。
 図8は、黒の破線で示されたマス目が、縦9画素、横20画素の加工前映像データ及び加工前映像データを映像データに対する横方向の平行移動の指示を用いて加工した映像データを示す。
 図8(a)に示すマスの1つが加工前映像データにおける1つの画素データ、図8(b)に示すマスの1つが加工前映像データを映像データに対する横方向の平行移動の指示を用いて加工した映像データにおける1つの画素データである。
 図8(b)は、図8(a)を2画素分横方向に平行移動した図に映像データに相当する。
 そしてステップS5において、データ生成部26は、3次元情報を用いて、投影対象6の2次元配置情報を生成し、生成した2次元配置情報から作成した中間データをデータ算出部28へ出力する。ステップS5終了後、処理をステップS6に進める。
 具体的に、スタジアム1の3次元図面データ及び観客席3の3次元配置情報を用いて、図9に示す中間データを生成する例について説明する。
 図9は、データ生成部26で中間データを生成する様子を示した図である。
 図中に、方向を定義する3つの直交軸(x軸、y軸およびz軸)の矢印を図中に示している。x軸矢印が幅方向を示し、y軸矢印の反対方向が鉛直方向(重力方向)を示す。z軸が奥行き方向を示す。
 スタジアム1の3次元図面データに示される3次元空間に点Oが設定され、3次元空間に設置された投影対象6となる縦2列、横2列の計4の座席7と点Oとの間でZ軸に垂直な方向に仮想平面Sが生成される。投影対象6の各点から点Oに向かって投射線を引くことにより、仮想平面Sとの交点の集まりとして仮想平面S上に投影対象6の投射図形が得られ、当該投影対象6の投影図形が投影対象6の2次元配置情報となる。そして、投影対象6の2次元配置情報が、仮想平面Sを区画して生成された複数の領域と1対1対応する複数の面から構成されるデータが中間データとなる。
 図10は、図9に示した中間データをXY平面で示した図であり、黒の実線で示されたマスの1つが中間データにおける1つの面ある。
 また、縦2列、横2列の計4の座席7から構成された観客席3を用いて中間データを生成する例を示したが、以降の光演出システム100の処理フローの説明では、縦9列、横20列の計180の座席7、並びに縦5列、横20列及び縦6列、横30列の計280の座席7から構成された観客席3を用いて生成された中間データを使用する場合の処理フローを説明する。
 そしてステップS6において、データ算出部28は、映像データ加工部27から入力された映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応であるか否かを判定する。
 以下の説明では、映像データ加工部27から入力された映像データを1の映像データと表現する。
 1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応である場合(ステップS6:YESの場合)に、処理をステップS7に進め、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応でない場合(ステップS6:NOの場合)に、処理をステップS8に進める。
 そしてステップS7において、データ算出部28は、データ生成部26から入力された中間データ及び1の映像データを用いて、1の映像データを分割映像データに分割する。ステップS7終了後、処理をステップS9に進める。
 図11を用いてデータ算出部28での処理フローを説明する。
 図11は、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応の場合の、1の映像データ、中間データ及び分割映像データを示す図である。
 映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応しているため、中間データを構成する複数の面と1対1対応する分割映像データも映像データを構成する複数の画素と1対1対応している。
 図11(a)に図8(b)に示した1の映像データ、図11(b)に中間データ、図11(c)に分割映像データを示す。
 図11(b)に示す中間データは、縦9列、横20列の計180の座席7から構成された観客席3においてステップS5の処理により生成された180の面から構成されるデータである。
 図11(b)は、黒の実線で示されたマス目が、縦9列、横20列の中間データを示しており、マスの1つが中間データにおける1つの面ある。図11(b)に示す中間データは座標軸を横軸x、縦軸yとする。
 図11(c)に示す分割映像データは、データ算出部28が、図11(b)に黒の実線で示される、中間データを構成する縦9列、横20列の計180の面の輪郭に沿って、図11(a)に示す1の映像データを分割したデータである。図11(c)は、黒の実線で示されたマス目が縦9列、横20列に分割された分割映像データを示しており、図11(c)に示すマスの1つが1つの分割映像データである。
 データ算出部28は、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応の場合、つまり、分割映像データと1の映像データを構成する複数の画素が1対1対応している場合、1の映像データを構成する縦9画素、横20画素の計180画素がそれぞれ保有するRGB値を、1の映像データを構成する縦9画素、横20画素の計180画素に対応する180の分割映像データがそれぞれ保有するRGB値として算出する。
 具体的には、1の映像データのうちの1の画素のRGB値がR=100、G=110、B=120であった場合、対応する1の分割映像データのRGB値もR=100、G=110、B=120となる。
 一方ステップS8において、データ算出部28は、ステップS7と同様にデータ算出部28は、データ生成部26から入力された中間データ及び1の映像データを用いて、1の映像データを分割映像データに分割する。ステップS8終了後、処理をステップS9に進める。
 図12は、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応ではない場合の、1の映像データ、中間データ及び分割映像データを示す図である。
 図12(a)に図8(b)に示した1の映像データ、図12(b)に中間データ、図12(c)に分割映像データを示す。
 図12(b)に示す中間データは、縦5列、横20列及び縦6列、横30列の計280の座席7から構成された観客席3においてステップS5の処理により生成された280の面から構成されるデータである。
 図12(b)に示す黒の実線で示されたマス目が縦5列、横20列及び縦6列、横30列の中間データを示しており、マスの1つが中間データにおける1つの面である。図12(b)に示す中間データは座標軸を横軸x、縦軸yとする。
 図12(b)に示す中間データは、例えば、円形のスタジアム1において、競技場を取り囲むように配置された階段状の観客席3等の中間データである。当該観客席3では、階段状に配置された観客席3の下段側から上段側に向かって増加し、観客席3に配置された横の列が横20列から横30列に増加している。
 図12(c)に示す分割映像データは、データ算出部28が、図12(b)に黒の実線で示される、中間データを構成する縦5列、横20列及び縦6列、横30列の計280の面の輪郭に沿って、図12(a)に示す1の映像データを分割したデータである。図12(c)は、黒の実線で示されたマス目が縦5列、横20列及び縦6列、横30列に分割された分割映像データを示しており、図12(c)に示すマスの1つが1の分割映像データである。
 図12(c)に示す分割映像データにおいて、データ算出部28が、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応ではない場合、つまり、分割映像データと1の映像データを構成する複数の画素が1対1対応していない場合、分割映像データが保有するRGB値の算出方法を説明する。
 図13に、1の分割映像データに、1の映像データのうちの2の画素の一部が対応している図を示す。
 1の分割映像データは、黒の実線で囲まれた領域で示される。1の映像データのうちの2の画素の一部は、領域の中央を黒の破線で区画された領域A、領域Bで示される。ここで、領域Aは、1の映像データのうちの1の画素A´´の一部であり、領域Bは、1の映像データのうちの1の画素B´´の一部である。
 まず、領域に対する領域A及び領域Bの面積占有率を算出する。図13において、領域の中央を黒の破線で区画された2つの領域を領域A及び領域Bとしているので、領域に対する領域A及び領域Bの面積占有率はどちらも50%となる。ここで、領域Aの面積占有率を面積占有率A´、領域Bの面積占有率を面積占有率B´とする。
 そして、1の映像データのうちの1の画素A´´のRGB値及び1の映像データのうちの1の画素B´´のRGB値と面積占有率の積を算出する。
 以下の説明では、1の映像データのうちの1の画素A´´のRGB値を画素A´´のRGB値、1の映像データのうちの1の画素B´´のRGB値を画素B´´のRGB値として表現する。
 画素A´´のRGB値がR=100、G=110、B=120であった場合、画素A´´のRGB値と面積占有率A´の積は、R=50、G=55、B=60となる。画素B´´のRGB値がR=200、G=210、B=220であった場合、1の映像データのうちの1の画素B´´と面積占有率の積は、R=100、G=110、B=120となる。
 そして、画素A´´のRGB値及び画素B´´のRGB値と面積占有率の積を合算する。画素A´´のRGB値と面積占有率A´の積は、R=50、G=55、B=60、1の映像データのうちの1の画素B´´と面積占有率の積は、R=100、G=110、B=120であるので、画素A´´のRGB値及び画素B´´のRGB値と面積占有率の積を合算すると、R=150、G=165、B=180となり、この値を領域で示された1の分割映像データが保有するRGB値とする。
 また、図13では面積占有率が100%未満である場合の分割映像データが保有するRGB値の算出方法について説明したが、面積占有率が100%である場合は、1の映像データを構成する複数の画素がそれぞれ保有するRGB値を、1の映像データを構成する複数の画素に対応する分割映像データがそれぞれ保有するRGB値として算出する。
 そしてステップS9において、データ算出部28は、分割映像データ補正情報を用いて、分割映像データが保有するRGB値及び発光量を補正するか否かを判定する。
 分割映像データ補正情報を用いて、分割映像データが保有するRGB値及び発光量を補正する場合(ステップS9:YESの場合)に、処理をステップS10に進め、分割映像データ補正情報を用いて、分割映像データが保有するRGB値及び発光量を補正しない場合(ステップS9:NOの場合)に、処理をステップS11に進める。
 分割映像データ補正情報を用いて、分割映像データが保有するRGB値及び発光量を補正しない場合は、データ算出部28は、ステップS7又はステップS8で算出された分割映像データが保有するRGB値を発光装置制御部25に出力する。
 そしてステップS10において、データ算出部28は、分割映像データ補正情報記憶部43Cから取得した分割映像データ補正情報から分割映像データ補正指示を生成し、分割映像データ補正指示を用いて分割映像データが保有するRGB値及び発光量を補正し、補正した分割映像データが保有するRGB値及び発光量を発光装置制御部25に出力する。ステップS10終了後、処理をステップS11に進める。
 具体的には、データ算出部28は、分割映像データ補正情報である発光装置5の光源が持つ階調に合わせて、分割映像データが保有するRGB値及び発光量を補正する。
 データ算出部28は、分割映像データが保有するRGB値が持つ階調が256階調、発光装置5の光源が持つ階調が1024階調である場合、分割映像データが保有するRGB値であるR=100を、発光装置5の光源が持つ階調に合わせて定数倍し、R=400、401、402、403のいずれかに割り当てた後、発光装置制御部25に出力する。
 そしてステップS11において、発光装置制御部25は、投影対象情報記憶部44Cから取得した投影対象情報を用いて、投影対象6に投影可能か否かを判定する。
 投影対象6に投影可能である場合(ステップS11:YESの場合)に、処理をステップS12に進め、投影対象6に投影不可能である場合(ステップS11:NOの場合)に、処理をステップS13に進める。
 具体的に、発光装置制御部25は、図示しない観客検知部により観客席3が使用されていないと判断された場合に、投影対象6に投影可能であると判断して、処理をステップS12に進め、図示しない観客検知部により観客席3が使用されていると判断された場合に、投影対象6に投影不可能であると判断して、処理をステップS13に進める。
 そしてステップS12において、発光装置制御部25は、データ算出部28から入力された分割映像データが保有するRGB値及び発光量を用いて、投影可能であると判断された投影対象6と対応する発光装置5が発光するように制御する。
 そしてステップS13において、発光装置制御部25は、投影不可能であると判断された投影対象6と対応する発光装置5が消灯するように制御する。
 このように図7に示すステップS1~ステップS13により光演出を行う。
 このように本実施の形態の光演出システム100は、投影対象6の3次元配置情報を用いて投影対象6の2次元配置情報を生成し、生成した2次元配置情報を用いて、1の映像データを分割映像データに分割し、投影対象6とそれぞれ対応する発光装置5を介して、分割映像データを投影対象6に投影するように制御することにより光演出を行う。これにより、3次元空間に配置された3次元形状を有する投影対象6にコンテンツを投影する場合に、投影対象6の3次元配置情報が考慮される。その結果、本実施の形態の光演出システム100は、3次元に配置された投影対象6にコンテンツを適切に投影できる。
 このように本実施の形態の光演出システム100は、3次元情報記憶部42Cに格納された投影対象6の3次元配置情報を用いて投影対象6の2次元配置情報を生成し、生成した2次元配置情報を用いて、1の映像データを分割映像データに分割し、投影対象6とそれぞれ対応する発光装置5を介して、分割映像データを投影対象6に投影するように制御することにより光演出を行う。これにより、3次元空間に配置された3次元形状を有する投影対象6の形状、数、配置等が変更された場合、3次元情報記憶部42Cに格納する3次元情報を形状、数、配置等が変更された投影対象6の3次元情報に更新することにより、形状、数、配置等が変更された投影対象6の3次元配置情報を考慮した光演出が行われる。その結果、本実施の形態の光演出システム100は、投影対象6の形状、数、配置等の変更に容易に対応できる。
 このように本実施の形態の光演出システム100は、3次元情報記憶部42Cから取得した3次元図面データ中に光演出システム100において、観客席3に投影された映像を見る人の視点に相当する予め定められた点Oを設定し、3次元図面データ中の投影対象6と点Oとの間で、仮想平面Sを生成し、仮想平面S上に点Oから見た投影対象6の3次元配置情報を射影して、投影対象6の2次元配置情報を生成する。これにより、観客席3に投影された映像を見る人の視点が変更された場合、予め定められた点Oを変更された映像を見る人の視点に更新することにより、変更された映像を見る人の視点を考慮した投影対象6の2次元配置情報が生成される。その結果、本実施の形態の光演出システム100は、映像を見る人の視点の変更に容易に対応できる。
 また本実施の形態の光演出システム100は、発光装置5の光学的特性並びに投影対象6の物理的特性及び光学的特性に関する情報である分割映像データ補正情報から分割映像データ補正指示を生成し、分割映像データ補正指示を用いて分割映像データが保有するRGB値及び発光量を補正し、補正した分割映像データを投影対象6に投影するように制御することにより光演出を行う。これにより、投影対象6に投影される分割映像データに発光装置5の光学的特性並びに投影対象6の物理的特性及び光学的特性が反映される。その結果、本実施の形態の光演出システム100は、発光装置5の光学的特性並びに投影対象6の物理的特性及び光学的特性応じた高精細な光演出を行うことができる。
 また本実施の形態の光演出システム100は、投影対象情報を用いて、分割映像データを投影対象6に投影するか否かを判定し、判定結果を用いて、発光装置5を制御する。これにより、座席7のうちの特定の座席が使用されている場合又は座席7のうちの特定の座席のチケットが販売されている場合に、座席7のうちの特定の座席に対応する投影対象6に光が照射されない。その結果、本実施の形態の光演出システム100は、座席7の利用者に不要な光を照射することを防ぐことができる。
 また本実施の形態の光演出システム100は、投影対象6の輪郭の照度が投影対象6の照度の1/2となるように設定される。その結果、隣接する座席7に不要な光を照射することを防ぐことが出来る。
 また本実施の形態の光演出システム100は、3次元空間に配置された3次元形状を有する複数の投影対象6とそれぞれ対応して設置される複数の発光装置5と、複数の投影対象6の3次元配置情報を格納する3次元情報記憶部42Cと、3次元情報記憶部42Cに格納された3次元配置情報から複数の投影対象6の2次元配置情報を生成するデータ生成部26と、データ生成部26で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部28と、複数の発光装置5を介して、複数の分割映像データを、複数の投影対象6に投影するように制御する発光装置制御部25と、を備える。これにより、3次元空間に配置された3次元形状を有する投影対象6にコンテンツを投影する場合に、投影対象6の3次元配置情報が考慮され、その結果、3次元に配置された投影対象6にコンテンツを適切に投影できる。
 また本実施の形態の光演出方法は、3次元空間に配置された3次元形状を有する複数の投影対象6の3次元配置情報を格納する3次元情報記憶ステップと、3次元情報記憶ステップに格納された3次元配置情報から複数の投影対象6の2次元配置情報を生成するデータ生成ステップと、データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、複数の投影対象6とそれぞれ対応する複数の発光装置5を介して、複数の分割映像データを、複数の投影対象6に投影するように制御する発光装置5制御ステップと、を備える。これにより、3次元空間に配置された3次元形状を有する投影対象6にコンテンツを投影する場合に、投影対象6の3次元配置情報が考慮され、その結果、3次元に配置された投影対象6にコンテンツを適切に投影できる。
 また本実施の形態のプログラムは、3次元空間に配置された3次元形状を有する複数の投影対象6の3次元配置情報を格納する3次元情報記憶ステップと、3次元情報記憶ステップに格納された3次元配置情報から複数の投影対象6の2次元配置情報を生成するデータ生成ステップと、データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、複数の投影対象6とそれぞれ対応する複数の発光装置5を介して、複数の分割映像データを、複数の投影対象6に投影するように制御する発光装置5制御ステップと、をコンピュータに実行させる。これにより、3次元空間に配置された3次元形状を有する投影対象6にコンテンツを投影する場合に、投影対象6の3次元配置情報が考慮され、その結果、3次元に配置された投影対象6にコンテンツを適切に投影できる。
 また本実施の形態の発光装置は、光源と、3次元空間に配置された3次元形状を有する複数の投影対象6の3次元配置情報を格納する3次元情報記憶部42Cと、3次元情報記憶部42Cに格納された3次元配置情報から複数の投影対象6の2次元配置情報を生成するデータ生成部26と、データ生成部26で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部28と、複数の発光装置5を介して、複数の分割映像データを、複数の投影対象6に投影するように制御する発光装置制御部25と、を備える制御装置20とネットワークを介して通信し、発光装置制御部25から分割映像データを取得する通信制御部51と、通信制御部51に格納された分割映像データを、投影対象6に投影するように、光源を制御する点灯制御部52と、を備える。これにより、3次元空間に配置された3次元形状を有する投影対象6にコンテンツを投影する場合に、投影対象6の3次元配置情報が考慮され、その結果、3次元に配置された投影対象6にコンテンツを適切に投影できる。
 なお、本実施の形態において、ステップS3及びステップS4の後にステップS5を実施する例を示したが、ステップS5の後にステップS3及びステップS4を実施してもよい。
 なお、本実施の形態において、発光装置5の投影対象6が観客席3である例を示したが、発光装置5の投影対象6は、建物、構造物、壁面等であってもよい。
 なお、本実施の形態において、映像加工指示が、事前設定、人による入力等により映像加工指示入力部41Aに入力される例を示したが、加工前映像データ、投影対象6の2次元配置情報、中間データを構成する複数の面の形状、中間データの鉛直方向に対する傾き等を用いて自動生成されてもよい。
 なお、本実施の形態において、映像データ加工部27が、加工前映像データを、映像データに対する横方向の平行移動の指示を用いて加工する例について説明したが、1の映像データを構成する複数の画素と中間データを構成する複数の面が1対1対応するように、加工前映像データを拡大又は縮小の指示を用いて加工してもよい。
 なお、本実施の形態において、中間データを構成する複数の面において空白領域を含まない例を示したが、中間データを構成する複数の面において空白領域を含んでもよく、中間データを構成する複数の面において空白領域を含む場合は、映像データ加工部27が空白領域に合わせて、加工前映像データを加工すればよい。
 なお、本実施の形態において、映像加工指示及び分割映像データ補正指示が、それぞれ単一の指示である例を示したが、複数の指示がそれぞれ組み合わせられてもよい。
 なお、本明細書で説明した上記の各実施の形態では、各構成要素の材質、材料、寸法、形状、相対的配置関係または実施の条件等について記載している場合があるが、これらは全ての局面において例示であって、各実施の形態が記載されたものに限られることはない。よって、例示されていない無数の変形例が、各実施の形態の範囲内において想定される。例えば、任意の構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの実施形態における少なくとも1つの構成要素を抽出し、他の実施形態の構成要素と組み合わせる場合が含まれる。
 5-1~5-n 発光装置、6-1~6-n 投影対象、20 制御装置、21 データ入力部、22 データ取得部、23 データ記憶部、24 処理部、25発光装置制御部、26 データ生成部、27 映像データ加工部、28 データ算出部、100 光演出システム

Claims (26)

  1.  3次元空間に配置された3次元形状を有する複数の投影対象とそれぞれ対応して設置される複数の発光装置と、
     前記複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、
     前記3次元情報記憶部に格納された3次元配置情報から前記複数の投影対象の2次元配置情報を生成するデータ生成部と、
     前記データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、
     前記複数の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する発光装置制御部と、
     を備える光演出システム。
  2.  前記データ生成部は、前記複数の投影対象と予め定められた点との間に仮想平面を生成し、前記仮想平面上に前記予め定められた点から見た前記複数の投影対象の3次元配置情報を射影して前記複数の投影対象の2次元配置情報を生成する、
     請求項1に記載の光演出システム。
  3.  前記複数の投影対象の2次元配置情報は、前記仮想平面を複数の領域に区画し、
     前記データ生成部は、前記複数の領域と1対1対応する複数の面から構成されるデータを中間データとして生成し、
     前記データ算出部は、前記中間データを構成する複数の面の輪郭に沿って、前記1の映像データを前記複数の分割映像データに分割する、
     請求項2に記載の光演出システム。
  4.  前記データ算出部は、前記1の映像データを構成する複数の画素がそれぞれ保有するRGB値から前記複数の分割映像データがそれぞれ保有するRGB値を算出する、
     請求項1~3のいずれか1項に記載の光演出システム。
  5.  前記データ算出部は、
     前記1の映像データを構成する複数の画素と前記複数の分割映像データが1対1対応の場合、
     前記1の映像データを構成する複数の画素がそれぞれ保有するRGB値を定数倍した値を、前記1の映像データを構成する複数の画素に対応する前記複数の分割映像データがそれぞれ保有するRGB値とする、
     請求項4に記載の光演出システム。
  6.  前記データ算出部は、
     前記1の映像データを構成する複数の画素と前記複数の分割映像データが1対1対応ではない場合、
     前記複数の分割映像データのうちの1の分割映像データにおける前記1の映像データを構成する複数の画素のうちの1の画素の面積占有率を算出し、
     前記面積占有率が100%の場合、
     前記1の映像データを構成する複数の画素のうちの1の画素が保有するRGB値を定数倍した値を、前記複数の分割映像データのうちの1の分割映像データが保有するRGB値とし、
     前記面積占有率が100%未満の場合、
     前記1の映像データを構成する複数の画素のうちの1の画素が保有するRGB値と前記面積占有率の積を算出し、
     前記複数の分割映像データのうちの1の分割映像データを構成する前記1の映像データを構成する複数の画素においてそれぞれ算出された前記積の総和を算出し、
     前記総和を定数倍した値を、前記複数の分割映像データのうちの1の分割映像データが保有するRGB値とする、
     請求項4に記載の光演出システム。
  7.  前記発光装置制御部は、前記複数の分割映像データがそれぞれ保有するRGB値及び発光量を用いて、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する、
     請求項1~6のいずれか1項に記載の光演出システム。
  8.  映像加工を施す前の映像データである加工前映像データを格納する加工前映像データ記憶部と、
     前記加工前映像データを加工する場合に使用される指示である映像加工指示を格納する映像加工指示記憶部と、
     前記加工前映像データ記憶部に格納された加工前映像データを、前記映像加工指示記憶部に格納された映像加工指示を用いて加工する映像データ加工部と、を備え、
     前記データ算出部は、前記映像データ加工部で生成された映像データを前記1の映像データとして使用する、
     請求項1~7のいずれか1項に記載の光演出システム。
  9.  前記映像加工指示は、前記加工前映像データ又は前記複数の投影対象の2次元配置情報を用いて生成される、
     請求項8に記載の光演出システム。
  10.  前記映像加工指示は、映像データの切り抜き、拡大縮小、回転、平行移動、シアー変換、カーニング、傾き挿入又は変形である、
     請求項8に記載の光演出システム。
  11.  前記複数の分割映像データがそれぞれ保有するRGB値及び発光量を補正する場合に使用される情報である分割映像データ補正情報を格納する分割映像データ補正情報記憶部と、備え、
     前記データ算出部は、前記分割映像データ補正情報記憶部に格納された分割映像データ補正情報から分割映像データ補正指示を生成し、前記分割映像データ補正指示を用いて前記複数の分割映像データがそれぞれ保有するRGB値及び発光量を補正する、
     請求項1~10のいずれか1項に記載の光演出システム。
  12.  前記分割映像データ補正情報は、前記複数の発光装置の光源が持つ階調、前記複数の投影対象の形状、前記複数の投影対象の色、前記複数の投影対象の反射率又は前記複数の投影対象の透過率である、
     請求項11に記載の光演出システム。
  13.  前記分割映像データ補正指示は、映像データの切り抜き、拡大縮小、回転、平行移動、シアー変換、カーニング、傾き挿入又は変形である、
     請求項11又は12に記載の光演出システム。
  14.  前記複数の投影対象への投影可否情報である投影対象情報を格納する投影対象情報記憶部と、を備え、
     前記投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影不可能である場合、
     前記発光装置制御部は、前記複数の投影対象のうちの特定の投影対象と対応する複数の発光装置のうちの特定の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影しないように制御し、
     前記投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影可能である場合、
     前記発光装置制御部は、前記複数の投影対象のうちの特定の投影対象と対応する複数の発光装置のうちの特定の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する、
     請求項1~13のいずれか1項に記載の光演出システム。
  15.  前記複数の投影対象は、前面と背面とを含む背当て部と上面を含む腰掛部とを有する複数の座席の前記前面又は前記上面であり、
     前記複数の発光装置は、前記複数の投影対象の1列前の前記背面に配置され、前記複数の発光装置にそれぞれ対応する前記複数の投影対象に光を発する、
     請求項14に記載の光演出システム。
  16.  前記複数の座席は、ドーム、スタジアム又はアリーナに設置された観客席を構成する、請求項15に記載の光演出システム。
  17.  前記投影対象情報は、前記複数の座席に設置された観客検知部により、前記複数の座席が使用されているか否かを判定した結果であり、
     前記観客検知部で前記複数の座席のうちの特定の座席が使用されていると判断された場合、投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影不可能であるとし、
     前記観客検知部で前記複数の座席のうちの特定の座席が使用されていないと判断された場合、投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影可能であるとする、
     請求項15又は16に記載の光演出システム。
  18.  前記投影対象情報は、前記複数の座席のチケット販売の有無の判定結果であり、
     前記複数の座席のうちの特定の座席のチケットが販売されていると判断された場合、投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影不可能であるとし、
     前記複数の座席のうちの特定の座席のチケットが販売されていないと判断された場合、投影対象情報が前記複数の投影対象のうちの特定の投影対象へ投影可能であるとする、
     請求項15又は16に記載の光演出システム。
  19.  前記複数の投影対象は、横方向に列を成し、複数の前記列が階段状に配置されることによって構成される、
     請求項1~18のいずれか1項に記載の光演出システム。
  20.  前記複数の発光装置は、前記複数の投影対象の輪郭の照度が前記複数の投影対象の照度の1/2となるように設定する、
     請求項1~19のいずれか1項に記載の光演出システム。
  21.  3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、
     前記3次元情報記憶部に格納された3次元配置情報から前記複数の投影対象の2次元配置情報を生成するデータ生成部と、
     前記データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、
     前記複数の投影対象とそれぞれ対応する複数の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する発光装置制御部と、
     を備える制御装置。
  22.  3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶ステップと、
     前記3次元情報記憶ステップに格納された3次元配置情報から前記複数の投影対象の2次元配置情報を生成するデータ生成ステップと、
     前記データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、
     前記複数の投影対象とそれぞれ対応する複数の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する発光装置制御ステップと、
     を備える光演出方法。
  23.  3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶ステップと、
     前記3次元情報記憶ステップに格納された3次元配置情報から前記複数の投影対象の2次元配置情報を生成するデータ生成ステップと、
     前記データ生成ステップで生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出ステップと、
     前記複数の投影対象とそれぞれ対応する複数の発光装置を介して、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する発光装置制御ステップと、
     をコンピュータに実行させるためのプログラム。
  24.  光源と、
     3次元空間に配置された3次元形状を有する複数の投影対象の3次元配置情報を格納する3次元情報記憶部と、前記3次元情報記憶部に格納された3次元配置情報から前記複数の投影対象の2次元配置情報を生成するデータ生成部と、前記データ生成部で生成された2次元配置情報を用いて、複数の画素から構成される1の映像データを複数の分割映像データに分割するデータ算出部と、前記複数の分割映像データを、前記複数の投影対象に投影するように制御する発光装置制御部と、を備える制御装置とネットワークを介して通信し、前記発光装置制御部から前記分割映像データを取得する通信制御部と、
     前記通信制御部に格納された前記分割映像データを、前記投影対象に投影するように、前記光源を制御する点灯制御部と、
     を備えた、
     発光装置。
  25.  前記複数の投影対象は、横方向に列を成し、複数の前記列が階段状に配置されることによって構成された前面と背面とを含む背当て部と上面を含む腰掛部とを有する複数の座席の前記前面又は前記上面であり、
     前記複数の投影対象の1列前の前記背面に配置される、
     請求項24に記載の発光装置。
  26.  前記光源は、前記複数の投影対象の輪郭の照度が前記複数の投影対象の照度の1/2となるように発光する、
     請求項24又は25に記載の発光装置。
PCT/JP2022/029730 2022-08-03 2022-08-03 光演出システム、光演出方法、プログラム、制御装置及び発光装置 WO2024028997A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022579908A JP7292542B1 (ja) 2022-08-03 2022-08-03 光演出システム、光演出方法、プログラム、及び制御装置
PCT/JP2022/029730 WO2024028997A1 (ja) 2022-08-03 2022-08-03 光演出システム、光演出方法、プログラム、制御装置及び発光装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/029730 WO2024028997A1 (ja) 2022-08-03 2022-08-03 光演出システム、光演出方法、プログラム、制御装置及び発光装置

Publications (1)

Publication Number Publication Date
WO2024028997A1 true WO2024028997A1 (ja) 2024-02-08

Family

ID=86729216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/029730 WO2024028997A1 (ja) 2022-08-03 2022-08-03 光演出システム、光演出方法、プログラム、制御装置及び発光装置

Country Status (2)

Country Link
JP (1) JP7292542B1 (ja)
WO (1) WO2024028997A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080106702A1 (en) * 2006-06-30 2008-05-08 Huonker Ulrich Integrated projector included in a seat for displaying information
US20130335313A1 (en) * 2012-06-19 2013-12-19 Tait Technologies, Inc. Process of creating a display, system for creating a display, and mobile untethered display device
JP2016206311A (ja) * 2015-04-17 2016-12-08 富士通株式会社 コレオグラフィ作成支援方法、コレオグラフィ作成支援プログラムおよび情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080106702A1 (en) * 2006-06-30 2008-05-08 Huonker Ulrich Integrated projector included in a seat for displaying information
US20130335313A1 (en) * 2012-06-19 2013-12-19 Tait Technologies, Inc. Process of creating a display, system for creating a display, and mobile untethered display device
JP2016206311A (ja) * 2015-04-17 2016-12-08 富士通株式会社 コレオグラフィ作成支援方法、コレオグラフィ作成支援プログラムおよび情報処理装置

Also Published As

Publication number Publication date
JPWO2024028997A1 (ja) 2024-02-08
JP7292542B1 (ja) 2023-06-16

Similar Documents

Publication Publication Date Title
JP2675339B2 (ja) 色画像情報を決定する方法
CA2063756C (en) Data projection system
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
KR101094118B1 (ko) 3차원 프로젝션 디스플레이
US7652674B2 (en) On the fly hardware based interdigitation
CN107193372A (zh) 从多个任意位置矩形平面到可变投影中心的投影方法
US20020067355A1 (en) Lighting and shadowing methods and arrangements for use in computer graphic simulations
EP1646010B1 (en) Method for generating textures for continuous mapping
CN101344707A (zh) 自动多投影仪非线性几何校正与边缘融合方法
US11120770B2 (en) Systems and methods for hiding dead pixels
KR101031062B1 (ko) 복합 현실 구현을 위한 영상 투사 방법
US11942009B2 (en) Display non-uniformity correction
EP0329476A2 (en) Apparatus and system for generating smooth shaded continuous tone images
CN113424103B (zh) 具有自由形式折叠镜的背投模拟器
JPH09330423A (ja) 三次元形状データ変換装置
WO2024028997A1 (ja) 光演出システム、光演出方法、プログラム、制御装置及び発光装置
US6744440B1 (en) Image processing apparatus, recording medium, and program
JP5618391B2 (ja) 画像処理発光制御システム、発光表示用画像処理プログラム、および画像発光表示方法
WO2016203951A1 (ja) 面材模様仕上がりシミュレーション装置及び面材模様仕上がりシミュレーション方法
KR102702493B1 (ko) 멀티뷰 스타일 전이 시스템 및 방법
JPH06176129A (ja) コンピュータ・グラフィックス制作装置
US10950199B1 (en) Systems and methods for hiding dead pixels
JPH09265548A (ja) 疑似的に皺を表現した模様を生成する方法および装置ならびにこの模様を有する印刷物
JPH1125281A (ja) テクスチャマッピング方法
CN118710798A (zh) 一种基于3d点云密度自适应视锥模型的点云渲染及分割增强方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022579908

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22953986

Country of ref document: EP

Kind code of ref document: A1