WO2017002841A1 - ユーザ参加型のイベント演出システム - Google Patents

ユーザ参加型のイベント演出システム Download PDF

Info

Publication number
WO2017002841A1
WO2017002841A1 PCT/JP2016/069232 JP2016069232W WO2017002841A1 WO 2017002841 A1 WO2017002841 A1 WO 2017002841A1 JP 2016069232 W JP2016069232 W JP 2016069232W WO 2017002841 A1 WO2017002841 A1 WO 2017002841A1
Authority
WO
WIPO (PCT)
Prior art keywords
content data
data
content
unit
management server
Prior art date
Application number
PCT/JP2016/069232
Other languages
English (en)
French (fr)
Inventor
寿之 猪子
Original Assignee
チームラボ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by チームラボ株式会社 filed Critical チームラボ株式会社
Publication of WO2017002841A1 publication Critical patent/WO2017002841A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Definitions

  • the present invention relates to a user participation type event production system. More specifically, the production system of the present invention participates by using, for example, image data (photographs) and sound data (singing voice) uploaded to a server in advance by concert participants for production at the concert. It is related with the system which provides the production which can raise a sense of unity of a person and an artist.
  • Patent Document 1 as a kind of system for performing an event, an additional image transmitted from a user's mobile terminal device is synthesized on a display screen prepared by an organizer, etc., and various intention displays and opinion exchanges are performed.
  • the thing which can perform etc. is known.
  • a mobile terminal device such as a mobile phone
  • a visual “hands-on” effect and the like it is said that it can be made.
  • each user's portable terminal device can process and edit an additional image.
  • the system of Patent Document 1 is configured such that a plurality of users can perform arbitrary processing and editing on the additional images, respectively, and display them on a display screen prepared by an organizer at an arbitrary timing.
  • the sense of unity and unity of the production will be lost, and a beautiful production that will remain in the memories of the user will be lost.
  • Patent Document 1 since the system of Patent Document 1 performs an operation in which each user individually displays an additional image on a display screen using a mobile terminal, when access from the mobile terminal is concentrated on the image composition apparatus, the composition apparatus There is a possibility that a delay may occur in the composition processing in the system. For this reason, there remains a technical problem that an additional image cannot be displayed at an appropriate timing in a state where access to the synthesizing apparatus is concentrated.
  • the present invention when using content data such as photographs provided by a user for event production, the present invention appropriately sets each content data so as to express a sense of unity between the production effect and event details (music, etc.).
  • the purpose is to provide a system that can be edited. It is another object of the present invention to provide an investigating experience for a user on the day of an event. Furthermore, an object of the present invention is to eliminate a delay that occurs in event presentation processing.
  • the inventor of the present invention as a result of earnestly examining the means for solving the problems of the conventional invention, previously collected content data such as photos, videos, and audio from event participants, and stored them in a server for centralized management.
  • content data such as photos, videos, and audio from event participants
  • the content data provided by the participants can be used to create a video with a sense of unity with the event content in real time.
  • the inventor has conceived that the problems of the prior art can be solved based on the above knowledge, and has completed the present invention. More specifically, the present invention has the following configuration.
  • the present invention relates to an event production system.
  • the effect system according to the present invention includes a mobile terminal 10, a management server 20, an effect control device 30, and an effect output device 40.
  • the mobile terminal 10 includes a content storage unit 11 and a communication unit 12.
  • the content storage unit 11 stores content data including at least image data.
  • the communication unit 12 transmits the content data stored in the content storage unit 11 to the management server 20.
  • the content data here includes information that can be output via the effect output device 40 such as a display or a speaker, such as sound data (audio data), video data, and text data, in addition to image data.
  • the management server 20 includes a terminal communication unit 21, a database 22, a management control unit 23, and a control device communication unit 24.
  • the terminal communication unit 21 receives content data from the mobile terminal 10.
  • the database 22 stores content data received via the terminal communication unit 21.
  • the management control unit 23 extracts desired content data from the content data stored in the database 22.
  • the control device communication unit 24 transmits the content data extracted by the management control unit 23 to the effect control device 30.
  • a plurality of content data can be stored in the database 22, and the management control unit 23 can extract a plurality of content data from the database 22 and output it to the effect control device 30 via the control device communication unit 24.
  • the effect control device 30 includes a communication unit 31, a content editing unit 32, and a device control unit 33.
  • the communication unit 31 receives content data from the management server 20.
  • the content editing unit 32 edits content data received via the communication unit 31.
  • the device control unit 33 is connected to the effect output device 40 and controls the effect output device 40 to output the edited content data edited by the content editing unit 32.
  • the content data editing processing here includes processing of the content data itself (trimming, color scheme, color filter change, etc.), content data display mode (display pattern), This includes various editing processes that can be done with existing video editing software, such as design processing, control processing that matches the timing of outputting content data with music, or control processing of the display position of a plurality of content data.
  • the content data editing processing here includes processing for editing sound volume, range, sound quality, tempo, rhythm, and the like.
  • content data such as photographic images uploaded from the mobile terminal 10 is stored in the management server 20, and desired content data is sent to the effect control device 30 through the management server 20, for example, on the day of the event.
  • the effect control device 30 edits the content data downloaded from the management server 20 according to the content of the event (for example, the rhythm or tempo of the music).
  • the production control device 30 can perform editing processing with a sense of unity that matches the content of the event, with respect to content data such as face photos of the participants of the event.
  • event participants cannot know what kind of editing process is performed on their photos or the like. Therefore, it is possible to provide a production with a sense of surprise (surprise) to the event participants.
  • the content data processing can be performed collectively in the effect control device 30, access from the mobile terminal 10 is concentrated on the management server 20 and the effect control device 30 on the day of the event, thereby delaying the processing. You can avoid inviting situations. As a result, content data can be output at an appropriate timing without delay.
  • the effect control device 30 preferably further includes an effect data storage unit 34 that stores at least music data.
  • the content editing unit 32 edits the content data based on the music data stored in the effect data storage unit 34.
  • the device control unit 33 controls the effect output device 40 so as to output the edited content data edited by the content editing unit 32 together with the music data.
  • the music data includes various data constituting the music, such as the melody of music, rhythm tempo, and lyrics.
  • content data editing processing includes, for example, editing for displaying or switching each content data in accordance with the melody or rhythm of the song, or adjusting the display position of the content data to display a plurality of content data. Edits that represent the lyrics of the song.
  • content data is edited in accordance with the music data, and the music data and the content data are output together, so that it is possible to produce a sense of unity with the music flowing in the venue.
  • the production system of the present invention preferably further includes an input device 50 for inputting environmental information of the venue where the production output device 40 is installed.
  • the production output device 40 and the input device 50 are installed in the same event venue.
  • the content editing unit 32 preferably edits the content data based on the environment information acquired via the input device 50.
  • This environmental information includes acoustic information collected by a microphone (artist performance and audience support), still and moving images taken with a camera, lighting information in a venue acquired by a light sensor, or inside the venue. Includes information about temperature and humidity.
  • the environment information in the event venue is input to the effect control device 30, and the content data is edited in real time based on the environment information, so that an effect with a sense of reality can be performed. For example, it is possible to estimate whether the participant is excited from sound, moving images, light, temperature, humidity, and the like, and appropriately change the content data editing process according to the degree of the increase.
  • the personal data of the participant may be reflected in the content data editing process.
  • the portable terminal 10 further includes an input unit 13 that receives input of user personal data.
  • the communication unit 12 of the portable terminal transmits the personal data input to the input unit 13 to the management server 20 together with the content data.
  • the personal data here includes personal information (text data) that can be distinguished from the content data, such as the user's name, gender, birthday, anniversary, favorite words, favorite song names, and the like.
  • the user's face photo is included in the content data.
  • the terminal communication unit 21 receives content data and personal data from the mobile terminal 10.
  • the database 22 stores the content data received from the portable terminal 10 via the terminal communication unit 21 and personal data in association with each other.
  • the management control unit 23 extracts desired content data and personal data associated therewith from the content data stored in the database 22.
  • the control device communication unit 24 transmits the content data and personal data extracted by the management control unit 23 to the effect control device 30.
  • the communication unit 31 of the effect control device 30 receives content data and personal data from the management server 20.
  • the content editing unit 32 edits the content data based on the personal data received via the communication unit 31.
  • the device control unit 33 controls the effect output device 40 to output the edited content data edited by the content editing unit 32.
  • the content editing unit 32 performs an editing process of analyzing the colors of a plurality of image data included in the content data and rearranging the arrangement of the image data based on the colors of the image data. It is good as well.
  • a plurality of image data can be classified and displayed for each representative color, or the artist's face can be displayed like mosaic art using the plurality of image data.
  • the management control unit 23 of the management server 20 preferably includes a participant confirmation unit 23a and a data extraction unit 23b.
  • the participant confirmation unit 23a has a function of confirming whether or not the user who owns the mobile terminal 10 is participating in the event by performing response communication with the mobile terminal 10.
  • the data extraction unit 23b has a function of extracting content data received from the portable terminal 10 possessed by the user who has been confirmed to participate in the event by the participant confirmation unit 23a from the content data stored in the database 22. have.
  • the content data related to the person who actually participates in the event among the content data stored in the database 22 can be used for the rendering process. For example, it is possible to take measures such as not using photos of people who are no longer able to participate in the event. Thereby, the sense of unity among the participants can be further enhanced by the production of the event.
  • the mobile terminal 10 may further include a position information acquisition unit 14 for acquiring its current position information.
  • the mobile terminal 10 transmits its current location information acquired by the location information acquisition unit 14 to the management server 20.
  • the participant confirmation means 23a of the management server 20 determines that the user who owns the mobile terminal 10 is participating in the event when the position information received from the mobile terminal 10 matches the position information of the event venue. .
  • the position information of the mobile terminal 10 is automatically acquired, and the reliability of the determination of participation / non-participation is determined by determining whether the participant participates in the event using the position information. Can be high. This can encourage participants to actually visit the event venue.
  • each content data is appropriately displayed so as to express a sense of unity between the production effect and the details of the event (music, etc.). Can be edited.
  • the present invention can provide an astonishing presentation for the user on the day of the event. Furthermore, the present invention can eliminate the delay that occurs in event presentation processing.
  • FIG. 1 shows an outline of the production system.
  • FIG. 2 is a block diagram showing the functional configuration of the rendering system.
  • FIG. 3 is a flowchart showing processing at the time of content data registration.
  • FIG. 4 is a flowchart showing processing at the time of outputting content data.
  • FIG. 5 shows an example of an effect using content data.
  • FIG. 6 shows an example of an effect using content data.
  • FIG. 7 shows an example of an effect using content data.
  • FIG. 8 shows an example of user participation confirmation processing.
  • FIG. 9 shows an example of user participation confirmation processing.
  • FIG. 1 shows an overall view of an event presentation system 100 according to the present invention.
  • the rendering system 100 includes a plurality of mobile terminals 10, a management server 20, a rendering control device 30, a rendering output device 40, and an input device 50.
  • the plurality of mobile terminals 10 are mutually connected to the management server 20 via information communication lines 60 such as the Internet.
  • the management server 20 is connected to the presentation control device 30 via the information communication line 60.
  • the effect control device 30 is connected to various effect output devices 40 and input devices 50 via a wireless or wired LAN (Local Area Network) 70 or the like.
  • LAN Local Area Network
  • the portable terminal 10 is a portable information terminal (PDA: Personal Digital Assistant) such as a so-called smartphone, and is possessed by a system user (event participant).
  • the management server 20 is operated by an administrator of this system, and functions as a Web server that provides a Web site to the mobile terminal 10 and the presentation control device 30, for example.
  • the management server 20 may be constructed by a plurality of server devices. In this system, content data including image data and sound data is uploaded from the mobile terminal 10 to the management server 20.
  • the management server 20 includes a database 22 for accumulating and managing these contents data.
  • the production control device 30 is operated by the operator of this system and is basically installed in the venue of the event. As the production control device 30, a PC having software for editing images and sounds may be used.
  • the effect control device 30 can download desired content data from the management server 20 and edit it.
  • a plurality of types of effect output devices 40 are installed as stage devices. Examples of the effect output device 40 include a display, a speaker, and a light.
  • Each production output device 40 outputs video, sound, light, and the like under the control of the production control device 30.
  • the input device 50 is a device for acquiring environmental information (sound, light, video, temperature, humidity, etc.) in the event venue, and is basically installed in the same venue as the production output device 40. .
  • the production system 100 of the present invention can be used for events such as concerts, live performances, stage performances, weddings, wedding receptions.
  • the production system 100 collects content data such as a user's face photo and voice from the mobile terminal 10 and stores it in the management server 20 before the event date. deep. Thereafter, for example, on the day of the event, the content data of the participant of the event is downloaded from the management server 20 to the effect control device 30.
  • the effect control device 30 collectively edits the content data of the participant according to the contents of the event, and outputs the edited content data through the effect output device 40 such as a display or a speaker. This gives the event participants a sense of realism and unity as if they were on the stage.
  • FIG. 2 shows functional blocks of various devices constituting the production system 100.
  • the functional block shown in FIG. 2 is an example, and the configuration of the present invention is not limited to this.
  • the mobile terminal 10 includes a content storage unit 11, a communication unit 12, a touch panel (input unit) 13, a position information acquisition unit 14, a liquid crystal display (display unit) 15, a camera 16, a microphone 17, and A terminal control unit 18 is included.
  • Various functional units of the mobile terminal 10 function under the control of the terminal control unit 18.
  • the content storage unit 11 stores content data managed by the user. Examples of the content data include image data of a photograph taken by the camera 16, video data of a moving image, acoustic data collected by the microphone 17, or music data.
  • the content data may include image data and sound data downloaded through the Internet.
  • a liquid crystal display 15 is arranged on the front surface of the touch panel 13, and these constitute a touch panel display. Image data and the like stored in the content storage unit 11 can be displayed on the liquid crystal display 15.
  • the position information acquisition unit 14 has a function of performing GPS positioning, and can obtain its current position information (latitude and longitude information) based on radio waves received from GPS satellites.
  • the portable terminal 10 can exchange information with the management server 20 via the Internet by the communication unit 12.
  • content data stored in the content storage unit 11 current position information acquired by the position information acquisition unit 14, or input information / operation information input via the touch panel 13 is stored in the communication unit 12. Is transmitted to the management server 20 via.
  • the mobile terminal 10 can receive information (for example, a website) from the management server 20 via the communication unit 12.
  • the management server 20 includes a terminal communication unit 21, a database 22, a management control unit 23, and a control device communication unit 24. Various functional units of the management server 20 function under the control of the management control unit 23.
  • the management server 20 receives content data and the like from the mobile terminal 10 via the terminal communication unit 21 and accumulates them in the database 22.
  • the database 22 stores content data for each user and mobile terminal 10. Specifically, in the database 22, content data is stored in association with ID information in order to identify the user and the mobile terminal 10.
  • the management server 20 provides a website to the mobile terminal 10 via the terminal communication unit 21, and accepts input of personal data of each user and ticket data of an event in which the user participates through the website. be able to.
  • the personal data and ticket data obtained in this way are registered in the database 22 in association with the ID information of each user together with the content data.
  • the ID information as key data
  • the personal data here includes various personal information such as the user's name, address, age, birthday, anniversary, favorite words, favorite artist name, favorite song name, and the like.
  • the ticket data includes ID information for identifying the event in which the user participates, and information related to the event such as the event location, date and time, period, seat information, and organizer. These personal data and ticket data are basically text data, and are distinguished from content data that is image data and sound data.
  • the database 22 can store various information related to users and events.
  • the management control unit 23 of the management server 20 can extract desired data (content data, personal data, ticket data, etc.) from the database 22 and transmit it to the effect control device 30 via the control device communication unit 24. It can. Specifically, the management control unit 23 extracts content data, personal data, and ticket data uploaded by the participant of the event from the database 22 on the day of the event, and transmits them to the effect control device 30. The management control unit 23 may automatically transmit content data or the like to the effect control device 30 on the day of the event, or may transmit content data or the like when requested by the effect control device 30. . For example, it can be considered that the management control unit 23 includes a participant confirmation unit 23a, a data extraction unit 23b, and a database editing unit 23c.
  • the participant confirmation unit 23a has a function of confirming whether or not the user who owns the mobile terminal 10 is participating in the event by performing response communication with the mobile terminal 10. Specific processing by the participant confirmation unit 23a will be described in detail later with reference to FIGS.
  • the data extraction unit 23b has a function of extracting content data received from the mobile terminal 10 possessed by the user who has been confirmed to participate in the event by the participant confirmation unit 23a from the content data stored in the database 22.
  • the database editing unit 23 c can perform an editing process on the data structure of the database 22 or the content data stored in the database 22 in response to a request from the mobile terminal 10 or the effect control device 30.
  • the effect control device 30 includes a communication unit 31, a content editing unit 32, an effect data storage unit 34, a content storage unit 35, and an effect control unit 36.
  • Various functional units of the production control device 30 function under the control of the production control unit 36.
  • the presentation control unit 36 can make a download request for content data, personal data, ticket data, and the like to the management server 20 through the communication unit 31.
  • the effect control unit 36 stores the content data downloaded from the management server 20 in the content storage unit 35.
  • the content storage unit 35 is used for storing data that can be downloaded from the management server 20.
  • the production data storage unit 34 stores various data used for production at the event, such as music data used at the event, video data, and lighting effect data.
  • the data stored in the effect data storage unit 34 is basically not provided by each user but prepared and prepared in advance by the event operator. In this respect, the data stored in the effect data storage unit 34 is distinguished from the content data stored in the content storage unit 35.
  • the effect data storage unit 34 preferably stores at least music data used in event performance.
  • the music data is composed of data constituting the music such as music melody, rhythm tempo, and lyrics (text) data.
  • the content editing unit 32 has a function of reading content data stored in the content storage unit 35 and editing it.
  • the content editing unit 32 includes an image editing unit 32a that edits image data such as a user's face photo and an acoustic editing unit 32b that edits acoustic data such as a user's voice.
  • the image editing unit 32a and the sound editing unit 32b may function separately or may function simultaneously.
  • Various methods of editing content data by the content editing unit 32 can be considered.
  • the content editing unit 32 may create a slide show in which the user's face photos are arranged one by one, or a plurality of face photos may be arranged in tiles and displayed at the same time. Good.
  • the content editing unit 32 analyzes the color information of the image data, extracts representative color information, and arranges a plurality of image data based on the color classification so as to form a mosaic art. Processing can also be performed. It is also possible to form a single artist's face as a mosaic art using the face photos of multiple participants. In addition, the content editing unit 32 may edit the user's singing voice and the tempo of the song (content data) so as to match the musical piece being played on the stage, or superimpose a plurality of singing voices. Such editing may be performed. Furthermore, it is possible to edit such that the user's personal data is referred to and the photograph image of the user whose event day is an anniversary or birthday is taken up and displayed on the display. When the content is acoustic data, the content data editing processing here includes processing for editing sound volume, range, sound quality, tempo, rhythm, and the like. An example of editing content data will be described in more detail later.
  • the device control unit 33 controls the content data edited by the content editing unit 32 to be output to various production output devices 40.
  • the effect output device 40 include a display 41 that displays images and videos, a speaker 42 that emits sound and music, and a light 43 that emits light of various colors.
  • the device control unit 33 controls these effect output devices 40.
  • Various production output devices 40 are devices used for production of an event stage, and are basically installed in a venue where an event is held.
  • the input device 50 is installed in the same venue as the production output device 40.
  • the input device 50 include a microphone 51 to which acoustic information in the hall is inputted, an optical sensor 52 to which light color information / intensity information is inputted, a camera 53 to which video information in the event hall is inputted, and an event hall.
  • the environmental information in the venue acquired by these input devices 50 is input to the production control device 30 through the device control unit 33 and used for editing the content data.
  • the content editing unit 32 analyzes the acoustic information collected by the microphone 51 (artist performance or cheering by the audience), and if the content editing unit 32 determines that the volume is above a certain level, the content editing unit 32 presumes that the venue is exciting.
  • the content data editing method can be changed to a flashy one.
  • the content editing unit 32 has a specific parameter that exceeds a threshold value based on the intensity of light detected by the optical sensor 52, a moving image captured by the camera 53, or temperature / humidity detected by the humidity sensor 54. When it is determined, the content data editing method can be changed. In this way, by receiving feedback from environmental information in the venue and controlling the content data editing method, it is possible to provide an effect that is integrated with the situation in the venue.
  • FIG. 3 shows a flowchart of a registration process of content data and the like performed before the event is held.
  • an event participant purchases an event ticket by any method (step S1).
  • the ticket purchase procedure may be performed by a computer process using an electronic ticket, or may not be a computer process.
  • the management server 20 sends an e-mail or the like to the mobile terminal 10 of the participant who purchased the ticket, for example, and provides the URL of the special site for the event (step S2).
  • the mobile terminal 10 receives the URL of the special site from the management server 20 (step S3), the mobile terminal 10 accesses the special site by the operation of the participant (step S4).
  • the management server 20 receives access from the mobile terminal 10 and provides a special event site to the mobile terminal 10.
  • This special site includes an input screen for inputting various data such as content data, participant personal data, and event ticket data.
  • the participant operates the mobile terminal 10 in accordance with the input screen of the special site to create content data to be uploaded to the management server 20 (photographing a face photo or inputting voice), or has already been stored in the mobile terminal 10 Selected content data.
  • the participant inputs various personal data such as his / her name, address, age, birthday, anniversary, favorite words, and the like.
  • the participant inputs the event ID information, the venue location, date and time, period, seat information, and the like described in the ticket (step S6).
  • the content data input by the participant is uploaded to the management server 20 through the mobile terminal 10 (step S7).
  • the management server 20 receives various data including content data from the mobile terminal 10 (step S8), and registers it in the database 22 (step S9).
  • the management server 20 performs such a series of processes on the plurality of mobile terminals 10, collects content data from the plurality of mobile terminals 10, and stores them in the database 22.
  • the management server 20 can also edit the data structure of the database 22 and the content data at the stage where the collection and storage of the content data is completed (step S10).
  • FIG. 4 shows a flow chart of editing processing of content data etc. performed on the day of the event.
  • confirmation processing is performed between the mobile terminal 10 and the management server 20 to determine whether the user of the mobile terminal 10 is actually participating in the event (step S11).
  • this participation confirmation process is an arbitrary process and is not necessarily performed in this system. Details of the participation confirmation process will be described later.
  • the management server 20 extracts content data, personal data, and ticket data uploaded by the event participants from the database 22 (step S12).
  • the management server 20 refers to the ticket data registered in the database 22 (event date and time, etc.), so that the content data stored in the database 22 belongs to the participant of this event. It can be extracted after checking.
  • the management server 20 extracts from the database 22 the content data of the user who has been confirmed to actually participate in the event by the above-described participation confirmation process (step S11).
  • the database 22 may store content data of users who have purchased tickets but are no longer able to participate in the event.
  • step S11 by performing participation confirmation processing (step S11) on the day of the event, only the content data and the like of users who actually participate in the event are extracted, and content data is acquired for users who are no longer able to participate in the event. It is possible not to extract.
  • the management server 20 transmits the content data extracted from the database 22 in this way to the effect control device 30.
  • the presentation control device 30 receives the content data distributed from the management server 20, the participant's personal data, and ticket data, and stores them in the content storage unit 35 (step S14).
  • the production control device 30 edits these content data and creates new content data reflecting the contents of the event and the participant's personal data (step S15), and the edited content data is sent to the production output device 40. Transmit (step S16).
  • the effect output device 40 outputs the edited content data in accordance with the control by the effect control device 30 (step S17).
  • the input device 50 When the event is started, the input device 50 is activated, and environmental information (acoustic information, light information, video information, humidity information, etc.) in the event venue is input to the various input devices 50 (step S18). ).
  • the various input devices 50 transmit the acquired environment information to the effect control device 30, and the effect control device 30 receives this (step S19).
  • the production control device 30 can edit the content data based on the environment information obtained from the input device 50 (step S15). As a result, the content data can be edited to reflect the environmental information in the venue, and an effect suitable for the situation in the venue can be executed.
  • the photos taken by the user at the event venue can be shared with all the participants in the venue. More specifically, content data such as photos uploaded from the mobile terminal 10 is recorded in the database 22 of the management server 20. For this reason, the management server 20 provides a URL or the like for accessing the database 22 to the mobile terminal 10 so that the photos stored in the database 22 can be freely viewed or downloaded from each mobile terminal 10. You can make it possible. Further, the management server 20 can create an album in which photos uploaded by the user are collected for each event, and allow the user to browse photos in the album. In this way, it is possible to share the photos taken by the user at the event venue with all the participants in the venue.
  • content data such as images and sounds edited in the production control terminal 30 can be distributed to the user's mobile terminal 10 via the management server 20.
  • the presentation control terminal 30 uploads the edited content data to the management server 20 through the communication unit 31.
  • the management server 20 receives the edited content data through the control device communication unit 24, stores it in a database or the like, and distributes the edited content data to a plurality of portable terminals 10 through the terminal communication unit 21.
  • the mobile terminal 10 receives the edited content data through the communication unit 12 and outputs it from the liquid crystal display 15 or the microphone 17. This makes it possible to share content data such as photos used in the event with all event participants.
  • step S15 the content data editing process (step S15) will be described in more detail.
  • 5 to 7 show examples of effects using content data executed by the effect system 100 according to the present invention.
  • a slide show is created using image data and moving image data uploaded by a participant and displayed on a large display.
  • the slide show displays image data and the like one by one, and the image data is switched according to the tempo and rhythm of the music played by the artist.
  • the content editing unit 32 of the production control device 30 analyzes the tempo and rhythm of the music data stored in the production data storage unit 34, and the participant data is switched so that the image data is switched in accordance with the tempo and rhythm.
  • An editing process for creating a slide show of image data may be performed.
  • the content editing unit 32 acquires the acoustic information of the music that the artist is actually performing with the microphone 51 installed in the venue, analyzes the tempo and rhythm, and images according to the tempo and rhythm. It is also possible to create a slide show of participant image data so that the data changes.
  • the slide show shown in FIG. 5 is set to be displayed in a scene where the venue is exciting.
  • the content editing unit 32 can analyze the music data stored in the effect data storage unit 34 and start a slide show of image data at the scene where the chorus of the music starts.
  • the content editing unit 32 can also analyze the acoustic information input to the microphone 51 installed in the venue, and can start a slide show of image data when the volume in the venue exceeds a threshold value.
  • tile-shaped image data may be edited so as to move in accordance with the rhythm of the music, or may be edited so as to represent the lyrics of the music.
  • the content editing unit 32 of the production control device 30 analyzes the tempo and rhythm of the music data stored in the production data storage unit 34 and performs an editing process so that the image data moves according to the tempo and rhythm. Just do it.
  • the content editing unit 32 acquires the acoustic information of the music that the artist is actually performing with the microphone 51 installed in the venue, analyzes the tempo and rhythm, and images according to the tempo and rhythm. You can also edit the data to move.
  • the content editing unit 32 can extract the lyric data included in the music data stored in the effect data storage unit 34, and perform editing processing to rearrange the image data so as to form a part of the lyric. .
  • the content editing unit 32 performs an editing process of analyzing the colors of a plurality of image data included in the content data and rearranging the arrangement of the image data based on the colors of the image data. It can also be done.
  • the content editing unit 32 can classify and arrange a plurality of image data for each representative color, or display the artist's face like a mosaic art using the plurality of image data. It is.
  • a plurality of image data uploaded by the participants are displayed in a tiled manner, and the singing voice uploaded by the participants is reproduced in the venue according to the performance of the artist. .
  • a performance such as chorus by participants and artists is performed.
  • each participant's face photo is displayed larger and each participant's singing voice displayed larger is reproduced at a louder volume than the singing voices of other participants.
  • the content editing unit 32 of the production control device 30 analyzes the tempo and rhythm of the music data stored in the production data storage unit 34 and adjusts the tempo of the singing voice data of the participant according to the tempo and rhythm. An editing process for adjusting the rhythm can be performed.
  • the content editing unit 32 acquires the acoustic information of the music that the artist is actually playing with the microphone 51 installed in the venue, analyzes the tempo and rhythm, and participates in accordance with this tempo and rhythm. It is also possible to adjust the singing voice data
  • the content editing unit 32 of the production control device 30 can also edit the content data based on the participant's personal data.
  • the participant's personal data includes information about the participant's birthday and some anniversary. Therefore, if the birthday or anniversary date of the participant is the same day as the date of the event, or if it is in the near future, the content editing unit 32 greatly displays the image data uploaded from the participant on the display. It can be displayed, or it can be displayed prominently by applying a special editing process. As a result, it is possible to perform a special performance that is memorable for the participants.
  • the participant's personal data includes information on the favorite song name of each participant.
  • the content editing unit 32 may perform editing such as displaying the image data uploaded from the participant on the display when the title of the song performed by the artist in the event matches the name of the favorite song of the participant. it can. In this way, by editing the content data based on the participant's personal data, it is possible to execute an effect with a sense of unity between the participant and the artist.
  • the content editing unit 32 of the production control device 30 can edit the content data based on the participant's ticket data.
  • the ticket data includes information on the position of the participant's seat. Therefore, the content editing unit 32 can rearrange the image data uploaded from the participant based on the seating position of the participant and display it on the large display.
  • FIG. 8 shows an example of the participation confirmation process (step S11) shown in FIG.
  • the user's participation is confirmed by having the user announce participation in the event on the day of the event.
  • the user logs in to a special site provided by the management server 20 via the mobile terminal 10 (step S11-A1).
  • the management server 20 provides a participation confirmation screen to the mobile terminal 10 (step S11-A2).
  • the user inputs a response indicating whether he / she is participating in the event or not participating in the mobile terminal 10 (step S11-A3).
  • the management server 20 determines which user is participating in the event according to the response from the user (step S11-A4).
  • the management server 20 proceeds to step S12 shown in FIG. 4 and extracts from the database 22 the content data of the user who has announced participation.
  • the management server 20 ends the process without extracting the content data from the database 22.
  • FIG. 9 shows another example of the participation confirmation process (step S11) shown in FIG.
  • the management server 20 automatically determines the location of the mobile terminal 10 on the day of the event, and determines whether the user is actually at the event venue.
  • the management server 20 requests the mobile terminal 10 to acquire position information (step S11-B2).
  • the mobile terminal 10 acquires its current position information by GPS positioning (step S11-B3), and transmits the position information to the management server 20 (step S11-B4).
  • the management server 20 collates the position information received from the mobile terminal 10 with the event venue position information (step S11-B5).
  • the management server 20 determines whether or not the location information of the mobile terminal 10 matches the location information of the event venue (step S11-B6).
  • the management server 20 determines that the user is participating in the event, as shown in FIG. Proceeding to step S12, content data and the like of users participating in the event are extracted from the database 22.
  • the management server 20 ends the process without extracting the content data from the database 22.
  • the system of the present invention it is possible to share a photograph taken by a user at an event venue with all the participants in the venue.
  • content data such as images and sounds edited in the production control terminal 30 can be distributed to the user's portable terminal 10 via the management server 20.
  • the above-described participation confirmation processing may be performed. Specifically, when distributing the content data to the mobile terminal 11, the content data may be distributed only to the mobile terminal 11 of the user who has been confirmed to participate in the event through the participation confirmation process.
  • the present invention relates to a user participation type event production system. Therefore, the present invention can be suitably used in the entertainment industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【解決課題】ユーザから提供された写真等のコンテンツデータをイベントの演出に利用する。 【解決手段】携帯端末10は,コンテンツデータを記憶するコンテンツ記憶部11と,コンテンツデータを管理サーバ20に送信する通信部12を有する。管理サーバ20は,携帯端末10からコンテンツデータを受信する端末通信部21と,受信したコンテンツデータを蓄積するデータベース22と,データベース22の中から所望のコンテンツデータを抽出する管理制御部23と,抽出されたコンテンツデータを演出制御装置30に送信する制御装置通信部24を有する。演出制御装置30は,管理サーバ20からコンテンツデータを受信する通信部31と,受信したコンテンツデータを編集するコンテンツ編集部32と,演出出力装置40を制御して編集後のコンテンツデータを出力させる装置制御部33とを有する。

Description

ユーザ参加型のイベント演出システム
 本発明は,ユーザ参加型のイベント演出システムに関する。具体的に説明すると,本発明の演出システムは,例えばコンサートの参加者が事前にサーバにアップロードした画像データ(写真)や音響データ(歌声)を,そのコンサートでの演出に利用することにより,参加者とアーティストの一体感を高めることのできる演出を提供するシステムに関するものである。
 従来から,コンサートや,ライブ,舞台,結婚式,結婚披露宴のようなイベントの雰囲気を盛り上げるために,様々な演出方法が考案されている。例えば,一般的なイベントの演出方法としては,音楽に合わせて大型のディスプレイに映像を表示したり,スポットライトの照明の色や点灯パターンを変えたりするような演出方法が知られている。
 特許文献1には,イベントの演出を行うためのシステムの一種として,主催者等の用意した表示画面に,ユーザの携帯端末装置から発信された付加画像を合成し,各種の意思表示や意見交換等を行えるようにしたものが知られている。例えば,特許文献1のシステムでは,カラオケ装置において,携帯電話等の携帯端末装置から発信された付加データを,楽曲の歌詞や表示画面とともに表示することで,視覚的な“合いの手”効果等を発揮させることができるとされている。また,特許文献1のシステムでは,各ユーザの携帯端末装置において付加画像の加工や編集を行うことが可能であるとされている。
特開2006-268442号公報
 ところで,特許文献1のシステムは,複数のユーザがそれぞれ付加画像に対して任意の加工や編集を施し,主催者等の用意した表示画面に任意のタイミングで表示できるように構成されている。しかしながら,ユーザの好みに応じて編集された付加画像がバラバラなタイミングで表示画面上に表示されることになると,演出の統一感や一体感が損なわれることとなり,ユーザの思い出に残る美しい演出ができないという問題がある。特に,コンサートのようなイベントでは,アーティストが演奏する楽曲と演出効果に統一感を持たせることが重要であり,楽曲と演出効果とを上手くマッチさせることで,ユーザに対してより強い感動を与えることができる。
 また,特許文献1のシステムは,基本的に,各ユーザの発意に基づいて付加画像が表示画面上に出現する。このため,ユーザは付加画像が画面上に現れるのを予め知っているのであって,画面上に付加画像が表れても特に驚き(サプライズ感)を得ることはできない。
 さらに,特許文献1のシステムは,各ユーザが携帯端末を利用して個別に付加画像を表示画面上に表示させる操作を行うため,画像の合成装置に携帯端末からのアクセスが集中すると,合成装置での合成処理に遅延が発生するおそれがある。このため,合成装置へのアクセスが集中した状態においては,適切なタイミングで付加画像を表示できなくなるという技術的な課題も残っている。
 そこで,本発明は,ユーザから提供された写真等のコンテンツデータをイベントの演出に利用するにあたり,その演出効果とイベントの内容(楽曲等)の統一感を表現するように,各コンテンツデータを適切に編集できるシステムを提供することを目的とする。また,本発明は,イベント当日にユーザに対してサプライズ感があり思い出に残る演出を提供することを目的とする。さらに,本発明は,イベントの演出処理において発生する遅延を解消することを目的とする。
 本発明の発明者は,従来発明の問題を解決する手段について鋭意検討した結果,イベントの参加者から写真・動画・音声等のコンテンツデータを予め収集し,それをサーバに蓄積して一元管理しておき,イベント当日にコンテンツデータをまとめて編集して,イベントの内容にあった映像等を作成し,演出効果として出力するというシステムを発案した。このようなシステムによれば,参加者から提供されたコンテンツデータを利用して,イベントの内容と統一感のある映像等をリアルタイムに作成することができ,参加者に対して一体感や強い感動を与えることができる。そして,本発明者は,上記知見に基づけば,従来技術の課題を解決できることに想到し,本発明を完成させた。具体的に説明すると,本発明は以下の構成を有する。
 本発明は,イベントなどの演出システムに関する。
 本発明に係る演出システムは,携帯端末10と,管理サーバ20と,演出制御装置30と,演出出力装置40とを備えている。
 携帯端末10は,コンテンツ記憶部11と通信部12とを有する。コンテンツ記憶部11は,少なくとも画像データを含むコンテンツデータを記憶する。通信部12は,コンテンツ記憶部11に記憶されているコンテンツデータを管理サーバ20に送信する。ここにいうコンテンツデータには,画像データの他に,音響データ(音声データ)や,映像データ,テキストデータなど,ディスプレイやスピーカなどの演出出力装置40を介して出力可能な情報が含まれる。
 管理サーバ20は,端末通信部21と,データベース22と,管理制御部23と,制御装置通信部24とを有する。端末通信部21は,携帯端末10からコンテンツデータを受信する。データベース22は,端末通信部21を介して受信したコンテンツデータを蓄積する。管理制御部23は,データベース22に記憶されているコンテンツデータの中から所望のコンテンツデータを抽出する。制御装置通信部24は,管理制御部23によって抽出されたコンテンツデータを演出制御装置30に送信する。なお,データベース22には複数のコンテンツデータを蓄積することができ,管理制御部23は,データベース22から複数のコンテンツデータを抽出し,制御装置通信部24を介して演出制御装置30へと出力できる。
 演出制御装置30は,通信部31と,コンテンツ編集部32と,装置制御部33とを有する。通信部31は,管理サーバ20からコンテンツデータを受信する。コンテンツ編集部32は,通信部31を介して受信したコンテンツデータを編集する。装置制御部33は,演出出力装置40に接続されており,当該演出出力装置40を制御して,コンテンツ編集部32によって編集された編集後のコンテンツデータを出力させる。コンテンツデータが画像データである場合,ここにいうコンテンツデータの編集処理には,コンテンツデータそのものの加工処理(トリミングや配色・カラーフィルタの変更など)の他,コンテンツデータの表示態様(表示パターン)・デザインの加工処理,コンテンツデータを出力するタイミングを楽曲に合わせる制御処理,あるいは複数のコンテンツデータの表示位置の制御処理など,既存の映像編集ソフトで可能な種々の編集処理が含まれる。また,コンテンツが音響データである場合,ここにいうコンテンツデータの編集処理には,音のボリュームや,音域,音質,テンポ,リズム等を編集する処理が含まれる。
 上記構成のように,携帯端末10からアップロードされた写真画像等のコンテンツデータを管理サーバ20に蓄積しておき,例えばイベント当日などに,管理サーバ20を通じて所望のコンテンツデータを演出制御装置30へと送信する。演出制御装置30は,管理サーバ20からダウンロードしたコンテンツデータを,イベントの内容(例えば楽曲のリズムやテンポ)に合わせて編集する。これにより,演出制御装置30において,イベントの参加者の顔写真などのコンテンツデータに対して,イベントの内容にあった統一感のある編集処理を施すことができる。また,イベントの参加者は,自分の写真等がどのようなタイミングでどのような編集処理を施されて表示されるかは知り得ない。このため,イベントの参加者に対してサプライズ感(驚き)のある演出を提供できる。さらに,コンテンツデータの加工処理は演出制御装置30において一括して行うことができるため,イベントの当日に,管理サーバ20や演出制御装置30に携帯端末10からのアクセスが集中して処理の遅延を招くような事態を回避できる。これにより,遅滞なく適切なタイミングでコンテンツデータの出力が可能になる。
 本発明において,演出制御装置30は,少なくとも楽曲データを記憶した演出データ記憶部34を,さらに有することが好ましい。コンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データに基づいて,コンテンツデータを編集する。装置制御部33は,コンテンツ編集部32によって編集された編集後のコンテンツデータを,楽曲データと共に出力するように,演出出力装置40を制御する。ここで,楽曲データには,曲のメロディーや,リズム・テンポ,歌詞など,曲を構成する種々のデータが含まれる。このため,コンテンツデータの編集処理には,例えば,各コンテンツデータを曲のメロディーやリズム等に合わせて表示したり切換えたりするための編集や,コンテンツデータの表示位置を調整して複数のコンテンツデータによって曲の歌詞を表すような編集が含まれる。
 上記構成のように,楽曲データに合わせてコンテンツデータを編集し,この楽曲データとコンテンツデータを共に出力することで,会場に流れている楽曲と統一感のある演出が可能となる。
 本発明の演出システムは,演出出力装置40が設置された会場の環境情報が入力される入力装置50をさらに備えることが好ましい。例えば,演出出力装置40と入力装置50とは,同じイベント会場内に設置されている。この場合,コンテンツ編集部32は,入力装置50を介して取得した環境情報に基づいて,コンテンツデータを編集することが好ましい。ここにいう環境情報には,マイクロフォンで集音した音響情報(アーティストの演奏や観客の声援)や,カメラで撮影した静止画像や動画像,光センサで取得した会場内の照明情報,あるいは会場内の温度や湿度に関する情報などが含まれる。
 上記構成のように,イベント会場内の環境情報を演出制御装置30に入力し,この環境情報に基づいてリアルタイムにコンテンツデータの編集処理を行うことで,臨場感のある演出を行うことができる。例えば,音響や,動画,光,温度,湿度などから参加者が盛り上がっているかどうかを推測し,その盛り上がりの程度に合わせてコンテンツデータの編集処理を適宜変更していくことができる。
 本発明の演出システムにおいては,コンテンツデータの編集処理に,参加者(ユーザ)の個人データを反映させることとしてもよい。例えば,イベント当日が誕生日や記念日である参加者の顔写真を取り上げて,ディスプレイに大きく表示するなどの編集を行うことができる。具体的には以下のとおりである。
 携帯端末10は,ユーザの個人データの入力を受け付ける入力部13をさらに有する。携帯端末の通信部12は,入力部13に入力された個人データを,コンテンツデータとともに管理サーバ20に送信する。ここでの個人データには,ユーザの氏名,性別,誕生日,記念日,好きな言葉,好きな曲名など,コンテンツデータとは区別可能な個人情報(テキストデータ)が含まれる。なお,ユーザの顔写真は,コンテンツデータに含まれる。
 管理サーバ20においては,端末通信部21は,携帯端末10からコンテンツデータと個人データとを受信する。データベース22は,端末通信部21を介してある携帯端末10から受信したコンテンツデータと個人データとを関連付けて蓄積する。管理制御部23は,データベース22に記憶されているコンテンツデータの中から所望のコンテンツデータと,これに関連付けられている個人データとを抽出する。制御装置通信部24は,管理制御部23によって抽出されたコンテンツデータと個人データとを演出制御装置30に送信する。
 演出制御装置30においては,演出制御装置30の通信部31は,管理サーバ20からコンテンツデータと個人データとを受信する。コンテンツ編集部32は,通信部31を介して受信した個人データに基づいて,コンテンツデータを編集する。装置制御部33は,演出出力装置40を制御して,コンテンツ編集部32によって編集された編集後のコンテンツデータを出力させる。
 上記構成によれば,参加者の個人データをコンテンツデータの編集処理に反映させることができるため,参加者に対してサプライズ感や一体感を与えることができる。
 本発明の演出システムにおいて,コンテンツ編集部32は,コンテンツデータに含まれる複数の画像データの色を解析し,当該画像データの色に基づいて,当該画像データの配置を並べ替えるという編集処理を行うこととしてもよい。
 上記構成によれば,例えば,複数の画像データを代表的な色ごとに分類して表示したり,複数の画像データを利用してアーティストの顔をモザイクアートのように表示することもできる。
 本発明の演出システムにおいて,管理サーバ20の管理制御部23は,参加者確認手段23aとデータ抽出手段23bとを含むことが好ましい。参加者確認手段23aは,携帯端末10との間で応答通信を行うことにより,当該携帯端末10を所有するユーザがイベントに参加しているか否かの確認を行う機能を持つ。また,データ抽出手段23bは,データベース22に記憶されているコンテンツデータのうち,参加者確認手段23aによってイベントへの参加が確認できたユーザが所持する携帯端末10から受信したコンテンツデータを抽出する機能を持つ。
 上記構成によれば,データベース22に蓄積されているコンテンツデータのうち,実際にイベントに参加している者に関するコンテンツデータのみを,演出処理に利用することができる。例えば,急遽イベントに参加できなくなった者の写真は演出には使わないといった対策をとることができる。これにより,イベントの演出によって,参加者同士の一体感をさらに高めることができる。
 本発明の演出システムにおいて,携帯端末10は,自己の現在の位置情報を取得するための位置情報取得部14をさらに有することとしてもよい。また,携帯端末10は,位置情報取得部14によって取得した自己の現在の位置情報を管理サーバ20へと送信する。管理サーバ20の参加者確認手段23aは,携帯端末10から受信した位置情報がイベントの会場の位置情報と一致する場合に,当該携帯端末10を所有するユーザがイベントに参加していると判断する。
 上記構成のように,携帯端末10の位置情報を自動的に取得し,その位置情報を利用して参加者がイベントに参加しているかどうかを判断することで,参加・不参加の判断の信頼性を高くすることができる。これにより,参加者に対して実際にイベント会場へと足を運ぶように促すことができる。
 本発明によれば,ユーザから提供された写真等のコンテンツデータをイベントの演出に利用するにあたり,その演出効果とイベントの内容(楽曲等)の統一感を表現するように,各コンテンツデータを適切に編集できる。また,本発明は,イベント当日にユーザに対してサプライズ感があり思い出に残る演出を提供することができる。さらに,本発明は,イベントの演出処理において発生する遅延を解消することができる。
図1は,演出システムの概要を示している。 図2は,演出システムの機能構成を示したブロック図である。 図3は,コンテンツデータの登録時の処理を示したフロー図である。 図4は,コンテンツデータの出力時の処理を示したフロー図である。 図5は,コンテンツデータを利用した演出の一例を示している。 図6は,コンテンツデータを利用した演出の一例を示している。 図7は,コンテンツデータを利用した演出の一例を示している。 図8は,ユーザの参加確認処理の一例を示している。 図9は,ユーザの参加確認処理の一例を示している。
 以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜変更したものも含む。
[演出システムの構成]
 図1は,本発明に係るイベント演出システム100の全体図を示している。図1に示されるように,本実施形態に係る演出システム100は,複数の携帯端末10と,管理サーバ20と,演出制御装置30と,演出出力装置40と,入力装置50とを含んで構成されている。複数の携帯端末10は,それぞれインターネット等の情報通信回線60を介して,管理サーバ20と相互に接続されている。また,管理サーバ20は,情報通信回線60を介して,演出制御装置30と相互に接続されている。また,演出制御装置30は,無線又は有線のLAN(Local Area Network)70等を介して,各種の演出出力装置40や入力装置50に接続されている。
 携帯端末10は,いわゆるスマートフォンなどの携帯型情報端末(PDA:Personal Digital Assistant)であり,システムのユーザ(イベントの参加者)によって所持される。管理サーバ20は,本システムの管理者によって運営されるものであり,例えば携帯端末10や演出制御装置30に対してWebサイトを提供するWebサーバとして機能する。管理サーバ20は,複数台のサーバ装置によって構築されたものであってもよい。本システムにおいては,携帯端末10から管理サーバ20に対して,画像データや音響データを含むコンテンツデータがアップロードされる。管理サーバ20は,これらのコンテンツデータを蓄積して一元的に管理するためのデータベース22を備える。演出制御装置30は,本システムの運営者によって操作されるものであり,基本的にイベントの会場内に設置されている。演出制御装置30としては,画像や音響を編集するためのソフトウェアを備えるPCを利用すればよい。演出制御装置30は,管理サーバ20から所望のコンテンツデータをダウンロードし,これを編集することができる。また,イベントの会場内には,ステージ装置として,複数種類の演出出力装置40が設置されている。演出出力装置40としては,例えばディスプレイや,スピーカ,ライトなどが挙げられる。各演出出力装置40は,演出制御装置30からの制御を受けて,映像や,音,光などを出力する。入力装置50は,イベントの会場内の環境情報(音,光,映像,温度,湿度等)を取得するための装置であり,基本的には演出出力装置40と同じ会場内に設置されている。
 本発明の演出システム100は,コンサートや,ライブ,舞台,結婚式,結婚披露宴のようなイベントに利用することができる。本システムの基本的な機能を説明すると,演出システム100は,イベントの開催日よりも前に,携帯端末10からユーザの顔写真や音声などのコンテンツデータを収集し,管理サーバ20に蓄積しておく。その後,例えばイベントの当日に,そのイベントの参加者のコンテンツデータを,管理サーバ20から演出制御装置30へとダウンロードする。演出制御装置30は,参加者のコンテンツデータをイベントの内容に合わせてまとめて編集し,その編集後のコンテンツデータをディスプレイやスピーカ等の演出出力装置40を通じて出力する。これにより,イベントの参加者に対して,あたかも自分がステージに上がっているかのような臨場感と一体感を与えることができる。
 図2は,演出システム100を構成する各種装置の機能ブロックを示している。ただし,図2に示した機能ブロックは一例であり,本発明の構成はこれに限定されるものではない。
 図2に示されるように,携帯端末10は,コンテンツ記憶部11,通信部12,タッチパネル(入力部)13,位置情報取得部14,液晶ディスプレイ(表示部)15,カメラ16,マイクロフォン17,及び端末制御部18を有する。携帯端末10の各種の機能部は,端末制御部18の制御を受けて機能する。
 コンテンツ記憶部11には,ユーザが管理するコンテンツデータが記憶されている。コンテンツデータとしては,例えば,カメラ16によって撮影された写真の画像データや,動画の映像データ,マイクロフォン17によって集音された音響データ,あるいは音楽データなどが挙げられる。コンテンツデータは,インターネットを通じてダウンロードされた画像データや音響データが含まれていてもよい。タッチパネル13の前面には液晶ディスプレイ15が配置されており,これらによってタッチパネルディスプレイが構成されている。コンテンツ記憶部11に記憶されている画像データ等は,液晶ディスプレイ15に表示することができる。位置情報取得部14は,GPS測位を行う機能を持ち,GPS衛星から受信した電波に基づいて,自己の現在の位置情報(緯度経度情報)を得ることができる。携帯端末10は,通信部12により,インターネットを介して管理サーバ20と情報のやり取りをすることができる。具体的には,コンテンツ記憶部11に記憶されているコンテンツデータや,位置情報取得部14によって取得された現在位置情報,あるいはタッチパネル13を介して入力された入力情報・操作情報は,通信部12を介して,管理サーバ20に送信される。携帯端末10は,通信部12を介して,管理サーバ20から情報(例えばウェブサイト)の提供を受けることができる。
 管理サーバ20は,端末通信部21,データベース22,管理制御部23,及び制御装置通信部24を有する。管理サーバ20の各種の機能部は,管理制御部23の制御を受けて機能する。
 管理サーバ20は,端末通信部21を介して,携帯端末10からコンテンツデータ等を受信し,データベース22に蓄積する。データベース22には,ユーザや携帯端末10ごとに,コンテンツデータが記憶されている。具体的には,データベース22では,ユーザや携帯端末10を特定するためID情報と関連付けてコンテンツデータが記憶される。また,管理サーバ20は,端末通信部21を介して,携帯端末10に対してウェブサイト提供し,そのウェブサイトを通じて,各ユーザの個人データや,ユーザが参加するイベントのチケットデータの入力を受け付けることができる。このようにして得られた個人データやチケットデータは,コンテンツデータと共に,各ユーザのID情報と関連付けてデータベース22に登録されている。これにより,ID情報をキーデータとしてデータベース22を検索することで,各ユーザから取得したコンテンツデータや,個人データ,チケットデータを抽出することができる。ここにいう個人データには,例えば,ユーザの氏名,住所,年齢,誕生日,記念日,好きな言葉,好きなアーティスト名,好きな曲名などの種々の個人情報が含まれる。チケットデータには,ユーザが参加するイベントを特定するためのID情報や,イベントの開催場所,日時,期間,座席情報,主催者などのイベントに関連する情報が含まれる。これらの個人データやチケットデータは,基本的にテキストデータであり,画像データや音響データであるコンテンツデータとは区別される。その他,データベース22には,ユーザやイベントに関連する種々の情報を記憶しておくことができる。
 管理サーバ20の管理制御部23は,データベース22から所望のデータ(コンテンツデータ,個人データ,チケットデータ等)を抽出して,制御装置通信部24を介して,演出制御装置30に送信することができる。具体的には,管理制御部23は,イベントの当日に,そのイベントの参加者がアップロードしたコンテンツデータや個人データ,チケットデータをデータベース22から抽出して,演出制御装置30に送信する。管理制御部23は,イベント当日に自動的にコンテンツデータ等を演出制御装置30に送信することとしてもよいし,演出制御装置30から要求があったときにコンテンツデータ等を送信することとしてもよい。例えば,管理制御部23は,参加者確認手段23aと,データ抽出手段23bと,データベース編集手段23cとを有していると観念できる。参加者確認手段23aは,携帯端末10との間で応答通信を行うことにより,当該携帯端末10を所有するユーザがイベントに参加しているか否かの確認を行う機能を持つ。参加者確認手段23aによる具体的な処理については,図8及び図9を参照して後ほど詳しく説明する。データ抽出手段23bは,データベース22に記憶されているコンテンツデータのうち,参加者確認手段23aによってイベントへの参加が確認できたユーザが所持する携帯端末10から受信したコンテンツデータを抽出する機能を持つ。データベース編集手段23cは,携帯端末10や演出制御装置30の要求に応じて,データベース22のデータ構造や,あるいはデータベース22に記憶されているコンテンツデータ自体の編集処理を行うことができる。
 演出制御装置30は,通信部31と,コンテンツ編集部32と,演出データ記憶部34と,コンテンツ記憶部35と,演出制御部36とを有する。演出制御装置30の各種の機能部は,演出制御部36の制御を受けて機能する。
 演出制御部36は,通信部31を通じて,管理サーバ20にコンテンツデータ,個人データ,チケットデータ等のダウンロード要求を行うことができる。演出制御部36は,管理サーバ20からダウンロードしたコンテンツデータ等をコンテンツ記憶部35に記憶する。このように,コンテンツ記憶部35は,管理サーバ20からダウンロード可能なデータの保管に利用される。他方,演出データ記憶部34には,イベントで使用する楽曲データや,映像データ,照明効果データなど,イベントでの演出に使用される各種データが記憶されている。演出データ記憶部34に記憶されているデータは,基本的に,各ユーザから提供されたものではなく,イベントの運営者によって予め作成・準備されたものである。この点において,演出データ記憶部34に記憶されているデータは,コンテンツ記憶部35に記憶されているコンテンツデータ等と区別される。演出データ記憶部34には,少なくともイベントの演奏で使用される楽曲データが記憶されていることが好ましい。楽曲データは,例えば,曲のメロディー,リズム・テンポ,歌詞(テキスト)のデータなどの楽曲を構成するデータによって構成されたものである。
 コンテンツ編集部32は,コンテンツ記憶部35に記憶されているコンテンツデータを読み出して,これを編集する機能を持つ。例えば,コンテンツ編集部32は,ユーザの顔写真などの画像データを編集する画像編集部32aと,ユーザの音声などの音響データを編集する音響編集部32bを有している。画像編集部32aと音響編集部32bは別々に機能しても良いし,同時に機能するものであってもよい。コンテンツ編集部32によるコンテンツデータの編集方法については,様々なものが考えられる。例えば,コンテンツ編集部32は,ユーザの顔写真を一枚ずつ並べたスライドショーを作成してもよいし,複数の顔写真をタイル状に並べて一度の多数の顔写真を同時に表示するようにしてもよい。また,コンテンツ編集部32は,画像データの色情報を解析して,代表的な色情報を抽出し,色の分類に基づいて複数の画像データを配置することよってモザイクアートを形成するような編集処理を行うこともできる。複数の参加者の顔写真を利用して,一人のアーティストの顔をモザイクアートとして形成することも可能である。また,コンテンツ編集部32は,ステージ上で演奏されている楽曲に合うように,ユーザの歌声や歌のテンポ(コンテンツデータ)を編集してもよいし,複数の歌声を重ねあわせて合唱となるような編集を行っても良い。さらに,ユーザの個人データを参照して,イベント当日が記念日や誕生日であるユーザの写真画像を大きく取り上げてディスプレイ上に表示するような編集も可能である。また,コンテンツが音響データである場合,ここにいうコンテンツデータの編集処理には,音のボリュームや,音域,音質,テンポ,リズム等を編集する処理が含まれる。
コンテンツデータの編集の例については,後ほどさらに詳しく説明する。
 装置制御部33は,コンテンツ編集部32によって編集されたコンテンツデータを,各種の演出出力装置40に出力させる制御を行う。演出出力装置40としては,例えば,画像・映像を表示するディスプレイ41や,音声・楽曲を放音するスピーカ42,様々な色の光を放射するライト43などが挙げられる。装置制御部33は,これらの演出出力装置40の制御を行うものである。各種の演出出力装置40は,イベントのステージの演出に利用される機器であり,基本的にイベントが行われる会場内に設置されている。
 本発明に係る演出システム100においては,演出出力装置40と同じ会場内に入力装置50が設置されている。入力装置50の例は,会場内の音響情報が入力されるマイクロフォン51や,光の色情報・強度情報が入力される光センサ52,イベント会場内の映像情報が入力されるカメラ53,イベント会場内の温度情報・湿度情報が入力される湿温センサ54である。これらの入力装置50によって取得された会場内の環境情報は,装置制御部33を通じて演出制御装置30に入力され,コンテンツデータの編集に利用される。例えば,コンテンツ編集部32は,マイクロフォン51で集音された音響情報(アーティストの演奏や観客の声援)を解析し,一定の音量以上であると判断した場合には会場内が盛り上がっていると推定し,コンテンツデータの編集方法をより派手なものに変更することができる。同様に,コンテンツ編集部32は,光センサ52が検知した光の強度や,カメラ53が撮影した動画,あるいは湿温センサ54が検知した温度・湿度などから,特定のパラメータが閾値を超えたものと判断したときに,コンテンツデータの編集方法を変化させることもできる。このように,会場内の環境情報からのフィードバックを受けてコンテンツデータの編集方法を制御することで,会場内の状況と一体感のある演出を提供できる。
[演出システムの処理フロー]
 図3は,イベントの開催前に行われるコンテンツデータ等の登録処理のフロー図を示している。まず,イベントの参加者は,任意の方法で,イベントのチケットを購入する(ステップS1)。チケットの購入手続は,電子チケットによりコンピュータの処理により行われるものであってもよいし,コンピュータの処理でなくてもよい。
 その後,管理サーバ20は,例えばチケットを購入した参加者の携帯端末10に電子メール等を送信し,イベント用の特設サイトのURLを提供する(ステップS2)。携帯端末10は,管理サーバ20から特設サイトのURLを受信すると(ステップS3),参加者の操作によって,その特設サイトへアクセスする(ステップS4)。管理サーバ20は,携帯端末10からのアクセスを受け,この携帯端末10に対してイベントの特設サイトを提供する。この特設サイトには,コンテンツデータや,参加者の個人データ,イベントのチケットデータなどの各種データを入力するための入力画面が含まれる。参加者は,特設サイトの入力画面に従い,携帯端末10を操作して,管理サーバ20にアップロードをするコンテンツデータを作成したり(顔写真の撮影や音声の入力),すでに携帯端末10内に記憶されているコンテンツデータを選択する。また,参加者は,自身の氏名,住所,年齢,誕生日,記念日,好きな言葉などの種々の個人データを入力する。また,参加者は,チケットに記載されているイベントのID情報や,開催場所,日時,期間,座席情報等を入力する(ステップS6)。
 参加者によって入力されたコンテンツデータ等は,携帯端末10を通じて,管理サーバ20へとアップロードされる(ステップS7)。管理サーバ20は,携帯端末10からコンテンツデータを含む各種のデータを受信し(ステップS8),これをデータベース22に登録する(ステップS9)。管理サーバ20は,このような一連の処理を複数の携帯端末10に対して行い,複数の携帯端末10からコンテンツデータを収集し,データベース22に蓄積する。管理サーバ20は,コンテンツデータの収集・蓄積が完了した段階で,データベース22のデータ構造やコンテンツデータを編集する処理を行うこともできる(ステップS10)。
 図4は,イベント当日に行われるコンテンツデータ等の編集処理のフロー図を示している。イベントの当日になると,携帯端末10と管理サーバ20との間で,携帯端末10のユーザが実際にイベントに参加しているかどうかの確認処理が行われる(ステップS11)。ただし,この参加確認処理は任意の処理であり,本システムにおいては必ずしも行う必要はない。参加確認処理についての詳細は後述する。
 管理サーバ20は,データベース22の中から,イベントの参加者によってアップロードされたコンテンツデータや,個人データ,チケットデータを抽出する(ステップS12)。管理サーバ20は,データベース22に登録されているチケットデータ(イベントの開催日時等)を参照することで,データベース22に記憶されているコンテンツデータ等が,今回のイベントの参加者のものであるかどうかを確認して抽出することができる。特に,管理サーバ20は,上記した参加確認処理(ステップS11)により,実際にイベントに参加することが確認できたユーザのコンテンツデータ等をデータベース22から抽出することが好ましい。データベース22の中には,チケットを購入したものの急遽イベントに参加できなくなってしまったユーザのコンテンツデータが記憶されている可能性もある。このため,イベント当日に参加確認処理(ステップS11)を行うことで,実際にイベントに参加しているユーザのコンテンツデータ等のみを抽出し,イベントに参加できなくなってしまったユーザについてはコンテンツデータを抽出しないようにすることができる。管理サーバ20は,このようにしてデータベース22から抽出したコンテンツデータ等を,演出制御装置30へ送信する。
 演出制御装置30は,管理サーバ20から配信されたコンテンツデータや,参加者の個人データ,チケットデータを受信し,コンテンツ記憶部35に保存する(ステップS14)。演出制御装置30は,これらのコンテンツデータ等を編集して,イベントの内容や参加者の個人データを反映した新しいコンテンツデータを作成し(ステップS15),編集後のコンテンツデータを演出出力装置40に送信する(ステップS16)。演出出力装置40は,演出制御装置30による制御に従って,編集後のコンテンツデータを出力する(ステップS17)。
 また,イベントが開始されると入力装置50が起動し,各種の入力装置50にはイベント会場内の環境情報(音響情報,光情報,映像情報,湿温情報等)が入力される(ステップS18)。各種の入力装置50は,取得した環境情報を演出制御装置30に伝達し,演出制御装置30はこれを受信する(ステップS19)。演出制御装置30は,入力装置50から得られた環境情報に基づいて,コンテンツデータの編集を行うことができる(ステップS15)。これにより,会場内の環境情報を反映してコンテンツデータを編集し,会場内の状況に適した演出を実行することができる。
 また,本システムにおいては,イベント会場においてユーザが撮影した写真を,会場内の参加者全員で共有することができる。具体的に説明すると,携帯端末10からアップロードされた写真等のコンテンツデータは,管理サーバ20のデータベース22に記録されている。このため,管理サーバ20は,データベース22へアクセスするためのURL等を携帯端末10に提供することで,このデータベース22に記憶されている写真を,各携帯端末10から自由に閲覧したりダウンロードしたりできるようにすればよい。また,管理サーバ20は,イベント毎に,ユーザがアップロードした写真をまとめたアルバムを作成し,このアルバム内の写真をユーザに閲覧させるようにすることもできる。このようにすれば,イベント会場においてユーザが撮影した写真を,その会場内の参加者全員で共有することが可能となる。
 また,本システムにおいては,演出制御端末30において編集を行った画像や音声などのコンテンツデータを,管理サーバ20を介して,ユーザの携帯端末10に配信することもできる。この場合,演出制御端末30は,通信部31を通じて,編集済みのコンテンツデータを,管理サーバ20にアップロードする。管理サーバ20は,制御装置通信部24を通じて,編集済みのコンテンツデータ受信し,これをデータベース等に格納するとともに,端末通信部21を通じて,編集済みのコンテンツデータを複数の携帯端末10へと配信する。携帯端末10は,通信部12を通じて,編集済みのコンテンツデータを受信し,これを液晶ディスプレイ15やマイクロフォン17から出力する。これにより,イベントで使用された写真等のコンテンツデータを,イベント参加者全員で共有することが可能となる。
[コンテンツデータによる演出例]
 ここで,コンテンツデータの編集処理(ステップS15)についてさらに詳しく説明する。図5から図7には,本発明に係る演出システム100によって実行されるコンテンツデータを利用した演出例が示されている。図5に示した演出例では,参加者によってアップロードされた画像データや動画データを利用してスライドショーを作成し,大型ディスプレイに表示している。スライドショーは一枚ずつ画像データ等を表示するものであり,アーティストによって演奏される楽曲のテンポやリズムに応じて,その画像データの切り替えが行われる。例えば,演出制御装置30のコンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データのテンポやリズムを解析し,このテンポやリズムに合わせて画像データが切り替わるように,参加者の画像データのスライドショーを作成する編集処理を行えばよい。また,コンテンツ編集部32は,会場内に設置されたマイクロフォン51によってアーティストが実際に演奏している楽曲の音響情報を取得し,そのテンポやリズムを解析して,このテンポやリズムに合わせて画像データが切り替わるように,参加者の画像データのスライドショーを作成することもできる。さらに,図5に示されたスライドショーは,会場が盛り上がる場面で表示されるように設定されている。例えば,コンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データを解析して,曲のサビが開始される場面で,画像データのスライドショーを開始させることもできる。また,コンテンツ編集部32は,会場内に設置されたマイクロフォン51に入力された音響情報を解析し,会場内の音量が閾値を超えたときに,画像データのスライドショーを開始させることもできる。
 図6に示した演出例では,参加者によってアップロードされた複数の画像データをタイル状に並べて,大型ディスプレイに表示している。例えば,タイル状の画像データは,楽曲のリズムに合わせて動くように編集されていてもよいし,楽曲の歌詞を表すように編集されていてもよい。例えば,演出制御装置30のコンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データのテンポやリズムを解析し,このテンポやリズムに合わせて画像データが動くように編集処理を行えばよい。また,コンテンツ編集部32は,会場内に設置されたマイクロフォン51によってアーティストが実際に演奏している楽曲の音響情報を取得し,そのテンポやリズムを解析して,このテンポやリズムに合わせて画像データが動くように編集することもできる。さらに,コンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データに含まれる歌詞データを抽出し,その歌詞の一部を形づくるように画像データを並べ替える編集処理を行うこともできる。また,図示は省略するが,コンテンツ編集部32は,コンテンツデータに含まれる複数の画像データの色を解析し,その画像データの色に基づいて,その画像データの配置を並べ替えるという編集処理を行うこともできる。例えば,コンテンツ編集部32は,複数の画像データを代表的な色ごとに分類して配置したり,複数の画像データを利用してアーティストの顔をモザイクアートのように表示したりすることも可能である。
 図7に示した演出例では,参加者によってアップロードされた複数の画像データがタイル状に並べて表示されるとともに,参加者によってアップロードされた歌声がアーティストの演奏に合わせて会場内で再生されている。これにより,会場内では,参加者とアーティストによる合唱のような演出が行われている。また,図7の演出例では,参加者の顔写真を一人ひとり大きく表示するとともに,その大きく表示された参加者の歌声を他の参加者の歌声よりも大音量で再生している。例えば,演出制御装置30のコンテンツ編集部32は,演出データ記憶部34に記憶されている楽曲データのテンポやリズムを解析し,このテンポやリズムに合わせて,参加者の歌声のデータのテンポやリズムを調整する編集処理を行うことができる。また,コンテンツ編集部32は,会場内に設置されたマイクロフォン51によってアーティストが実際に演奏している楽曲の音響情報を取得し,そのテンポやリズムを解析して,このテンポやリズムに合わせて参加者の歌声のデータを調整することも可能である
 また,図示は省略するが,演出制御装置30のコンテンツ編集部32は,参加者の個人データに基づいて,コンテンツデータを編集することもできる。例えば,参加者の個人データには,参加者の誕生日や何らかの記念日に関する情報が含まれている。そこで,コンテンツ編集部32は,参加者の誕生日や記念日がイベントの開催日と同日である場合あるいは近日内である場合には,その参加者からアップロードされた画像データを,ディスプレイ上に大きく表示したり,特別な編集処理を施して目立つように表示したりすることができる。これにより,参加者に対して思い出に残る特別な演出を行うことができる。また,参加者の個人データには,各参加者の好きな曲名に関する情報が含まれている。そこで,コンテンツ編集部32は,イベント内でアーティストが演奏する曲名と参加者の好きな曲名が一致するときに,その参加者からアップロードされた画像データをディスプレイ上に表示するといった編集を行うことができる。このように,参加者の個人データに基づいて,コンテンツデータを編集することで,より参加者とアーティストとの一体感のある演出を実行できる。
 また,例えば,演出制御装置30のコンテンツ編集部32は,参加者のチケットデータに基づいて,コンテンツデータを編集することもできる。例えば,チケットデータには,参加者の座席の位置に関する情報が含まれている。そこで,そこで,コンテンツ編集部32は,参加者からアップロードされた画像データを,参加者の座席位置に基づいて並べ替えて,大型ディスプレイ上に表示することも可能である。
[参加確認処理]
 図8は,図4に示した参加確認処理(ステップS11)の一例を示している。図8に示した参加確認処理では,イベントの当日に,ユーザにイベントへの参加を表明してもらうことで,ユーザの参加を確認する。まず,ユーザは,携帯端末10を介して管理サーバ20が提供する特設サイトにログインする(ステップS11-A1)。管理サーバ20は,ユーザのログインを受け付けると,携帯端末10に対して参加確認画面を提供する(ステップS11-A2)。ユーザは,携帯端末10に表示された参加確認画面に従い,イベントに参加しているかそれとも不参加であるかの返答を携帯端末10に入力する(ステップS11-A3)。管理サーバ20は,ユーザからの返答に従って,どのユーザがイベントに参加しているかどうかを判断する(ステップS11-A4)。ユーザから参加の返答を受けた場合(S11-A5),管理サーバ20は,図4に示したステップS12に進み,データベース22から参加を表明しているユーザのコンテンツデータ等を抽出する。他方,ユーザから不参加の返答を受けた場合(S11-A6),管理サーバ20は,データベース22からコンテンツデータ等を抽出せずに処理を終了させる。
 図9は,図4に示した参加確認処理(ステップS11)の別の例を示している。図9に示した参加確認処理では,イベントの当日に,管理サーバ20が自動的に携帯端末10の所在位置を判定し,実際にユーザがイベント会場に居るかどうかの判断を行う。まず,管理サーバ20は,イベントの開始を確認すると(ステップS11-B1),携帯端末10に対して位置情報の取得を要求する(ステップS11-B2)。携帯端末10は,管理サーバ20からの要求を受けて,GPS測位によって自己の現在の位置情報を取得し(ステップS11-B3),その位置情報を管理サーバ20に送信する(ステップS11-B4)。管理サーバ20は,携帯端末10から受信した位置情報とイベント会場の位置情報の照合を行う(ステップS11-B5)。そして,管理サーバ20は,携帯端末10の位置情報とイベント会場の位置情報が一致しているかどうかを判断する(ステップS11-B6)。携帯端末10の位置情報がイベント会場の位置情報と一致していると判断した場合(S11-B7),管理サーバ20は,ユーザがイベントに参加しているものと判断し,図4に示したステップS12に進み,データベース22からイベントに参加しているユーザのコンテンツデータ等を抽出する。他方,携帯端末10の位置情報がイベント会場の位置情報と一致していないと判断した場合(S11-B8),管理サーバ20は,データベース22からコンテンツデータ等を抽出せずに処理を終了させる。
 上記のように参加確認処理を行うことで,イベントへの参加が確認できたユーザのコンテンツデータのみをイベントの演出に利用することができる。このように,実際にイベント会場内にいるユーザのコンテンツデータを利用してイベントの演出を行うことで,ユーザ同士の一体感を高めることができる。
 また,上述したように,本発明のシステムでは,イベント会場においてユーザが撮影した写真を,会場内の参加者全員で共有することが可能である。また,演出制御端末30において編集を行った画像や音声などのコンテンツデータを,管理サーバ20を介して,ユーザの携帯端末10に配信することができる。このようなコンテンツの配信処理において,上記した参加確認処理を行うこととしてもよい。具体的には,コンテンツデータを携帯端末11に配信するにあたり,参加確認処理を通じてイベントへの参加が確認できたユーザの携帯端末11に対してのみ,コンテンツデータを配信することとすればよい。
 以上,本願明細書では,本発明の内容を表現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
 本発明は,ユーザ参加型のイベント演出システムに関する。従って,本発明は,エンターテイメント産業において好適に利用しうる。
10…携帯端末       11…コンテンツ記憶部
12…通信部        13…タッチパネル(入力部)
14…位置情報取得部    15…液晶ディスプレイ
16…カメラ        17…マイクロフォン
18…端末制御部      20…管理サーバ
21…端末通信部      22…データベース
23…管理制御部      23a…参加者確認手段
23b…データ抽出手段   23c…データベース編集手段
24…制御装置通信部    30…演出制御装置
31…通信部        32…コンテンツ編集部
32a…画像編集部     32b…音響編集部
33…装置制御部      34…演出データ記憶部
35…コンテンツ記憶部   36…演出制御部
40…演出出力装置     41…ディスプレイ
42…スピーカ       43…ライト
50…入力装置       51…マイクロフォン
52…光センサ       53…カメラ
54…湿温センサ      100…演出システム

Claims (7)

  1.  携帯端末(10)と,管理サーバ(20)と,演出制御装置(30)と,演出出力装置(40)と,を備える演出システムであって,
     前記携帯端末(10)は,
      少なくとも画像データを含むコンテンツデータを記憶するコンテンツ記憶部(11)と,
      前記コンテンツ記憶部(11)に記憶されているコンテンツデータを前記管理サーバ(20)に送信する通信部(12)と,を有し,
     前記管理サーバ(20)は,
      前記携帯端末(10)からコンテンツデータを受信する端末通信部(21)と,
      前記端末通信部(21)を介して受信したコンテンツデータを蓄積するデータベース(22)と,
      前記データベース(22)に記憶されているコンテンツデータの中から所望のコンテンツデータを抽出する管理制御部(23)と,
      前記管理制御部(23)によって抽出されたコンテンツデータを前記演出制御装置(30)に送信する制御装置通信部(24)と,を有し,
     前記演出制御装置(30)は,
      前記管理サーバ(20)からコンテンツデータを受信する通信部(31)と,
      前記通信部(31)を介して受信したコンテンツデータを編集するコンテンツ編集部(32)と,
      前記演出出力装置(40)に接続されており,当該演出出力装置(40)を制御して,前記コンテンツ編集部(32)によって編集された編集後のコンテンツデータを出力させる装置制御部(33)と,を有する
     演出システム。
  2.  前記演出制御装置(30)は,少なくとも楽曲データを記憶した演出データ記憶部(34)を,さらに有し,
     前記コンテンツ編集部(32)は,前記演出データ記憶部(34)に記憶されている楽曲データに基づいて,コンテンツデータを編集し,
     前記装置制御部(33)は,前記コンテンツ編集部(32)によって編集された編集後のコンテンツデータを,楽曲データと共に出力するように,前記演出出力装置(40)を制御する
     請求項1に記載の演出システム。
  3.  前記演出システムは,前記演出出力装置(40)が設置された会場の環境情報が入力される入力装置(50)をさらに備え,
     前記コンテンツ編集部(32)は,前記入力装置(50)を介して取得した環境情報に基づいて,コンテンツデータを編集する
     請求項1に記載の演出システム。
  4.  前記携帯端末(10)は,ユーザの個人データの入力を受け付ける入力部(13)をさらに有し,
     前記携帯端末の通信部(12)は,前記入力部(13)に入力された個人データを,コンテンツデータとともに前記管理サーバ(20)に送信するものであり,
     前記管理サーバ(20)において,
      前記端末通信部(21)は,前記携帯端末(10)からコンテンツデータと個人データとを受信し,
      前記データベース(22)は,前記端末通信部(21)を介してある携帯端末(10)から受信したコンテンツデータと個人データとを関連付けて蓄積し,
      前記管理制御部(23)は,前記データベース(22)に記憶されているコンテンツデータの中から所望のコンテンツデータと,これに関連付けられている個人データとを抽出し,
      前記制御装置通信部(24)は,前記管理制御部(23)によって抽出されたコンテンツデータと個人データとを前記演出制御装置(30)に送信し,
     前記演出制御装置(30)において,
      前記演出制御装置(30)の通信部(31)は,前記管理サーバ(20)からコンテンツデータと個人データとを受信し,
      前記コンテンツ編集部(32)は,前記通信部(31)を介して受信した個人データに基づいて,コンテンツデータを編集し,
      前記装置制御部(33)は,前記演出出力装置(40)を制御して,前記コンテンツ編集部(32)によって編集された編集後のコンテンツデータを出力させる
     請求項1に記載の演出システム。
  5.  前記コンテンツ編集部(32)は,コンテンツデータに含まれる複数の画像データの色を解析し,当該画像データの色に基づいて,当該画像データの配置を並べ替えるという編集処理を行う
     請求項1に記載の演出システム。
  6.  前記管理サーバ(20)の管理制御部(23)は,
      前記携帯端末(10)との間で応答通信を行うことにより,当該携帯端末(10)を所有するユーザがイベントに参加しているか否かの確認を行う参加者確認手段(23a)と,
      前記データベース(22)に記憶されているコンテンツデータのうち,前記参加者確認手段(23a)によってイベントへの参加が確認できたユーザが所持する前記携帯端末(10)から受信したコンテンツデータを抽出するデータ抽出手段(23b)と,を含む
     請求項1に記載の演出システム。
  7.  前記携帯端末(10)は,
      自己の現在の位置情報を取得するための位置情報取得部(14)をさらに有し,
      前記位置情報取得部(14)によって取得した自己の現在の位置情報を前記管理サーバ(20)へと送信するものであり,
     前記管理サーバ(20)の参加者確認手段(23a)は,前記携帯端末(10)から受信した位置情報がイベントの会場の位置情報と一致する場合に,当該携帯端末(10)を所有するユーザがイベントに参加していると判断する
     請求項6に記載の演出システム。
PCT/JP2016/069232 2015-07-01 2016-06-29 ユーザ参加型のイベント演出システム WO2017002841A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-133144 2015-07-01
JP2015133144A JP6599662B2 (ja) 2015-07-01 2015-07-01 ユーザ参加型のイベント演出システム

Publications (1)

Publication Number Publication Date
WO2017002841A1 true WO2017002841A1 (ja) 2017-01-05

Family

ID=57608756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069232 WO2017002841A1 (ja) 2015-07-01 2016-06-29 ユーザ参加型のイベント演出システム

Country Status (2)

Country Link
JP (1) JP6599662B2 (ja)
WO (1) WO2017002841A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018199115A1 (ja) * 2017-04-24 2020-02-27 富士通株式会社 演出制御装置、演出システム、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268442A (ja) * 2005-03-24 2006-10-05 Seiko Epson Corp 画像合成表示装置と携帯端末装置と画像合成表示プログラムと記録媒体と画像合成表示方法
JP2010226729A (ja) * 2001-08-10 2010-10-07 Panasonic Corp 情報端末
US20150153634A1 (en) * 2012-08-01 2015-06-04 Pentair Water Pool And Spa, Inc. Underwater Image Projection System and Method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226729A (ja) * 2001-08-10 2010-10-07 Panasonic Corp 情報端末
JP2006268442A (ja) * 2005-03-24 2006-10-05 Seiko Epson Corp 画像合成表示装置と携帯端末装置と画像合成表示プログラムと記録媒体と画像合成表示方法
US20150153634A1 (en) * 2012-08-01 2015-06-04 Pentair Water Pool And Spa, Inc. Underwater Image Projection System and Method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SEIICHI SAITO: "Interactive Contents", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 68, no. 2, 1 February 2014 (2014-02-01), pages 136 - 140 *
WATARU OGASA: "Interactive Projection Mapping no Jissen Jirei Hokoku", IPSJ SIG NOTES ONGAKU JOHO KAGAKU, 23 February 2015 (2015-02-23), pages 1 - 5 *

Also Published As

Publication number Publication date
JP6599662B2 (ja) 2019-10-30
JP2017016442A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
US12022143B2 (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
JP2014530377A5 (ja)
JP6599662B2 (ja) ユーザ参加型のイベント演出システム
GB2532644A (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
AU2019226168A1 (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
TWI545447B (zh) The network performance station and the way to perform the online performance site
WO2010043070A1 (zh) 网络表演站埠与网络连结及表演分享的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817949

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817949

Country of ref document: EP

Kind code of ref document: A1