WO2018055959A1 - 再生装置、再生方法、プログラム、及び再生システム - Google Patents

再生装置、再生方法、プログラム、及び再生システム Download PDF

Info

Publication number
WO2018055959A1
WO2018055959A1 PCT/JP2017/029626 JP2017029626W WO2018055959A1 WO 2018055959 A1 WO2018055959 A1 WO 2018055959A1 JP 2017029626 W JP2017029626 W JP 2017029626W WO 2018055959 A1 WO2018055959 A1 WO 2018055959A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination
unit
playback
control information
reproduction
Prior art date
Application number
PCT/JP2017/029626
Other languages
English (en)
French (fr)
Inventor
本田 和弘
康典 永友
満 寺家谷
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018540917A priority Critical patent/JP7095597B2/ja
Priority to EP17852739.6A priority patent/EP3518552B1/en
Priority to CN201780056812.XA priority patent/CN109716783B/zh
Priority to US16/332,466 priority patent/US20210195711A1/en
Publication of WO2018055959A1 publication Critical patent/WO2018055959A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • H04Q9/04Arrangements for synchronous operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/12Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by detecting audible sound
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present technology relates to an audio content playback apparatus, playback method, program, and playback system.
  • Patent Literature 1 describes a multi-room playback control method in which a plurality of playback devices connected to a network form a group and the same content is played back synchronously (paragraph [0043] of the specification of Patent Literature 1). ] To [0046] FIG.
  • Patent Document 2 describes a sound reproducing device provided with an illumination device composed of a plurality of LEDs and the like.
  • this sound reproducing apparatus reproduced audio data is analyzed.
  • the light emission timing, brightness, and the like of the lighting device are appropriately controlled.
  • it is possible to enjoy the reproduction of audio content not only from the auditory sense but also from the visual sense and experience high excitement and exhilaration see paragraphs [0026] to [0041] in the specification of Patent Document 1) 6-14 etc.).
  • an object of the present technology is to provide a playback device, a playback method, a program, and a playback system that can provide a user with a high-quality viewing experience.
  • a playback device capable of performing synchronized playback of audio content with another playback device, and includes an illumination unit, an acquisition unit, a generation unit, A transmission unit and a synchronization control unit are provided.
  • the acquisition unit acquires audio information.
  • the generation unit generates illumination control information associated with the acquired audio information.
  • the transmission unit transmits synchronization control information including the audio information and the illumination control information to the other reproduction device.
  • the synchronization control unit performs synchronized playback of the audio content with the other playback device and synchronization control of the lighting unit based on the synchronization control information.
  • This playback device generates lighting control information associated with audio information. Synchronous control information including the generated illumination control information and audio information is transmitted to another playback device. Thereby, based on the synchronization control information, synchronized playback of audio content and synchronized control of the illumination unit can be performed. As a result, it is possible to provide the user with a high quality viewing experience.
  • the generation unit may generate a packet of the audio information in which the lighting control information is added to a header as the synchronization control information. This makes it possible to easily execute synchronized playback of audio contents and synchronized control of the illumination unit.
  • the generation unit may generate the illumination control information by analyzing the acquired audio information. This makes it possible to execute illumination control synchronized with audio content with high accuracy.
  • the illumination control information may include a plurality of illumination patterns and a start timing of each of the plurality of illumination patterns.
  • the illumination control information may include an illumination color. As a result, various lighting controls are possible, and a high-quality viewing experience can be provided.
  • the generation unit may classify the audio content into a plurality of reproduction states based on the audio information, and associate the illumination pattern with each of the plurality of reproduction states. This makes it possible to execute illumination control synchronized with audio content with high accuracy.
  • the generation unit may classify the plurality of playback states based on beats included in the audio content. This makes it possible to execute illumination control synchronized with audio content with high accuracy.
  • the generation unit may generate the illumination control information in association with device designation information for designating the other playback device. As a result, it is possible to perform illumination control designating another playback device and provide a high-quality viewing experience.
  • the generation unit may classify the illumination unit into a plurality of classified illumination units according to a predetermined rule, and generate the illumination control information in association with classification designation information designating each of the plurality of classified illumination units. .
  • various lighting controls are possible, and a high-quality viewing experience can be provided.
  • the plurality of classified illumination units may be classified based on an installation position. As a result, it is possible to improve the sense of unity through synchronized control of lighting, and to provide a high-quality viewing experience.
  • the plurality of classified illumination units may include a main illumination unit, an upper illumination unit, a lower illumination unit, and a speaker illumination unit.
  • the generation unit may generate the illumination control information based on a state of the other playback device. This makes it possible to provide a high quality viewing experience.
  • the generation unit may generate the illumination control information based on a volume of the other playback device. This makes it possible to provide a high quality viewing experience.
  • the generation unit may generate the illumination control information based on an installation environment of the other reproduction device. This makes it possible to provide a high quality viewing experience.
  • a reproduction method is a reproduction method by a reproduction apparatus having an illumination unit, and includes obtaining audio information. Lighting control information associated with the acquired audio information is generated. Synchronization control information including the audio information and the illumination control information is transmitted to another playback device. Based on the synchronization control information, synchronized playback of audio content with the other playback device and synchronization control of the illumination unit are executed.
  • a program causes a playback device including an illumination unit to execute the following steps. Obtaining audio information; Generating illumination control information associated with the acquired audio information; Transmitting synchronization control information including the audio information and the illumination control information to another playback device. Performing synchronized playback of audio content with the other playback device and synchronization control of the illumination unit based on the synchronization control information.
  • a reproduction system is a reproduction system including a reproduction apparatus and another reproduction apparatus, and the reproduction apparatus includes the illumination unit, the acquisition unit, the generation unit, and the generation unit.
  • the other reproduction apparatus includes a receiving unit and a synchronization control unit.
  • the receiving unit receives synchronization control information transmitted from the playback device.
  • the synchronization control unit performs synchronized playback of the audio content with the playback device and synchronization control of the lighting unit based on the received synchronization control information.
  • a playback method is executed by a playback device and another playback device.
  • the playback device acquires audio information. Lighting control information associated with the acquired audio information is generated. Synchronous control information including the audio information and the illumination control information is transmitted to another playback device. Based on the synchronization control information, synchronized playback of the audio content with the other playback device and synchronization control of the illumination unit are executed.
  • the other playback device receives the synchronization control information transmitted from the playback device. Based on the received synchronization control information, synchronized playback of the audio content with the playback device and synchronization control of the illumination unit are executed.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a content reproduction system according to an embodiment of the present technology.
  • the content reproduction system 100 includes a home network 1 constructed in a home, a plurality of reproduction devices 10 connected thereto, a content server 20 that provides content, and a mobile terminal 30.
  • the plurality of playback devices 10, the content server 20, and the mobile terminal 30 are connected to the home network 1 by wireless LAN communication such as WiFi via an access point (not shown).
  • wireless LAN communication such as WiFi
  • an access point not shown.
  • the home network for example, a network conforming to DLNA (registered trademark) (Digital Living Network Alliance) standard is used.
  • the plurality of playback devices 10 function as DMR (Digital Media Renderer), and the content server 20 functions as DMS (Digital Media Server).
  • the mobile terminal 30 functions as a DMC (Digital Media Controller). Note that the present technology is also applicable when a network using another protocol is constructed.
  • the plurality of playback devices 10 are arranged in each room such as a living room, a bedroom, or a kitchen.
  • the mobile terminal 30 transmits an instruction to acquire and play back content from the content server 20 to each playback device 10 using, for example, a UPnP (Universal Plug and Play) control message. Therefore, the user can control the reproduction operation of the reproduction apparatus 10 arranged in each room by operating the portable terminal 30.
  • UPnP Universal Plug and Play
  • the home network 1 and the global network are connected via a home gateway (not shown).
  • a home gateway not shown.
  • each playback device 10 to play back the content in the content server 21 existing on the global network (on the cloud).
  • Multi-room playback In the present embodiment, multi-room playback of audio content can be executed by operating the mobile terminal 30.
  • Multi-room playback is a playback method in which a plurality of playback devices 10 connected to the home network 1 form a group, and the same content is synchronously played back in the group.
  • the same content can be enjoyed at a large volume in the entire room.
  • the same content can be played from the playback device 10 arranged in each room, and the operation can be simultaneously controlled to increase the party.
  • one of a plurality of playback devices 10 constituting a group is set as a master device 10a, and the other playback device 10 is set as a slave device 10b.
  • the instruction is transmitted to the master device 10a.
  • the master device 10a downloads the content from the content server 20 and distributes it simultaneously to the slave device 10b.
  • the slave device 10b may be called a player machine.
  • the method for realizing the synchronized playback by the master device 10a and the slave device 10b is not limited, and for example, any technique related to the synchronized playback may be used.
  • synchronized reproduction can be performed by synchronizing with a clock and a time stamp and combining this with buffer processing.
  • the flow control etc. which combined RTP (Real-time * Transport * Protocol) and RTCP (RTP * Control * Protoco1) are mentioned.
  • the synchronization control of the lighting units included in each playback device 10 is executed in accordance with multi-room playback of audio content. This point will be described in detail later.
  • FIGS. 2 to 5 are external views showing a configuration example of the playback apparatus 10.
  • the playback apparatus 10 includes a main body unit 11, a speaker unit 12, an illumination unit 13, and an operation panel 14 provided in the main body unit 11.
  • the speaker unit 12 is typically configured by a multi-way method.
  • a two-way system including a high-frequency speaker (tweeter) and a low-frequency speaker (woofer) is configured.
  • a three-way system including a high-frequency speaker (tweeter), a medium-frequency speaker (schoker), and a low-frequency speaker (woofer) is configured.
  • the present technology is not limited to this, and the present technology can be applied to a full-range speaker.
  • the illumination unit 13 includes a solid light source such as an LED or LD, a lamp light source, and the like, and can emit light of various colors.
  • the light source is classified into a plurality of illumination groups based on the positions installed in the main body 11. That is, the main illumination unit 13a, the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d are classified.
  • the main illumination unit 13a is an illumination unit that is arranged on the front surface of the main body unit 11 and the like, and exhibits the most expressive illumination effect visually.
  • the top illumination unit 13b is installed on the upper side of the playback device 10, and emits illumination light mainly to the ceiling, the back wall, and the like.
  • the bottom illumination unit 13c is installed on the lower side of the reproduction apparatus 10, and emits illumination light mainly toward the feet.
  • the woofer illumination unit 13d is installed in the vicinity of the woofer and effectively illuminates a woofer having a large diameter.
  • each lighting unit 13a is always set, and the other illumination units are set as necessary.
  • the illumination unit 13 corresponds to an illumination unit.
  • the plurality of illumination groups correspond to a plurality of classified illumination units configured by classifying the illumination units according to a predetermined rule.
  • the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d correspond to an upper illumination unit, a lower illumination unit, and a speaker illumination unit.
  • a side illumination unit, a tweeter illumination unit, or the like may be configured.
  • the predetermined rule is not limited, and each illumination unit may be classified according to a rule different from the installation position.
  • the operation panel 14 can input control related to the speaker unit 12 such as sound volume and sound, control related to the lighting unit 13 such as light emission color and light emission mode, and the like.
  • 2A and 2B includes a main body 11 having an elongated quadrangular prism shape.
  • the height of the main body 11 is, for example, about 50 cm to about 1 m50 cm.
  • One woofer 12 a is provided in the approximate center of the front surface of the main body 11.
  • Two squawkers 12b and two tweeters 12c are provided above the woofer 12a.
  • the operation panel 14 and the main illumination part 13a are provided on the upper surface of the main body part 11.
  • a woofer illumination unit 13d is provided in the vicinity of the woofer 12a, and a bottom illumination unit 13c is provided at the lower front end of the main body unit 11.
  • the reproducing apparatus 10 is not provided with the top illumination unit 13b.
  • a squawker illumination unit 13e and a tweeter illumination unit 13f are provided in the vicinity of the squawker 12b and the tweeter 12c. The squawker illumination unit 13e and the tweeter illumination unit 13f are controlled in synchronization with the woofer illumination unit 13d, for example.
  • 3A and 3B have a rectangular columnar body 11 having a height of about 1 m.
  • One woofer 12a is provided on the front surface of the main body 11, and no squawker or tweeter is provided.
  • An operation panel 14 and a main illumination unit 13a are provided on the upper surface of the main body unit 11, and a woofer illumination unit 13d is provided on the woofer 12a.
  • the top illumination part 13b and the bottom illumination part 13c are not provided.
  • the playback device 10 shown in FIG. 3 may be combined with a speaker device 15 equipped with a squawker 12 b and a tweeter 12 c to form a 3-way playback device 10.
  • the main illumination unit 13 a may be configured in the two main body units 16 of the speaker device 15.
  • the main illumination part 13a shown in FIG. 3 may be set as the top illumination part 13b.
  • the playback device 10 may be configured by combining the playback device 10 shown in FIG. 2 and the playback device 10 shown in FIG.
  • the main illumination unit 13a the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d.
  • FIG. 6 is a block diagram illustrating a functional configuration example of the playback device 10.
  • the playback device 10 includes a communication unit 41, a storage unit 42, a content playback unit 43, a display unit 44, an illumination control unit 45, an input unit 46, an oscillator 47, and a control unit 48.
  • the communication unit 41 is a communication interface including a communication device for performing data communication with an external device.
  • the communication unit 41 transmits / receives various data to / from the content server 20 or another playback device 10 through a network based on control by the control unit 48.
  • a wireless LAN module such as WiFi or a communication module for short-range wireless communication such as Bluetooth (registered trademark) is mounted.
  • the control unit 48 and the communication unit 41 constitute a transmission unit and a reception unit.
  • the communication unit 41 functions as an acquisition unit that acquires content data (audio data (audio information)) of audio content.
  • a storage medium such as a CD or USB may be set in the playback apparatus 10 and audio data may be read from the storage medium.
  • a drive, an interface, or the like that reads audio data functions as an acquisition unit.
  • the storage unit 42 is a non-volatile storage device, such as an HDD (Hard Disk Drive), flash memory, or other solid-state memory.
  • the storage unit 42 stores various data such as content data acquired from the content server 20 or the like, and information (for example, a MAC address or UUID) for identifying the playback device 10.
  • the storage unit 42 also stores various programs such as applications for executing the playback method according to the present embodiment.
  • the content playback unit 43 plays back the content stored in the storage unit 42.
  • the display unit 44 and the speaker unit 12 are driven by the content playback unit 43, and video content and audio content are played back.
  • the display unit 44 is a display device using, for example, liquid crystal or EL (Electro-Luminescence), and displays video content, various GUIs, and the like.
  • a touch panel is configured as the operation panel 14, the operation panel 14 and the display unit 44 may be configured integrally.
  • the illumination control unit 45 drives each of the main illumination unit 13a, the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d. It can be said that the illumination control unit 45 is a part of the illumination unit 13.
  • the input unit 46 inputs, to the control unit 48, an operation signal corresponding to an operation input to the operation panel 14, an operation signal corresponding to an operation via a remote controller, and the like.
  • the oscillator 47 oscillates at a predetermined sample frequency, generates a clock, and outputs it.
  • the clock from the oscillator 47 is sent to the control unit 48 and becomes the basis of various operations.
  • the control unit 48 controls the operation of each block of the playback device 10 and communicates with the content server 20 and other playback devices 10.
  • the control unit 48 has a hardware configuration necessary for a computer, such as a CPU (Central Processing Unit) and a memory (RAM (Random Access Memory), ROM (Read Only Memory)).
  • the CPU loads the program (application) according to the present technology stored in the storage unit 42 to the RAM and executes the program, thereby realizing the reproduction method according to the present technology.
  • control unit 48 for example, a device such as PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array), and other ASIC (Application Specific Integrated Circuit) may be used.
  • PLD Processable Logic Device
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the CPU of the control unit 48 executes a predetermined program, so that the operation setting unit 51, the reproduction control unit 52, the clock counter 53, the counter control unit 54, the frequency control unit 55, and the audio analysis are function blocks.
  • Unit 56 is implemented.
  • dedicated hardware such as an IC (integrated circuit) may be used as appropriate.
  • the operation setting unit 51 sets whether to operate the playback device 10 as the master device 10a or the slave device 10b when performing multi-room playback.
  • the operation setting unit 51 typically performs operation setting in response to an instruction from the mobile terminal 30.
  • the reproduction control unit 52 controls the content reproduction operation by the content reproduction unit 43, that is, the driving operation of the display unit 44 and the speaker unit 12.
  • the reproduction control unit 52 outputs various reproduction control signals including fast-forwarding and skipping to the content reproduction unit 43 based on, for example, an operation signal input from the input unit 46.
  • the content reproduction unit 43 performs content reproduction based on the reproduction control signal output from the reproduction control unit 52.
  • the reproduction control unit 52 controls the driving operation of each lighting unit by the lighting control unit 45.
  • an illumination control signal for controlling the illumination pattern or emission color of the LED illumination is output to the illumination control unit 45.
  • the illumination control unit 45 drives each of the main illumination unit 13a, the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d based on the illumination control signal output from the reproduction control unit 52.
  • the illumination control signal for the illumination unit is invalidated.
  • the playback control unit 52 executes multi-room playback, which is synchronized playback of audio content with other playback devices 10, and synchronous control of the lighting unit 13 with other playback devices 10.
  • the reproduction control unit 52 functions as a synchronization control unit.
  • the clock counter 53 increases the value according to the clock from the oscillator 47. In the present embodiment, multi-room reproduction and synchronization control of the lighting unit 13 are executed using the value of the clock counter 53.
  • the counter control unit 54 is a block for synchronizing the master device 10a and the slave device 10b.
  • the counter control unit 54 returns a counter value at the timing of receiving the inquiry in response to the inquiry about the counter value transmitted from the slave device 10b.
  • the counter control unit 54 inquires of the master device 10a about the counter value. For example, a packet for inquiring a counter value is generated and transmitted via the communication unit 41. Further, the counter control unit 54 corrects the clock counter 53 based on the response of the counter value from the master device 10a. Thereby, a virtual clock is set in the group, and the multi-room reproduction and the synchronization control of the lighting unit 13 are realized with high accuracy.
  • the frequency control unit 55 controls the sampling frequency according to the content sampling rate.
  • the frequency control unit 55 synchronizes the sample frequencies of the playback devices 10 in the group. Thereby, the precision of multi-room reproduction and the synchronization control of the lighting unit 13 is improved.
  • the audio analysis unit 56 analyzes the audio data and generates lighting control information associated with the audio data. With this lighting control information, the lighting operation of the lighting unit 13 synchronized with the reproduction of the audio content is accurately realized. For example, a variety of illuminations are performed with illumination patterns, illumination colors, and the like synchronized with the rhythm, speed (bpm), tone, and change of the music to be reproduced.
  • the audio analysis unit 56 corresponds to a generation unit in the present embodiment.
  • any audio playback device (sound playback device) having a speaker and an illumination unit may be used.
  • a television device a PC (Personal computer), an audio video receiver, a video monitor, or a home game machine may be used. This technology can also be applied to in-vehicle audio mounted on vehicles.
  • a PC or a network compatible HDD is used.
  • NAS network compatible HDD
  • a smartphone is typically used, but is not limited to this, and various PDAs (Personal Digital Assistant) such as a tablet terminal may be used.
  • FIG. 7 is a schematic diagram showing an example of analysis of audio data by the audio analysis unit 56.
  • the audio analysis unit 56 includes a beat detection unit 58 and a state machine 59. Audio data (described as music data in FIG. 7) acquired from the communication unit 41 and stored in the storage unit 42 is input to the audio analysis unit 56.
  • the beat detection unit 58 performs beat detection and generates timing data. For example, a Fourier transform or the like is performed on the audio data to extract bass sounds. Timing data is generated based on the extracted bass component.
  • beat detection may be executed by an arbitrary algorithm. For example, a middle or high-pitched beat may be used.
  • the audio content is classified into a plurality of playback states by the state machine 59 based on the timing data.
  • the playback state is stored in advance in the ROM or the like of the control unit 48 as parameters associated with, for example, the beat pattern, speed (bmp), intensity, and the like.
  • a method for associating the result of beat detection with the playback state is not limited, and typically, a playback state corresponding to a so-called tune (contents content) is set.
  • the playback state is classified according to a quiet musical tone, a strong musical tone, or the like.
  • FIG. 8 is a schematic diagram for explaining the setting of the playback state.
  • the playback state 2 is set based on the beat detection result from the content start time (t0). It is assumed that a predetermined duration is defined for each reproduction state, and the beat pattern or the like does not change after the duration has elapsed. In this case, playback state 2 is looped (loop ⁇ 2).
  • the beat pattern or the like changes from the time (t1) when the second loop ends, and the playback state 8 is set based on the detection result.
  • the beat pattern and the like further change from the time (t2) when the reproduction state 8 ends, and the reproduction state 10 is set. Even after the duration of the playback state 10 has elapsed, the beat pattern or the like does not change, and the playback state 10 is looped.
  • the beat pattern etc. changes from the time (t3) before the end of the first loop, and the playback state 4 is set. In this way, the playback state may be switched during the duration.
  • the period T0 is in the reproduction state 2 and the period T1 is in the reproduction state 8.
  • the playback state is 10
  • the playback state is 4.
  • the audio content is classified into a plurality of playback states.
  • the illumination pattern according to the reproduction state is set by the state machine 59.
  • a plurality of illumination patterns are stored in association with each reproduction state.
  • the illumination pattern is information on a pattern for causing the LED of each illumination unit such as the main illumination unit 13a to shine.
  • the illumination pattern is appropriately defined according to the tune, etc.
  • a flashing illumination pattern is associated with a playback state set to a violent tune.
  • a calm lighting pattern is linked to the playback state set to a quiet tone.
  • illumination patterns A to E are set for each reproduction state 1 to N, but the number of illumination patterns associated with one reproduction state is not limited. Moreover, it is not limited to the case where the same number of illumination patterns are associated with each reproduction state.
  • the illumination pattern 2A is set in the reproduction state 2 in the period T0, and the illumination pattern 8c is set in the illumination pattern 8 in the period T1.
  • the illumination pattern 10B is set in the reproduction state 10 in the period T2
  • the illumination pattern 4D is set in the reproduction state 4 in the period T3.
  • the method of selecting an actually executed illumination pattern from one or more illumination patterns associated with the playback state is not limited.
  • an illumination pattern is selected at random using random numbers.
  • the weighting of the selection probability may be applied to each of the one or more illumination patterns. Accordingly, it is possible to rarely execute an illumination pattern with a low selection probability among repetitions of illumination patterns that are employed relatively frequently, and it is also possible to employ it as an effect that excites the user.
  • the method for setting the weight is not limited, and is set according to the degree of association between the music tone and the illumination pattern, for example.
  • illumination pattern is switched every time the reproduction state transitions, very effective illumination synchronized with the reproduction of the audio content is realized.
  • another illumination pattern associated with the same playback state may be selected for the loop of the same playback state. For example, when there is a sense of unity in multiple lighting patterns associated with the same playback state, you can experience both dynamic lighting according to the transition of the playback state and a variety of lighting units that have a sense of unity in the same tone. It is also possible.
  • the illumination color is set together with the illumination pattern as shown in FIG.
  • the illumination color is set based on the color theme stored in the ROM of the control unit 48 or the like.
  • the color theme is typically selected by the user via the mobile terminal 30, the operation panel 14 of the playback device 10, or the like.
  • the user's favorite color theme a blue-centered theme color associated with the sea, a red-centered theme color associated with passion, etc.
  • the state machine 59 determines a light emission color (illumination color) such as an LED based on the selected color theme. As a result, a user-preferred viewing experience can be provided.
  • the illumination pattern, illumination color, light emission timing, and light emission speed are generated as the illumination control information 65.
  • the light emission timing is the start timing of the illumination pattern, and is the time (such as t0 and t1 in FIG. 8) when the reproduction state transitions.
  • the light emission speed will be described together with a specific example of an illumination pattern described later.
  • the illumination control information 65 is generated for each of the main illumination unit 13a, the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d. That is, the illumination control information 65 is generated in association with information (classification designation information) for designating each illumination unit.
  • one or more illumination patterns for the main illumination unit 13a, one or more illumination patterns for the top illumination unit 13b, one or more illumination patterns for the bottom illumination unit 13c, and for the woofer illumination unit 13d are stored.
  • an illumination pattern that actually performs illumination is selected from the stored illumination patterns.
  • FIG. 10 and 11 are sequence diagrams illustrating an example of processing when multi-room reproduction with synchronous control of the lighting unit 13 is executed.
  • three playback devices A to C are shown as playback devices connected to the home network 1, but the number of playback devices is not limited.
  • a search request for finding the playback device 10 is generated from the mobile terminal 30 and transmitted by broadcast on the home network 1 (step 101).
  • the playback devices A to C transmit a response to the search request to the portable terminal 30 (step 102).
  • the playback devices A to C responding to the search request are displayed on the touch panel (display unit) of the mobile terminal 30.
  • the user selects a playback device constituting the group, and inputs an instruction for multi-room playback (step 103).
  • the playback devices A to C are selected.
  • the master device 10a is selected from the playback devices selected by the user (step 104). For example, a playback device with high network strength, a playback device connected to the global network, or the like is set as the master device 10a. Also, a playback device that is advantageous for playing back the content desired by the user is selected as the master device 10a.
  • the method for selecting the master device 10a is not limited, and the master device 10a may be designated by the user.
  • the playback device A is selected as the master device 10a.
  • the portable terminal 30 transmits a group creation request to the playback device A (step 105).
  • the request includes identification information of the playback devices B and C that are the slave devices 10b.
  • the playback device A may be referred to as a master device A
  • the playback devices B and C may be referred to as slave devices B and C.
  • the information given as the ID, the method for giving the ID, etc. are not limited as long as each playback device in the group can be identified.
  • the master device A transmits a request to join the group to the slave devices B and C (step 107). At this time, the IDs assigned to the respective re-slave devices B and C are transmitted together. As a result, a group is formed, and the playback devices A to C enter the group state (step 108). The slave devices B and C acquire their own IDs.
  • the slave devices B and C that have received the group participation request may request the master device A to notify the ID, and the master device A may notify the ID again.
  • an ID may be given to the slave device that has confirmed participation in the group.
  • the portable terminal 30 inquires the playback devices A to C that responded to the search request about the group status.
  • the group status is information indicating whether or not a group is configured and, if a group is configured, whether the device is a master device 10a or a slave device 10b. By acquiring the group status, it is possible to grasp a group that has already been constructed, and to instruct multi-room playback.
  • the master device A is instructed to perform multi-room playback (step 201).
  • the instruction for multi-room playback includes an instruction for audio content selected by the portable terminal 30.
  • the master device A acquires audio data to be reproduced from the content server 20 in the home network 1 and stores the audio data in the storage unit 42.
  • the audio content is analyzed by the master device A (step 202), and synchronization control information is generated (step 203).
  • the synchronization control information is information including audio information and illumination control information 65 shown in FIG.
  • FIG. 12 is a schematic diagram showing an example of the synchronization control information.
  • an audio data packet 70 in which the illumination control information 65 is added to the header is generated as the synchronization control information. That is, a packet in which the illumination control information 65 is stored in the header portion 71 and the audio data 66 is stored in the data portion 72 is generated.
  • the header portion 71 stores a time stamp 67 for audio reproduction.
  • the audio data 66 of the data portion 72 is reproduced.
  • an ID table 68 shown in FIG. 11 is stored.
  • the ID table 68 corresponds to device designation information that designates the playback device 10 that controls illumination.
  • FIG. 11 illustrates an ID table 68 in the case where a group is configured by ten playback devices 10. In the ID table 68a, all the playback devices 10 in the group are instructed. In the ID table 68b, three playback devices 10 are instructed. Thus, in this embodiment, the illumination control information 65 is generated in association with the device designation information.
  • the lighting control information 65 is stored in the header portion 71 of the packet 70 corresponding to the light emission timing. That is, it is stored in the header portion 71 of the packet 70 of audio data to be reproduced at the time (t0, t1, etc.) when the reproduction state shown in FIG. That is, the illumination control information 65 is not stored in the audio data packet 70 reproduced at a timing different from the light emission timing.
  • the illumination pattern is looped. Note that since the amount of information stored in the header portion 71 can be added to the header portion 71, it can be easily determined whether or not the illumination control information 65 is stored.
  • FIG. 13 is a schematic diagram for explaining the multi-room playback execution operation of each of the master device A and the slave devices B and C.
  • the synchronization control information generated by the audio analysis unit 56 of the master device A is stored in a buffer 57 configured in the control unit 48 of the master device A.
  • the synchronization control information is distributed to the slave devices B and C by multicast or unicast via the communication unit 41 (step 204 in FIG. 11).
  • the synchronization control information transmitted to the slave devices B and C is stored in the buffers 57 of the slave devices B and C.
  • the master device A and the slave devices B and C execute audio playback when the virtual clock (clock counter) held by the master device A and the slave devices B and C match the time of the time stamp added to the audio data stored in the buffer 57. That is, a playback control signal is generated by the playback control unit 52 shown in FIG. 6 and output to the content playback unit 43. Then, the speaker unit 12 is driven by the content reproduction unit 43, and the audio content is reproduced (step 205).
  • the ID table 68 and the illumination control information 65 are added to the header 71, the ID specified by the ID table 68 by the reproduction control unit 52 of the master device A and the slave devices B and C, and its own ID are compared.
  • illumination control according to the illumination pattern and illumination color is executed in accordance with the light emission timing in the synchronization control signal. That is, the reproduction control unit 52 generates an illumination control signal and outputs it to the illumination control unit 45. And each illumination part of the illumination unit 13 is driven by the illumination control part 45 (same step 205).
  • the lighting units 13 of all the playback devices 10 emit light in synchronization.
  • the same illumination pattern is revolving on each reproduction device 10 It is also possible to emit light sequentially.
  • very various illumination controls can be performed. It is possible to always execute the same illumination control in all the playback devices 10 without assigning an ID.
  • FIG. 11 illustrates a case where transmission of synchronization control information and audio reproduction (illumination control) are executed a plurality of times, and the same reference numerals (204 and 205) are assigned to the respective steps.
  • 14 to 18 are schematic diagrams for explaining an example of an illumination pattern included in the synchronization control information.
  • 14 and 15 are schematic diagrams for explaining an example of the basic illumination pattern.
  • FIG. 14 shows how the ON / OFF states of each of the four LEDs 81 to 84 change in four steps along the time axis. For example, in the pattern 00, the four LEDs 81 to 84 blink all four times while being in the ON state. In the pattern 13, the LED 81 from the left end to the LED 84 at the right end are sequentially turned on.
  • FIG. 14 shows 16 basic illumination patterns. By inverting the ON / OFF state of each LED, 16 additional illumination patterns are realized. Furthermore, 16 basic illumination patterns are realized by reversing the left and right in the figure. Furthermore, 16 basic illumination patterns are realized by reversing the order of illumination changes along the time axis, that is, the direction of the time axis in the figure. Some of them have the same pattern as each other, but about 60 basic illumination patterns are realized.
  • FIG. 15 is an example of a basic illumination pattern realized by three LEDs 85 to 87. Even when three LEDs are used, about 60 basic illumination patterns are realized.
  • FIGS. 16 to 18 are schematic diagrams showing an example of the light emission pattern in the ON state. As the ON state shown in FIGS. 14 and 15, for example, various light emission patterns shown in FIGS. 16 to 18 can be set. In the OFF state, there is no lighting.
  • the ON / OFF of the LED and the light emission amount are appropriately controlled for a predetermined light emission time (0 to 1000 in this example).
  • the predetermined light emission time is not limited, and is set as appropriate according to the illumination change interval in the basic illumination patterns of FIGS. Of course, it is not limited to this.
  • the light emission amount is increased from the start of the light emission time toward the intermediate point, and the light emission amount is decreased from the intermediate point toward the end point.
  • ON / OFF of LEDs is appropriately combined. In each pattern, the ON / OFF timing, the ON time, and the length of the OFF time are appropriately set.
  • the amount of light emission is reduced according to the switching timing from ON to OFF. That is, the LED is faded out at the timing of switching to OFF.
  • a pattern that fades in at the switching timing and then turns off at once can be considered.
  • the basic illumination pattern illustrated in FIGS. 14 and 15 and the ON-state light emission patterns illustrated in FIGS. 16 to 18 are combined to generate an illumination pattern as synchronization control information.
  • the same light emission pattern may be set for all the ON states of one illumination pattern, or different light emission patterns may be set.
  • a light emission pattern may be set for each LED.
  • the illumination basic pattern and the ON-state light emission pattern are not limited to those shown in the figure, and may be set arbitrarily. Further, the illumination pattern may be defined by a method different from the combination of the basic illumination pattern and the light emission pattern in the ON state.
  • the light emission speed included in the synchronization control information corresponds to the illumination change interval in the basic light emission pattern shown in FIG.
  • the interval between illumination changes is shortened, resulting in very flashy illumination. If the light emission speed is low, the interval between illumination changes becomes long, and a quiet atmosphere is created by a gentle illumination change.
  • the light emission time of the light emission pattern in the ON state is appropriately set according to the light emission speed. For example, when the light emission speed is high, the light emission time of the light emission pattern is set to be short accordingly. When the light emission speed is low, the light emission time is set to be long. As a result, various lighting effects can be exhibited.
  • the light emission speed is determined based on, for example, the beat interval, speed (bmp), intensity, and the like. For example, it is set to a large value when the tone is intense, and is set small when the tone is quiet. Further, for example, the reference speed, the reference speed ⁇ 2, the reference speed ⁇ 3, and the reference speed ⁇ 4 may be set in a plurality of stages. The number of stages is not limited, and specific numerical values (for example, milliseconds) are not limited.
  • the emission color may be arbitrarily set, and examples thereof include the following colors. Blue (0, 0, 255) Sky (0, 150, 255) Time (0, 255, 0) Aqua (0, 255, 255) Violet (120,0,255) Red (255, 0, 0) Orange (255,140,0) Yellow (255, 255, 0) Fuchsia (255, 0, 255) White (255, 255, 255) Peach (255, 128, 128) LightBlue (128, 128, 255) Brown (165, 42, 42) Olive (192, 192, 0) Green (0,128,0) Navy (0,0,128)
  • the numerical values in parentheses are gradation values from 0 to 255 of (R, G, B). Of course, each color is not limited to these gradation values, and it does not limit the method of defining the emission color.
  • An arbitrary color is set as the illumination color, and may be realized by an arbitrary method.
  • the illumination control information 65 associated with the audio data 66 is generated.
  • Synchronization control information (packet 70) including the generated illumination control information 65 and audio data 66 is transmitted to the other playback device 10.
  • the audio signal to be reproduced is analyzed in real time by the CPU of the main body and the lighting pattern and the light emission timing are determined each time. As a result, it is possible to accurately execute illumination control synchronized with reproduction of audio content.
  • the synchronization control information generated by the master device 10a is transmitted to each slave device 10b.
  • the slave device 10b performs audio reproduction and driving of the illumination unit 13 based on the received synchronization control information.
  • highly accurate synchronization control of the lighting unit 13 is realized, and a high-quality viewing experience can be provided. For example, it is possible to obtain a party experience that is close to the atmosphere of a live venue where an artist is actually appearing.
  • illumination control information is generated at the timing when the reproduction state transitions, and no illumination control information is generated in a loop where the reproduction state does not transition. Therefore, the amount of illumination control information can be made sufficiently smaller than audio data. This makes it possible to add the lighting control information to the header of the audio data packet. As a result, since the lighting unit can be synchronously controlled only by the audio data packet, the synchronous control can be easily executed, and the data can be easily managed.
  • synchronization control information including audio data and lighting control information is not limited to being generated as a packet.
  • the present technology is applicable even when audio data and lighting control information are distributed separately.
  • the main illumination unit 13a, the top illumination unit 13b, the bottom illumination unit 13c, and the woofer illumination unit 13d are set in each playback device 10.
  • different types of devices are often used as the plurality of playback devices 10 constituting a group.
  • the lighting control information for realizing the synchronous control of the lighting unit and the generation method thereof are not limited.
  • the lighting control information for realizing the synchronous control of the lighting unit and the generation method thereof are not limited.
  • music elements such as volume and rhythm of audio data may be analyzed, and illumination control information including an illumination pattern and illumination color suitable for the analysis may be generated.
  • the lighting control information may be generated based on the state of each of the playback devices constituting the group.
  • the volume value information of each playback device is acquired at the time of group configuration.
  • the master device creates lighting control information based on its own volume value and the volume value of other slave devices. For example, for a playback device with a large volume value, illumination control information is generated so that flashing illumination is achieved. For a playback device with a small volume value, illumination control information is generated so that the illumination is calm.
  • lighting control information may be generated based on the installation environment of each playback device.
  • the information on the installation environment is transmitted from, for example, a slave device or appropriately input by the user.
  • the playback device arranged in the main venue is flashy lighting
  • the playback device arranged in a space where the user rests is calm lighting.
  • the reproduction device placed near the waterside should be bluish-centered, and the reproduction device placed near the flame should be reddish. In this way, by taking into account the state of the playback device, it is possible to provide a high-quality viewing experience.
  • the reproduction method by the master device described above may be executed by interlocking the master device with another computer or the like.
  • the execution of each process included in the reproduction method includes causing another computer or the like to execute part or all of the process and acquiring the result. That is, the present technology can also be applied to a configuration of cloud computing that is shared and processed by a plurality of devices.
  • a playback device capable of performing synchronized playback of audio content with another playback device, An illumination unit; An acquisition unit for acquiring audio information; A generator for generating illumination control information associated with the acquired audio information; A transmission unit for transmitting synchronization control information including the audio information and the illumination control information to the other playback device; A reproduction apparatus comprising: a synchronization control unit that performs synchronized reproduction of the audio content with the other reproduction apparatus and synchronization control of the illumination unit based on the synchronization control information.
  • the playback device according to (1), The reproduction unit generates the audio information packet in which the illumination control information is added to a header as the synchronization control information.
  • the playback device is a reproducing
  • the illumination control information includes a plurality of illumination patterns and a start timing of each of the plurality of illumination patterns.
  • the playback device includes a lighting color.
  • the playback device according to (4) or (5), The generating unit classifies the audio content into a plurality of playback states based on the audio information, and associates the illumination pattern with each of the plurality of playback states.
  • the playback device is a playback device that classifies the plurality of playback states based on beats included in the audio content.
  • the playback device according to any one of (1) to (7), The generation unit generates the illumination control information in association with device designation information for designating the other reproduction device.
  • the playback device according to any one of (1) to (8), The reproducing unit classifies the illumination unit into a plurality of classified illumination units according to a predetermined rule, and generates the illumination control information in association with classification designation information designating each of the plurality of classified illumination units.
  • the playback device according to (9), The plurality of classified illumination units are classified based on installation positions.
  • the playback device according to (9) or (10),
  • the playback device according to any one of (1) to (11),
  • generation part is a reproducing
  • the playback device according to (12), The generation unit generates the illumination control information based on a volume of the other reproduction device.
  • generation part is a reproducing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Arrangement Of Elements, Cooling, Sealing, Or The Like Of Lighting Devices (AREA)

Abstract

本技術の一形態に係る再生装置は、他の再生装置とオーディオコンテンツの同期再生を実行可能な再生装置であって、照明部と、取得部と、生成部と、送信部と、同期制御部とを具備する。前記取得部は、オーディオ情報を取得する。前記生成部は、前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する。前記送信部は、前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、前記他の再生装置に送信する。前記同期制御部は、前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する。

Description

再生装置、再生方法、プログラム、及び再生システム
 本技術は、オーディオコンテンツの再生装置、再生方法、プログラム、及び再生システムに関する。
 従来、家庭内にホームネットワークを構築し、そこに接続された再生装置により、音楽や映像等のコンテンツを再生するシステムが知られている。例えば特許文献1には、ネットワークに接続された複数の再生装置によりグループを構成し、同一のコンテンツを同期再生させるマルチルーム再生の制御方法について記載されている(特許文献1の明細書段落[0043]~[0046]図8等)。
 また特許文献2には、複数のLED等からなる照明装置を備えた音響再生装置について記載されている。この音響再生装置では、再生されるオーディオデータが解析される。そしてその解析結果に応じて、照明装置の発光タイミングや明るさ等が適宜制御される。これによりオーディオコンテンツの再生を、聴覚のみならず視覚からも楽しむことが可能となり、高い興奮や高揚感を体験することが可能となる(特許文献1の明細書段落[0026]~[0041]図6~14等)。
国際公開第2016/103546号 国際公開第2014/103118号
 今後とも、複数の再生装置によるオーディオコンテンツの再生技術は普及していくものと考えられる。ユーザに高品質の視聴体験を提供することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、ユーザに高品質の視聴体験を提供可能な再生装置、再生方法、プログラム、及び再生システムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る再生装置は、他の再生装置とオーディオコンテンツの同期再生を実行可能な再生装置であって、照明部と、取得部と、生成部と、送信部と、同期制御部とを具備する。
 前記取得部は、オーディオ情報を取得する。
 前記生成部は、前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する。
 前記送信部は、前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、前記他の再生装置に送信する。
 前記同期制御部は、前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する。
 この再生装置では、オーディオ情報に関連付けられた照明制御情報が生成される。生成された照明制御情報とオーディオ情報とを含む同期制御情報が、他の再生装置に送信される。これにより同期制御情報に基づいて、オーディオコンテンツの同期再生、及び照明部の同期制御が可能となる。この結果、ユーザに高品質の視聴体験を提供することが可能となる。
 前記生成部は、ヘッダに前記照明制御情報が付加された前記オーディオ情報のパケットを、前記同期制御情報として生成してもよい。
 これによりオーディオコンテンツの同期再生及び照明部の同期制御を、簡単に実行することが可能となる。
 前記生成部は、前記取得されたオーディオ情報を解析することで前記照明制御情報を生成してもよい。
 これによりオーディオコンテンツに同期した照明制御を精度よく実行することが可能となる。
 前記照明制御情報は、複数の照明パターンと、前記複数の照明パターンの各々の開始タイミングとを含んでもよい。
 これにより多彩な照明制御が可能となり、高品質の視聴体験を提供することが可能となる。
 前記照明制御情報は、照明色を含んでもよい。
 これにより多彩な照明制御が可能となり、高品質の視聴体験を提供することが可能となる。
 前記生成部は、前記オーディオ情報に基づいて前記オーディオコンテンツを複数の再生状態に分類し、前記複数の再生状態の各々に前記照明パターンを関連付けてもよい。
 これによりオーディオコンテンツに同期した照明制御を精度よく実行することが可能となる。
 前記生成部は、前記オーディオコンテンツに含まれるビートに基づいて、前記複数の再生状態を分類してもよい。
 これによりオーディオコンテンツに同期した照明制御を精度よく実行することが可能となる。
 前記生成部は、前記他の再生装置を指定する機器指定情報に関連付けて、前記照明制御情報を生成してもよい。
 これにより他の再生装置を指定した照明制御が可能となり、高品質の視聴体験を提供することが可能となる。
 前記生成部は、前記照明部を所定の規則に従って複数の分類照明部に分類し、前記複数の分類照明部の各々を指定する分類指定情報に関連付けて、前記照明制御情報を生成してもよい。
 これにより多彩な照明制御が可能となり、高品質の視聴体験を提供することが可能となる。
 前記複数の分類照明部は、設置位置に基づいて分類されてもよい。
 これにより照明の同期制御による統一感を向上させることが可能となり、高品質の視聴体験を提供することが可能となる。
 前記複数の分類照明部は、メイン照明部、上方側照明部、下方側照明部、及びスピーカ照明部を含んでもよい。
 これにより照明の同期制御による統一感を向上させることが可能となり、高品質の視聴体験を提供することが可能となる。
 前記生成部は、前記他の再生装置の状態に基づいて、前記照明制御情報を生成してもよい。
 これにより高品質の視聴体験を提供することが可能となる。
 前記生成部は、前記他の再生装置のボリュームに基づいて、前記照明制御情報を生成してもよい。
 これにより高品質の視聴体験を提供することが可能となる。
 前記生成部は、前記他の再生装置の設置環境に基づいて、前記照明制御情報を生成してもよい。
 これにより高品質の視聴体験を提供することが可能となる。
 本技術の一形態に係る再生方法は、照明部を有する再生装置による再生方法であって、オーディオ情報を取得することを含む。
 前記取得されたオーディオ情報に関連付けられた照明制御情報が生成される。
 前記オーディオ情報と前記照明制御情報とを含む同期制御情報が、他の再生装置に送信される。
 前記同期制御情報に基づいて、前記他の再生装置とのオーディオコンテンツの同期再生、及び前記照明部の同期制御が実行される。
 本技術の一形態に係るプログラムは、照明部を有する再生装置に、以下のステップを実行させる。
 オーディオ情報を取得するステップ。
 前記取得されたオーディオ情報に関連付けられた照明制御情報を生成するステップ。
 前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、他の再生装置に送信するステップ。
 前記同期制御情報に基づいて、前記他の再生装置とのオーディオコンテンツの同期再生、及び前記照明部の同期制御を実行するステップ。
 本技術の一形態に係る再生システムは、再生装置と、他の再生装置とを具備する再生システムであって、前記再生装置は、前記照明部と、前記取得部と、前記生成部と、前記送信部と、前記同期制御部とを有する。
 前記他の再生装置は、受信部と、同期制御部とを有する。
 前記受信部は、前記前記再生装置から送信された同期制御情報を受信する。
 前記同期制御部は、前記受信した同期制御情報に基づいて、前記再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する。
 本技術の他の形態に係る再生方法は、再生装置と、他の再生装置により実行される。
 前記再生装置は、オーディオ情報を取得する。前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する。前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、他の再生装置に送信する。前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する。
 前記他の再生装置は、前記再生装置から送信された同期制御情報を受信する。前記受信した同期制御情報に基づいて、前記再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する。
 以上のように、本技術によれば、ユーザに高品質の視聴体験を提供することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
一実施形態に係るコンテンツ再生システムの構成例を示す概略図である。 再生装置の構成例を示す外観図である。 再生装置の構成例を示す外観図である。 再生装置の構成例を示す外観図である。 再生装置の構成例を示す外観図である。 再生装置の機能的な構成例を示すブロック図である。 オーディオ解析部によるオーディオデータの解析の一例を示す模式図である。 再生状態の設定を説明するための模式図である。 各再生状態に関連付けて複数の照明パターンを模式的に示す図である。 照明ユニットの同期制御を伴うマルチルーム再生が実行される際の処理例を示すシーケンス図である。 照明ユニットの同期制御を伴うマルチルーム再生が実行される際の処理例を示すシーケンス図である。 同期制御情報の一例を示す模式図である。 マスタ装置及びスレーブ装置の各々のマルチルーム再生の実行動作を説明するための模式図である。 基本照明パターンの一例を説明するための模式図である。 基本照明パターンの一例を説明するための模式図である。 ON状態の発光パターンの一例を示す模式図である。 ON状態の発光パターンの一例を示す模式図である。 ON状態の発光パターンの一例を示す模式図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [コンテンツ再生システム]
 図1は、本技術の一実施形態に係るコンテンツ再生システムの構成例を示す概略図である。コンテンツ再生システム100は、家庭内に構築されたホームネットワーク1と、これに接続された複数の再生装置10、コンテンツを提供するコンテンツサーバ20、及び携帯端末30とを有する。
 複数の再生装置10、コンテンツサーバ20、及び携帯端末30は、図示しないアクセスポイントを介して、WiFi等の無線LAN通信によりホームネットワーク1に接続される。ホームネットワーク1としては、例えばDLNA(登録商標)(Digital Living Network Alliance)規格に準拠したネットワークが用いられる。
 この場合、複数の再生装置10はDMR(Digital Media Renderer)として機能し、コンテンツサーバ20はDMS(Digital Media Server)として機能する。また携帯端末30は、DMC(Digital Media Controller)として機能する。なお他のプロトコルを利用したネットワークが構築される場合にも、本技術は適用可能である。
 複数の再生装置10は、例えばリビングルーム、ベッドルーム、又はキッチン等の各部屋に配置される。携帯端末30は、例えばUPnP(Universal Plug and Play)の制御メッセージ等を用いて、各再生装置10に、コンテンツサーバ20からコンテンツを取得して再生する指示を送信する。従ってユーザは、携帯端末30を操作することで、各部屋に配置された再生装置10の再生動作を制御することができる。
 また図示しないホームゲートウェイを介して、ホームネットワーク1とグローバルネットワークとが接続されているとする。この場合、携帯端末30を操作することで、グローバルネットワーク上(クラウド上)に存在するコンテンツサーバ21内のコンテンツを、各再生装置10に再生させることも可能である。さらに、Bluetooth(登録商標)等の近距離無線通信を利用して、再生装置10にコンテンツを再生させることも可能である。
 [マルチルーム再生]
 本実施形態では、携帯端末30を操作することで、オーディオコンテンツのマルチルーム再生を実行すること可能である。マルチルーム再生とは、ホームネットワーク1に接続された複数の再生装置10によりグループを構成し、当該グループにて同一のコンテンツを同期再生する再生方法である。
 例えば同一の部屋にある複数の再生装置10から同一のコンテンツを再生させることで、部屋全体にて大音量で音楽を楽しむことができる。あるいは多くの友人を家に招いてパーティを開催する場合等において、各部屋に配置された再生装置10から同一のコンテンツを再生させ、その動作を同時に制御することでパーティを盛り上げることができる。
 図1に示すように本実施形態では、グループを構成する複数の再生装置10のうちの1つがマスタ装置10aとして設定され、他の再生装置10がスレーブ装置10bとして設定される。マルチルーム再生が実行される際には、その指示がマスタ装置10aに送信される。マスタ装置10aは、コンテンツサーバ20からコンテンツをダウンロードして、スレーブ装置10bに同時にストリーミング配信する。これによりコンテンツのマルチルーム再生が実現される。なおマスタ装置10a及びスレーブ装置10bは、親機及び子機と呼ばれる場合もある。またスレーブ装置10bは、プレーヤ機と呼ばれる場合もある。
 マルチルーム再生により、コンテンツの同期再生のみならず、再生音量の制御やコンテンツの切り替え等も、互いに同期して実行可能である。一方で、再生位置は互いに同期させながらも、再生音量の制御やフェードイン/フェードアウト等の制御等は、各再生装置に対して個別に実行することも可能である。
 マスタ装置10a及びスレーブ装置10bによる同期再生を実現するための方法は限定されず、例えば同期再生等に関する任意の技術が用いられてよい。例えばクロック及びタイムスタンプにより同期をとり、これにバッファ処理を組み合わせることで同期再生は実行可能である。例えばRTP(Real-time Transport Protocol)及びRTCP(RTP Control Protoco1)を組み合わせたフロー制御等が挙げられる。
 なお本実施形態では、オーディオコンテンツのマルチルーム再生に合わせて、各再生装置10が有する照明ユニットの同期制御が実行される。この点については、後に詳しく説明する。
 図2~図5は、再生装置10の構成例を示す外観図である。再生装置10は、本体部11と、本体部11に備えられたスピーカユニット12、照明ユニット13及び操作パネル14とを有する。
 スピーカユニット12は、典型的には、マルチウェイ方式で構成される。例えば高音用スピーカ(ツイータ)及び低音用スピーカ(ウーファ)を備える2ウェイ方式で構成される。あるいは例えば高音用スピーカ(ツイータ)、中音用スピーカ(スコーカ)及び低音用スピーカ(ウーファ)を備える3ウェイ方式で構成される。もちろんこれに限定されず、フルレンジスピーカに対しても本技術は適用可能である。
 照明ユニット13は、LEDやLD等の固体光源やランプ光源等から構成され、多彩な色の光を発することが可能である。本実施形態では、本体部11に設置されている位置に基づいて、複数の照明群に分類される。すなわちメイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dに分類される。
 各再生装置10において、メイン照明部13aは、本体部11の正面等に配置され、視覚的に最も表現力のある照明効果を発揮する照明部である。トップ照明部13bは、再生装置10の上方側に設置され、主に天井や背後の壁等に照明光を発する。ボトム照明部13cは、再生装置10の下方側に設置され、主に足元に向けて照明光を発する。ウーファ照明部13dは、ウーファの近傍に設置され、径の大きいウーファを効果的に照明する。
 各照明部が適宜動作することで、オーディオコンテンツに同期した非常に多彩でエキサイティングな照明が実現する。なお各再生装置10において、メイン照明部13aは必ず設定され、他の照明部は必要に応じて設定される。
 本実施形態において、照明ユニット13は、照明部に相当する。複数の照明群は、照明部を所定の規則に従って分類することで構成される複数の分類照明部に相当する。またトップ照明部13b、ボトム照明部13c、及びウーファ照明部13dは、上方側照明部、下方側照明部、及びスピーカ照明部に相当する。なお側方側照明部やツイータ照明部等が構成されてもよい。なお所定の規則は限定されず、設置位置とは異なる規則に従って各照明部が分類されてもよい。
 操作パネル14は、音量や音響等のスピーカユニット12に関する制御や、発光色や発光モード等の照明ユニット13に関する制御等を入力することが可能である。
 図2A及びBに例示する再生装置10は、細長い四角柱形状の本体部11を有する。本体部11の高さは、例えば約50cm~約1m50cmである。本体部11の正面の略中央には、ウーファ12aが1つ設けられる。ウーファ12aの上方には、スコーカ12b及びツイータ12cが2つずつ設けられる。
 本体部11の上面には、操作パネル14と、メイン照明部13aが設けられる。ウーファ12aの近傍にはウーファ照明部13dが設けられ、本体部11の正面の下端には、ボトム照明部13cが設けられる。この再生装置10には、トップ照明部13bは設けられていない。なおスコーカ12b及びツイータ12cの近傍に、スコーカ照明部13e及びツイータ照明部13fが設けられている。これらのスコーカ照明部13e及びツイータ照明部13fは、例えばウーファ照明部13dと同期して制御される。
 図3A及びBに例示する再生装置10は、高さが約1m程度の四角柱形状の本体部11を有する。本体部11の正面には、ウーファ12aが1つ設けられ、スコーカやツイータは設けられない。本体部11の上面には、操作パネル14と、メイン照明部13aが設けられ、ウーファ12aには、ウーファ照明部13dが設けられる。トップ照明部13b及びボトム照明部13cは設けられていない。
 図4に示すように、図3に示す再生装置10に、スコーカ12b及びツイータ12cを搭載したスピーカ装置15が組み合わされて、3ウェイ方式の再生装置10が構成されてもよい。この場合、例えばスピーカ装置15の2つの本体部16に、メイン照明部13aが構成されてもよい。そして図3に示すメイン照明部13aが、トップ照明部13bとして設定されてもよい。
 また図5に示すように、図2に示す再生装置10と図4に示す再生装置10とが組み合わされて、再生装置10が構成されてもよい。例えば図5に示すように、メイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dをそれぞれ設定することが可能である。
 図6は、再生装置10の機能的な構成例を示すブロック図である。再生装置10は、通信部41と、記憶部42と、コンテンツ再生部43と、表示部44と、照明制御部45と、入力部46と、発振器47と、制御部48とを有する。
 通信部41は、外部装置との間でデータ通信を行うための通信デバイス等で構成された通信インタフェースである。通信部41は、制御部48による制御に基づき、コンテンツサーバ20又は他の再生装置10との間でネットワークを介して各種データを送受信する。通信部41として、例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の近距離無線通信用の通信モジュールが搭載される。制御部48及び通信部41により、送信部及び受信部が構成される。
 通信部41は、オーディオコンテンツのコンテンツデータ(オーディオデータ(オーディオ情報))を取得する取得部として機能する。なお再生装置10に、CDやUSB等の記憶媒体がセットされ、当該記憶媒体からオーディオデータが読み込まれてもよい。この場合、オーディオデータを読み込むドライブやインタフェース等が取得部として機能する。
 記憶部42は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。記憶部42には、例えばコンテンツサーバ20等から取得したコンテンツデータや、再生装置10を識別するための情報(例えば、MACアドレスやUUID)等の、各種のデータが記憶される。また記憶部42には、本実施形態に係る再生方法を実行するための、アプリケーション等の各種のプログラムが記憶される。
 コンテンツ再生部43は、記憶部42に格納されたコンテンツを再生する。コンテンツ再生部43により、表示部44及びスピーカユニット12が駆動され、映像コンテンツやオーディオコンテンツが再生される。
 表示部44は、例えば液晶やEL(Electro-Luminescence)等を用いた表示デバイスであり、映像コンテンツや種々のGUI等を表示する。操作パネル14としてタッチパネルが構成される場合には、操作パネル14と表示部44とが一体的に構成される場合もある。
 照明制御部45は、メイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dの各々を駆動する。照明制御部45は、照明ユニット13の一部ともいえる。
 入力部46は、操作パネル14に入力された操作に応じた操作信号や、リモートコントローラを介した操作に応じた操作信号等を、制御部48に入力する。
 発振器47は、所定のサンプル周波数で発振し、クロックを生成して出力するものである。発振器47からのクロックは制御部48に送られて各種動作の基となる。
 制御部48は、再生装置10が有する各ブロックの動作を制御し、またコンテンツサーバ20や他の再生装置10との通信を行う。制御部48は、例えばCPU(Central Processing Unit)やメモリ(RAM(Random Access Memory)、ROM(Read Only Memory))等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部42に記憶されている本技術に係るプログラム(アプリケーション)を、RAMにロードして実行することにより、本技術に係る再生方法が実現される。
 制御部48として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
 本実施形態では、制御部48のCPUが所定のプログラムを実行することで、機能ブロックとして動作設定部51、再生制御部52、クロックカウンタ53、カウンタ制御部54、周波数制御部55、及びオーディオ解析部56が実現される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 動作設定部51は、マルチルーム再生を実行する場合に、再生装置10をマスタ装置10aとして動作させるのか、スレーブ装置10bとして動作させるのかを設定するものである。動作設定部51は、典型的には、携帯端末30からの指示に応じて、動作設定を実行する。
 再生制御部52は、コンテンツ再生部43によるコンテンツの再生動作、すなわち表示部44やスピーカユニット12の駆動動作を制御する。再生制御部52により、例えば入力部46から入力された操作信号等に基づいて、早送りやスキップ等を含む種々の再生制御信号が、コンテンツ再生部43に出力される。コンテンツ再生部43は、再生制御部52から出力される再生制御信号に基づいて、コンテンツの再生を実行する。
 また再生制御部52は、照明制御部45による各照明部の駆動動作を制御する。例えばLED照明の照明パターンや発光色を制御する照明制御信号が、照明制御部45に出力される。照明制御部45は、再生制御部52から出力される照明制御信号に基づいて、メイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dの各々を駆動させる。なお再生装置10に設定されていない照明部(トップ照明部13b、ボトム照明部13c、ウーファ照明部13d)が存在する場合に、当該照明部についての照明制御信号は無効とされる。
 本実施形態では、再生制御部52により、他の再生装置10とのオーディオコンテンツの同期再生であるマルチルーム再生、及び他の再生装置10との照明ユニット13の同期制御が実行される。本実施形態において、再生制御部52は、同期制御部として機能する。
 クロックカウンタ53は、発振器47からのクロックに応じて値を増加させていくものである。本実施形態では、このクロックカウンタ53の値を用いて、マルチルーム再生、及び照明ユニット13の同期制御が実行される。
 カウンタ制御部54は、マスタ装置10aとスレーブ装置10bとの間で同期をとるためのブロックである。再生装置10がマスタ装置10aである場合には、カウンタ制御部54により、スレーブ装置10bから送信されてくるカウンタ値の問合せに応じて、問合せを受信したタイミングにおけるカウンタ値が返答される。
 再生装置10がスレーブ装置10bである場合には、カウンタ制御部54により、マスタ装置10aへカウンタ値が問い合わされる。例えばカウンタ値を問い合わせるためのパケットが生成され、通信部41を介して送信される。またカウンタ制御部54により、マスタ装置10aからのカウンタ値の返答に基づいて、クロックカウンタ53が補正される。これによりグループ内に仮想的なクロックが設定され、マルチルーム再生、及び照明ユニット13の同期制御が高い精度で実現される。
 周波数制御部55は、コンテンツのサンプリングレートに応じてサンプル周波数を制御する。周波数制御部55により、グループ内の各再生装置10のサンプル周波数が同期される。これによりマルチルーム再生、及び照明ユニット13の同期制御の精度が向上する。
 オーディオ解析部56は、オーディオデータを解析し、オーディオデータに関連付けられた照明制御情報を生成する。この照明制御情報により、オーディオコンテンツの再生に同期した照明ユニット13の照明動作が精度よく実現される。例えば再生される曲のリズム、速度(bpm)、曲調、これらの変化等に同期した照明パターンや照明色等による多彩な照明が実行される。オーディオ解析部56は、本実施形態において、生成部に相当する。
 再生装置10として、スピーカ及び照明部を有する任意のオーディオ再生装置(音響再生装置)が用いられてよい。例えばテレビジョン装置、PC(Personal computer)、オーディオビデオレシーバ、ビデオモニタ、又は家庭用ゲーム機器等が用いられても良い。また車に搭載される車載オーディオ等も本技術は適用可能である。
 コンテンツサーバ20としては、例えばPC又はネットワーク対応のHDD(NAS)等が用いられる。携帯端末30としては、典型的にはスマートフォンが用いられるが、これに限定されずタブレット端末等の種々のPDA(Personal Digital Assistant)が用いられてもよい。
 図7は、オーディオ解析部56によるオーディオデータの解析の一例を示す模式図である。オーディオ解析部56は、ビート検出部58と、ステートマシン59とを有する。通信部41等から取得され記憶部42に記憶されたオーディデータ(図7ではミュージックデータと記載)がオーディオ解析部56に入力される。
 ビート検出部58によりビート検出が実行され、タイミングデータが生成される。例えばオーディオデータに対してフーリエ変換等が実行され低音が抽出される。抽出された低音成分をもとにタイミングデータが生成される。これに限定されず、任意のアルゴリズムにてビート検出が実行されてよい。例えば中低音や高音のビートが用いられてもよい。
 タイミングデータに基づいて、ステートマシン59により、オーディオコンテンツが複数の再生状態に分類される。再生状態は、例えばビートのパターン、速度(bmp)、強度等に関連付けられたパラメータとして、予め制御部48のROM等に記憶されている。ビート検出の結果と、再生状態とを関連付ける方法は限定されず、典型的には、いわゆる曲調(コンテンツの内容)に応じた再生状態が設定される。例えば静かな曲調や激しい曲調等に応じて再生状態が分類される。
 図8は、再生状態の設定を説明するための模式図である。例えばコンテンツの開始時刻(t0)からのビート検出結果に基づいて、再生状態2が設定される。各再生状態には、所定の継続時間が定義されており、当該継続時間が経過後もビートパターン等が変化しないとする。この場合、再生状態2がループされる(ループ×2)。
 2回目のループが終了する時刻(t1)からビートパターン等が変化し、その検出結果に基づいて、再生状態8が設定される。当該再生状態8が終了する時刻(t2)からさらにビートパターン等が変化し、再生状態10が設定される。再生状態10の継続時間が経過した後もビートパターン等が変化せず、再生状態10がループされる。
 1回目のループが終了するよりも前の時刻(t3)からビートパターン等が変化し、再生状態4が設定される。このように、継続時間の途中で再生状態が切替えられる場合も有り得る。図8に示す例では、期間T0は再生状態2となり、期間T1は再生状態8となる。また期間T2では再生状態10となり、期間T3では再生状態4となる。このように、オーディオコンテンツが複数の再生状態に分類される。
 次にステートマシン59により、再生状態に応じた照明パターンが設定される。図9に模式的に示すように、本実施形態では、各再生状態に関連付けて複数の照明パターンが記憶される。照明パターンは、メイン照明部13a等の各照明部のLED等を光らせるパターンの情報である。上記したように、曲調等に応じて再生状態が設定されるので、照明パターンも、その曲調等に合わせて適宜定義される。例えば激しい曲調に設定される再生状態には、派手な照明パターンが紐付けられる。静かな曲調に設定される再生状態には、落ち着いた照明パターンが紐付けられる。もちろんこれに限定される訳ではない。
 図9に示す例では、各再生状態1~Nに、照明パターンA~Eが設定されているが、1つの再生状態に関連付けられる照明パターンの数は限定されない。また各再生状態に同数の照明パターンが関連付けられる場合にも限定されない。
 図8に示す例では、期間T0の再生状態2に照明パターン2Aが設定され、期間T1の照明パターン8に照明パターン8cが設定される。また期間T2の再生状態10に照明パターン10Bが設定され、期間T3の再生状態4に照明パターン4Dが設定される。
 再生状態に関連付けられた1以上の照明パターンの中から、実際に実行される照明パターンを選択する方法は限定されない。例えば乱数を用いてランダムに照明パターンが選択される。これにより曲中の同じフレーズが繰り返される箇所等に対して、同じ再生状態が何度も設定された場合に、その都度同じ照明パターンが選択されてしまい飽きが生じるといったことを防止することができる。また同じ曲が繰り返される場合等においても、同じ照明パターンが繰り返され照明効果が単調になってしまうといったことを防止することが可能となる。
 1以上の照明パターンの各々に、選択確率の重み付けが施されてもよい。これにより比較的多く採用される照明パターンの繰り返しの中で、選択確率が低い照明パターンが稀に実行されるといったことが可能となり、ユーザを盛り上げる演出として採用することも可能となる。重み付けを設定する方法は限定されず、例えば曲調と照明パターンとの関連度等に応じて設定される。
 図8に示すように再生状態が遷移するごとに照明パターンが切替えられるので、オーディオコンテンツの再生に同期した非常に効果的な照明が実現される。なお同じ再生状態のループに対して、同じ再生状態に関連付けられた他の照明パターンが選択されてもよい。例えば同じ再生状態に関連付けられている複数の照明パターンに統一感がある場合には、再生状態の遷移に応じたダイナミックな照明と、同じ曲調内における統一感のある多彩な照明とをともに体験することも可能となる。
 図7に示すように照明パターンと合わせて照明色が設定される。照明色は、制御部48のROM等に記憶された色彩テーマに基づいて設定される。当該色彩テーマは、典型的には、ユーザにより、携帯端末30や再生装置10の操作パネル14等を介して選択される。例えばユーザの好みの色彩テーマ(海が連想される青味中心のテーマ色や、情熱を連想させる赤味中心のテーマ色等)が選択される。ステートマシン59は、選択された色彩テーマに基づいて、LED等の発光色(照明色)を決定する。これによりユーザ好みの視聴体験を提供することができる。
 本実施形態では、照明パターン、照明色、発光タイミング、及び発光スピードが照明制御情報65として生成される。発光タイミングは、照明パターンの開始タイミングであり、再生状態が遷移する時刻(図8のt0やt1等)である。発光スピードについては、後述する照明パターンの具体例とともに説明する。
 また図7に示すように、照明制御情報65は、メイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dの各々について生成される。すなわち各照明部を指定する情報(分類指定情報)に関連付けて、照明制御情報65がそれぞれ生成される。
 例えば各再生状態に対して、メイン照明部13a用の1以上の照明パターン、トップ照明部13b用の1以上の照明パターン、ボトム照明部13c用の1以上の照明パターン、及びウーファ照明部13d用の1以上の照明パターンがそれぞれ記憶されている。各照明部ごとに、記憶されている照明パターンの中から、実際に照明を実行する照明パターンが選択される。
 [マルチルーム再生及び照明ユニットの同期制御]
 図10及び図11は、照明ユニット13の同期制御を伴うマルチルーム再生が実行される際の処理例を示すシーケンス図である。図10では、ホームネットワーク1に接続された再生装置として、3つの再生装置A~Cが図示されているが、再生装置の数は限定されない。
 本技術にかかるアプリケーションが起動されると、携帯端末30より、再生装置10を発見するための探索要求が生成され、ホームネットワーク1上にブロードキャストで送信される(ステップ101)。再生装置A~Cは、探索要求に対する応答を携帯端末30に送信する(ステップ102)。
 探索要求に応答した再生装置A~Cは、携帯端末30のタッチパネル(表示部)に表示される。ユーザにより、グループを構成する再生装置が選択され、マルチルーム再生の指示が入力される(ステップ103)。本実施形態では、再生装置A~Cが選択される。
 ユーザに選択された再生装置の中からマスタ装置10aが選択される(ステップ104)。例えば、ネットワーク強度が高い再生装置や、グローバルネットワークに接続されている再生装置等がマスタ装置10aとして設定される。またユーザが所望するコンテンツを再生するのに優位な再生装置がマスタ装置10aとして選択される。マスタ装置10aを選択する方法は限定されず、ユーザによりマスタ装置10aが指定されてもよい。
 図10に示す例では、再生装置Aがマスタ装置10aとして選択される。携帯端末30は、再生装置Aに対して、グループ作成要求を送信する(ステップ105)。当該要求には、スレーブ装置10bとなる再生装置B及びCの識別情報が含まれる。以下、再生装置Aをマスタ装置A、再生装置B及びCをスレーブ装置B及びCと記載する場合がある。
 マスタ装置Aは、グループを構成する再生装置A~Cの各々に、照明ユニット13の同期制御のためのIDを付与する(ステップ106)。例えばマスタ装置10aとなる自身にID=0を付与し、スレーブ装置B及びCに対して、ID=1及び2をそれぞれ付与する。IDとして付与される情報、及びIDの付与方法等は限定されず、グループ内の再生装置の各々が識別可能であればよい。
 マスタ装置Aにより、スレーブ装置B及びCに、グループへの参加要求が送信される(ステップ107)。この際に、各再スレーブ装置B及びCに付与されたIDがともに送信される。これによりグループが構成され、再生装置A~Cはグループ状態となる(ステップ108)。またスレーブ装置B及びCは、自身のIDを取得する。
 なおグループ参加要求を受信したスレーブ装置B及びCにより、マスタ装置Aに、IDの通知が要求され、マスタ装置Aにより改めてIDが通知されてもよい。またグループが構成された後に、グループへの参加が確認できたスレーブ装置に対してIDが付与されてもよい。
 既に構築されているグループによりマルチルーム再生を実行することも可能である。例えば携帯端末30により、探索要求に応答した再生装置A~Cに対して、グループ状態が問い合わされる。グループ状態とは、グループを構成しているか否か、グループを構成している場合には、マスタ装置10aであるかスレーブ装置10bであるかを示す情報である。グループ状態を取得することで、既に構築されているグループを把握することが可能となり、マルチルーム再生を指示することが可能となる。
 図11に示すように、マスタ装置Aにマルチルーム再生が指示される(ステップ201)。マルチルーム再生の指示は、携帯端末30により選択されたオーディオコンテンツの指示を含む。マスタ装置Aは、例えばホームネットワーク1内のコンテンツサーバ20から、再生対象となるオーディオデータを取得し、記憶部42に格納する。
 マスタ装置Aにより、オーディオコンテンツが解析され(ステップ202)、同期制御情報が生成される(ステップ203)。同期制御情報は、オーディオ情報と、図7に示す照明制御情報65とを含む情報である。
 図12は、同期制御情報の一例を示す模式図である。本実施形態では、同期制御情報として、ヘッダに照明制御情報65が付加されたオーディオデータのパケット70が生成される。すなわちヘッダ部71に照明制御情報65が格納され、データ部72にオーディオデータ66が格納されたパケットが生成される。
 図12に示すように、ヘッダ部71には、オーディオ再生用のタイムスタンプ67が格納されている。マスタ装置10a及びスレーブ装置10bの各カウンタ(互いに同期している)が、パケット70のタイムスタンプと一致すると、データ部72のオーディオデータ66が再生される。
 またヘッダ部71には、図11に示すIDテーブル68が格納される。IDテーブル68は、照明を制御する再生装置10を指定する機器指定情報に相当する。図11には、10個の再生装置10によりグループが構成される場合のIDテーブル68が例示されている。IDテーブル68aは、グループ内の全ての再生装置10が指示されている。IDテーブル68bは、3つの再生装置10が指示されている。このように本実施形態では、機器指定情報に関連付けて、照明制御情報65が生成される。
 なお照明制御情報65は、発光タイミングに応じたパケット70のヘッダ部71に格納される。すなわち図8に示す再生状態が遷移する時刻(t0やt1等)に再生されるオーディオデータのパケット70のヘッダ部71に格納される。すなわち発光タイミングとは異なるタイミングで再生されるオーディオデータのパケット70には、照明制御情報65は格納されない。当該パケット70によりオーディオデータを再生する際には、照明パターンはループされる。なおヘッダ部71には、ヘッダ部71に格納される情報量を付加することも可能であるので、照明制御情報65が格納されているか否かは容易に判定可能である。
 図13は、マスタ装置A及びスレーブ装置B及びCの各々のマルチルーム再生の実行動作を説明するための模式図である。マスタ装置Aのオーディオ解析部56により生成された同期制御情報は、マスタ装置Aの制御部48に構成されるバッファ57に溜められる。また同期制御情報は、通信部41を介してマルチキャスト又はユニキャストにより、スレーブ装置B及びCに配信される(図11のステップ204)。スレーブ装置B及びCに送信された同期制御情報は、スレーブ装置B及びCのバッファ57に溜められる。
 マスタ装置A及びスレーブ装置B及びCは、自身が保持する仮想クロック(クロックカウンタ)とバッファ57に保存されたオーディオデータに付加されたタイムスタンプの時刻とが一致したら、オーディオ再生を実行する。すなわち図6に示す再生制御部52により再生制御信号が生成され、コンテンツ再生部43に出力される。そしてコンテンツ再生部43によりスピーカユニット12が駆動され、オーディオコンテンツが再生される(ステップ205)。
 ヘッダ部71にIDテーブル68及び照明制御情報65が付加されている場合には、マスタ装置A及びスレーブ装置B及びCの再生制御部52により、IDテーブル68により指定されたIDと、自身のIDとが比較される。IDが一致する場合は、同期制御信号内の発光タイミングに合わせて、照明パターンや照明色に応じた照明制御が実行される。すなわち再生制御部52により、照明制御信号が生成され、照明制御部45に出力される。そして照明制御部45により、照明ユニット13の各照明部が駆動される(同じくステップ205)。
 例えば全ての再生装置10が指定されている場合には、全ての再生装置10の照明ユニット13が同期して発光する。また例えば同じ再生状態のループが続く場合等において、同じ照明パターンを含む照明制御情報を、IDを変えて一定の時間差で順次送信することで、各再生装置10で同じ照明パターンを輪唱のように逐次発光させることも可能となる。このように照明制御用のIDを設定することで、非常に多彩な照明制御が可能となる。なおIDを振ることなく、常に全ての再生装置10にて同じ照明制御を実行させることも可能である。
 なお図11では、同期制御情報の送信、及びオーディオ再生(照明制御)がそれぞれ複数回実行される場合が図示されており、各ステップに同じ符号(204及び205)が付されている。
 図14~図18は、同期制御情報に含まれる照明パターンの一例を説明するための模式図である。図14及び図15は、基本照明パターンの一例を説明するための模式図である。
 図14では、4つのLED81~84の各々のON/OFF状態が、時間軸に沿って4段階に変化する様子が図示されている。例えばパターン00では、4つのLED81~84が全てON状態のまま4回点滅する。パターン13では、左端のLED81から右端のLED84まで順番にON状態となる。
 図14では、16個の基本照明パターンが図示されている。各LEDのON/OFF状態を逆にすることで、さらに16個の照明パターンが実現される。さらに図中の左右を逆にすることでさらに16個の基本照明パターンが実現する。さらに時間軸に沿った照明変化の順序、すなわち図中の時間軸の向きを逆にすることでさらに16個の基本照明パターンが実現する。これらの中には互いに同じパターンとなるものも存在するが、約60個程度の基本照明パターンが実現する。
 図15は、3つのLED85~87により実現される基本照明パターンの一例である。3つのLEDが用いられる場合にも、約60個程度の基本照明パターンが実現する。
 図16~図18は、ON状態の発光パターンの一例を示す模式図である。図14及び図15に示すON状態として、例えば図16~図18に示す種々の発光パターンを設定することができる。なおOFF状態は、点灯無しである。
 図16~図18に示す発光パターンは、所定の発光時間(本例では0~1000とする)に対して、LEDのON/OFF、及び発光量が適宜制御される。所定の発光時間は限定されず、例えば図14及び図15の基本照明パターン内の照明変化の間隔に合わせて適宜設定される。もちろんこれに限定されない。
 パターン01のアンビエントは、発光時間の開始から中間点に向けて発光量が増加され、中間点から終了に向けて発光量が減少される。パターン02~14までは、LEDのON/OFFが適宜組み合わされる。各パターンにおいて、ON/OFFのタイミング、及びON時間及びOFF時間の長さが適宜設定されている。
 パターン15~30では、ONからOFFの切替えタイミングに合わせて、発光量が減少される。すなわちOFFへの切替えタイミングに合わせて、LEDがフェードアウトされる。もちろん切替えタイミングに合わせてフェードインされた後、一気にOFFとするパターン等も考えられる。
 本実施形態では、図14及び図15に例示する基本照明パターンと、図16~図18に示すON状態の発光パターンとが組み合わされて、同期制御情報としての照明パターンが生成される。1つの照明パターンの全てのON状態に同じ発光パターンが設定されてもよいし、異なる発光パターンが設定されてもよい。またLEDごとに発光パターンが設定されてもよい。これにより非常に多彩な照明パターンを実現することが可能となり、非常に多彩な照明が実現される。
 照明基本パターンやON状態の発光パターンは、図に示すものに限定されず、任意に設定されてよい。また基本照明パターン及びON状態の発光パターンの組み合わせとは異なる方法で、照明パターンが定義されてもよい。
 同期制御情報に含まれる発光スピードは、図13等に示す基本発光パターン内の、照明変化の間隔に相当する。発光スピードが大きいと、照明変化の間隔が短くなり、非常に派手な照明となる。発光スピードが小さいと、照明変化の間隔が長くなり、緩やかな照明変化にて静かな雰囲気が醸し出される。
 なお発光スピードに応じて、ON状態の発光パターンの発光時間も適宜設定される。例えば発光スピードが大きい場合には、それに合わせて発光パターンの発光時間も短く設定される。発光スピードが小さい場合には、それに合わせて発光時間は長く設定される。これにより多彩な照明効果を発揮することが可能となる。
 発光スピードは、例えばビートの間隔、速度(bmp)、強度等に基づいて決定される。例えば激しい曲調の場合には大きく設定され、静かな曲調の場合には小さく設定される。また例えば基準スピード、基準スピード×2、基準スピード×3、基準スピード×4といったように複数の段階で設定されてもよい。段階の数は限定されず、また具体的な数値(例えばミリセカンド等)も限定されない。
 発光色は、任意に設定されてよく、例えば以下の色が挙げられる。
 Blue(0,0,255)
 Sky(0,150,255)
 Lime(0,255,0)
 Aqua(0,255,255)
 Violet(120,0,255)
 Red(255,0,0)
 Orange(255,140,0)
 Yellow(255,255,0)
 Fuchsia(255,0,255)
 White(255,255,255)
 Peach(255,128,128)
 LightBlue(128,128,255)
 Brown(165,42,42)
 Olive(192,192,0)
 Green(0,128,0)
 Navy(0,0,128)
 なお括弧内の数値は、(R,G,B)の0~255までの階調値である。もちろん各色がこれらの階調値に限定されるわけではなく、また発光色の定義方法を限定するものでもない。照明色として任意の色が設定され、任意の方法で実現されてよい。
 以上、本実施形態に係るコンテンツ再生システム100では、オーディオデータ66に関連付けられた照明制御情報65が生成される。生成された照明制御情報65とオーディオデータ66とを含む同期制御情報(パケット70)が、他の再生装置10に送信される。これにより同期制御情報に基づいて、オーディオコンテンツの同期再生(マルチルーム再生)、及び照明ユニット13の同期制御が可能となる。この結果、ユーザに高品質の視聴体験を提供することが可能となる。
 パーティーシーンを盛り上げる演出機能として、迫力のあるオーディオ再生だけでなく、本体に搭載されているLED照明等を音楽に合わせて再生する機能は非常に有効である。上記説明したように、再生するオーディオ信号を本体のCPU等でリアルタイムに解析し、その都度照明パターンや発光タイミングを決定する。これによりオーディオコンテンツの再生に同期した照明制御を精度よく実行することが可能となる。
 一般的に音楽は、あるメロディーパターンが周期的に繰り返されることが多い。従って同じアルゴリズムで照明パターンを決定していると、毎回同じ光り方をしてしまうため、せっかくのパーティ演出であるのに、ユーザを飽きさせてしまう可能性も高い。本実施形態では、上記で説明したように、アルゴリズムの一部に乱数を取り入れ、毎回同じ照明パターンが選択されることが防止されている。この結果、興奮や高揚感が冷めてしまうことを十分に防止することが可能となる。
 なおマスタ装置10aからスレーブ装置10bにオーディオデータのみを送信し、各再生装置10によりオーディオ解析が実行されて照明情報が生成される場合も、楽しい視聴体験を提供することが可能である。しかしながらこの方法では、例えばアルゴリズム中で採用される乱数や、オーディオデータの解析のタイミングのずれ等が発生してしまう可能性がある。そうすると同じ楽曲を解析しても、決定される照明パターンや色、発光タイミングが各々の再生装置10で異なるものとなる。すなわち照明ユニット13の同期制御の精度が低くなる可能性がある。
 本実施形態では、マスタ装置10aにより生成された同期制御情報が各スレーブ装置10bに送信される。スレーブ装置10bは、受信した同期制御情報に基づいて、オーディオ再生及び照明ユニット13の駆動を実行する。この結果、非常に精度の高い照明ユニット13の同期制御が実現され、高品質の視聴体験を提供することが可能となる。例えばアーティストが実際に出演しているライブ会場等の雰囲気に近い、臨場感溢れるパーティ体験を得ることが可能となる。
 また本実施形態では、図8等に示すように、再生状態が遷移するタイミングで照明制御情報が生成され、再生状態が遷移しないループの場合には照明制御情報は生成されない。従ってオーディオデータと比べて、照明制御情報の情報量を十分に小さくすることが可能である。これにより照明制御情報を、オーディオデータのパケットのヘッダに付加することが可能となる。この結果オーディオデータのパケットのみで、照明ユニットの同期制御が可能となるので、容易に同期制御を実行することが可能となり、またデータの管理も容易となる。
 なおオーディオデータと照明制御情報とを含む同期制御情報が、パケットとして生成される場合に限定される訳ではない。例えばオーディオデータと照明制御情報とが別々に配信される場合でも、本技術は適用可能である。
 また本実施形態では、各再生装置10に、メイン照明部13a、トップ照明部13b、ボトム照明部13c、及びウーファ照明部13dが設定される。例えばグループを構成する複数の再生装置10として、異なる機種の装置が用いられることも多い。例えばマスタ装置10aとは異なる機種のスレーブ装置10bが存在することも有り得る。従って物理的な位置に基づいて複数の照明群を分類し、各照明群に対して照明制御情報を生成する。これにより異なる機種の装置の間でも、メイン照明部13a同士の同期制御、ウーファ照明部13d同士の同期制御等が可能となる。すなわち照明ユニットの同期制御による統一感を向上させることが可能となり、雰囲気をそろえることが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 例えば照明ユニットの同期制御を実現するための照明制御情報、及びその生成方法等は限定されない。例えば上記したビート検出のみならず、オーディオデータの音量やリズム等の音楽要素を解析し、それに適した照明パターンや照明色を含む照明制御情報が生成されてもよい。
 また例えばグループを構成する再生装置の各々の状態に基づいて、照明制御情報が生成されてもよい。例えばグループ構成時に、各再生装置のボリューム値の情報が取得される。マスタ装置は、自身のボリューム値や他のスレーブ装置のボリューム値に基づいて、照明制御情報を作成する。例えばボリューム値が大きい再生装置については、派手な照明となるように照明制御情報を生成する。ボリューム値が小さい再生装置については、落ち着いた照明となるように照明制御情報を生成する。
 また各再生装置の設置環境に基づいて、照明制御情報が生成されてもよい。設置環境の情報は、例えばスレーブ装置から送信されたり、ユーザにより適宜入力される。例えばメイン会場に配置された再生装置については派手な照明とし、ユーザが休息するスペース等に配置された再生装置については落ち着いた照明とする。あるいは水辺に配置された再生装置には青味中心の照明とし、炎の近くに配置された再生装置については赤味の照明にする。このように再生装置の状態を加味することで、高品質な視聴体験を提供することが可能となる。
 上記で説明したマスタ装置による再生方法が、マスタ装置と他のコンピュータ等とが連動することで実行されてもよい。例えば当該再生方法に含まれる各処理の実行は、当該処理の一部または全部を他のコンピュータ等に実行させその結果を取得することを含む。すなわち本技術は、複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)他の再生装置とオーディオコンテンツの同期再生を実行可能な再生装置であって、
 照明部と、
 オーディオ情報を取得する取得部と、
 前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する生成部と、
 前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、前記他の再生装置に送信する送信部と、
 前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する同期制御部と
 を具備する再生装置。
(2)(1)に記載の再生装置であって、
 前記生成部は、ヘッダに前記照明制御情報が付加された前記オーディオ情報のパケットを、前記同期制御情報として生成する
 再生装置。
(3)(1)又は(2)に記載の再生装置であって、
 前記生成部は、前記取得されたオーディオ情報を解析することで前記照明制御情報を生成する
 再生装置。
(4)(1)から(3)のうちいずれか1つに記載の再生装置であって、
 前記照明制御情報は、複数の照明パターンと、前記複数の照明パターンの各々の開始タイミングとを含む
 再生装置。
(5)(4)に記載の再生装置であって、
 前記照明制御情報は、照明色を含む
 再生装置。
(6)(4)又は(5)に記載の再生装置であって、
 前記生成部は、前記オーディオ情報に基づいて前記オーディオコンテンツを複数の再生状態に分類し、前記複数の再生状態の各々に前記照明パターンを関連付ける
 再生装置。
(7)(6)に記載の再生装置であって、
 前記生成部は、前記オーディオコンテンツに含まれるビートに基づいて、前記複数の再生状態を分類する
 再生装置。
(8)(1)から(7)のうちいずれか1つに記載の再生装置であって、
 前記生成部は、前記他の再生装置を指定する機器指定情報に関連付けて、前記照明制御情報を生成する
 再生装置。
(9)(1)から(8)のうちいずれか1つに記載の再生装置であって、
 前記生成部は、前記照明部を所定の規則に従って複数の分類照明部に分類し、前記複数の分類照明部の各々を指定する分類指定情報に関連付けて、前記照明制御情報を生成する
 再生装置。
(10)(9)に記載の再生装置であって、
 前記複数の分類照明部は、設置位置に基づいて分類される
 再生装置。
(11)(9)又は(10)に記載の再生装置であって、
 前記複数の分類照明部は、メイン照明部、上方側照明部、下方側照明部、及びスピーカ照明部を含む
 再生装置。
(12)(1)から(11)のうちいずれか1つに記載の再生装置であって、
 前記生成部は、前記他の再生装置の状態に基づいて、前記照明制御情報を生成する
 再生装置。
(13)(12)に記載の再生装置であって、
 前記生成部は、前記他の再生装置のボリュームに基づいて、前記照明制御情報を生成する
 再生装置。
(14)(12)又は(13)に記載の再生装置であって、
 前記生成部は、前記他の再生装置の設置環境に基づいて、前記照明制御情報を生成する
 再生装置。
 10…再生装置
 10a…マスタ装置
 10b…スレーブ装置
 12…スピーカユニット
 12a…ウーファ
 12b…スコーカ
 12c…ツイータ
 13…照明ユニット
 13a…メイン照明部
 13b…トップ照明部
 13c…ボトム照明部
 13d…ウーファ照明部
 20、21…コンテンツサーバ
 30…携帯端末
 41…通信部
 42…記憶部
 48…制御部
 52…再生制御部
 56…オーディオ解析部
 58…ビート検出部
 59…ステートマシン
 65…照明制御情報
 66…オーディオデータ
 67…タイムスタンプ
 68…IDテーブル
 70…パケット
 71…ヘッダ部
 72…データ部
 100…コンテンツ再生システム

Claims (18)

  1.  他の再生装置とオーディオコンテンツの同期再生を実行可能な再生装置であって、
     照明部と、
     オーディオ情報を取得する取得部と、
     前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する生成部と、
     前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、前記他の再生装置に送信する送信部と、
     前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する同期制御部と
     を具備する再生装置。
  2.  請求項1に記載の再生装置であって、
     前記生成部は、ヘッダに前記照明制御情報が付加された前記オーディオ情報のパケットを、前記同期制御情報として生成する
     再生装置。
  3.  請求項1に記載の再生装置であって、
     前記生成部は、前記取得されたオーディオ情報を解析することで前記照明制御情報を生成する
     再生装置。
  4.  請求項1に記載の再生装置であって、
     前記照明制御情報は、複数の照明パターンと、前記複数の照明パターンの各々の開始タイミングとを含む
     再生装置。
  5.  請求項4に記載の再生装置であって、
     前記照明制御情報は、照明色を含む
     再生装置。
  6.  請求項4に記載の再生装置であって、
     前記生成部は、前記オーディオ情報に基づいて前記オーディオコンテンツを複数の再生状態に分類し、前記複数の再生状態の各々に前記照明パターンを関連付ける
     再生装置。
  7.  請求項6に記載の再生装置であって、
     前記生成部は、前記オーディオコンテンツに含まれるビートに基づいて、前記複数の再生状態を分類する
     再生装置。
  8.  請求項1に記載の再生装置であって、
     前記生成部は、前記他の再生装置を指定する機器指定情報に関連付けて、前記照明制御情報を生成する
     再生装置。
  9.  請求項1に記載の再生装置であって、
     前記生成部は、前記照明部を所定の規則に従って複数の分類照明部に分類し、前記複数の分類照明部の各々を指定する分類指定情報に関連付けて、前記照明制御情報を生成する
     再生装置。
  10.  請求項9に記載の再生装置であって、
     前記複数の分類照明部は、設置位置に基づいて分類される
     再生装置。
  11.  請求項9に記載の再生装置であって、
     前記複数の分類照明部は、メイン照明部、上方側照明部、下方側照明部、及びスピーカ照明部を含む
     再生装置。
  12.  請求項1に記載の再生装置であって、
     前記生成部は、前記他の再生装置の状態に基づいて、前記照明制御情報を生成する
     再生装置。
  13.  請求項12に記載の再生装置であって、
     前記生成部は、前記他の再生装置のボリュームに基づいて、前記照明制御情報を生成する
     再生装置。
  14.  請求項12に記載の再生装置であって、
     前記生成部は、前記他の再生装置の設置環境に基づいて、前記照明制御情報を生成する
     再生装置。
  15.  照明部を有する再生装置による再生方法であって、
     オーディオ情報を取得し、
     前記取得されたオーディオ情報に関連付けられた照明制御情報を生成し、
     前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、他の再生装置に送信し、
     前記同期制御情報に基づいて、前記他の再生装置とのオーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する
     再生方法。
  16.  照明部を有する再生装置に
     オーディオ情報を取得するステップと、
     前記取得されたオーディオ情報に関連付けられた照明制御情報を生成するステップと、
     前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、他の再生装置に送信するステップと、
     前記同期制御情報に基づいて、前記他の再生装置とのオーディオコンテンツの同期再生、及び前記照明部の同期制御を実行するステップと
     を実行させるプログラム。
  17.  再生装置と、他の再生装置とを具備する再生システムであって、
     前記再生装置は、
     照明部と、
     オーディオ情報を取得する取得部と、
     前記取得されたオーディオ情報に関連付けられた照明制御情報を生成する生成部と、
     前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、前記他の再生装置に送信する送信部と、
     前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する同期制御部と
     を有し、
     前記他の再生装置は、
     前記再生装置から送信された同期制御情報を受信する受信部と、
     前記受信した同期制御情報に基づいて、前記再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する同期制御部と
    を有する
     再生システム。
  18.  再生装置が、
     オーディオ情報を取得し、
     前記取得されたオーディオ情報に関連付けられた照明制御情報を生成し、
     前記オーディオ情報と前記照明制御情報とを含む同期制御情報を、他の再生装置に送信し、
     前記同期制御情報に基づいて、前記他の再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行し、
     前記他の再生装置が、
     前記再生装置から送信された同期制御情報を受信し、
     前記受信した同期制御情報に基づいて、前記再生装置との前記オーディオコンテンツの同期再生、及び前記照明部の同期制御を実行する
     再生方法。
PCT/JP2017/029626 2016-09-23 2017-08-18 再生装置、再生方法、プログラム、及び再生システム WO2018055959A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018540917A JP7095597B2 (ja) 2016-09-23 2017-08-18 再生装置、再生方法、プログラム、及び再生システム
EP17852739.6A EP3518552B1 (en) 2016-09-23 2017-08-18 Reproduction device, reproduction method, program, and reproduction system
CN201780056812.XA CN109716783B (zh) 2016-09-23 2017-08-18 再现装置、再现方法、程序以及再现系统
US16/332,466 US20210195711A1 (en) 2016-09-23 2017-08-18 Reproduction apparatus, reproduction method, program, and reproduction system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016185728 2016-09-23
JP2016-185728 2016-09-23

Publications (1)

Publication Number Publication Date
WO2018055959A1 true WO2018055959A1 (ja) 2018-03-29

Family

ID=61689448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029626 WO2018055959A1 (ja) 2016-09-23 2017-08-18 再生装置、再生方法、プログラム、及び再生システム

Country Status (5)

Country Link
US (1) US20210195711A1 (ja)
EP (1) EP3518552B1 (ja)
JP (1) JP7095597B2 (ja)
CN (1) CN109716783B (ja)
WO (1) WO2018055959A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3588972A4 (en) * 2017-02-24 2020-02-12 Sony Corporation MASTER PLAYER, SLAVE PLAYER AND LIGHT EMISSION METHOD THEREFOR
CN113692091B (zh) * 2021-08-11 2024-04-02 深圳市智岩科技有限公司 设备控制方法、装置、终端设备及存储介质
CN114401472B (zh) * 2021-12-02 2023-06-23 联想(北京)有限公司 一种电子设备及信息处理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047098A (ja) * 2001-07-27 2003-02-14 Nec Corp 携帯端末装置及び携帯端末装置の音響再生システム
JP2004348143A (ja) * 2004-06-04 2004-12-09 Namco Ltd 情報提供システム、携帯型端末装置、プログラムおよび情報記憶媒体
JP2007025618A (ja) * 2005-07-11 2007-02-01 Mox Tronix Co Ltd 多機能照明オーディオ装置
JP2008147860A (ja) * 2006-12-07 2008-06-26 Mega Chips Corp 音声再生システム
JP2008283305A (ja) * 2007-05-08 2008-11-20 Sony Corp ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
JP2011075730A (ja) * 2009-09-29 2011-04-14 Brother Industries Ltd 楽曲発光システム
WO2014103118A1 (ja) 2012-12-28 2014-07-03 ソニー株式会社 音響再生装置
WO2015092984A1 (ja) * 2013-12-18 2015-06-25 ソニー株式会社 音響再生装置
WO2016103546A1 (ja) 2014-12-26 2016-06-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461188A (en) * 1994-03-07 1995-10-24 Drago; Marcello S. Synthesized music, sound and light system
US6208802B1 (en) * 1997-08-07 2001-03-27 Matsushita Electric Industrial Co., Ltd. Optical disk, reproduction apparatus, and reproduction method
WO2003093950A2 (en) * 2002-05-06 2003-11-13 David Goldberg Localized audio networks and associated digital accessories

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047098A (ja) * 2001-07-27 2003-02-14 Nec Corp 携帯端末装置及び携帯端末装置の音響再生システム
JP2004348143A (ja) * 2004-06-04 2004-12-09 Namco Ltd 情報提供システム、携帯型端末装置、プログラムおよび情報記憶媒体
JP2007025618A (ja) * 2005-07-11 2007-02-01 Mox Tronix Co Ltd 多機能照明オーディオ装置
JP2008147860A (ja) * 2006-12-07 2008-06-26 Mega Chips Corp 音声再生システム
JP2008283305A (ja) * 2007-05-08 2008-11-20 Sony Corp ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
JP2011075730A (ja) * 2009-09-29 2011-04-14 Brother Industries Ltd 楽曲発光システム
WO2014103118A1 (ja) 2012-12-28 2014-07-03 ソニー株式会社 音響再生装置
WO2015092984A1 (ja) * 2013-12-18 2015-06-25 ソニー株式会社 音響再生装置
WO2016103546A1 (ja) 2014-12-26 2016-06-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP3518552A1 (en) 2019-07-31
EP3518552B1 (en) 2020-11-25
CN109716783A (zh) 2019-05-03
CN109716783B (zh) 2020-12-01
US20210195711A1 (en) 2021-06-24
EP3518552A4 (en) 2019-08-21
JP7095597B2 (ja) 2022-07-05
JPWO2018055959A1 (ja) 2019-07-25

Similar Documents

Publication Publication Date Title
US11995374B2 (en) Multiple-device setup
US11051048B2 (en) Grouping in a system with multiple media playback protocols
US10284980B1 (en) Intelligent group identification
CN105451413B (zh) 灯光控制方法、装置及系统
CN105453179A (zh) 提供播放/暂停内容的系统和方法
CN105144143A (zh) 音频内容的预缓存
WO2018055959A1 (ja) 再生装置、再生方法、プログラム、及び再生システム
CN105846865B (zh) 用于蓝牙音频传输的方法、设备和系统
CN113728685A (zh) 用于唤醒媒体回放系统中的处理器的电源管理技术
TW201627988A (zh) 同步視覺特效系統及同步視覺特效處理方法
US20240036810A1 (en) Playing Media Content in Response to Detecting Items Having Corresponding Media Content Associated Therewith
TW201627987A (zh) 演唱視覺特效系統及演唱視覺特效處理方法
TWI555013B (zh) 聲感視覺特效系統及聲感視覺特效處理方法
TWI545452B (zh) 伴唱視覺特效系統及伴唱視覺特效處理方法
WO2018154996A1 (ja) マスター再生装置、スレーブ再生装置、およびそれらの発光方法
US11050579B2 (en) Distribution destination specifying device and distribution destination specifying method
WO2008069038A1 (ja) 音声再生システム
JP2021109031A (ja) 玩具および玩具システム
US20190327358A1 (en) Method of controlling mobile devices in concert during a mass spectators event with a beacon based network
JP2016071375A (ja) サウンドプロセッサが設けられたオーディオヘッドセットを有するサウンド再生のシステム、そのようなシステムのコンポーネント、および関連する方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17852739

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018540917

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017852739

Country of ref document: EP

Effective date: 20190423