WO2009150841A1 - コンテンツ再生装置およびコンテンツ再生方法 - Google Patents

コンテンツ再生装置およびコンテンツ再生方法 Download PDF

Info

Publication number
WO2009150841A1
WO2009150841A1 PCT/JP2009/002635 JP2009002635W WO2009150841A1 WO 2009150841 A1 WO2009150841 A1 WO 2009150841A1 JP 2009002635 W JP2009002635 W JP 2009002635W WO 2009150841 A1 WO2009150841 A1 WO 2009150841A1
Authority
WO
WIPO (PCT)
Prior art keywords
range
viewer
content
viewing
window
Prior art date
Application number
PCT/JP2009/002635
Other languages
English (en)
French (fr)
Inventor
佐々木崇光
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2010516760A priority Critical patent/JP5331805B2/ja
Priority to CN2009801218148A priority patent/CN102057693B/zh
Priority to US12/997,036 priority patent/US8311400B2/en
Priority to EP09762272.4A priority patent/EP2293603B1/en
Publication of WO2009150841A1 publication Critical patent/WO2009150841A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Definitions

  • the present invention relates to a content playback apparatus that displays content on the super large screen display in a content viewing system including the super large screen display.
  • a content viewing system in which a display or speaker device is connected to a content playback device such as a DVD (Digital Versatile Disc) player. Also, viewing of content is enjoyed by such a content viewing system.
  • a content playback device such as a DVD (Digital Versatile Disc) player.
  • the content viewing system uses a form in which a speaker device is connected to a device that serves both as a display and a content reproduction device, such as a television, and a personal computer (PC) as a content reproduction device, and displays on the PC.
  • a speaker device is connected.
  • the content playback device not only outputs the moving image of the content to the display, but also controls the speaker so that the viewer can hear the sound included in the content at the viewing position with a desired acoustic effect.
  • Patent Literature As a method of controlling a speaker device in accordance with a viewing position so that a desired acoustic effect can be obtained at the position of the viewer when viewing the content (hereinafter referred to as “viewing position”), Patent Literature There is a method described in 1.
  • Patent Document 2 in a content viewing system in which a plurality of viewers view different contents, there is a method described in Patent Document 2 as a method for controlling a speaker device so that each viewer can obtain a desired acoustic effect. .
  • the above-described conventional technology does not consider that there is a viewing position range in which the content reproduction apparatus cannot reproduce the acoustic effect desired by the viewer (for example, 5.1ch surround sound). That is, the above conventional technique does not consider that a range in which a desired acoustic effect cannot be reproduced can be included in the viewing position range (hereinafter referred to as “viewing range”).
  • the viewing range falls within a limited range such as the center of the room. This is because it is not necessary to consider that the range in which the content reproduction apparatus cannot reproduce the acoustic effect desired by the viewer becomes the viewing range.
  • the viewing range covers almost the entire room. For this reason, for example, a range in which the content reproduction apparatus cannot reproduce the acoustic effect desired by the viewer, such as a corner of a room, is also included in the viewing range.
  • the conventional technique does not consider that there is a viewing range in which the content reproduction apparatus cannot reproduce the acoustic effect desired by the viewer, as described above, the viewer currently has the desired sound. There is a problem that it is not known whether it is in a position where an effect can be obtained and in which position within the viewing range a desired acoustic effect can be obtained.
  • each other's acoustic effect becomes noise, and it is difficult for each viewer to obtain a desired acoustic effect.
  • a range adjacent to a certain viewer is a viewing range where the content reproduction apparatus cannot reproduce a desired acoustic effect with respect to other viewers.
  • the present invention solves the above-described conventional problems, and a content playback apparatus and content for enabling a viewer to easily know a viewing range in which a desired sound effect can be obtained in a content viewing system including a super-large screen display.
  • An object is to provide a reproduction method.
  • a content playback apparatus is a content playback apparatus connected to a display and a plurality of speakers, and displays a video of a first content to a first viewer.
  • a content display control unit capable of causing the display to display a second window for displaying the video of the second content to the second viewer together with the first window, and the first speaker among the plurality of speakers.
  • the audio of the first content is output to one or more speakers allocated to one content
  • the audio of the second content is output to one or more speakers allocated to the second content from the plurality of speakers.
  • An audio output control unit that can be output, information indicating the size of a predetermined range, and the first content.
  • a content playback apparatus that allows each of a plurality of viewers to view different contents by using a super-large screen display and a plurality of speakers, and has a viewable range corresponding to each viewer. It is possible to realize a content reproduction apparatus that can present information based on each viewer. That is, each viewer can easily know a viewing range in which a desired sound effect can be obtained.
  • the viewable range calculation unit calculates a plurality of viewable ranges corresponding to each of a plurality of sound effects that can be provided in the playback of the first content, including the predetermined sound effect
  • the content playback device Further includes a reference viewing range determination unit that determines at least one viewable range from the plurality of viewable ranges obtained from the viewable range calculation unit as a reference viewing range, wherein the presentation control unit includes the reference Information based on at least one viewable range determined as the reference viewing range by the viewing range determination unit may be output.
  • the reference viewing range determination unit acquires information indicating the priority of each of the plurality of sound effects, and sets the viewable range corresponding to the sound effect having the highest priority or the lowest priority as the viewable range.
  • the reference viewing range may be determined.
  • the reference viewing range determination unit when the viewer requests only the presentation of information based on the viewable range corresponding to the acoustic effect having the highest priority, the request can be met.
  • the request when the viewer requests information on the maximum viewing range in which the audio of the content reproduced in the window can be heard under some acoustic effect, the request can be met.
  • the content reproduction apparatus of the present invention further includes a reception unit that receives information indicating the type of the sound effect selected by the first viewer, and the presentation control unit is a viewing view obtained from the viewable range calculation unit. Information based on the viewable range corresponding to the acoustic effect indicated by the information received by the receiving unit may be output.
  • the viewable range calculation unit obtains the viewable range for the first viewer by performing the calculation after excluding the predetermined peripheral range of the second viewer from the predetermined range. It is good.
  • the viewable range calculation unit performs the calculation only on a predetermined peripheral range of the first viewer, which is a part of the predetermined range, so that the viewable range for the first viewer is obtained. You may ask for.
  • the calculation efficiency is improved by limiting the calculation target range by the viewable range calculation unit.
  • the content display control unit can further change the position or size of the first window and the second window
  • the audio output control unit can further change the position or size of the second window.
  • the viewable range calculation unit is further changed in the position or size of the second window
  • the calculation is performed using the number and position of the speakers indicated in the combination of the speakers after the change by the audio output control unit, thereby newly obtaining the viewable range for the first viewer, and the presentation
  • the control unit further presents the first viewer with information based on the viewable range newly obtained from the viewable range calculation unit. May output in order.
  • the presentation control unit outputs the characters or images indicating the viewable range, which is information based on the viewable range, to the display, and displays the characters or images on the display, thereby enabling the viewing Information based on the range may be presented to the first viewer.
  • the presentation control unit outputs an instruction for illuminating the viewable range, which is information based on the viewable range, to an illumination device connected to the content reproduction device, and sets the viewable range to the illumination device. By illuminating, information based on the viewable range may be presented to the first viewer.
  • the viewer can easily know the viewable range by using characters, images, or light from the lighting device.
  • the presentation control unit is information based on the viewable range when the calculation result by the viewable range calculation unit indicates that the viewable range does not exist within the predetermined range, Information indicating that there is no viewable range may be output.
  • the content playback apparatus of the present invention further displays (a) the first window for the first viewer when it is assumed that the first viewer is located at a certain position within the viewable range.
  • the range on the display to be determined is determined for every position within the viewable range, and (b) the combined range of all the determined ranges on the display is determined as the window displayable range corresponding to the viewable range.
  • a window displayable range determination unit that outputs the information indicating the window displayable range determined by the window displayable range determination unit, which is information based on the viewable range. .
  • the viewer can easily know at which position the window is displayed to obtain the desired sound effect. Therefore, for example, the above configuration is useful when the window is moved by the viewer moving or the viewer instructing the content reproduction apparatus.
  • the content playback apparatus of the present invention further displays (a) the first window for the first viewer when it is assumed that the first viewer is located at a certain position within the viewable range.
  • the range on the display to be determined is determined for every position within the viewable range, and (b) the combined range of all the determined ranges on the display is determined as the window displayable range corresponding to the viewable range.
  • a window displayable range determination unit that performs display by causing the display to display at least a part of the first window within the window displayable range determined by the window displayable range determination unit.
  • the information based on the viewable range may be presented to the first viewer.
  • the viewer can easily know that the desired sound effect can be obtained by moving to a position corresponding to the front of the window. That is, the viewer can be guided within the viewable range by the above configuration.
  • the viewing position that is the location of the first viewer is determined using information for identifying the location of the first viewer, which is acquired from an external device connected to the content playback device.
  • a current viewing position determination unit, and the presentation control unit outputs information based on the viewing position determined by the current viewing position determination unit and the viewable range.
  • the current viewing position determination unit periodically determines the viewing position using information periodically acquired by the external device, and the presentation control unit includes the latest viewing position and the previous one.
  • the difference from the viewing position determined in the above is equal to or greater than a predetermined threshold, information based on the viewable range may be output.
  • the presentation control unit determines whether or not the viewing position determined by the current viewing position determination unit is within the viewable range, and if the viewing position is not within the viewable range, Information based on the viewable range may be output.
  • the presentation control unit determines whether the first viewer is the information based on the viewable range so that the viewing position falls within the viewable range. Information about the direction to move may be output.
  • the present invention can be realized as a content playback method using steps of characteristic components of the content playback apparatus of the present invention as a step, or as a program for causing a computer to execute these steps. It can also be realized as a recorded recording medium.
  • the program can be distributed via a transmission medium such as the Internet or a recording medium such as a DVD.
  • information based on the viewable range where the viewer can obtain the desired sound effect can be presented to the viewer.
  • the viewer can easily know the viewing range in which the desired sound effect can be obtained.
  • FIG. 1 is a diagram showing an external appearance of a content viewing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the main configuration of the content viewing system in the embodiment of the present invention.
  • FIG. 3 is a diagram showing a main configuration of the content display control unit in the embodiment of the present invention.
  • FIG. 4 is a diagram showing a main configuration of the audio output control unit in the embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a data configuration example of the allocation table according to the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a data configuration example of the acoustic effect simulation request information according to the embodiment of the present invention.
  • FIG. 7 is a diagram showing a data configuration example of viewable range information in the embodiment of the present invention.
  • FIG. 1 is a diagram showing an external appearance of a content viewing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the main configuration of the content viewing system in the embodiment of the
  • FIG. 8 is a diagram showing a data configuration example of the viewing position measurement request information in the embodiment of the present invention.
  • FIG. 9 is a diagram showing a data configuration example of viewing position information in the embodiment of the present invention.
  • FIG. 10 is a diagram showing a data configuration example of the reference viewing range information in the embodiment of the present invention.
  • FIG. 11 is a diagram showing a data configuration example of window displayable range information in the embodiment of the present invention.
  • FIG. 12 is a flowchart showing a flow of processing from when the viewer requests to start viewing the content to when viewing starts in the embodiment of the present invention.
  • FIG. 13 is a flowchart showing the flow of processing when the simulation unit obtains the viewable range in the embodiment of the present invention.
  • FIG. 14 is a flowchart showing a flow of processing when the content reproduction apparatus presents the movement instruction information and the window displayable range to the viewer in the embodiment of the present invention.
  • FIG. 15 is a flowchart showing the flow of processing when the content playback apparatus displays a viewing window within the window displayable range in the embodiment of the present invention.
  • FIG. 16 is a diagram showing a first example of presentation of movement instruction information and a window displayable range according to the embodiment of the present invention.
  • FIG. 17 is a diagram showing a second example of presentation of the movement instruction information and the window displayable range according to the embodiment of the present invention.
  • FIG. 18 is a flowchart showing a processing flow of the content display control unit when the viewer moves while viewing the content in the embodiment of the present invention.
  • FIG. 19 is a diagram showing a third example of presentation of the movement instruction information and the window displayable range according to the embodiment of the present invention.
  • FIG. 20 is a flowchart showing the flow of processing of the content display control unit when the viewer changes a desired acoustic effect while viewing content in the embodiment of the present invention.
  • FIG. 21 is a flowchart showing the flow of processing of the content display control unit when the state of the viewing window changes in the embodiment of the present invention.
  • FIG. 22 is a flowchart showing a detailed process flow of the information presentation process in FIG.
  • FIG. 23 is a diagram showing an example of information presentation when the state of the viewing window other than the viewing window corresponding to the first viewer in the embodiment of the present invention changes.
  • a content viewing system in which one or more viewers can view different contents in different windows using a super-large screen display in which most of the wall surface is a screen will be described.
  • the content viewing system in the embodiment includes a content playback device that can present information to each viewer based on a viewing range in which each viewer can obtain a desired sound effect.
  • FIG. 1 is a diagram illustrating an appearance of a content viewing system 10 according to the embodiment.
  • the content viewing system 10 includes a display 106, a speaker device 105, and a content reproduction device 100.
  • the display 106 is a display device having a size that covers most of one wall of the room in which the content viewing system 10 is installed.
  • the display area of the display 106 is configured by one or a plurality of display panels, and the size thereof is, for example, about 10 m wide ⁇ 5 m long.
  • the speaker device 105 has a plurality of speakers.
  • the speaker device 105 includes n speakers from the first speaker (SP [1]) to the nth speaker (SP [n]).
  • the content playback device 100 is a device that can display one or more contents on the display 106 and can output the sound of the one or more contents to the speaker device 105.
  • FIG. 1 two viewers (first viewer 112A and second viewer 112B) are viewing different contents.
  • the first viewer 112A is watching the soccer broadcast displayed in the first viewing window 1101. Further, the second viewer 112 ⁇ / b> B is viewing the news video displayed in the second viewing window 1201.
  • one or more speakers among a plurality of speakers are assigned to each window. That is, one or more speakers are assigned to each content and each viewer. Each viewer listens to the reproduced sound with the desired acoustic effect.
  • the first viewer 112 ⁇ / b> A uses a surround sound by two or more speakers assigned to the first viewing window 1101 (for example, a virtual surround sound by three speakers in front of the first viewer 112 ⁇ / b> A), and Listening to audio.
  • the second viewer 112B is listening to the commentary sound of the news video with stereo sound using two or more speakers assigned to the second viewing window 1201.
  • first viewer 112A can switch the acoustic effect by operating the first controller 104a.
  • second viewer 112B can perform switching of the sound effect by operating the second controller 104b.
  • a plurality of speakers are arranged along the left and right sides and the lower side of the display 106, but the arrangement positions of the plurality of speakers are not limited to those shown in FIG.
  • a plurality of speakers may be arranged on the side and rear of the viewer.
  • the number of viewers using the content viewing system 10 may not be two, the first viewer 112A and the second viewer 112B, but may be three or more and one.
  • FIG. 2 is a block diagram showing a main configuration of the content viewing system 10 in the embodiment.
  • the content viewing system 10 includes a position information acquisition device 101, a content transmission device 102, and a broadcast reception antenna 103 in addition to the components described above.
  • the content reproduction apparatus 100 includes a position calculation unit 107, a content reception unit 108, an infrared light reception unit 109, an audio output control unit 110, a video output control unit 111, and a simulation unit 150. And a content display control unit 200.
  • the position calculation unit 107 and the audio output control unit 110 may not be included in the content reproduction apparatus 100.
  • these components may be connected to the content reproduction device 100 as an external device.
  • the first controller 104a and the second controller 104b are devices in which each viewer controls the content reproduction device 100 and inputs various setting values to the content reproduction device 100.
  • each controller is a remote controller that transmits a control signal to the content reproduction apparatus 100 using infrared rays.
  • One controller is prepared for each viewer. That is, when N viewers use the content viewing system 10 at the same time, N controllers are prepared.
  • viewer means one of a plurality of viewers including the first viewer 112A and the second viewer 112B
  • controller means the first controller 104a and the second viewer. It means one of a plurality of controllers including the controller 104b.
  • Each controller is assigned a unique controller ID at the time of manufacture. Further, it is assumed that each viewer always carries the controller while using the content viewing system 10. Therefore, in this embodiment, the controller ID is also used as a viewer ID indicating an individual viewer.
  • the controller ID of the first controller 104a is used as the viewer ID of the first viewer 112A
  • the controller ID of the second controller 104b is used as the viewer ID of the second viewer 112B. used.
  • each controller transmits a control signal to the content reproduction apparatus 100
  • each controller transmits a controller ID together with the control signal.
  • the content reproduction apparatus 100 can confirm which of the plurality of controllers is a control signal.
  • the content reproduction apparatus 100 can confirm whether the received control signal is a control signal issued from any one of a plurality of viewers.
  • a controller that performs infrared communication as described above is employed as an apparatus for the viewer to control the content reproduction apparatus 100 and the like.
  • other types of input devices such as a keyboard or pointing device may be employed.
  • the timing for assigning the controller ID to each controller may not be at the time of factory shipment. The timing may be at the time of initial setting of the content viewing system 10 or whenever the controller is turned on.
  • the infrared light receiving unit 109 is an example of a receiving unit in the content reproduction apparatus of the present invention, and is a device that receives control signals transmitted from the first controller 104a and the second controller 104b.
  • the position information acquisition apparatus 101 is an apparatus that acquires information for specifying the position of the viewer, and includes a wireless antenna, a first controller 104a, and a second controller 104b.
  • the first controller 104a and the second controller 104b also function as components of the position information acquisition apparatus 101.
  • these controllers include a camera for acquiring position information of a viewer who carries the controller.
  • the position information acquisition apparatus 101 can determine the position of each of a plurality of viewers by acquiring an image captured by a camera device included in each controller and a controller ID. That is, the position information acquisition apparatus 101 can acquire information for specifying the positions of a plurality of viewers.
  • the position calculation unit 107 is a device that calculates the relative position of the viewer with respect to the display 106 based on the information acquired by the position information acquisition device 101.
  • the position calculation unit 107 When the position calculation unit 107 receives the viewing position measurement request information 900 from the current viewing position determination unit 204 or the like, the position calculation unit 107 calculates the relative position of the viewer with respect to the display 106 indicated by the viewer ID 901 and returns the calculation result as the viewing position information 1000. .
  • the position calculation unit 107 calculates the relative position of the viewer with respect to the display 106 as follows. As a specific example, an outline of the processing of the position calculation unit 107 when calculating the position of the first viewer 112A will be described.
  • the image of the display 106 taken from that position is acquired by the camera of the first controller 104a.
  • the first controller 104a transmits the captured image to the position information acquisition apparatus 101.
  • the position information acquisition apparatus 101 acquires the image via a wireless antenna and outputs it to the position calculation unit 107.
  • the position calculation unit 107 calculates the relative position of the first controller 104a with respect to the display 106 from the position and size of the entire image or part of the display 106 included in the image received via the position information acquisition device 101. .
  • the position calculation unit 107 identifies the relative position of the first controller 104a with respect to the display 106 thus obtained as the relative position of the first viewer 112A with respect to the display 106.
  • Patent Document 1 Control System and This System To be controlled as well as a remote control device ".
  • a GPS (Global Positioning System) device is attached to each controller and the display 106.
  • Each controller transmits the position information measured by the GPS device provided in itself to the position information acquisition apparatus 101 together with the controller ID.
  • the position calculation unit 107 uses the controller ID and the position information received via the position information acquisition device 101 and the position information measured by the GPS device included in the display 106 to display the controller 106 indicated by each controller ID.
  • the relative position is calculated. Furthermore, each calculated relative position is specified as the relative position of each viewer with respect to the display 106.
  • the position information acquisition device 101 and the position calculation unit 107 may measure and calculate the relative position of each viewer with respect to the display 106 by a method combining the above two methods or other methods.
  • the position information acquisition apparatus 101 only needs to be able to acquire information for specifying the position of the viewer, and the functional configuration for that purpose is not limited to the example given above.
  • the content transmission device 102 is a device that transmits content data to the content reproduction device 100.
  • the content data transmitted by the content transmitting apparatus 102 is received by the content receiving unit 108.
  • the content transmission device 102 may be, for example, a content distribution server connected to the content reproduction device 100 via a network, or a media reproduction device such as a DVD drive. Of course, it is not limited to these.
  • the content transmission device 102 when the content transmission device 102 is a media playback device such as a DVD live, the content transmission device 102 may be included in the content playback device 100.
  • the broadcast receiving antenna 103 is an antenna that receives a broadcast wave including content data.
  • the received broadcast wave is transmitted to the content receiving unit 108.
  • the content transmitting apparatus 102 and the broadcast receiving antenna 103 are provided, and both are not necessarily provided.
  • the content receiving unit 108 receives content data from the content transmitting apparatus 102.
  • the broadcast wave received from the broadcast receiving antenna 103 is demodulated to receive content data.
  • the content receiving unit 108 transmits the video part of the received content data to the video output control unit 111, and transmits the audio part of the content data to the audio output control unit 110.
  • the content receiving unit 108 converts the video portion and the audio portion of the content data into input formats required by the video output control unit 111 and the audio output control unit 110, respectively, and transmits them to each.
  • the content receiving unit 108 may receive a plurality of content data at the same time. In this case, the content receiving unit 108 performs the conversion process for each content data.
  • the speaker device 105 is a device for reproducing sound, and has a plurality of speakers SP [1] to SP [n] as described above.
  • the audio output control unit 110 is a device that outputs the audio of the content received by the content receiving unit 108 to the speaker device 105. Furthermore, the allocation and output characteristics of sound output to each speaker included in the speaker device 105 are controlled so that the viewer can hear with a desired acoustic effect.
  • a speaker to be assigned to each content is determined with reference to an assignment table 121 described later, and the sound effect is changed for each content.
  • the simulation unit 150 receives the acoustic effect simulation request information 700 shown in FIG. 6 to be described later from the content display control unit 200, and performs simulation for each acoustic effect set in the desired acoustic effect list 702. It is a processing unit that determines whether there is a range within which the sound effect designated for the viewer can be reproduced by simulation calculation.
  • the simulation unit 150 can view the content within the predetermined range in which the viewer can listen to the sound of the content with a predetermined acoustic effect. It is a processing unit for obtaining a possible range.
  • the simulation unit 150 is an example of a viewable range calculation unit in the content reproduction apparatus of the present invention.
  • the simulation unit 150 acquires static information necessary for the simulation.
  • the static information includes the number, position, and characteristics of a plurality of speakers included in the speaker device 105, the shape of the room in which the content viewing system 10 is installed, various dimensions, and the wall material. .
  • the information such as the shape of the room is an example of information indicating the size of a predetermined range that is used by the content reproduction apparatus of the present invention to calculate the viewable range.
  • the static information is input to the simulation unit 150 by an operator or a viewer when the content viewing system 10 is installed or when the content viewing system 10 is started up, and the non-volatile information included in the simulation unit 150 It is stored in a storage medium (not shown). Thereby, static information is set in the simulation unit 150.
  • the entire simulation range is determined by the room shape and dimensions set at this time.
  • the simulation unit 150 further acquires dynamic information necessary for the simulation.
  • the dynamic information refers to the number of necessary channels for each of one or more acoustic effects that can be provided in the reproduction of the audio of the content, which is acquired from the content reproduced by the content reproduction apparatus 100, and the one or more acoustic effects The type of sound effect selected by the viewer from among the types.
  • the simulation unit 150 dynamically changes the number and positions of viewers and the number and positions of speakers assigned to windows for each viewer. Is acquired as correct information.
  • the configuration of the audio output control unit 110 will be described later with reference to FIG.
  • the simulation unit 150 acquires information indicating that there is one viewer from the position calculation unit 107, for example.
  • the simulation unit 150 refers to the allocation table 121 held in the audio output control unit 110, for example, all speakers included in the speaker device 105 as speakers that can be used for the first viewer 112A. assign.
  • the simulation unit 150 includes information indicating these three types of acoustic effects and the number of necessary channels. Is acquired from the content.
  • the simulation unit 150 uses these various pieces of information to calculate a region in which one or more of these three types of sound effects can be reproduced. For example, by calculating the transmission area of the sound (including the reflected sound on the wall) output from each of the plurality of speakers used for sound reproduction in surround, the sound level at each position in the area, etc.
  • the first viewer 112A calculates a range where the effect of surround sound can be obtained.
  • the information indicating the simulation result for each acoustic effect obtained in this way is transmitted to the audio output control unit 110.
  • Patent Document 3 Japanese Patent No. 3482555 “High-accuracy sound ray tracking apparatus and high-accuracy sound ray tracking method”
  • Patent Document 4 Japanese Patent Application Laid-Open No. 2003-122374 "Surround sound generation method, apparatus and program thereof”
  • the audio output control unit 110 stores the value of the viewer ID 701 of the acoustic effect simulation request information 700 in the viewer ID 701 of the viewable range information 800 shown in FIG.
  • the audio output control unit 110 further allows viewing of the acoustic effect simulation result corresponding to the acoustic effect set in the desired acoustic effect list 702 among the acoustic effect simulation results for each acoustic effect acquired from the simulation unit 150. Store in the list 802.
  • the audio output control unit 110 transmits the viewable range information 800 generated in this way to the content display control unit 200.
  • the video output controller 111 is a device that processes the video portion of the content data received by the content receiver 108. Specifically, the content receiving unit 108 changes the resolution and aspect ratio for the video portion and applies image effects such as saturation adjustment.
  • the video portion of the content data processed by the video output control unit 111 is transmitted to the content display control unit 200 and displayed on the display 106.
  • the content receiving unit 108 receives a plurality of content data, the content to be processed may be changed for each content data.
  • the content display control unit 200 is a device that controls the content displayed on the display 106.
  • the content display control unit 200 generates a window for displaying the video of the content processed by the video output control unit 111, and displays the video of the content in the window. Further, based on the viewer's relative position with respect to the display 106 and the like, information based on the viewing position where the viewer can obtain a desired acoustic effect is displayed on the display 106.
  • one or more content videos output from the content display control unit 200 and various types of information are displayed on the display 106.
  • FIG. 3 is a diagram illustrating a main configuration of the content display control unit 200 according to the embodiment.
  • the content display control unit 200 includes a viewing window determination unit 201, a reference viewing range determination unit 202, a window displayable range determination unit 203, a current viewing position determination unit 204, and a display control unit 205.
  • the viewing window determination unit 201 associates one viewer with one window displayed on the display 106. In addition, when there are a plurality of viewers, a plurality of viewers and a plurality of windows are associated one-to-one.
  • the window associated with the viewer by the viewing window determination unit 201 is referred to as a viewing window.
  • the reference viewing range determination unit 202 transmits the acoustic effect simulation request information 700 shown in FIG. 6 described later to the simulation unit 150, and receives the viewable range information 800 shown in FIG. 7 described later from the audio output control unit 110. .
  • the reference viewing range determination unit 202 further determines a viewable range in which the viewer can obtain a desired acoustic effect from the received viewable range information 800.
  • the viewing range determined by the reference viewing range determination unit 202 is referred to as a reference viewing range.
  • 1 to N viewing ranges are determined as the reference viewing range by the reference viewing range determination unit 202 from among the N viewing ranges corresponding to the N sound effects.
  • the window displayable range determination unit 203 determines a range on the display 106 that can display the viewing window when it is assumed that the viewer is located within the reference viewing range.
  • the range on the display 106 determined by the window displayable range determination unit 203 is referred to as a window displayable range.
  • the current viewing position determination unit 204 determines the current viewer position based on the relative position of the viewer with respect to the display 106 calculated by the position calculation unit 107.
  • the viewer position determined by the current viewing position determination unit 204 is referred to as a current viewing position.
  • the display control unit 205 is an example of a presentation control unit in the content reproduction apparatus of the present invention.
  • the display control unit 205 displays information based on the viewable range in which the viewer can obtain a desired acoustic effect on the display 106 based on the current viewing position and the reference viewing range.
  • the display control unit 205 performs overall display control of the window displayed on the display 106, such as displaying the video processed by the video output control unit 111 in the window.
  • FIG. 4 is a diagram illustrating a main configuration of the audio output control unit 110 according to the embodiment.
  • the audio output control unit 110 includes a storage unit 120, an allocation unit 122, and an output unit 123.
  • the storage unit 120 is a storage device that stores the allocation table 121.
  • the allocating unit 122 is a processing unit that refers to the allocation table 121 and selects a speaker to be allocated to the viewer from a plurality of speakers included in the speaker device 105 according to, for example, a sound effect selected by the viewer. .
  • the assigning unit 122 also generates viewable range information 800 shown in FIG.
  • the output unit 123 is a processing unit that selectively outputs sound corresponding to the acoustic effect designated by the viewer to each speaker based on the allocation result received from the allocation unit 122.
  • FIG. 5 is a diagram illustrating a data configuration example of the allocation table 121.
  • the identifier of the speaker assigned to each viewer is registered for each number of viewers.
  • identifiers assigned to the viewers. When there are a plurality of viewers, identifiers are assigned in the order of “a”, “b”,...
  • the first viewer 112A is “a” in the allocation table 121, and all of SP [1] to SP [n]. Speakers are assigned.
  • the first viewer 112A is “a” in the assignment table 121
  • the second viewer 112B is “b” in the assignment table 121.
  • the simulation unit 150 refers to the assignment table 121 and identifies a combination of speakers assigned to each viewer. Further, the position of each speaker in the specified combination is used for sound effect simulation. Note that the simulation unit 150 may output a result indicating that there is no viewable range corresponding to a predetermined sound effect depending on the combination of speakers shown in the allocation table 121.
  • the allocation unit 122 and the simulation unit 150 do not use the information shown in the allocation table 121 as they are, but based on the information shown in the allocation table 121, for example, according to the viewing position of the viewer, The number of speakers to be allocated may be increased or decreased.
  • the data structure of the allocation table 121 shown in FIG. 5 is an example, and the combination of the viewer and the speaker group may be another combination.
  • SP [1] to SP [m] are assigned to “a”
  • SP [m + 2] to SP [n] may be assigned to “b”.
  • the speaker when a certain speaker is assigned to any viewer, the speaker is used as a dedicated speaker for the viewer (that is, the content) until the viewer finishes viewing the content. .
  • the speaker may be used as a speaker shared by a plurality of viewers (that is, a plurality of contents).
  • FIG. 6 is a diagram illustrating a data configuration example of the acoustic effect simulation request information 700.
  • the acoustic effect simulation request information 700 includes a viewer ID 701 and a desired acoustic effect list 702.
  • the sound effect simulation request information 700 is information generated by the reference viewing range determination unit 202 based on a desired sound effect selected by the viewer using the controller carried by the viewer in S304 of FIG. .
  • the reference viewing range determination unit 202 transmits the acoustic effect simulation request information 700 to the simulation unit 150.
  • the reference viewing range determination unit 202 can obtain the acoustic effect desired by the viewer indicated by the viewer ID 701 (the acoustic effect listed in the desired acoustic effect list 702) with respect to the simulation unit 150. To simulate.
  • Viewer ID 701 is an ID for identifying a viewer.
  • the controller ID assigned to the controller of the viewer is set.
  • the desired sound effect list 702 is a list of desired sound effects selected by the viewer using the controller in S304 of FIG. 12 described later.
  • the sound effect having the highest priority is set as the first sound effect in the desired sound effect list 702, and the highest priority is given to the Nth sound effect. Set low sound effects. Thus, by storing the sound effects in the order of priority in the desired sound effect list 702, it is not necessary to store priority information separately.
  • FIG. 7 is a diagram showing a data configuration example of the viewable range information 800.
  • the viewable range information 800 includes a viewer ID 701 and a viewable range list 802.
  • the viewable range information 800 is information that the audio output control unit 110 generates based on the result of the acoustic effect simulation by the simulation unit 150.
  • the simulation unit 150 When the simulation unit 150 receives the acoustic effect simulation request information 700 from the reference viewing range determination unit 202 or the like, the simulation unit 150 enters the desired acoustic effect list 702 for the viewer indicated by the viewer ID 701 within the preset simulation range. Simulate the range (viewable range) in which the included acoustic effects can be reproduced. The simulation unit 150 further transmits the result together with the acoustic effect simulation request information 700 to the sound output control unit 110. Based on the result, the audio output control unit 110 stores a set of coordinates indicating the acoustic effect and the range in which the acoustic effect can be obtained in the viewable range list 802.
  • the storage order of these groups in the viewable range list 802 is matched with the order of the sound effects stored in the desired sound effect list 702.
  • the first acoustic effect in the viewable range list 802 becomes the acoustic effect with the highest priority
  • the Nth acoustic effect becomes the acoustic effect with the lowest priority. That is, information indicating the priority set in the desired sound effect list 702 is not lost.
  • the audio output control unit 110 stores the same value as the viewer ID 701 included in the acoustic effect simulation request information 700 in the viewer ID 701 of the viewable range information 800.
  • the simulation range is a three-dimensional space, and as described above, various dimensions or the like constituting the entire space of the room where the content is viewed, input to the simulation unit 150 by the operator or the viewer. Determined by the value of.
  • the simulated range may be set in advance when the content reproduction apparatus 100 is manufactured, or may be a part of the room as well as the entire room where the content is viewed.
  • the viewable range of the viewable range list 802 is a set of coordinate points on the bottom surface of the simulated range of the three-dimensional space, that is, the two-dimensional plane where the three-dimensional space of the simulated range and the plane having a height of 0 intersect. Or it consists of a pair of the center point and radius of a circle.
  • the range in which the acoustic effect can be obtained is indicated by a range connecting the coordinate points of the viewable range in the viewable range list 802 or a circle represented by a pair of the center point and radius of the circle.
  • the range in which the viewer indicated by the viewer ID 701 can obtain the first sound effect included in the desired sound effect list 702 is from (X1 coordinate, Y1 coordinate) to (XN coordinate, YN coordinate). It is within the range which connected each coordinate until.
  • the range in which the viewer can obtain the Nth acoustic effect included in the desired acoustic effect list 702 is within the circle of radius R at the center point O.
  • the acoustic effect simulation result may not be accurately reflected.
  • the viewable range of the viewable range list 802 is composed of a set of coordinate points on the three-dimensional space or a set of the center point and radius of a sphere.
  • the method of expressing the viewable range of the view position coordinates 1002 and the viewable range list 802 is not limited to the example given in the present embodiment, and an optimum method may be used for each content reproduction apparatus 100.
  • simulation unit 150 automatically determines the origin on the two-dimensional plane for representing the viewable range in the viewable range list 802 from the simulation range.
  • the viewable range in the viewable range list 802 may be omitted. Only the origin (0, 0) may be stored. Moreover, you may store the other information which shows that the viewable range does not exist predetermined. That is, any method can be used as long as it can convey to the reference viewing range determination unit 202 that there is no viewable range in which an acoustic effect can be obtained.
  • FIG. 8 is a diagram illustrating a data configuration example of the viewing position measurement request information 900.
  • the viewing position measurement request information 900 includes a viewer ID 901.
  • the viewing position measurement request information 900 is information that the current viewing position determination unit 204 generates and transmits in order to request the position calculation unit 107 to calculate the relative position of the viewer 106 indicated by the viewer ID 901. .
  • Viewer ID 901 is an identifier of a viewer who is a calculation target of a relative position with respect to the display 106.
  • the controller ID assigned to the controller of the viewer is set.
  • FIG. 9 is a diagram illustrating a data configuration example of the viewing position information 1000.
  • the viewing position information 1000 includes a viewer ID 901 and viewing position coordinates 1002.
  • the viewing position information 1000 is information generated by the position calculation unit 107 based on the relative position calculation result of the viewer with respect to the display 106.
  • the position calculation unit 107 receives the viewing position measurement request information 900 from the current viewing position determination unit 204 or the like, the position obtained by the position information acquisition apparatus 101 is used as the relative position of the viewer with respect to the display 106 indicated by the viewer ID 901. And the result is stored in the viewing position coordinates 1002.
  • the position information acquisition apparatus 101 stores the same value as the viewer ID 901 included in the viewing position measurement request information 900.
  • the viewing position coordinate 1002 stores a value representing the viewer's position as a coordinate point on a two-dimensional plane.
  • the two-dimensional plane including the coordinate point indicated by the viewing position coordinates 1002 uses the same plane as the two-dimensional plane used by the audio output control unit 110 to represent the viewable range of the viewable range list 802. Similarly, the same origin is used for the origin on the two-dimensional plane.
  • the viewing position coordinates 1002 and the viewable range list 802 are represented as coordinate points on the same two-dimensional plane, and it is easy to compare the two.
  • FIG. 10 is a diagram showing a data configuration example of the reference viewing range information 1900.
  • the reference viewing range information 1900 includes a viewer ID 701 and a reference viewing range list 1902.
  • the reference viewing range information 1900 is information that the reference viewing range determination unit 202 generates based on the viewable range information 800.
  • the reference viewing range determination unit 202 transmits the acoustic effect simulation request information 700 to the simulation unit 150 as described above, and receives the viewable range information 800 including the result of the acoustic effect simulation from the audio output control unit 110.
  • the reference viewing range determination unit 202 generates reference viewing range information 1900 from the received viewable range information 800.
  • the reference viewing range determination unit 202 stores the same value as the viewer ID 701 included in the viewable range information 800.
  • the reference viewing range determination unit 202 stores the set of the acoustic effect and the coordinate list included in the viewable range list 802 in the viewable range information 800 as it is. .
  • the viewable range list 802 stores a set of the first sound effect and the first viewable range to a set of the Nth sound effect and the Nth viewable range.
  • the first acoustic effect and the first reference viewing range become a set of the Nth acoustic effect and the Nth reference viewing range.
  • the method of generating the reference viewing range list 1902 from the viewable range list 802 by the reference viewing range determination unit 202 is not limited to this, and other methods may be used.
  • the combination of the first sound effect and the first reference viewing range generated from the combination of the first sound effect and the first viewable range having the highest priority may be stored in the reference viewing range list 1902. Good.
  • the reference that corresponds to the acoustic effect with the highest priority by the first viewer 112A is obtained by setting only the set of the first acoustic effect with the highest priority and the first viewable range as the reference viewing range.
  • the content reproduction apparatus 100 can also cope with a case where only presentation of information based on the viewing range is requested.
  • a pair of the first sound effect and the first reference viewing range is generated from the combination of the Nth acoustic effect having the lowest priority and the Nth viewable range, and only this set is stored in the reference viewing range list 1902. It may be stored.
  • the content playback apparatus 100 can also cope with the case where the first viewer 112A requests the presentation of such information.
  • FIG. 11 is a diagram showing a data configuration example of the window displayable range information 2000.
  • window displayable range information 2000 includes a viewer ID 701 and a window displayable range list 2002.
  • the window displayable range information 2000 is information that the window displayable range determination unit 203 generates based on the reference viewing range information 1900.
  • the window displayable range determination unit 203 stores the same value as the viewer ID 701 included in the reference viewing range information 1900.
  • the window displayable range determination unit 203 includes the window displayable ranges generated from the respective reference viewing ranges included in the reference viewing range list 1902 of the reference viewing range information 1900, and corresponding sound effects. Store with.
  • the window displayable range determination unit 203 stores the window displayable range generated from the first reference viewing range as the first window displayable range together with the first sound effect, and generates from the second reference viewing range.
  • the window displayable range is stored as the second window displayable range together with the second sound effect.
  • the window displayable range determination unit 203 further generates up to the Nth window displayable range corresponding to the Nth reference viewing range and stores it in the window displayable range list 2002.
  • the window displayable range determination unit 203 first selects a target reference viewing range from one or more reference viewing ranges included in the reference viewing range list 1902. Further, assuming that the viewer indicated by the viewer ID 701 is positioned on a certain coordinate point in the target reference viewing range, the range on the display 106 where the viewing window corresponding to the viewer on the coordinate point is to be displayed is determined. .
  • the window displayable range determination unit 203 repeats this operation for all coordinate points in the target reference viewing range, and combines all the ranges on the display 106 determined for each coordinate point in the target reference viewing range. Is the window displayable range.
  • the range on the display 106 where the viewing window is to be displayed for a viewer at a certain coordinate point is, for example, the range on the display 106 where the viewing window is displayed in front of the viewer at that coordinate point. It is.
  • the window displayable range determination unit 203 defines the display range of the display 106 on a two-dimensional plane represented by an axis in the height direction and a horizontal axis perpendicular thereto. Further, a point where the distance between the coordinate point on which the viewer is located and the distance of the display 106 is shortest on the horizontal axis that coincides with the height of the viewer's line of sight is obtained. Further, the display range of the viewing window in which the obtained point becomes the center of gravity of the viewing window is determined as the window displayable range corresponding to the viewer.
  • the height of the viewer's line of sight may be set in advance to a value such as “160 cm from the floor”, or a different value may be used for each viewer.
  • the range on the display 106 where the viewing window should be displayed for the viewer on a certain coordinate point is not limited to this. In addition, for example, it may be determined according to the size of the viewer's field of view. In addition, the viewer may set an arbitrary position with respect to the window displayable range determination unit 203 using a controller.
  • the first viewer 112A requests to start viewing the content, and the content reproduction apparatus 100 presents information based on a viewing range in which the first viewer 112A can obtain the desired acoustic effect.
  • the operation until the first viewer 112A moves to a viewing position where a desired sound effect can be obtained according to the presented information and starts viewing the content will be described with reference to FIG.
  • the first viewer 112A presses the content display button of the first controller 104a to request the start of content viewing.
  • the infrared light receiving unit 109 detects pressing of the button (S301).
  • the content receiving unit 108 starts receiving content
  • the video output control unit 111 processes the video portion of the received content and transmits it to the display control unit 205.
  • the audio output control unit 110 controls the speaker device 105 so as to output the audio part of the received content by the method set in the initial setting.
  • the display control unit 205 displays a window for displaying the content on the display 106 at a position set as an initial setting (S302). Further, the display control unit 205 assigns a unique window ID to the displayed window. This window ID is unique among the windows displayed on the display 106.
  • the initial position for displaying the window is set in the display control unit 205 by the first viewer 112A using the first controller 104a, for example, before using the content reproduction apparatus 100.
  • the initial position may be set when the content display control unit 200 is manufactured.
  • the position where the window is displayed in front of the viewer is set as the initial position of the window.
  • the viewing window determination unit 201 associates the first viewer 112A with the window displayed in S302, and holds the association result (S303). As a result, the content displayed in the window is also associated with the first viewer 112A.
  • the viewing window determination unit 201 associates the controller ID assigned to the first controller 104a of the first viewer 112A with the window ID assigned to the window in S302, so that the first viewer The windows displayed in 112A and S302 are associated with each other.
  • the viewing window determination unit 201 further holds association information between the controller ID and the window ID.
  • the operation for the window displayed in S302 is accepted only from the first controller 104a associated with the window.
  • the window associated with the viewer by the viewing window determination unit 201 in S303 is referred to as a viewing window.
  • the viewing window determination unit 201 associates the window ID of the closed viewing window with the controller ID associated with the window ID. To release.
  • the reference viewing range determination unit 202 receives sound effect information that is information indicating the type of sound effect selected by the first viewer 112A (S304).
  • the first viewer 112A can select one or more sound effects.
  • the first viewer 112 ⁇ / b> A can set a priority for each sound effect.
  • the sound effect that can be selected by the first viewer 112A varies depending on the content associated with the first viewer 112A in S303. For example, when reproducing a certain content, monaural sound, stereo sound, and surround sound can be selected. However, when reproducing other content, monaural sound and stereo sound can be selected.
  • the acoustic effect that can be selected by the first viewer 112 ⁇ / b> A may be changed according to the number of viewers who are using the content viewing system 10. For example, when the viewer is one of the first viewers 112A, monaural sound and stereo sound can be selected, but the second viewer 112B is using the content viewing system 10 in addition to the first viewer 112A. In this case, in addition to monaural sound and stereo sound, a sound effect that prevents the second viewer 112B from hearing the sound of the content viewed by the first viewer 112A may be selectable.
  • the second viewer 112 ⁇ / b> B may be able to select an acoustic effect that prevents the first viewer 112 ⁇ / b> A from hearing the sound of the content being viewed by the second viewer 112 ⁇ / b> B.
  • the first viewer 112A selects three types of surround sound, stereo sound, and monaural sound in descending order of priority as desired sound effects.
  • the content playback apparatus 100 automatically selects the desired sound for the content. You may determine the effect and the priority for every acoustic effect.
  • the reference viewing range determination unit 202 generates the acoustic effect simulation request information 700 based on the acoustic effect information selected by the first viewer 112A in S304 and transmits it to the simulation unit 150 (S305).
  • the reference viewing range determination unit 202 sets the controller ID of the first controller 104a of the first viewer 112A in the viewer ID 701 of the acoustic effect simulation request information 700 transmitted to the simulation unit 150.
  • the desired sound effect list 702 includes surround sound as the first sound effect, stereo sound as the second sound effect, and monaural sound as the third sound effect based on the priority set by the first viewer 112A. Set.
  • the reference viewing range determination unit 202 sets only the sound effect with the highest priority set by the first viewer 112A in the desired sound effect list 702 of the sound effect simulation request information 700 as the first sound effect. It may be set as an effect. In this case, the simulation unit 150 does not need to perform a sound effect simulation related to a sound effect other than the sound effect having the highest priority, and the processing time of the sound output control unit 110 can be shortened.
  • the simulation unit 150 simulates a viewing range in which the first viewer 112A can obtain a desired acoustic effect based on the acoustic effect simulation request information 700 received from the reference viewing range determination unit 202 (S306).
  • the simulation unit 150 further transmits the simulation result to the audio output control unit 110.
  • the audio output control unit 110 generates viewable range information 800 based on the received simulation result, and transmits it to the reference viewing range determination unit 202.
  • the reference viewing range determination unit 202 receives the viewable range information 800 from the audio output control unit 110. Further, the reference viewing range determination unit 202, the window displayable range determination unit 203, the current viewing position determination unit 204, and the display control unit 205 cooperate to display the first viewer 112A based on the viewable range information 800. Presents the first viewer 112A with information based on the viewable range in which the desired sound effect can be obtained (S307).
  • the first viewer 112A moves to a viewing position where a desired sound effect can be obtained according to the presented information.
  • the audio output control unit 110 controls the speaker device 105 so as to output the acoustic effect desired by the first viewer 112A to the first viewer 112A (S308).
  • the audio output control unit 110 acquires the reference viewing range information 1900 from the reference viewing range determination unit 202, and acquires the coordinates of the current viewing position of the first viewer 112A from the display control unit 205. Then, the current viewing position of the first viewer 112 ⁇ / b> A is confirmed in order in which of the first viewing viewing range 1902 to the Nth viewing viewing range in the reference viewing range list 1902. As a result of the confirmation, the speaker device 105 is controlled so as to output an acoustic effect corresponding to the reference viewing range that is initially set.
  • the simulation unit 150 receives the acoustic effect simulation request information 700 from the reference viewing range determination unit 202 (S401).
  • the simulation unit 150 acquires the association information between the first viewer 112A and the window held by the viewing window determination unit 201, and acquires a list of controller IDs associated with the window (S402).
  • the simulation unit 150 determines whether there is a viewer other than the first viewer 112A (S403).
  • the controller ID of the controller carried by the viewer is used as the viewer ID indicating the viewer. That is, the controller ID associated with the window acquired in S402 indicates a viewer who is using the content viewing system 10.
  • the controller ID indicating the first viewer 112A is stored in the viewer ID 701 of the acoustic effect simulation request information 700 received in S401. Therefore, in S403, the simulation unit 150 includes a value other than the controller ID indicating the first viewer 112A stored in the viewer ID 701 in the list of controller IDs associated with the window acquired in S402. Make sure.
  • the simulation unit 150 determines that there is no other viewer (NO in S403).
  • the simulation unit 150 acquires the current viewing position of the first viewer 112A and the other viewer (S404).
  • the simulation unit 150 generates viewing position measurement request information 900 in which the controller ID indicating the first viewer 112A is stored in the viewer ID 901, and transmits the viewing position measurement request information 900 to the position calculation unit 107.
  • the simulation unit 150 further selects one controller ID indicating another viewer from the list of controller IDs associated with the window acquired in S ⁇ b> 402 and stores this controller ID in the viewer ID 901. Measurement request information 900 is generated and transmitted to the position calculation unit 107.
  • One viewing position measurement request information 900 may include a controller ID indicating the first viewer 112A and a controller ID indicating another viewer.
  • the position calculation unit 107 that has received the viewing position measurement request information 900 calculates the viewing position of the first viewer 112 ⁇ / b> A, stores each result in the viewing position information 1000, and transmits it to the simulation unit 150. Further, the viewing position is calculated for other viewers, and the result is stored in the viewing position information 1000 and transmitted to the simulation unit 150.
  • the audio output control unit 110 that has received the viewing position information 1000 acquires the current viewing positions of the first viewer 112A and other viewers from these viewing position coordinates 1002.
  • the simulation unit 150 determines in S403 that there is no viewer other than the first viewer 112A (NO in S403), the simulation unit 150 executes the following simulation process.
  • the simulation unit 150 For each sound effect set in the desired sound effect list 702 of the sound effect simulation request information 700 received in S401, the simulation unit 150 is the viewer indicated by the viewer ID 701 within the preset simulation range, that is, The first viewer 112A is simulated whether there is a range in which the designated sound effect can be reproduced (S405).
  • static information such as the shape of the room in which the content viewing system 10 is installed, and the sound selected by the first viewer 112A, which is dynamic information, are selected.
  • the type of effect (surround sound effect, etc.) is used.
  • the simulation unit 150 displays the current viewers of the first viewer 112A and other viewers acquired in S404.
  • the position is used as a parameter for the acoustic effect simulation.
  • the simulation unit 150 determines whether the first viewer 112A is on the right side or the left side from the viewing position of the first viewer 112A and other viewers toward the display 106 in relation to the other viewers. Judging. Further, when the first viewer 112A determines that it is on the right side, the number and positions of the speakers assigned to the viewer “a” are specified from the assignment table 121 (see FIG. 5). When the first viewer 112 ⁇ / b> A determines that the viewer is on the left side, the number and positions of the speakers assigned to the viewer “b” are specified from the assignment table 121.
  • the simulation unit 150 uses the number and positions of the speakers assigned to the first viewer 112A specified in this way for the acoustic effect simulation (S405) for the first viewer 112A.
  • the simulation unit 150 performs the sound effect simulation on the viewing positions of other viewers and the surrounding area. You may exclude from the range of object. Further, the simulation unit 150 may limit the range of the acoustic effect simulation target to the peripheral range of the first viewer 112A. By narrowing the simulation target range in this way, the efficiency of the arithmetic processing in the simulation unit 150 is improved.
  • the simulation unit 150 transmits the simulation result to the audio output control unit 110.
  • the audio output control unit 110 generates viewable range information 800 based on the simulation result, and transmits it to the reference viewing range determination unit 202 (S406).
  • the viewable range list 802 of the viewable range information 800 includes the first view in the viewable range list 802 according to the order of the sound effects stored in the desired sound effect list 702 of the sound effect simulation request information 700 received in S401.
  • Information indicating surround sound as the second sound effect, information indicating stereo sound as the second sound effect, and information indicating monaural sound as the third sound effect are stored.
  • the viewer ID 701 of the viewable range information 800 stores the same value as the viewer ID of the acoustic effect simulation request information 700 received in S401, that is, the controller ID of the first controller 104a possessed by the first viewer 112A.
  • the reference viewing range determination unit 202 receives the viewable range information 800 from the audio output control unit 110 (S501).
  • the reference viewing range determination unit 202 refers to the viewable range list 802 of the viewable range information 800 received in S501, and determines whether or not a viewable range exists (S502).
  • the display control unit 205 When it is determined in S502 that there is no viewable range (NO in S502), the display control unit 205 presents that the viewable range does not exist to the first viewer 112A (S510).
  • the display control unit 205 presents the display 106 with characters and images indicating that there is no viewable range.
  • the audio output control unit 110 may present a sound such as a notification sound using the speaker device 105.
  • the lighting may be presented by using a lighting device (not shown) connected to the content reproduction device 100 by wire or wirelessly, such as blinking the lighting.
  • the reference viewing range determination unit 202 determines that a viewable range exists (YES in S502)
  • the reference viewing range determination unit 202 determines the reference viewing range from the viewable range list 802 included in the viewable range information 800.
  • the range is determined, and reference viewing range information 1900 is generated (S503).
  • the viewer ID 701 of the reference viewing range information 1900 stores the controller ID of the first controller 104a
  • the reference viewing range list 1902 includes information indicating surround sound as the first acoustic effect, first Information indicating the first viewable range in the reference viewing range, information indicating stereophonic sound in the second sound effect, information in the second viewable range in the second reference viewing range, and monaural sound in the third sound effect
  • the third viewable range is stored in the third reference viewing range.
  • the current viewing position determination unit 204 transmits the viewing position measurement request information 900 to the position calculation unit 107 to request the calculation of the relative position of the first viewer 112A with respect to the display 106.
  • the current viewing position determination unit 204 receives the calculation result as viewing position information 1000, and determines the current viewing position of the first viewer 112A based on the received viewing position information 1000 (S504).
  • the current viewing position determination unit 204 sets the viewing position coordinates 1002 included in the received viewing position information 1000 as the current viewing position of the first viewer 112A.
  • a certain range including the position indicated by the viewing position coordinates 1002 may be determined as the current viewing position of the first viewer 112A.
  • the value stored in the viewer ID 901 of the viewing position measurement request information 900 by the current viewing position determination unit 204 may be the value stored in the viewer ID 701 of the viewable range information 800 received in S501.
  • the display control unit 205 selects the first reference viewing range in the reference viewing range list 1902 of the reference viewing range information 1900 generated by the reference viewing range determination unit 202 in S503, and the first viewer 112A determined in S504. Compare the current viewing position. Based on this comparison, the display control unit 205 determines whether or not the current viewing position of the first viewer 112A is within the reference viewing range (S505).
  • the display control unit 205 is within the viewable range where a desired acoustic effect can be obtained. Is presented to the first viewer 112A (S511).
  • the display control unit 205 displays on the display 106 with characters and images that the first viewer 112A is located within the viewable range where a desired acoustic effect can be obtained.
  • the audio output control unit 110 may present a sound such as a notification sound using the speaker device 105 according to an instruction from the display control unit 205, or illustrated according to an instruction from the display control unit 205. You may show by illumination, such as blinking illumination using a lighting device which does not.
  • S511 may be executed when the current viewing position of the first viewer 112A is partially within the reference viewing range.
  • S506 is executed only when the current viewing position of the first viewer 112A does not fall within the reference viewing range.
  • the display control unit 205 requests the first viewer 112A.
  • the movement instruction information for guiding the user to the viewing range where the sound effect is obtained is presented to the first viewer 112A (S506).
  • this movement instruction information is composed of movement instruction characters 1102, a movement instruction image 1103, and a movement instruction overhead view 1104 shown in FIGS. 16, 17, and 19 to be described later.
  • the first viewer 112A can move to a viewing position where a desired sound effect can be obtained by following the movement instruction information.
  • the movement instruction information is not limited to these, and the same effect can be obtained by causing a lighting device (not shown) to illuminate the viewable range with illumination according to an instruction from the display control unit 205.
  • the window displayable range determination unit 203 determines the window displayable range based on the reference viewing range information 1900 generated by the reference viewing range determination unit 202 in S503, and generates window displayable range information 2000 (S507). .
  • the window displayable range with respect to the first reference viewing range that is a range that can be viewed with the surround sound effect is the first window displayable range.
  • the window displayable range with respect to the second reference viewing range that is a range that can be viewed with the stereo sound effect is the second window displayable range.
  • the window displayable range with respect to the third reference viewing range that is a range that can be viewed with the monaural sound effect is the third window displayable range.
  • the display control unit 205 displays the window displayable range on the display 106 based on the window displayable range information 2000 generated by the window displayable range determination unit 203 in S507 (S508).
  • the first window displayable range in the window displayable range list 2002 is displayed in the foreground
  • the second window displayable range is displayed in the foreground
  • the third window can be displayed. Make sure the range is on the back.
  • the display control unit 205 causes the viewing viewer to move the viewing window.
  • the display position of the viewing window is changed so as to follow 112A (S509).
  • the first viewer 112 ⁇ / b> A moves so that the viewing window that follows him / her falls within the window displayable range displayed on the display 106 in S ⁇ b> 507, so that the first viewer 112 ⁇ / b> A can obtain the desired acoustic effect. Can be moved to.
  • the display control unit 205 changes the display position of the viewing window so that the viewing window is always displayed in front of the moving first viewer 112A.
  • the display control unit 205 defines the display 106 as a two-dimensional plane represented by a height axis and a horizontal axis perpendicular to the height axis, and the horizontal axis coincides with the height of the first viewer 112A's line of sight.
  • the viewing window is displayed so that the point at which the distance between the first viewer 112A and the display 106 is the shortest becomes the center of gravity of the viewing window. Thereby, a viewing window is displayed in front of the first viewer 112A.
  • the display control unit 205 periodically checks whether the viewing position has changed for all viewers, not just the timing of S509 and not only the first viewer 112A. As a result of the confirmation, when the viewing position of a certain viewer changes, the display control unit 205 further changes the viewing window display position so that the viewing window corresponding to the viewer is positioned in front of the viewer.
  • the display control unit 205 detects the movement of each viewer, and sets the viewing position at regular intervals for all viewers associated with the viewing window in S303 (see FIG. 12). Obtained from the position calculation unit 107.
  • the display control unit 205 further compares the latest viewing position acquired from the position calculation unit 107 with the viewing position acquired immediately before for a certain viewer, and the difference is greater than or equal to a preset threshold value. In this case, it is determined that the viewer has moved.
  • the threshold used for comparing the viewing position and the interval for obtaining the viewing position from the position calculation unit 107 may be set in the display control unit 205 when the content reproduction apparatus 100 is manufactured in consideration of the measurement accuracy of the position calculation unit 107 and the like.
  • the first viewer 112A may set the display control unit 205 using the first controller 104a.
  • the display control unit 205 performs the following procedure to acquire the viewing position of each viewer from the position calculation unit 107. First, the display control unit 205 acquires a list of controller IDs associated with each of the plurality of windows from the viewing window determination unit 201. Next, the display control unit 205 selects one controller ID in the acquired list, the display control unit 205 generates viewing position measurement request information 900 stored in the viewer ID 901, and sends it to the position calculation unit 107. Send.
  • the position calculation unit 107 that has received the viewing position measurement request information 900 calculates the viewing position of the viewer corresponding to the designated controller ID, stores the result in the viewing position information 1000, and displays it. To 205.
  • the display control unit 205 that has received the viewing position information 1000 acquires the viewing position of the viewer corresponding to the designated controller ID from the viewing position coordinates 1002. The above is repeated for all controller IDs described in the list of controller IDs associated with each of the plurality of windows.
  • the display control unit 205 may not automatically change the display position of the viewing window.
  • the first viewer 112A uses the first controller 104a to specify the position on the display 106 where the viewing window is to be displayed to the display control unit 205, and the display control unit 205 is specified to the first viewer 112A.
  • the same effect can be obtained by moving the viewing window to a position.
  • the display control unit 205 may control the viewing window not to move outside the window displayable range. Thereby, even when the first viewer 112A moves beyond the position where the desired sound effect can be obtained, the viewing window does not move. Thus, the first viewer 112A can know the viewing range in which the desired sound effect can be obtained even by the range in which the viewing window moves.
  • the sound effect obtained by other viewers such as the second viewer 112B is not hindered by the sound effect on the first viewer 112A.
  • the content display control unit 200 such as the movement instruction information and the window displayable range, presented to the first viewer 112A to guide the first viewer 112A to a viewing position where a desired sound effect can be obtained.
  • the information may be automatically presented after S509 is executed or after S308 is executed.
  • the presentation may be ended after the first viewer 112A instructs the content display control unit 200 to end the presentation using the first controller 104a.
  • This is not limited to the information presented by the operation shown in FIG. 14, but the same applies to the information presented by the operation shown in other drawings.
  • the operation in S307 of FIG. 12 may be configured by each processing step shown in FIG. 15 instead of each processing step shown in FIG. FIG. 15 is obtained by replacing S508 and S509 in FIG. 14 with S601.
  • the display control unit 205 sets the first window displayable range in the window displayable range list 2002 based on the window displayable range information 2000 generated by the window displayable range determination unit 203 in S507.
  • the viewing window is displayed on the display 106 so that at least a part of the viewing window corresponding to the viewer 112A is displayed (S601).
  • the viewing window is displayed on the display 106 so that the center of gravity of the viewing window falls within the first window displayable range.
  • the first viewer 112A moves to a position where the viewing window displayed on the display 106 in S601 can be seen in front. As a result, the first viewer 112A moves to a viewing position where a desired acoustic effect can be obtained.
  • FIG. 16 is a diagram illustrating an example of movement instruction information displayed on the display 106 by the display control unit 205 in S506 of FIG. 14 and a window displayable range 1105 displayed on the display 106 in S508 of FIG.
  • the first viewing window 1101 is a viewing window associated with the first viewer 112A.
  • the movement instruction information includes a movement instruction character 1102, a movement instruction image 1103, and a movement instruction overhead view 1104.
  • the movement instruction character 1102 presents a character string instructing a direction to move to a viewing position where the sound effect desired by the first viewer 112A, specifically, a surround sound effect as the first sound effect can be obtained. Moreover, as shown in the figure, information regarding the acoustic effect currently obtained by the first viewer 112A or information regarding the acoustic effect desired by the first viewer 112A may be presented.
  • the movement instruction image 1103 is an image for instructing a direction to move to a viewing position where the first viewer 112A can obtain a desired acoustic effect, and is an arrow as shown in FIG.
  • the movement instruction bird's-eye view 1104 is an image instructing a direction to move to a viewing position where the first viewer 112A can obtain a desired sound effect, and is characterized in that an overhead view of a room where content is viewed is used.
  • a movement instruction bird's eye view 1104 is a view of a room where content is viewed from above, and the upper part in the figure corresponds to the position where the display 106 is arranged.
  • the movement instruction overhead view 1104 includes a current viewing position 1104A indicating the current position of the first viewer 112A and a destination viewing position indicating the viewing position to which the first viewer 112A should move in order to obtain a desired acoustic effect. 1104B is shown.
  • a window displayable range 1105 includes a surround playable range 1105A that is a first window displayable range, a stereo playable range 1105B that is a second window displayable range, and a third window displayable range. And a monaural reproducible range 1105C.
  • the display control unit 205 may display the window displayable range 1105 on the display 106 after shaping the window displayable range 1105 into a form that the first viewer 112A can easily understand the presentation content, such as an ellipse. Further, the display control unit 205 may present information regarding the acoustic effect obtained when the first viewer 112 ⁇ / b> A is positioned within the reference viewing range, in characters or images, together with the window displayable range 1105.
  • the character string “surround reproducible range” is displayed on the display 106 so as to overlap the display of the surround reproducible range 1105A.
  • the display control unit 205 may change the color and shape displayed on the display 106 for each window displayable range so that the viewer can easily recognize. For example, the display control unit 205 may display the first window displayable range in an elliptical red color and display the second window displayable range in a rectangular blue color.
  • FIG. 17 is a diagram illustrating another example of the movement instruction information displayed on the display 106 by the display control unit 205 in S506 of FIG. 14 and the window displayable range 1105 displayed on the display 106 in S508 of FIG.
  • the first viewer 112 ⁇ / b> A is viewing content
  • the second viewer 112 ⁇ / b> B appears in front of the display 106 from the left toward the display 106.
  • the simulation unit 150 performs a sound effect simulation for the first viewer 112A so that the sound effect reproduced for the second viewer 112B is not hindered.
  • the simulation unit 150 refers to the allocation table 121 (see FIG. 5) and determines the first viewer 112A as the viewer “a” and the second viewer 112B as the viewer “b”. The simulation unit 150 further executes a sound effect simulation for the first viewer 112 ⁇ / b> A using the number and positions of the speakers corresponding to “a” shown in the assignment table 121.
  • the window displayable range 1105 is narrower than that in FIG. 16, and is further away from the second viewing window 1201 toward the right side of the display 106.
  • the display control unit 205 determines whether or not the viewing position of the first viewer 112A has changed (S1501). Note that, as described in the description of S509 in FIG. 14, the display control unit 205 periodically checks whether or not the viewing position has changed for all viewers, and the confirmation operation in S509 and the confirmation in S1501. The operation is a common operation.
  • the viewing position has not changed (NO in S1501), it is continuously checked whether the viewing position of the first viewer 112A has changed regularly thereafter.
  • the content reproduction apparatus 100 presents information based on the viewable range in which the first viewer 112A can obtain a desired acoustic effect to the first viewer 112A (S307).
  • the movement instruction character 1102 and the window as shown in FIG. A displayable range 1105 or the like is displayed on the display 106.
  • the content display control unit 200 stores the acoustic effect simulation result (result of S306 in FIG. 12) that has been previously obtained for the first viewer 112A.
  • the content display control unit 200 executes the display control using the stored acoustic effect simulation result.
  • the content display control unit 200 may not use the previous acoustic effect simulation result.
  • the content display control unit 200 may perform the above-described display control using the result of the process (S305 and S306 in FIG. 12) related to the acoustic effect simulation executed again by the simulation unit 150 and the like.
  • the playback apparatus 100 may be settable.
  • the movement instruction information and the window displayable range presented to the first viewer 112A are, for example, at the timing when the first viewer 112A has finished moving and is stationary. Finish the presentation.
  • the movement instruction information and the window displayable range are presented only while the first viewer 112A is moving.
  • the timing of finishing the presentation may be set in the content reproduction apparatus 100 by the first viewer 112A using the first controller 104a.
  • the content playback apparatus 100 presents information based on the acoustic effect desired by the first viewer 112A even when the first viewer 112A moves while viewing the content, as shown in FIG.
  • the first viewer 112A can easily know the viewable range where the desired acoustic effect can be obtained, and obtain the desired acoustic effect. It is possible to easily move to a viewable range.
  • FIG. 19 shows the movement instruction information that the display control unit 205 displays on the display 106 in S506 of FIG. 14 when the first viewer 112A moves while viewing the content after the operation shown in FIG. It is a figure which shows the example of the window displayable range 1105 displayed on the display 106 by S508.
  • the display content of the display 106 shown in FIG. 19 is compared with the display content of the display 106 shown in FIG. 17, instead of the first viewing window 1101, the first viewing window 1301 before moving and the first viewing window 1302 after moving. Has been added. Further, FIG. 19 has a feature in the presentation contents of the movement instruction character 1102 compared to FIG.
  • the movement instruction character 1102 changes the sound effect obtained by the first viewer 112 ⁇ / b> A in addition to the character string instructing the direction to move to the viewing position where the first viewer 112 ⁇ / b> A can obtain the desired sound effect. And information about changed sound effects.
  • the reference viewing range determination unit 202 receives the sound effect information based on the selection of the first viewer 112 ⁇ / b> A via the infrared light receiving unit 109.
  • the reference viewing range determination unit 202 further refers to the sound effect information to determine whether or not the sound effect selected by the first viewer 112A before viewing the content in S304 of FIG. 12 has been changed (S1601).
  • the operation is terminated.
  • the content reproduction apparatus 100 presents information based on the viewing range in which the first viewer 112A can obtain a desired sound effect to the first viewer 112A (S307).
  • this display control may be executed by the content display control unit 200 using the previously obtained acoustic effect simulation result as in the process shown in FIG. It may be executed using the result of the first.
  • the content playback apparatus 100 provides information based on the sound effect desired by the first viewer 112A. Present.
  • the first viewer 112A can easily know that the viewing range in which the desired acoustic effect can be obtained has changed and the viewing range in which the desired acoustic effect can be obtained by changing the desired acoustic effect. And can easily move to a viewing range where a desired sound effect can be obtained.
  • the display control unit 205 always checks whether the state of other viewing windows has changed (S1701). If the state of the other viewing window has not changed (NO in S1701), the confirmation of the state of the other viewing window is continued.
  • the case where the state of the other viewing window changes is, for example, the case where the second viewer 112B stops viewing the content.
  • the second viewing window 1201 that has been displayed on the display 106 until that time is closed. That is, the size of the second viewing window 1201 is changed to zero.
  • the content reproduction apparatus 100 sets the new condition (the number and position of the speakers shown in the changed speaker combination) for the process related to the acoustic effect simulation for the first viewer 112A and the presentation of information based on the viewing range. Etc.) (S305, S306, and S1702 in FIG. 21).
  • the content reproduction apparatus 100 may redo the processing related to the acoustic effect simulation for the first viewer 112A and the presentation of information based on the viewing range under new conditions.
  • the simulation unit 150 sets the first viewer 112B according to the positional relationship between the moved second viewer 112B and the first viewer 112A at that time.
  • the number of speakers assigned to one viewer 112A is adjusted (increased or reduced).
  • a new acoustic effect simulation (S306) is executed using the number of speakers after the adjustment.
  • the viewable range for each of the N acoustic effects desired by the first viewer 112A changes in most cases except when the change is slight. Can do. That is, the reference viewing range determined based on the viewable range can also change.
  • S501, S503, and S507 indicate the operations of the same reference numerals in FIG.
  • the content reproduction apparatus 100 executes S501 and S503.
  • the display control unit 205 presents to the first viewer 112A that the reference viewing range has changed (S1802).
  • the display control unit 205 displays the change in the reference viewing range on the display 106 with characters.
  • a presentation example in S1802 is shown as a viewing environment change notification character 1404 in FIG. Details of FIG. 23 will be described later.
  • the presentation method for the first viewer 112 ⁇ / b> A in S ⁇ b> 1802 may be presented using, for example, an image, or the audio output control unit 110 uses the speaker device 105 according to an instruction from the display control unit 205. It may be presented by sound such as sounding a notification sound. In addition, according to an instruction from the display control unit 205, it may be presented by illumination such as blinking illumination using a lighting device (not shown).
  • the window displayable range determination unit 203 executes S507.
  • the display control unit 205 refers to the window displayable range list 2002 of the window displayable range information 2000 generated by the window displayable range determination unit 203 in S507, and compares it with the window displayable range generated immediately before. It is checked whether there is a changed range (S1803).
  • the window displayable range corresponding to the reference viewing position also changes in principle. However, there may be a window displayable range that does not change, such as when the amount of change in the reference viewing position is small. Therefore, this determination process (S1803) is executed.
  • the display control unit 205 displays on the display 106 with characters that the window displayable range has changed.
  • a presentation example in S1804 is shown as a viewing environment change notification character 1404 in FIG. Details of FIG. 23 will be described later.
  • the presentation method for the first viewer 112A in S1804 may be presented using an image, or the audio output control unit 110 uses the speaker device 105 according to an instruction from the display control unit 205. It may be presented by sound such as sounding a notification sound. In addition, according to an instruction from the display control unit 205, it may be presented by illumination such as blinking illumination using a lighting device (not shown).
  • the display control unit 205 changes the size of the viewing window corresponding to the first viewer 112A in accordance with the changed window displayable range (S1805). At this time, the display control unit 205 determines the size of the window displayable range where the center of gravity of the viewing window corresponding to the first viewer 112A is within the first window displayable range to the Nth window displayable range. Change the size of the viewing window to match.
  • the display control unit 205 enlarges the viewing window if the window displayable range is enlarged, and reduces the viewing window if the window displayable range is reduced. Further, when the display control unit 205 changes the size of the viewing window, the size is changed so that the viewing window is positioned in front of the first viewer 112A even if the first viewer 112A does not move the viewing position. For example, the size is changed while maintaining the position of the center of gravity of the viewing window, or the size is changed while the position of one corner of the viewing window is fixed.
  • the content reproduction apparatus 100 sequentially executes, for example, S506 and S508 shown in FIG. 15 to guide the first viewer 112A to be positioned in front of the enlarged viewing window. Good.
  • the content reproduction apparatus 100 presents information based on the acoustic effect desired by the first viewer 112A even when the state of the viewing window other than the viewing window corresponding to the first viewer 112A changes as shown in FIG. To do. Thereby, the first viewer 112A can easily know that the viewing range in which the desired sound effect can be obtained has changed, and the viewing range in which the desired sound effect can be obtained, so that the desired viewing effect can be obtained. Can easily move to range.
  • the first viewer 112A can easily know that the size of the viewing window can be changed, and the content reproduction apparatus 100 can automatically change the size of the viewing window.
  • FIG. 23 shows that the display control unit 205 displays on the display 106 in S1802 and S1804 of FIG. 22 when the state of the viewing window other than the viewing window corresponding to the first viewer 112A changes after the operation shown in FIG. It is a figure which shows the example of the information to do.
  • the first viewing window 1401 before enlargement is a viewing window corresponding to the first viewer 112A before the display control unit 205 enlarges the size.
  • the enlarged first viewing window 1402 is a viewing window corresponding to the first viewer 112A after the display control unit 205 enlarges the size.
  • the closed second viewing window 1403 indicates the position where the viewing window corresponding to the second viewer 112B closed by the display control unit 205 was displayed.
  • the viewing environment change notification character 1404 is a character string for notifying that the reference viewing range and the window displayable range displayed on the display 106 by the display control unit 205 in S1802 and S1804 in FIG. 22 have been changed.
  • the viewing environment change notification character 1404 further includes a character string related to the acoustic effect currently obtained by the first viewer 112A and a character string related to the size change indicating that the viewing window can be enlarged.
  • the operation of the content viewing system 10 for the first viewer 112A is taken up, but the content viewing is not limited to the first viewer 112A but also to other viewers such as the second viewer 112B.
  • System 10 performs a similar operation.
  • the simulation unit 150 performs processing related to the acoustic effect simulation, but the same is true even if the component of the content display control unit 200 such as the audio output control unit 110 or the reference viewing range determination unit 202 performs. The effect is obtained.
  • the content reproduction apparatus 100 is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • the RAM or hard disk unit stores a computer program.
  • the content reproduction apparatus 100 achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting the content reproduction apparatus 100 may be configured by one system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting the content reproduction apparatus 100 may be constituted by an IC card that can be attached to and detached from the content reproduction apparatus 100 or a single module.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and executed by another independent computer system. It is good.
  • the content reproduction apparatus simulates a viewing range in which a viewer can obtain a desired acoustic effect, and when the viewer is not located in a viewing range in which a desired acoustic effect can be obtained.
  • the direction to be moved to the viewing range where the desired sound effect can be obtained can be presented with characters, images, an overhead view, and the like.
  • the content reproduction apparatus provides information about a range in which the viewer should be located to move the viewing window to a position suitable for viewing in the viewing range where the viewer can obtain a desired acoustic effect. Can be presented.
  • a content playback apparatus includes a content viewing system including an ultra-large screen display in which a viewing range that includes a range in which a desired sound effect can be reproduced and a range that cannot be reproduced for a viewer is present throughout the room,
  • a content playback device or the like in a content viewing system in which a plurality of viewers view different contents at the same time.
  • DESCRIPTION OF SYMBOLS 10 Content viewing system 100 Content reproduction apparatus 101 Position information acquisition apparatus 102 Content transmission apparatus 103 Broadcast receiving antenna 104a 1st controller 104b 2nd controller 105 Speaker apparatus 106 Display 107 Position calculation part 108 Content reception part 109 Infrared light reception part 110 Audio

Abstract

 ディスプレイおよび複数のスピーカに接続されたコンテンツ再生装置(100)であって、第一ウィンドウ(1101)とともに第二ウィンドウ(1201)をディスプレイに表示させることのできるコンテンツ表示制御部(200)と、第一コンテンツの音声の出力のために割り当てられた1以上のスピーカに第一コンテンツの音声を出力させ、かつ、第二コンテンツの音声の出力のために割り当てられた1以上のスピーカに第二コンテンツの音声を出力させることのできる音声出力制御部(110)と、演算により、第一視聴者が第一コンテンツの音声を所定の音響効果で聴き取り可能な、所定の範囲内における第一視聴者の存在範囲である視聴可能範囲を求める視聴可能範囲演算部(150)と、視聴可能範囲に基づく情報を第一視聴者に提示するために出力する提示制御部(205)とを備える。

Description

コンテンツ再生装置およびコンテンツ再生方法
 本発明は、超大画面ディスプレイを備えるコンテンツ視聴システムにおいて、当該超大画面ディスプレイにコンテンツを表示するコンテンツ再生装置に関する。
 従来、DVD(Digital Versatile Disc)プレーヤなどのコンテンツ再生装置に、ディスプレイやスピーカ装置を接続したコンテンツ視聴システムが存在する。また、このようなコンテンツ視聴システムによりコンテンツの視聴が楽しまれている。
 コンテンツ視聴システムは、上記形態の他にも、テレビのようにディスプレイとコンテンツ再生装置を兼ねた装置にスピーカ装置を接続した形態、および、PC(Personal Computer)をコンテンツ再生装置として用い、PCにディスプレイとスピーカ装置を接続した形態も存在する。
 コンテンツ再生装置は、コンテンツの動画像をディスプレイに出力するだけでなく、コンテンツに含まれる音声を、視聴者が視聴位置において所望の音響効果で聴き取れるようスピーカを制御する。
 従来、視聴者がコンテンツを視聴する際の視聴者の位置(以下、「視聴位置」という。)において所望の音響効果を得られるよう、視聴位置に応じてスピーカ装置を制御する方法として、特許文献1に記載の方法がある。
 また、複数の視聴者がそれぞれ異なるコンテンツを視聴するためのコンテンツ視聴システムにおいて、それぞれの視聴者が所望の音響効果を得られるようスピーカ装置を制御する方法として、特許文献2に記載の方法がある。
特開2006-166295号公報 特開2008-011253号公報
 しかしながら、上記従来の技術は、コンテンツ再生装置が視聴者の所望する音響効果(例えば、5.1chサラウンドなど)を再現できない視聴位置の範囲が存在することを考慮していなかった。つまり、上記従来の技術は、所望の音響効果を再現できない範囲が視聴位置の範囲(以下、「視聴範囲」という。)に含まれ得ることを考慮していなかった。
 これは、既存のテレビなどをディスプレイとして採用する従来のコンテンツ視聴システムでは、部屋の中心部などのある程度限られた範囲に、視聴範囲が収まる。これにより、コンテンツ再生装置が視聴者の所望する音響効果を再現できない範囲が視聴範囲となることを考慮する必要がなかったからである。
 しかし、既にプラズマテレビおよび液晶テレビなど中心とした大画面テレビが家庭に広く普及している。そのため、コンテンツ視聴システムで利用されるディスプレイのサイズは年々増大している。
 また、消費者のテレビに対する更なる大画面化への要求も高く、大画面テレビのサイズは既に市販品で100インチを超えている。例えば、壁一面が画面となるような壁級大画面テレビの見本も展示されており、コンテンツ視聴システムで利用されるディスプレイのサイズは今後も増大すると考えられている。
 そして、壁級大画面テレビのような超大画面ディスプレイを用いたコンテンツ視聴システムでは、視聴範囲はほぼ部屋全体におよぶ。そのため、例えば、部屋の隅などコンテンツ再生装置が視聴者の所望する音響効果を再現できない範囲も視聴範囲に含まれることになる。
 このとき、上記従来の技術は、上述のように、コンテンツ再生装置が視聴者の所望する音響効果を再現できない視聴範囲が存在することを考慮していないため、視聴者は、現在、所望の音響効果が得られる位置にいるのか、および、視聴範囲内のどの位置にいれば所望の音響効果を得られるか等が分からないという課題がある。
 また、壁級大画面テレビのような超大画面ディスプレイを用いたコンテンツ視聴システムでは、複数人の視聴者が同時にそれぞれ異なるコンテンツを視聴することができる。
 このとき、複数の視聴者が隣接するとお互いの音響効果が雑音となり各視聴者は所望の音響効果を得ることが困難である。
 つまり、ある視聴者に隣接する範囲は、他の視聴者に対してコンテンツ再生装置が所望の音響効果を再現できない視聴範囲となる。
 このような場合においても、上記従来の技術は、コンテンツ再生装置が所望の音響効果を再現できない視聴範囲が存在することを考慮していない。
 そのため、複数の視聴者が、超大画面ディスプレイに表示された互いに異なるコンテンツを同時に視聴する場合においても、各視聴者は、視聴範囲内のどの位置にいれば所望の音響効果を得られるか等が分からないという課題がある。
 本発明は、前記従来の課題を解決するもので、超大画面ディスプレイを備えるコンテンツ視聴システムにおいて、視聴者が所望の音響効果を得られる視聴範囲を容易に知ることができるためのコンテンツ再生装置およびコンテンツ再生方法を提供することを目的とする。
 前記従来の課題を解決するために、本発明のコンテンツ再生装置は、ディスプレイおよび複数のスピーカに接続されたコンテンツ再生装置であって、第一コンテンツの映像を第一視聴者に対して表示するための第一ウィンドウとともに、第二コンテンツの映像を第二視聴者に対して表示するための第二ウィンドウを前記ディスプレイに表示させることのできるコンテンツ表示制御部と、前記複数のスピーカの中から前記第一コンテンツに割り当てられた1以上のスピーカに前記第一コンテンツの音声を出力させ、かつ、前記複数のスピーカの中から前記第二コンテンツに割り当てられた1以上のスピーカに前記第二コンテンツの音声を出力させることのできる音声出力制御部と、所定の範囲の大きさを示す情報、前記第一コンテンツに割り当てられた前記1以上のスピーカの個数および位置、ならびに、前記第一コンテンツから取得される、前記第一コンテンツの再生において提供可能な1以上の音響効果のうちの所定の音響効果の必要チャネル数を用いた演算により、前記第一視聴者が前記第一コンテンツの音声を前記所定の音響効果で聴き取り可能な、前記所定の範囲内における範囲である視聴可能範囲を求める視聴可能範囲演算部と、前記視聴可能範囲演算部から得られる視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力する提示制御部とを備える。
 本構成によって、超大画面ディスプレイと複数のスピーカとを用いて、複数の視聴者それぞれに、互いに異なるコンテンツを視聴させることのできるコンテンツ再生装置であって、それぞれの視聴者に対応する視聴可能範囲に基づく情報を、それぞれの視聴者に対して提示することのできるコンテンツ再生装置を実現できる。つまり、それぞれの視聴者は、所望の音響効果を得られる視聴範囲を容易に知ることができる。
 また、前記視聴可能範囲演算部は、前記所定の音響効果を含む、前記第一コンテンツの再生において提供可能な複数の音響効果それぞれに対応する複数の視聴可能範囲を演算により求め、前記コンテンツ再生装置はさらに、前記視聴可能範囲演算部から得られる前記複数の視聴可能範囲の中から少なくとも1つの視聴可能範囲を基準視聴範囲として決定する基準視聴範囲決定部を備え、前記提示制御部は、前記基準視聴範囲決定部により基準視聴範囲と決定された少なくとも1つの視聴可能範囲に基づく情報を出力するとしてもよい。
 また、前記基準視聴範囲決定部は、前記複数の音響効果それぞれの優先度を示す情報を取得し、最も優先度の高い、または、最も優先度の低い前記音響効果に対応する視聴可能範囲を前記基準視聴範囲と決定するとしてもよい。
 このように、基準視聴範囲決定部を備えることにより、視聴者が、最も優先度の高い音響効果に対応する視聴可能範囲に基づく情報の提示のみを要望した場合、当該要望に応えることができる。または、視聴者が、ウィンドウで再生されるコンテンツの音声を何らかの音響効果の下で聞き取ることのできる最大限の視聴範囲に関する情報を要望した場合、当該要望に応えることができる。
 また、本発明のコンテンツ再生装置はさらに、前記第一視聴者により選択された音響効果の種類を示す情報を受け付ける受付部を備え、前記提示制御部は、前記視聴可能範囲演算部から得られる視聴可能範囲であって、前記受付部により受け付けられた情報に示される音響効果に対応する視聴可能範囲に基づく情報を出力するとしてもよい。
 これにより、例えば、視聴者により、所望の音響効果が変更された場合であっても、当該変更後の音響効果に対応する視聴可能範囲に基づく情報を、視聴者に提示することができる。
 また、前記視聴可能範囲演算部は、前記所定の範囲から前記第二視聴者の所定の周辺範囲を除いたうえで前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を求めるとしてもよい。
 また、前記視聴可能範囲演算部は、前記所定の範囲の一部である、前記第一視聴者の所定の周辺範囲のみについて前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を求めるとしてもよい。
 このように、視聴可能範囲演算部による演算対象の範囲を限定することで、演算効率が向上する。
 また、前記コンテンツ表示制御部はさらに、前記第一ウィンドウおよび前記第二ウィンドウの位置または大きさを変更可能であり、音声出力制御部はさらに、前記第二ウィンドウの位置または大きさが変更された場合、前記第一コンテンツの音声の出力のために割り当てられたスピーカの組み合わせの少なくとも一部を変更し、前記視聴可能範囲演算部はさらに、前記第二ウィンドウの位置または大きさが変更された場合、前記音声出力制御部による変更後の前記スピーカの組み合わせに示されるスピーカの個数および位置を用いて前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を新たに求め、前記提示制御部はさらに、前記視聴可能範囲演算部から新たに得られる視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力するとしてもよい。
 これにより、例えば、ある1つのウィンドウが、他のウィンドウが閉じられるまたは移動することにより、拡大または移動が可能な場合、その拡大または移動後のウィンドウに対応した視聴可能範囲に基づく情報を、視聴者に提示することができる。
 また、前記提示制御部は、前記視聴可能範囲に基づく情報である、前記視聴可能範囲を示す文字または画像を前記ディスプレイに出力し、前記文字または画像を前記ディスプレイに表示させることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示するとしてもよい。
 また、前記提示制御部は、前記視聴可能範囲に基づく情報である、前記視聴可能範囲を照らす指示を、前記コンテンツ再生装置に接続された照明装置に出力し、前記照明装置に前記視聴可能範囲を照らさせることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示するとしてもよい。
 これにより、視聴者は、文字、画像、または照明装置による光により、視聴可能範囲を容易に知ることができる。
 また、前記提示制御部は、前記視聴可能範囲演算部による前記演算の結果が、前記視聴可能範囲が前記所定の範囲内に存在しないことを示す場合、前記視聴可能範囲に基づく情報である、前記視聴可能範囲が存在しないことを示す情報を出力するとしてもよい。
 これにより、視聴者は、例えば自身が所望する音響効果を得られる視聴可能範囲が存在しないことを容易に知ることができる。
 また、本発明のコンテンツ再生装置はさらに、(a)前記視聴可能範囲内のある位置に前記第一視聴者が位置すると仮定した場合に前記第一視聴者に対して前記第一ウィンドウを表示すべき前記ディスプレイ上の範囲を、前記視聴可能範囲内のすべての位置ごとに決定し、(b)決定したディスプレイ上の範囲をすべて合わせた範囲を前記視聴可能範囲に対応するウィンドウ表示可能範囲と決定するウィンドウ表示可能範囲決定部を備え、前記提示制御部は、前記視聴可能範囲に基づく情報である、前記ウィンドウ表示可能範囲決定部により決定されたウィンドウ表示可能範囲を示す情報を出力するとしてもよい。
 これにより、視聴者は、どの位置にウィンドウが表示されれば、所望する音響効果を得られるかを容易に知ることができる。そのため、例えば、視聴者が移動すること、または、視聴者がコンテンツ再生装置に指示することなどにより、ウィンドウを移動させる場合、上記構成は有用である。
 また、本発明のコンテンツ再生装置はさらに、(a)前記視聴可能範囲内のある位置に前記第一視聴者が位置すると仮定した場合に前記第一視聴者に対して前記第一ウィンドウを表示すべき前記ディスプレイ上の範囲を、前記視聴可能範囲内のすべての位置ごとに決定し、(b)決定したディスプレイ上の範囲をすべて合わせた範囲を前記視聴可能範囲に対応するウィンドウ表示可能範囲と決定するウィンドウ表示可能範囲決定部を備え、前記提示制御部は、前記ディスプレイに、前記ウィンドウ表示可能範囲決定部により決定されたウィンドウ表示可能範囲内に前記第一ウィンドウの少なくとも一部を表示させることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示するとしてもよい。
 これにより、例えば、視聴者は、自身がウィンドウの正面にあたる位置に移動することで、所望する音響効果が得られることを容易に知ることができる。つまり、上記構成により視聴者を視聴可能範囲内に誘導することができる。
 また、さらに、前記コンテンツ再生装置に接続された外部装置から取得される、前記第一視聴者の位置を特定するための情報を用いて、前記第一視聴者の存在位置である視聴位置を決定する現在視聴位置決定部を備え、前記提示制御部は、前記現在視聴位置決定部により決定された視聴位置と前記視聴可能範囲とに基づいた情報を出力する。
 また、前記現在視聴位置決定部は、前記外部装置により定期的に取得される情報を用いて、前記視聴位置を定期的に決定し、前記提示制御部は、最新の視聴位置とその1つ前に決定された視聴位置との差が所定の閾値以上である場合、前記視聴可能範囲に基づく情報を出力するとしてもよい。
 また、前記提示制御部は、前記現在視聴位置決定部により決定された前記視聴位置が前記視聴可能範囲に収まっているか否かを判断し、前記視聴位置が前記視聴可能範囲に収まっていない場合、前記視聴可能範囲に基づく情報を出力するとしてもよい。
 また、前記提示制御部は、前記視聴位置が前記視聴可能範囲に収まっていない場合、前記視聴可能範囲に基づく情報である、前記視聴位置が前記視聴可能範囲に収まるために前記第一視聴者が移動すべき方向に関する情報を出力するとしてもよい。
 このように、現在視聴位置決定部により決定された視聴位置を利用することで、視聴者が所望の音響効果を得るために移動すべきか否か、どの位置に移動すべきかを、視聴者に的確に知らせることが可能となる。
 また、視聴者が、コンテンツの視聴中に移動した場合であっても、その移動後の位置に応じて、視聴者に視聴可能範囲に基づく情報を的確に知らせることができる。
 また、本発明は、本発明のコンテンツ再生装置の特徴的な構成部の動作をステップとするコンテンツ再生方法として実現したり、それらステップをコンピュータに実行させるためのプログラムとして実現したり、そのプログラムが記録された記録媒体として実現することもできる。そして、そのプログラムをインターネット等の伝送媒体又はDVD等の記録媒体を介して配信することもできる。
 本発明によれば、視聴者が所望する音響効果を得られる視聴可能範囲に基づく情報を、視聴者に対して提示することができる。これにより、視聴者は、所望の音響効果を得られる視聴範囲を容易に知ることができる。
(本願の技術的背景に関する情報)
 2008年6月12日に出願された出願番号2008-154473の日本出願の明細書、図面および特許請求の範囲における開示は、その全体を参照により本願に取り込む。
図1は、本発明の実施の形態におけるコンテンツ視聴システムの外観を示す図である。 図2は、本発明の実施の形態におけるコンテンツ視聴システムの主要な構成を示すブロック図である。 図3は、本発明の実施の形態におけるコンテンツ表示制御部の主要な構成を示す図である。 図4は、本発明の実施の形態における音声出力制御部の主要な構成を示す図である。 図5は、本発明の実施の形態における割当テーブルのデータ構成例を示す図である。 図6は、本発明の実施の形態における音響効果シミュレート要求情報のデータ構成例を示す図である。 図7は、本発明の実施の形態における視聴可能範囲情報のデータ構成例を示す図である。 図8は、本発明の実施の形態における視聴位置計測要求情報のデータ構成例を示す図である。 図9は、本発明の実施の形態における視聴位置情報のデータ構成例を示す図である。 図10は、本発明の実施の形態における基準視聴範囲情報のデータ構成例を示す図である。 図11は、本発明の実施の形態におけるウィンドウ表示可能範囲情報のデータ構成例を示す図である。 図12は、本発明の実施の形態において視聴者がコンテンツの視聴開始を要求してから視聴開始するまでの処理の流れを示すフロー図である。 図13は、本発明の実施の形態においてシミュレーション部が視聴可能範囲を求める際の処理の流れを示すフロー図である。 図14は、本発明の実施の形態においてコンテンツ再生装置が移動指示情報とウィンドウ表示可能範囲とを視聴者に対して提示する際の処理の流れを示すフロー図である。 図15は、本発明の実施の形態においてコンテンツ再生装置がウィンドウ表示可能範囲内に視聴ウィンドウを表示する際の処理の流れを示すフロー図である。 図16は、本発明の実施の形態における移動指示情報とウィンドウ表示可能範囲の第1の提示例を示す図である。 図17は、本発明の実施の形態における移動指示情報とウィンドウ表示可能範囲の第2の提示例を示す図である。 図18は、本発明の実施の形態において視聴者がコンテンツの視聴中に移動した場合のコンテンツ表示制御部の処理の流れを示すフロー図である。 図19は、本発明の実施の形態における移動指示情報とウィンドウ表示可能範囲の第3の提示例を示す図である。 図20は、本発明の実施の形態において視聴者がコンテンツの視聴中に所望の音響効果を変更した場合のコンテンツ表示制御部の処理の流れを示すフロー図である。 図21は、本発明の実施の形態において視聴ウィンドウの状態が変化した場合のコンテンツ表示制御部の処理の流れを示すフロー図である。 図22は、図21における情報の提示処理の詳細な処理の流れを示すフロー図である。 図23は、本発明の実施の形態における第一視聴者に対応する視聴ウィンドウ以外の視聴ウィンドウの状態が変化した場合の情報の提示例を示す図である。
 以下本発明の実施の形態について、図面を参照しながら説明する。なお、各図面において、同じ構成要素については同じ符号が用いられている。
 実施の形態では、壁一面の大部分が画面となる超大画面ディスプレイを利用して1人以上の視聴者がそれぞれ異なるウィンドウで異なるコンテンツを視聴することのできるコンテンツ視聴システムについて説明する。
 実施の形態におけるコンテンツ視聴システムは、各視聴者が所望の音響効果を得られる視聴範囲に基づいた情報を各視聴者に対して提示することのできるコンテンツ再生装置を備えている。
 図1は、実施の形態におけるコンテンツ視聴システム10の外観を示す図である。
 図1に示すように、コンテンツ視聴システム10は、ディスプレイ106と、スピーカ装置105と、コンテンツ再生装置100とを備える。
 ディスプレイ106は、コンテンツ視聴システム10が設置された部屋の1つの壁の大部分を覆う大きさの表示装置である。ディスプレイ106の表示領域は、1枚または複数枚のディスプレイパネルにより構成されており、その大きさは、例えば横10m×縦5m程度の大きさである。
 スピーカ装置105は複数のスピーカを有する。本実施の形態において、スピーカ装置105は、第一スピーカ(SP[1])から第nスピーカ(SP[n])までのn個のスピーカを有している。
 コンテンツ再生装置100は、ディスプレイ106に1以上のコンテンツを表示させることができ、かつ、当該1以上のコンテンツの音声をスピーカ装置105に出力させることのできる装置である。
 図1では、2人の視聴者(第一視聴者112A、および第二視聴者112B)が、互いに異なるコンテンツを視聴している。
 具体的には、第一視聴者112Aは、第一視聴ウィンドウ1101に表示されたサッカー中継を視聴している。また、第二視聴者112Bは、第二視聴ウィンドウ1201に表示されたニュース映像を視聴している。
 また、各ウィンドウには、複数のスピーカのうちの1以上のスピーカが割り当てられている。つまり、各コンテンツおよび各視聴者には、1以上のスピーカが割り当てられている。各視聴者は、自身の所望する音響効果で再生された音声を聴いている。
 例えば、第一視聴者112Aは、第一視聴ウィンドウ1101に割り当てられた2以上のスピーカによるサラウンド音響(例えば、第一視聴者112Aの前方の3つのスピーカによるバーチャルサラウンド音響)で、当該サッカー中継の音声を聴いている。
 また、例えば、第二視聴者112Bは、第二視聴ウィンドウ1201に割り当てられた2以上のスピーカによるステレオ音響で、当該ニュース映像の解説音声を聴いている。
 なお、第一視聴者112Aは、第一コントローラ104aを操作することにより、音響効果の切り替え等を行うことができる。また、第二視聴者112Bは、第二コントローラ104bを操作することにより、音響効果の切り替え等を行うことができる。
 また、図1では、ディスプレイ106の左右の辺と下辺とに沿って複数のスピーカが配置されているが、複数のスピーカの配置位置は図1に示すものに限られない。
 例えば、図1に示す各位置に加えて、視聴者の側方および後方に複数のスピーカが配置されてもよい。
 また、コンテンツ視聴システム10を利用する視聴者は、第一視聴者112Aおよび第二視聴者112Bの2人でなくてもよく、3人以上でもよく、1人でもよい。
 図2は、実施の形態におけるコンテンツ視聴システム10の主要な構成を示すブロック図である。
 図2に示すように、コンテンツ視聴システム10は、上述の各構成要素に加え、位置情報取得装置101と、コンテンツ送信装置102と、放送受信アンテナ103とを備える。
 また、図2に示すように、コンテンツ再生装置100は、位置算出部107と、コンテンツ受信部108と、赤外線受光部109と、音声出力制御部110と、映像出力制御部111と、シミュレーション部150と、コンテンツ表示制御部200とを備える。
 なお、コンテンツ再生装置100が有する構成要素のうち、例えば、位置算出部107と、音声出力制御部110とは、コンテンツ再生装置100が備えなくてもよい。例えば、これら構成要素は、外部装置としてコンテンツ再生装置100に接続されていてもよい。
 第一コントローラ104aおよび第二コントローラ104bは、上述のように、各視聴者がコンテンツ再生装置100を制御したり、コンテンツ再生装置100に対して様々な設定値を入力したりする装置である。
 各コントローラは、本実施の形態においては、赤外線によりコンテンツ再生装置100に制御信号を送信するリモートコントローラである。
 なお、コントローラは視聴者ごとに一台用意される。つまり、N人の視聴者がコンテンツ視聴システム10を同時に利用する場合、N台のコントローラが用意される。
 また、以下、「視聴者」という場合、第一視聴者112Aおよび第二視聴者112Bを含む複数の視聴者のうちの1人を意味し、「コントローラ」という場合、第一コントローラ104aおよび第二コントローラ104bを含む複数のコントローラのうちの1つを意味する。
 各コントローラには、製造時に固有のコントローラIDが各々割り当てられている。さらに、各視聴者はコンテンツ視聴システム10の利用中は、コントローラを常に携帯しているものとする。従って、本実施の形態において、コントローラIDは個々の視聴者を示す視聴者IDとしても利用される。
 つまり、本実施の形態においては、第一視聴者112Aの視聴者IDとして、第一コントローラ104aのコントローラIDが使用され、第二視聴者112Bの視聴者IDとして、第二コントローラ104bのコントローラIDが使用される。
 各コントローラは、コンテンツ再生装置100に対して制御信号を送信する際、制御信号と共にコントローラIDを送信する。コンテンツ再生装置100は、コントローラIDを確認することで、複数のコントローラの内いずれのコントローラから発せられた制御信号かを確認することができる。
 結果として、コンテンツ再生装置100は、受け取った制御信号が、複数の視聴者の内いずれの視聴者から発せられた制御信号かを確認することができる。
 なお、本実施の形態では、視聴者がコンテンツ再生装置100の制御等を行う装置として、上記のように赤外線通信を行うコントローラが採用されている。しかし、キーボードまたはポインティングデバイスなどの他の種類の入力装置が採用されてもよい。
 また、各コントローラにコントローラIDを割り当てるタイミングは、工場出荷時でなくてもよい。当該タイミングは、コンテンツ視聴システム10の初期設定時、または、コントローラの電源を入れる都度であってもよい。
 赤外線受光部109は、本発明のコンテンツ再生装置における受付部の一例であり、第一コントローラ104aおよび第二コントローラ104bか送信される制御信号を受信する装置である。
 位置情報取得装置101は、視聴者の位置を特定するための情報を取得する装置であり、無線アンテナと、第一コントローラ104aおよび第二コントローラ104bとから構成される。
 つまり、本実施の形態では、第一コントローラ104aおよび第二コントローラ104bは、位置情報取得装置101の構成要素としても機能する。具体的にはこれらコントローラは、自身を携帯する視聴者の位置情報取得のためカメラを備える。
 視聴者は、上述のように、コンテンツ視聴システム10の利用中にコントローラを常に携帯している。そのため、位置情報取得装置101は、各コントローラが備えるカメラ機器が撮影した画像とコントローラIDとを取得することで、複数の視聴者のそれぞれの位置を判断することができる。つまり、位置情報取得装置101は、複数の視聴者のそれぞれの位置を特定するための情報を取得することができる。
 位置算出部107は、位置情報取得装置101により取得された情報に基づいてディスプレイ106に対する視聴者の相対位置を算出する装置である。
 位置算出部107は、現在視聴位置決定部204などから視聴位置計測要求情報900を受信すると、視聴者ID901が示す視聴者のディスプレイ106に対する相対位置を算出し、算出結果を視聴位置情報1000として返す。
 なお、視聴位置計測要求情報900および視聴位置情報1000については、図8および図9を用いて後述する。
 本実施の形態では、以下のようにして位置算出部107がディスプレイ106に対する視聴者の相対位置を算出する。なお、具体例として、第一視聴者112Aの位置を算出する際の位置算出部107の処理の概要を説明する。
 第一視聴者112Aがある位置に存在する場合、第一コントローラ104aのカメラにより、その位置から撮影されたディスプレイ106の画像が取得される。
 第一コントローラ104aは、撮影した画像を位置情報取得装置101に送信する。位置情報取得装置101は、無線アンテナを介して当該画像を取得し、位置算出部107に出力する。
 位置算出部107は位置情報取得装置101経由で受信した画像に含まれる、ディスプレイ106の全体または部分の、画像全体における位置および大きさなどから、第一コントローラ104aのディスプレイ106に対する相対位置を算出する。
 位置算出部107は、このようにして得られたディスプレイ106に対する第一コントローラ104aの相対位置を、第一視聴者112Aのディスプレイ106に対する相対位置と特定する。
 なお、リモートコントローラによる撮影されたテレビの画像に基づいて、リモートコントローラの当該テレビに対する相対位置を算出する方法については、例えば、特開2006-166295号公報(特許文献1)「制御システム及びこのシステムに適合する被制御装置並びに遠隔制御装置」に開示されている。
 位置算出部107がディスプレイ106に対する視聴者の相対位置を算出する方法として、その他にも以下の方法がある。
 例えば、各コントローラとディスプレイ106にGPS(Global Positioning System)機器を取り付ける。各コントローラは自身に備えられたGPS機器で計測した位置情報をコントローラIDと共に位置情報取得装置101に送信する。
 位置算出部107は、位置情報取得装置101経由で受信したそれぞれのコントローラIDおよび位置情報と、ディスプレイ106に備えられたGPS機器で計測された位置情報とから各コントローラIDが示すコントローラのディスプレイ106に対する相対位置を算出する。さらに、算出したそれぞれの相対位置をディスプレイ106に対する各視聴者の相対位置と特定する。
 もちろん、上に2つの手法を組み合わせた方法やそれ以外の方法で、位置情報取得装置101および位置算出部107は、各視聴者のディスプレイ106に対する相対位置を計測および算出してもよい。
 また、位置情報取得装置101は、視聴者の位置を特定するための情報を取得できればよく、そのための機能的な構成は、上に挙げた例に限るものではない。
 コンテンツ送信装置102は、コンテンツデータをコンテンツ再生装置100へ送信する装置である。コンテンツ送信装置102が送信したコンテンツデータは、コンテンツ受信部108が受信する。コンテンツ送信装置102は、例えば、ネットワークを介してコンテンツ再生装置100に接続されるコンテンツ配信サーバでもよく、DVDドライブなどのメディア再生装置でもよい。もちろん、これらに限るものではない。
 また、コンテンツ送信装置102がDVDライブなどのメディア再生装置の場合、コンテンツ送信装置102はコンテンツ再生装置100に含まれてもよい。
 放送受信アンテナ103は、コンテンツデータを含む放送波を受信するアンテナである。受信した放送波は、コンテンツ受信部108へ送信される。
 なお、コンテンツ視聴システム10において、コンテンツ送信装置102と放送受信アンテナ103は、少なくともどちらか一方が備えられていればよく、必ずしも両方が備えられる必要はない。
 コンテンツ受信部108は、コンテンツ送信装置102からコンテンツデータを受信する。もしくは、放送受信アンテナ103から受信した放送波を復調しコンテンツデータを受信する。
 コンテンツ受信部108は、受信したコンテンツデータの映像部分を映像出力制御部111に送信し、コンテンツデータの音声部分を音声出力制御部110に送信する。なお、コンテンツ受信部108は、映像出力制御部111および音声出力制御部110それぞれが求める入力形式にコンテンツデータの映像部分および音声部分を変換し、それぞれに送信する。
 例えば、受信したコンテンツデータが暗号化されていれば復号し、圧縮されていれば非圧縮形式に変換する。なお、コンテンツ受信部108は、同時に複数のコンテンツデータを受信してもよく、この場合、コンテンツデータごとに前記変換の処理を行う。
 スピーカ装置105は、音声を再生する装置であり、上述のようにSP[1]~SP[n]の複数のスピーカを有している。
 音声出力制御部110は、コンテンツ受信部108が受信したコンテンツの音声をスピーカ装置105に出力する装置である。さらに、視聴者が所望の音響効果で聴き取れるよう、スピーカ装置105が有する各スピーカに対して出力する音声の割り当てや出力特性を制御する。
 コンテンツ受信部108が複数のコンテンツデータを受信した場合は、後述する割当テーブル121を参照して各コンテンツに対して割り当てるスピーカを決定したり、コンテンツごとに音響効果を変えたりする。
 シミュレーション部150は、コンテンツ表示制御部200から、後述する図6に示す音響効果シミュレート要求情報700を受信し、所望の音響効果リスト702に設定された音響効果ごとに、事前設定されたシミュレート範囲内において視聴者に対して指定された音響効果を再現できる範囲があるかをシミュレーション演算により求める処理部である。
 つまり、シミュレーション部150は、視聴者があるコンテンツを視聴する場合、その視聴者が当該コンテンツの音声を所定の音響効果で聴き取り可能な、所定の範囲内における当該視聴者の存在範囲である視聴可能範囲を求める処理部である。
 なお、シミュレーション部150は、本発明のコンテンツ再生装置における視聴可能範囲演算部の一例である。
 以下、シミュレーション部150が行う処理の概要を説明する。
 シミュレーション部150は、シミュレーションに必要な静的な情報を取得する。静的な情報とは、スピーカ装置105が有する複数のスピーカの数、位置、および特性、並びに、コンテンツ視聴システム10が設置されている部屋の形状、各種の寸法、および、壁の材質などである。
 なお、当該部屋の形状等の情報は、本発明のコンテンツ再生装置が視聴可能範囲の演算に用いる、所定の範囲の大きさを示す情報の一例である。
 これら静的な情報は、例えば、コンテンツ視聴システム10が設置される際、または、コンテンツ視聴システム10の起動時などに、オペレータまたは視聴者によりシミュレーション部150に入力され、シミュレーション部150が備える不揮発性記憶媒体(図示せず)に格納される。これにより静的な情報がシミュレーション部150に設定される。
 なお、このとき設定される、部屋の形状および寸法等により、全体のシミュレート範囲が決定される。
 シミュレーション部150は、さらに、シミュレーションに必要な動的な情報を取得する。動的な情報とは、コンテンツ再生装置100が再生するコンテンツから取得される、当該コンテンツの音声の再生において提供可能な1以上の音響効果それぞれの必要チャネル数、および、当該1以上の音響効果の種類の中から視聴者に選択された音響効果の種類などである。また、コンテンツ視聴システム10を同時に利用する視聴者が複数存在する場合、シミュレーション部150は、視聴者の人数および位置、並びに、視聴者ごとのウィンドウに割り当てられたスピーカの個数および位置等を動的な情報として取得する。
 視聴者の数および位置とスピーカとの対応関係を示す情報は、割当テーブル121として音声出力制御部110により保持されている。音声出力制御部110の構成については、図4を用いて後述する。
 例えば、第一視聴者112Aのみが、コンテンツ視聴システム10を利用する場合、シミュレーション部150は、例えば位置算出部107から、視聴者は1人であることを示す情報を取得する。また、シミュレーション部150は、音声出力制御部110に保持された割当テーブル121を参照することで、例えば、スピーカ装置105が有する全てのスピーカを、第一視聴者112Aに対して使用可能なスピーカとして割り当てる。
 また、第一視聴者112Aが視聴するコンテンツが、例えば、モノラル、ステレオ、およびサラウンドのそれぞれでの音声再生が可能な場合、シミュレーション部150は、これら3種類の音響効果を示す情報および必要チャネル数を、当該コンテンツから取得する。
 シミュレーション部150は、これら各種の情報を用い、これら3種類の中の1種類以上の音響効果が再現可能な領域を算出する。例えば、サラウンドでの音声再生に用いる複数のスピーカそれぞれから出力される音声(壁での反射音を含む)の伝達領域および、当該領域内の各位置での音声レベル等を算出することなどにより、第一視聴者112Aが、サラウンド音響の効果を得られる範囲を算出する。
 このようにして得られた、音響効果ごとのシミュレート結果を示す情報は、音声出力制御部110へ送信される。
 なお、このような音場のシミュレーションに関する技術として、例えば、特許第3482055号公報「高精度音線追跡装置および高精度音線追跡方法」(特許文献3)、および、特開2003-122374号公報「サラウンド音響生成方法、その装置およびそのプログラム」(特許文献4)に開示されている。
 音声出力制御部110は、音響効果シミュレート要求情報700の視聴者ID701の値を、後述する図7に示す視聴可能範囲情報800の視聴者ID701に格納する。
 音声出力制御部110はさらに、シミュレーション部150から取得した音響効果ごとの音響効果シミュレート結果のうち、所望の音響効果リスト702に設定された音響効果に対応する音響効果シミュレート結果を視聴可能範囲リスト802に格納する。
 音声出力制御部110は、このようにして生成した視聴可能範囲情報800をコンテンツ表示制御部200へ送信する。
 映像出力制御部111は、コンテンツ受信部108が受信したコンテンツデータの映像部分を加工する装置である。具体的には、コンテンツ受信部108は、当該映像部分に対して解像度やアスペクト比を変更したり、彩度調整などの画像効果を適応したりする。
 映像出力制御部111が加工したコンテンツデータの映像部分はコンテンツ表示制御部200に送信され、ディスプレイ106に表示される。コンテンツ受信部108が複数のコンテンツデータを受信した場合は、コンテンツデータごとに加工する内容を変えてもよい。
 コンテンツ表示制御部200は、ディスプレイ106に表示する内容を制御する装置である。コンテンツ表示制御部200は、映像出力制御部111が加工したコンテンツの映像を表示するためのウィンドウを生成し、ウィンドウ内に前記コンテンツの映像を表示する。さらに、ディスプレイ106に対する視聴者の相対位置などに基づき、視聴者が所望の音響効果を得られる視聴位置に基づく情報をディスプレイ106に表示する。
 つまり、ディスプレイ106には、コンテンツ表示制御部200から出力される1以上のコンテンツの映像および各種の情報が表示される。
 図3は、実施の形態におけるコンテンツ表示制御部200の主要な構成を示す図である。
 図3に示すように、コンテンツ表示制御部200は、視聴ウィンドウ決定部201と、基準視聴範囲決定部202と、ウィンドウ表示可能範囲決定部203と、現在視聴位置決定部204と、表示制御部205とを備える。
 視聴ウィンドウ決定部201は、一人の視聴者とディスプレイ106に表示された1つのウィンドウとを対応付ける。また、複数の視聴者が存在する場合、複数の視聴者と複数のウィンドウとを1対1で対応付ける。以降、視聴ウィンドウ決定部201が視聴者と対応付けたウィンドウを視聴ウィンドウと表記する。
 基準視聴範囲決定部202は、後述する図6に示す音響効果シミュレート要求情報700をシミュレーション部150に送信し、音声出力制御部110から、後述する図7に示す視聴可能範囲情報800を受信する。
 基準視聴範囲決定部202はさらに、受信した視聴可能範囲情報800から視聴者が所望の音響効果を得られる視聴可能範囲を決定する。以降、基準視聴範囲決定部202が決定した視聴範囲を基準視聴範囲と表記する。
 つまり、N個の音響効果に対応するN個の視聴範囲の中から、基準視聴範囲決定部202により、1~N個の視聴範囲が基準視聴範囲と決定される。
 ウィンドウ表示可能範囲決定部203は、基準視聴範囲内に視聴者が位置すると仮定した場合に視聴ウィンドウを表示可能なディスプレイ106上の範囲を決定する。以降、ウィンドウ表示可能範囲決定部203が決定したディスプレイ106上の範囲をウィンドウ表示可能範囲と表記する。
 現在視聴位置決定部204は、位置算出部107が算出した視聴者のディスプレイ106に対する相対位置に基づき、現在の視聴者の位置を決定する。以降、現在視聴位置決定部204が決定した視聴者の位置を現在視聴位置と表記する。
 表示制御部205は、本発明のコンテンツ再生装置における提示制御部の一例である。表示制御部205は、現在視聴位置および基準視聴範囲などに基づき、視聴者が所望の音響効果を得られる視聴可能範囲に基づく情報をディスプレイ106に表示する。また、表示制御部205は、映像出力制御部111が加工した映像をウィンドウ内に表示するなど、ディスプレイ106に表示するウィンドウの表示制御全般を行う。
 図4は、実施の形態における音声出力制御部110の主要な構成を示す図である。
 図4に示すように、音声出力制御部110は、記憶部120と、割当部122と、出力部123とを備える。
 記憶部120は、割当テーブル121を記憶している記憶装置である。
 割当部122は、割当テーブル121を参照し、スピーカ装置105が有する複数のスピーカの中から、例えば視聴者に選択された音響効果に応じて、当該視聴者に割り当てるスピーカを選択する処理部である。なお、割当部122は、後述する図7に示す視聴可能範囲情報800の生成も行う。
 出力部123は、割当部122から受け取る割当結果に基づき、当該視聴者により指定された音響効果に応じた音声を各スピーカに選択的に出力する処理部である。
 図5は、割当テーブル121のデータ構成例を示す図である。
 図5に示すように、割当テーブル121には、視聴者の人数ごとに、それぞれの視聴者に割り当てるスピーカの識別子が登録されている。
 なお、割当テーブル121の“視聴者”欄の“a”および“b”は、それぞれ視聴者に割り振られる識別子である。また、視聴者が複数存在する場合、ディスプレイ106に向かって右側の視聴者から“a”、“b”、・・・の順で識別子が割り当てられる。
 例えば、コンテンツ視聴システム10を利用する視聴者が第一視聴者112Aのみである場合、第一視聴者112Aが、割当テーブル121における“a”であり、SP[1]~SP[n]の全てのスピーカが割り当てられる。
 また、例えば、コンテンツ視聴システム10を利用する視聴者が2人であり、図1に示すように、ディスプレイ106に向かって右から、第一視聴者112A、第二視聴者112Bの順に存在する場合を想定する。この場合、第一視聴者112Aが、割当テーブル121における“a”であり、第二視聴者112Bが、割当テーブル121における“b”である。
 また、この場合、第一視聴者112Aに割り当てられるスピーカはSP[1]~SP[m]であり、第二視聴者112Bに割り当てられるスピーカはSP[m+1]~SP[n]である。なお、nとmとは、n>mの整数であるが、それぞれ具体的な数値には限定されない。例えば、n=20のとき、m=10であってもよく、m=12であってもよい。
 シミュレーション部150は、この割当テーブル121を参照し、各視聴者に割り当てられるスピーカの組み合わせを特定する。さらに特定した組み合わせにおける各スピーカの位置等を音響効果シミュレートに用いる。なお、シミュレーション部150は、割当テーブル121に示されるスピーカの組み合わせによっては、所定の音響効果に対応する視聴可能範囲は存在しない旨の結果を出力する場合もある。
 なお、割当部122およびシミュレーション部150は、割当テーブル121に示される情報をそのまま使用するのではなく、割当テーブル121に示される情報を基に、例えば視聴者の視聴位置に応じて当該視聴者に割り当てるスピーカの個数を増減させてもよい。
 また、図5に示す割当テーブル121のデータ構成は一例であり、視聴者とスピーカ群との組み合わせは他の組み合わせであってもよい。
 例えば、複数の視聴者に向けたそれぞれの音声の干渉を極力なくすように、各視聴者に割り当てるスピーカ群の間に、誰にも割り当てられない1以上のスピーカが存在してもよい。例えば、“a”にSP[1]~SP[m]を割り当てた場合、“b”にSP[m+2]~SP[n]を割り当ててもよい。
 また、本実施の形態では、あるスピーカがいずれかの視聴者に割り当てられた場合、その視聴者がコンテンツの視聴を終えるまでは、その視聴者(つまり、そのコンテンツ)専用のスピーカとして使用される。しかし、例えば、時分割で互いに異なるコンテンツの音声を出力することのできるスピーカであれば、当該スピーカは、複数の視聴者(つまり、複数のコンテンツ)に共用されるスピーカとして使用されてもよい。
 図6は、音響効果シミュレート要求情報700のデータ構成例を示す図である。
 図6に示すように、音響効果シミュレート要求情報700は、視聴者ID701と所望の音響効果リスト702とを有する。
 音響効果シミュレート要求情報700は、後述する図12のS304において、視聴者が、自身が携帯するコントローラを用いて選択した所望の音響効果に基づいて基準視聴範囲決定部202が生成する情報である。
 基準視聴範囲決定部202は、音響効果シミュレート要求情報700をシミュレーション部150に送信する。これにより、基準視聴範囲決定部202は、シミュレーション部150に対して、視聴者ID701が示す視聴者が所望する音響効果(所望の音響効果リスト702に掲載された音響効果)を得られる視聴可能範囲をシミュレートすることを要求する。
 視聴者ID701は、視聴者を識別するためのIDである。本実施の形態では、視聴者が持つコントローラに割り当てられたコントローラIDが設定される。
 所望の音響効果リスト702は、後述する図12のS304において視聴者がコントローラを用いて選択した所望の音響効果のリストである。
 なお、視聴者が所望する音響効果に優先度を付けた場合、所望の音響効果リスト702の第1の音響効果に最も優先度の高い音響効果を設定し、第Nの音響効果に最も優先度の低い音響効果を設定する。このように所望の音響効果リスト702に優先度の順に音響効果を格納することで別途優先度情報を格納する必要がない。
 図7は、視聴可能範囲情報800のデータ構成例を示す図である。図7において、視聴可能範囲情報800は、視聴者ID701と視聴可能範囲リスト802とを含む。
 視聴可能範囲情報800は、音声出力制御部110が、シミュレーション部150による音響効果シミュレーションの結果に基づいて生成する情報である。
 シミュレーション部150は、基準視聴範囲決定部202などから音響効果シミュレート要求情報700を受信すると、事前設定されたシミュレート範囲内に、視聴者ID701が示す視聴者に対し所望の音響効果リスト702に含まれる音響効果を再現できる範囲(視聴可能範囲)をシミュレートする。シミュレーション部150はさらに、その結果を、音響効果シミュレート要求情報700とともに、音声出力制御部110に送信する。音声出力制御部110は、その結果に基づいて、音響効果とその音響効果を得られる範囲を示した座標の組にして視聴可能範囲リスト802に格納する。
 なお、これら組の視聴可能範囲リスト802への格納順は、所望の音響効果リスト702に格納された音響効果の順に合わせられる。格納順がこのように合わせられることにより、視聴可能範囲リスト802の第1の音響効果が最も優先度の高い音響効果となり、第Nの音響効果が最も優先度の低い音響効果となる。つまり、所望の音響効果リスト702に設定された優先度を示す情報を失うことがない。
 視聴可能範囲情報800の視聴者ID701には、音響効果シミュレート要求情報700に含まれる視聴者ID701と同じ値を音声出力制御部110が格納する。
 本実施の形態では、シミュレート範囲は、3次元空間であり、上述のように、オペレータまたは視聴者によりシミュレーション部150に入力された、コンテンツを視聴する部屋の空間全体を構成する各種の寸法等の値により決定される。
 但し、シミュレート範囲は、コンテンツ再生装置100の製造時に予め設定しておいてもよいし、コンテンツを視聴する部屋の空間全体に限らず部屋の一部としてもよい。
 視聴可能範囲リスト802の視聴可能範囲は、シミュレート範囲の3次元空間の底面、つまり、シミュレート範囲の3次元空間と高さが0の平面とが交わる2次元平面上の座標点の組、もしくは円の中心点と半径の組から構成される。
 視聴可能範囲リスト802の視聴可能範囲の座標点を結んだ範囲内、もしくは円の中心点と半径の組で表される円の範囲内が、音響効果を得られる範囲を示す。
 例えば、図7において、視聴者ID701の示す視聴者が、所望の音響効果リスト702に含まれる第1の音響効果を得られる範囲は、(X1座標、Y1座標)から(XN座標、YN座標)までの各座標を結んだ範囲内である。
 また、当該視聴者が、所望の音響効果リスト702に含まれる第Nの音響効果を得られる範囲は、中心点Oで半径Rの円内である。
 視聴可能範囲リスト802の視聴可能範囲を3次元空間の座標点ではなく2次元平面上の座標点で表すことにより、音響効果シミュレート結果が正確に反映されない場合もある。
 しかし、後述する図9に示す視聴位置座標1002と視聴可能範囲リスト802の視聴可能範囲を比較する際の演算処理を簡易化することができる。さらに、視聴者に所望の音響効果を得られる視聴可能範囲を提示する際にも、より視聴者が理解しやすい形式で提示することができる。
 但し、より正確に音響効果シミュレート結果をコンテンツ視聴システム10に反映させるため、座標点の表記形式や視聴者への提示方法などすべてを3次元空間で処理してもよい。この場合、視聴可能範囲リスト802の視聴可能範囲は、3次元空間上の座標点の組もしくは球の中心点と半径の組から構成される。
 この場合、後述する図9に示す視聴位置情報1000の視聴位置座標1002も、3次元空間上の座標点の組もしくは球の中心点と半径の組から構成される。もちろん、視聴位置座標1002と視聴可能範囲リスト802の視聴可能範囲の表現方法は、本実施の形態で挙げた例に限らず、コンテンツ再生装置100ごとに最適な方法を取ってもよい。
 なお、視聴可能範囲リスト802の視聴可能範囲を表すための2次元平面上の原点は、シミュレート範囲の中からシミュレーション部150が自動的に決定する。
 なお、音響効果シミュレートの結果、ある音響効果が得られる視聴可能範囲が存在しなかった場合、視聴可能範囲リスト802に記載しないことにしてもよいし、視聴可能範囲リスト802の視聴可能範囲に原点(0、0)のみを格納してもよい。また、予め定めた、視聴可能範囲が存在しないことを示す他の情報を格納してもよい。つまり、基準視聴範囲決定部202に対し、音響効果が得られる視聴可能範囲が存在しないことを伝達できる方法であればよい。
 図8は、視聴位置計測要求情報900のデータ構成例を示す図である。図8において、視聴位置計測要求情報900は、視聴者ID901を含む。
 視聴位置計測要求情報900は、現在視聴位置決定部204が、視聴者ID901が示す視聴者のディスプレイ106に対する相対位置の演算を位置算出部107に対して要求するために生成し送信する情報である。
 視聴者ID901は、ディスプレイ106に対する相対位置の演算対象となる視聴者の識別子である。本実施の形態では、上述のように、視聴者が持つコントローラに割り当てられたコントローラIDが設定される。
 図9は、視聴位置情報1000のデータ構成例を示す図である。図9において、視聴位置情報1000は、視聴者ID901と視聴位置座標1002とを含む。
 視聴位置情報1000は、位置算出部107が視聴者のディスプレイ106に対する相対位置演算結果に基づき生成する情報である。
 位置算出部107は、現在視聴位置決定部204などから視聴位置計測要求情報900を受信すると、視聴者ID901が示す視聴者のディスプレイ106に対する相対位置を、位置情報取得装置101から得られる値を用いて算出し、その結果を視聴位置座標1002に格納する。
 視聴者ID901には、視聴位置計測要求情報900に含まれる視聴者ID901と同じ値を位置情報取得装置101が格納する。
 視聴位置座標1002には、視聴者の位置を2次元平面上の座標点として表した値が格納される。視聴位置座標1002に示される座標点を含む2次元平面は、音声出力制御部110が視聴可能範囲リスト802の視聴可能範囲を表すために用いる2次元平面と同じ平面を用いる。2次元平面上の原点も同様に同じ原点を用いる。
 これにより、視聴位置座標1002と視聴可能範囲リスト802とが同じ2次元平面上の座標点として表され、両者を比較することが容易になる。
 図10は、基準視聴範囲情報1900のデータ構成例を示す図である。図10において、基準視聴範囲情報1900は、視聴者ID701と基準視聴範囲リスト1902とを含む。
 基準視聴範囲情報1900は、基準視聴範囲決定部202が視聴可能範囲情報800に基づいて生成する情報である。
 基準視聴範囲決定部202は、上述のように音響効果シミュレート要求情報700をシミュレーション部150へ送信し、音響効果シミュレートの結果を含む視聴可能範囲情報800を音声出力制御部110から受信する。
 そして、基準視聴範囲決定部202は受信した視聴可能範囲情報800から基準視聴範囲情報1900を生成する。
 視聴者ID701には、視聴可能範囲情報800に含まれる視聴者ID701と同じ値を基準視聴範囲決定部202が格納する。
 なお、本実施の形態では、基準視聴範囲リスト1902には、基準視聴範囲決定部202が、視聴可能範囲情報800内の視聴可能範囲リスト802に含まれる音響効果と座標リストの組をそのまま格納する。
 例えば、図7に示すように視聴可能範囲リスト802に、第1の音響効果と第1の視聴可能範囲の組から第Nの音響効果と第Nの視聴可能範囲の組までが格納されている場合、それらがそのまま第1の音響効果と第1の基準視聴範囲の組から第Nの音響効果と第Nの基準視聴範囲の組となる。
 なお、基準視聴範囲決定部202が、視聴可能範囲リスト802から基準視聴範囲リスト1902を生成する方法はこれに限らず、その他の方法でもよい。例えば、最も優先度の高い第1の音響効果と第1の視聴可能範囲の組から生成した第1の音響効果と第1の基準視聴範囲の組のみを基準視聴範囲リスト1902に格納してもよい。
 このように、最も優先度の高い第1の音響効果と第1の視聴可能範囲の組のみを基準視聴範囲とすることで、第一視聴者112Aが最も優先度の高い音響効果に対応する基準視聴範囲に基づく情報の提示のみを要望した場合にもコンテンツ再生装置100は対応することができる。
 また、視聴可能範囲リスト802から基準視聴範囲リスト1902を生成する方法はその他にも存在する。例えば、最も優先度の低い第Nの音響効果と第Nの視聴可能範囲の組から第1の音響効果と第1の基準視聴範囲の組を生成し、この組のみを基準視聴範囲リスト1902に格納してもよい。
 このように、最も優先度の低い第Nの音響効果と第Nの視聴可能範囲の組のみを基準視聴範囲とすることで、音響効果が何であるかに係らず視聴ウィンドウで再生されるコンテンツを視聴できる最大限の視聴範囲に関する情報の提示を行うことができる。つまり、第一視聴者112Aがこのような情報の提示を要望した場合にもコンテンツ再生装置100は対応することができる。
 図11は、ウィンドウ表示可能範囲情報2000のデータ構成例を示す図である。図11において、ウィンドウ表示可能範囲情報2000は、視聴者ID701とウィンドウ表示可能範囲リスト2002とを含む。
 ウィンドウ表示可能範囲情報2000は、ウィンドウ表示可能範囲決定部203が基準視聴範囲情報1900に基づいて生成する情報である。
 視聴者ID701には、基準視聴範囲情報1900に含まれる視聴者ID701と同じ値をウィンドウ表示可能範囲決定部203が格納する。
 ウィンドウ表示可能範囲リスト2002には、ウィンドウ表示可能範囲決定部203が、基準視聴範囲情報1900の基準視聴範囲リスト1902に含まれるそれぞれの基準視聴範囲から生成したウィンドウ表示可能範囲を、対応する音響効果と共に格納する。
 つまり、ウィンドウ表示可能範囲決定部203は、第1の基準視聴範囲から生成したウィンドウ表示可能範囲を第1のウィンドウ表示可能範囲として第1の音響効果と共に格納し、第2の基準視聴範囲から生成したウィンドウ表示可能範囲を第2のウィンドウ表示可能範囲として第2の音響効果と共に格納する。ウィンドウ表示可能範囲決定部203はさらに、第Nの基準視聴範囲に対応する第Nのウィンドウ表示可能範囲まで生成しウィンドウ表示可能範囲リスト2002に格納する。
 ここで、ウィンドウ表示可能範囲決定部203は、まず、基準視聴範囲リスト1902に含まれる1以上の基準視聴範囲の中から対象基準視聴範囲を選定する。さらに、対象基準視聴範囲内のある座標点上に視聴者ID701が示す視聴者が位置すると仮定し、この座標点上の視聴者に対応する視聴ウィンドウを表示すべきディスプレイ106上の範囲を決定する。
 ウィンドウ表示可能範囲決定部203は、この動作を対象基準視聴範囲内のすべての座標点に対して繰り返し、対象基準視聴範囲内の座標点ごとに決定されたディスプレイ106上の範囲をすべて合わせた範囲をウィンドウ表示可能範囲とする。
 その後、他の基準視聴範囲を対象基準視聴範囲として選定し同様の処理を行う。これにより、図11に示すように、第1の基準視聴範囲から第Nの基準視聴範囲までに対応する、第1のウィンドウ表示可能範囲から第Nのウィンドウ表示可能範囲までを生成する。
 なお、ある座標点上の視聴者に対して視聴ウィンドウを表示すべきディスプレイ106上の範囲とは、例えば、当該座標点の視聴者に対して正面に視聴ウィンドウが表示されるディスプレイ106上の範囲である。
 具体的には、ウィンドウ表示可能範囲決定部203は、ディスプレイ106の表示範囲を高さ方向の軸とそれに垂直な横軸とで表される2次元平面上で定義する。また、視聴者の目線の高さと一致する横軸上で、視聴者が位置すると仮定した座標点とディスプレイ106の距離とが最短となる点を求める。さらに求めた点が視聴ウィンドウの重心となるような視聴ウィンドウの表示範囲を、当該視聴者に対応するウィンドウ表示可能範囲として決定する。
 なお、視聴者の目線の高さは、予め、「床から160cm」などの値が設定されていてもよく、視聴者ごとに異なる値が用いられてもよい。
 また、ある座標点上の視聴者に対して視聴ウィンドウを表示すべきディスプレイ106上の範囲はこれに限らない。その他にも例えば、視聴者の視野の広さに応じて決定してもよい。また、視聴者がコントローラを用いてウィンドウ表示可能範囲決定部203に対して任意の位置を設定してもよい。
 次に、実施の形態において、第一視聴者112Aがコンテンツの視聴開始を要求し、コンテンツ再生装置100が第一視聴者112Aの所望する音響効果を得られる視聴範囲に基づいた情報を提示し、提示された情報に従って第一視聴者112Aが所望の音響効果を得られる視聴位置に移動してコンテンツの視聴を開始するまでの動作について図12を用いて説明する。
 まず、第一視聴者112Aが第一コントローラ104aのコンテンツ表示ボタンを押下し、コンテンツの視聴開始を要求する。赤外線受光部109は、当該ボタンの押下を検出する(S301)。同時に、コンテンツ受信部108がコンテンツの受信を開始し、映像出力制御部111が、受信したコンテンツの映像部分を加工して表示制御部205に送信する。さらに、音声出力制御部110が、受信したコンテンツの音声部分を初期設定された方法で出力するようスピーカ装置105を制御する。
 次に、表示制御部205がコンテンツを表示するためのウィンドウを初期設定された位置でディスプレイ106に表示する(S302)。さらに、表示制御部205は、表示したウィンドウに固有のウィンドウIDを割り当てる。このウィンドウIDはディスプレイ106に表示されたウィンドウ間で固有とする。
 なお、ウィンドウを表示する初期位置は、例えば、コンテンツ再生装置100利用前に、第一視聴者112Aが第一コントローラ104aを用いて表示制御部205に設定している。但し、コンテンツ表示制御部200の製造時に当該初期位置が設定されていてもよい。典型的には、ウィンドウが視聴者の正面に表示される位置が当該ウィンドウの初期位置として設定される。
 次に、視聴ウィンドウ決定部201が、第一視聴者112AとS302で表示したウィンドウとを対応付け、対応付け結果を保持する(S303)。その結果、ウィンドウに表示するコンテンツと第一視聴者112Aも対応付けられる。
 本実施の形態では、視聴ウィンドウ決定部201は、第一視聴者112Aが持つ第一コントローラ104aに割り当てられたコントローラIDと、S302でウィンドウに割り当てたウィンドウIDとを関連付けることで、第一視聴者112AとS302で表示したウィンドウを対応付ける。視聴ウィンドウ決定部201はさらに、当該コントローラIDと当該ウィンドウIDの対応付け情報を保持する。
 S303以降では、S302で表示したウィンドウに対する操作は、当該ウィンドウに対応付けられた第一コントローラ104aからのみ受け付ける。上で述べたように、S303で視聴ウィンドウ決定部201が視聴者に対応付けたウィンドウを視聴ウィンドウと表記する。
 なお、ある視聴ウィンドウが視聴者の操作などにより閉じられたとき、視聴ウィンドウ決定部201は、閉じられた視聴ウィンドウのウィンドウIDと、そのウィンドウIDに対応付けられていたコントローラIDとの対応付けを解除する。
 次に、第一視聴者112Aが第一コントローラ104aを用いて視聴ウィンドウで視聴するコンテンツに対する所望の音響効果を選択する。基準視聴範囲決定部202は、第一視聴者112Aが選択した音響効果の種類を示す情報である音響効果情報を受信する(S304)。
 なお、選択可能な音響効果の数が複数ある場合、第一視聴者112Aは1つ以上の音響効果を選択可能である。さらに、選択可能な音響効果の数が複数ある場合、第一視聴者112Aは各音響効果に対して優先度を設定可能である。
 また、第一視聴者112Aが選択可能な音響効果は、S303で第一視聴者112Aに対応付けられたコンテンツに応じて変わる。例えば、あるコンテンツを再生する場合、モノラル音響とステレオ音響、サラウンド音響が選択可能であるが、他のコンテンツを再生する場合、モノラル音響とステレオ音響とが選択可能となる。
 なお、第一視聴者112Aが選択可能な音響効果は、コンテンツ視聴システム10を利用中の視聴者の数に応じて変えてもよい。例えば、視聴者が第一視聴者112Aの1人である場合は、モノラル音響とステレオ音響が選択可能であるが、第一視聴者112Aに加え第二視聴者112Bがコンテンツ視聴システム10を利用中である場合、モノラル音響とステレオ音響に加え、第一視聴者112Aが視聴するコンテンツの音声が第二視聴者112Bに聴こえないようにする音響効果などが選択可能となってもよい。また、この場合、第二視聴者112Bは、第二視聴者112Bが視聴中のコンテンツの音声が第一視聴者112Aに聴こえないようにする音響効果が選択可能であってもよい。
 本実施の形態では、第一視聴者112Aは、所望の音響効果として優先度の高い順に、サラウンド音響、ステレオ音響、モノラル音響の3つを選択するものとする。
 なお、S304で第一視聴者112Aが第一コントローラ104aを用いて、視聴ウィンドウに表示されるコンテンツに対する所望の音響効果を選択する代わりに、コンテンツ再生装置100が、自動的にコンテンツに対する所望の音響効果と音響効果ごとの優先度とを決定してもよい。
 次に、基準視聴範囲決定部202が、S304で第一視聴者112Aが選択した音響効果情報に基づき音響効果シミュレート要求情報700を生成し、シミュレーション部150に送信する(S305)。
 ここで、基準視聴範囲決定部202は、シミュレーション部150に送信する音響効果シミュレート要求情報700の視聴者ID701には、第一視聴者112Aが持つ第一コントローラ104aのコントローラIDを設定する。また、所望の音響効果リスト702には、第一視聴者112Aが設定した優先度に基づき、第1の音響効果としてサラウンド音響、第2の音響効果としてステレオ音響、第3の音響効果としてモノラル音響を設定する。
 なお、S305において、基準視聴範囲決定部202は、音響効果シミュレート要求情報700の所望の音響効果リスト702に、第一視聴者112Aが設定した最も優先度の高い音響効果のみを第1の音響効果として設定してもよい。この場合、シミュレーション部150は、最も優先度の高い音響効果以外の音響効果に関する音響効果シミュレートを行う必要がなく、音声出力制御部110の処理時間を短縮できる。
 次に、シミュレーション部150が、基準視聴範囲決定部202から受信した音響効果シミュレート要求情報700に基づいて第一視聴者112Aが所望の音響効果を得られる視聴範囲をシミュレートする(S306)。シミュレーション部150はさらに、シミュレート結果を音声出力制御部110に送信する。音声出力制御部110は受信したシミュレート結果に基づき視聴可能範囲情報800を生成して基準視聴範囲決定部202に送信する。
 次に、基準視聴範囲決定部202が音声出力制御部110から視聴可能範囲情報800を受信する。さらに、基準視聴範囲決定部202と、ウィンドウ表示可能範囲決定部203と、現在視聴位置決定部204と、表示制御部205とが連携して、視聴可能範囲情報800に基づいて第一視聴者112Aが所望の音響効果を得られる視聴可能範囲に基づく情報を第一視聴者112Aに提示する(S307)。
 第一視聴者112Aは、提示された情報に従って所望の音響効果を得られる視聴位置に移動する。
 最後に、音声出力制御部110が第一視聴者112Aに対して、第一視聴者112Aが所望する音響効果を出力するようスピーカ装置105を制御する(S308)。
 このとき、音声出力制御部110は、基準視聴範囲決定部202から基準視聴範囲情報1900を取得し、表示制御部205から第一視聴者112Aの現在視聴位置の座標を取得する。そして、第一視聴者112Aの現在視聴位置が、基準視聴範囲リスト1902の第1の基準視聴範囲から第Nの基準視聴範囲までのいずれに収まっているか順に確認する。この確認の結果、最初に収まっている基準視聴範囲に対応した音響効果を出力するようスピーカ装置105を制御する。
 次に、図12のS306における動作の詳細を、図13を用いて説明する。
 まず、シミュレーション部150が基準視聴範囲決定部202から音響効果シミュレート要求情報700を受信する(S401)。
 次に、シミュレーション部150が、視聴ウィンドウ決定部201が保持する、第一視聴者112Aとウィンドウとの対応付け情報を取得し、ウィンドウに対応付け済みのコントローラIDのリストを取得する(S402)。
 次に、シミュレーション部150が、第一視聴者112A以外の視聴者が存在するか判断する(S403)。ここで、本実施の形態においては、視聴者を示す視聴者IDとして当該視聴者が携帯するコントローラのコントローラIDが用いられている。つまり、S402で取得された、ウィンドウに対応付け済みのコントローラIDは、コンテンツ視聴システム10を利用中の視聴者を示す。
 また、第一視聴者112Aを示すコントローラIDは、S401で受信した音響効果シミュレート要求情報700の視聴者ID701に格納されている。従って、S403においてシミュレーション部150は、S402で取得したウィンドウに対応付け済みのコントローラIDのリストの中に、当該視聴者ID701に格納された第一視聴者112Aを示すコントローラID以外の値が存在するか確認する。
 この確認の結果、第一視聴者112Aを示すコントローラID以外の値が存在した場合、シミュレーション部150は、第一視聴者112A以外の視聴者(以下、「他の視聴者」という。)が存在すると判断し(S403でYES)、第一視聴者112Aを示すコントローラID以外の値が存在しない場合、シミュレーション部150は、他の視聴者が存在しないと判断する(S403でNO)。
 S403において、他の視聴者が存在すると判断した場合(S403でYES)、シミュレーション部150は、第一視聴者112Aおよび他の視聴者の現在視聴位置を取得する(S404)。
 そのためにまず、シミュレーション部150は、第一視聴者112Aを示すコントローラIDを視聴者ID901に格納した視聴位置計測要求情報900を生成して位置算出部107へ送信する。
 シミュレーション部150はさらに、S402で取得したウィンドウに対応付け済みのコントローラIDのリストの中から、他の視聴者を示すコントローラIDを1つ選択し、このコントローラIDを視聴者ID901に格納した視聴位置計測要求情報900を生成して位置算出部107へ送信する。
 なお、1つの視聴位置計測要求情報900に、第一視聴者112Aを示すコントローラIDと、他の視聴者を示すコントローラIDとを含ませてもよい。
 これら視聴位置計測要求情報900を受信した位置算出部107は、第一視聴者112Aの視聴位置を算出し、それぞれの結果を視聴位置情報1000に格納してシミュレーション部150に送信する。さらに、他の視聴者についても視聴位置を算出し、その結果を視聴位置情報1000に格納しシミュレーション部150に送信する。
 これら視聴位置情報1000を受信した音声出力制御部110は、これらの視聴位置座標1002から第一視聴者112Aおよび他の視聴者の現在視聴位置を取得する。
 なお、シミュレーション部150は、S403において、第一視聴者112A以外の視聴者が存在しないと判断した場合(S403でNO)、下記のシミュレート処理を実行する。
 シミュレーション部150は、S401で受信した音響効果シミュレート要求情報700の所望の音響効果リスト702に設定された音響効果ごとに、事前設定されたシミュレート範囲内において視聴者ID701が示す視聴者、つまり、第一視聴者112Aに対して、指定された音響効果を再現できる範囲があるかシミュレートする(S405)。
 本実施の形態では、コンテンツを視聴する部屋の空間全体において第一視聴者112Aに対して、サラウンド音響効果、ステレオ音響効果、モノラル音響効果それぞれについて再現できる範囲があるかシミュレートする。
 なお、このシミュレーションには、上述のように、静的な情報である、コンテンツ視聴システム10が設置されている部屋の形状等、および、動的な情報である第一視聴者112Aが選択した音響効果の種類(サラウンド音響効果等)が用いられる。
 ここで、コンテンツ視聴システム10を利用する視聴者として第一視聴者112Aおよび他の視聴者が存在する場合、シミュレーション部150は、S404で取得した第一視聴者112Aおよび他の視聴者の現在視聴位置を、音響効果シミュレーションのパラメータとして利用する。
 具体的には、シミュレーション部150は、第一視聴者112Aおよび他の視聴者の視聴位置から、第一視聴者112Aが、他の視聴者との関係において、ディスプレイ106に向かって右側か左側かを判断する。さらに、第一視聴者112Aが右側と判断した場合、割当テーブル121(図5参照)から、視聴者“a”に割り当てられるスピーカの個数および位置を特定する。また第一視聴者112Aが左側と判断した場合、割当テーブル121から、視聴者“b”に割り当てられるスピーカの個数および位置を特定する。
 シミュレーション部150は、このように特定した、第一視聴者112Aに割り当てられるスピーカの個数および位置を、第一視聴者112Aについての音響効果シミュレート(S405)に用いる。
 なお、シミュレーション部150は、音響効果シミュレートを簡単にするため、例えば、第一視聴者112Aについての音響効果シミュレートを行う場合、他の視聴者の視聴位置およびその周辺範囲を音響効果シミュレート対象の範囲から除外してもよい。また、シミュレーション部150は、音響効果シミュレート対象の範囲を第一視聴者112Aの周辺範囲に限定してもよい。このようにシミュレート対象の範囲を狭めることで、シミュレーション部150における演算処理の効率が向上する。
 次に、シミュレーション部150は、音声出力制御部110にシミュレート結果を送信する。音声出力制御部110は、このシミュレート結果に基づき視聴可能範囲情報800を生成し、基準視聴範囲決定部202へ送信する(S406)。
 本実施の形態では、S401で受信した音響効果シミュレート要求情報700の所望の音響効果リスト702に格納された音響効果の順序に従い、視聴可能範囲情報800の視聴可能範囲リスト802には、第1の音響効果としてサラウンド音響を示す情報、第2の音響効果としてステレオ音響を示す情報、第3の音響効果としてモノラル音響を示す情報を格納する。
 視聴可能範囲情報800の視聴者ID701には、S401で受信した音響効果シミュレート要求情報700の視聴者IDと同じ値、つまり第一視聴者112Aが持つ第一コントローラ104aのコントローラIDを格納する。
 次に、図12のS307における動作の詳細を、図14を用いて説明する。
 まず、基準視聴範囲決定部202が音声出力制御部110から視聴可能範囲情報800を受信する(S501)。
 次に、基準視聴範囲決定部202が、S501で受信した視聴可能範囲情報800の視聴可能範囲リスト802を参照し、視聴可能範囲が存在するか否か判断する(S502)。
 S502において視聴可能範囲が存在しないと判断した場合(S502でNO)、表示制御部205が、第一視聴者112Aに対し視聴可能範囲が存在しないことを提示する(S510)。
 本実施の形態では、視聴可能範囲が存在しないことを表示制御部205がディスプレイ106に文字や画像で表示して提示する。しかし、その他にも例えば、表示制御部205の指示により、音声出力制御部110がスピーカ装置105を用いて通知音を鳴らすなど音で提示してもよい。また、例えば、表示制御部205の指示により、コンテンツ再生装置100に有線または無線で接続された照明装置(図示せず)を用いて照明を点滅させるなど照明で提示してもよい。
 S502において、基準視聴範囲決定部202が、視聴可能範囲が存在すると判断した場合(S502でYES)、基準視聴範囲決定部202は、視聴可能範囲情報800に含まれる視聴可能範囲リスト802から基準視聴範囲を決定し、基準視聴範囲情報1900を生成する(S503)。
 本実施の形態では、基準視聴範囲情報1900の視聴者ID701には第一コントローラ104aのコントローラIDを格納し、基準視聴範囲リスト1902には、第1の音響効果にサラウンド音響を示す情報、第1の基準視聴範囲に第1の視聴可能範囲、第2の音響効果にステレオ音響を示す情報、第2の基準視聴範囲に第2の視聴可能範囲、第3の音響効果にモノラル音響を示す情報、第3の基準視聴範囲に第3の視聴可能範囲を格納する。
 次に、現在視聴位置決定部204が、位置算出部107に視聴位置計測要求情報900を送信して第一視聴者112Aのディスプレイ106に対する相対位置の演算を要求する。
 現在視聴位置決定部204は、その演算結果を視聴位置情報1000として受信し、受信した視聴位置情報1000に基づき第一視聴者112Aの現在視聴位置を決定する(S504)。
 なお、S404において、第一視聴者112Aの現在視聴位置を取得している場合、S504の処理は省略される。
 本実施の形態では、現在視聴位置決定部204は、受信した視聴位置情報1000に含まれる視聴位置座標1002を第一視聴者112Aの現在視聴位置とする。但し、視聴位置座標1002の誤差を考慮し、視聴位置座標1002が示す位置を含めた一定の範囲を第一視聴者112Aの現在視聴位置と決定してもよい。
 現在視聴位置決定部204が、視聴位置計測要求情報900の視聴者ID901に格納する値は、S501で受信した視聴可能範囲情報800の視聴者ID701に格納された値とすればよい。
 次に、表示制御部205が、S503で基準視聴範囲決定部202が生成した基準視聴範囲情報1900の基準視聴範囲リスト1902の第1の基準視聴範囲と、S504で決定した第一視聴者112Aの現在視聴位置とを比較する。表示制御部205は、この比較により、基準視聴範囲内に第一視聴者112Aの現在視聴位置が収まっているか否か判断する(S505)。
 S505において、第1の基準視聴範囲内に第一視聴者112Aの現在視聴位置が完全に収まっていれば(S505でYES)、表示制御部205が、所望の音響効果が得られる視聴可能範囲内に位置していることを第一視聴者112Aに対し提示する(S511)。
 本実施の形態では、第一視聴者112Aが所望の音響効果が得られる視聴可能範囲内に位置していることを表示制御部205がディスプレイ106に文字や画像で表示して提示する。しかし、その他にも例えば、表示制御部205の指示により、音声出力制御部110がスピーカ装置105を用いて通知音を鳴らすなど音で提示してもよいし、表示制御部205の指示により、図示しない照明装置を用いて照明を点滅させるなど照明で提示してもよい。
 なお、基準視聴範囲内に第一視聴者112Aの現在視聴位置が一部でも収まっている場合にS511が実行されてもよい。この場合、前記基準視聴範囲内に第一視聴者112Aの現在視聴位置が全く収まっていない場合のみS506が実行される。
 本実施の形態では、S505において、基準視聴範囲内に第一視聴者112Aの現在視聴位置が一部でも収まっていない場合(S505でNO)、表示制御部205は、第一視聴者112Aを所望の音響効果が得られる視聴範囲内へ誘導する移動指示情報を、第一視聴者112Aに対し提示する(S506)。
 この移動指示情報は、本実施の形態においては、後述する図16、図17、および図19に示す移動指示文字1102と、移動指示画像1103と、移動指示俯瞰図1104から構成される。
 第一視聴者112Aは、移動指示情報に従うことで所望の音響効果を得られる視聴位置へ移動することができる。但し、移動指示情報はこれらに限らず、表示制御部205の指示により、図示しない照明装置に当該視聴可能範囲を照明で照らさせるなどしても同様の効果を得られる。
 次に、ウィンドウ表示可能範囲決定部203が、S503で基準視聴範囲決定部202が生成した基準視聴範囲情報1900に基づきウィンドウ表示可能範囲を決定し、ウィンドウ表示可能範囲情報2000を生成する(S507)。
 本実施の形態では、サラウンド音響効果で視聴可能な範囲である第1の基準視聴範囲に対するウィンドウ表示可能範囲が第1のウィンドウ表示可能範囲となる。ステレオ音響効果で視聴可能な範囲である第2の基準視聴範囲に対するウィンドウ表示可能範囲が第2のウィンドウ表示可能範囲となる。モノラル音響効果で視聴可能な範囲である第3の基準視聴範囲に対するウィンドウ表示可能範囲が第3のウィンドウ表示可能範囲となる。
 次に、表示制御部205が、S507でウィンドウ表示可能範囲決定部203が生成したウィンドウ表示可能範囲情報2000に基づき、ウィンドウ表示可能範囲をディスプレイ106に表示する(S508)。
 但し、ウィンドウ表示可能範囲リスト2002の第1のウィンドウ表示可能範囲が最も前面に表示されるようにし、次に第2のウィンドウ表示可能範囲が前面に表示されるようにし、第3のウィンドウ表示可能範囲が最も背面に表示されるようにする。
 ディスプレイ106に表示されたウィンドウ表示可能範囲の例は、図16、図17、および図19を用いて後述する。
 次に、第一視聴者112Aが、S506で提示された移動指示情報とS507でディスプレイ106に表示したウィンドウ表示可能範囲に従って移動すると、表示制御部205は、視聴ウィンドウが、移動する第一視聴者112Aに追従するよう視聴ウィンドウの表示位置を変更する(S509)。
 第一視聴者112Aは、自身に追従する視聴ウィンドウがS507でディスプレイ106に表示されたウィンドウ表示可能範囲内に収まるよう移動することで、第一視聴者112Aが所望する音響効果を得られる視聴位置に移動することができる。
 このように、表示制御部205は、視聴ウィンドウが、移動する第一視聴者112Aに対して常に正面に表示されるよう視聴ウィンドウの表示位置を変更する。
 具体的には、表示制御部205は、ディスプレイ106を高さ軸とそれに垂直な横軸で表される2次元平面と定義した場合の、第一視聴者112Aの目線の高さと一致する横軸上で、第一視聴者112Aとディスプレイ106との間の距離とが最短となる点が、視聴ウィンドウの重心となるよう視聴ウィンドウを表示する。これにより、第一視聴者112Aに対して正面に視聴ウィンドウが表示される。
 なお、表示制御部205は、S509のタイミングに限らず、また第一視聴者112Aだけに限らず、すべての視聴者について視聴位置が変わっていないか定期的に確認する。その確認の結果、ある視聴者の視聴位置が変わった場合、表示制御部205はさらに、当該視聴者に対応する視聴ウィンドウが当該視聴者の正面に位置するよう視聴ウィンドウの表示位置を変更する。
 そこで表示制御部205は、それぞれの視聴者が移動したことを検知するため、S303(図12参照)において視聴ウィンドウに対応付けられたすべての視聴者に対し、定期的な間隔で、視聴位置を位置算出部107から取得する。
 表示制御部205はさらに、ある視聴者について、位置算出部107から取得した最新の視聴位置と、その1つ前に取得した視聴位置とを比較し、その差が事前に設定した閾値以上である場合、当該視聴者が移動したと判断する。
 視聴位置の比較に用いる閾値と位置算出部107から視聴位置を取得する間隔とは、位置算出部107の計測精度などを考慮してコンテンツ再生装置100の製造時に表示制御部205に設定してもよいし、第一視聴者112Aが第一コントローラ104aを用いて表示制御部205に設定してもよい。
 表示制御部205は、位置算出部107からそれぞれの視聴者の視聴位置を取得するため次の手順を踏む。まず、表示制御部205が、視聴ウィンドウ決定部201から複数のウィンドウそれぞれに対応付け済みのコントローラIDのリストを取得する。次に、表示制御部205は、取得したリスト内のコントローラIDを1つ選択し、これを視聴者ID901に格納した視聴位置計測要求情報900を表示制御部205が生成し、位置算出部107へ送信する。
 次に、この視聴位置計測要求情報900を受信した位置算出部107は、指定されたコントローラIDに対応する視聴者の視聴位置を算出し、その結果を視聴位置情報1000に格納して表示制御部205に送信する。
 この視聴位置情報1000を受信した表示制御部205は、指定したコントローラIDに対応する視聴者の視聴位置を、視聴位置座標1002から取得する。以上を、複数のウィンドウそれぞれに対応付け済みのコントローラIDのリストに記載のすべてのコントローラIDについて繰り返す。
 なお、S509において第一視聴者112Aが移動した後、表示制御部205が自動的に視聴ウィンドウの表示位置を変更しなくてもよい。例えば、第一視聴者112Aが第一コントローラ104aを用いて、視聴ウィンドウを表示すべきディスプレイ106上の位置を表示制御部205へ指定し、表示制御部205が第一視聴者112Aに指定された位置へ視聴ウィンドウを移動しても同様の効果が得られる。
 なお、S509において表示制御部205は、ウィンドウ表示可能範囲外に視聴ウィンドウが移動しないよう制御してもよい。これにより、第一視聴者112Aが所望の音響効果を得られる位置を越えて移動した場合でも視聴ウィンドウが移動することはない。これにより、第一視聴者112Aは視聴ウィンドウが移動する範囲によっても所望の音響効果を得られる視聴範囲を知ることができる。
 さらに、第一視聴者112Aの移動範囲を事実上制限することにより、第一視聴者112Aに対する音響効果によって第二視聴者112Bなど他の視聴者が得られている音響効果を妨げることがない。
 なお、移動指示情報およびウィンドウ表示可能範囲などの、コンテンツ表示制御部200が、第一視聴者112Aを所望の音響効果を得られる視聴位置へ誘導するために第一視聴者112Aに対して提示した情報は、S509を実行した後、または、S308を実行した後に自動的に提示を終えてもよい。
 また、第一視聴者112Aが第一コントローラ104aを用いて提示の終了をコンテンツ表示制御部200へ指示してからこの提示を終えてもよい。これは、図14に示す動作で提示した情報に限らず、他の図で示す動作で提示した情報に関しても同様である。
 図12のS307における動作は、図14に示す各処理ステップではなく、図15に示す各処理ステップによって構成されてもよい。図15は、図14のS508とS509とを、S601に置き換えたものである。
 以下に、S601について説明する。なお、図15におけるS601以外の処理は、図14における同じ符号を用いた処理と同じであるため説明は省略する。
 S507の実行後、表示制御部205は、S507でウィンドウ表示可能範囲決定部203が生成したウィンドウ表示可能範囲情報2000に基づき、ウィンドウ表示可能範囲リスト2002の第1のウィンドウ表示可能範囲内に第一視聴者112Aに対応する視聴ウィンドウの少なくとも一部が表示されるように、視聴ウィンドウをディスプレイ106に表示する(S601)。
 具体的には、第1のウィンドウ表示可能範囲内に当該視聴ウィンドウの重心が収まるよう視聴ウィンドウをディスプレイ106に表示する。
 第一視聴者112Aは、S506で提示された移動指示情報を参考に、S601でディスプレイ106に表示された視聴ウィンドウが正面に見える位置へ移動する。結果、第一視聴者112Aは、所望の音響効果が得られる視聴位置へ移動する。
 図16は、表示制御部205が、図14のS506でディスプレイ106に表示する移動指示情報と、図14のS508でディスプレイ106に表示するウィンドウ表示可能範囲1105の例を示す図である。
 第一視聴ウィンドウ1101は、第一視聴者112Aに対応付けられた視聴ウィンドウである。移動指示情報は、移動指示文字1102と、移動指示画像1103と、移動指示俯瞰図1104とから構成される。
 移動指示文字1102は、第一視聴者112Aが所望する音響効果、具体的には第1の音響効果であるサラウンド音響効果を得られる視聴位置へ移動する方向を指示する文字列を提示する。また、図示するように、現在、第一視聴者112Aが得られている音響効果に関する情報や、第一視聴者112Aが所望する音響効果に関する情報を提示してもよい。
 移動指示画像1103は、第一視聴者112Aが所望する音響効果を得られる視聴位置へ移動する方向を指示する画像であり、例えば図16に示すように矢印である。
 移動指示俯瞰図1104は、第一視聴者112Aが所望する音響効果を得られる視聴位置へ移動する方向を指示する画像であり、特にコンテンツを視聴する部屋の俯瞰図を用いる点に特徴を有する。
 図16において、移動指示俯瞰図1104は、コンテンツを視聴する部屋を上から見下ろした図であり、同図内の上部が、ディスプレイ106が配置された位置にあたる。
 移動指示俯瞰図1104には、現在の第一視聴者112Aの位置を示す現在視聴位置1104Aと、第一視聴者112Aが所望の音響効果を得るために移動すべき視聴位置を示す移動先視聴位置1104Bとが示される。
 図16において、ウィンドウ表示可能範囲1105は、第1のウィンドウ表示可能範囲であるサラウンド再生可能範囲1105Aと、第2のウィンドウ表示可能範囲であるステレオ再生可能範囲1105Bと、第3のウィンドウ表示可能範囲であるモノラル再生可能範囲1105Cとから構成される。
 表示制御部205は、図示するようにウィンドウ表示可能範囲1105を、楕円形など、第一視聴者112Aが提示内容を理解しやすい形に整形してからディスプレイ106に表示してもよい。さらに、表示制御部205は、基準視聴範囲内に第一視聴者112Aが位置したときに得られる音響効果に関する情報を、ウィンドウ表示可能範囲1105と共に文字または画像で提示してもよい。
 例えば、サラウンド再生可能範囲1105Aの表示に重なるよう文字列「サラウンド再生可能範囲」をディスプレイ106に表示する。さらに、表示制御部205は、視聴者が認識しやすいようウィンドウ表示可能範囲ごとにディスプレイ106に表示する色や形を変えてもよい。例えば、表示制御部205は第1のウィンドウ表示可能範囲を楕円形の赤色で表示し、第2のウィンドウ表示可能範囲を長方形の青色で表示してもよい。
 図17は、表示制御部205が、図14のS506でディスプレイ106に表示する移動指示情報と、図14のS508でディスプレイ106に表示するウィンドウ表示可能範囲1105の別の例を示す図である。
 図17に示すディスプレイ106の表示内容は、図16に示すディスプレイ106の表示内容と比べると、第二視聴者112Bに対応付けられた第二視聴ウィンドウ1201が追加されている。
 例えば、第一視聴者112Aが、コンテンツを視聴中に、第二視聴者112Bが、ディスプレイ106に向かって左から、ディスプレイ106の前方に現れた場合を想定する。
 このとき、シミュレーション部150は第二視聴者112Bへ再現している音響効果が妨げられることのないよう、第一視聴者112Aに対する音響効果シミュレートを行う。
 具体的には、シミュレーション部150は、割当テーブル121(図5参照)を参照し、第一視聴者112Aを視聴者“a”、第二視聴者112Bを視聴者“b”と決定する。シミュレーション部150はさらに、割当テーブル121に示される“a”に対応するスピーカの個数および位置等を用いて第一視聴者112Aについての音響効果シミュレートを実行する。
 その結果として、ウィンドウ表示可能範囲1105は図16と比較して、狭くなっており、さらに第二視聴ウィンドウ1201から離れた、ディスプレイ106の右側に片寄っていることがわかる。
 次に、実施の形態において、図12に示される動作の後、第一視聴者112Aがコンテンツ視聴中に移動した場合のコンテンツ再生装置100の動作について図18を用いて説明する。
 まず、表示制御部205は、第一視聴者112Aの視聴位置が変化したか否かを判断する(S1501)。なお、図14のS509における説明で述べたように、表示制御部205は、すべての視聴者に対して視聴位置が変わっていないか定期的に確認しており、S509の確認動作とS1501の確認動作とは共通の動作である。
 視聴位置が変化していない場合(S1501でNO)、その後も継続して定期的に第一視聴者112Aの視聴位置が変化していないか確認する。視聴位置が変化した場合(S1501でYES)、コンテンツ再生装置100は、第一視聴者112Aが所望の音響効果を得られる視聴可能範囲に基づく情報を第一視聴者112Aに提示する(S307)。
 例えば、部屋のおよそ中央に立っており、サラウンド音響効果を得ていた第一視聴者112Aが、部屋の右側の壁の近くまで移動した場合、図16に示すような、移動指示文字1102およびウィンドウ表示可能範囲1105等が、ディスプレイ106に表示される。
 なお、例えばコンテンツ表示制御部200が、第一視聴者112Aについて先に求められている音響効果シミュレート結果(図12のS306の結果)を記憶している。コンテンツ表示制御部200は、記憶している当該音響効果シミュレート結果を用いて上記の表示制御を実行する。
 また、コンテンツ表示制御部200は、先の音響効果シミュレート結果を使用しなくてもよい。例えば、コンテンツ表示制御部200は、シミュレーション部150等により再度実行された音響効果シミュレートに係る処理(図12におけるS305およびS306)の結果を使用し、上記の表示制御を行ってもよい。
 また、第一視聴者112Aの視聴位置が変化した場合に、視聴範囲に基づく情報の表示(S307)を実行するか否かは、例えば、第一視聴者112Aが第一コントローラ104aを用いてコンテンツ再生装置100に設定可能であってもよい。
 なお、図18における、視聴範囲に基づく情報の表示(S307)で、第一視聴者112Aに提示した移動指示情報やウィンドウ表示可能範囲は、例えば第一視聴者112Aの移動を終え静止したタイミングで提示を終える。
 これにより、第一視聴者112Aが移動している間のみ移動指示情報やウィンドウ表示可能範囲が提示される。但し、提示を終えるタイミングは、第一視聴者112Aが第一コントローラ104aを用いてコンテンツ再生装置100に設定可能であってもよい。
 コンテンツ再生装置100は、図18で示すように第一視聴者112Aがコンテンツ視聴中に移動した場合にも第一視聴者112Aが所望する音響効果に基づいた情報を提示する。これにより、第一視聴者112Aがコンテンツ視聴中に移動する場合にも、第一視聴者112Aは、所望する音響効果を得られる視聴可能範囲を容易に知ることができ、所望の音響効果を得られる視聴可能範囲へ容易に移動することができる。
 図19は、図12に示す動作の後、第一視聴者112Aがコンテンツ視聴中に移動した場合に、表示制御部205が図14のS506でディスプレイ106に表示する移動指示情報と、図14のS508でディスプレイ106に表示するウィンドウ表示可能範囲1105の例を示す図である。
 図19に示すディスプレイ106の表示内容は、図17に示すディスプレイ106の表示内容と比べると、第一視聴ウィンドウ1101の代わりに、移動前の第一視聴ウィンドウ1301と移動後の第一視聴ウィンドウ1302が追加されている。また、図19は、図17と比べ移動指示文字1102の提示内容に特徴を有する。
 図19において、移動指示文字1102は、第一視聴者112Aが所望する音響効果を得られる視聴位置へ移動する方向を指示する文字列に加え、第一視聴者112Aが得られる音響効果が変化したこと、および変化した音響効果に関する情報を提示している。
 次に、実施の形態において、図12に示す動作の後、第一視聴者112Aがコンテンツ視聴中にコンテンツに対する所望の音響効果を変更した場合のコンテンツ再生装置100の動作について図20を用いて説明する。
 まず、第一視聴者112Aがコンテンツの視聴中に、第一コントローラ104aを用いて何らかの音響効果を選択した場合を想定する。この場合、基準視聴範囲決定部202は、第一視聴者112Aの選択に基づく音響効果情報を赤外線受光部109を介して受信する。基準視聴範囲決定部202はさらに、この音響効果情報を参照し、図12のS304で第一視聴者112Aがコンテンツの視聴前に選択した音響効果から変更されたか否かを判断する(S1601)。
 音響効果が変更されていない場合(S1601でNO)、動作を終了する。音響効果が変更された場合(S1601でYES)、コンテンツ再生装置100は、第一視聴者112Aが所望の音響効果を得られる視聴範囲に基づく情報を第一視聴者112Aに提示する(S307)。
 なお、この表示制御は、図18に示す処理と同じく、コンテンツ表示制御部200が、既に得られている先の音響効果シミュレート結果を用いて実行してもよく、再度実行された音響効果シミュレートの結果を用いて実行してもよい。
 コンテンツ再生装置100は、図20で示すように第一視聴者112Aがコンテンツ視聴中にコンテンツに対する所望の音響効果を変更した場合にも、第一視聴者112Aが所望する音響効果に基づいた情報を提示する。
 これにより、第一視聴者112Aは、所望の音響効果を変更したことにより、所望の音響効果を得られる視聴範囲が変化したこと、および所望の音響効果を得られる視聴範囲を容易に知ることができ、所望の音響効果を得られる視聴範囲へ容易に移動することができる。
 次に、実施の形態において、図12に示す動作の後、第一視聴者112Aに対応する視聴ウィンドウ以外の視聴ウィンドウの(以下、「他の視聴ウィンドウ」という。)状態が変化した場合のコンテンツ再生装置100の動作について図21を用いて説明する。
 まず、表示制御部205は、常に、他の視聴ウィンドウの状態が変化していないか確認する(S1701)。他の視聴ウィンドウの状態が変化していない場合(S1701でNO)、引き続き他の視聴ウィンドウの状態の確認を続ける。
 他の視聴ウィンドウの状態が変化した場合(S1701でYES)、コンテンツ再生装置100は、S305、S306、およびS1702を実行する。但し、S305およびS306は、図12における同じ符号の動作を指すため、説明は省略する。
 なお、他の視聴ウィンドウの状態が変化した場合とは、例えば、第二視聴者112Bがコンテンツの視聴を中止した場合である。この場合、その時点までディスプレイ106に表示されていた第二視聴ウィンドウ1201は閉じられる。つまり、第二視聴ウィンドウ1201の大きさがゼロに変更される。
 また、この場合、コンテンツ視聴システムを利用する視聴者は第一視聴者112Aのみになり、第一視聴者112Aおよび第一視聴ウィンドウ1101に割り当てられるスピーカの組み合わせは変化することになる(図5参照)。そのため、コンテンツ再生装置100は、第一視聴者112Aについての音響効果シミュレートに係る処理および視聴範囲に基づく情報の提示を、新たな条件(変更後のスピーカの組み合わせに示されるスピーカの個数および位置など)を用いてやり直す(図21におけるS305、S306、およびS1702)。
 また、第二視聴者112Bが移動することにより、第二視聴ウィンドウ1201が移動した場合、第一視聴ウィンドウ1101を表示可能な領域が変化することになる。従って、この場合も、コンテンツ再生装置100は、第一視聴者112Aについての音響効果シミュレートに係る処理および視聴範囲に基づく情報の提示を新たな条件でやり直してもよい。
 この場合、例えば、シミュレーション部150が、割当テーブル121に示される情報を基に、移動後の第二視聴者112Bの位置と、その時点での第一視聴者112Aとの位置関係に応じて第一視聴者112Aに割り当てるスピーカの個数を調整(増加または削減)する。また、この調整後のスピーカの個数等を用いて新たに音響効果シミュレート(S306)を実行する。
 このように、他の視聴ウィンドウの状態が変化した場合、その変化が微少な場合を除き、ほとんどの場合で、第一視聴者112Aが所望するN個の音響効果それぞれについての視聴可能範囲が変化し得る。すなわち、視聴可能範囲に基づき決定される基準視聴範囲も変化し得る。
 次に、図21のS1702における動作の詳細を、図22を用いて説明する。但し、図22においてS501、S503、およびS507は、図14における同じ符号の動作を指すため、説明は省略する。
 まず、コンテンツ再生装置100は、S501とS503を実行する。次に、表示制御部205は、基準視聴範囲が変化したことを第一視聴者112Aに提示する(S1802)。
 本実施の形態では、基準視聴範囲が変化したことを表示制御部205がディスプレイ106に文字で表示して提示する。S1802における提示例を図23の視聴環境変更通知文字1404に示す。図23の説明の詳細は後述する。
 なお、S1802における第一視聴者112Aに対する提示方法は、その他にも例えば、画像を用いて提示してもよいし、表示制御部205の指示により、音声出力制御部110がスピーカ装置105を用いて通知音を鳴らすなど音で提示してもよい。また、表示制御部205の指示により、図示しない照明装置を用いて照明を点滅させるなど照明で提示してもよい。
 次に、ウィンドウ表示可能範囲決定部203は、S507を実行する。
 次に、表示制御部205は、ウィンドウ表示可能範囲決定部203がS507で生成したウィンドウ表示可能範囲情報2000のウィンドウ表示可能範囲リスト2002を参照し、1つ前に生成したウィンドウ表示可能範囲と比べ変化した範囲があるか否か確認する(S1803)。
 なお、サラウンド等の音響効果に対応する基準視聴範囲が変化するため、その基準視聴位置に対応するウィンドウ表示可能範囲も原則として変化する。しかし、基準視聴位置の変化量が微少である場合など、変化しないウィンドウ表示可能範囲が存在する場合もある。そのため、この判断処理(S1803)が実行される。
 S1803において、変化したウィンドウ表示可能範囲が存在しない場合(S1803でNO)、処理を終了する。
 S1803において、変化したウィンドウ表示可能範囲が存在する場合(S1803でYES)、表示制御部205は、ウィンドウ表示可能範囲が変化したことを第一視聴者112Aに提示する(S1804)。
 本実施の形態では、ウィンドウ表示可能範囲が変化したことを表示制御部205がディスプレイ106に文字で表示して提示する。S1804における提示例を図23の視聴環境変更通知文字1404に示す。図23の説明の詳細は後述する。
 なお、S1804における第一視聴者112Aに対する提示方法は、その他にも例えば、画像を用いて提示してもよいし、表示制御部205の指示により、音声出力制御部110がスピーカ装置105を用いて通知音を鳴らすなど音で提示してもよい。また、表示制御部205の指示により、図示しない照明装置を用いて照明を点滅させるなど照明で提示してもよい。
 次に、表示制御部205が、変化したウィンドウ表示可能範囲に合わせて第一視聴者112Aに対応する視聴ウィンドウのサイズを変更する(S1805)。このとき、表示制御部205は、第1のウィンドウ表示可能範囲から第Nのウィンドウ表示可能範囲までの内、第一視聴者112Aに対応する視聴ウィンドウの重心が収まっているウィンドウ表示可能範囲のサイズに合わせて視聴ウィンドウのサイズを変更する。
 表示制御部205は、ウィンドウ表示可能範囲が拡大していれば視聴ウィンドウを拡大し、ウィンドウ表示可能範囲が縮小していれば視聴ウィンドウを縮小する。また、表示制御部205が視聴ウィンドウのサイズを変更する場合、なるべく第一視聴者112Aが視聴位置を移動せずとも視聴ウィンドウが第一視聴者112Aの正面に位置するようサイズを変更する。例えば、視聴ウィンドウの重心の位置を保ったままサイズを変更したり、視聴ウィンドウの1つの角の位置を固定したままサイズを変更したりする。
 なお、S1805を実行した後、コンテンツ再生装置100は、例えば図15に示されるS506、S508を順に実行し、第一視聴者112Aが拡大された視聴ウィンドウの正面へ位置しやすいよう誘導してもよい。
 コンテンツ再生装置100は、図21で示すように第一視聴者112Aに対応する視聴ウィンドウ以外の視聴ウィンドウの状態が変化した場合にも第一視聴者112Aが所望する音響効果に基づいた情報を提示する。これにより、第一視聴者112Aは、所望の音響効果を得られる視聴範囲が変化したこと、および所望の音響効果を得られる視聴範囲を容易に知ることができ、所望の音響効果を得られる視聴範囲へ容易に移動することができる。
 さらに、第一視聴者112Aは、視聴ウィンドウのサイズが変更できることも容易に知ることができ、コンテンツ再生装置100は、自動的に視聴ウィンドウのサイズを変更することもできる。
 図23は、図12に示す動作の後、第一視聴者112Aに対応する視聴ウィンドウ以外の視聴ウィンドウの状態が変化した場合に、表示制御部205が図22のS1802とS1804でディスプレイ106に表示する情報の例を示す図である。
 拡大前の第一視聴ウィンドウ1401は、表示制御部205がサイズを拡大する前の第一視聴者112Aに対応する視聴ウィンドウである。拡大後の第一視聴ウィンドウ1402は、表示制御部205がサイズを拡大した後の第一視聴者112Aに対応する視聴ウィンドウである。閉じられた第二視聴ウィンドウ1403は、表示制御部205により閉じられた第二視聴者112Bに対応する視聴ウィンドウが表示されていた位置を示す。
 視聴環境変更通知文字1404は、図22のS1802とS1804において表示制御部205がディスプレイ106に表示した、基準視聴範囲およびウィンドウ表示可能範囲が変更したこととを通知する文字列である。
 図23において視聴環境変更通知文字1404は、さらに、第一視聴者112Aが現在得られている音響効果に関する文字列、視聴ウィンドウが拡大できることを示すサイズ変更に関する文字列を含む。
 なお、本実施の形態では、第一視聴者112Aに対するコンテンツ視聴システム10の動作を取り上げたが、第一視聴者112Aに限らず第二視聴者112Bなど、その他の視聴者に対してもコンテンツ視聴システム10は同様の動作を行う。
 また、本実施の形態では、音響効果シミュレーションに関する処理をシミュレーション部150が行ったが、音声出力制御部110、または、基準視聴範囲決定部202などコンテンツ表示制御部200の構成要素が行っても同様の効果が得られる。
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)上記のコンテンツ再生装置100は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。
 前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、コンテンツ再生装置100は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)コンテンツ再生装置100を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)コンテンツ再生装置100を構成する構成要素の一部または全部は、コンテンツ再生装置100に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本発明に係るコンテンツ再生装置は、視聴者が所望の音響効果を得られる視聴範囲をシミュレートした上で、視聴者が所望の音響効果を得られる視聴範囲に位置していない場合に、視聴者が所望の音響効果を得られる視聴範囲へ移動すべき方向を文字や画像、俯瞰図などで提示することができる。さらに本発明に係るコンテンツ再生装置は、視聴者が所望の音響効果を得られる視聴範囲で視聴するために適した位置へ視聴ウィンドウを移動させるための、視聴者が位置すべき範囲についての情報を提示することができる。
 これにより、視聴者は、所望の音響効果を得られる視聴範囲を容易に知ることができる。そのため、本発明に係るコンテンツ再生装置は、視聴者に対して所望の音響効果を再現できる範囲と再現できない範囲が存在するような視聴範囲が部屋全体におよぶ超大画面ディスプレイを備えたコンテンツ視聴システム、および、複数人の視聴者が同時にそれぞれ異なるコンテンツを視聴するコンテンツ視聴システムにおけるコンテンツ再生装置等として有用である。
   10  コンテンツ視聴システム
  100  コンテンツ再生装置
  101  位置情報取得装置
  102  コンテンツ送信装置
  103  放送受信アンテナ
  104a 第一コントローラ
  104b 第二コントローラ
  105  スピーカ装置
  106  ディスプレイ
  107  位置算出部
  108  コンテンツ受信部
  109  赤外線受光部
  110  音声出力制御部
  111  映像出力制御部
  112A  第一視聴者
  112B  第二視聴者
  120  記憶部
  121  割当テーブル
  122  割当部
  123  出力部
  150  シミュレーション部
  200  コンテンツ表示制御部
  201  視聴ウィンドウ決定部
  202  基準視聴範囲決定部
  203  ウィンドウ表示可能範囲決定部
  204  現在視聴位置決定部
  205  表示制御部
  700  音響効果シミュレート要求情報
  701、901  視聴者ID
  702  所望の音響効果リスト
  800  視聴可能範囲情報
  802  視聴可能範囲リスト
  900  視聴位置計測要求情報
 1000  視聴位置情報
 1002  視聴位置座標
 1101  第一視聴ウィンドウ
 1102  移動指示文字
 1103  移動指示画像
 1104  移動指示俯瞰図
 1104A  現在視聴位置
 1104B  移動先視聴位置
 1105  ウィンドウ表示可能範囲
 1105A  サラウンド再生可能範囲
 1105B  ステレオ再生可能範囲
 1105C  モノラル再生可能範囲
 1201  第二視聴ウィンドウ
 1301  移動前の第一視聴ウィンドウ
 1302  移動後の第一視聴ウィンドウ
 1401  拡大前の第一視聴ウィンドウ
 1402  拡大後の第一視聴ウィンドウ
 1403  閉じられた第二視聴ウィンドウ
 1404  視聴環境変更通知文字
 1900  基準視聴範囲情報
 1902  基準視聴範囲リスト
 2000  ウィンドウ表示可能範囲情報
 2002  ウィンドウ表示可能範囲リスト

Claims (18)

  1.  ディスプレイおよび複数のスピーカに接続されたコンテンツ再生装置であって、
     第一コンテンツの映像を第一視聴者に対して表示するための第一ウィンドウとともに、第二コンテンツの映像を第二視聴者に対して表示するための第二ウィンドウを前記ディスプレイに表示させることのできるコンテンツ表示制御部と、
     前記複数のスピーカの中から前記第一コンテンツに割り当てられた1以上のスピーカに前記第一コンテンツの音声を出力させ、かつ、前記複数のスピーカの中から前記第二コンテンツに割り当てられた1以上のスピーカに前記第二コンテンツの音声を出力させることのできる音声出力制御部と、
     所定の範囲の大きさを示す情報、前記第一コンテンツに割り当てられた前記1以上のスピーカの個数および位置、ならびに、前記第一コンテンツから取得される、前記第一コンテンツの再生において提供可能な1以上の音響効果のうちの所定の音響効果の必要チャネル数を用いた演算により、前記第一視聴者が前記第一コンテンツの音声を前記所定の音響効果で聴き取り可能な、前記所定の範囲内における範囲である視聴可能範囲を求める視聴可能範囲演算部と、
     前記視聴可能範囲演算部から得られる視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力する提示制御部と
     を備えるコンテンツ再生装置。
  2.  前記視聴可能範囲演算部は、前記所定の音響効果を含む、前記第一コンテンツの再生において提供可能な複数の音響効果それぞれに対応する複数の視聴可能範囲を演算により求め、
     前記コンテンツ再生装置はさらに、前記視聴可能範囲演算部から得られる前記複数の視聴可能範囲の中から少なくとも1つの視聴可能範囲を基準視聴範囲として決定する基準視聴範囲決定部を備え、
     前記提示制御部は、前記基準視聴範囲決定部により基準視聴範囲と決定された少なくとも1つの視聴可能範囲に基づく情報を出力する
     請求項1記載のコンテンツ再生装置。
  3.  前記基準視聴範囲決定部は、前記複数の音響効果それぞれの優先度を示す情報を取得し、最も優先度の高い、または、最も優先度の低い前記音響効果に対応する視聴可能範囲を前記基準視聴範囲と決定する
     請求項2記載のコンテンツ再生装置。
  4.  さらに、前記第一視聴者により選択された音響効果の種類を示す情報を受け付ける受付部を備え、
     前記提示制御部は、前記視聴可能範囲演算部から得られる視聴可能範囲であって、前記受付部により受け付けられた情報に示される音響効果に対応する視聴可能範囲に基づく情報を出力する
     請求項1記載のコンテンツ再生装置。
  5.  前記視聴可能範囲演算部は、前記所定の範囲から前記第二視聴者の所定の周辺範囲を除いたうえで前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を求める
     請求項1記載のコンテンツ再生装置。
  6.  前記視聴可能範囲演算部は、前記所定の範囲の一部である、前記第一視聴者の所定の周辺範囲のみについて前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を求める
     請求項1記載のコンテンツ再生装置。
  7.  前記コンテンツ表示制御部はさらに、前記第一ウィンドウおよび前記第二ウィンドウの位置または大きさを変更可能であり、
     音声出力制御部はさらに、前記第二ウィンドウの位置または大きさが変更された場合、前記第一コンテンツの音声の出力のために割り当てられたスピーカの組み合わせの少なくとも一部を変更し、
     前記視聴可能範囲演算部はさらに、前記第二ウィンドウの位置または大きさが変更された場合、前記音声出力制御部による変更後の前記スピーカの組み合わせに示されるスピーカの個数および位置を用いて前記演算を行うことで、前記第一視聴者についての前記視聴可能範囲を新たに求め、
     前記提示制御部はさらに、前記視聴可能範囲演算部から新たに得られる視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力する
     請求項1記載のコンテンツ再生装置。
  8.  前記提示制御部は、前記視聴可能範囲に基づく情報である、前記視聴可能範囲を示す文字または画像を前記ディスプレイに出力し、前記文字または画像を前記ディスプレイに表示させることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示する
     請求項1記載のコンテンツ再生装置。
  9.  前記提示制御部は、前記視聴可能範囲に基づく情報である、前記視聴可能範囲を照らす指示を、前記コンテンツ再生装置に接続された照明装置に出力し、前記照明装置に前記視聴可能範囲を照らさせることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示する
     請求項1記載のコンテンツ再生装置。
  10.  前記提示制御部は、前記視聴可能範囲演算部による前記演算の結果が、前記視聴可能範囲が前記所定の範囲内に存在しないことを示す場合、前記視聴可能範囲に基づく情報である、前記視聴可能範囲が存在しないことを示す情報を出力する
     請求項1記載のコンテンツ再生装置。
  11.  さらに、(a)前記視聴可能範囲内のある位置に前記第一視聴者が位置すると仮定した場合に前記第一視聴者に対して前記第一ウィンドウを表示すべき前記ディスプレイ上の範囲を、前記視聴可能範囲内のすべての位置ごとに決定し、(b)決定したディスプレイ上の範囲をすべて合わせた範囲を前記視聴可能範囲に対応するウィンドウ表示可能範囲と決定するウィンドウ表示可能範囲決定部を備え、
     前記提示制御部は、前記視聴可能範囲に基づく情報である、前記ウィンドウ表示可能範囲決定部により決定されたウィンドウ表示可能範囲を示す情報を出力する
     請求項1記載のコンテンツ再生装置。
  12.  さらに、(a)前記視聴可能範囲内のある位置に前記第一視聴者が位置すると仮定した場合に前記第一視聴者に対して前記第一ウィンドウを表示すべき前記ディスプレイ上の範囲を、前記視聴可能範囲内のすべての位置ごとに決定し、(b)決定したディスプレイ上の範囲をすべて合わせた範囲を前記視聴可能範囲に対応するウィンドウ表示可能範囲と決定するウィンドウ表示可能範囲決定部を備え、
     前記提示制御部は、前記ディスプレイに、前記ウィンドウ表示可能範囲決定部により決定されたウィンドウ表示可能範囲内に前記第一ウィンドウの少なくとも一部を表示させることで、前記視聴可能範囲に基づく情報を前記第一視聴者に提示する
     請求項1記載のコンテンツ再生装置。
  13.  さらに、前記コンテンツ再生装置に接続された外部装置から取得される、前記第一視聴者の位置を特定するための情報を用いて、前記第一視聴者の存在位置である視聴位置を決定する現在視聴位置決定部を備え、
     前記提示制御部は、前記現在視聴位置決定部により決定された視聴位置と前記視聴可能範囲とに基づいた情報を出力する
     請求項1記載のコンテンツ再生装置。
  14.  前記現在視聴位置決定部は、前記外部装置により定期的に取得される情報を用いて、前記視聴位置を定期的に決定し、
     前記提示制御部は、最新の視聴位置とその1つ前に決定された視聴位置との差が所定の閾値以上である場合、前記視聴可能範囲に基づく情報を出力する
     請求項13記載のコンテンツ再生装置。
  15.  前記提示制御部は、前記現在視聴位置決定部により決定された前記視聴位置が前記視聴可能範囲に収まっているか否かを判断し、前記視聴位置が前記視聴可能範囲に収まっていない場合、前記視聴可能範囲に基づく情報を出力する
     請求項13記載のコンテンツ再生装置。
  16.  前記提示制御部は、前記視聴位置が前記視聴可能範囲に収まっていない場合、前記視聴可能範囲に基づく情報である、前記視聴位置が前記視聴可能範囲に収まるために前記第一視聴者が移動すべき方向に関する情報を出力する
     請求項15記載のコンテンツ再生装置。
  17.  ディスプレイおよび複数のスピーカに接続されたコンテンツ再生装置が行うコンテンツ再生方法であって、
     第一コンテンツの映像を第一視聴者に対して表示するための第一ウィンドウとともに、第二コンテンツの映像を第二視聴者に対して表示するための第二ウィンドウを前記ディスプレイに表示させ、
     前記複数のスピーカの中から前記第一コンテンツに割り当てられた1以上のスピーカに前記第一コンテンツの音声を出力させ、
     前記複数のスピーカの中から前記第二コンテンツに割り当てられた1以上のスピーカに前記第二コンテンツの音声を出力させ、
     所定の範囲の大きさを示す情報、前記第一コンテンツに割り当てられた前記1以上のスピーカの個数および位置、ならびに、前記第一コンテンツから取得される、前記第一コンテンツの再生において提供可能な1以上の音響効果のうちの所定の音響効果の必要チャネル数を用いた演算により、前記第一視聴者が前記第一コンテンツの音声を前記所定の音響効果で聴き取り可能な、前記所定の範囲内における前記第一視聴者の存在範囲である視聴可能範囲を求め、
     求められた前記視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力する
     コンテンツ再生方法。
  18.  ディスプレイおよび複数のスピーカに接続されたコンテンツ再生装置の動作を制御するプログラムであって、
     第一コンテンツの映像を第一視聴者に対して表示するための第一ウィンドウとともに、第二コンテンツの映像を第二視聴者に対して表示するための第二ウィンドウを前記ディスプレイに表示させ、
     前記複数のスピーカの中から前記第一コンテンツに割り当てられた1以上のスピーカに前記第一コンテンツの音声を出力させ、
     前記複数のスピーカの中から前記第二コンテンツに割り当てられた1以上のスピーカに前記第二コンテンツの音声を出力させ、
     所定の範囲の大きさを示す情報、前記第一コンテンツに割り当てられた前記1以上のスピーカの個数および位置、ならびに、前記第一コンテンツから取得される、前記第一コンテンツの再生において提供可能な1以上の音響効果のうちの所定の音響効果の必要チャネル数を用いた演算により、前記第一視聴者が前記第一コンテンツの音声を前記所定の音響効果で聴き取り可能な、前記所定の範囲内における前記第一視聴者の存在範囲である視聴可能範囲を求め、
     求められた前記視聴可能範囲に基づく情報を前記第一視聴者に提示するために出力する
     ことをコンピュータに実行させるためのプログラム。
PCT/JP2009/002635 2008-06-12 2009-06-11 コンテンツ再生装置およびコンテンツ再生方法 WO2009150841A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010516760A JP5331805B2 (ja) 2008-06-12 2009-06-11 コンテンツ再生装置およびコンテンツ再生方法
CN2009801218148A CN102057693B (zh) 2008-06-12 2009-06-11 内容再现装置及内容再现方法
US12/997,036 US8311400B2 (en) 2008-06-12 2009-06-11 Content reproduction apparatus and content reproduction method
EP09762272.4A EP2293603B1 (en) 2008-06-12 2009-06-11 Content reproduction device and content reproduction method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008154473 2008-06-12
JP2008-154473 2008-06-12

Publications (1)

Publication Number Publication Date
WO2009150841A1 true WO2009150841A1 (ja) 2009-12-17

Family

ID=41416555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/002635 WO2009150841A1 (ja) 2008-06-12 2009-06-11 コンテンツ再生装置およびコンテンツ再生方法

Country Status (5)

Country Link
US (1) US8311400B2 (ja)
EP (1) EP2293603B1 (ja)
JP (1) JP5331805B2 (ja)
CN (1) CN102057693B (ja)
WO (1) WO2009150841A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098632A (ja) * 2010-11-05 2012-05-24 Yamaha Corp マスカ音出力装置及び音声通話装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120148075A1 (en) * 2010-12-08 2012-06-14 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
FR3000635A1 (fr) * 2013-01-02 2014-07-04 Ind Bois Dispositif de personalisation d'onde sonore
JP2014188303A (ja) * 2013-03-28 2014-10-06 Nintendo Co Ltd ゲームシステム、ゲームプログラム、ゲーム処理方法、およびゲーム装置
US9402095B2 (en) 2013-11-19 2016-07-26 Nokia Technologies Oy Method and apparatus for calibrating an audio playback system
EP3136713A4 (en) * 2014-04-22 2017-12-06 Sony Corporation Information reproduction device, information reproduction method, information recording device, and information recording method
CN106603947A (zh) * 2016-12-28 2017-04-26 深圳Tcl数字技术有限公司 电视机伴音播放的控制方法及装置
US10757459B2 (en) * 2018-12-10 2020-08-25 At&T Intellectual Property I, L.P. Video steaming control

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116074A (ja) * 2001-10-05 2003-04-18 Canon Inc 大画面高精細デジタルビデオ視聴システム
JP2003122374A (ja) 2001-10-17 2003-04-25 Nippon Hoso Kyokai <Nhk> サラウンド音響生成方法、その装置およびそのプログラム
JP3482055B2 (ja) 1995-12-14 2003-12-22 日本放送協会 高精度音線追跡装置および高精度音線追跡方法
JP2006166295A (ja) 2004-12-10 2006-06-22 Seiko Epson Corp 制御システム及びこのシステムに適合する被制御装置並びに遠隔制御装置
JP2007081584A (ja) * 2005-09-12 2007-03-29 Canon Inc 画像表示装置または画像表示方法。
JP2008011253A (ja) 2006-06-29 2008-01-17 Toshiba Corp 放送受信装置
JP2008154473A (ja) 2006-12-21 2008-07-10 Biitein Kenkyusho:Kk 全粒粉を用いた油揚げの製造方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5867223A (en) * 1995-07-17 1999-02-02 Gateway 2000, Inc. System for assigning multichannel audio signals to independent wireless audio output devices
JPH10137445A (ja) 1996-11-07 1998-05-26 Sega Enterp Ltd ゲーム装置、画像音響処理装置および記録媒体
JP2001125695A (ja) 1999-10-28 2001-05-11 Matsushita Electric Ind Co Ltd ウィンドウ管理装置
JP2004215781A (ja) 2003-01-10 2004-08-05 Victor Co Of Japan Ltd ゲーム機及びゲーム機用プログラム
EP1542503B1 (en) 2003-12-11 2011-08-24 Sony Deutschland GmbH Dynamic sweet spot tracking
JP4349123B2 (ja) * 2003-12-25 2009-10-21 ヤマハ株式会社 音声出力装置
JP2005197896A (ja) 2004-01-05 2005-07-21 Yamaha Corp スピーカアレイ用のオーディオ信号供給装置
JP2005286903A (ja) * 2004-03-30 2005-10-13 Pioneer Electronic Corp 音響再生装置、音響再生システム、音響再生方法及び制御プログラム並びにこのプログラムを記録した情報記録媒体
WO2006033074A1 (en) 2004-09-22 2006-03-30 Koninklijke Philips Electronics N.V. Multi-channel audio control
US20060125968A1 (en) * 2004-12-10 2006-06-15 Seiko Epson Corporation Control system, apparatus compatible with the system, and remote controller
JP2006229738A (ja) * 2005-02-18 2006-08-31 Canon Inc 無線接続制御装置
US8031891B2 (en) * 2005-06-30 2011-10-04 Microsoft Corporation Dynamic media rendering
JP4788318B2 (ja) * 2005-12-02 2011-10-05 ヤマハ株式会社 位置検出システム、この位置検出システムに用いるオーディオ装置及び端末装置
KR100728043B1 (ko) 2006-08-04 2007-06-14 삼성전자주식회사 청취자에게 동상의 음향을 제공하는 방법 및 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3482055B2 (ja) 1995-12-14 2003-12-22 日本放送協会 高精度音線追跡装置および高精度音線追跡方法
JP2003116074A (ja) * 2001-10-05 2003-04-18 Canon Inc 大画面高精細デジタルビデオ視聴システム
JP2003122374A (ja) 2001-10-17 2003-04-25 Nippon Hoso Kyokai <Nhk> サラウンド音響生成方法、その装置およびそのプログラム
JP2006166295A (ja) 2004-12-10 2006-06-22 Seiko Epson Corp 制御システム及びこのシステムに適合する被制御装置並びに遠隔制御装置
JP2007081584A (ja) * 2005-09-12 2007-03-29 Canon Inc 画像表示装置または画像表示方法。
JP2008011253A (ja) 2006-06-29 2008-01-17 Toshiba Corp 放送受信装置
JP2008154473A (ja) 2006-12-21 2008-07-10 Biitein Kenkyusho:Kk 全粒粉を用いた油揚げの製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2293603A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098632A (ja) * 2010-11-05 2012-05-24 Yamaha Corp マスカ音出力装置及び音声通話装置

Also Published As

Publication number Publication date
US20110091184A1 (en) 2011-04-21
EP2293603B1 (en) 2014-10-01
JPWO2009150841A1 (ja) 2011-11-10
JP5331805B2 (ja) 2013-10-30
CN102057693B (zh) 2013-06-19
US8311400B2 (en) 2012-11-13
CN102057693A (zh) 2011-05-11
EP2293603A1 (en) 2011-03-09
EP2293603A4 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5331805B2 (ja) コンテンツ再生装置およびコンテンツ再生方法
US20150264502A1 (en) Audio Signal Processing Device, Position Information Acquisition Device, and Audio Signal Processing System
KR102402370B1 (ko) 원격지 연출 시스템 및 원격지 연출 방법
EP3146730B1 (en) Configuring playback of audio via a home audio playback system
CN104869335B (zh) 用于局域化感知音频的技术
JP2011515942A (ja) 対象指向性の3d音声ディスプレイ装置
CN117221801A (zh) 环绕声系统中扬声器位置的自动发现和定位
US20040131207A1 (en) Audio output adjusting device of home theater system and method thereof
US20120230525A1 (en) Audio device and audio system
JP2022065175A (ja) 音響処理装置および方法、並びにプログラム
JP2014103456A (ja) オーディオアンプ
US11234094B2 (en) Information processing device, information processing method, and information processing system
KR100860964B1 (ko) 멀티미디어 컨텐츠 재생 장치 및 방법
Hamasaki 22.2 multichannel audio format standardization activity,”
KR101371806B1 (ko) 울트라 와이드밴드를 이용한 음향 출력 제어방법 및 장치
KR101410975B1 (ko) 오브젝트 중심의 사운드를 출력하기 위한 장치 및 방법
JP2011254359A (ja) 音響再生装置
KR20140090469A (ko) 영상표시장치의 동작 방법
JPH08298635A (ja) 音声チャンネル選択合成方法およびこの方法を実施する装置
KR100284768B1 (ko) 다화면비디오디스플레이시스템에서의오디오데이타처리장치
JP2009055476A (ja) 番組同時視聴システム、番組同時視聴方法及び番組同時視聴プログラム
JP2005086537A (ja) 高臨場音場再現情報送信装置、高臨場音場再現情報送信プログラム、高臨場音場再現情報送信方法および高臨場音場再現情報受信装置、高臨場音場再現情報受信プログラム、高臨場音場再現情報受信方法
TW201426529A (zh) 通訊設備及其播放方法
JP2007134808A (ja) 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
KR20160113036A (ko) 3차원 사운드를 편집 및 제공하는 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980121814.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09762272

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010516760

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12997036

Country of ref document: US

Ref document number: 2009762272

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE