WO2023171279A1 - 音声出力装置、音声出力方法 - Google Patents

音声出力装置、音声出力方法 Download PDF

Info

Publication number
WO2023171279A1
WO2023171279A1 PCT/JP2023/005310 JP2023005310W WO2023171279A1 WO 2023171279 A1 WO2023171279 A1 WO 2023171279A1 JP 2023005310 W JP2023005310 W JP 2023005310W WO 2023171279 A1 WO2023171279 A1 WO 2023171279A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
audio signal
audio
display surface
video display
Prior art date
Application number
PCT/JP2023/005310
Other languages
English (en)
French (fr)
Inventor
隆久 田上
絵美子 池田
雄一朗 山中
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023171279A1 publication Critical patent/WO2023171279A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • H04R3/14Cross-over networks

Definitions

  • the present technology relates to an audio output device and an audio output method that output audio to be played along with video.
  • Patent Document 1 In a projector that projects images onto a wall, screen, etc., the following Patent Document 1 is known as a technology related to audio that is played simultaneously with images. This discloses that in an audio device placed near the screen, the radiated sound of a specific channel, for example, a surround channel, is reflected from the screen, wall, ceiling, etc. to the viewer's position.
  • a specific channel for example, a surround channel
  • a mobile projector or portable projector that integrates video projection and audio playback. Since it has a built-in sound playback function, users can experience content such as movies with video and audio simply by installing such a projector in any location.
  • the audio is output from a speaker within the projector main body, if the projector is placed away from the display surface of the projected image, the video and audio playback positions may be different, causing a user to feel uncomfortable. Further, even when sound is output from a separate speaker, the localization of the sound may not be on the video display screen, which may create a sense of discomfort.
  • the purpose of the present technology is to match the playback positions of video and audio so that the user can experience the video and audio with a sense of realism.
  • the audio output device includes a first speaker that is a directional speaker arranged facing the video display surface, a second speaker having a directivity wider than at least the first speaker, and a second speaker arranged toward the video display surface.
  • a signal component on the high frequency band side of the audio signal to be output together with the video to be displayed is extracted and used as a first audio signal to be supplied to the first speaker, and the first audio signal to be output together with the video to be displayed on the video display screen is and an audio signal processing unit that extracts a signal component including a lower frequency band than the first audio signal, performs delay processing, and generates a second audio signal to be supplied to the second speaker.
  • FIG. 2 is an explanatory diagram of a projector usage state according to the first embodiment of the present technology.
  • FIG. 6 is an explanatory diagram of the usage state of a projector in a comparative example.
  • FIG. 3 is an explanatory diagram of high-frequency characteristics and mid-low frequency characteristics of output audio according to the embodiment.
  • FIG. 2 is an explanatory diagram of an example of the appearance of a projector according to an embodiment.
  • FIG. 2 is an explanatory diagram of an example of the appearance of a projector according to an embodiment. It is an explanatory view of the Haas effect of an embodiment.
  • FIG. 3 is an explanatory diagram of an example of a monaural channel according to the embodiment.
  • FIG. 3 is an explanatory diagram of an example of three channels according to the embodiment.
  • FIG. 3 is an explanatory diagram of radiation angles of high-frequency sound according to the embodiment.
  • FIG. 1 is a block diagram of an audio output device according to an embodiment. It is a flow chart of calibration processing of an embodiment.
  • FIG. 2 is an explanatory diagram of a phase interference type narrow directional speaker that can be applied to the embodiment.
  • FIG. 2 is an explanatory diagram of a parabolic narrow directional speaker that can be applied to the embodiment.
  • FIG. 2 is an explanatory diagram of an ultrasonic narrow directional speaker that can be applied to the embodiment.
  • FIG. 7 is an explanatory diagram of the usage state of the short focus projector according to the second embodiment.
  • FIG. 7 is an explanatory diagram of a speaker configuration of a short focus projector according to a second embodiment.
  • FIG. 7 is an explanatory diagram of a usage state of a bar-shaped speaker according to a third embodiment.
  • FIG. 7 is an explanatory diagram of a speaker configuration of a bar-shaped speaker according to a third embodiment.
  • FIG. 7 is a perspective view of a ceiling-mounted projector according to a fourth embodiment.
  • FIG. 12 is an explanatory diagram of a usage state of a ceiling-mounted projector according to a fourth embodiment.
  • First embodiment Portable projector> ⁇ 2.
  • Second embodiment short focus projector> ⁇ 3.
  • Third embodiment Bar-shaped speaker> ⁇ 4.
  • Fourth embodiment Ceiling-mounted projector> ⁇ 5. Summary and modified examples>
  • FIG. 1 shows a viewing state of video content using a projector 1.
  • the projector 1 in this case is a relatively small device called a portable projector or a mobile projector.
  • the portable type projector 1 is configured with a relatively small casing and can be carried around by the user. By also incorporating a speaker and battery, users can install the projector 1 in any location, project images onto a wall or screen 150, and experience content such as movies with images and audio. It is.
  • the projector 1 is installed near a viewer 120, for example, and displays an image 110 on a screen 150 by emitting projection light 101. As a result, a video display surface 111 is formed on the screen 150. Furthermore, the audio played together with the video 110 is output from a speaker built into the projector 1.
  • FIG. 2 also shows a state in which a projector 300 is installed and an image 110 is projected onto the screen 150. Audio is output from a speaker built into the projector 300.
  • the viewer 120 perceives the image 110 on the image display surface 111 as shown by the arrow 100, while the viewer 120 perceives the sound as coming from the direction of the projector 300 as shown by the arrow 210. do. Therefore, for the viewer 120, the positions of the video 110 and the audio 211 do not match. For example, in content such as a movie, the voice of an actor in the video 110 appears to be coming from the side rather than from the direction of the video, making the viewer 120 feel uncomfortable.
  • FIG. 1 shows an example of a two-channel configuration of an L (left) channel and an R (right) channel.
  • the projector 1 outputs mid-low frequency sound 203 to the surroundings with wide directivity, while outputting high frequency sound 201 toward the video display surface 111.
  • the high-frequency sound 201 is emitted toward the video display surface 111.
  • This high frequency sound 201 is reflected by the screen 150.
  • the reflected high frequency sound 202 reaches the viewer 120 and is heard by the viewer 120. Therefore, for the viewer 120, the reflected high-frequency sound 202 is recognized by the video display surface 111 as the sound emission position (virtual speaker position).
  • the mid-low frequency sound 203 is output as sound by, for example, an omnidirectional speaker built into the projector 1 or a speaker having relatively wide directivity.
  • the projector 1 outputs the mid-low range sound 203 with a predetermined delay, so that the reflected high range sound 202 reaches the viewer 120 slightly earlier than the mid-low range sound 203. .
  • the timing of the high frequency sound 201 (reflected high frequency sound 202) is set to match the video 110.
  • the sound is made to match the video content such as the voices and movements of actors in the video 110. It is sufficient to match the output timing of the high-frequency sound 201 from the high-frequency speaker 3 with the video content, but the reflected high-frequency sound 202 and the video content should also be matched, taking into consideration the distance until it reaches the viewer 120.
  • the output timing of the high frequency sound 201 may be set as follows. On the other hand, the mid-low frequency sound 203 is perceived by the viewer 120 with a slight delay.
  • the sound image is localized in the direction of the reflected high-frequency sound 202 that arrived first. In other words, it is the direction of the video display surface 111 on which the video 110 is displayed. Since the reflected high-frequency sound 202 arrives from the direction of the video 110 without delay relative to the video, the viewer 120 perceives that the sound is being output from within the video 110. Furthermore, with the addition of mid-low range audio 203, the viewer 120 perceives as if powerful audio is being emitted from the video display surface 111.
  • FIG. 3 shows the frequency characteristics of the high-range sound 201 and the middle-low range sound 203.
  • a certain cutoff frequency fc is set, and a signal component on the high frequency band side is extracted by filter processing to produce high frequency sound 201.
  • signal components in a frequency band lower than the cutoff frequency fc are extracted by filter processing to produce mid-low frequency sound 203.
  • FIG. 3 shows a high frequency characteristic 161 and a middle/low frequency characteristic 162 in this case.
  • the cutoff frequency fc is, for example, around 3 KHz.
  • the high frequency sound 201 includes a range from 5 KHz to 7 KHz, which is a band to which humans are sensitive.
  • the high-frequency sound 201 in the sense of as wide a band as possible, including around 5 KHz to 7 KHz.
  • examples in which the high frequency sound 201 is higher than 4 KHz or higher than 5 KHz are also conceivable.
  • the cutoff frequency fc may be variably set. For example, it may be changed by a user's operation, or it may be adjusted by the material of the image display surface 111, etc., taking into consideration reflection characteristics.
  • the explanation will be made assuming that the high range side and the low range side are separated at around 3KHz, for example, and are divided into “high range” and “mid-low range”, but for example, "high range and mid range” An example of dividing into “low range” can also be considered.
  • the projector 1 outputs the high-frequency sound 201 and the middle-low frequency sound 203 that have been band-divided in this way.
  • FIG. 4 schematically shows the configuration of the projector 1 in the case of a monaural channel.
  • a projection section 2 that outputs projection light 101 is formed on the surface of the housing on the screen side.
  • the narrow-directivity high-frequency speaker 3 is provided, for example, so as to emit sound toward the projection direction of the projection section 2.
  • the high-frequency sound 201 from the high-frequency speaker 3 is directed toward the video display surface 111 and is reflected.
  • the low-mid range speaker 4 is provided inside the casing of the projector 1 or on a surface of the casing that is different from the projection section 2. For example, the sound from the mid-low frequency speaker 4 inside the housing is emitted through the sound emitting hole 6. Furthermore, the sound from the mid-low frequency speaker 4 provided on the upper surface of the housing is emitted from the upper surface of the housing. Since the mid-low range speaker 4 is omnidirectional or wide directional, the mid-low range sound 203 directly reaches the surrounding audience 120.
  • FIG. 5 schematically shows the configuration of the projector 1 in the case of LR stereo channels.
  • Narrow-directivity high-frequency speakers 3 for each of the L channel and the R channel are provided so as to emit sound toward the projection direction of the projection section 2 .
  • the L channel and R channel high frequency sounds 201 from the high frequency speakers 3, 3 are directed toward the video display surface 111 and are reflected.
  • the middle and low frequency speakers 4 are provided inside the housing of the projector 1 or on a surface of the housing different from the projection section 2, corresponding to each of the L channel and the R channel.
  • FIGS. 4 and 5 are shown as schematic examples to the last, and the shape of the projector 1, the number of speakers, the number of channels, the speaker arrangement configuration, etc. can be variously considered.
  • the Haas effect caused by the projector 1 as described above will be explained with reference to FIG.
  • high-frequency sound 201 from high-frequency speakers 3 of L channel and R channel is reflected on the video display surface 111 on screen 150, and reflected high-frequency sound 202 from L channel (Lch) and R channel (Rch ) is shown reaching the viewer 120.
  • the mid-low frequency sound 203 reaches the viewer 120 directly from the mid-low frequency speaker 4 .
  • the Haas effect is obtained by making the mid-low range sound 203 delayed by the time difference ⁇ T with respect to the reflected high range sound 202. This makes the viewer 120 feel that the sound image is localized on the video display surface 111.
  • the high frequency audio 201 (high frequency speaker 3), in addition to using LR2 channels, it is possible to use a monaural channel or a 3 channel configuration of L channel, R channel, and C (center) channel (Cch). get from Furthermore, a multi-channel configuration with four or more channels may be used.
  • FIG. 7 shows a case where the high frequency sound 201 is a monaural channel
  • FIG. 8 shows a case where the high frequency sound 201 has a three channel configuration. In either case, the mid-low range sound 203 is delayed by a time difference ⁇ T with respect to the reflected high range sound 202 of one or more channels.
  • the mid-low range speaker 4 may have a stereo speaker configuration of 2 channels or 3 channels.
  • each high-frequency speaker 3 may be fixedly arranged facing a predetermined direction.
  • 9A shows a case where the projector 1 and the screen 150 are relatively close
  • FIG. 9B shows a case where the projector 1 and the screen 150 are relatively far apart.
  • the L channel high frequency speaker 3 is fixedly arranged so that the high frequency audio 201 is output toward the left area of the video display surface 111
  • the high frequency speaker 3 for the R channel high frequency audio 201 is are fixedly arranged so that the high frequency sound 201 is output toward the right area of the video display surface 111.
  • both high-frequency speakers 3, 3 are arranged so as to have a radiation angle AG1.
  • Radiation angle AG1 is determined based on radiation angle AG2 of projection light 101. In other words, if the high-frequency speakers 3, 3 are arranged so that the radiation angle AG1 is within the angular range of the radiation angle AG2 and slightly smaller than the radiation angle AG2, the high-frequency sound 201 of the L channel will be heard in the left region of the video 110.
  • the high-frequency sound 201 of the R channel is directed to the right area in the video 110. Therefore, for the viewer 120, the reflected high-frequency sound 202 of the L channel can be heard from the left region of the video 110, and the reflected high-frequency sound 202 of the R channel can be heard from the right region of the video 110.
  • the area of the image 110 becomes small, and when the projector 1 and the screen 150 are relatively far apart as shown in FIG. 9B, the area of the image 110 becomes large.
  • the high-frequency speakers 3 and 3 are arranged in a relationship with the radiation angle AG1
  • the high-frequency sound 201 of the L channel and R channel will be transmitted regardless of the placement position of the projector 1, that is, if the high frequency speakers 3 and 3 are arranged in a relationship with the radiation angle AG1, Regardless of the distance, it will be reflected at the left and right areas within the image 110.
  • each high-frequency speaker 3 only needs to be fixedly arranged so as to face a predetermined direction and have a radiation angle AG1, and the projector 1 This means that there is no need to adjust the orientation of the high-frequency speakers 3, 3 depending on the placement position.
  • one high-frequency speaker 3 may be arranged so as to emit sound toward the center of the image display surface 111, that is, toward the central axis direction of the projection light 101.
  • the high-frequency speakers 3 and 3 of the L channel and R channel are arranged with the radiation angle AG1 as described above, and the high-frequency speaker 3 of the C channel is What is necessary is just to arrange
  • the audio output device 90 includes an audio source 20, an audio signal processing section 21, an amplifier 22, an adjustment control section 23, and a detection section 24.
  • the audio source 20 indicates the source of the audio signal of the audio to be reproduced together with the image to be projected.
  • the audio source 20 may be a recording medium on which an audio signal of an audio track of video content is recorded, a communication unit for receiving video content by streaming or the like, an input unit for inputting an audio signal from another device, or the like.
  • An audio signal SI to be output is supplied from the audio source 20 to the audio signal processing section 21 .
  • the audio signal is shown as monaural to avoid complication of the diagram.
  • the illustrated audio signal system has two or more channels.
  • the number of channels of the high-frequency sound 201 output from the high-frequency speaker 3 and the number of channels of the low-mid-range sound 203 output from the mid-low-frequency speaker 4 may be different.
  • high frequency audio 201 is output in two channels, L and R.
  • the middle and low range audio 203 is output monaurally.
  • the audio signal processing unit 21 is configured by, for example, a DSP (digital signal processor) and performs necessary audio signal processing.
  • a DSP digital signal processor
  • an LPF (Low Pass Filter) 31, an HPF (High Pass Filter) 32, a delay section 33, and an equalizer 34 are provided as processing functions by the DSP.
  • the LPF 31 and HPF 32 perform filter processing using the cutoff frequency fc shown in FIG. 3, for example.
  • the audio signal processing unit 21 uses an LPF 31 to extract middle and low frequency audio signal components from the input audio signal SI, and uses an HPF 32 to extract high frequency audio signal components.
  • the mid-low range audio signal component extracted by the LPF 31 is subjected to delay processing for a predetermined time in the delay unit 33, and then outputted from the audio signal processing unit 21 as the mid-low range audio signal SML.
  • This mid-low range audio signal SML is amplified by the amplifier 22 and outputted from the mid-low range speaker 4 as mid-low range audio 203.
  • the high-frequency component extracted by the HPF 32 has its sound pressure frequency characteristic adjusted by an equalizer 34, and is output from the audio signal processing section 21 as a high-frequency audio signal SH. Note that the output of the HPF 32 may be directly output from the audio signal processing section 21 as the high frequency audio signal SH without providing the equalizer 34.
  • This high frequency audio signal SH is amplified by the amplifier 22 and output from the high frequency speaker 3 as high frequency audio 201.
  • the high frequency audio signal SH is supplied to the narrow directional high frequency speaker 3, and the high frequency audio 201 is output toward the video display surface 111. Further, the delayed mid-low range audio signal SML is supplied to a mid-low range speaker 4 such as an omnidirectional speaker, and outputs mid-low range audio 203. Thereby, the above-mentioned Haas effect can be exerted, and the sound image can be localized on the video display surface 111.
  • FIG. 10 shows an adjustment control section 23, which allows adjustment to be made to obtain an appropriate Haas effect depending on the situation.
  • the adjustment control unit 23 can be configured, for example, by a processor such as a microcomputer that is separate from the audio signal processing unit 21, or can be configured by, for example, a DSP integrated with the audio signal processing unit 21.
  • the adjustment control unit 23 can instruct the audio signal processing unit 21 to calculate the delay time DS using the detection information of the detection unit 24, etc., and perform a calibration process to optimize the delay time of the delay unit 33. . Further, the adjustment control unit 23 instructs the audio signal processing unit 21 to calculate the correction value EQP using the detection information etc. of the detection unit 24, and performs a calibration process in which the equalizer 34 adjusts the sound pressure frequency characteristic given to the high frequency component. It can be performed.
  • step S101 the adjustment control unit 23 determines whether the calibration timing has arrived. For example, the adjustment control unit 23 determines the calibration timing when the projector 1 is powered on, when it starts projecting an image, or when it corresponds to a user's operation. If it is determined that it is the calibration timing, the process advances to step S102 and the calibration process shown in FIG. 11 is executed.
  • Steps S102 to S105 are processing for adjusting the delay time of the delay unit 33.
  • the adjustment control unit 23 acquires detection information regarding distance from the detection unit 24.
  • the adjustment control unit 23 calculates the distance from its own projector 1 to the video display surface 111 or a time corresponding to the distance based on the detection information regarding the distance input from the detection unit 24 .
  • the time corresponding to the distance is the time determined by the speed of sound.
  • step S104 the adjustment control unit 23 calculates an appropriate delay time of the mid-low frequency audio signal SML to obtain the Haas effect, based on the calculated distance. That is, the time it takes for the audio output from the high-frequency speaker 3 to reflect on the video display surface 111 and return to its own projector 1, that is, the time required for a round trip over the calculated distance, plus the time difference ⁇ T in FIG. is the delay time DS.
  • step S105 the adjustment control unit 23 instructs the delay unit 33 of the audio signal processing unit 21 to use the calculated delay time DS. This allows the delay unit 33 to perform delay processing using the delay time DS.
  • the optimal value of the delay time to obtain the Haas effect and to avoid giving an unnatural feeling changes slightly.
  • the detection unit 24 includes a distance measuring sensor.
  • a distance measuring sensor such as a ToF (Time of Flight) sensor is arranged so as to be able to measure the distance in front of the projection unit 2.
  • the distance between the projector 1 and the image display surface 111 can be detected based on the detection information of this distance measurement sensor.
  • the delay time DS can be obtained by adding the time difference ⁇ T to the time required for round trip.
  • the focus control section of the projection section 2 that projects an image may be used as the detection section 24.
  • the detection unit 24 is a focus information detection unit that acquires focus information of a projected image.
  • the distance between the projector 1 and the image display surface 111 can be detected by using, for example, a focal length at a certain point in time and a defocus value in that state as the focus information.
  • the delay time DS can be obtained by adding the time difference ⁇ T to the time required for round trip.
  • the distance measurement sensor described above may be an autofocus distance measurement sensor. In that case, since distance measurement information is detected as focus information, it is possible to obtain an appropriate delay time DS using it.
  • the adjustment control unit 23 controls the high frequency speaker 3 to output a predetermined high frequency audio signal SH. Then, the sound is collected by a microphone serving as the detection unit 24, and an audio signal is input. By determining the time difference between the output timing of this high frequency audio signal SH and the audio signal collected by the microphone, the time required for round trip can be determined. Then, the delay time DS can be obtained by adding the time difference ⁇ T to the time required for the round trip.
  • the detection unit 24 includes an operation detection unit that detects a user's operation input.
  • the adjustment control unit 23 detects a user input.
  • the user places the projector 1, the user inputs the distance to the screen 150.
  • the user may actually measure and input the distance, or may input a rough distance based on visual measurement.
  • the adjustment control unit 23 can calculate the delay time DS by adding the time difference ⁇ T to the time required for round trip based on the input distance.
  • the adjustment control unit 23 further performs the processing from step S106 to step S108. This is an adjustment process regarding the equalizer 34.
  • step S106 the adjustment control unit 23 acquires detection information regarding the display surface type from the detection unit 24, and determines the video display surface 111.
  • step S107 the adjustment control unit 23 calculates a correction value EQP of the sound pressure frequency characteristic for the high frequency sound 201 based on the determined type of the video display surface 111.
  • step S108 the adjustment control unit 23 instructs the equalizer 34 of the audio signal processing unit 21 to use the calculated correction value EQP. This causes the equalizer 34 to perform sound pressure frequency processing based on the correction value EQP.
  • the high frequency sound 201 is reflected by the video display surface 111 and reaches the viewer as reflected high frequency sound 202.
  • the sound pressure frequency characteristics of the reflected high-frequency sound 202 may change depending on the material of the screen 150 and walls that constitute the video display surface 111. Therefore, in the above process, a correction value EQP that takes into account changes in the sound pressure frequency characteristics is calculated according to the material of the video display surface 111 at that time, and the sound pressure frequency characteristics of the reflected high-frequency sound 202 are adjusted to match the high-frequency sound
  • the sound pressure frequency characteristic is made to have the originally intended sound pressure frequency characteristic due to the signal SH.
  • a correction value EQP is obtained so as to give a characteristic inverse to the change in sound pressure frequency characteristic of the reflected high-frequency sound 202, and the equalizer 34 performs equalization of the high-frequency sound signal SH. For example, when attenuation occurs in a certain band, equalization is performed to boost that band in advance. Then, high frequency sound 201 is output from high frequency speaker 3. When this high-frequency sound 201 is reflected by the video display surface 111, a change in sound pressure frequency characteristics occurs, but by giving an inverse characteristic in advance by the correction value EQP, the reflected high-frequency sound 202 changes from the high-frequency sound signal SH This results in the originally intended sound pressure frequency characteristics.
  • the detection section 24 includes an imaging section (image sensor).
  • the imaging section is arranged so as to photograph the front of the projection section 2.
  • the wall and screen 150 that constitute the video display surface 111 are reflected in the image obtained by this imaging unit.
  • the adjustment control unit 23 performs object recognition processing on this captured image to determine what kind of material the video display surface 111 is made of. For example, image recognition is used to determine whether it is a wall or a screen. In some cases, the type of screen, wall material, etc. can be detected. Changes in the sound pressure frequency characteristics due to the material of the reflecting surface can be specified in advance, so if, for example, a correction value EQP corresponding to the material is stored, the correction value EQP can be determined from the determination result of the type and material.
  • the adjustment control unit 23 controls the high frequency speaker 3 to output a predetermined high frequency audio signal SH. Then, the sound is collected by a microphone serving as the detection unit 24, and an audio signal is input.
  • a correction value EQP that is the inverse characteristic of the change in the sound pressure frequency characteristic.
  • the detection unit 24 includes an operation detection unit that detects a user's operation input.
  • the adjustment control unit 23 detects a user input. It is preferable to provide an interface that allows the user to input the type of screen, model number, material of the wall, etc. For example, the user can choose between the screen and the wall, and the material of the wall. Changes in the sound pressure frequency characteristics due to the material of the reflecting surface can be specified in advance, so if, for example, a correction value EQP corresponding to the material is stored, the correction value EQP can be determined from the determination result of the type and material.
  • the adjustment control unit 23 executes both the delay time adjustment processing from step S102 to step S105 and the sound pressure frequency characteristic adjustment processing from step S106 to step S108. It is also possible to perform only one of them. Further, in the configuration of FIG. 10, the adjustment control section 23 and the detection section 24 do not necessarily need to be provided. In other words, there may be an audio output device 90 in which the calibration process as shown in FIG. 11 is not performed.
  • examples of narrow directional speakers that can be used as the high frequency speaker 3 include a phase interference type narrow directional speaker, a parabolic type narrow directional speaker, and an ultrasonic type narrow directional speaker.
  • FIG. 12 shows a phase interference type narrow directional speaker.
  • This is called a beam tweeter and has a structure including a top 40, a pipe 41, a neck 42, and a driver 43.
  • the pipe 41 having apertures with a constant pitch in the sound emitting portion of the tweeter, the lateral sound pressure radiated from the apertures becomes a negative phase component, thereby reducing lateral energy.
  • This provides narrow directivity for radiation in the front direction.
  • good narrow directivity can be obtained in a high range from 5 KHz to 7 KHz, for example.
  • Figure 13 shows a parabolic narrow directional speaker.
  • This is a structure in which a speaker 45 is placed at the parabolic focal point of a concave reflective curved surface 44 having a parabolic surface of revolution.
  • the sound waves reflected by the concave reflective curved surface 44 become parallel waves and have narrow directivity.
  • good narrow directivity can be obtained in a band of 5 KHz or 10 KHz.
  • Figure 14 shows an ultrasonic narrow directional speaker. This uses an ultrasonic wave outside the audible band, such as 40 KHz, as a carrier, which has narrow directivity characteristics, and performs AM modulation with the original sound (high-frequency audio signal SH) to obtain narrow directivity.
  • an ultrasonic wave outside the audible band such as 40 KHz
  • the high frequency sound 201 can be appropriately reflected on the video display surface 111.
  • FIG. 15 shows an example using a short focus projector 50 as the second embodiment.
  • the short throw projector 50 can be placed close to the screen 150, for example, as shown.
  • the delayed mid-low frequency sound 203 directly reaches the viewer 120, while the high frequency sound 201 is reflected on the video display surface 111 and reaches the viewer 120 as reflected high frequency sound 202. Make it.
  • FIG. 16 shows an example of speaker arrangement in the short focus projector 50.
  • 16A is a perspective view seen from the projection plane side
  • FIG. 16B is a perspective view seen from the viewer side
  • FIG. 16C is a view seen from the plane direction.
  • a projection unit 2 is provided on the top surface of the housing of the short focus projector 50, and projects an image onto a screen 150 or the like.
  • the mid-low range speaker 4 is provided on the viewer side surface of the housing. In this example, a three-channel configuration is used, and L-channel, R-channel, and C-channel speakers are arranged as the mid-low frequency speakers 4.
  • the high-frequency speaker 3 is arranged on the projection surface side of the housing, for example, facing the image projection direction of the projection section 2.
  • a three-channel configuration is used, and as the high frequency speaker 3, L channel, R channel, and C channel speakers are arranged.
  • High-frequency sound 201 outputted from such high-frequency speaker 3 is emitted toward video display surface 111 .
  • the high frequency speaker 3 may be provided on the top surface of the housing.
  • the high-frequency speakers 3 for the L channel and the R channel are arranged so that the high-frequency sound 201 is directed toward the video display surface 111 with the radiation angle AG1 as explained in FIG.
  • the speaker 3 is arranged so that the high frequency sound 201 is directed toward the center of the video display surface 111.
  • the configuration of the audio output device 90 built into the short focus projector 50 is as described in FIG. 10.
  • the short focus projector 50 similarly to the projector 1 of the first embodiment, it is possible to provide the viewer 120 with a state in which the playback positions of video and audio coincide.
  • FIG. 17 shows an example in which a separate bar-shaped speaker 60 is arranged near the short focus projector 50.
  • a short focus projector 50 projects an image 110 onto an image display surface 111, and a bar-shaped speaker 60 outputs audio.
  • the bar-shaped speaker 60 has a built-in audio output device 90 as shown in FIG. It is reflected on the video display surface 111 and reaches the viewer 120 as reflected high-frequency sound 202.
  • FIG. 18A is a perspective view seen from the viewer side
  • FIG. 18B is a perspective view seen from the projection plane side.
  • the low-mid range speaker 4 is provided on the viewer side surface of the housing of the bar-shaped speaker 60.
  • a three-channel configuration is used, and L-channel, R-channel, and C-channel speakers are arranged as the mid-low frequency speakers 4.
  • the high-frequency speaker 3 is arranged on the projection surface side of the housing, for example, facing the direction in which an image is projected by the short focus projector 50.
  • a three-channel configuration is used, and as the high frequency speaker 3, L channel, R channel, and C channel speakers are arranged.
  • High-frequency sound 201 outputted from such high-frequency speaker 3 is emitted toward video display surface 111 .
  • the high frequency speaker 3 may be provided on the top surface of the housing.
  • the high-frequency speakers 3 for the L channel and the R channel are arranged so that the high-frequency sound 201 is directed toward the video display surface 111 with the radiation angle AG1 as explained in FIG.
  • the speaker 3 is arranged so that the high frequency sound 201 is directed toward the center of the video display surface 111.
  • the bar-shaped speaker 60 has a built-in audio output device 90 configured as shown in FIG.
  • the bar-shaped speaker 60 that is separate from the short-focus projector 50, the high-frequency sound 201 is reflected on the video display surface 111, and the mid-low-range sound 203 is delayed so that it reaches the viewer 120 directly.
  • the short focus projector 50 is a device not equipped with the audio output device 90 of the present disclosure, it is possible to provide the viewer with a state in which the playback positions of video and audio match.
  • the bar-shaped speaker 60 can provide a state in which the reproduction positions of the video and the audio coincide. Note that although the bar-shaped speaker 60 is used as an example, the present technology is not limited to the bar-shaped speaker device, and can be applied to various speaker devices that are separate from a projector.
  • FIGS. 19 and 20 show an example of the external appearance of a ceiling-mounted projector 70, in which the projection section 2 is provided at the periphery of a cylindrical shape. Further, L channel and R channel high frequency speakers 3, 3 are provided on the left and right sides of the projection section 2. L-channel and R-channel mid-low frequency speakers 4, 4 are provided at the bottom of the housing.
  • FIG. 1 An example of how this ceiling-mounted projector 70 is used is shown in FIG.
  • the ceiling-mounted projector 70 projects an image 110 from the projection unit 2 onto a screen 150 or the like.
  • High frequency audio 201 from the high frequency speakers 3, 3 is output toward the video display surface 111, and reflected high frequency audio 202 reaches the viewer 120.
  • the mid-low range audio 203 from the mid-low range audio 203 is directly output from near the ceiling into the room where the viewer 120 is present.
  • the audio output device 90 of the embodiment includes a high-frequency speaker 3 (first speaker) configured as a directional speaker arranged toward the video display surface 111, and has a directivity that is at least wider than the high-frequency speaker 3. It includes a mid-low frequency speaker 4 (second speaker) and an audio signal processing section 21.
  • the audio signal processing unit 21 extracts a signal component on the high frequency band side of the audio signal SI output together with the video 110 to be displayed on the video display surface 111, and generates a high frequency audio signal SH (first audio signal).
  • the audio signal processing unit 21 extracts a signal component including a lower frequency band side than the first audio signal of the audio signal SI to be output together with the video to be displayed on the video display surface 111, performs delay processing, and performs delay processing on the low frequency band speaker.
  • the low-mid range audio signal SML (second audio signal) is supplied to the audio signal SML.
  • the viewer 120 perceives the reflected high-frequency sound 202 reflected by the video display surface 111 before the mid-low frequency sound 203, and the sound image is localized on the video display surface 111 due to the Haas effect. This allows the video and audio playback positions perceived by the viewer to match, providing a more comfortable and realistic viewing environment.
  • the first audio signal is the high frequency audio signal SH
  • the second audio signal is the mid-low frequency audio signal SML
  • the high frequency audio signal SH and the mid-low frequency audio signal SML are the entire audible band. does not need to be included.
  • a certain higher frequency band may be used as the first audio signal
  • a signal including a lower frequency band than the first audio signal may be used as the second audio signal.
  • an audio signal component in a specific band of about 3KHz to 10KHz is considered as a first audio signal
  • an audio signal component including all or part of the mid-low range below 3KHz is considered as a second audio signal.
  • the second audio signal when used as a signal, for example, it may be considered that the second audio signal includes a band exceeding 10 KHz. That is, if the first audio signal, which includes at least a band to which humans are sensitive, reaches the viewer 120 earlier than the second audio signal due to the Haas effect, it is suitable as audio synchronized with the video. be.
  • the high frequency sound 201 is reflected once on the video display surface 111 and reaches the viewer 120 as the reflected high frequency sound 202.
  • the sound emission direction of the high frequency speaker 3 is set so that the sound reaches the viewer 120 after one reflection on the video display surface 111. This is because if the sound reaches the viewer 120 after being reflected on the video display surface 111 and then further reflected on the ceiling or walls, the viewer 120 will not be able to localize the sound image on the video display surface 111. Therefore, in order to make the user perceive that the video and audio playback positions match, the high-frequency speakers 3 should be arranged (sound emitting direction) is set.
  • the setting may be such that the reflected high-frequency sound 202 advances approximately in the front direction of the video display surface 111.
  • the reflected high-frequency sound 202 directly reaching the viewer 120 means that it reaches the viewer 120 in a straight line from the video display surface 111 in the shortest distance, and the delay time for the Haas effect is appropriately set. It is suitable for this purpose.
  • the audio output device 90 is configured to include the projection section 2 that projects an image onto the image display surface 111.
  • the configuration is such that the audio output device 90 of the present technology is installed in a projector.
  • a projector for example, as a speaker-integrated projector, the above-mentioned projector 1, short focus projector 50, ceiling-mounted projector 70, etc. are assumed. According to such a projector, even when the projector is placed away from the video display surface 111, the playback positions of video and audio can be matched, and the marketability of the projector can be improved.
  • the high-frequency speaker 3 is arranged so as to output audio in the direction in which the image is projected by the projection unit 2.
  • the sound from the high-frequency speaker 3, which is a narrow directional speaker is naturally output toward the image display surface 111. Therefore, by arranging the projector in an arbitrary projection direction, the user can naturally obtain an environment in which the playback positions of video and audio match according to the present technology without the user being aware of it.
  • the mid-low frequency speaker 4 is an omnidirectional speaker.
  • the mid-low range sound 203 By outputting the mid-low range sound 203 from the omnidirectional mid-low range speaker 4, it is easy to hear the mid-low range sound 203 regardless of the user's position. For example, it is possible to avoid restricting the user's preferred position around the projector 1 and the like.
  • a plurality of channel speakers including an L channel and an R channel are provided as the high frequency speaker 3, and the L channel high frequency speaker 3 is fixedly arranged toward the left area of the video display surface 111, and It is assumed that the channel high-frequency speaker 3 is fixedly placed toward the right region of the video display surface 111 (see FIGS. 9A and 9B).
  • the arrival positions of the L and R channel audio naturally change as well.
  • the high-frequency speakers 3 of the L and R channels are arranged at an appropriate radiation angle AG1, there is no need to adjust the arrangement direction of the high-frequency speakers 3.
  • the audio output device 90 includes an adjustment control unit 23 that sets the delay time of delay processing by the audio signal processing unit 21 based on detection information regarding the distance between the audio signal processing unit 21 and the video display surface 111.
  • Detection information related to distance may include various information such as the distance itself, a time difference caused by the distance, and a value that changes depending on the distance.
  • the delay time of the reflected high-frequency sound 202 and the low-mid-range sound 203 that reach the viewer 120 is determined appropriately. It is desirable that it be adjusted.
  • the delay time given to the mid-low frequency sound 203 may be finely adjusted depending on the distance between the projector 1 and the screen 150.
  • the delay time according to the distance between the projector 1 and the screen 150 through the calibration process of the adjustment control unit 23, an appropriate delay time can be set even if the user places the projector 1 in any position. .
  • This is particularly suitable for portable projectors.
  • the detection information include detection information of an operation when a user inputs a distance, distance information of a distance measuring sensor, focus information, and an audio signal detected by a microphone.
  • the adjustment control unit 23 sets the delay time based on the detection information of the ranging sensor.
  • the detection unit 24 in FIG. 10 includes a distance measurement sensor such as a ToF sensor, and measures the distance to the screen 150. Thereby, the distance between the projector 1 and the screen 150 can be detected, and an appropriate delay time can be set to obtain the Haas effect.
  • the adjustment control section 23 sets the delay time based on the detection information of the focus information by the focus information detection section.
  • a focus information detection section is provided as the detection section 24 in FIG. 10 to obtain focus information.
  • the focus information here is, for example, defocus information or ranging information. Since the distance to the screen 150 can be determined from the focus information, it is possible to set an appropriate delay time to obtain the Haas effect. Furthermore, by using the focus information from the focus information detection section mounted on the projector 1, there is an advantage that no additional configuration is required for setting the delay time.
  • the adjustment control unit 23 based on the detection information of the time difference between the high frequency audio signal SH and the audio signal obtained by collecting the audio output from the high frequency speaker 3 using the microphone, An example of setting the delay time was given.
  • a microphone is provided as the detection unit 24 in FIG. 10, and by obtaining the time difference between the high-frequency audio signal SH outputted from the high-frequency speaker 3 and the audio signal collected by the microphone, it is possible to The delay time can be determined. This makes it possible to set an appropriate delay time to obtain the Haas effect.
  • the audio signal processing unit 21 is capable of adjusting the sound pressure frequency characteristics of the high frequency audio signal SH using the equalizer 34.
  • An adjustment control section 23 is provided for setting the sound pressure frequency characteristics of the adjustment processing performed by the audio signal processing section 21. Since the high-frequency sound 201 is reflected on the video display surface 111 such as the screen 150, attenuation or changes in frequency characteristics may occur in the reflected high-frequency sound 202 depending on the material and type of the video display surface 111. Therefore, by correcting the sound pressure frequency characteristics of the high-frequency audio signal SH in advance, assuming changes in the sound pressure frequency characteristics of the reflected high-frequency sound 202, the reflected high-frequency sound 202 that reaches the viewer 120 can be
  • the sound pressure frequency characteristics can be set as follows. Particularly in the case of a portable projector, the screen 150 can be made of various materials. By being able to variably adjust the sound pressure frequency characteristics of the high frequency audio signal SH, it is possible to adapt to various types of screens 150.
  • the adjustment control unit 23 determines the type of the video display surface 111 based on the image captured by the imaging unit, and sets the sound pressure frequency characteristic based on the determination result.
  • an imaging section is provided as the detection section 24 in FIG. 10, so that an image of the video display surface 111 can be obtained.
  • changes in sound pressure frequency characteristics due to reflection can be estimated. Therefore, it is possible to calculate the sound pressure frequency characteristic to be corrected and set the correction value EQP by the equalizer 34 of the audio signal processing section 21. Thereby, it is possible to prevent or reduce the change in the sound pressure frequency characteristics of the reflected high-frequency sound 202 that reaches the viewer 120 due to the influence of the video display surface 111.
  • the adjustment control unit 23 compares the sound pressure frequency characteristics of the high frequency audio signal SH and the audio signal obtained by collecting the audio output from the high frequency speaker 3 using the microphone. , gave an example of setting sound pressure frequency characteristics. For example, by providing a microphone as the detection unit 24 in FIG. 10 to obtain an audio signal of the reflected high-frequency sound 202, and comparing this with the high-frequency sound signal SH before output (the audio signal at the output stage of the HPF 32), it is possible to detect the Changes in sound pressure frequency characteristics can be determined. Therefore, it is possible to calculate the sound pressure frequency characteristic to be corrected and set the correction value EQP by the equalizer 34 of the audio signal processing section 21. Thereby, it is possible to prevent or reduce the change in the sound pressure frequency characteristics of the reflected high-frequency sound 202 that reaches the viewer 120 due to the influence of the video display surface 111.
  • the adjustment control section 23 sets the sound pressure frequency characteristic based on the operation information input from the operation input section.
  • an operation input section is provided as the detection section 24 in FIG. 10, so that the user can input the type of the video display surface 111.
  • changes in the sound pressure frequency characteristics due to reflection can be estimated, so the sound pressure frequency characteristics to be corrected can be calculated and the correction value EQP by the equalizer 34 of the audio signal processing section 21 can be set.
  • the equalizer 34 of the audio signal processing section 21 can be set.
  • a first speaker that is a directional speaker placed toward the video display surface; a second speaker having at least wider directivity than the first speaker;
  • a signal component on the high frequency band side of the audio signal to be output together with the video to be displayed on the video display screen is extracted, and the signal component is set as a first audio signal to be supplied to the first speaker, and the signal is output together with the video to be displayed on the video display surface.
  • an audio signal processing unit that extracts a signal component including a lower frequency band than the first audio signal of the audio signal, performs delay processing, and generates a second audio signal to be supplied to the second speaker.
  • the audio output device including a projection unit that projects an image onto the image display surface.
  • the first speaker is arranged to output audio in a direction in which the image is projected by the projection unit.
  • the second speaker is an omnidirectional speaker.
  • a multi-channel speaker including a left channel and a right channel is provided as the first speaker, the first speaker of the left channel is fixedly arranged toward the left region of the video display surface, The audio output device according to any one of (1) to (4), wherein the first speaker of the right channel is fixedly arranged toward the right region of the video display surface.
  • any one of (1) to (5) above further comprising an adjustment control unit that sets a delay time of the delay processing by the audio signal processing unit based on detection information regarding a distance between the audio signal processing unit and the video display surface.
  • audio output device (7) The audio output device according to (6) above, wherein the adjustment control unit sets the delay time based on detection information from a distance measurement sensor.
  • the adjustment control unit sets the delay time based on detection information of focus information used for focus control of a projected image by a projection unit that projects an image onto the image display surface.
  • the adjustment control unit sets the delay time based on detection information of a time difference between the first audio signal and an audio signal collected by a microphone for audio output from the first speaker.
  • the audio output device according to (6) above.
  • the audio signal processing unit is capable of adjusting sound pressure frequency characteristics of the first audio signal,
  • the audio output device according to any one of (1) to (9) above, including an adjustment control unit that sets the sound pressure frequency characteristic of the adjustment process by the audio signal processing unit.
  • the adjustment control unit determines the type of the video display surface based on an image captured by an imaging unit that captures an image of the video display surface side, and sets the sound pressure frequency characteristic of the adjustment process based on the determination result.
  • the audio output device according to (10).
  • the adjustment control unit compares the sound pressure frequency characteristics of the first audio signal and an audio signal collected by a microphone with respect to the audio output from the first speaker, and performs the adjustment process.
  • a directional speaker that extracts a signal component on the high frequency band side of an audio signal to be output together with an image to be displayed on a video display surface to generate a first audio signal, and is arranged to direct the first audio signal toward the video display surface.
  • a signal component including a lower frequency band than the first audio signal of the audio signal to be output together with the video to be displayed on the video display screen is extracted and delayed, resulting in a second audio signal, and the second audio signal is at least
  • An audio output method comprising supplying audio to a second speaker having wider directivity than the first speaker and outputting audio.

Abstract

音声出力装置は、映像表示面に向けて配置される指向性スピーカーである第1スピーカーと、少なくとも第1スピーカーより広い指向性とされた第2スピーカーと、音声信号処理部を備える。音声信号処理部は、映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して、第1スピーカーに供給する第1音声信号とする。また映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出し、遅延処理を行って、第2スピーカーに供給する第2音声信号とする。

Description

音声出力装置、音声出力方法
 本技術は映像と共に再生させる音声を出力する音声出力装置、音声出力方法に関する。
 壁やスクリーンなどに映像を投影するプロジェクターにおいて、映像と同時に再生する音声に関する技術として、下記特許文献1がある。これは、画面の近傍に配置したオーディオ装置において特定チャネル、例えばサラウンドチャネルの放射音を画面や壁や天井などから、視聴者の位置に反射させることが開示されている。
米国特許第10863276号
 モバイルプロジェクター、或いはポータブルプロジェクターと呼ばれる映像投影と音声再生を一体化した機器がある。音再生機能を内蔵しているため、ユーザはこのようなプロジェクターを任意の場所に設置するのみで映画などのコンテンツを映像と音声を伴って体験することが可能である。
 ところがプロジェクター本体内のスピーカーから音声が出力されるため、プロジェクターが投影映像の表示面と離れて配置されていると、映像と音声の再生位置が異なり、ユーザに違和感を生じさせる場合がある。
 また、別体のスピーカーから音出力を行う場合でも、音声の定位が映像表示面上とはならないことで違和感を生じさせることもある。
 そこで本技術は、映像と音声の再生位置を一致させ、ユーザが臨場感のある映像及び音声の体験ができるようにすることを目的とする。
 本技術に係る音声出力装置は、映像表示面に向けて配置される指向性スピーカーである第1スピーカーと、少なくとも前記第1スピーカーより広い指向性とされた第2スピーカーと、前記映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して、前記第1スピーカーに供給する第1音声信号とし、前記映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出し、遅延処理を行って、前記第2スピーカーに供給する第2音声信号とする音声信号処理部と、を備える。
 この構成により、映像に付随する音声のうちで、第1スピーカーから高域側の音声が出力され、映像表示面に反射されて視聴者に達し、また低域側の音声が遅延されて視聴者に達することになる。
本技術の第1の実施の形態のプロジェクター使用状態の説明図である。 比較例のプロジェクター使用状態の説明図である。 実施の形態の出力音声の高域特性と中低域特性の説明図である。 実施の形態のプロジェクターの外観例の説明図である。 実施の形態のプロジェクターの外観例の説明図である。 実施の形態のハース効果の説明図である。 実施の形態のモノラルチャネルの例の説明図である。 実施の形態の3チャネルの例の説明図である。 実施の形態の高域音声の放射角の説明図である。 実施の形態の音声出力装置のブロック図である。 実施の形態のキャリブレーション処理のフローチャートである。 実施の形態に適用できる位相干渉型狭指向性スピーカーの説明図である。 実施の形態に適用できるパラボリック型狭指向性スピーカーの説明図である。 実施の形態に適用できる超音波型狭指向性スピーカーの説明図である。 第2の実施の形態の短焦点プロジェクターの使用状態の説明図である。 第2の実施の形態の短焦点プロジェクターのスピーカー構成の説明図である。 第3の実施の形態のバー状スピーカーの使用状態の説明図である。 第3の実施の形態のバー状スピーカーのスピーカー構成の説明図である。 第4の実施の形態の天井設置型プロジェクターの斜視図である。 第4の実施の形態の天井設置型プロジェクターの使用状態の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.第1の実施の形態:ポータブルプロジェクター>
<2.第2の実施の形態:短焦点プロジェクター>
<3.第3の実施の形態:バー状スピーカー>
<4.第4の実施の形態:天井設置型プロジェクター>
<5.まとめ及び変型例>
<1.第1の実施の形態:ポータブルプロジェクター>
 第1の実施の形態として、図1にはプロジェクター1を用いた映像コンテンツの視聴状態を示している。この場合のプロジェクター1は、ポータブルプロジェクター或いはモバイルプロジェクターなどとして呼ばれる比較的小型の装置であるとしている。
 ポータブルタイプのプロジェクター1は、比較的小型の筐体で構成されて、ユーザが持ち運ぶことが可能である。スピーカーやバッテリーも内蔵することで、ユーザは、任意の場所にプロジェクター1を設置して、壁やスクリーン150に映像を投影させて、映画などのコンテンツを映像と音声を伴って体験することが可能である。
 図1では、プロジェクター1は例えば視聴者120の近辺に設置され、投影光101を照射してスクリーン150に映像110を表示させる。これによりスクリーン150上に映像表示面111が形成される。また映像110と共に再生される音声は、プロジェクター1に内蔵されたスピーカーから出力される。
 ここで実施の形態における音声出力の説明の前に、図2で比較例を説明する。図2も図1と同様にプロジェクター300を設置してスクリーン150に映像110を投影している状態を示している。音声はプロジェクター300に内蔵されたスピーカーから出力される。
 この場合に、視聴者120は、矢印100で示すように映像表示面111の映像110を認識している一方、音に関しては、矢印210で示すようにプロジェクター300の方向から聞こえてくるものとして知覚する。このため、視聴者120にとっては、映像110と音声211の位置が一致しない。例えば映画などのコンテンツにおいて、映像110内の俳優が話す声が、その映像の方向ではなく、横から聞こえてくるような状態となり、視聴者120に違和感を生じさせる。
 そこで本実施の形態では、図1に示すように音声再生に関して工夫するものである。
 図1は音声出力に関しては、L(左)チャネル、R(右)チャネルの2チャネル構成の例で示している。
 プロジェクター1は、中低域音声203を周囲に広い指向性で出力する一方で、高域音声201を映像表示面111に向けて出力する。特に狭指向性スピーカーを映像表示面111に向くように配置することで、高域音声201が映像表示面111に向けて放音される。この高域音声201はスクリーン150で反射する。その反射高域音声202が視聴者120に到達し、視聴者120に聴取される。従って視聴者120にとっては、反射高域音声202は、映像表示面111が放音位置(仮想的なスピーカー位置)として認識されることになる。
 一方、中低域音声203は、プロジェクター1に内蔵する例えば無指向性のスピーカー、或いは比較的広い指向性を有するスピーカーにより音声として出力する。
 この場合にプロジェクター1は、中低域音声203については所定時間遅延させて出力させることで、視聴者120にとって、反射高域音声202が中低域音声203よりもわずかに早く到達するようにする。
 この場合、高域音声201(反射高域音声202)については、映像110に合わせたタイミングとする。例えば映像110内の俳優の声や動きなどの映像内容と音が一致するようにする。高域スピーカー3からの高域音声201の出力タイミングと、映像内容を一致させればよいが、視聴者120に到達するまでの距離も考慮して、反射高域音声202と映像内容を一致するように高域音声201の出力タイミングを設定してもよい。
 これに対して、中低域音声203がわずかに遅れて視聴者120に知覚されるようにする。すると、ハース効果(先行音効果)により、視聴者120にとっては、先に届いた反射高域音声202の方向に音像が定位されることになる。つまり映像110が表示された映像表示面111の方向である。
 そして反射高域音声202が映像110の方向から、映像に対して遅れなく到達することで、視聴者120は、映像110内から音声が出力されているように知覚する。さらには中低域音声203も加わって、視聴者120は、迫力ある音声が映像表示面111から発せされているように知覚するものとなる。
 このようにすることで、ポータブルタイプのプロジェクター1を任意の位置に設置しても、視聴者120には映像と音声の再生位置が一致して感じられ、臨場感のある映像及び音声の体験ができる。
 以下、プロジェクター1について具体的に説明する。
 図3は、高域音声201と中低域音声203の周波数特性を示している。
 あるカットオフ周波数fcを設定し、フィルタ処理で高周波数帯域側の信号成分を抽出して高域音声201とする。またカットオフ周波数fcより低周波数帯域側の信号成分をフィルタ処理で抽出して中低域音声203とする。図3ではこの場合の高域特性161、中低域特性162を示している。
 カットオフ周波数fcは、例えば3KHz前後とすることが考えられる。3KHzとするのは一例であるが、人が敏感な帯域である5KHzから7KHzあたりが、高域音声201に含まれるようにするとよい。一方で、特定の狭帯域のみとすると、画面に反射させる成分と本体から直接視聴者120に達する成分の間で、二重に聞こえるように感じられることがあるため、なるべく広帯域とするとよい。そこで、5KHzから7KHzあたりを含み、なるべく広帯域という意味で、例えば3KHzより高域を高域音声201とすることが考えられる。もちろん高域音声201を、4KHzより高域とする例や、5KHzより高域とする例なども考えられる。
 なおカットオフ周波数fcは、可変設定できるようにしてもよい。例えばユーザ操作で変更するようにしてもよいし、反射特性を考慮して、映像表示面111の材質等により調整されるようにしてもよい。
 また、実施の形態では、例えば3KHz前後で高域側と低域側を分けることで、「高域」と「中低域」に分けるものとして説明するが、例えば「高域及び中域」と「低域」に分けるような例も考えられる。
 プロジェクター1は、このように帯域分割した高域音声201と中低域音声203を出力する。図4は、モノラルチャネルの場合のプロジェクター1の構成を模式的に示したものである。
 プロジェクター1は、筐体のスクリーン側の面に、投影光101を出力する投影部2が形成される。
 狭指向性の高域スピーカー3は、例えばこの投影部2の投影方向に向かって放音するように設けられている。これにより高域スピーカー3からの高域音声201は、映像表示面111に向かい、反射される状態となる。
 中低域スピーカー4は、プロジェクター1の筐体内部や、筐体上の投影部2とは異なる面などに設けられる。例えば筐体内部の中低域スピーカー4からの音声は、放音孔6を通って放音される。また筐体上の面に設けられた中低域スピーカー4からの音声は、その筐体の面から放音される。中低域スピーカー4は無指向性や広指向性であるので、中低域音声203は周囲の視聴者120に直接到達する。
 図5はLRステレオチャネルの場合のプロジェクター1の構成を模式的に示したものである。Lチャネル、Rチャネルのそれぞれの狭指向性の高域スピーカー3が、投影部2の投影方向に向かって放音するように設けられている。これにより高域スピーカー3、3からのLチャネル、Rチャネルの高域音声201は、映像表示面111に向かい、反射される状態となる。
 中低域スピーカー4はLチャネル、Rチャネルのそれぞれに対応して、プロジェクター1の筐体内部や、筐体上の投影部2とは異なる面などに設けられる。
 以上の図4,図5はあくまで模式的な一例として示したもので、プロジェクター1の形状、スピーカー数、チャネル数、スピーカー配置構成などは多様に考えられる。
 例えば以上のようなプロジェクター1によるハース効果について図6で説明する。
 図6ではLチャネル、Rチャネルの高域スピーカー3からの高域音声201が、スクリーン150上の映像表示面111に反射し、反射高域音声202としてのLチャネル(Lch)、Rチャネル(Rch)の音声が視聴者120に到達する状態を示している。
 また中低域音声203は、中低域スピーカー4から直接視聴者120に到達する。
 このときに、反射高域音声202に対して、中低域音声203が、時間差ΔTだけ遅れるようにすることでハース効果を得る。これにより視聴者120に、音像が映像表示面111に定位しているように感じさせる。
 なお、高域音声201(高域スピーカー3)は、LR2チャネルにする以外に、モノラルチャネルとしたり、Lチャネル、Rチャネル、C(センター)チャネル(Cch)の3チャネル構成にしたりすることが考えら得る。さらに4チャネル以上に多チャネル構成にしてもよい。
 図7は高域音声201をモノラルチャネルとする場合、図8は高域音声201を3チャネル構成にする場合を、それぞれ示している。
 いずれの場合も、1又は複数チャネルの反射高域音声202に対して、中低域音声203が、時間差ΔTだけ遅れるようにする。
 なお、図6,図7,図8の各例では中低域スピーカー4を1つのみ示しているが、中低域スピーカー4が2チャネル、3チャネルのステレオスピーカー構成を採ってもよい。
 ところで、L、Rの2チャネルで高域スピーカー3を配置する場合、各高域スピーカー3は、それぞれ所定の方向に向けて固定配置されればよい。
 図9Aは、プロジェクター1とスクリーン150が比較的近い場合、図9Bはプロジェクター1とスクリーン150が比較的遠い場合を示している。
 この場合に、Lチャネルの高域スピーカー3は、高域音声201が映像表示面111の左方領域に向けて出力されるように固定配置され、Rチャネルの高域音声201の高域スピーカー3は、高域音声201が映像表示面111の右方領域に向けて出力されるように固定配置されている。
 この場合、両高域スピーカー3、3は放射角AG1をもつように配置される。放射角AG1は、投影光101の放射角AG2に基づいて決められる。すなわち放射角AG1が、放射角AG2の角度範囲内で、かつ放射角AG2より若干小さくなるように、高域スピーカー3、3を配置すると、Lチャネルの高域音声201は映像110内の左領域に向かい、Rチャネルの高域音声201は映像110内の右領域に向かうことになる。
 従って視聴者120にとっては、Lチャネルの反射高域音声202は映像110の左の領域から聞こえ、Rチャネルの反射高域音声202は映像110の右の領域から聞こえる状態となる。
 そして、図9Aのようにプロジェクター1とスクリーン150が比較的近い場合、映像110の面積は小さくなり、図9Bのようにプロジェクター1とスクリーン150が比較的遠い場合は、映像110の面積は大きくなる。
 これを考えると、例えば高域スピーカー3、3を放射角AG1の関係で配置すると、LチャネルとRチャネルの高域音声201は、プロジェクター1の配置位置に関わらず、つまり映像表示面111との距離に関わらず、映像110内の左領域と右領域で反射されることになる。
 従ってL、Rの2チャネルで高域スピーカー3を配置する場合、各高域スピーカー3は、それぞれ所定の方向に向けて、放射角AG1の状態となるように固定配置されればよく、プロジェクター1の配置位置に応じた高域スピーカー3、3の向きの調整は不要ということになる。
 なお、モノラルチャネルの場合は、1つの高域スピーカー3は、映像表示面111の中央、つまり投影光101の中心軸方向に向かって放音するように配置すればよい。
 また、L、R、Cの3チャネルの場合、Lチャネル、Rチャネルの高域スピーカー3、3は、上記のように放射角AG1の関係で配置し、Cチャネルの高域スピーカー3は投影光101の中心軸方向に向かって放音するように配置すればよい。
 図10により、プロジェクター1に内蔵される音声出力装置90の構成例を説明する。
 音声出力装置90は、オーディオソース20、音声信号処理部21、アンプ22、調整制御部23、検出部24を備える。
 オーディオソース20は、投影する映像と共に再生する音声の音声信号のソースを示している。例えば映像コンテンツのオーディオトラックの音声信号を記録した記録媒体や、ストリーミングなどにより映像コンテンツを受信する際の通信部や、他の機器から音声信号を入力する入力部などが、オーディオソース20となり得る。オーディオソース20から、出力すべき音声信号SIが音声信号処理部21に供給される。
 なお、図10では図の煩雑化を避けるため音声信号はモノラルとして示している。上述の2チャネルや3チャネルの場合は、図示する音声信号の系統が2チャネル以上となればよい。
 また高域スピーカー3から出力する高域音声201のチャネル数と、中低域スピーカー4から出力する中低域音声203のチャネル数が異なっていてもよい。例えば高域音声201はL、Rの2チャネルで出力され。中低域音声203はモノラル出力されるような例である。
 音声信号処理部21は、例えばDSP(digital signal processor)によって構成されて必要な音声信号処理を行う。
 本実施の形態の場合、DSPによる処理機能として、図示のようにLPF(Low Pass Filter)31、HPF(High Pass Filter)32、遅延部33、イコライザ34が設けられる。LPF31、HPF32は例えば図3に示したカットオフ周波数fcによるフィルタ処理を行う。
 音声信号処理部21は入力される音声信号SIについて、LPF31で中低域音声信号成分を抽出し、またHPF32で高域音声信号成分を抽出する。
 LPF31で抽出された中低域音声信号成分は、遅延部33で所定時間の遅延処理が施されたうえで、中低域音声信号SMLとして音声信号処理部21から出力される。
 この中低域音声信号SMLは、アンプ22で増幅されて中低域スピーカー4から中低域音声203として出力される。
 HPF32で抽出された高域成分は、イコライザ34で音圧周波数特性の調整が行われて、高域音声信号SHとして音声信号処理部21から出力される。なお、特にイコライザ34を設けずに、HPF32の出力をそのまま高域音声信号SHとして音声信号処理部21から出力してもよい。
 この高域音声信号SHは、アンプ22で増幅されて高域スピーカー3から高域音声201として出力される。
 以上の構成により、高域音声信号SHを狭指向性の高域スピーカー3に供給して、高域音声201を映像表示面111に向けて出力する。
 また遅延処理が施された中低域音声信号SMLを無指向性などの中低域スピーカー4に供給して、中低域音声203を出力する。
 これにより上述のハース効果を発揮させて、音像を映像表示面111に定位させることができる。
 加えて図10では調整制御部23を示しているが、これにより、状況に応じて適切なハース効果が得られるように調整が行われるようにすることができる。
 調整制御部23は、例えば音声信号処理部21とは別体のマイクロコンピュータ等のプロセッサにより構成する例や、例えば音声信号処理部21と一体のDSP等により構成することができる。
 この調整制御部23は、検出部24の検出情報等を用いて算出した遅延時間DSを音声信号処理部21に指示し、遅延部33の遅延時間を適正化するキャリブレーション処理を行うことができる。
 また調整制御部23は、検出部24の検出情報等を用いて算出した補正値EQPを音声信号処理部21に指示し、イコライザ34により高域成分に与える音圧周波数特性を調整するキャリブレーション処理を行うことができる。
 図11に、調整制御部23によるキャリブレーション処理例を説明する。
 ステップS101で調整制御部23は、キャリブレーションタイミングとなったか否かを判定する。
 例えば調整制御部23は、プロジェクター1が電源オンとされたとき、或いは映像投影を開始するとき、或いはユーザの操作に応じたタイミングなどとしてキャリブレーションタイミングの判定を行う。そしてキャリブレーションタイミングと判定したら、ステップS102に進み、図11のキャリブレーション処理を実行する。
 ステップS102からステップS105は、遅延部33の遅延時間の調整処理である。
 ステップS102で調整制御部23は、検出部24から距離に関する検出情報を取得する。
 ステップS103で調整制御部23は、検出部24から入力した距離に関する検出情報に基づいて自身のプロジェクター1から映像表示面111までの距離又は距離に応じた時間を算出する。距離に応じた時間とは、音の速度で求められる時間である。
 ステップS104で調整制御部23は、算出した距離に基づいて、ハース効果を得るために適切な中低域音声信号SMLの遅延時間を算出する。すなわち、高域スピーカー3から出力した音声が、映像表示面111に反射して自身のプロジェクター1に戻るまでの時間、つまり算出した距離の往復に要する時間に、図6の時間差ΔTを加えた時間を、遅延時間DSとする。
 ステップS105で調整制御部23は、算出した遅延時間DS、音声信号処理部21の遅延部33に指示する。
 これにより遅延部33で遅延時間DSによる遅延処理が施されるようにする。
 プロジェクター1を配置する位置、具体的にはスクリーン150等による映像表示面111までの距離によって、ハース効果を得るとともに、不自然な感じを与えないようにする遅延時間の最適値がわずかに変化する。そしてポータブルタイプのプロジェクター1の場合、ユーザはそのような距離の状態でプロジェクター1を配置するかは不定である。
 そこで、距離検出に基づいて遅延時間を調整することで、視聴者120が、室内などでどの位置にプロジェクター1を置いても、ハース効果による適切な音像定位が実現されるようにする。
 ここで検出部24の構成と、それによる遅延時間DSの算出例を挙げておく。
 まず検出部24として、測距センサを備えることが考えられる。例えばToF(Time of Flight)センサ等の測距センサを、投影部2の前方を測距できるように配置する。この測距センサの検出情報により、プロジェクター1と映像表示面111の距離が検出できる。これに基づいて往復に要する時間に時間差ΔTを加えて、遅延時間DSを求めることができる。
 また検出部24として、映像投影を行う投影部2のフォーカス制御部を適用してもよい。すなわち検出部24は、投影映像のフォーカス情報を取得するフォーカス情報検出部とする。フォーカス情報として、例えばある時点の焦点距離と、その状態でのデフォーカス値を用いることで、プロジェクター1と映像表示面111の距離が検出できる。これに基づいて往復に要する時間に時間差ΔTを加えて、遅延時間DSを求めることができる。
 また上記の測距センサは、オートフォーカス用の測距センサであってもよい。その場合は、フォーカス情報として測距情報が検出されるため、それを用いて適切な遅延時間DSを求めることができる。
 また検出部24として、マイクロフォンを備えることが考えられる。例えばステップS102の時点で、調整制御部23は、所定の高域音声信号SHを高域スピーカー3から出力させるように制御する。そしてその音を検出部24としてのマイクロフォンで集音し、音声信号を入力する。この高域音声信号SHの出力タイミングとマイクロフォンで集音した音声信号の時間差を求めることで、往復に要する時間が判定できる。すると往復に要する時間に時間差ΔTを加えて、遅延時間DSを求めることができる。
 また検出部24として、ユーザの操作入力を検出する操作検出部を備えることが考えられる。例えばステップS102の時点で、調整制御部23は、ユーザ入力を検知する。ユーザがプロジェクター1を配置した段階で、スクリーン150までの距離を入力する。例えばユーザは実測して入力してもよいし、目測に基づいて大まかな距離を入力するものであってもよい。調整制御部23は、入力された距離に基づいて、往復に要する時間に時間差ΔTを加えて、遅延時間DSを求めることができる。
 図11の処理例では、調整制御部23は、さらにステップS106からステップS108の処理を行うものとした。これはイコライザ34に関する調整処理となる。
 ステップS106で調整制御部23は、検出部24から表示面種別に関する検出情報を取得し、映像表示面111の判定を行う。
 ステップS107で調整制御部23は、判定した映像表示面111の種別に基づいて高域音声201についての音圧周波数特性の補正値EQPを求める。
 ステップS108で調整制御部23は、算出した補正値EQPを、音声信号処理部21のイコライザ34に指示する。
 これによりイコライザ34で補正値EQPに基づく音圧周波数処理が施されるようにする。
 高域音声201は映像表示面111で反射されて反射高域音声202として視聴者に到達する。この場合、映像表示面111を構成するスクリーン150や壁の材質などにより、反射高域音声202の音圧周波数特性が変化することがある。
 そこで上記の処理で、その時点の映像表示面111の材質等に応じて、音圧周波数特性の変化を見越した補正値EQPを求め、反射高域音声202の音圧周波数特性が、高域音声信号SHによる本来意図する音圧周波数特性となるようにする。
 つまり、反射高域音声202の音圧周波数特性の変化の逆特性を与えるように補正値EQPを求め、イコライザ34で高域音声信号SHのイコライジングを行う。例えばある帯域での減衰が生じる場合に、その帯域を予めブーストしておくようなイコライジングが行われるようにする。そして高域スピーカー3から高域音声201を出力する。
 この高域音声201が映像表示面111で反射するときに音圧周波数特性の変化が生ずるが、予め補正値EQPによる逆特性が与えられることで、反射高域音声202は、高域音声信号SHにより本来意図する音圧周波数特性となる。
 このような音圧周波数特性の補正値EQPを、適応的に調整することで、映像表示面111の材質等の影響のない音声再生を実現できる。
 このような音圧周波数特性の調整のための検出部24の構成と、それによる補正値EQPの算出例を挙げる。
 まず検出部24として、撮像部(イメージセンサ)を備えることが考えられる。例えば撮像部を、投影部2の前方を撮影するように配置する。この撮像部により得られた画像には、映像表示面111を構成する壁やスクリーン150が映されている。
 調整制御部23は、この撮像画像に対して物体認識処理を行って、映像表示面111がどのような物で形成されているかを判定する。例えば壁であるのか、スクリーンであるのかを画像認識で判定する。スクリーンの種別や、壁の材質等を検出できる場合もある。
 反射する面の材質等による音圧周波数特性の変化は予め特定できるため、例えば材質に応じた補正値EQPを記憶しておけば、種別や材質の判定結果から補正値EQPを求めることができる。
 また検出部24として、マイクロフォンを備えることが考えられる。例えばステップS102の時点で、調整制御部23は、所定の高域音声信号SHを高域スピーカー3から出力させるように制御する。そしてその音を検出部24としてのマイクロフォンで集音し、音声信号を入力する。マイクロフォンで集音した音声信号の音圧周波数解析を行い、元の高域音声信号SHの音圧周波数特性と比較すれば、映像表示面111の材質に応じた音圧周波数特性の変化を検出できることなる。そこで音圧周波数特性の変化分の逆特性となる補正値EQPを求めることができる。
 また検出部24として、ユーザの操作入力を検出する操作検出部を備えることが考えられる。例えばステップS102の時点で、調整制御部23は、ユーザ入力を検知する。ユーザはスクリーンの種別、型番、或いは壁の材質などを入力できるインタフェースを設けるとよい。例えばスクリーンと壁の別や、壁の材質をユーザが選択できるようにする。
 反射する面の材質等による音圧周波数特性の変化は予め特定できるため、例えば材質に応じた補正値EQPを記憶しておけば、種別や材質の判定結果から補正値EQPを求めることができる。
 なお図11の処理例では、調整制御部23は、ステップS102からステップS105の遅延時間調整処理と、ステップS106からステップS108の音圧周波数特性の調整処理の両方を実行するものとしたが、いずれか一方のみを行うものとしてもよい。
 また、図10の構成において、必ずしも調整制御部23、検出部24は設けなくてもよい。つまり図11のようなキャリブレーション処理が行われない音声出力装置90も考えられる。
 ここで高域スピーカー3として採用できる狭指向性スピーカーとして、位相干渉型狭指向性スピーカー、パラボリック型狭指向性スピーカー、超音波型狭指向性スピーカーを例示しておく。
 図12は、位相干渉型狭指向性スピーカーを示している。これはビームツイーターと呼ばれるもので、トップ40、パイプ41、ネック42、ドライバ43としての構成を持つ。ツイーターの音放射部に一定ピッチの開口孔を持つパイプ41を配置することで、開口孔から放射される横方向の音圧が逆相成分となり、横方向エネルギーを低減させる。これにより正面方向放射の狭指向性を持つものである。この位相干渉型狭指向性スピーカーによれば、例えば5KHzや7KHzから高域において良好な狭指向性が得られる。
 図13はパラボリック型狭指向性スピーカーを示している。これは回転放物曲面を持つ凹型反射曲面44の放物線焦点にスピーカー45を配置する構造である。これによりスピーカー45から音を放射させると、凹型反射曲面44に反射した音波は平行波になり、狭指向性を持つものとなる。例えば5KHzや10KHzの帯域において良好な狭指向性が得られる。
 図14は超音波型狭指向性スピーカーを示している。これは狭指向性特性を持つ、例えば40KHzなどの可聴帯域外の超音波をキャリアとし、原音(高域音声信号SH)でAM変調することで、狭指向性を得るものである。
 例えば以上の例のような狭指向性スピーカーを高域スピーカー3として使用することで、高域音声201を適切に映像表示面111で反射させることができる。
<2.第2の実施の形態:短焦点プロジェクター>
 図15は、第2の実施の形態としての短焦点プロジェクター50を用いる例を示している。
 短焦点プロジェクター50は、例えば図のようにスクリーン150に近接して配置することができる。
 この場合にも、遅延された中低域音声203は直接視聴者120に到達する一方、高域音声201は、映像表示面111に反射され、反射高域音声202として視聴者120に到達するようにする。
 短焦点プロジェクター50におけるスピーカー配置例を図16に示す。
 図16Aは投影面側からみた斜視図、図16Bは視聴者側からみた斜視図、図16Cは平面方向にみた図である。
 短焦点プロジェクター50の筐体の上面に投影部2が設けられており、これによりスクリーン150等に映像を投影する。
 中低域スピーカー4は、筐体の視聴者側の面に設けられている。この例では、3チャネル構成としており、中低域スピーカー4として、Lチャネル、Rチャネル、Cチャネルのスピーカーが配置されている。
 高域スピーカー3は、筐体の投影面側において、例えば投影部2の映像投影方向に向けて配置されている。この例では、3チャネル構成としており、高域スピーカー3として、Lチャネル、Rチャネル、Cチャネルのスピーカーが配置されている。
 このような高域スピーカー3により出力する高域音声201が、映像表示面111に向けて放音される。なお高域スピーカー3は、筐体上面に設けられてもよい。
 Lチャネル、Rチャネルの各高域スピーカー3は、それぞれ図9で説明したような放射角AG1を持った状態で高域音声201が映像表示面111に向かうように配置され、Cチャネルの高域スピーカー3は、高域音声201が映像表示面111の中央に向かうように配置されている。
 なお短焦点プロジェクター50に内蔵される音声出力装置90の構成は図10で説明したとおりである。
 これにより、短焦点プロジェクター50の場合も、第1の実施の形態のプロジェクター1と同様に、視聴者120に対し、映像と音声の再生位置が一致した状態を提供できる。
<3.第3の実施の形態:バー状スピーカー>
 第3の実施の形態として、例えばサウンドバーと呼ばれるバー状スピーカー60の例を挙げる。図17には、短焦点プロジェクター50の近傍に別体のバー状スピーカー60を配置した例である。短焦点プロジェクター50により映像表示面111に映像110を投影するとともに、バー状スピーカー60により音声出力を行う。
 この場合に、バー状スピーカー60が図10のような音声出力装置90を内蔵し、遅延された中低域音声203が直接視聴者120に到達するように出力するとともに、高域音声201は、映像表示面111に反射され、反射高域音声202として視聴者120に到達するようにする。
 バー状スピーカー60におけるスピーカー配置例を図18に示す。
 図18Aは視聴者側からみた斜視図、図18Bは投影面側からみた斜視図である。
 中低域スピーカー4は、バー状スピーカー60の筐体の視聴者側の面に設けられている。この例では、3チャネル構成としており、中低域スピーカー4として、Lチャネル、Rチャネル、Cチャネルのスピーカーが配置されている。
 高域スピーカー3は、筐体の投影面側において、例えば短焦点プロジェクター50による映像投影方向に向けて配置されている。この例では、3チャネル構成としており、高域スピーカー3として、Lチャネル、Rチャネル、Cチャネルのスピーカーが配置されている。
 このような高域スピーカー3により出力する高域音声201が、映像表示面111に向けて放音される。なお高域スピーカー3は、筐体上面に設けられてもよい。
 Lチャネル、Rチャネルの各高域スピーカー3は、それぞれ図9で説明したような放射角AG1を持った状態で高域音声201が映像表示面111に向かうように配置され、Cチャネルの高域スピーカー3は、高域音声201が映像表示面111の中央に向かうように配置されている。
 そしてバー状スピーカー60には図10の構成の音声出力装置90が内蔵されている。
 このように短焦点プロジェクター50とは別体のバー状スピーカー60において、高域音声201を映像表示面111に反射させ、また中低域音声203は遅延させて直接視聴者120に到達するようにすることで、仮に短焦点プロジェクター50が、本開示における音声出力装置90を搭載していない機器であっても、視聴者に映像と音声の再生位置が一致した状態を提供できる。また、短焦点プロジェクター50に限らず、ポータブルタイプのプロジェクター1や、他の一般的なプロジェクターを用いる場合も、バー状スピーカー60により映像と音声の再生位置が一致した状態を提供できる。
 なお、バー状スピーカー60としての例で挙げたが、バー状とされる形状に限らず、プロジェクターと別体の各種のスピーカー装置として、本技術を適用できる。
<4.第4の実施の形態:天井設置型プロジェクター>
 第4の実施の形態として、天井設置型プロジェクター70の例を図19、図20に示す。
 図19は天井設置型プロジェクター70の外観例を示しており、円柱形状の周縁部に投影部2が設けられている。また、投影部2の左右に、LチャネルとRチャネルの高域スピーカー3、3が設けられている。
 筐体の下面部にはLチャネルとRチャネルの中低域スピーカー4、4が設けられている。
 この天井設置型プロジェクター70の使用例を図20に示している。
 天井設置型プロジェクター70は、投影部2から映像110をスクリーン150等に投影する。高域スピーカー3、3からの高域音声201は映像表示面111に向けて出力され、反射高域音声202が視聴者120に到達する。
 また中低域音声203からの中低域音声203は、天井付近から直接視聴者120の居る室内に出力される。
 この天井設置型プロジェクター70に図10のような構成の音声出力装置90が内蔵されることで、視聴者120に対し、映像と音声の再生位置が一致した状態を提供できる。
<5.まとめ及び変型例>
 以上の実施の形態によれば次のような効果が得られる。
 実施の形態の音声出力装置90は、映像表示面111に向けて配置される指向性スピーカーとして構成される高域スピーカー3(第1スピーカー)と、少なくとも高域スピーカー3より広い指向性とされた中低域スピーカー4(第2スピーカー)と、音声信号処理部21を備える。音声信号処理部21は、映像表示面111に表示させる映像110と共に出力する音声信号SIの高周波数帯域側の信号成分を抽出して、高域スピーカー3に供給する高域音声信号SH(第1音声信号)とする。また音声信号処理部21は、映像表示面111に表示させる映像と共に出力する音声信号SIの第1音声信号より低周波数帯域側を含む信号成分を抽出し、遅延処理を行って、中低域スピーカー4に供給する中低域音声信号SML(第2音声信号)とする。
 この構成により、映像に付随する音声のうちで、高域スピーカー3から出力され、映像表示面111に反射された反射高域音声202が視聴者に達し、また中低域音声203が遅延されて視聴者に達することになる。従って、視聴者120は、映像表示面111で反射した反射高域音声202を、中低域音声203より先に知覚することになり、ハース効果により、音像が映像表示面111に定位される。これによって視聴者が感じる映像と音声の再生位置を一致させ、より快適で臨場感のある視聴環境を提供できる。
 なお実施の形態では第1音声信号として高域音声信号SH、第2音声信号として中低域音声信号SMLとしたが、高域音声信号SHと中低域音声信号SMLが可聴帯域としての全帯域を含むようにする必要はない。
 あくまでも、ある高域側の帯域を第1音声信号とし、第1音声信号より低域側の帯域を含む信号を第2音声信号とすればよい。
 さらに言えば、高域側とは、例えば3KHzから10KHz程度の特定の帯域の音声信号成分を第1音声信号とし、3KHz未満の中低域の全部又は一部を含む音声信号成分を第2音声信号とする場合に、例えば10KHzを越える帯域を第2音声信号に含むようにすることも考えられる。
 即ち、少なくとも人が敏感な帯域を含む第1音声信号を、ハース効果のために、第2音声信号より視聴者120に対して先行して到達するようにすると、映像と同期する音声として好適である。
 また実施の形態では、高域音声201は、映像表示面111に1回反射して反射高域音声202として視聴者120に到達するようにした。つまり高域スピーカー3の放音方向が、映像表示面111での1回の反射で視聴者120に到達するように設定されている。もし、映像表示面111に反射した後、さらに天井や壁などに反射してから視聴者120に到達することになると、視聴者120が音像を映像表示面111に定位できなくなるためである。従って映像と音声の再生位置が一致するように知覚させるには、映像表示面111で反射した反射高域音声202が直接、視聴者120に到達するように、高域スピーカー3の配置(放音方向)が設定されているものとする。もちろん視聴者120の位置は一意に特定できないため、おおよそ映像表示面111の正面方向に反射高域音声202が進行するように設定されればよい。
 また、反射高域音声202が直接視聴者120に到達することは、映像表示面111から直線的に最短距離で視聴者120に到達することになり、ハース効果のための遅延時間を適切に設定する点で好適である。
 第1,第2,第4の実施の形態では、音声出力装置90は、映像表示面111に向けて映像投影を行う投影部2を備える構成とした。
 すなわち換言すれば、プロジェクターにおいて本技術の音声出力装置90が搭載される構成である。例えばスピーカー一体型のプロジェクターとして、上述のプロジェクター1、短焦点プロジェクター50、天井設置型プロジェクター70などが想定される。これらのようなプロジェクターによれば、映像表示面111から離れて配置される場合でも、映像と音声の再生位置を一致させることができ、プロジェクターの商品性を向上させることができる。
 第1,第2,第4の実施の形態では、高域スピーカー3は投影部2による映像の投影方向に対して音声出力するように配置されるものとした。
 これにより、プロジェクターにより映像の投影を行う場合に、狭指向性スピーカーである高域スピーカー3からの音声は、自然に映像表示面111に向けて出力されることになる。従ってユーザは任意の投影方向でプロジェクターを配置すれば、ユーザが意識しなくとも自然に、本技術による映像と音声の再生位置が一致する環境を得ることができる。
 実施の形態では、中低域スピーカー4は無指向性スピーカーである例を挙げた。
 中低域音声203については無指向性の中低域スピーカー4から出力するようにすることで、ユーザの位置に関わらず、中低域音声203を聴取しやすい。例えばプロジェクター1等の周囲でユーザの好適な位置を制限しないようにすることができる。
 実施の形態では、高域スピーカー3としてLチャネルとRチャネルを含む複数チャネルのスピーカーが設けられ、Lチャネルの高域スピーカー3は、映像表示面111の左方領域に向けて固定配置され、Rチャネルの高域スピーカー3は、映像表示面111の右方領域に向けて固定配置されているとした(図9A、図9B参照)。
 Lチャネル、Rチャネルの高域スピーカー3の音声出力方向を、所定の放射角AG1で左右方向に振り分けて配置することで、プロジェクター1からのスクリーン150までの距離が遠くなれば、映像表示面111上でLチャネル音声とRチャネル音声が到達する位置間の距離が離れる。つまり映像110のサイズの変化に従って自然にL、Rチャネルの音声の到達位置も変化する。これにより、L、Rチャネルの高域スピーカー3を適切な放射角AG1で配置すれば、高域スピーカー3の配置方向を調整する必要はなくなる。
 実施の形態では、音声出力装置90は、音声信号処理部21による遅延処理の遅延時間を、映像表示面111との間の距離に関する検出情報に基づいて設定する調整制御部23を備える例を挙げた。距離に関する検出情報とは、距離自体や、距離により生ずる時間差、距離によって変化する値など、様々な情報が想定される。
 ハース効果により映像110上に音像を定位させつつ、自然な再生音を視聴者120に感じさせるには、視聴者120に到達する反射高域音声202と中低域音声203の遅延時間が適切に調整されることが望ましい。従って中低域音声203に与える遅延時間は、プロジェクター1とスクリーン150の距離に応じて微調整されるとよい。調整制御部23のキャリブレーション処理によってプロジェクター1とスクリーン150の距離に応じた遅延時間が調整されることで、ユーザが任意の位置にプロジェクター1を設置しても、適切な遅延時間が設定される。特にポータブルプロジェクターの場合に好適となる。
 検出情報としては、例えばユーザが距離を入力する場合の操作の検出情報や、測距センサの距離情報や、フォーカス情報や、マイクロフォンで検出する音声信号などがある。
 実施の形態では、調整制御部23は、測距センサの検出情報に基づいて、遅延時間を設定する例を挙げた。
 例えば図10の検出部24としてToFセンサ等の測距センサを備え、スクリーン150との間の測距を行うものとする。これによりプロジェクター1とスクリーン150の距離を検出し、ハース効果を得るための適切な遅延時間を設定することができる。
 実施の形態では、調整制御部23は、フォーカス情報検出部によるフォーカス情報の検出情報に基づいて、遅延時間を設定する例を挙げた。
 例えば図10の検出部24としてフォーカス情報検出部を備え、フォーカス情報を得るようにする。ここでいうフォーカス情報とは例えばデフォーカス情報や測距情報である。フォーカス情報によりスクリーン150との間の距離を求めることができるため、ハース効果を得るための適切な遅延時間を設定することができる。またプロジェクター1に搭載されるフォーカス情報検出部のフォーカス情報を用いることで、特に遅延時間設定のための追加の構成を要しないという利点もある。
 実施の形態では、調整制御部23は、高域音声信号SHと、高域音声信号SHを高域スピーカー3から出力した音声をマイクロフォンで集音した音声信号との時間差の検出情報に基づいて、遅延時間を設定する例を述べた。
 例えば図10の検出部24としてマイクロフォンを備え、高域スピーカー3から音声出力する高域音声信号SHと、マイクロフォンで集音した音声信号の時間差を得ることで、プロジェクター1とスクリーン150の距離に応じた遅延時間を判定できる。これにより、ハース効果を得るための適切な遅延時間を設定することができる。
 実施の形態では、音声信号処理部21は、イコライザ34により高域音声信号SHの音圧周波数特性の調整処理が可能とされる。そしてこの音声信号処理部21による調整処理の音圧周波数特性を設定する調整制御部23を備えるものとした。
 高域音声201をスクリーン150等による映像表示面111に反射させるため、映像表示面111の材質、種類によって反射高域音声202には減衰や周波数特性の変化が生じ得る。そこで予め、反射高域音声202の音圧周波数特性の変化を想定して、高域音声信号SHの音圧周波数特性を補正しておくことで、視聴者120に届く反射高域音声202を本来の音圧周波数特性とすることができる。特にポータブルプロジェクターの場合、スクリーン150となる材質は多様である。高域音声信号SHの音圧周波数特性を可変調整できることで、各種のスクリーン150に適応できる。
 実施の形態では、調整制御部23は、撮像部により撮像した画像に基づいて映像表示面111の種別を判定し、判定結果に基づいて音圧周波数特性を設定する例を挙げた。
 例えば図10の検出部24として撮像部を備え、映像表示面111の画像を取得できるようにする。画像解析により、映像表示面111を形成するスクリーン150等の材質を判定することで、反射による音圧周波数特性の変化が推定できる。従って補正すべき音圧周波数特性を算出して、音声信号処理部21のイコライザ34による補正値EQPを設定することができる。これにより、視聴者120に届く反射高域音声202の音圧周波数特性が、映像表示面111の影響で変化することを防止又は低減できる。
 実施の形態では、調整制御部23は、高域音声信号SHと、高域音声信号SHを高域スピーカー3から出力した音声をマイクロフォンで集音した音声信号との音圧周波数特性を比較して、音圧周波数特性を設定する例を挙げた。
 例えば図10の検出部24としてマイクロフォンを備えて反射高域音声202の音声信号を得、これを出力前の高域音声信号SH(HPF32の出力段階の音声信号)と比較することで、反射による音圧周波数特性の変化が判定できる。従って補正すべき音圧周波数特性を算出して、音声信号処理部21のイコライザ34による補正値EQPを設定することができる。これにより、視聴者120に届く反射高域音声202の音圧周波数特性が、映像表示面111の影響で変化することを防止又は低減できる。
 実施の形態では、調整制御部23は、操作入力部から入力される操作情報に基づいて音圧周波数特性を設定する例を挙げた。
 例えば図10の検出部24として操作入力部を備え、ユーザが映像表示面111の種別を入力できるようにする。これにより反射による音圧周波数特性の変化が推定できるため、補正すべき音圧周波数特性を算出して、音声信号処理部21のイコライザ34による補正値EQPを設定することができる。これにより、視聴者120に届く反射高域音声202の音圧周波数特性が、映像表示面111の影響で変化することを防止又は低減できる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 映像表示面に向けて配置される指向性スピーカーである第1スピーカーと、
 少なくとも前記第1スピーカーより広い指向性とされた第2スピーカーと、
 前記映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して、前記第1スピーカーに供給する第1音声信号とし、前記映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出し、遅延処理を行って、前記第2スピーカーに供給する第2音声信号とする音声信号処理部と、を備えた
 音声出力装置。
 (2)
 前記映像表示面に向けて映像投影を行う投影部を備えた
 上記(1)に記載の音声出力装置。
 (3)
 前記第1スピーカーは前記投影部による映像の投影方向に対して音声出力するように配置される
 上記(2)に記載の音声出力装置。
 (4)
 前記第2スピーカーは無指向性スピーカーである
 上記(1)から(3)のいずれかに記載の音声出力装置。
 (5)
 前記第1スピーカーとして左チャネルと右チャネルを含む複数チャネルのスピーカーが設けられ、
 左チャネルの前記第1スピーカーは、前記映像表示面の左方領域に向けて固定配置され、
 右チャネルの前記第1スピーカーは、前記映像表示面の右方領域に向けて固定配置されている
 上記(1)から(4)のいずれかに記載の音声出力装置。
 (6)
 前記音声信号処理部による前記遅延処理の遅延時間を、前記映像表示面との間の距離に関する検出情報に基づいて設定する調整制御部を備えた
 上記(1)から(5)のいずれかに記載の音声出力装置。
 (7)
 前記調整制御部は、測距センサの検出情報に基づいて、前記遅延時間を設定する
 上記(6)に記載の音声出力装置。
 (8)
 前記調整制御部は、前記映像表示面に向けて映像投影を行う投影部による投影映像のフォーカス制御に用いるフォーカス情報の検出情報に基づいて、前記遅延時間を設定する
 上記(6)に記載の音声出力装置。
 (9)
 前記調整制御部は、前記第1音声信号と、前記第1音声信号を前記第1スピーカーから出力した音声についてマイクロフォンで集音した音声信号との時間差の検出情報に基づいて、前記遅延時間を設定する
 上記(6)に記載の音声出力装置。
 (10)
 前記音声信号処理部は、前記第1音声信号の音圧周波数特性の調整処理が可能とされ、
 前記音声信号処理部による前記調整処理の音圧周波数特性を設定する調整制御部を備えた
 上記(1)から(9)のいずれかに記載の音声出力装置。
 (11)
 前記調整制御部は、前記映像表示面側を撮像する撮像部により撮像した画像に基づいて前記映像表示面の種別を判定し、判定結果に基づいて前記調整処理の音圧周波数特性を設定する
 上記(10)に記載の音声出力装置。
 (12)
 前記調整制御部は、前記第1音声信号と、前記第1音声信号を前記第1スピーカーから出力した音声についてマイクロフォンで集音した音声信号との音圧周波数特性を比較して、前記調整処理の音圧周波数特性を設定する
 上記(10)に記載の音声出力装置。
 (13)
 前記調整制御部は、ユーザ操作を入力する操作入力部から入力される操作情報に基づいて前記調整処理の音圧周波数特性を設定する
 上記(10)に記載の音声出力装置。
 (14)
 映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して第1音声信号とし、該第1音声信号を映像表示面に向けて配置される指向性スピーカーである第1スピーカーに供給して音声出力するとともに、
 前記映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出して遅延処理を行って第2音声信号とし、該第2音声信号を少なくとも前記第1スピーカーより広い指向性とされた第2スピーカーに供給して音声出力する
 音声出力方法。
1 プロジェクター
2 投影部
3 高域スピーカー
4 中低域スピーカー
6 放音孔
20 オーディオソース
21 音声信号処理部
22 アンプ
23 調整制御部
24 検出部
31 LPF
32 HPF
33 遅延部
34 イコライザ
50 短焦点プロジェクター
60 バー状スピーカー
70 天井設置型プロジェクター
90 音声出力装置
201 高域音声
202 反射高域音声
203 中低域音声

Claims (14)

  1.  映像表示面に向けて配置される指向性スピーカーである第1スピーカーと、
     少なくとも前記第1スピーカーより広い指向性とされた第2スピーカーと、
     前記映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して、前記第1スピーカーに供給する第1音声信号とし、前記映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出し、遅延処理を行って、前記第2スピーカーに供給する第2音声信号とする音声信号処理部と、を備えた
     音声出力装置。
  2.  前記映像表示面に向けて映像投影を行う投影部を備えた
     請求項1に記載の音声出力装置。
  3.  前記第1スピーカーは前記投影部による映像の投影方向に対して音声出力するように配置される
     請求項2に記載の音声出力装置。
  4.  前記第2スピーカーは無指向性スピーカーである
     請求項1に記載の音声出力装置。
  5.  前記第1スピーカーとして左チャネルと右チャネルを含む複数チャネルのスピーカーが設けられ、
     左チャネルの前記第1スピーカーは、前記映像表示面の左方領域に向けて固定配置され、
     右チャネルの前記第1スピーカーは、前記映像表示面の右方領域に向けて固定配置されている
     請求項1に記載の音声出力装置。
  6.  前記音声信号処理部による前記遅延処理の遅延時間を、前記映像表示面との間の距離に関する検出情報に基づいて設定する調整制御部を備えた
     請求項1に記載の音声出力装置。
  7.  前記調整制御部は、測距センサの検出情報に基づいて、前記遅延時間を設定する
     請求項6に記載の音声出力装置。
  8.  前記調整制御部は、前記映像表示面に向けて映像投影を行う投影部による投影映像のフォーカス制御に用いるフォーカス情報の検出情報に基づいて、前記遅延時間を設定する
     請求項6に記載の音声出力装置。
  9.  前記調整制御部は、前記第1音声信号と、前記第1音声信号を前記第1スピーカーから出力した音声についてマイクロフォンで集音した音声信号との時間差の検出情報に基づいて、前記遅延時間を設定する
     請求項6に記載の音声出力装置。
  10.  前記音声信号処理部は、前記第1音声信号の音圧周波数特性の調整処理が可能とされ、
     前記音声信号処理部による前記調整処理の音圧周波数特性を設定する調整制御部を備えた
     請求項1に記載の音声出力装置。
  11.  前記調整制御部は、前記映像表示面側を撮像する撮像部により撮像した画像に基づいて前記映像表示面の種別を判定し、判定結果に基づいて前記調整処理の音圧周波数特性を設定する
     請求項10に記載の音声出力装置。
  12.  前記調整制御部は、前記第1音声信号と、前記第1音声信号を前記第1スピーカーから出力した音声についてマイクロフォンで集音した音声信号との音圧周波数特性を比較して、前記調整処理の音圧周波数特性を設定する
     請求項10に記載の音声出力装置。
  13.  前記調整制御部は、ユーザ操作を入力する操作入力部から入力される操作情報に基づいて前記調整処理の音圧周波数特性を設定する
     請求項10に記載の音声出力装置。
  14.  映像表示面に表示させる映像と共に出力する音声信号の高周波数帯域側の信号成分を抽出して第1音声信号とし、該第1音声信号を映像表示面に向けて配置される指向性スピーカーである第1スピーカーに供給して音声出力するとともに、
     前記映像表示面に表示させる映像と共に出力する音声信号の前記第1音声信号より低周波数帯域側を含む信号成分を抽出して遅延処理を行って第2音声信号とし、該第2音声信号を少なくとも前記第1スピーカーより広い指向性とされた第2スピーカーに供給して音声出力する
     音声出力方法。
PCT/JP2023/005310 2022-03-07 2023-02-15 音声出力装置、音声出力方法 WO2023171279A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-034533 2022-03-07
JP2022034533 2022-03-07

Publications (1)

Publication Number Publication Date
WO2023171279A1 true WO2023171279A1 (ja) 2023-09-14

Family

ID=87936756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/005310 WO2023171279A1 (ja) 2022-03-07 2023-02-15 音声出力装置、音声出力方法

Country Status (1)

Country Link
WO (1) WO2023171279A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209490A (ja) * 2007-02-23 2008-09-11 Sony Corp 音響処理装置及び音響処理方法
JP2013109047A (ja) * 2011-11-18 2013-06-06 Jvc Kenwood Corp プロジェクタ装置およびプロジェクタ装置のスピーカ角度設定方法
JP2015046728A (ja) * 2013-08-28 2015-03-12 ヤマハ株式会社 スピーカ装置、オーディオ再生システムおよびプログラム
US20200068295A1 (en) * 2018-08-27 2020-02-27 Screen Excellence Ltd. Sound system for video screens
WO2020144937A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 サウンドバー、オーディオ信号処理方法及びプログラム
WO2020227633A1 (en) * 2019-05-08 2020-11-12 Meyer Sound Laboratories, Incorporated System and method for delivering full-bandwidth sound to an audience in an audience space
US20210021929A1 (en) * 2018-08-23 2021-01-21 Dts, Inc. Reflecting sound from acoustically reflective video screen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209490A (ja) * 2007-02-23 2008-09-11 Sony Corp 音響処理装置及び音響処理方法
JP2013109047A (ja) * 2011-11-18 2013-06-06 Jvc Kenwood Corp プロジェクタ装置およびプロジェクタ装置のスピーカ角度設定方法
JP2015046728A (ja) * 2013-08-28 2015-03-12 ヤマハ株式会社 スピーカ装置、オーディオ再生システムおよびプログラム
US20210021929A1 (en) * 2018-08-23 2021-01-21 Dts, Inc. Reflecting sound from acoustically reflective video screen
US20200068295A1 (en) * 2018-08-27 2020-02-27 Screen Excellence Ltd. Sound system for video screens
WO2020144937A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 サウンドバー、オーディオ信号処理方法及びプログラム
WO2020227633A1 (en) * 2019-05-08 2020-11-12 Meyer Sound Laboratories, Incorporated System and method for delivering full-bandwidth sound to an audience in an audience space

Similar Documents

Publication Publication Date Title
KR102062260B1 (ko) 귀 개방형 헤드폰을 이용한 다채널 사운드 구현 장치 및 그 방법
CN111213387B (zh) 在空间中定位声音信号的扬声器系统和耳机
TWI635753B (zh) 使用向上發聲驅動器之用於反射聲音呈現的虛擬高度濾波器
CN109391895B (zh) 调整固体电影屏幕上的音频图像的感知提升的系统和方法
JP5992409B2 (ja) 音再生のためのシステム及び方法
US8587631B2 (en) Facilitating communications using a portable communication device and directed sound output
JP4924119B2 (ja) アレイスピーカ装置
US8638959B1 (en) Reduced acoustic signature loudspeaker (RSL)
AU748427B2 (en) System for producing an artificial sound environment
US20030031333A1 (en) System and method for optimization of three-dimensional audio
WO2010100873A1 (ja) カメラ付きスピーカ、信号処理装置、およびavシステム
CN107925813A (zh) 具有不对称扩散以用于经反射声音再现的向上激发扩音器
JP2001218293A (ja) ヘッドホンシステム
KR20130122516A (ko) 청취자의 위치를 추적하는 확성기
JP2010206451A5 (ja)
JP2008543143A (ja) 音響変換器のアセンブリ、システムおよび方法
JP2013535894A5 (ja)
WO2023171279A1 (ja) 音声出力装置、音声出力方法
WO2013042324A1 (ja) 音響再生装置
WO2021124679A1 (ja) 音響再生システム、ディスプレイ装置、キャリブレーション方法
CN112153538B (zh) 显示装置及其全景声实现方法、非易失性存储介质
JP4418479B2 (ja) 音響再生装置
JP2007043585A (ja) プロジェクタ装置
JP2002232989A (ja) マルチチャンネル音場収音装置
KR101965513B1 (ko) 귀 개방형 헤드폰 및 이를 이용한 소리 재생 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23766459

Country of ref document: EP

Kind code of ref document: A1