WO2015097826A1 - 電子機器、制御方法およびプログラム - Google Patents

電子機器、制御方法およびプログラム Download PDF

Info

Publication number
WO2015097826A1
WO2015097826A1 PCT/JP2013/084959 JP2013084959W WO2015097826A1 WO 2015097826 A1 WO2015097826 A1 WO 2015097826A1 JP 2013084959 W JP2013084959 W JP 2013084959W WO 2015097826 A1 WO2015097826 A1 WO 2015097826A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
source separation
sound source
signal
processing unit
Prior art date
Application number
PCT/JP2013/084959
Other languages
English (en)
French (fr)
Inventor
智剛 井田
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2013/084959 priority Critical patent/WO2015097826A1/ja
Priority to JP2015554413A priority patent/JP6039108B2/ja
Publication of WO2015097826A1 publication Critical patent/WO2015097826A1/ja
Priority to US15/046,238 priority patent/US9905245B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0324Details of processing therefor
    • G10L21/034Automatic adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0356Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for synchronising with other signals, e.g. video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/046Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise

Definitions

  • Embodiments described herein relate generally to an electronic device, a control method, and a program.
  • an audio signal is separated into a voice component that is a human voice and a background component other than the human voice.
  • the voice component and the background sound component are individually subjected to emphasis control of the volume and the like, thereby making it easy to hear a human voice or suppressing the human voice.
  • the electronic device of the embodiment includes a sound source separation processing unit, an acoustic effect processing unit, and a sound control unit.
  • the sound source separation processing unit can execute a sound source separation function that separates an input audio signal into a voice signal and a background sound signal and emphasizes or suppresses the voice signal or the background sound signal.
  • the acoustic effect processing unit can execute an acoustic effect function that imparts an acoustic effect to the audio signal.
  • the sound control unit controls the sound source separation processing unit to execute the sound source separation function and does not execute the sound effect function when the user instructs to execute the sound source separation function. Control the processing unit.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the television apparatus according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the control unit according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of the configuration of the sound processing unit according to the first embodiment.
  • FIG. 4 is a flowchart illustrating an example of a procedure of voice control processing according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the sound setting screen according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of a filter effect setting screen according to the first embodiment.
  • FIG. 7 is a diagram illustrating an example of the display of the sound effect and the sound source separation function in the first embodiment.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the television apparatus according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the control unit according to the first embodiment.
  • FIG. 3 is
  • FIG. 8 is a flowchart illustrating an example of a procedure of voice control processing according to the second embodiment.
  • FIG. 9 is a flowchart illustrating an example of a procedure of voice control processing according to the third embodiment.
  • FIG. 10 is a flowchart illustrating an example of a procedure of voice control processing according to the third embodiment.
  • FIG. 11 is a diagram illustrating an example of a sound effect restoration setting screen according to the fourth embodiment.
  • FIG. 12 is a flowchart illustrating an example of a procedure of voice control processing according to the fourth embodiment.
  • FIG. 13 is a diagram illustrating an example of a sound effect restoration setting screen according to a modification of the fourth embodiment.
  • this embodiment does not limit the electronic device to a television device, and can be applied to any device as long as it is a device capable of outputting sound, such as a PC or a tablet terminal.
  • a television apparatus 100 receives a broadcast wave of a digital broadcast and displays a program video using a video signal extracted from the received broadcast wave. It also has a recording / playback function.
  • the television apparatus 100 includes an antenna 112, an input terminal 113, a tuner 114, and a demodulator 115, as shown in FIG.
  • the antenna 112 captures a broadcast wave of digital broadcasting and supplies a broadcast signal of the broadcast wave to the tuner 114 via the input terminal 113.
  • the tuner 114 selects a broadcast signal of a desired channel from the input digital broadcast broadcast signal.
  • the broadcast signal output from the tuner 114 is supplied to the demodulator 115.
  • the demodulator 115 demodulates the broadcast signal, demodulates the digital video signal and the audio signal, and supplies them to the selector 116 described later.
  • the television device 100 includes input terminals 121 and 123, an A / D conversion unit 122, a signal processing unit 124, a speaker 125, and a video display panel 102.
  • the input terminal 121 receives an analog video signal and audio signal from the outside, and the input terminal 123 receives a digital video signal and audio signal from the outside.
  • the A / D converter 122 converts the analog video signal and audio signal supplied from the input terminal 121 into a digital signal and supplies the digital signal to the selector 116.
  • the selector 116 selects one of the digital video signal and audio signal supplied from the demodulator 115, the A / D converter 122 and the input terminal 123 and supplies the selected signal to the signal processor 124.
  • the television apparatus 100 has at least a TS demultiplexer and an MPEG decoder.
  • the signal processing unit 124 inputs the signal after being decoded by the MPEG decoder. Further, the signal processing unit 124 also receives signals after the program recording data and the video data recorded on the external storage medium such as the HDD 130, DVD (Digital Versatile Disc), Blu-ray (registered trademark) Disc, etc. are decoded. input.
  • the signal processing unit 124 includes an audio processing unit 1241 and a video processing unit 1242.
  • the video processing unit 1242 performs predetermined signal processing, scaling processing, and the like on the input video signal, and supplies the processed video signal to the video display panel 102. Furthermore, the video processing unit 1242 also generates an OSD (On Screen display) signal to be displayed on the video display panel 102.
  • OSD On Screen display
  • the video processing unit 1242 and the video display panel 102 are examples of a display unit.
  • the audio processing unit 1241 performs predetermined signal processing on the digital audio signal input from the selector 116, converts the digital audio signal into an analog audio signal, and outputs the analog audio signal to the speaker 125. Details of the audio processing unit 1241 will be described later.
  • the speaker 125 receives the audio signal supplied from the signal processing unit 124 and outputs audio using the audio signal.
  • the sound processing unit 1241 of the present embodiment has a sound source separation function. Details of the audio processing unit 1241 will be described later.
  • the video display panel 102 includes a flat panel display such as a liquid crystal display or a plasma display.
  • the video display panel 102 displays video using the video signal supplied from the signal processing unit 124.
  • the television apparatus 100 includes a control unit 127, an operation unit 128, a light receiving unit 129, an HDD (Hard Disk Drive) 130, a memory 131, and a communication I / F 132.
  • the control unit 127 comprehensively controls various operations in the television apparatus 100.
  • the control unit 127 is a microprocessor with a built-in CPU (Central Processing Unit) and the like, and inputs operation information from the operation unit 128, while inputting operation information transmitted from the remote controller 150 via the light receiving unit 129. Each part is controlled according to the operation information.
  • the light receiving unit 129 of this embodiment receives infrared rays from the remote controller 150.
  • the control unit 127 uses the memory 131.
  • the memory 131 mainly includes a ROM (Read Only Memory) storing a control program executed by the CPU built in the control unit 127, a RAM (Random Access Memory) for providing a work area to the CPU, and various types of memory 131. And a non-volatile memory in which setting information, control information, and the like are stored.
  • the HDD 130 has a function as a storage unit that records the digital video signal and audio signal selected by the selector 116. Since the television apparatus 100 includes the HDD 130, the digital video signal and audio signal selected by the selector 116 can be recorded as recording data by the HDD 130. Further, the television apparatus 100 can reproduce video and audio using digital video signals and audio signals recorded in the HDD 130.
  • the communication I / F 132 is connected to various communication apparatuses (for example, servers) via the public network 160, and can receive programs and services that can be used by the television apparatus 100 and can transmit various information. it can.
  • various communication apparatuses for example, servers
  • the control unit 127 functions as an input control unit 201 and a setting unit 203 as illustrated in FIG.
  • the input control unit 201 receives an operation input from the user via the remote controller 150 via the light receiving unit 129 and also receives an operation input from the operation unit 128.
  • a setting input for determining whether or not to use the sound source separation function and a setting input for the volume of sound and background sound (enhancement intensity) when using the sound source separation function are received from the user.
  • the input control unit 201 receives a sound effect setting from the user.
  • the audio signal is composed of a signal of a human voice component and a signal of a background sound component other than a voice such as music.
  • the voice component signal is referred to as a voice signal
  • the background sound component signal is referred to as a background sound signal.
  • the sound source separation function is a function that separates a voice signal into a voice signal and a background sound signal and emphasizes either the voice signal or the background sound signal, and is executed by the voice processing unit 1241.
  • the setting unit 203 performs various settings from the user and stores the setting contents in the memory 131 or the like.
  • settings such as whether to use the sound source separation function received by the input control unit 201, settings of the volume of voice and background sound (degree of emphasis), and settings of acoustic effects are stored in the memory 131 or the like. To do.
  • the audio processing unit 1241 of this embodiment includes an audio control unit 301, a sound source separation processing unit 302, and an acoustic effect processing unit 303.
  • the audio control unit 301 controls the sound source separation processing unit 302 so as to execute the sound source separation function when the user sets to use (execute) the sound source separation function, and controls the sound signal.
  • the acoustic effect processing unit 303 is controlled so as not to execute the acoustic effect function that imparts the acoustic effect.
  • the sound control unit 301 outputs the input sound signal to the sound source separation processing unit 302, thereby enabling the sound source separation function, thereby causing the sound source separation processing unit 302 to emphasize the sound signal. Control.
  • the sound control unit 301 outputs a parameter command together with the sound signal to the sound source separation processing unit 302.
  • This parameter command is a parameter for emphasizing or suppressing voice or emphasizing or suppressing background sound.
  • the sound source separation processing unit 302 performs a sound source separation function that separates the audio signal X into a voice signal and a background sound signal and emphasizes or suppresses the voice signal or the background sound signal. As shown in FIG. 3, the sound source separation processing unit 302 includes a sound source separation unit 401, a voice correction filter 403, a background sound correction filter 404, a gain Gv 405, a gain Gb 406, and an addition unit 407.
  • the sound source separation unit 401 separates an input audio signal into a voice component V (voice signal V) and a background sound component B (background sound signal B).
  • a voice component V voice signal V
  • a background sound component B background sound signal B
  • An arbitrary method can be used as the sound signal separation method by the sound source separation unit 401.
  • the sound source separation unit 401 can use, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2013-37152 as an audio signal separation technique, but is not limited thereto.
  • the voice correction filter 403 corrects the characteristics of the voice signal V based on the parameter command and outputs a corrected voice signal V ′.
  • the background sound correction filter 404 corrects the characteristics of the background sound signal B based on the parameter command and outputs a corrected background sound signal B ′.
  • correction filters 403 and 404 there are various types such as those using a correlation between channels such as surround from a constant value (gain adjustment only). For example, by using a filter that emphasizes the frequency characteristic of the voice used in the hearing aid or the like for the voice signal V as the voice correction filter 403, it is possible to make it easy to hear only the voice without affecting the background component.
  • the background sound correction filter 404 a filter that enhances the frequency band excessively suppressed by the sound source separation process, a filter that adds an auditory effect in the same manner as an equalizer attached to a music player, etc.
  • the background sound signal is a stereo signal, a filter using a so-called pseudo-surround technique can be applied.
  • the voice signal V ′ corrected by the voice correction filter 403 is multiplied by the gain Gv405, and the background sound signal B ′ corrected by the background sound correction filter 404 is multiplied by the gain Gb406.
  • the sound processing unit 1241 of the present embodiment receives a parameter command from the sound control unit 301, changes the intensity of correction of the voice correction filter 403 and the background sound correction filter 404 according to the parameter command, and has a gain Gv405. And Gb 406 are changed by a parameter command.
  • the voice is emphasized or suppressed by the parameter command by the voice correction filter 403 and the gain Gv405
  • the background sound is emphasized or suppressed by the parameter command by the background sound correction filter 404 and the gain Gb406.
  • the adding unit 407 combines the voice signal multiplied by the gain Gv405 and the background sound signal multiplied by the gain Gb406, and outputs the synthesized signal Y.
  • the sound effect processing unit 303 performs various sound effects on the synthesized signal Y according to user settings, and outputs a sound signal. In addition, when the sound effect is invalidated by the sound control unit 301 and the sound effect is stopped, the sound effect processing unit 303 stores the setting contents during execution of the sound effect in the memory 131 or the like.
  • the acoustic effect include, but are not limited to, a surround effect, a dynamic bass boost, a graphic equalizer, and the like.
  • the video processing unit 1242 of the signal processing unit 124 displays an acoustic setting screen as an OSD on the video display panel 102 (step S11).
  • the sound setting screen is a screen that allows the user to set whether to use the sound source separation function, to set the intensity of voice and background sound enhancement when using the sound source separation function, and to set various sound effects It is.
  • FIG. 5 is a diagram illustrating an example of the sound setting screen according to the first embodiment.
  • a sound mode screen that allows the user to select the type of sound mode is displayed on the right side of the screen.
  • the sound source separation function is turned on and the sound source separation function is used.
  • the sound source separation function is turned off and the sound source separation function is not used.
  • step S12 when the sound source separation function is instructed to be turned on (step S12: Yes), the voice control unit 301 validates the setting of the filtering effect (step S13).
  • the voice control unit 301 validates the setting of “filtering effect”.
  • the filtering effect setting screen is a screen for allowing the user to specify the setting of the strength of voice and background sound enhancement when the sound source separation function is turned on.
  • FIG. 6 is a diagram illustrating an example of a filter effect setting screen according to the first embodiment.
  • the emphasis balance of voice and background sound can be designated as a filtering effect in 11 levels from “ ⁇ 5” to “+5” on the scale on the bar 602.
  • the ⁇ direction is the direction that emphasizes the background sound component
  • the + direction is the direction that emphasizes the voice component.
  • the filtering effect “ ⁇ 5” is a value in which almost no voice component is output and only the background sound component is output.
  • the filtering effect “0” is a standard value in which the voice component and the background sound component are output with equal strength (volume), and the filtering effect “0” is a default value.
  • the filtering effect “+5” is a value in which only the voice component is output and the background sound component is hardly output.
  • the user moves the instruction button 601 on the bar 602 to set a desired filtering effect.
  • the input control unit 201 accepts a setting input of a filtering effect value designated from the filtering effect setting screen. Note that the filtering effect setting screen and the filtering effect stage are not limited to those shown in FIG. 6, and can be arbitrarily determined.
  • the voice control unit 301 sends a parameter command to the sound source separation processing unit 302 with the value set by the filtering effect.
  • the voice correction filter 403 and the background sound correction filter 404 of the sound source separation processing unit 302 perform the filtering process on the voice signal and the background sound signal according to the parameter command, respectively. Emphasizes the specified balance.
  • the sound effect processing unit 303 stores the setting contents of the sound effect set at the current time in the memory 131 or the like (step S14). Then, the voice control unit 301 invalidates the acoustic effect (step S15). Specifically, the voice control unit 301 performs the following processing.
  • the settings of “Surround”, “Dynamic base boost”, and “Graphic equalizer” on the sound setting screen of FIG. 5 are sound effect settings.
  • “sound source separation” is selected in “sound mode” and the sound source separation function is turned on by the user
  • the sound control unit 301 sets these sound effects as processing for invalidating the sound effects. Disable and disable setting. Note that this acoustic effect item becomes valid and can be set when the user selects an item other than “sound source separation” in “sound mode” and the sound source separation function is turned off.
  • the setting of the sound source separation function, the setting of the filtering effect, and the setting of various acoustic effects on the acoustic setting screen shown in FIG. 5 are all examples, and are not limited to the examples shown in FIG.
  • the sound control unit 301 invalidates all the parameters related to the sound effect of the sound effect processing unit 303 as the sound effect invalidation processing, and no sound effect is given to the synthesized sound signal.
  • the sound effect processing unit 303 is controlled.
  • the sound signal input to the sound processing unit 1241 passes through the sound source separation processing unit 302 and is then Although it is input to the effect processing unit 303, the sound signal is output without being imparted with an acoustic effect.
  • step S12 if the user gives an instruction to turn off the sound source separation function (step S12: No), the voice control unit 301 invalidates the setting of the filtering effect (step S16). Specifically, the voice control unit 301 invalidates the setting of “filtering effect” on the sound setting screen shown in FIG. Furthermore, when the audio control unit 301 outputs the input audio signal to the sound source separation processing unit 302, the sound source separation process is performed using the parameter command as a setting value that does not emphasize and suppress the voice signal and the background sound signal. The data is output to the unit 302. Thus, each filter and each gain of the sound source separation processing unit 302 does not perform enhancement or suppression processing on both the voice signal and the background sound signal.
  • the sound control unit 301 acquires the acoustic effect setting stored in the memory 131 or the like (step S17), and validates the acoustic effect with the acquired setting content (step S18). Specifically, the sound control unit 301 enables the sound effect settings of “surround”, “dynamic base boost”, and “graphic equalizer” on the sound setting screen of FIG. 5 as the sound effect validation processing. To. Furthermore, the sound control unit 301 uses the parameters related to the sound effect of the sound effect processing unit 303 as the setting content acquired in step S17 as the sound effect validation processing, so that the sound effect is given to the sound signal. The sound effect processing unit 303 is controlled.
  • the video processing unit 1242 displays the state of the sound effect and the sound source separation function as an OSD on the video screen (step S19). Specifically, the video processing unit 1242 displays the currently set content of the sound effect and the component emphasized by the sound source separation function.
  • FIG. 7 is a diagram illustrating an example of the state display of the sound effect and the sound source separation function in the first embodiment.
  • the current setting of sound effects (reference numerals 701 and 702) and the component emphasized by the sound source separation function (reference numeral 704) are displayed in the upper area of the video.
  • the sound source separation function is turned on, the voice is not emphasized by the reference numeral 703, and the background sound is emphasized by the reference numeral 704.
  • reference numeral 701 indicates that the surround function is invalidated and the graphic equalizer function is also invalidated. Note that the sound effect and sound source separation function status display screen shown in FIG. 7 is merely an example, and is not limited thereto, and can be displayed by various methods.
  • the sound source separation function and general sound effect settings may not be compatible.
  • the acoustic effect may not be in an optimal adjustment state even if the acoustic effect processing is performed on the voice signal after filtering processing such as emphasis or suppression of voice or background sound by the sound source separation function.
  • the sound source separation processing unit 302 when the user sets to turn on the sound source separation function, the sound source separation processing unit 302 is controlled so as to execute the sound source separation function, and the sound signal is converted.
  • the sound effect processing unit 303 is controlled so as not to execute the sound effect function for providing the sound effect. For this reason, the effect of emphasizing or suppressing the voice or background sound by the sound source separation function can be optimally exhibited without being reduced by the acoustic effect. For this reason, according to this embodiment, even when the sound source separation function is mounted on an electronic device, the acoustic effect can be obtained in an optimal adjustment state.
  • the television apparatus 100 In the first embodiment, the television apparatus 100 always invalidates the sound effect when the sound source separation function is instructed to be turned on. However, when the strength of the voice enhancement is equal to or lower than the enhancement strength of the background sound. Since the voice is not emphasized, it is considered that there is little influence even if an acoustic effect is given to the voice signal. For this reason, in the second embodiment, even when the sound source separation function is instructed to turn on, the television apparatus 100 has a filtering effect setting in which the intensity of background sound enhancement is greater than the intensity of voice enhancement. Does not invalidate sound effects.
  • the configuration of the television device 100 according to the present embodiment, the functional configuration of the control unit 127, and the configuration of the audio processing unit 1241 are the same as those of the first embodiment.
  • FIG. 8 is a flowchart illustrating an example of a procedure of voice control processing according to the second embodiment.
  • the video processing unit 1242 displays the sound setting screen (step S11), and the sound control unit 301 determines whether or not the sound source separation function is instructed by the user on the sound setting screen (step S11). S12). Then, when there is an instruction to turn off the sound source separation function (step S12: No), the control proceeds to step S16, and the same processing as in the first embodiment is performed.
  • step S12 when the user gives an instruction to turn on the sound source separation function on the sound setting screen (step S12: Yes), the voice control unit 301 validates the filtering effect setting as in the first embodiment. (Step S13).
  • the voice control unit 301 determines whether or not the enhancement level of the voice signal is equal to or higher than the enhancement level of the background sound signal by setting the filtering effect by the user (step S31). If the enhancement level of the voice signal is equal to or higher than the enhancement level of the background sound signal (step S31: Yes), the acoustic effect processing unit 303 sets the current acoustic effect as in the first embodiment. Save in the memory 131 or the like (step S14). The sound control unit 301 invalidates the sound effect function and controls the sound effect processing unit 303 so as not to execute the sound effect function (step S15).
  • step S31 if the enhancement level of the voice signal is less than the enhancement level of the background sound signal in the filtering effect setting (step S31: No), the voice control unit 301 disables the acoustic effect function.
  • the sound effect processing unit 303 is controlled so as to execute the sound effect function by enabling the sound effect function with the set contents without performing (step S32).
  • the video processing unit 1242 displays the sound effect and the sound source separation function (step S19).
  • the television apparatus 100 does not perform acoustic sound when the background sound enhancement strength is set to a filtering effect greater than the voice enhancement strength. Since the effect is not invalidated, even when the sound source separation function is used, the sound effect can be optimally exhibited if the sound effect does not affect voice enhancement. For this reason, according to this embodiment, even when the sound source separation function is mounted on an electronic device, the acoustic effect can be obtained in an optimal adjustment state.
  • FIG. 9 is a flowchart illustrating an example of a procedure of voice control processing according to the third embodiment.
  • step S51 the voice control unit 301 of this embodiment is waiting for detection of a predetermined timing (step S52: No). Then, when the predetermined timing is detected (step S52: Yes), the sound control unit 301 controls the sound source separation processing unit 302 to disable the sound source separation function, that is, stop the execution of the sound source separation function ( Step S53).
  • the sound control unit 301 outputs a sound signal to the sound source separation processing unit 302, does not change the strength of the voice correction filter 403, and sets a parameter command that sets the gain Gv405 to 1 and the background sound correction filter 404.
  • the parameter command with the gain Gb406 set to 1 is output to the sound source separation processing unit 302 without changing the intensity of the sound and the voice and background sound are not emphasized and suppressed, thereby invalidating the sound source separation function. Do.
  • the method of disabling the sound source separation function is not limited to this, and the sound signal separation function is output by outputting the audio signal to the acoustic effect processing unit 303 without passing through the sound source separation processing unit 302.
  • the voice control unit 301 may be configured to perform invalidation.
  • the sound control unit 301 acquires the sound effect setting content stored in the memory 131 or the like to restore the sound effect setting content before the sound source separation function is executed (step S54). Then, the sound control unit 301 controls the sound effect processing unit 303 so that the sound effect function is validated, that is, the sound effect is imparted with the restored setting content (step S55).
  • the predetermined timing includes broadcast channel switching, broadcast program switching, input device switching, power-on after power-off, switching between CM scene and main scene, start or end of music, and the like.
  • the voice control unit 301 detects the predetermined timing, invalidates the sound source separation function, and restores the sound effect function.
  • the sound source separation processing unit 302 and the sound effect processing unit 303 are controlled.
  • the television apparatus 100 receives an electronic program guide (EPG: Electronic Program Guide) at regular intervals using a digital broadcast wave.
  • EPG Electronic Program Guide
  • the audio control unit 301 refers to the electronic program guide, detects the time when the program currently being viewed by the user is switched to the next program as a predetermined timing, invalidates the sound source separation function, and restores the sound effect function. As described above, the sound source separation processing unit 302 and the sound effect processing unit 303 are controlled.
  • the audio control unit 301 performs the input switching.
  • the time point is detected as a predetermined timing, and the sound source separation processing unit 302 and the sound effect processing unit 303 are controlled to disable the sound source separation function and restore the sound effect function.
  • control unit 127 executes scene detection for a broadcast program or a recorded program, and outputs scene information as a result.
  • the scene information is data in which the scene type, start time, and end time of the scene detected are recorded.
  • the scene type indicates a main scene, a CM scene, a song scene, a scene other than a song, and the like.
  • the audio control unit 301 acquires this scene information from the control unit 127, detects the point in time when the scene of the program being broadcast or the recorded program being played is switched from the main scene to the CM scene as a predetermined timing, and the sound source separation
  • the sound source separation processing unit 302 and the sound effect processing unit 303 are controlled so as to invalidate the function and restore the sound effect function.
  • control unit 127 can execute music detection for a broadcast program or a recorded program.
  • the sound control unit 301 detects the detection time as a predetermined timing, invalidates the sound source separation function, and restores the sound effect function.
  • 302 and the sound effect processing unit 303 are controlled.
  • step S71 the user turns off the power (power off) (step S72: Yes), and then turns on the power (power on).
  • step S73: Yes the voice control unit 301 detects the power-on time after the power-off as a predetermined timing. Then, the sound control unit 301 disables the sound source separation function (step S74), and controls the sound source separation processing unit 302 and the sound effect processing unit 303 to restore and execute the sound effect function (step S75, S76).
  • the television device 100 restores the sound effect function by invalidating the sound source separation function when a predetermined timing is detected during the execution of the sound source separation function. That is, in this embodiment, when the sound source separation function is disabled at a predetermined timing such as a specific operation, the user restores the original sound effect by restoring the sound effect setting before the execution of the sound source separation function. It is possible to prevent the erroneous recognition of the sound source separation function in which the returning operation is omitted and the limited sound cannot be heard. Therefore, according to the present embodiment, even when the sound source separation function is mounted on an electronic device, the acoustic effect can be obtained in an optimal adjustment state.
  • the television device 100 always invalidates the sound source separation function and restores the sound effect function when a predetermined timing is detected during the execution of the sound source separation function. 4, the television device 100 invalidates the sound source separation function and restores the sound effect function when there is an instruction to restore the sound effect function by the user.
  • the configuration of the television device 100 according to the present embodiment, the functional configuration of the control unit 127, and the configuration of the audio processing unit 1241 are the same as those of the first embodiment.
  • FIG. 11 is a diagram illustrating an example of a sound effect restoration setting screen according to the fourth embodiment.
  • the sound effect restoration setting screen it is possible to specify whether or not to restore the sound effect when a predetermined timing is detected.
  • the acoustic effect is restored at the time of detection of a predetermined timing.
  • the sound source separation function is not invalidated.
  • Restoration settings on the sound effect restoration setting screen are made in advance, such as initial settings.
  • the restoration setting content on the acoustic effect restoration setting screen is stored in the memory 131 or the like by the setting unit 203.
  • FIG. 12 is a flowchart illustrating an example of a procedure of voice control processing according to the fourth embodiment.
  • the voice control unit 301 when the sound source separation function by the sound source separation processing unit 302 is in operation (step S51), when a predetermined timing is detected (step S52: Yes), the voice control unit 301 is configured to store the memory 131 or the like. Referring to FIG. 4, it is determined whether or not the sound effect restoration setting is turned on (step S91).
  • step S91 If the restoration setting is off (step S91: No), the control returns to step S51. That is, the sound control unit 301 controls the sound source separation processing unit 302 so as to continue execution of the sound source separation function, and controls the sound effect processing unit 303 so as not to execute the sound effect function.
  • step S91 when the restoration setting is on (step S91: Yes), the sound control unit 301 disables the sound source separation function (step S53) and sets the acoustic effect as in the third embodiment. Is restored (step S54), and the acoustic effect processing unit 303 is controlled so as to validate the acoustic effect function with the restored setting contents, that is, to impart the acoustic effect (step S55).
  • the television device 100 invalidates the sound source separation function and restores the sound effect function when there is an instruction to restore the sound effect function by the user, so the restoration is performed even at a predetermined timing.
  • the sound source separation function is disabled and the sound effect function is not restored.
  • the acoustic effect can be obtained in a more optimal adjustment state.
  • the sound effect restoration setting screen, the sound control unit 301, and the sound effect processing unit 303 may be configured.
  • the voice control unit 301 determines the restoration setting for each item of the acoustic effect.
  • the acoustic effect of the item for which “ON” is set is restored at the time of detection at a predetermined timing.
  • the acoustic effect of the item for which “OFF” is set is not restored even when a predetermined timing is detected, and the sound source separation function is not invalidated.
  • the television apparatus 100 performs the acoustic effect restoration setting by the initial setting or the like in advance, but when the predetermined timing is detected, the acoustic effect restoration setting screen illustrated in FIG. May be displayed on the video display panel 102, and the audio control unit 301 and the video processing unit 1242 may be configured to inquire the user whether the sound source separation function is disabled and the sound effect can be restored.
  • the audio control program executed by the television device 100 of the above embodiment is provided in advance as a computer program product by being incorporated in advance in the ROM of the memory 131 or the like.
  • the audio control program executed by the television device 100 is an installable or executable file and can be read by a computer such as a CD-ROM, flexible disk (FD), CD-R, or DVD. It may be configured to be recorded on a simple recording medium and provided as a computer program product.
  • the audio control program executed by the television apparatus 100 of the above embodiment is stored on a computer connected to a network such as the Internet, and is downloaded via the network so as to be provided as a computer program product. May be. Further, the voice control program executed by the television device 100 of the above embodiment may be provided or distributed as a computer program product via a network such as the Internet.
  • the audio control program executed by the television device 100 includes a module including the above-described units (the input control unit 201, the setting unit 203, the audio control unit 301, the sound source separation processing unit 302, and the sound effect processing unit 303).
  • the CPU reads the voice control program from the ROM and executes it, so that each unit is loaded onto the RAM of the memory 131, and each unit is generated on the RAM.
  • modules of the system described herein can be implemented as software applications, hardware and / or software modules, or components on one or more computers such as servers. Although the various modules are described separately, they may share some or all of the same underlying logic or code.

Abstract

 実施形態の電子機器は、一例として、音源分離処理部と、音響効果処理部と、音声制御部とを備える。音源分離処理部は、入力される音声信号を、声信号と背景音信号とに分離して、声信号または背景音信号を強調または抑制する音源分離機能を実行可能である。音響効果処理部は、音声信号に対して音響効果を付与する音響効果機能を実行可能である。音声制御部は、ユーザにより、音源分離機能を実行する旨の指示があった場合に、音源分離機能を実行するように音源分離処理部を制御し、かつ音響効果機能を実行しないように音響効果処理部を制御する。

Description

電子機器、制御方法およびプログラム
 本発明の実施形態は、電子機器、制御方法およびプログラムに関する。
 近年、映像音声に対して、異なる属性をもつ音源別に音声信号を分離して、各音源別の音声信号に適切な音声補正を行った後、各音源別の音声信号を合成して出力する音源分離技術が提案されている。
 このような音源分離技術では、一般的には、音声信号を、人間の声である声成分と、人間の声以外の背景成分に分離する。そして、声成分と背景音成分と個別に音量等の強調制御を行い、人間の声を聞きやすくしたり、あるいは人間の声を抑制する等の効果を得ることができる。
特開2002-159099号公報
 このような音源分離の機能を、音声信号に種々の音響効果の処理を行って出力することが可能な音声テレビジョン装置やPC(Personal Computer)、タブレット端末等の電子機器に搭載する場合がある。このような場合でも、最適な調整状態で音響効果が得られることが望まれている。
 実施形態の電子機器は、音源分離処理部と、音響効果処理部と、音声制御部とを備える。音源分離処理部は、入力される音声信号を、声信号と背景音信号とに分離して、声信号または背景音信号を強調または抑制する音源分離機能を実行可能である。音響効果処理部は、音声信号に対して音響効果を付与する音響効果機能を実行可能である。音声制御部は、ユーザにより、音源分離機能を実行する旨の指示があった場合に、音源分離機能を実行するように音源分離処理部を制御し、かつ音響効果機能を実行しないように音響効果処理部を制御する。
図1は、実施形態1にかかるテレビジョン装置の構成の一例を示すブロック図である。 図2は、実施形態1の制御部の機能的構成の一例を示すブロック図である。 図3は、実施形態1の音声処理部の構成の一例を示す図である。 図4は、実施形態1にかかる音声制御処理の手順の一例を示すフローチャートである。 図5は、実施形態1にかかる音響設定画面の一例を示す図である。 図6は、実施形態1にかかるフィルタ効果設定画面の一例を示す図である。 図7は、実施形態1における音響効果と音源分離機能の表示の一例を示す図である。 図8は、実施形態2にかかる音声制御処理の手順の一例を示すフローチャートである。 図9は、実施形態3にかかる音声制御処理の手順の一例を示すフローチャートである。 図10は、実施形態3にかかる音声制御処理の手順の一例を示すフローチャートである。 図11は、実施形態4の音響効果の復元設定画面の一例を示す図である。 図12は、実施形態4にかかる音声制御処理の手順の一例を示すフローチャートである。 図13は、実施形態4の変形例にかかる音響効果の復元設定画面の一例を示す図である。
 以下に示す実施形態は、電子機器を適用したテレビジョン装置の例について説明する。しかしながら、本実施形態は、電子機器をテレビジョン装置に制限するものではなく、例えば、PCやタブレット端末等の音声を出力可能な装置であれば任意の装置に適用することができる。
(実施形態1)
 本実施形態のテレビジョン装置100は、図1に示すように、デジタル放送の放送波を受信し、受信した放送波から取り出した映像信号を用いて番組の映像を表示する据置型の映像表示装置であり、録画再生機能も備えている。
 テレビジョン装置100は、図1に示すように、アンテナ112、入力端子113、チューナ114および復調器115を有している。アンテナ112は、デジタル放送の放送波を捕らえ、その放送波の放送信号を、入力端子113を介してチューナ114に供給する。
 チューナ114は、入力されたデジタル放送の放送信号から所望のチャンネルの放送信号を選局する。そして、チューナ114から出力された放送信号は復調器115に供給される。復調器115は、放送信号に復調処理を施し、デジタル映像信号および音声信号を復調して、後述するセレクタ116に供給する。
 また、テレビジョン装置100は入力端子121,123、A/D変換部122、信号処理部124、スピーカ125および映像表示パネル102を有している。
 入力端子121は外部からアナログの映像信号および音声信号が入力され、入力端子123は外部からデジタルの映像信号および音声信号が入力される。A/D変換部122は入力端子121から供給されるアナログの映像信号および音声信号をデジタル信号に変換し、セレクタ116に供給する。
 セレクタ116は、復調器115、A/D変換部122および入力端子123から供給されるデジタルの映像信号及び音声信号から1つを選択して、信号処理部124に供給する。
 また、テレビジョン装置100は、少なくともTSデマルチプレクサおよびMPEGデコーダを有している。信号処理部124は、MPEGデコーダによってデコードされた後の信号を入力する。さらに、信号処理部124は、HDD130や、DVD(Digital Versatile Disc)、Blu-ray(登録商標) Disc等の外部記憶媒体に記録されている番組録画データや動画データがデコードされた後の信号も入力する。
 信号処理部124は、音声処理部1241と映像処理部1242とを備えている。映像処理部1242は、入力される映像信号について、所定の信号処理やスケーリング処理等を施し、処理後の映像信号を映像表示パネル102に供給する。さらに、映像処理部1242は、映像表示パネル102に表示させるためのOSD(On Screen display)信号も生成している。ここで、映像処理部1242と映像表示パネル102は、表示部の一例である。
 音声処理部1241は、セレクタ116から入力されたデジタル音声信号に所定の信号処理を施し、アナログ音声信号に変換してスピーカ125に出力する。音声処理部1241の詳細については、後述する。スピーカ125は、信号処理部124から供給される音声信号を入力し、その音声信号を用いて音声を出力する。本実施形態の音声処理部1241は、音源分離機能を有している。音声処理部1241の詳細については後述する。
 映像表示パネル102は、液晶ディスプレイやプラズマディスプレイ等のフラットパネルディスプレイから構成される。映像表示パネル102は、信号処理部124から供給される映像信号を用いて映像を表示する。
 さらに、テレビジョン装置100は制御部127、操作部128、受光部129、HDD(Hard Disk Drive)130、メモリ131、及び通信I/F132を有している。
 制御部127は、テレビジョン装置100における種々の動作を統括的に制御する。制御部127は、CPU(Central Processing Unit)等を内蔵したマイクロプロセッサであり、操作部128からの操作情報を入力する一方、リモートコントローラ150から送信された操作情報を、受光部129を介して入力し、それらの操作情報にしたがい各部をそれぞれ制御する。本実施形態の受光部129は、リモートコントローラ150からの赤外線を受光する。
 この場合、制御部127は、メモリ131を使用している。メモリ131は、主として、制御部127に内蔵されているCPUが実行する制御プログラムを格納したROM(Read Only Memory)と、CPUに作業エリアを提供するためのRAM(Random Access Memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを有している。
 HDD130は、セレクタ116で選択されたデジタルの映像信号及び音声信号を記録する記憶部としての機能を有している。テレビジョン装置100はHDD130を有するため、セレクタ116で選択されたデジタルの映像信号及び音声信号を録画データとしてHDD130により記録することができる。さらに、テレビジョン装置100は、HDD130に記録されたデジタルの映像信号及び音声信号を用いて映像および音声を再生することもできる。
 通信I/F132は、公衆ネットワーク160を介して様々な通信装置(例えばサーバ)と接続されており、テレビジョン装置100で利用可能なプログラムやサービスを受信するほか、様々な情報を送信することができる。
 次に、制御部127により実行される機能的構成について説明する。本実施形態の制御部127は、図2に示すように、入力制御部201と、設定部203として機能する。
 入力制御部201は、ユーザからのリモートコントローラ150による操作入力を受光部129を介して受け付けるとともに、操作部128による操作入力を受け付ける。本実施形態では、ユーザから、音源分離機能を使用するか否かなどの設定入力および音源分離機能を使用する場合における声と背景音の音量(強調の強度)の設定入力を受け付ける。また、入力制御部201は、ユーザから音響効果の設定を受け付ける。
 ここで、音声信号は、人間の声の成分の信号と音楽等の声以外の背景音の成分の信号とから構成される。なお、これ以降、声成分の信号を声信号と称し、背景音成分の信号を背景音信号と称する。音源分離機能は、音声信号を、声信号と背景音信号とに分離して、声信号または背景音信号のいずれかを強調する機能であり、音声処理部1241で実行される。
 設定部203は、ユーザからの各種設定を行い、設定内容をメモリ131等に保存する。本実施形態では、入力制御部201が受け付けた音源分離機能を使用するか否かなどの設定、声と背景音の音量(強調の度合い)の設定、および音響効果の設定をメモリ131等に保存する。
 次に、信号処理部124の音声処理部1241の詳細について説明する。本実施形態の音声処理部1241は、図3に示すように、音声制御部301と、音源分離処理部302と、音響効果処理部303と、を備えている。
 音声制御部301は、ユーザにより、音源分離機能を使用(実行)する旨の設定があった場合に、音源分離機能を実行するように音源分離処理部302を制御し、かつ音声信号に対して音響効果を付与する音響効果機能を実行しないように音響効果処理部303を制御する。
 音声制御部301は、入力される音声信号を、音源分離処理部302に出力することにより、音源分離機能の有効化を行って、これにより音声信号の強調を行うように音源分離処理部302を制御する。音声制御部301は、音源分離機能の有効化を行う場合、音声信号とともにパラメータ指令を音源分離処理部302に出力する。このパラメータ指令は、声の強調や抑制を行ったり、背景音の強調や抑制を行う場合のパラメータである。
 音源分離処理部302は、音声信号Xを、声信号と背景音信号とに分離して、声信号または背景音信号を強調または抑制する音源分離機能を実行する。音源分離処理部302は、図3に示すように、音源分離部401と、声補正フィルタ403と、背景音補正フィルタ404と、ゲインGv405と、ゲインGb406と、加算部407とを備えている。
 音源分離部401は、入力される音声信号を声成分V(声信号V)と背景音成分B(背景音信号B)に分離する。音源分離部401による音声信号の分離手法は、任意の手法を用いることができる。音源分離部401は、音声信号の分離手法として、例えば、特開2013-37152号公報に開示されている手法を用いることができるが、これに限定されるものではない。
 声補正フィルタ403は、声信号Vの特性をパラメータ指令に基づいて補正して、補正後の声信号V’を出力する。背景音補正フィルタ404は、背景音信号Bの特性をパラメータ指令に基づいて補正して、補正後の背景音信号B’を出力する。
 このような補正フィルタ403、404としては、定数値(利得調整のみ)からサラウンド等のチャネル間の相関を利用するもの等種々のものがある。例えば、声補正フィルタ403に、声信号Vに補聴器などで用いられている声の周波数特性を強調するフィルタを用いることで背景成分に影響を与えず声だけを聞こえやすくすることができる。また、背景音補正フィルタ404に、音源分離処理によって過剰に抑圧された周波数帯域を強めるフィルタや、音楽プレーヤ等に附属しているイコライザと同様な手法で聴覚的な効果を加えるフィルタなどを用いたり、背景音信号がステレオ信号である場合にはいわゆる疑似サラウンドの技術を用いたフィルタを適用することもできる。
 声補正フィルタ403による補正後の声信号V’にはゲインGv405が乗算され、 背景音補正フィルタ404による補正後の背景音信号B’にはゲインGb406が乗算される。
 ここで、本実施形態の音声処理部1241は、音声制御部301からパラメータ指令を入力し、声補正フィルタ403、背景音補正フィルタ404の補正の強度をパラメータ指令に応じて変化させるとともに、ゲインGv405とGb406をパラメータ指令により変化させている。これにより、声補正フィルタ403およびゲインGv405によるパラメータ指令による声の強調または抑制が行われ、背景音補正フィルタ404およびゲインGb406によるパラメータ指令による背景音の強調または抑制が行われる。
 加算部407はゲインGv405が乗算された声信号とゲインGb406が乗算された背景音信号とを加算することにより合成して、合成信号Yを出力する。
 音響効果処理部303は、合成信号Yに対して、ユーザの設定による種々の音響効果を施して、音声信号を出力する。また、音響効果処理部303は、音声制御部301により音響効果が無効とされ、音響効果を停止する場合に、音響効果の実行中の設定内容をメモリ131等に保存する。ここで、音響効果としては、例えば、サラウンド効果、ダイナミックベースブースト、グラフィックイコライザ等があげられるがこれらに限定されるものではない。
 次に、以上のように構成された本実施形態のテレビジョン装置100による音声制御処理について図4を用いて説明する。まず、信号処理部124の映像処理部1242は、映像表示パネル102に、OSDとして音響設定画面を表示する(ステップS11)。音響設定画面は、音源分離機能の使用を行うか否か、音源分離機能の使用を行う場合の声と背景音の強調の強度の設定、種々の音響効果の設定をユーザに行わせるための画面である。
 図5は、実施形態1にかかる音響設定画面の一例を示す図である。図5に示すように、音響設定画面で「サウンドモード」が選択されると、画面右側に、サウンドモードの種類をユーザに選択させるサウンドモード画面が表示される。このサウンドモード画面において、ユーザが「音源分離」を選択した場合に音源分離機能がオンとなり、音源分離機能が使用される。一方、サウンドモード画面で、ユーザが、「標準」、「ミュージック」、「映画」のように音源分離以外を選択した場合には音源分離機能はオフとなり、音源分離機能が使用されない。
 図4に戻り、音源分離機能がオンの指示があった場合には(ステップS12:Yes)、音声制御部301は、フィルタリング効果の設定を有効にする(ステップS13)。
 すなわち、図5に示す音響設定画面において、サウンドモードで「音源分離」が選択され、音源分離機能がオンとなった場合に、音声制御部301は、「フィルタリング効果」の設定を有効とする。
 ユーザがこの「フィルタリング効果」を選択すると、映像処理部1242は、フィルタリング効果設定画面を映像表示パネル102に表示する。フィルタリング効果設定画面は、音源分離機能をオンとした場合の声と背景音の強調の強度の設定をユーザに指定させるための画面である。図6は、実施形態1にかかるフィルタ効果設定画面の一例を示す図である。
 図6に示す例では、バー602上の目盛りで「-5」から「+5」までの11段階で、声および背景音の強調のバランスを、フィルタリング効果として指定可能となっている。図6において、-方向が背景音成分を強調する方向であり、+方向が声成分を強調する方向である。
 フィルタリング効果「-5」は、声成分が殆ど出力されず、背景音成分のみが出力される値である。フィルタリング効果「0」は、声成分と背景音成分とが均等な強さ(音量)で出力される標準の値であり、フィルタリング効果「0」がデフォルト値となっている。フィルタリング効果「+5」は、声成分のみが出力され、背景音成分が殆ど出力されない値である。
 ユーザはこの声のフィルタリング効果設定画面において、バー602上で指示ボタン601を動かして、所望のフィルタリング効果を設定する。入力制御部201は、フィルタリング効果設定画面から指定されたフィルタリング効果の値の設定入力を受け付ける。なお、フィルタリング効果設定画面、フィルタリング効果の段階は、図6に示したものに限定されるものではなく、任意に定めることができる。
 そして、音声制御部301は、フィルタリング効果で設定された値で、パラメータ指令を、音源分離処理部302に送出する。これにより、音源分離処理部302の声補正フィルタ403および背景音補正フィルタ404はパラメータ指令に従ってそれぞれ声信号、背景音信号に対しフィルタリング処理を行うことにより、声信号および背景音信号はフィルタリング効果設定で指定されたバランスの強調となる。
 次に、音響効果処理部303は、現時点で設定されている音響効果の設定内容を、メモリ131等に保存する(ステップS14)。そして、音声制御部301は、音響効果の無効化を行う(ステップS15)。具体的には、音声制御部301は以下の処理を行う。
 図5の音響設定画面における「サラウンド」、「ダイナミックベースブースト」、「グラフィックイコライザ」の各設定は、音響効果の設定である。ユーザにより、「サウンドモード」で「音源分離」が選択されて音源分離機能がオンになった場合には、音声制御部301は、音響効果の無効化の処理として、これらの音響効果の設定を無効とし設定できないようにする。なお、かかる音響効果の項目は、ユーザにより、「サウンドモード」で「音源分離」以外の項目が選択されて音源分離機能がオフになった場合に有効となり設定可能となる。
 なお、図5に示す音響設定画面の音源分離機能の設定、フィルタリング効果の設定、各種音響効果の設定はいずれも一例であり、図5に示す例に限定されるものではない。
 また、音声制御部301は、音響効果の無効化の処理として、音響効果処理部303の音響効果に関するパラメータの指定をすべて無効とし、合成された音声信号に対して何も音響効果が付与されないように音響効果処理部303を制御する。
 これにより、音源分離機能がオンとなった場合、ユーザは音響設定画面において音響効果の設定ができなくなる他、音声処理部1241に入力された音声信号は音源分離処理部302を通過した後、音響効果処理部303に入力されるが、音声信号に対して音響効果の付与が行われずに出力されることになる。
 ステップS12において、ユーザにより音源分離機能がオフの指示があった場合には(ステップS12:No)、音声制御部301は、フィルタリング効果の設定を無効とする(ステップS16)。具体的には、音声制御部301は、図5に示す音響設定画面で、「フィルタリング効果」の設定を無効とし、設定できないようにする。さらに、音声制御部301は、入力される音声信号を、音源分離処理部302に出力する際に、パラメータ指令を、声信号と背景音信号の強調および抑制を行わない設定値として、音源分離処理部302に出力する。これにより、音源分離処理部302の各フィルタや各ゲインは、声信号と背景音信号の双方に対して強調や抑制の処理を行わない。
 そして、音声制御部301は、メモリ131等に保存されている音響効果の設定を取得し(ステップS17)、取得した設定内容で音響効果の有効化を行う(ステップS18)。具体的には、音声制御部301は、音響効果の有効化の処理として、図5の音響設定画面において、「サラウンド」、「ダイナミックベースブースト」、「グラフィックイコライザ」の音響効果の各設定を有効にする。さらに、音声制御部301は、音響効果の有効化の処理として、音響効果処理部303の音響効果に関するパラメータを、ステップS17で取得した設定内容とし、音声信号に対し音響効果が付与されるように音響効果処理部303を制御する。
 そして、映像処理部1242は、映像を映像表示パネル102に表示する際に、映像の画面に、OSDとして、音響効果と音源分離機能の状態表示を行う(ステップS19)。具体的には、映像処理部1242は、現在に音響効果の設定内容および音源分離機能で強調している成分の表示を行う。図7は、実施形態1における音響効果と音源分離機能の状態表示の一例を示す図である。
 図7に示すように、映像の上方の領域に、音響効果の現在の設定(符号701、702)と音源分離機能で強調している成分の表示(符号704)が行われる。図7の例では、音源分離機能がオンとなっており、符号703により声は強調されておらず、符号704により背景音が強調されていることが示されている。また、音響効果に関しては、符号701によりサラウンド機能は無効化され、グラフィックイコライザ機能も無効化されていることが示されている。なお、図7に示した音響効果と音源分離機能の状態表示の画面は一例であり、これに限定されるものではなく、種々の方法で表示することができる。
 音源分離機能をテレビジョン装置100等の電子機器に搭載した場合、音源分離機能と一般的な音響効果の設定が両立しない場合がある。あるいは、音源分離機能による声または背景音の強調または抑制等のフィルタリング処理後の音声信号に対して音響効果の処理を施しても、音響効果が最適な調整状態にならない場合がある。
 本実施形態では、上述のように、ユーザにより、音源分離機能をオンとする旨の設定があった場合に、音源分離機能を実行するように音源分離処理部302を制御し、かつ音声信号に対して音響効果を付与する音響効果機能を実行しないように音響効果処理部303を制御する。このため、音源分離機能による声または背景音の強調または抑制の効果が音響効果によって減少されずに、最適に発揮することができる。このため、本実施形態によれば、音源分離機能を電子機器に搭載した場合でも、最適な調整状態で音響効果を得ることができる。
(実施形態2)
 実施形態1では、テレビジョン装置100は、音源分離機能のオンの指示があった場合、常に音響効果を無効としていたが、声の強調の強度が背景音の強調の強度以下である場合には、声は強調されていないため音響効果を音声信号に付与しても影響は少ないと考えられる。このため、この実施形態2では、テレビジョン装置100は、音源分離機能のオンの指示があった場合でも、背景音の強調の強度は声の強調の強度より大きいフィルタリング効果設定の場合には、音響効果を無効としない。
 本実施形態のテレビジョン装置100の構成、制御部127の機能的構成、音声処理部1241の構成については実施形態1と同様である。
 図8は、実施形態2にかかる音声制御処理の手順の一例を示すフローチャートである。実施形態1と同様に、映像処理部1242が音響設定画面を表示し(ステップS11)、音声制御部301が音響設定画面でユーザから音源分離機能のオンの指示があったか否かを判断する(ステップS12)。そして、音源分離機能のオフの指示があった場合には(ステップS12:No)、制御はステップS16へ移行し、実施形態1と同様の処理が行われる。
 一方、ステップS12で、音響設定画面でユーザから音源分離機能のオンの指示があった場合には(ステップS12:Yes)、音声制御部301は、実施形態1と同様に、フィルタリング効果設定を有効にする(ステップS13)。
 次に、音声制御部301は、ユーザによるフィルタリング効果の設定で、声信号の強調の強度が背景音信号の強調の強度以上か否かを判断する(ステップS31)。そして、声信号の強調の強度が背景音信号の強調の強度以上である場合には(ステップS31:Yes)、実施形態1と同様に、音響効果処理部303は、現在の音響効果の設定をメモリ131等に保存する(ステップS14)。音声制御部301は、音響効果機能の無効化を行って、音響効果機能を実行しないように音響効果処理部303を制御する(ステップS15)。
 一方、ステップS31で、フィルタリング効果設定で、声信号の強調の強度が背景音信号の強調の強度未満である場合には(ステップS31:No)、音声制御部301は、音響効果機能の無効化を行わずに、設定内容で音響効果機能の有効化を行って、音響効果機能を実行するように音響効果処理部303を制御する(ステップS32)。
 その後、実施形態と同様に、映像処理部1242は、音響効果と音源分離機能の表示を行う(ステップS19)。
 このように本実施形態では、テレビジョン装置100は、音源分離機能のオンの指示があった場合でも、背景音の強調の強度は声の強調の強度より大きいフィルタリング効果設定の場合には、音響効果を無効としないので、音源分離機能を使用する場合でも声の強調に音響効果が影響しない場合には音響効果を最適に発揮させることができる。このため、本実施形態によれば、音源分離機能を電子機器に搭載した場合でも、最適な調整状態で音響効果を得ることができる。
(実施形態3)
 実施形態3では、実施形態1または2の機能に加えて、テレビジョン装置100は、音源分離機能の実行中に、所定のタイミングを検出した場合、音源分離機能の無効化を行って、音響効果機能を復元している。
 本実施形態のテレビジョン装置100の構成、制御部127の機能的構成、音声処理部1241の構成については実施形態1と同様である。図9は、実施形態3にかかる音声制御処理の手順の一例を示すフローチャートである。
 音源分離処理部302による音源分離機能の動作中において(ステップS51)、本実施形態の音声制御部301は、所定のタイミングの検出待ちとなっている(ステップS52:No)。そして、音声制御部301は、所定のタイミングを検出した場合に(ステップS52:Yes)、音源分離機能の無効化、すなわち音源分離機能の実行を停止するように音源分離処理部302を制御する(ステップS53)。
 具体的には、音声制御部301は、音声信号を音源分離処理部302に出力するとともに、声補正フィルタ403の強度を変更せず、ゲインGv405を1とするパラメータ指令、および背景音補正フィルタ404の強度を変更せず、ゲインGb406を1とするパラメータ指令を、音源分離処理部302に出力し、声と背景音の強調および抑制を行わないようにすることにより、音源分離機能の無効化を行う。
 なお、音源分離機能の無効化の手法は、これに限定されるものではなく、音声信号を、音源分離処理部302を介さずに、音響効果処理部303に出力することにより、音源分離機能の無効化を行うように音声制御部301を構成してもよい。
 そして、音声制御部301は、メモリ131等に保存されている音響効果の設定内容を取得することにより、音源分離機能の実行前の音響効果の設定内容を復元する(ステップS54)。そして、音声制御部301は、復元した設定内容で音響効果機能の有効化、すなわち音響効果の付与を行うように音響効果処理部303を制御する(ステップS55)。
 ここで、所定のタイミングは、放送チャンネルの切替え、放送番組の切替え、入力デバイスの切替え、電源切断後の電源投入、CMシーンと本編シーンの切替え、楽曲の開始または終了等がある。
 具体的には、音声制御部301は、ユーザによる操作部128やリモートコントローラ150からのチャンネルの切替えを受け付けた場合に、所定のタイミングとして検出し、音源分離機能を無効にし音響効果機能を復元するように、音源分離処理部302と音響効果処理部303とを制御する。
 また、テレビジョン装置100は、電子番組表(EPG:Electronic Program Guide)をデジタル放送の放送波で一定時間ごとに受信している。音声制御部301は、この電子番組表を参照して、現在、ユーザが視聴中の番組が次の番組に切り替わる時点を、所定のタイミングとして検出し、音源分離機能を無効にし音響効果機能を復元するように、音源分離処理部302と音響効果処理部303とを制御する。
 また、ユーザが入力端子にゲーム機器やHDMI(登録商標)(High-Definition Multimedia Interface)機器等を接続することにより、入力デバイスの切替えが検知された場合、音声制御部301は、その入力切替えの時点を、所定のタイミングとして検知し、音源分離機能を無効にし音響効果機能を復元するように、音源分離処理部302と音響効果処理部303とを制御する。
 また、制御部127は、放映番組や録画番組のシーン検出を実行し、その結果シーン情報を出力する。シーン情報は、シーン検出されたシーンのシーン種別と開始時刻および終了時刻とを記録したデータである。シーン種別とは、本編シーン、CMシーン、歌シーン、歌以外のシーン等を示すものである。
 音声制御部301は、このシーン情報を制御部127から取得し、放映中の番組あるいは再生中の録画番組のシーンが本編シーンからCMシーンに切り替わった時点を、所定のタイミングとして検出し、音源分離機能を無効にし音響効果機能を復元するように、音源分離処理部302と音響効果処理部303とを制御する。
 また、制御部127は、放映番組や録画番組の楽曲検出を実行することができる。この楽曲検出により楽曲の開始または終了が検出された場合、音声制御部301はその検出時点を所定のタイミングとして検出し、音源分離機能を無効にし音響効果機能を復元するように、音源分離処理部302と音響効果処理部303とを制御する。
 また、図10に示すように、音源分離機能の動作中に(ステップS71)、ユーザによる電源切断(電源オフ)が行われ(ステップS72:Yes)、その後、電源投入(電源オン)が行われた場合(ステップS73:Yes)、音声制御部301は、この電源オフ後の電源オンの時点を所定のタイミングとして検出する。そして、音声制御部301は、音源分離機能を無効にし(ステップS74)、音響効果機能を復元して実行するように、音源分離処理部302と音響効果処理部303とを制御する(ステップS75,S76)。
 このように本実施形態では、テレビジョン装置100は、音源分離機能の実行中に、所定のタイミングを検出した場合、音源分離機能の無効化を行って、音響効果機能を復元している。すなわち、本実施形態では、特定の操作等の所定のタイミングで音源分離機能を無効にする際に、音源分離機能の実行前の音響効果の設定を復元することで、ユーザが元の音響効果に戻す作業を省略し、さらに限られた音が聞こえなくなるという音源分離機能の誤認識を防止することができる。従って、本実施形態によれば、音源分離機能を電子機器に搭載した場合でも、最適な調整状態で音響効果を得ることができる。
(実施形態4)
 実施形態3では、テレビジョン装置100は、音源分離機能の実行中に所定のタイミングを検出した場合に、常に音源分離機能を無効化、および音響効果機能の復元を行っていたが、この実施形態4では、テレビジョン装置100は、ユーザによる音響効果機能の復元の指示がある場合に、音源分離機能を無効化および音響効果機能の復元を行う。
 本実施形態のテレビジョン装置100の構成、制御部127の機能的構成、音声処理部1241の構成については実施形態1と同様である。
 本実施形態では、音響効果の復元設定画面において、所定のタイミングが検出された場合、音響効果の復元を行うか否かをユーザが予め指定可能となっている。図11は、実施形態4の音響効果の復元設定画面の一例を示す図である。
 図11に示すように、音響効果の復元設定画面では、所定のタイミングが検出された場合、音響効果の復元を行うか否かの指定が可能となっている。図11の例では、「ON」(オン)が設定されている場合に、所定のタイミングの検出時点で音響効果が復元される。一方、「OFF」(オフ)が設定されている場合は、所定のタイミングが検出されても復元されず、音源分離機能も無効とされない。
 音響効果の復元設定画面による復元の設定は、初期設定等の事前に行われる。また、音響効果の復元設定画面による復元の設定内容は、設定部203により、メモリ131等に保存される。
 図12は、実施形態4にかかる音声制御処理の手順の一例を示すフローチャートである。実施形態3と同様に、音源分離処理部302による音源分離機能の動作中において(ステップS51)、所定のタイミングが検出された場合に(ステップS52:Yes)、音声制御部301は、メモリ131等を参照して、音響効果の復元の設定がオンになっているか否かを判断する(ステップS91)。
 そして、復元の設定がオフとなっている場合には(ステップS91:No)、制御はステップS51へ戻る。すなわち、音声制御部301は、音源分離機能の実行を継続するように音源分離処理部302を制御し、音響効果機能を実行しないように音響効果処理部303を制御する。
 一方、復元の設定がオンとなっている場合には(ステップS91:Yes)、実施形態3と同様に、音声制御部301は、音源分離機能の無効化(ステップS53)、音響効果の設定内容の取得による復元を行い(ステップS54)、復元した設定内容で音響効果機能の有効化、すなわち音響効果の付与を行うように音響効果処理部303を制御する(ステップS55)。
 このように本実施形態では、テレビジョン装置100は、ユーザによる音響効果機能の復元の指示がある場合に、音源分離機能を無効化および音響効果機能の復元を行うので、所定のタイミングでも、復元の必要がない場合には、音源分離機能を無効化および音響効果機能の復元を行わない。このため、本実施形態によれば、音源分離機能を電子機器に搭載した場合でも、より最適な調整状態で音響効果を得ることができる。
 なお、図11の音響効果の復元設定画面の例では、音響効果全体で復元するか否かの設定が可能となっているが、音響効果の項目ごとに復元するか否かを設定するように音響効果の復元設定画面、音声制御部301および音響効果処理部303を構成してもよい。
 例えば、図13に示す音響効果の復元設定画面では、各音響効果ごとに、所定のタイミングが検出された場合、音響効果の復元を行うか否かの指定が可能となっている。この場合、音声制御部301は、音響効果の項目ごとに復元の設定を判断する。
 図13の例では、「ON」(オン)が設定されている項目の音響効果が、所定のタイミングの検出時点で復元される。一方、「OFF」(オフ)が設定されている項目の音響効果は、所定のタイミングが検出されても復元されず、音源分離機能も無効とされない。
 また、本実施形態では、テレビジョン装置100は、事前に初期設定等で音響効果の復元設定を行っているが、所定のタイミングが検出された時点で、図11に示す音響効果の復元設定画面を映像表示パネル102に表示し、ユーザに音源分離機能の無効化および音響効果の復元の可否を問い合わせるように、音声制御部301、映像処理部1242を構成してもよい。
 なお、上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、メモリ131のROM等に予め組み込まれてコンピュータプログラムプロダクトとして提供される。
 上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成してもよい。
 さらに、上記実施形態のテレビジョン装置100で実行される音声制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることによりコンピュータプログラムプロダクトとして提供するように構成しても良い。また、上記実施形態のテレビジョン装置100で実行される音声制御プログラムをコンピュータプログラムプロダクトとしてインターネット等のネットワーク経由で提供または配布するように構成しても良い。
 上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、上述した各部(入力制御部201、設定部203、音声制御部301、音源分離処理部302、音響効果処理部303)を含むモジュール構成となっており、CPUが上記ROMから音声制御プログラムを読み出して実行することにより上記各部がメモリ131のRAM上にロードされ、各部がRAM上に生成されるようになっている。
 さらに、ここに記述されたシステムの種々のモジュールは、ソフトウェア・アプリケーション、ハードウェアおよび/またはソフトウェア・モジュール、あるいはサーバのような一台以上のコンピュータ上のコンポーネントとしてインプリメントすることができる。種々のモジュールは、別々に説明されているが、それらは同じ根本的なロジックかコードのうちのいくつかあるいはすべてを共有してもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (10)

  1.  入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号を強調または抑制する音源分離機能を実行可能な音源分離処理部と、
     前記音声信号に対して音響効果を付与する音響効果機能を実行可能な音響効果処理部と、
     ユーザにより、前記音源分離機能を実行する旨の指示があった場合に、前記音源分離機能を実行するように前記音源分離処理部を制御し、かつ前記音響効果機能を実行しないように前記音響効果処理部を制御する音声制御部と、
    を備えた電子機器。
  2.  前記音声制御部は、前記音源分離機能を実行する場合に、前記ユーザによる強調の強度の設定指示において、前記声信号の強調の強度が前記背景音信号の強調の強度未満である場合に、前記音響効果機能を実行するように前記音響効果処理部を制御する、
    請求項1に記載の電子機器。
  3.  前記音声制御部は、前記音源分離機能を実行する場合に、前記ユーザによる強調の強度の設定指示において、前記声信号の強調の強度が前記背景音信号の強調の強度以上である場合に、前記音響効果機能を実行しないように前記音響効果処理部を制御する、
    請求項2に記載の電子機器。
  4.  前記音声制御部は、前記音源分離機能の実行中に、所定のタイミングを検知した場合に、前記音源分離機能の実行を停止するように前記音源分離処理部を制御し、前記音源分離機能の実行前の設定内容で前記音響効果機能を実行するように前記音響効果処理部を制御する、
    請求項1に記載の電子機器。
  5.  前記所定のタイミングは、放送チャンネルの切替え、放送番組の切替え、入力デバイスの切替え、電源切断後の電源投入、CMシーンと本編シーンの切替え、楽曲の開始または終了の少なくともいずれかを含む、
    請求項4に記載の電子機器。
  6.  前記音声制御部は、前記音源分離機能の実行中に、所定のタイミングを検知した場合に、ユーザから前記音響効果を復元する旨の設定が行われている場合に、前記音源分離機能の実行を停止するように前記音源分離処理部を制御し、かつ前記音源分離機能の実行前の設定内容で前記音響効果機能を実行するように前記音響効果処理部を制御する、
    請求項4に記載の電子機器。
  7.  前記音声制御部は、ユーザから前記音響効果を復元する旨の設定が行われていない場合には、前記音源分離機能の実行を継続するように前記音源分離処理部を制御し、前記音響効果機能を実行しないように前記音響効果処理部を制御する、
    請求項6に記載の電子機器。
  8.  前記音源分離機能による声信号または背景音信号の強調の状態、および前記音響効果の状態を、映像とともに表示する表示部、
    をさらに備えた請求項1に記載の電子機器。
  9.  入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号を強調または抑制する音源分離機能を実行する旨のユーザからの指示があった場合に、前記音源分離機能を実行し、かつ前記音声信号に対して音響効果を付与する音響効果機能を実行しないように制御する、
    ことを含む制御方法。
  10.  入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号を強調または抑制する音源分離機能を実行する旨のユーザからの指示があった場合に、前記音源分離機能を実行し、かつ前記音声信号に対して音響効果を付与する音響効果機能を実行しないように制御する、
    ことをコンピュータに実行させるためのプログラム。
PCT/JP2013/084959 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム WO2015097826A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/084959 WO2015097826A1 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム
JP2015554413A JP6039108B2 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム
US15/046,238 US9905245B2 (en) 2013-12-26 2016-02-17 Electronic device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/084959 WO2015097826A1 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/046,238 Continuation US9905245B2 (en) 2013-12-26 2016-02-17 Electronic device and control method

Publications (1)

Publication Number Publication Date
WO2015097826A1 true WO2015097826A1 (ja) 2015-07-02

Family

ID=53477762

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/084959 WO2015097826A1 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US9905245B2 (ja)
JP (1) JP6039108B2 (ja)
WO (1) WO2015097826A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014168618A1 (en) * 2013-04-11 2014-10-16 Nuance Communications, Inc. System for automatic speech recognition and audio entertainment
CN109246374A (zh) * 2018-10-30 2019-01-18 深圳创维-Rgb电子有限公司 一种显示设备
CN115278352A (zh) * 2022-06-22 2022-11-01 北京字跳网络技术有限公司 一种视频播放方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000152394A (ja) * 1998-11-13 2000-05-30 Matsushita Electric Ind Co Ltd 軽度難聴者用補聴装置、軽度難聴者対応伝送システム、軽度難聴者対応記録再生装置、及び軽度難聴者対応再生装置
JP2002076964A (ja) * 2000-08-25 2002-03-15 Kenwood Corp ディジタル放送受信装置及びその音響処理方法
JP2006270507A (ja) * 2005-03-24 2006-10-05 Yamaha Corp ミキシング装置
JP2012032447A (ja) * 2010-07-28 2012-02-16 Toshiba Corp 音質制御装置及び音質制御方法
JP2013050604A (ja) * 2011-08-31 2013-03-14 Nippon Hoso Kyokai <Nhk> 音響処理装置およびそのプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002159099A (ja) 2000-11-20 2002-05-31 Matsushita Electric Ind Co Ltd 音場制御装置
JP5662276B2 (ja) 2011-08-05 2015-01-28 株式会社東芝 音響信号処理装置および音響信号処理方法
US9143875B2 (en) * 2013-09-09 2015-09-22 Nokia Technologies Oy Determination of ambient sound processed audio information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000152394A (ja) * 1998-11-13 2000-05-30 Matsushita Electric Ind Co Ltd 軽度難聴者用補聴装置、軽度難聴者対応伝送システム、軽度難聴者対応記録再生装置、及び軽度難聴者対応再生装置
JP2002076964A (ja) * 2000-08-25 2002-03-15 Kenwood Corp ディジタル放送受信装置及びその音響処理方法
JP2006270507A (ja) * 2005-03-24 2006-10-05 Yamaha Corp ミキシング装置
JP2012032447A (ja) * 2010-07-28 2012-02-16 Toshiba Corp 音質制御装置及び音質制御方法
JP2013050604A (ja) * 2011-08-31 2013-03-14 Nippon Hoso Kyokai <Nhk> 音響処理装置およびそのプログラム

Also Published As

Publication number Publication date
US20160163330A1 (en) 2016-06-09
JP6039108B2 (ja) 2016-12-07
JPWO2015097826A1 (ja) 2017-03-23
US9905245B2 (en) 2018-02-27

Similar Documents

Publication Publication Date Title
US9865279B2 (en) Method and electronic device
JP6253671B2 (ja) 電子機器、制御方法およびプログラム
US9747923B2 (en) Voice audio rendering augmentation
JP4327886B1 (ja) 音質補正装置、音質補正方法及び音質補正用プログラム
JP5085769B1 (ja) 音響制御装置、音響補正装置、及び音響補正方法
US9847767B2 (en) Electronic device capable of adjusting an equalizer according to physiological condition of hearing and adjustment method thereof
CN111095191B (zh) 显示装置及其控制方法
JP6039108B2 (ja) 電子機器、制御方法およびプログラム
US10972849B2 (en) Electronic apparatus, control method thereof and computer program product using the same
JP2009094796A (ja) テレビジョン受信機
JP4982617B1 (ja) 音響制御装置、音響補正装置、及び音響補正方法
US8947597B2 (en) Video reproducing device, controlling method of video reproducing device, and control program product
US20140180459A1 (en) HDMI Signal Processing System and Method
JP2008187623A (ja) 音質調整装置及び音質調整方法
JP2010258776A (ja) 音声信号処理装置
JP5067240B2 (ja) 遅延制御装置
JP2013174882A (ja) コンテンツ再生装置およびコンテンツ処理方法
JP5330570B1 (ja) 映像処理装置および方法
KR102531634B1 (ko) 오디오 장치 및 그 제어방법
WO2011037204A1 (ja) コンテンツ再生装置、音声パラメータ設定方法、プログラム、および記録媒体
JP2010191302A (ja) 音声出力装置
JP2008187624A (ja) 音質調整装置及び音質調整方法
JP6670685B2 (ja) 情報処理装置、サウンド処理方法及びサウンド処理プログラム
KR20040085335A (ko) 스탠바이 모드시 외부 입력 오디오 신호 처리 기능을구비한 다기능 텔레비전 수신기 및 방법
KR20110058453A (ko) Tv 장치 및 그 오디오 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13900094

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015554413

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13900094

Country of ref document: EP

Kind code of ref document: A1