WO2018038379A1 - 음성 인식을 위한 전자 장치 및 이의 제어 방법 - Google Patents

음성 인식을 위한 전자 장치 및 이의 제어 방법 Download PDF

Info

Publication number
WO2018038379A1
WO2018038379A1 PCT/KR2017/006800 KR2017006800W WO2018038379A1 WO 2018038379 A1 WO2018038379 A1 WO 2018038379A1 KR 2017006800 W KR2017006800 W KR 2017006800W WO 2018038379 A1 WO2018038379 A1 WO 2018038379A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
external device
voice
mode
audio signal
Prior art date
Application number
PCT/KR2017/006800
Other languages
English (en)
French (fr)
Inventor
송명석
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP17843799.2A priority Critical patent/EP3480818B1/en
Priority to US16/327,646 priority patent/US11087755B2/en
Publication of WO2018038379A1 publication Critical patent/WO2018038379A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Definitions

  • the present disclosure relates to an electronic device for speech recognition including a plurality of microphones and a control method thereof. More specifically, the present disclosure relates to an electronic device and a method of controlling the same, which provide an improved voice recognition performance of an electronic device for remotely controlling a content playback device communicating with the electronic device.
  • a content array device eg, a microphone array including a plurality of microphones
  • an electronic device equipped with a voice recognition function include separate video and / or audio content through voice recognition of a user (for example, , Television, disk player, media file player, smart phone, etc.) can be remotely controlled.
  • the voice signal preprocessing method of the electronic device separates the sound source from the voice signal input to the plurality of microphones to remove noise and extract the voice signal in the target direction.
  • a microphone array composed of a plurality of microphones may provide a beamforming for noise reduction and / or echo position by sensing a sound source direction or position.
  • the beamformer providing the beamforming generates an audio signal enhanced for the desired direction.
  • the electronic device determines the target direction at an equal ratio for all directions in which the audio signal can be input.
  • the output sound of the content playback devices has a higher energy level and directionality than the general background noise. Therefore, in the electronic device, a user's voice in a target direction may be removed by sound output from the content reproducing apparatus, thereby generating voice distortion. For this reason, the electronic device has a problem in that the voice recognition performance desired by the user is degraded.
  • An object of the present disclosure is to solve the above-described problems, and includes an electronic device including a plurality of microphones for remotely controlling an external device, which is a content playback device, and equipped with a voice recognition function, based on state information of an external device
  • An object of the present invention is to provide an electronic device and a control method thereof to reduce speech recognition degradation in an electronic device due to a noise environment of an external device.
  • a control method for processing a voice signal in an electronic device may include receiving an audio signal including a voice signal from a plurality of microphones and providing status information according to connection information with an external device. Determining a noise environment around the electronic device based on at least one of receiving the size information of the audio output from the external device received in the receiving step and the state information of the external device, the determined noise environment Processing the voice signal based on the step of performing a voice recognition on the basis of the processed voice signal.
  • an electronic device and a method of controlling the same provide a noise environment around an electronic device based on state information of an external device that communicates with the electronic device and plays content (video and / or audio). In this case, it is possible to improve speech recognition degradation caused by ambient noise.
  • the electronic device may set the voice recognition section and the voice signal input direction differently according to state information such as whether the external device is connected or whether the external device reproduces audio output. It is possible to prevent the voice recognition performance from being lowered.
  • an electronic device amplifies a voice signal in a fixed direction by fixing a target direction in a direction in which a voice of a user is spoken, and removes an output sound input from a content reproducing apparatus with noise to recognize a voice. It can improve performance.
  • FIG. 1 is a diagram for describing a voice recognition environment of an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a simple block diagram of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a detailed block diagram illustrating a detailed module constituting a processor according to an embodiment of the present disclosure.
  • FIG. 4 is a flowchart illustrating a signal processing method for speech recognition according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a noise environment mode according to state information of an external device, according to an embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating an audio signal preprocessing method according to state information of an external device according to an embodiment of the present disclosure.
  • FIG. 7A and 7B are flowcharts for describing a voice section detection method, according to an exemplary embodiment.
  • 8A and 8B are flowcharts illustrating a method of determining an audio signal input direction according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating a noise improvement result according to an exemplary embodiment of the present disclosure.
  • FIG. 10 is a detailed block diagram illustrating an electronic device according to an embodiment of the present disclosure.
  • a "module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or in a combination of hardware and software.
  • a plurality of “modules” or a plurality of “units” may be integrated into at least one module except for "modules” or “units”, which need to be implemented with specific hardware, and are implemented with at least one processor (not shown). Can be.
  • FIG. 1 is a diagram for describing a voice recognition environment of an electronic device according to an exemplary embodiment.
  • the voice recognition environment 10 may include an electronic device 100, which is a voice recognition device, and external devices 200-1, 200-2, and 200-3 communicating with the electronic device 100.
  • the electronic device 100 may be a voice recognition device including a microphone array including a plurality of microphones.
  • the plurality of microphones are synonymous with multiple microphones.
  • the electronic device 100 may receive a plurality of sound source signals as well as a user's voice.
  • the electronic device 100 may remotely control the external devices 200-1, 200-2, and 200-3 by recognizing a voice of the user 300 among a plurality of received sound source signals.
  • the external devices 200-1, 200-2, and 200-3 may be image reproducing apparatuses capable of outputting content including audio and / or video.
  • the external devices 200-1, 200-2, and 200-3 may be an alarm device 200-1, a television 200-2, or a Bluetooth speaker 200-3, but are not limited thereto. Do not.
  • the electronic device 100 may be portable by a user.
  • the electronic device 100 includes a microphone 110, a communication unit 120, a memory 130, and a processor 140.
  • the microphone 110 may receive an audio signal from a plurality of sound sources including a user's voice signal.
  • the audio signal may include a voice signal.
  • the microphone 110 may receive a voice signal for remotely controlling the external device from the user 300 illustrated in FIG. 1 through a user voice, and may receive the external devices 200-1, 200-2, The audio signal may be received from the sound source 200-3).
  • the microphone 110 may have a microphone array configuration of a plurality of microphones (for example, four).
  • a microphone array including four microphones is illustrated, but the number of microphones is not limited thereto.
  • a microphone array composed of a plurality of microphones may estimate an input direction and a distance of a sound source using gain and delay information of an audio input signal for each microphone.
  • the microphone array may be made of directional or omnidirectional microphones, and may be a mixture of directional microphones and omnidirectional microphones.
  • the communication unit 120 may be connected to a network through wireless or wired communication in FIG. 1 to communicate with the external devices 200-1, 200-2, and 200-3.
  • the communication unit 120 may receive state information of the external device according to the connection information with the electronic device 100.
  • Wireless communication can be wireless fidelity (WiFi), Bluetooth (BT), near field communication (NFC), global positioning system (GPS) or cellular communication (e.g. LTE, LTE-A, CDMA, WCDMA, UMTS, Wibro, or GSM) It may include at least one of. Wired communication may include at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a reduced standard 232 (RS-232), or a plain old telephone service (POTS).
  • USB universal serial bus
  • HDMI high definition multimedia interface
  • RS-232 reduced standard 232
  • POTS plain old telephone service
  • the state information of the external device may include whether the external device and the electronic device 100 are connected, audio size information from the image content output from the external device, the type of the external device, the location of the external device, the angle of the external device, At least one of a distance to the device 100 and a frequency characteristic of the speaker for outputting the image content of the external device.
  • the image content may include video and / or audio.
  • Whether the external device and the electronic device 100 are connected may indicate whether the external device is connected to the electronic device 100 through wired or wireless communication.
  • the audio size information output by the external device may represent audio size information that determines whether the audio size output from the external device may be recognized as noise based on the energy level of the user's voice signal recognized by the electronic device 100. have.
  • types of external devices may be external devices capable of outputting image content.
  • the type of the external device is a video device
  • the output data information of the television includes a model name of the television, audio characteristics of the output content of the television, frequency characteristics of the output audio among the output contents of the television, and the like. It may include, but is not limited to.
  • the angle of the external device may indicate a relative angle between the output speaker of the external device and the microphone 110 of the electronic device 100 based on the electronic device 100.
  • the angle from the electronic device 100 to the external device may be predicted (determined) using an inter-signal delay time input to each microphone of the plurality of microphones.
  • the electronic device 100 may determine relative position information between the external device and the electronic device 100 from the predicted angle.
  • the frequency characteristic of the speaker for the audio output of the external device is a basic characteristic representing the characteristic of the speaker and may be data necessary for predicting a reproduction band, balance of sound energy, and rough sound quality, but is not limited thereto.
  • the memory 130 may store state information of the external device.
  • the memory 130 may store, as data, different output audio sizes according to the type of external device.
  • the location of the external device may indicate a relative location of the external device based on the location of the electronic device 100.
  • the location of the external device may be determined through location information of the sound source.
  • the location information of the sound source may refer to a direction in which a sound source radiated from an external device is located based on the microphone 110.
  • the memory 130 may determine a mode determination module 310 for determining the status information of the external device shown in FIG.
  • a program module such as a voice detection module 320 for preprocessing a signal, an angle estimation module 330, a beamformer module 340, and a voice recognition module 350 for recognizing a preprocessed voice signal and outputting a voice recognition result. May be stored, but is not limited thereto.
  • the memory 130 may include an internal memory or an external memory.
  • the internal memory may include at least one of volatile memory and non-volatile memory.
  • the volatile memory may be, for example, a dynamic RAM (DRAM), a static RAM (SRAM), a synchronous dynamic RAM (SDRAM), or the like.
  • Non-volatile memory is, for example, one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EPEROM), mask ROM, flash ROM, NAN flash memory, NOR flash memory, etc.
  • the internal memory may be a solid state drive (SSD).
  • the external memory may include a flash drive, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (XD), or a Memory Stick. .
  • the external memory may be functionally connected to the electronic device 100 through various interfaces.
  • the electronic device 100 may further include a storage device such as a hard drive.
  • the processor 140 may determine a noise environment around the electronic device 100 based on at least one of audio size information output by the external device received through the microphone 110 and state information of the external device.
  • the processor 140 may perform speech recognition by processing a speech signal based on the determined noise environment.
  • the processor 140 controls overall operations of the program module and the electronic device 100 stored in the memory, and a detailed description of the processor 140 will be described later with reference to FIG. 3.
  • FIG. 3 is a detailed block diagram illustrating a detailed module constituting a processor according to an embodiment of the present disclosure.
  • the processor 140 includes the mode determination module 310, the voice detection module 320, the angle estimation module 330, and the beamformer module 340 stored in the memory 130 as described with reference to FIG. 2. , And may process the voice recognition module 350.
  • a speech recognition apparatus including a plurality of microphones includes a speech recognition module 320 that is a preprocessor of a speech signal, an angle estimation module 330, a beamformer module 340, and a speech recognition unit that recognizes a preprocessed speech signal. Module 350.
  • the preprocessor may detect the audio signal from which the noise is removed from the audio signal, the direction of the sound source (voice signal), and the detection result of the sound source (voice signal) (BOS: begin of speech, EOS : end of speech) and the like may be generated and transmitted to the voice recognition module 350.
  • a general voice recognition device including a plurality of microphones does not include the mode determination module 310 of the present disclosure.
  • the mode determination module 310 may determine a noise environment around the electronic device 100 when the size of audio output by the external device is greater than or equal to a predetermined value based on state information of the external device. May be determined as the first mode. In addition, when the size of the audio output from the external device is less than a predetermined value or the external device is not connected to the electronic device 100, based on the state information of the external device. The noise environment around the electronic device 100 may be determined as the second mode.
  • the mode determination module 310 may determine the periphery of the electronic device 100.
  • the noise environment may be determined as the first mode in which the noise mode is used.
  • the relative size of the output audio of the external device according to the voice signal energy of the user may be pre-stored in the memory of the electronic device 100.
  • the mode determination module 310 determines that the output audio size of the external device is 5 or more, which is the voice size.
  • the noise environment around the electronic device 100 may be determined as a first mode that is a noise mode.
  • the mode determination module 310 idles the ambient noise environment of the electronic device 100 ( The second mode may be determined as an idle mode.
  • the mode determination module 310 may store the initialized state information of the external device in the memory 130 when the external device is first connected to the electronic device 100. In addition, whenever the external device is connected to the electronic device 100, the processor 140 may update and determine the noise environment around the electronic device based on state information of the previously stored external device.
  • the mode determination module 310 may automatically detect state information of the external device at the moment when the external device is connected to the electronic device 100.
  • the mode determination module 310 may measure and store state information of each external device through an initializing process when the external devices are initially connected to the electronic device 100.
  • the mode determination module 310 determines the ambient noise environment of the electronic device 100 (eg, based on the stored state information of the external device). The first mode in the noise mode and the second mode in the idle mode).
  • the initialization method for storing the state information may be a method of outputting a measurement signal (eg, sweep, white noise, etc.) through an external device and analyzing a signal flowing into the microphone of the electronic device 100.
  • a measurement signal eg, sweep, white noise, etc.
  • the mode determination module 310 may estimate the distance to the external device based on the parallax and the degree of sound attenuation of the output signal of the external device and the microphone input signal of the electronic device 100. Can be.
  • the mode determination module 310 may predict (determin) an angle from the electronic device 100 to the external device by using an inter-signal delay time input to each microphone of the plurality of microphones.
  • the mode determination module 310 may determine relative position information between the external device and the electronic device 100 from the predicted angle and distance.
  • the mode determination module 310 may predict (determin) the speaker output characteristic of the external device by comparing the measurement signal with the signal input to the microphone of the electronic device 100. In this case, the mode determination module 310 may measure the microphone frequency characteristic of the electronic device 100 in advance and store it in the memory 130.
  • the voice detection module 320 may detect a voice signal section including a plurality of frames consecutive from the audio signal according to the mode determined by the mode determination module 310.
  • the electronic device 100 may receive an audio signal from a plurality of microphones.
  • the angle estimation module 330 may determine an input direction of an audio signal in each of the plurality of microphones based on the voice interval detected by the voice detection module 320 according to the mode determined by the mode determination module 310. Can be.
  • the beamformer module 340 may process the voice signal by performing beamforming based on the input direction of the audio signal determined by the angle estimation module 330 according to the mode determined by the mode determination module 310. have.
  • the speech recognition module 350 of the processor 140 may generate a speech recognition result by decoding the preprocessed audio signal.
  • the voice detection module 320 may detect a plurality of subsequent frames including a noise section (frame) and a voice section (frame) from the audio signal.
  • the voice detection module 320 may detect a voice section and a noise section using various algorithms that separate voice from an audio signal input to a microphone in a voice recognition technology.
  • the voice section information generated by the voice detection module 320 may be input to the angle estimation module 330 and the beamformer module 340.
  • the voice detection module 320 designates a hang-over section in order to increase the stability of the detection result.
  • a hang-over means a minimum period of time in which a voice is determined even after a frame in which a voice is detected in a plurality of frames. For example, when the hangover length is set to infinity, all the frames after the frame once determined as voice can be detected as voice. On the other hand, if the hangover length is minimum, whether or not the voice is independently determined for all frames. Therefore, the setting of the hangover length plays an important role in the reliability of the result of the speech recognition section detected by the speech detection module 320.
  • the voice detection module 320 may adjust the hangover length based on state information of the external device.
  • the voice detection module 320 sets the hang-over length to the first length when the noise environment around the electronic device 100 is in the first mode (noise mode).
  • the voice section may be detected by setting the hangover length to a second length longer than the first length.
  • the voice detection module 320 may reduce the hangover length by relatively reducing the noise of the voice section detection. Toughness can be increased.
  • the noise of the surrounding environment such as the output audio size by the external device may be large.
  • the voice detection module 320 may increase the voice detection performance by relatively increasing the hangover length.
  • the external device may not be connected to the electronic device 100 or may be in a state in which no output of the external device is output or only a small output is reproduced.
  • the voice detection module 320 may adjust a weight of a frame determined as a voice section in a plurality of frames according to a determination result of the mode determination module 310.
  • the voice detection module 320 increases the weight of the frame determined to be a section other than the voice section from the audio signal, and makes noise around the electronic device 100.
  • the voice section may be detected by increasing the weight of the frame determined as the voice section from the audio signal.
  • the weight to be determined as the section other than the speech section is set higher, and in the second mode in the idle mode, the weight to be determined as the speech section is set higher to the speech.
  • the section can be detected.
  • the weight may be adjusted by using additional information such as the frequency characteristic of the electronic device 100. For example, when the frequency band of the external device connected to the electronic device 100 has a low gain in the low frequency band and a high gain in the high frequency band, when the audio output is being reproduced in the external device, the voice is given a high weight to the low frequency band. The detection performance can be improved.
  • the general angle estimation module 330 includes a plurality of frame angle estimation modules 330-1 and normalization module 330-2.
  • the frame angle estimation module 330-1 may generate the target direction angle information from the audio signal in units of frames. If only the audio signal is present in the audio signal, the angle estimation module 330-1 for each frame may generate angle information for each frame having a small dispersion and being distributed close to the actual target direction. On the other hand, when there is a lot of noise in the audio signal, the angle estimation module 330-1 for each frame may generate angle information for each frame that is evenly distributed in all directions. In this case, since the normalization module 330-2 operates at equal ratios for all the possible directions, the angle estimation module 330 reacts sensitively to the noise input signal, thereby causing a severe change in the estimated angle information.
  • the angle estimation module 330 may set a search range in consideration of weights for angles to which an audio signal can be input, based on the result determined by the mode determination module 310. Accordingly, the angle estimation module 330 may generate normalized angle information by estimating the direction most likely for each situation according to the input direction of the audio signal.
  • the angle estimation module 330 detects an input angle search range in a direction in which an audio signal can be input in the detected voice section.
  • a voice section in which the angle range generated in the previous frame is set to the first range and the search range of the input angle in the input direction of the audio signal is detected when the noise environment around the electronic device 100 is in the second mode.
  • the input direction of the audio signal may be determined by setting the second range wider than the first range in the left and right directions generated in the previous frame.
  • the angle estimation module 330 may set a narrow range to the left and right of the angle generated in the previous frame as the search range. In addition, in the first mode, the angle estimation module 330 may adjust the search range by using additional information together with the result determined by the mode determination module 310.
  • the angle estimation module 330 may set a region except for the direction of the external device as a search range to improve the noise response.
  • the angle estimation module 330 may set a wide range left and right as the search range generated in the previous frame.
  • the angle estimation module 330 may set the direction of incidence of speech to be fixed or to fix the direction of incidence of speech based on the result determined by the mode determining module 310.
  • the angle estimation module 330 fixes the target direction for estimating the input direction of the audio signal to fix the audio of the frame received after the detected voice interval.
  • the signal is amplified with respect to the fixed target direction, and when the noise environment around the electronic device 100 is in the second mode, the target direction for estimating the input direction of the audio signal is set to all directions in all input angle ranges.
  • the input direction of the audio signal may be determined.
  • the angle estimation module 330 may be configured to track the audio signal when the user's trigger speech is recognized by the trigger recognition module 350-1 of the speech recognition module 350.
  • the target direction of the angle estimation module 330 may be fixed, and subsequent user utterances may be amplified with respect to the fixed target direction and transmitted to the word and / or sentence recognition module 350-2 of the speech recognition module 350.
  • the angle estimation module 330 may set all angles in all directions to be included in the prediction angle range of the voice input direction.
  • the beamformer module 340 includes a fixed beamformer (not shown), a blocking matrix (not shown), multiple-input canceller (not shown), and Post-filter (not shown).
  • the fixed beamformer may receive the input angle information of the audio signal and the audio signal and amplify the signal input in the corresponding angular direction to generate an amplified audio signal in the desired direction.
  • the general angle estimation module 330 is normalized at an equal ratio for all inputtable directions to estimate the input angle, and the beamformer module 340 fixes the angle information generated by the angle estimation module 330 to the fixed beamformer. It is used as input of and block matrix. Therefore, in the general beamformer module 340, the voice in the target direction may be removed and voice distortion may occur.
  • the beamformer module 340 inputs the voice generated by fixing the target direction or setting the omnidirectional direction in the angle estimation module 330 according to the determination result of the mode determination module 310.
  • the direction can be input.
  • the voice recognition module 350 may perform voice recognition on the preprocessed voice signal based on the state information of the external device determined by the mode determination module 310 and output the voice signal.
  • the configuration of the speech recognition module 350 of the present disclosure may be similar to that of a general speech recognition module, and may be implemented on the main board of the electronic device 100.
  • the voice recognition module 350 may be implemented in the middleware (M / W) of the electronic device 100, and the trigger recognition module 350-1 may include words and / or words that require a high amount of computation and data.
  • the sentence recognition module 350-2 may be implemented in a server.
  • FIG. 4 is a flowchart illustrating a signal processing method for speech recognition according to an embodiment of the present disclosure.
  • the electronic device 100 may receive a plurality of audio signals including a voice signal through a microphone array including a plurality of microphones.
  • the electronic device 100 may receive state information of the external device from an external device that is connected to the electronic device 100 by wire or / or wirelessly and performs network communication.
  • the steps S410 and S420 are not limited to the illustrated order for convenience of description, and the order may be changed, and the electronic device 100 may simultaneously receive audio signals and status information of the external device. Since the state information of the external device has been described in detail with reference to FIGS. 2 and 3, a description thereof will be omitted.
  • the electronic device 100 may determine a noise environment around the electronic device 100 based on state information of the external device. Since the noise environment determination around the electronic device 100 has been described above in the mode determination module 310 of FIG. 3, a description thereof will be omitted.
  • the electronic device 100 may perform preprocessing, which is audio signal processing, based on a noise environment around the electronic device 100 based on state information of the external device.
  • preprocessor composed of the voice detection module 320, the angle estimation module 330, and the beamformer module 340 described above with reference to FIG. 3 is an independent DSP (digital) because its operation is relatively simple and requires a high processing speed. signal processor).
  • the audio signal preprocessing process has been described in detail through the voice detection module 320, the angle estimation module 330, and the beamformer module 340 of FIG. 3, and thus description thereof is omitted.
  • the electronic device 100 may perform voice recognition based on the preprocessed voice signal to output a voice recognition result.
  • FIG. 5 is a flowchart illustrating a noise environment mode according to state information of an external device, according to an embodiment of the present disclosure.
  • the electronic device 100 may determine whether to connect with an external device.
  • the electronic device 100 may determine whether to connect with an external device through wired and / or wireless network communication.
  • the electronic device 100 receives the initialized state information of the external device at the time when the external device is connected to the electronic device 100, and thus the memory 130 of FIG. 2. ) Can be stored.
  • the electronic device 100 may determine output audio of the external device.
  • the electronic device 100 may determine the state information of the external device such as the output audio size of the external device, the speaker frequency characteristic of the external device, the type of the external device, and the location of the external device. Since the state information of the external device has been described above with reference to FIGS. 2 and 3, a description thereof will be omitted.
  • the electronic device 100 may determine a noise environment (first mode, second mode, etc.) around the electronic device 100 based on the output audio size of the external device and the state information of the external device. Since the mode determination method according to the embodiments of the present disclosure has been described above in the mode determination module 310 of FIG. 3, a description thereof will be omitted. Further, in the present disclosure, the first mode, which is the noise mode, and the second mode, which is the idle mode, have been described as an example. However, the present disclosure is not limited thereto, and the electronic device 100 may perform the noise environment in multiple steps according to the noise state. 1 mode, 2nd mode, 3rd mode, etc.) can be determined.
  • FIG. 6 is a flowchart illustrating an audio signal preprocessing method according to state information of an external device according to an embodiment of the present disclosure.
  • the electronic device 100 may detect a voice section of the audio signal in a different method according to the modes (first mode and second mode) determined by the mode determination module 310 of FIG. 3.
  • the audio signal including the voice signal may be composed of a plurality of frames. Consecutive frames may include a range overlapping each other. The plurality of frames may be arranged in chronological order.
  • the electronic device 100 may assign a weight to a specific frame. For a method of detecting a voice section from the audio signal, refer to the voice detection module 320 of FIG. 3.
  • the electronic device 100 may determine an input direction of the audio signal in the voice section detected in operation S610 based on the result determined by the mode determination module 310 of FIG. 3.
  • the input direction of the audio signal may be an input direction of a voice signal (sound source) of the user.
  • the angle estimation module 330 of FIG. 3 refers to a method of determining an input direction of a voice signal.
  • the electronic device 100 may pre-process the voice signal by performing beamforming by receiving an input direction of the voice signal determined in operation S620 based on the result determined by the mode determination module 310 of FIG. 3. have.
  • the beamforming method refers to the beamforming module 340 of FIG. 3.
  • FIGS. 7A and 7B are flowcharts for describing a voice section detection method, according to an exemplary embodiment.
  • the same reference numerals have been given for the steps of performing the same method in FIGS. 7A and 7B to avoid duplication of description.
  • the electronic device 100 may determine a noise environment around the electronic device 100 based on state information such as whether the external device is connected and the output audio size of the external device. For example, when an external device is connected to and communicates with the electronic device 100, and the external device is playing audio output, the electronic device 100 may generate noise around the electronic device 100 according to the audio size of the external device. You can judge the environment.
  • the electronic device 100 sets the noise environment around the electronic device 100 to be the first noise mode.
  • the mode can be determined.
  • the electronic device 100 may set the noise environment around the electronic device 100 as the idle mode. It can be judged in two modes. In addition, when the external device is not connected to the electronic device 100, the electronic device 100 may determine the ambient noise environment of the electronic device 100 as the second mode.
  • the electronic device 100 may detect a plurality of frames from the audio signal in different ways according to the determined ambient noise environment (first mode and second mode).
  • the electronic device 100 may set a hangover length differently according to the mode determined in operation S710.
  • the electronic device 100 may relatively shorten the hangover length, which is the minimum period of time for determining the voice as the frame after the frame in which the voice is detected in the plurality of frames. Therefore, the electronic device 100 may independently determine whether or not all the frames after the voice is determined to be voice. On the other hand, when the determined mode is the second mode, the electronic device 100 may relatively increase the hangover length. Therefore, the electronic device 100 may detect frames of a relatively long section among frames after the frame determined to be voice.
  • the electronic device 100 may apply weights differently to each frame among the plurality of frames according to the mode determined in operation S710.
  • the electronic device 100 may detect and remove a noise section from the audio signal by applying a high weight to a section (frame) that is not a voice section in the plurality of frames.
  • the electronic device 100 may accurately detect the voice section from the audio signal by applying a high weight to the section determined as the voice in the plurality of frames.
  • the electronic device 100 may detect a voice section consisting of a plurality of frames from the audio signal based on at least one of operations S730 and S735.
  • FIGS. 8A and 8B are flowcharts illustrating a method of determining an audio signal input direction according to an embodiment of the present disclosure.
  • the same reference numerals have been given for the steps of performing the same method in FIGS. 8A and 8B to avoid duplication of description.
  • steps S810 and S820 of FIGS. 8A and 8B are the same as steps S710 and S720 of FIGS. 7A and 7B, a description thereof will be omitted.
  • the electronic device 100 may differently set an angular range of an audio signal input of a frame before a voice section according to a noise environment (first mode and second mode) around the electronic device 100. .
  • the electronic device 100 may narrow the input angle search range in the inputtable direction of the audio signal to the angle left and right directions generated in the previous frame of the detected speech section.
  • the electronic device 100 may set a wide range to the left and right of the angle generated in the previous frame as the search range.
  • the electronic device 100 may set a different direction of incidence of the voice signal according to a noise environment (first mode and second mode) around the electronic device 100.
  • the electronic device 100 fixes the target direction for estimating the input direction of the audio signal, and receives the audio signal after the voice section detected in steps S740 of FIGS. 7A and 7B.
  • the audio signal of a given frame can be amplified with respect to a fixed target direction.
  • the electronic device 100 may set the omnidirectional direction for estimating the input direction of the audio signal to all directions.
  • the electronic device 100 may determine an input direction of a voice signal (sound source) from the audio signal based on at least one of operations S830 and S835.
  • FIG. 9 is a diagram illustrating a noise improvement result according to an exemplary embodiment of the present disclosure.
  • FIG. 9 is a graph illustrating an experiment result when the user is at a position of 0 degrees of the electronic device 100 and the external device is at a position of 90 degrees of the electronic device 100.
  • the input signal 910 may include an output audio signal 940 and a voice signal of an external device.
  • a user who makes a voice command to the electronic device 100 may be located at a distance of 1 meter (m) from the electronic device 100.
  • an external device that is a content playback device may be located at a distance of 3 meters (m) from the electronic device 100.
  • the electronic device 100 may simultaneously receive an audio signal from a user and an external device through a plurality of microphones.
  • the output audio signal 940 of the external device is included as noise even after the preprocessing of the audio signal. That is, although the user's voice signal is preserved or amplified, it can be seen that the output audio signal 940 of the external device is damaged or substantially removed.
  • the electronic device 100 may repeatedly predict the destination direction by repeatedly moving between the direction of the user (0 degrees) and the direction of the external device (90 degrees). Therefore, there is a problem in the adaptation of the beamformer filter, the output audio signal 940 of the external device is included in the output signal.
  • the preprocessing method 930 when the output audio signal 940 of the external device is compared with the input signal 910 and the conventional preprocessing 920 after the preprocessing of the audio signal. Can be significantly reduced.
  • the preprocessing method 930 of the present disclosure preserves or amplifies a user's voice signal, and removes all audio output signals 940 of the external device. You can see that.
  • the electronic device 100 may fix the target direction at a position (0 degrees) of the user to block all inflow sound sources for directions other than the target direction. That is, the electronic device 100 may improve the voice recognition function by amplifying the voice signal flowing in the target direction of the user location (0 degrees).
  • the audio signal preprocessing method may improve speech recognition performance by increasing robustness against noise by using a noise environment around the electronic device 100 determined based on state information of an external device connected to the electronic device 100.
  • the electronic device 100 is a device equipped with a voice recognition function, and the electronic device 100 may remotely drive an external device that supports image (video and / or audio) content playback. Can be. At this time, the electronic device 100 detects a voice recognition section and a voice signal input direction differently according to state information such as whether an external device is connected or whether audio output is reproduced, thereby degrading the voice recognition performance due to the audio output of the external device. You can prevent it.
  • FIG. 10 is a detailed block diagram illustrating an electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a sensor 1010, a display 1020, a memory 1030, a communication unit 1040, a user manipulation unit 1050, and a processor 1060. .
  • some of the components shown in FIG. 10 may be omitted or changed, and other components may be further added.
  • the sensor 1010 may include a plurality of sensors capable of detecting the movement of the electronic device 100.
  • the sensor unit 1010 includes various sensors such as a motion sensor, a gyro sensor, an acceleration sensor, a barometer, a thermal sensor, a humidity sensor, an ultrasonic sensor, and the like. can do.
  • a motion sensor e.g., a Bosch Sensortec BMA150 accelerometer
  • a barometer e.gyro sensor
  • a thermal sensor e.gyro sensor
  • a humidity sensor e.g., a humidity sensor
  • ultrasonic sensor e.g., ultrasonic sensor, and the like.
  • the display 1020 may include a touch display.
  • the memory 1030 stores various modules for driving the electronic device 100.
  • the memory 1030 may include various program modules, but various program modules may be partially omitted, modified, or added according to the type and characteristics of the electronic device 100. Since the memory 1030 is the same as the memory 130 described above with reference to FIG. 2, a detailed description thereof will be omitted.
  • the communication unit 1040 is a component that communicates with various types of external devices according to various types of communication methods.
  • the communication unit 1040 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip (including Bluetooth BLE), an NFC chip, a wireless communication chip, an IR chip, and the like.
  • the WiFi chip, the Bluetooth chip, the NFC chip, and the IR chip communicate with each other via WiFi, Bluetooth, NFC, and IR methods.
  • the NFC chip refers to a chip that operates in a near field communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860-960 MHz, and 2.45 GHz.
  • NFC near field communication
  • a wireless communication chip refers to a chip that performs communication in accordance with various communication standards such as IEEE, Zigbee, 3G (3rd Generation), 3GPP (3 rd Generation Partnership Project), LTE (Long Term Evoloution).
  • the user manipulation unit 1050 receives various user commands for controlling the electronic device 100.
  • the user manipulation unit 1050 may be implemented as a remote controller having four direction keys, but this is only an example, and a pointing device equipped with a motion sensor, a keyboard, a mouse, a motion input unit including a camera, and a microphone are provided.
  • the voice input unit may be implemented as various input devices such as a voice input unit and a touch sensor.
  • the processor 1060 controls the overall operation of the electronic device 100 using various programs stored in the storage 1030. Since the processor 1060 has been described above with reference to FIGS. 2 and 3, a detailed description thereof will be omitted.
  • a device eg, modules or electronic device 100
  • a method eg, operations
  • the at least one computer may perform a function corresponding to the command.
  • the computer-readable storage medium may be, for example, the memory 1030.
  • Programs include, for example, hard disks, floppy disks, magnetic media (such as magnetic tape), optical media (such as compact disc read only memory) and digital versatile disc (DVD). ), Magneto-optical media (e.g. floptical disks), hardware devices (e.g. read only memory (ROM), random access memory (RAM), or flash memory, etc.)
  • the storage medium is generally included as part of the configuration of the electronic device 100, but may be mounted through a port of the electronic device 100, or The program may be included in an external device (eg, a cloud, a server, or another electronic device) that is located outside the apparatus 100.
  • the program may be stored in a plurality of storage media, and at least one of Some are electronic devices (100 ) May be located on an external device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

전자 장치 및 이의 제어 방법이 제공된다. 전자 장치는 음성 신호가 포함된 오디오 신호를 수신하는 복수 개의 마이크로폰, 상기 전자 장치와의 연결 정보에 따른 상태 정보를 수신하는 통신부 및 상기 복수 개의 마이크로폰을 통해 수신된 상기 외부 장치가 출력하는 오디오의 크기 정보 및 상기 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 상기 전자 장치 주변의 잡음 환경을 판단하고, 상기 판단된 잡음 환경을 바탕으로 상기 음성 신호를 처리하여 음성 인식을 수행하는 프로세서를 포함한다.

Description

음성 인식을 위한 전자 장치 및 이의 제어 방법
본 개시는 복수 개의 마이크로폰을 포함하는 음성 인식을 위한 전자 장치 및 이의 제어 방법에 관한 것이다. 더욱 구체적으로, 본 개시는 전자 장치와 통신하는 컨텐츠 재생 장치를 원격 제어하는 전자 장치의 음성 인식 성능 개선을 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.
최근 사물 인터넷의 사용이 증가됨에 따라 음성 인식 기술을 통한 사용자 단말을 조작에 대한 활용이 확대되고 있다.
예를 들어, 복수 개의 마이크로폰으로 이루어지는 마이크로폰 어레이(microphone array) 및 음성 인식 기능을 탑재한 전자 장치가 사용자의 음성인식을 통해 별도의 비디오 및/또는 오디오 콘텐츠를 포함하는 컨텐츠 재생 장치들(예를 들어, 텔레비전, 디스크 플레이어, 미디어 파일 플레이어, 스마트 폰 등)을 원격 제어할 수 있다.
이때, 전자 장치의 음성신호 전처리 방법은 복수 개의 마이크로폰에 입력된 음성 신호에서 음원을 분리하여 잡음을 제거하고 목적 방향의 음성 신호를 추출한다.
일반적으로, 복수 개의 마이크로폰으로 이루어진 마이크로폰 어레이는 음원(sound source) 방향 또는 위치를 감지하여 노이즈 감소(noise reduction) 또는/및 에코 위치(echo-position)를 위한 빔포밍을 제공할 수 있다.
이때, 빔포밍을 제공하는 빔포머는 목적 방향에 대해 강화된 오디오 신호를 생성한다.
그러나, 복수 개의 마이크로폰으로 이루어진 마이크로폰 어레이를 이용하는 음성 인식 기술에서, 전자 장치는 오디오 신호가 입력 가능한 모든 방향에 대해 동등한 비율로 목적방향으로 판단한다.
음성 인식 기능을 탑재한 전자 장치가 컨텐츠 재생 장치들을 제어할 때, 컨텐츠 재생 장치들의 출력 사운드는 일반적인 배경 잡음보다 에너지 레벨이 높고 방향성이 강하다. 따라서, 전자 장치에서는 컨텐츠 재생 장치에서 출력하는 사운드에 의해 목적 방향의 사용자 음성 제거되어 음성 왜곡이 발생될 수 있다. 이로 인하여, 전자 장치는 사용자가 원하는 음성 인식 성능이 저하되는 문제가 가진다.
따라서, 전자 장치가 제어하는 컨텐츠 재생 장치의 상태 정보를 바탕으로 전자 장치의 음성인식 성능을 향상시킬 수 있는 음성 인식 전처리 방법이 필요하다.
본 개시의 목적은 상술한 문제점을 해결하기 위해 안출된 것으로, 콘텐츠 재생 장치인 외부 장치를 원격 제어하는 복수 개의 마이크로폰을 포함하고 음성 인식 기능을 탑재한 전자 장치에 있어서, 외부 장치의 상태 정보를 바탕으로 외부 장치의 잡음 환경에 의한 전자 장치에서의 음성 인식 저하를 개선하는 전자 장치 및 이의 제어 방법을 제공하는 데 있다.
본 개시의 일 실시 예에 따른, 전자 장치는, 음성 신호가 포함된 오디오 신호를 수신하는 본 개시의 일 실시 예에 따른, 전자 장치는, 음성 신호가 포함된 오디오 신호를 수신하는 복수 개의 마이크로폰, 상기 전자 장치와의 연결 정보에 따른 외부 장치의 상태 정보를 수신하는 통신부 및 상기 복수 개의 마이크로폰을 통해 수신된 상기 외부 장치가 출력하는 오디오의 크기 정보 및 상기 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 상기 전자 장치 주변의 잡음 환경을 판단하고, 상기 판단된 잡음 환경을 바탕으로 상기 음성 신호를 처리하여 음성 인식을 수행하는 프로세서를 포함한다.
한편, 본 개시의 일 실시 예에 따른, 전자 장치에서 음성 신호 처리를 위한 제어 방법은, 음성 신호가 포함된 오디오 신호를 복수 개의 마이크로폰으로부터 수신하는 단계, 외부 장치와의 연결 정보에 따른 상태 정보를 수신하는 단계, 상기 수신하는 단계에서 수신된 외부 장치가 출력하는 오디오의 크기 정보 및 상기 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 상기 전자 장치 주변의 잡음 환경을 판단하는 단계, 상기 판단된 잡음 환경을 바탕으로 상기 음성 신호를 처리하는 단계, 및 상기 처리된 음성신호를 바탕으로 음성 인식을 수행하는 단계를 포함한다.
상술한 실시 예들을 바탕으로, 본 개시에 따른 전자 장치 및 이의 제어 방법은, 전자 장치와 통신하고 콘텐츠(비디오 및/또는 오디오)를 재생하는 외부 장치의 상태 정보를 바탕으로 전자 장치 주변의 잡음 환경을 판단하여 주변 잡음에 의한 음성 인식 저하를 개선시킬 수 있다.
본 개시의 실시 예들에 따른, 전자 장치는 외부 장치의 연결 여부 또는 외부 장치의 오디오 출력 재생 여부 등의 상태 정보에 따라 음성 인식 구간 및 음성 신호 입력 방향 등을 상이하게 설정함으로써 외부 장치의 상태정보에 의한 음성 인식 성능 저하를 방지할 수 있다.
본 개시의 실시 예들에 따른, 전자 장치는 사용자의 음성이 발화된 방향에 목적 방향을 고정하여 고정된 방향에 대해 음성신호를 증폭시키고, 컨텐츠 재생 장치로부터 입력된 출력 사운드를 노이즈로 제거하여 음성 인식 성능을 향상시킬 수 있다.
도 1은, 도 1은, 본 개시의 일 실시 예에 따른, 전자 장치의 음성인식 환경을 설명하기 위한 도면이다.
도 2는, 본 개시의 일 실시 예에 따른, 전자 장치를 구성하는 간단한 블록도이다.
도 3은, 본 개시의 일 실시 예에 따른, 프로세서를 구성하는 세부 모듈을 도시한 상세한 블록도이다.
도 4는, 본 개시의 일 실시 예에 따른, 음성 인식을 위한 신호 처리 방법을 설명하기 위한 순서도이다.
도 5는, 본 개시의 일 실시 예에 따른, 외부 장치의 상태 정보에 따른 잡음 환경 모드를 설명하기 위한 순서도이다.
도 6은, 본 개시의 일 실시 예에 따른, 외부 장치의 상태 정보에 따른 오디오 신호 전처리 방법을 설명하기 위한 순서도이다.
도 7a 및 도 7b는, 본 개시의 일 실시 예에 따른, 음성 구간 검출 방법을 설명하기 위한 순서도이다.
도 8a 및 도 8b는, 본 개시의 일 실시 예에 따른, 오디오 신호 입력 방향 판단 방법을 설명하기 위한 순서도이다.
도 9는, 본 개시의 일 실시 예에 따른, 잡음 개선 결과를 도시한 도면이다.
도 10은, 본 개시의 일 실시 예에 따른, 전자장치를 구성하는 상세한 블록도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. 
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.  그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은, 본 개시의 일 실시 예에 따른, 전자 장치의 음성인식 환경을 설명하기 위한 도면이다.
도 1을 참조하면, 음성인식 환경(10)은 음성인식 장치인 전자 장치(100), 전자 장치(100)와 통신하는 외부 장치들(200-1, 200-2, 200-3)로 구성될 수 있다. 본 개시의 일 실시 예에 따라, 전자 장치(100)는 복수 개의 마이크로폰으로 이루어진 마이크로폰 어레이를 포함하는 음성 인식 장치일 수 있다. 여기서, 복수 개의 마이크로폰은 다중 마이크로폰(multiple microphones)과 동일한 의미이다. 전자 장치(100)는 사용자의 음성뿐 아니라 복수 개의 음원 신호들을 수신할 수 있다.
전자 장치(100)는 수신되는 복수 개의 음원 신호들 중 사용자(300)의 음성을 인식하여 외부 장치들(200-1, 200-2, 200-3)을 원격 제어할 수 있다. 예를 들어, 외부 장치들(200-1, 200-2, 200-3)은 오디오 및/또는 비디오 등을 포함하는 콘텐츠를 출력할 수 있는 영상 재생 장치일 수 있다. 예를 들어, 외부 장치들(200-1, 200-2, 200-3)은 알람 장치(200-1), 텔레비전(200-2), 또는 블루투스 스피커(200-3) 등일 수 있으나 이에 한정되지 않는다. 전자 장치(100)는 사용자가 휴대 가능할 수 있다.
도 2는, 본 개시의 일 실시 예에 따른, 전자 장치를 구성하는 간단한 블록도이다. 전자 장치(100)는 마이크로폰(110), 통신부(120), 메모리(130) 및 프로세서(140)를 포함한다.
마이크로폰(110)은 사용자의 음성 신호를 포함한 복수 개의 음원 (sound source)으로부터 오디오 신호를 수신 받을 수 있다. 오디오 신호에는 음성 신호가 포함될 수 있다. 예를 들어, 마이크로폰(110)은 도 1에 도시된 사용자(300)로부터 외부 장치를 원격 제어하기 위한 음성 신호를 사용자 음성을 통해 수신할 수 있고, 외부 장치들(200-1, 200-2, 200-3)가 출력하는 음원으로부터 오디오 신호를 수신할 수 있다.
본 개시의 일 실시 예에 따라, 마이크로폰(110)은 복수 개(예를 들어, 4개)의 마이크로폰으로 이루어진 마이크로폰 어레이 구성을 가질 수 있다. 본 개시에서는 4개의 마이크로폰을 포함하는 마이크로폰 어레이를 도시하였으나, 마이크로폰의 개수는 이에 한정되지 않는다.
복수 개의 마이크로폰으로 이루어진 마이크로폰 어레이는 각 마이크로폰 별 오디오 입력 신호의 이득 및 지연 정보를 이용하여 음원의 입력 방향 및 거리를 추정할 수 있다. 본 개시의 일 실시 예에 따라, 마이크로폰 어레이는 지향성 또는 무지향성 마이크로폰(directional or omnidirectional microphones)으로 이루어질 수 있고, 지향성 마이크로폰(directional microphones) 및 무지향성 마이크로폰(omnidirectional microphones)이 믹스된 구성일 수 있다.
통신부(120)는 도 1에 무선 또는 유선 통신을 통해서 네트워크에 연결되어 외부 장치들(200-1, 200-2, 200-3)과 통신을 수행할 수 있다. 통신부(120)는 전자 장치(100)와 연결 정보에 따른 외부 장치의 상태 정보를 수신할 수 있다.
무선 통신은 Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, Wibro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은 USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
외부 장치의 상태 정보는, 외부 장치 및 전자 장치(100)의 연결 여부, 외부 장치가 출력하는 영상 콘텐츠로부터 오디오 크기 정보, 외부 장치의 종류, 외부 장치의 위치, 외부 장치의 각도, 외부 장치로부터 전자 장치(100)까지 거리, 외부 장치의 영상 콘텐츠 출력을 위한 스피커의 주파수 특성 중 적어도 하나일 수 있다. 여기서, 영상 콘텐츠는 비디오 및/또는 오디오를 포함할 수 있다.
외부 장치 및 전자 장치(100)의 연결 여부는 외부 장치가 전자 장치(100)와 유선 또는 무선 통신을 통해 연결되어 있지는, 연결되어 있지 않은 지를 나타낼 수 있다.
외부 장치가 출력하는 오디오 크기 정보는 전자 장치(100)에서 인식하는 사용자의 음성 신호의 에너지 크기를 바탕으로 외부 장치가 출력하는 오디오 크기가 잡음으로 인식될 수 있는 지 판단되는 오디오 크기 정보를 나타낼 수 있다.
도 1에서 상술한 바와 같이, 외부 장치의 종류는 영상 콘텐츠를 출력할 수 있는 외부 장치들일 수 있다. 예를 들어, 외부 장치가 텔레비전인 경우, 외부 장치의 종류는 영상기기이고, 텔레비전의 출력 데이터 정보는 텔레비전의 모델 명, 텔레비전의 출력 콘텐츠의 오디오 특성, 텔레비전의 출력 콘텐츠 중 출력 오디오의 주파수 특성 등을 포함할 수 있으나 이에 한정되지 않는다.
외부 장치의 각도는 전자 장치(100)를 기준으로 외부 장치의 출력 스피커와 전자 장치(100)의 마이크로폰(110)의 상대적 각도를 나타낼 수 있다. 예를 들어, 복수 개의 마이크로폰의 각 마이크로폰에 입력되는 신호간 지연 시간을 이용하여 전자 장치(100)로부터 외부 장치로의 각도를 예측(판단)할 수 있다. 그리고 전자 장치(100)는 예측한 각도로부터 외부 장치와 전자 장치(100)와의 상대적 위치 정보를 판단할 수 있다
외부 장치의 오디오 출력을 위한 스피커의 주파수 특성은 스피커의 특성을 나타내는 기본적인 특성으로 재생 대역, 음역 에너지의 밸런스, 대략적인 음질을 예측하는데 필요한 데이터일 수 있으나 이에 한정되지 않는다.
메모리(130)는 외부 장치의 상태 정보를 저장할 수 있다. 메모리(130)는 외부 장치의 종류에 따라 각각 상이한 출력 오디오 크기 등을 데이터로 저장할 수 있다.
외부 장치의 위치는 전자 장치(100)의 위치를 기준으로 외부 장치의 상대적 위치를 나타낼 수 있다. 예를 들어, 외부 장치의 위치는 음원의 위치 정보를 통해 판단할 수 있다. 음원의 위치 정보란 마이크로폰(110)을 기준점으로 외부 장치로부터 방사되는 음원이 위치한 방향을 의미할 수 있다.
즉, 복수 개의 마이크로폰의 배열의 방향에 따라 음원으로부터 각 마이크로폰에 도달하는 음원의 방향은 각각 다를 수 있다. 따라서, 복수 개의 마이크로폰의 배열의 중심을 기준점으로 하여 외부 장치의 위치 정보를 판단할 수 있다.메모리(130)는 도 3에 도시된 외부 장치의 상태 정보를 판단하는 모드 판단 모듈(310), 음성 신호를 전처리하는 음성 검출 모듈(320), 각도 추정 모듈(330), 빔포머 모듈(340), 그리고 전처리된 음성 신호를 음성 인식하여 음성인식 결과를 출력하는 음성 인식 모듈(350) 등의 프로그램 모듈을 저장할 수 있으나 이에 한정되지 않는다.
메모리(130)는 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장 메모리는, 휘발성 메모리 또는 비휘발성 메모리(non-volatile Memory) 중 적어도 하나를 포함할 수 있다. 휘발성 메모리는 예를 들어 DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등일 수 있다. 비휘발성 메모리는 예를 들어 OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAN flash memory, NOR flash memory 등일 수 있다. 또한, 내장 메모리는 Solid State Drive(SSD)일 수 있다.
외장 메모리는 flash drive, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치(100)와 기능적으로 연결될 수 있다. 또한, 전자 장치(100)는 하드 드라이브와 같은 저장 장치를 더 포함할 수 있다.
프로세서(140)는 마이크로폰(110)을 통해 수신된 외부 장치가 출력하는 오디오 크기 정보 및 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 전자 장치(100) 주변의 잡음환경을 판단할 수 있다. 프로세서(140)는 판단된 잡음 환경을 바탕으로 음성 신호를 처리하여 음성인식을 수행할 수 있다.
프로세서(140)는 메모리에 저장된 프로그램 모듈 및 전자 장치(100)의 전반적인 동작을 제어하며, 프로세서(140)의 상세한 설명은 도 3에서 후술한다.
도 3은, 본 개시의 일 실시 예에 따른, 프로세서를 구성하는 세부 모듈을 도시한 상세한 블록도이다.
도 3을 참조하면, 프로세서(140)는 도 2에서 설명한 바와 같이 메모리(130)에 저장된 모드 판단 모듈(310), 음성 검출 모듈(320), 각도 추정 모듈(330), 빔포머 모듈(340), 및 음성인식모듈(350)을 처리할 수 있다.
일반적으로 복수 개의 마이크로폰을 포함하는 음성인식 장치는 음성 신호의 전처리부인 음성 검출 모듈(320), 각도 추정 모듈(330), 빔포머 모듈(340)과 전처리된 음성 신호를 인식하는 음성인식부인 음성인식 모듈(350)을 포함한다.
또한, 일반적으로 복수 개의 마이크로폰을 포함하는 음성인식 장치에서 전처리부는 오디오 신호로부터 잡음이 제거된 오디오 신호와 음원(음성 신호)의 방향, 음원(음성 신호)의 검출 결과(BOS: begin of speech, EOS: end of speech) 등을 생성하여 음성인식 모듈(350)로 전송할 수 있다.
즉, 복수 개의 마이크로폰을 포함하는 일반적인 음성인식 장치는 본 개시의 모드 판단 모듈(310)을 포함하지 않는다.
본 개시의 일 실시 예에 따른, 모드 판단 모듈(310)은, 외부 장치의 상태 정보를 바탕으로 외부 장치가 출력하는 오디오의 크기가 기정의된 값 이상인 경우, 전자 장치(100) 주변의 잡음 환경을 제1 모드로 판단할 수 있다. 또한, 모드 판단 모듈(310)은, 외부 장치의 상태 정보를 바탕으로 외부 장치가 출력하는 오디오의 크기가 기정의된 값 미만이거나, 외부 장치가 전자 장치(100)에 연결되지 않은 상태인 경우, 전자 장치(100) 주변의 잡음 환경은 제2 모드로 판단할 수 있다.
예를 들어, 외부 장치가 오디오 출력을 재생하고 있거나, 외부 장치가 재생 중인 출력 오디오의 크기가 사용자의 음성 신호 에너지보다 높은 값을 가질 경우, 모드 판단 모듈(310)은 전자 장치(100)의 주변 잡음 환경이 잡음 모드인 제1 모드로 판단할 수 있다. 이때, 사용자의 음성 신호 에너지 크기에 따른 외부 장치의 출력 오디오의 상대적 크기는 전자 장치(100)의 메모리에 기저장될 수 있다.
예를 들어, 사용자의 음성 신호 에너지 크기를 가장 낮은 음성 크기부터 가장 높은 음성 크기 순서대로 1부터 10으로 설정될 때, 모드 판단 모듈(310)은 외부 장치의 출력 오디오 크기가 음성 크기인 5 이상인 경우, 전자 장치(100) 주변의 잡음 환경은 잡음 모드인 제1 모드로 판단할 수 있다.
한편, 모드 판단 모듈(310)은 전자 장치(100)에 외부 장치가 연결되지 않았거나, 외부 장치의 출력 오디오의 크기가 음성 크기인 5 미만인 경우, 전자 장치(100)의 주변 잡음 환경은 유휴(idle) 모드인 제2 모드로 판단할 수 있다. 상술한 예들은 본 개시를 설명하기 위한 일 실시 예일 뿐, 이에 한정되지 않는다.
모드 판단 모듈(310)은 외부 장치가 최초로 전자 장치(100)에 연결된 시점에 외부 장치의 초기화된 상태 정보를 메모리(130)에 저장할 수 있다. 또한, 프로세서(140)는 외부 장치가 전자 장치(100)에 연결될 때마다 기저장된 외부 장치의 상태 정보를 바탕으로 전자 장치 주변의 잡음 환경을 업데이트하여 판단할 수 있다.
예를 들어, 모드 판단 모듈(310)은 외부 장치가 전자 장치(100)에 연결되는 순간 외부 장치의 상태 정보를 자동으로 감지할 수 있다. 모드 판단 모듈(310)은 외부 장치들이 전자 장치(100)에 최초 연결되는 시점에 초기화(initializing) 과정을 거쳐 각 외부 장치의 상태 정보를 측정하고 저장할 수 있다. 모드 판단 모듈(310)은 저장된 외부 장치의 상태 정보에 해당하는 외부 장치가 전자 장치(100)에 연결된 경우, 기 저장된 외부 장치의 상태 정보를 바탕으로 전자 장치(100)의 주변 잡음 환경(예: 잡음 모드인 제1 모드, 유휴 모드인 제2 모드)을 판단할 수 있다.
이때, 상태 정보를 저장하기 위한 초기화 방법은 측정용 신호(예: 스윕, 백색 잡음 등)를 외부 장치를 통해 출력하고, 전자 장치(100)의 마이크로폰으로 유입되는 신호를 분석하는 방법일 수 있다.
예를 들어, 외부 장치의 상태 정보로서, 모드 판단 모듈(310)은 외부 장치의 출력 신호와 전자 장치(100)의 마이크로폰 입력 신호의 시차 및 음원 감쇄 정도를 바탕으로 해당 외부 장치까지의 거리를 예측할 수 있다.
또한, 모드 판단 모듈(310)은 복수 개의 마이크로폰의 각 마이크로폰에 입력되는 신호간 지연 시간을 이용하여 전자 장치(100)로부터 외부 장치로의 각도를 예측(판단)할 수 있다. 그리고 모드 판단 모듈(310)은 예측한 각도 및 거리로부터 외부 장치와 전자 장치(100)와의 상대적 위치 정보를 판단할 수 있다.
또한, 모드 판단 모듈(310)은 측정용 신호와 전자 장치(100)의 마이크로폰에 입력된 신호를 비교하여 외부 장치의 스피커 출력 특성을 예측(판단)할 수 있다. 이때, 모드 판단 모듈(310)은 전자 장치(100)의 마이크로폰 주파수 특성은 미리 측정하여 메모리(130)에 저장할 수 있다.
음성 검출 모듈(320)은, 모드 판단 모듈(310)에 의해 판단된 모드에 따라, 오디오 신호로부터 연속되는 복수의 프레임들로 구성된 음성 신호 구간을 검출할 수 있다.
본 개시의 일 실시 예에 따라, 전자 장치(100)는 복수 개의 마이크로폰으로부터 오디오 신호를 수신할 수 있다. 각도 추정 모듈(330)은, 모드 판단 모듈(310)에 의해 판단된 모드에 따라, 음성 검출 모듈(320)에서 검출된 음성 구간을 바탕으로 복수 개의 마이크로폰 각각에서의 오디오 신호의 입력 방향을 판단할 수 있다.
빔포머 모듈(340)은, 모드 판단 모듈(310)에 의해 판단된 모드에 따라, 각도 추정 모듈(330)에서 판단된 오디오 신호의 입력 방향을 바탕으로 빔포밍을 수행하여 음성 신호를 처리할 수 있다. 프로세서(140)의 음성 인식 모듈(350)은 전처리된 오디오 신호를 디코딩하여 음성 인식 결과를 생성할 수 있다.
일반적으로, 음성 검출 모듈(320)은 오디오 신호로부터 잡음 구간(프레임)과 음성 구간(프레임)을 포함하는 이어지는 복수의 프레임을 검출할 수 있다. 음성 검출 모듈(320)은 음성 인식 기술에서 마이크로폰에 입력된 오디오 신호로부터 음성을 분리하는 다양한 알고리즘을 이용하여 음성 구간과 잡음 구간을 검출할 수 있다. 음성 검출 모듈(320)에서 생성된 음성 구간 정보는 각도 추정 모듈(330) 및 빔포머 모듈(340)로 입력될 수 있다.
일반적으로, 음성 검출 모듈(320)은 검출 결과의 안정성을 높이기 위해 행오버(hang-over) 구간을 지정한다. 행오버(hang-over)란 복수의 프레임에서 음성이 검출된 프레임 이후의 프레임에 대해서도 음성으로 판정하는 최소한의 기간을 의미한다. 예를 들어, 행오버 길이를 무한대로 설정한 경우, 한 번 음성으로 판정된 프레임 이후의 모든 프레임은 모두 음성으로 검출될 수 있다. 반면, 행오버 길이가 최소라면, 모든 프레임에 대해 독립적으로 음성 여부를 판정하게 된다. 따라서, 행오버 길이의 설정은 음성 검출 모듈(320)에서 검출한 음성 인식 구간의 결과에 대한 신뢰도에 중요한 역할을 한다.
본 개시의 일 실시 예에 따른, 음성 검출 모듈(320)은 외부 장치의 상태 정보를 바탕으로 행오버 길이를 조정할 수 있다. 음성 검출 모듈(320)은 전자 장치(100)의 주변의 잡음 환경이 제1 모드(잡음 모드)일 때, 행오버(hang-over) 길이를 제1 길이로 설정하고, 전자 장치(100)의 주변의 잡음 환경이 제2 모드(Idle 모드)일 때, 행오버 길이를 제1 길이보다 긴 제2 길이로 설정하여 음성 구간을 검출할 수 있다.
예를 들어, 모드 판단 모듈(310)에서 전자 장치(100) 주변 잡음 환경이 제1 모드로 판단된 경우, 음성 검출 모듈(320)은 행오버 길이를 상대적으로 줄임으로써 음성 구간 검출의 잡음에 대한 강인성을 높일 수 있다. 전자 장치(100)의 주변 잡음 환경이 제1 모드인 경우, 외부 장치에 의한 출력 오디오 크기 등의 주변 환경의 잡음이 큰 상태일 수 있다.
반면, 모드 판단 모듈(310)에서 전자 장치(100) 주변 잡음 환경이 제2 모드로 판단된 경우, 음성 검출 모듈(320)은 행오버 길이를 상대적으로 늘림으로써 음성 검출 성능을 높일 수 있다. 전자 장치(100)의 주변 잡음 환경이 제2 모드인 경우, 외부 장치가 전자 장치(100)에 연결되지 않았거나, 연결되었더라도 외부 장치의 출력이 없거나 작은 출력만 재생하는 상태일 수 있다.
본 개시의 일 실시 예에 따른, 음성 검출 모듈(320)은, 모드 판단 모듈(310)의 판단 결과에 따라 복수 개의 프레임에서 음성 구간으로 판단하는 프레임의 가중치를 조절할 수 있다. 음성 검출 모듈(320)은 전자 장치(100) 주변의 잡음 환경이 제1 모드일 때, 오디오 신호로부터 음성 구간이 아닌 구간으로 판단되는 프레임에 가중치를 높게 하고, 전자 장치(100)의 주변의 잡음 환경이 제2 모드일 때, 오디오 신호로부터 음성 구간으로 판단되는 프레임에 가중치를 높게 하여 음성 구간을 검출할 수 있다.
예를 들어, 잡음 모드인 제1 모드인 경우, 음성 구간이 아닌 구간으로 판정될 가중치를 높게 설정하고, 유휴(Idle) 모드인 제2 모드인 경우, 음성 구간으로 판정될 가중치를 높게 설정하여 음성 구간을 검출할 수 있다.
또한, 잡음 모드인 제1 모드인 경우, 전자 장치(100)의 주파수 특성과 같은 추가 정보를 이용하여 가중치를 조절할 수도 있다. 예를 들어, 전자 장치(100)에 연결된 외부 장치의 주파수 대역이 저주파 대역에서 이득이 낮고 고주파 대역의 이득이 높은 경우, 외부 장치에서 오디오 출력이 재생 중일 때, 저주파 대역에 높은 가중치를 부여하여 음성 검출 성능을 높일 수 있다.
일반적인 각도 추정 모듈(330)은 복수의 프레임 별 각도 추정 모듈(330-1)와 정규화 모듈(330-2)로 구성된다. 프레임 별 각도 추정 모듈(330-1)은 오디오 신호로부터 목적 방향 각도 정보를 프레임 단위로 생성할 수 있다. 오디오 신호에 음성 신호만 존재할 경우, 프레임 별 각도 추정 모듈(330-1)은 분산이 작고 실제 목적 방향에 가깝게 분포하는 프레임 별 각도 정보를 생성할 수 있다. 반면, 오디오 신호에 잡음이 많은 경우, 프레임 별 각도 추정 모듈(330-1)은 전 방향에 고르게 흩어져 분포하는 프레임 별 각도 정보를 생성할 수 있다. 이때, 각도 추정 모듈(330)은 입력 가능한 모든 방향에 대해 동등한 비율로 정규화 모듈(330-2)이 동작하므로 잡음 입력 신호에 대해 민감하게 반응하여 추정된 각도 정보의 변화가 극심한 문제점이 있다.
본 개시의 일 실시 예에 따른 각도 추정 모듈(330)은, 모드 판단 모듈(310)로부터 판단된 결과를 바탕으로 오디오 신호가 입력 가능한 각도별 가중치를 고려하여 검색 범위(range)를 설정할 수 있다. 따라서, 각도 추정 모듈(330)은 오디오 신호의 입력 방향에 따른 상황 별로 가장 가능성이 높은 방향을 추정하여 정규화된 각도 정보를 생성할 수 있다.
본 개시의 일 실시 예에 따른 각도 추정 모듈(330)은, 전자 장치(100)의 주변의 잡음 환경이 제1 모드일 때, 오디오 신호의 입력 가능한 방향의 입력 각도 검색 범위를 검출된 음성 구간의 이전 프레임에서 생성된 각도 좌우 방향으로 제1 범위로 설정하고, 전자 장치(100)의 주변의 잡음 환경이 제2 모드일 때, 오디오 신호의 입력 가능한 방향의 입력 각도의 검색 범위를 검출된 음성 구간의 이전 프레임에서 생성된 각도 좌우 방향으로 제1 범위보다 넓은 제2 범위로 설정하여 오디오 신호의 입력 방향을 판단할 수 있다.
예를 들어, 각도 추정 모듈(330)은, 잡음 모드인 제1 모드인 경우, 이전 프레임에서 생성된 각도 좌우로 좁은 범위를 검색 범위로 설정할 수 있다. 또한, 제1 모드인 경우, 각도 추정 모듈(330)은 모드 판단 모듈(310)에서 판단한 결과와 함께 추가 정보를 이용하여 검색 범위(search range)를 조정할 수 있다.
예를 들어, 각도 추정 모듈(330)은 전자 장치(100)에 연결된 외부 장치의 위치 정보를 함께 수신한 경우, 외부 장치의 방향을 제외한 영역만을 검색 범위로 설정하여 잡음 대응력을 향상할 수 있다. 반면, 제2 모드인 경우, 각도 추정 모듈(330)은 이전 프레임에서 생성된 각도 좌우로 넓은 범위를 검색 범위로 설정할 수 있다.
또한, 본 개시의 일 실시 예에 따른 각도 추정 모듈(330)은, 모드 판단 모듈(310)에서 판단된 결과를 바탕으로, 음성의 입사 방향을 추적 또는 음성의 입사 방향을 고정하도록 설정할 수 있다. 각도 추정 모듈(330)은, 전자 장치(100)의 주변의 잡음 환경이 제1 모드일 때, 오디오 신호의 입력 방향을 추정하기 위한 목적 방향을 고정하여 검출된 음성 구간 이후에 수신된 프레임의 오디오 신호는 고정된 목적 방향에 대해 증폭되고, 전자 장치(100)의 주변의 잡음 환경이 제2 모드일 때, 오디오 신호의 입력 방향을 추정하기 위한 목적 방향을 전 방향으로 설정하여 모든 입력 각도 범위에서 오디오 신호의 입력 방향을 판단할 수 있다.
예를 들어, 제1 모드인 경우, 각도 추정 모듈(330)은, 음성 인식 모듈(350)의 트리거 인식 모듈(350-1)에 의해 사용자의 트리거 발화가 인식되었을 때의 오디오 신호의 추적 방향으로 각도 추정 모듈(330)의 목적 방향을 고정하고, 이후 이어지는 사용자 발화는 고정된 목적 방향에 대해 증폭되어 음성 인식 모듈(350)의 단어 및/또는 문장 인식 모듈(350-2)에 전달할 수 있다. 반면, 제2 모드인 경우, 각도 추정 모듈(330)은 전 방향의 모든 각도가 음성 입력 방향의 예측 각도 범위에 포함되도록 설정할 수 있다.
일반적으로, 빔포머 모듈(340)은 고정된 빔포머(fixed beamformer)(미도시), 블록 매트릭스(blocking matrix)(미도시), 멀티플 입력 캔슬러(multiple-input canceller)(미도시), 및 포스트 필터(post-filter)(미도시)를 포함한다. 이때, 고정된 빔포머는 오디오 신호와 오디오 신호의 입력 각도 정보를 입력 받아 해당 각도 방향에서 입력되는 신호를 증폭하여 목적 방향에 대해 증폭된 오디오 신호를 생성할 수 있다.
이때, 일반적인 각도 추정 모듈(330)은 입력 가능한 모든 방향에 대해 동등한 비율로 정규화되어 입력 각도를 추정하고, 빔포머 모듈(340)은 각도 추정 모듈(330)에서 생성된 각도 정보를 고정된 빔포머와 블록 매트릭스의 입력으로 이용한다. 따라서, 일반적인 빔포머 모듈(340)은 목적 방향의 음성이 제거되어 음성 왜곡이 일어날 수 있다.
본 개시의 일 실시 예에 따른, 빔포머 모듈(340)은 모드 판단 모듈(310)의 판단 결과에 따라 각도 추정 모듈(330)에서 목적 방향을 고정시키거나 전 방향으로 설정하여 생성된 음성의 입력 방향을 입력 받을 수 있다.
본 개시의 일 실시 예에 따른, 음성 인식 모듈(350)은 모드 판단 모듈(310)에서 판단된 외부 장치의 상태 정보를 바탕으로 전처리된 음성신호를 음성인식 처리하여 출력할 수 있다. 본 개시의 음성 인식 모듈(350)의 구성은 일반적인 음성 인식 모듈과 구성이 유사할 수 있으며, 전자 장치(100)의 메인 보드에 구현될 수 있다. 예를 들어, 음성 인식 모듈(350)는 트리거 인식 모듈(350-1)은 전자 장치(100)의 미들웨어(middleware, M/W)에서 구현 가능하며, 높은 계산량과 데이터량을 요구하는 단어 및/또는 문장 인식 모듈(350-2)은 서버에 구현될 수 있다.
도 4는, 본 개시의 일 실시 예에 따른, 음성 인식을 위한 신호 처리 방법을 설명하기 위한 순서도이다.
S410 단계에서, 전자 장치(100)는 복수 개의 마이크로폰을 포함하는 마이크로폰 어레이를 통해 음성 신호를 포함하는 복수 개의 오디오 신호를 수신할 수 있다.
S420 단계에서, 전자 장치(100)는 전자 장치(100)에 유선 또는/및 무선으로 연결되어 네트워크 통신을 하는 외부 장치로부터 외부 장치의 상태 정보를 수신할 수 있다. S410 단계 및 S420 단계는 설명의 편의를 위해 도시된 순서일 뿐 이에 한정되지 않으며 순서가 변경될 수 있고, 전자 장치(100)는 오디오 신호 및 외부 장치의 상태 정보를 동시에 수신할 수도 있다. 외부 장치의 상태 정보는 도 2 및 도 3에 상세히 설명하였으므로 여기에서는 설명을 생략한다.
S430 단계에서, 전자 장치(100)는 외부 장치의 상태 정보를 바탕으로 전자 장치(100) 주변의 잡음 환경을 판단할 수 있다. 전자 장치(100) 주변의 잡음 환경 판단은 도 3의 모드 판단 모듈(310)에서 상술하였으므로 여기에서는 설명을 생략한다.
S440 단계에서, 전자 장치(100)는 외부 장치의 상태 정보에 따른 전자 장치(100) 주변의 잡음 환경을 바탕으로 오디오 신호 처리인 전처리를 수행할 수 있다. 일반적으로, 도 3에서 상술한 음성 검출 모듈(320), 각도 추정 모듈(330), 및 빔포머 모듈(340)로 구성된 전처리부는 동작이 비교적 단순하고 빠른 처리 속도를 필요하기 때문에 독립적인 DSP(digital signal processor)로 구현될 수 있다. 본 개시의 일 실시 예에 따른, 오디오 신호의 전처리 과정은 도 3의 음성 검출 모듈(320), 각도 추정 모듈(330) 및 빔포머 모듈(340)를 통해 상세히 설명하였으므로 여기에서는 설명을 생략한다.
S450 단계에서, 전자 장치(100)는 전처리된 음성 신호를 바탕으로 음성 인식을 수행하여 음성인식 결과를 출력할 수 있다.
도 5는, 본 개시의 일 실시 예에 따른, 외부 장치의 상태 정보에 따른 잡음 환경 모드를 설명하기 위한 순서도이다.
S510 단계에서, 전자 장치(100)는 외부 장치와 연결 여부를 판단할 수 있다. 전자 장치(100)는 외부 장치와의 연결 여부를 유선 및/또는 무선의 네트워크 통신을 통해 판단할 수 있다. 외부 장치가 전자 장치(100)에 최초로 연결이 된 경우, 전자 장치(100)는 외부 장치가 전자 장치(100)에 연결되는 시점에 외부 장치의 초기화된 상태정보를 수신하여 도 2의 메모리(130)에 저장할 수 있다.
S520 단계에서, 전자 장치(100)는 외부 장치의 출력 오디오를 판단할 수 있다. 전자 장치(100)는 외부 장치의 출력 오디오 크기, 외부 장치의 스피커 주파수 특성, 외부 장치의 종류, 외부 장치의 위치 등 외부 장치의 상태 정보를 판단할 수 있다. 외부 장치의 상태 정보는 도 2 및 도 3에서 상술하였으므로 여기에서는 설명을 생략한다.
S530 단계에서, 전자 장치(100)는 외부 장치의 출력 오디오 크기 및 외부 장치의 상태 정보를 바탕으로 전자 장치(100) 주변의 잡음 환경(제1 모드, 제2 모드 등)을 판단할 수 있다. 본 개시의 실시 예들에 따른 모드 판단 방법은 도 3의 모드 판단 모듈(310)에서 상술하였으므로 여기에서는 설명을 생략한다. 또한, 본 개시에서는 잡음 모드인 제1 모드, 유휴(idle) 모드인 제2 모드에 대해서 예를 들어 설명하였으나, 이에 한정되지 않으며, 전자 장치(100)는 잡음 상태에 따라 다단계로 잡음 환경(제1 모드, 제2 모드, 제3 모드 등)을 판단을 할 수 있다.
도 6은, 본 개시의 일 실시 예에 따른, 외부 장치의 상태 정보에 따른 오디오 신호 전처리 방법을 설명하기 위한 순서도이다.
S610 단계에서, 전자 장치(100)는 도 3의 모드 판단 모듈(310)에서 판단된 모드(제1 모드, 제2 모드)에 따라, 오디오 신호의 음성 구간을 상이한 방법으로 검출할 수 있다. 음성 신호를 포함하는 오디오 신호는 복수의 프레임들로 구성될 수 있다. 연속되는 프레임들 간에는 서로 중복되는 범위를 포함할 수 있다. 복수의 프레임들은 시간 순서대로 배열될 수 있다. 전자 장치(100)는 특정 프레임에 가중치를 부여할 수 있다. 오디오 신호에서 음성 구간을 검출하는 방법은 도 3의 음성 검출 모듈(320)을 참조한다.
S620 단계에서, 전자 장치(100)는 도 3의 모드 판단 모듈(310)에서 판단된 결과를 바탕으로 S610 단계에서 검출된 음성 구간에서 오디오 신호의 입력 방향을 판단할 수 있다. 오디오 신호의 입력 방향은 사용자의 음성 신호(음원)의 입력 방향일 수 있다. 음성 신호의 입력 방향을 판단하는 방법은 도 3의 각도 추정 모듈(330)을 참조한다.
S630 단계에서, 전자 장치(100)는 도 3의 모드 판단 모듈(310)에서 판단된 결과를 바탕으로 S620 단계에서 판단된 음성 신호의 입력 방향을 입력 받아 빔포밍을 수행하여 음성 신호를 전처리할 수 있다. 빔포밍 방법은 도 3의 빔포밍 모듈(340)을 참조한다.
도 7a 및 도 7b는, 본 개시의 일 실시 예에 따른, 음성 구간 검출 방법을 설명하기 위한 순서도이다. 설명의 중복을 피하기 위해 도 7a 및 도 7b에서 동일한 방법을 수행하는 단계에 대해서는 동일한 참조 번호를 기입하였다.
S710 단계에서, 전자 장치(100)는 외부 장치의 연결 여부 및 외부 장치의 출력 오디오 크기 등의 상태 정보에 따라 전자 장치(100) 주변의 잡음 환경을 판단할 수 있다. 예를 들어, 외부 장치가 전자 장치(100)에 연결되어 통신하고 있고, 외부 장치가 오디오 출력을 재생 중인 경우, 전자 장치(100)는 외부 장치의 오디오 크기에 따라 전자 장치(100) 주변의 잡음 환경을 판단할 수 있다.
예를 들어, 외부 장치의 출력 오디오 크기가 전자 장치(100)에 기저장된 잡음 모드로 인식되는 오디오 크기 이상인 경우, 전자 장치(100)는 전자 장치(100) 주변의 잡음 환경을 잡음 모드인 제1 모드로 판단할 수 있다.
반면, 외부 장치의 출력 오디오 크기가 전자 장치(100)에 기저장된 잡음 모드로 인식되는 오디오 크기 미만인 경우, 전자 장치(100)는 전자 장치(100) 주변의 잡음 환경을 유휴(Idle) 모드인 제2 모드로 판단할 수 있다. 또한, 외부 장치가 전자 장치(100)에 연결되지 않은 상태인 경우, 전자 장치(100)는 전자 장치(100)의 주변 잡음 환경을 제2 모드로 판단할 수 있다.
S720 단계에서, 전자 장치(100)는 판단된 주변 잡음 환경(제1 모드, 제2 모드)에 따라 상이한 방법으로 오디오 신호로부터 복수의 프레임을 검출할 수 있다.
도 7a의 S730 단계에서, 전자 장치(100)는 S710 단계에서 판단된 모드에 따라 행오버 길이를 상이하게 설정할 수 있다.
판단된 모드가 제1 모드인 경우, 전자 장치(100)는 복수의 프레임에서 음성이 검출된 프레임 이후의 프레임에 대해서도 음성으로 판정하는 최소한의 기간인 행오버 길이를 상대적으로 줄일 수 있다. 따라서, 전자 장치(100)는 음성으로 판정된 이후의 모든 프레임들에 대해 독립적으로 음성 여부를 판정할 수 있다. 반면, 판단된 모드가 제2 모드인 경우, 전자 장치(100)는 행오버 길이를 상대적으로 늘릴 수 있다. 따라서, 전자 장치(100)는 음성으로 판정된 프레임 이후의 프레임 중 상대적으로 긴 구간의 프레임들을 음성으로 검출할 수 있다.
도 7b의 S735 단계에서, 전자 장치(100)는 S710 단계에서 판단된 모드에 따라 복수의 프레임 중 각 프레임에 가중치를 상이하게 적용할 수 있다.
판단된 모드가 제1 모드인 경우, 전자 장치(100)는 복수의 프레임에서 음성 구간이 아닌 구간(프레임)에 가중치를 높게 적용하여 오디오 신호에서 잡음 구간을 검출하여 제거할 수 있다. 반면, 판단된 모드가 제2 모드인 경우, 전자 장치(100)는 복수의 프레임에서 음성으로 판단된 구간에 가중치를 높게 적용하여 오디오 신호에서 음성 구간을 정확히 검출할 수 있다.
S740 단계에서, 전자 장치(100)는 S730 단계 및 S735 단계 중 적어도 하나를 바탕으로 오디오 신호로부터 복수의 프레임으로 이루어진 음성 구간을 검출할 수 있다.
도 8a 및 도 8b는, 본 개시의 일 실시 예에 따른, 오디오 신호 입력 방향 판단 방법을 설명하기 위한 순서도이다. 설명의 중복을 피하기 위해 도 8a 및 도 8b에서 동일한 방법을 수행하는 단계에 대해서는 동일한 참조 번호를 기입하였다.
도 8a 및 도 8b의 S810 단계 및 S820 단계는 도 7a 및 도 7b의 S710 단계 및 S720 단계와 동일하므로 여기에서는 설명을 생략한다.
도 8a의 S830 단계에서, 전자 장치(100)는 전자 장치(100) 주변의 잡음 환경(제1 모드, 제2 모드)에 따라 음성 구간 이전 프레임의 오디오 신호 입력의 각도 범위를 상이하게 설정할 수 있다.
예를 들어, 잡음 모드인 제1 모드인 경우, 전자 장치(100)는 오디오 신호의 입력 가능한 방향의 입력 각도 검색 범위를 검출된 음성 구간의 이전 프레임에서 생성된 각도 좌우 방향으로 좁게 설정할 수 있다. 반면, 유휴(idle) 모드인 제2 모드인 경우, 전자 장치(100)는 이전 프레임에서 생성된 각도 좌우로 넓은 범위를 검색 범위로 설정할 수 있다.
도 8b의 S835 단계에서, 전자 장치(100)는 전자 장치(100) 주변의 잡음 환경(제1 모드, 제2 모드)에 따라 음성 신호의 입사 방향인 목적 방향을 상이하게 설정할 수 있다.
예를 들어, 잡음 모드인 제1 모드인 경우, 전자 장치(100)는 오디오 신호의 입력 방향을 추정하기 위한 목적 방향을 고정하여, 도 7a 및 도 7b의 S740 단계에서 검출된 음성 구간 이후에 수신된 프레임의 오디오 신호를 고정된 목적 방향에 대해 증폭되도록 할 수 있다. 반면, 유휴(idle) 모드인 제2 모드인 경우, 전자 장치(100)는 오디오 신호의 입력 방향을 추정하기 위한 목적 방향을 고정하지 않고 전 방향으로 설정할 수 있다.
S840 단계에서, 전자 장치(100)는 S830 단계 및 S835 단계 중 적어도 하나를 바탕으로 오디오 신호로부터 음성 신호(음원)의 입력 방향을 판단할 수 있다.
도 9는, 본 개시의 일 실시 예에 따른, 잡음 개선 결과를 도시한 도면이다. 구체적으로, 도 9는 사용자는 전자 장치(100)의 0도의 위치에 있고, 외부 장치는 전자 장치(100)의 90도의 위치에 있을 때의 실험 결과를 도시한 그래프이다.
도 9를 참조하면, 입력 신호(910)는 외부 장치의 출력 오디오 신호(940)와 음성 신호가 함께 포함될 수 있다.
예를 들어, 전자 장치(100)에 음성 명령을 하는 사용자는 전자 장치(100)로부터 1미터(m) 거리에 위치할 수 있다. 또한, 컨텐츠 재생 장치인 외부 장치는 전자 장치(100)로부터 3미터(m) 거리에 위치할 수 있다. 전자 장치(100)는 복수의 마이크로폰을 통해 사용자와 외부 장치로부터 동시에 오디오 신호가 입력 받을 수 있다.
종래의 음성 인식 장치의 전처리 방법(920)에 따르면, 오디오 신호의 전처리 과정 이후에도 외부 장치의 출력 오디오 신호(940)가 잡음으로 포함되어 있다. 즉, 사용자의 음성 신호는 보존되거나 증폭되었으나, 외부 장치의 출력 오디오 신호(940)는 손상되거나 상당 부분 제거된 것을 알 수 있다. 종래의 음성 인식 전처리 방법을 이용한 경우, 전자 장치(100)가 사용자의 방향(0도)와 외부 장치의 방향(90도)을 반복적으로 오가며 목적 방향을 예측할 수 있다. 따라서, 빔포머의 필터 적응에 문제가 발생하여 외부 장치의 출력 오디오 신호(940)가 출력 신호에 포함되는 문제가 있다.
반면, 본 개시의 일 실시 예에 따른 전처리 방법(930)에 따르면, 오디오 신호의 전처리 과정 이후 외부 장치의 출력 오디오 신호(940)가 입력 신호(910) 및 종래의 전처리 과정(920)과 비교할 때 현저히 감소될 수 있다.
도 9를 참조하면, 종래의 음성인식 장치 전처리 방법(920)과 달리, 본 개시의 전처리 방법(930)은 사용자의 음성 신호는 보존 또는 증폭되고, 외부 장치의 오디오 출력 신호(940)는 모두 제거된 것을 확인할 수 있다. 본 개시의 일 실시 예에 따라, 전자 장치(100)는 목적 방향을 사용자의 위치(0도)에 고정하여 목적 방향 이외의 방향에 대한 유입 음원은 모두 차단할 수 있다. 즉, 전자 장치(100)는 사용자 위치(0도)의 목적 방향에서 유입되는 음성 신호를 증폭하여 음성인식 기능을 향상시킬 수 있다.따라서, 본 개시의 실시 예들에 따른, 전자 장치(100)의 오디오 신호 전처리 방법은, 전자 장치(100)에 연결된 외부 장치의 상태 정보를 바탕으로 판단된 전자 장치(100) 주변의 잡음 환경을 이용하여 잡음에 대한 강인성을 높여 음성 인식성능을 향상시킬 수 있다.
또한, 본 개시의 실시 예들에 따른, 전자 장치(100)는 음성 인식 기능을 탑재한 장치로서, 전자 장치(100)가 영상(비디오 및/또는 오디오) 콘텐츠 재생을 지원하는 외부 장치를 원격 구동할 수 있다. 이때, 전자 장치(100)는 외부 장치의 연결 여부 또는 오디오 출력 재생 여부 등의 상태 정보에 따라 음성 인식 구간 및 음성 신호 입력 방향 등을 상이하게 검출함으로써 외부 장치의 오디오 출력에 의한 음성 인식 성능 저하를 방지할 수 있다.
도 10은, 본 개시의 일 실시 예에 따른, 전자 장치(100)를 구성하는 상세한 블록도이다.
도 10에 도시된 바와 같이, 전자 장치(100)는 센서(1010), 디스플레이(1020), 메모리(1030), 통신부(1040), 사용자 조작부(1050), 및 프로세서(1060)를 포함할 수 있다.
실시 예에 따라서는, 도 10에 도시된 구성 요소 중 일부는 생략 또는 변경될 수 있고, 다른 구성 요소가 더 추가될 수도 있다.
센서(1010)는 전자 장치(100)의 움직임을 감지할 수 있는 복수의 센서를 포함할 수 있다. 센서부(1010)는 모션센서, 자이로 센서(Gyroscope sensors), 가속도 센서(acceleration sensors), 바로미터(Barometer), 열감지 센서(thermal sensors), 습도 센서(humidity sensors), 초음파 센서 등 다양한 센서들을 포함할 수 있다. 상술한 예시들은 일 실시 예일 뿐, 이에 한정되지 아니한다.
디스플레이(1020)는 터치 디스플레이를 포함할 수 있다. 
메모리(1030)는 전자 장치(100)를 구동하기 위한 다양한 모듈을 저장한다. 메모리(1030)는 다양한 프로그램 모듈들을 포함할 수 있으나, 각종 프로그램 모듈들은 전자 장치(100)의 종류 및 특성에 따라 일부 생략되거나 변형 또는 추가될 수 있음은 물론이다. 메모리(1030)는 도 2에서 상술한 메모리(130)와 동일하므로 여기에서는 상세한 설명을 생략하기로 한다.
통신부(1040)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(1040)는 와이파이 칩, 블루투스 칩(Bluetooth BLE 포함), NFC칩, 무선 통신 칩, IR 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩, IR 칩은 각각 WiFi 방식, 블루투스 방식, NFC방식, IR 방식으로 통신을 수행한다. 이 중 NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
사용자 조작부(1050)는 전자 장치(100)를 제어하기 위한 다양한 사용자 명령을 입력 받는다. 이때, 사용자 조작부(1050)는 사방향키를 구비하는 리모컨으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 모션 센서가 구비된 포인팅 디바이스, 키보드, 마우스, 카메라를 구비하는 모션 입력부, 마이크를 구비하는 음성 입력부, 터치 센서 등과 같은 다양한 입력 장치로 구현될 수 있다.
프로세서(1060)는 저장부(1030)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(1060)는 도 2 및 도 3에서 상술하였으므로 여기에서는 상세한 설명을 생략하기로 한다.
다양한 실시 예에 따른 장치 (예: 모듈들 또는 전자 장치(100)) 또는 방법 (예: 동작들)은, 예컨대, 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 유지되는(maintain) 프로그램들 중 적어도 하나의 프로그램에 포함된 명령어(instructions)를 실행하는 적어도 하나의 컴퓨터(예: 프로세서 1060)에 의하여 수행될 수 있다.
상기 명령어가 컴퓨터(예: 프로세서)에 의해 실행될 경우, 상기 적어도 하나의 컴퓨터는 상기 명령어에 해당하는 기능을 수행할 수 있다.  이 때, 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(1030)가 될 수 있다. 
프로그램은, 예로, 하드디스크, 플로피디스크, 마그네틱 매체 (magnetic media)(예: 자기테이프), 광기록 매체 (optical media)(예: CD-ROM (compact disc read only memory), DVD (digital versatile disc), 자기-광 매체 (magneto-optical media)(예: 플롭티컬 디스크 (floptical disk)), 하드웨어 장치 (예: ROM (read only memory), RAM (random access memory), 또는 플래시 메모리 등) 등과 같은 컴퓨터로 읽을 수 저장 매체에 포함될 수 있다.  이 경우, 저장 매체는 일반적으로 전자 장치(100)의 구성의 일부로 포함되나, 전자 장치(100)의 포트(port)를 통하여 장착될 수도 있으며, 또는 전자 장치(100)의 외부에 위치한 외부 기기(예로, 클라우드, 서버 또는 다른 전자 기기)에 포함될 수도 있다.  또한, 프로그램은 복수의 저장 매체에 나누어 저장될 수도 있으며, 이 때, 복수의 저장 매체의 적어도 일부는 전자 장치(100)의 외부 기기에 위치할 수도 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (15)

  1. 전자 장치에 있어서,
    음성 신호가 포함된 오디오 신호를 수신하는 복수 개의 마이크로폰;
    상기 전자 장치와의 연결 정보에 따른 외부 장치의 상태 정보를 수신하는 통신부; 및
    상기 복수 개의 마이크로폰을 통해 수신된 상기 외부 장치가 출력하는 오디오의 크기 정보 및 상기 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 상기 전자 장치 주변의 잡음 환경을 판단하고, 상기 판단된 잡음 환경을 바탕으로 상기 음성 신호를 처리하여 음성 인식을 수행하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서
    상기 프로세서는,
    상기 상태 정보를 바탕으로 상기 외부 장치가 출력하는 오디오의 크기가 기정의된 값 이상인 경우, 상기 전자 장치 주변의 잡음 환경은 제1 모드로 판단하고, 상기 외부 장치가 출력하는 오디오의 크기가 상기 기정의된 값 미만이거나 상기 외부 장치가 연결되지 않은 상태인 경우, 상기 전자 장치 주변의 잡음 환경은 제2 모드로 판단하는 전자 장치.
  3. 제1항에 있어서,
    메모리;를 더 포함하고,
    상기 프로세서는,
    상기 외부 장치가 최초로 연결된 시점에 외부장치의 초기화된 상태 정보를 상기 메모리에 저장하고,
    상기 외부 장치가 상기 전자 장치에 연결될 때마다 기 저장된 상기 상태 정보를 바탕으로 상기 전자 장치 주변의 잡음 환경을 업데이트하여 판단하는 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 오디오 신호로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 연속되는 복수의 프레임들로 구성된 음성 신호 구간을 검출하고,
    상기 검출된 음성 구간으로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 상기 오디오 신호의 입력 방향을 판단하며,
    상기 오디오 신호의 입력 방향 정보로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 빔포밍을 수행하여 음성 신호를 처리하는 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 모드일 때, 상기 검출된 음성 구간 이후 이어지는 프레임에 대해서도 음성으로 판단하는 행오버(hang-over) 길이를 제1 길이로 설정하고, 상기 제2 모드일 때, 상기 행오버 길이를 상기 제1 길이보다 긴 제2 길이로 설정하여 상기 음성 구간을 검출하는 전자 장치.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 모드일 때, 상기 오디오 신호로부터 음성구간이 아닌 구간으로 판단되는 프레임에 가중치를 높게 하고, 상기 제2 모드일 때, 상기 오디오 신호로부터 음성 구간으로 판단되는 프레임에 가중치를 높게 하여 상기 음성 구간을 검출하는 전자 장치.
  7. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 모드일 때, 상기 오디오 신호의 입력 가능한 방향의 입력 각도 검색 범위를 상기 검출된 음성 구간의 이전 프레임에서 생성된 각도 좌우 방향으로 제1 범위로 설정하고, 상기 제2 모드일 때, 상기 오디오 신호의 입력 가능한 방향의 상기 입력 각도의 검색 범위를 상기 검출된 음성 구간의 이전 프레임에서 생성된 각도 좌우 방향으로 상기 제1 범위보다 넓은 제2 범위로 설정하여 상기 오디오 신호의 입력 방향을 판단하는 전자 장치.
  8. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 모드일 때, 상기 오디오 신호의 입력 방향을 추정하기 위한 목적 방향을 고정하여 상기 검출된 음성 구간 이후에 수신된 프레임의 오디오 신호는 상기 고정된 목적 방향에 대해 증폭되고, 상기 제2 모드일 때, 상기 오디오 신호의 입력 방향을 추정하기 위한 상기 목적 방향을 전 방향으로 설정하여 모든 입력 각도 범위에서 상기 오디오 신호의 입력 방향을 판단하는 전자 장치.
  9. 제1항에 있어서,
    상기 외부 장치의 상태 정보는,
    상기 외부 장치의 종류, 상기 외부 장치의 위치, 상기 외부 장치의 각도, 상기 외부 장치로부터 상기 전자 장치까지의 거리, 상기 외부 장치의 오디오 출력을 위한 스피커의 주파수 특성 중 적어도 하나를 포함하는 전자 장치.
  10. 전자 장치에서 음성 신호 처리 방법에 있어서,
    음성 신호가 포함된 오디오 신호를 복수 개의 마이크로폰을 통해 수신하는 단계;
    외부 장치와의 연결 정보에 따른 상태 정보를 수신하는 단계;
    상기 수신하는 단계에서 수신된 상기 외부 장치가 출력하는 오디오의 크기 정보 및 상기 외부 장치의 상태 정보 중 적어도 하나를 바탕으로 상기 전자 장치 주변의 잡음 환경을 판단하는 단계;
    상기 판단된 잡음 환경을 바탕으로 상기 음성 신호를 처리하는 단계; 및
    상기 처리된 음성신호를 바탕으로 음성 인식을 수행하는 단계;를 포함하는 방법.
  11. 제10항에 있어서,
    상기 잡음 환경을 판단하는 단계는,
    상기 외부 장치가 출력하는 오디오의 크기가 기정의된 값 이상인 경우, 상기 전자 장치 주변의 잡음 환경은 제1 모드로 판단하고, 상기 외부 장치가 출력하는 오디오의 크기가 상기 기정의된 값 미만이거나 상기 상태 정보를 바탕으로 상기 외부 장치가 연결되지 않은 상태인 경우, 상기 전자 장치 주변의 잡음 환경은 제2 모드로 판단하는 단계;를 더 포함하는 방법.
  12. 제10항에 있어서,
    상기 상태 정보를 수신하는 단계는,
    상기 외부 장치가 최초로 연결된 시점에 외부장치의 초기화된 상태 정보를 저장하는 단계; 및
    상기 외부 장치가 상기 전자 장치에 연결될 때마다 기저장된 상기 상태 정보를 바탕으로 상기 전자 장치 주변의 잡음 환경을 업데이트하여 판단하는 단계;를 더 포함하는 방법.
  13. 제11항에 있어서,
    상기 음성 신호를 처리하는 단계는,
    상기 오디오 신호로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 연속되는 복수의 프레임들로 구성된 음성 구간을 검출하는 단계;
    상기 검출된 음성 구간으로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 상기 오디오 신호의 입력 방향을 판단하는 단계;
    상기 오디오 신호의 입력 방향 정보로부터 상기 수신된 외부 장치의 상태 정보 및 상기 전자 장치 주변의 잡음 환경을 바탕으로 빔포밍을 수행하여 음성 신호를 처리하는 단계;를 더 포함하는 방법.
  14. 제13항에 있어서,
    상기 음성 구간을 검출하는 단계는,
    상기 제1 모드일 때, 상기 검출된 음성 구간 이후 이어지는 프레임에 대해서도 음성으로 판단하는 행오버(hang-over) 길이를 제1 길이로 설정하고, 상기 제2 모드일 때, 상기 행오버 길이를 상기 제1 길이보다 긴 제2 길이로 설정하여 상기 음성 구간을 검출하는 방법.
  15. 제13항에 있어서,
    상기 음성 구간을 검출하는 단계는,
    상기 제1 모드일 때, 상기 오디오 신호로부터 음성 구간이 아닌 구간으로 판단되는 구간에 가중치를 높게 하고, 상기 제2 모드일 때, 상기 오디오 신호로부터 음성 구간으로 판단되는 구간에 가중치를 높게 하여 상기 음성 구간을 검출하는 방법.
PCT/KR2017/006800 2016-08-26 2017-06-28 음성 인식을 위한 전자 장치 및 이의 제어 방법 WO2018038379A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17843799.2A EP3480818B1 (en) 2016-08-26 2017-06-28 Electronic device for voice recognition, and method therefor
US16/327,646 US11087755B2 (en) 2016-08-26 2017-06-28 Electronic device for voice recognition, and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160109481A KR102515996B1 (ko) 2016-08-26 2016-08-26 음성 인식을 위한 전자 장치 및 그 제어 방법
KR10-2016-0109481 2016-08-26

Publications (1)

Publication Number Publication Date
WO2018038379A1 true WO2018038379A1 (ko) 2018-03-01

Family

ID=61246172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006800 WO2018038379A1 (ko) 2016-08-26 2017-06-28 음성 인식을 위한 전자 장치 및 이의 제어 방법

Country Status (4)

Country Link
US (1) US11087755B2 (ko)
EP (1) EP3480818B1 (ko)
KR (1) KR102515996B1 (ko)
WO (1) WO2018038379A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288987A (zh) * 2018-03-19 2019-09-27 三星电子株式会社 用于处理声音数据的系统和控制该系统的方法
CN113422992A (zh) * 2021-06-17 2021-09-21 歌尔股份有限公司 遥控器和电子系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782585B (zh) * 2017-01-26 2020-03-20 芋头科技(杭州)有限公司 一种基于麦克风阵列的拾音方法及系统
US11150869B2 (en) * 2018-02-14 2021-10-19 International Business Machines Corporation Voice command filtering
US11200890B2 (en) 2018-05-01 2021-12-14 International Business Machines Corporation Distinguishing voice commands
US11238856B2 (en) 2018-05-01 2022-02-01 International Business Machines Corporation Ignoring trigger words in streamed media content
KR102623998B1 (ko) 2018-07-17 2024-01-12 삼성전자주식회사 음성인식을 위한 전자장치 및 그 제어 방법
KR102102387B1 (ko) * 2018-10-29 2020-04-21 주식회사 사운드잇 다채널오디오스트리밍에서 화자의 발화구간을 검출하는 방법 및 시스템
CN109375893A (zh) * 2018-11-20 2019-02-22 北京小米移动软件有限公司 音频播放方法及装置
KR20200132613A (ko) * 2019-05-16 2020-11-25 삼성전자주식회사 웨이크 언 보이스(Wake on Voice, WoV) 기술을 이용한 음성 인식 수행 방법 및 장치
US11355108B2 (en) 2019-08-20 2022-06-07 International Business Machines Corporation Distinguishing voice commands
KR20220072621A (ko) * 2020-11-25 2022-06-02 삼성전자주식회사 전자장치 및 그 제어방법
US11932256B2 (en) * 2021-11-18 2024-03-19 Ford Global Technologies, Llc System and method to identify a location of an occupant in a vehicle
TWI803163B (zh) * 2022-01-21 2023-05-21 香港商冠捷投資有限公司 顯示裝置節電方法
WO2023145985A1 (ko) * 2022-01-26 2023-08-03 엘지전자 주식회사 디스플레이 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100303477B1 (ko) * 1999-02-19 2001-09-26 성원용 가능성비 검사에 근거한 음성 유무 검출 장치
JP2004109361A (ja) * 2002-09-17 2004-04-08 Toshiba Corp 指向性設定装置、指向性設定方法及び指向性設定プログラム
KR20040073145A (ko) * 2003-02-13 2004-08-19 엘지전자 주식회사 음성인식기의 성능 향상 방법
JP2007065122A (ja) * 2005-08-30 2007-03-15 Aisin Seiki Co Ltd 車載用音声認識装置の雑音抑圧装置
WO2012057589A2 (ko) * 2010-10-29 2012-05-03 주식회사 마이티웍스 멀티 빔 음향시스템
KR20150123902A (ko) * 2013-03-06 2015-11-04 퀄컴 인코포레이티드 콘텐츠 기반 잡음 억제

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093281A1 (en) * 1999-05-21 2003-05-15 Michael Geilhufe Method and apparatus for machine to machine communication using speech
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
JP2002091469A (ja) 2000-09-19 2002-03-27 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声認識装置
JP2005084253A (ja) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd 音響処理装置、方法、プログラム及び記憶媒体
ATE415684T1 (de) * 2004-01-29 2008-12-15 Harman Becker Automotive Sys Verfahren und system zur sprachdialogschnittstelle
JP2008064892A (ja) 2006-09-05 2008-03-21 National Institute Of Advanced Industrial & Technology 音声認識方法およびそれを用いた音声認識装置
JP2010197727A (ja) 2009-02-25 2010-09-09 Nec Corp 音声認識装置、ロボット、音声認識方法、プログラム及び記録媒体
JP5593852B2 (ja) 2010-06-01 2014-09-24 ソニー株式会社 音声信号処理装置、音声信号処理方法
CN103999152A (zh) * 2011-12-29 2014-08-20 英特尔公司 利用动态语法元素集的语音识别
US10939201B2 (en) 2013-02-22 2021-03-02 Texas Instruments Incorporated Robust estimation of sound source localization
KR20140127508A (ko) * 2013-04-25 2014-11-04 삼성전자주식회사 음성처리장치 및 음성처리방법
KR102146462B1 (ko) * 2014-03-31 2020-08-20 삼성전자주식회사 음성 인식 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100303477B1 (ko) * 1999-02-19 2001-09-26 성원용 가능성비 검사에 근거한 음성 유무 검출 장치
JP2004109361A (ja) * 2002-09-17 2004-04-08 Toshiba Corp 指向性設定装置、指向性設定方法及び指向性設定プログラム
KR20040073145A (ko) * 2003-02-13 2004-08-19 엘지전자 주식회사 음성인식기의 성능 향상 방법
JP2007065122A (ja) * 2005-08-30 2007-03-15 Aisin Seiki Co Ltd 車載用音声認識装置の雑音抑圧装置
WO2012057589A2 (ko) * 2010-10-29 2012-05-03 주식회사 마이티웍스 멀티 빔 음향시스템
KR20150123902A (ko) * 2013-03-06 2015-11-04 퀄컴 인코포레이티드 콘텐츠 기반 잡음 억제

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288987A (zh) * 2018-03-19 2019-09-27 三星电子株式会社 用于处理声音数据的系统和控制该系统的方法
CN110288987B (zh) * 2018-03-19 2024-02-06 三星电子株式会社 用于处理声音数据的系统和控制该系统的方法
CN113422992A (zh) * 2021-06-17 2021-09-21 歌尔股份有限公司 遥控器和电子系统
CN113422992B (zh) * 2021-06-17 2023-03-21 歌尔股份有限公司 遥控器和电子系统

Also Published As

Publication number Publication date
EP3480818A1 (en) 2019-05-08
EP3480818A4 (en) 2019-08-07
US11087755B2 (en) 2021-08-10
US20190221210A1 (en) 2019-07-18
KR102515996B1 (ko) 2023-03-31
EP3480818B1 (en) 2023-09-27
KR20180023702A (ko) 2018-03-07

Similar Documents

Publication Publication Date Title
WO2018038379A1 (ko) 음성 인식을 위한 전자 장치 및 이의 제어 방법
WO2018070639A1 (ko) 전자 장치 및 전자 장치의 오디오 신호 처리 방법
US11023755B2 (en) Detection of liveness
US20210027791A1 (en) Detection of liveness
US10560737B2 (en) Voice-controlled multimedia device
WO2018008885A1 (ko) 영상처리장치, 영상처리장치의 구동방법 및 컴퓨터 판독가능 기록매체
CN102045618B (zh) 自动调整的麦克风阵列、方法和携带麦克风阵列的装置
US20190114496A1 (en) Detection of liveness
WO2018174437A1 (en) Electronic device and controlling method thereof
WO2021025517A1 (en) Electronic device with audio zoom and operating method thereof
US11948561B2 (en) Automatic speech recognition imposter rejection on a headphone with an accelerometer
US20080082326A1 (en) Method and apparatus for active noise cancellation
KR20180012055A (ko) 전자 장치 및 전자 장치의 동작 방법
US9437188B1 (en) Buffered reprocessing for multi-microphone automatic speech recognition assist
US11437057B2 (en) Detection of TV state using sub-audible signal
WO2018038381A1 (ko) 외부 기기를 제어하는 휴대 기기 및 이의 오디오 신호 처리 방법
KR20140040230A (ko) 제어 장치, 제어 방법 및 프로그램
US11716601B2 (en) Device presence detection system
WO2019156338A1 (ko) 노이즈가 정제된 음성 신호를 획득하는 방법 및 이를 수행하는 전자 장치
WO2020017759A1 (ko) 음성인식을 위한 전자장치 및 그 제어 방법
CN113411649B (zh) 使用次声频信号的tv状态检测装置及系统
KR20180036032A (ko) 영상처리장치 및 기록매체
KR102502574B1 (ko) 오디오 신호를 처리하기 위한 장치 및 방법
WO2021107464A1 (en) Electronic device and control method thereof
WO2024053822A1 (en) System and method for receiving a voice command

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843799

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017843799

Country of ref document: EP

Effective date: 20190129

NENP Non-entry into the national phase

Ref country code: DE