WO2021187645A1 - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
WO2021187645A1
WO2021187645A1 PCT/KR2020/003862 KR2020003862W WO2021187645A1 WO 2021187645 A1 WO2021187645 A1 WO 2021187645A1 KR 2020003862 W KR2020003862 W KR 2020003862W WO 2021187645 A1 WO2021187645 A1 WO 2021187645A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
mixing level
mobile terminal
signal
mixing
Prior art date
Application number
PCT/KR2020/003862
Other languages
French (fr)
Korean (ko)
Inventor
유주현
조현학
김정곤
이건섭
송호성
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/003862 priority Critical patent/WO2021187645A1/en
Publication of WO2021187645A1 publication Critical patent/WO2021187645A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to a mobile terminal, and more particularly, to a mobile terminal capable of controlling the inflow of ambient noise.
  • the terminal may be divided into a mobile/portable terminal and a stationary terminal according to whether the terminal can be moved.
  • the mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal depending on whether the user can carry it directly.
  • the functions of mobile terminals are diversifying. For example, there are functions for data and voice communication, photography and video recording through a camera, voice recording, music file playback through a speaker system, and outputting an image or video to the display unit. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals that provide broadcast and visual content such as video or television programs.
  • a terminal is diversified in functions, for example, in the form of a multimedia player equipped with complex functions such as taking pictures or videos, playing music or video files, playing games, and receiving broadcasts. is being implemented.
  • a video shot by an individual through a terminal is uploaded to a content providing server or a server providing a social network service and shared with other users.
  • the conventional terminal is equipped with only a noise canceling function that removes ambient noise when shooting a video. Accordingly, all sounds other than the voice output by the desired object (person or object) are removed, and there is a problem in that the original sound output by the object is distorted.
  • An object of the present disclosure is to provide a mobile terminal that allows a user to introduce as much ambient noise as desired without distorting the original sound when shooting a video.
  • An object of the present disclosure is to provide a mobile terminal capable of producing content having a quality suitable for sharing through personal broadcasting and social network service (SNS) without separate voice editing.
  • SNS social network service
  • a mobile terminal includes one or more microphones for receiving an audio signal including an original sound signal and a noise signal, a camera for acquiring an image, and a mixing level for controlling an inflow of an image acquired by the camera and ambient noise Receives a request for adjusting the ambient noise through a display displaying a preview screen including an adjustment menu and the mixing level adjustment menu, determines a noise mixing level according to the received request, and determines the ambient noise level according to the determined noise mixing level It may include a processor that adjusts the amount of noise introduced.
  • the processor may mix the original sound signal and the audio signal according to the determined noise mixing level to adjust the amount of inflow of the ambient noise.
  • the processor may remove the noise signal from the voice signal to obtain an estimated original sound signal obtained by estimating the original sound signal, and may mix the estimated original sound signal and the voice signal according to the determined noise mixing level.
  • the user may control the amount of ambient noise inflow with only a simple touch input when shooting a video. Accordingly, there is an effect that a video can be captured regardless of the surrounding environment.
  • FIG. 1 shows a mobile terminal according to an embodiment of the present disclosure.
  • FIG. 2 is a view for explaining a noise removal method according to the prior art.
  • FIG 3 is a view for explaining an example of adjusting the amount of ambient noise inflow according to an embodiment of the present disclosure.
  • FIG. 4 is a view for explaining in detail a process in which a removal rate of a noise signal from an original sound signal input through a microphone is adjusted according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of operating a mobile terminal according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of a preview screen according to an embodiment of the present disclosure.
  • FIG. 7 is a table illustrating a relationship between a scaling factor and an ambient noise mixing level according to an embodiment of the present disclosure.
  • FIG. 1 shows a mobile terminal 100 according to an embodiment of the present disclosure.
  • the mobile terminal 100 includes a TV, a projector, a mobile phone, a smart phone, a desktop computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a tablet PC, a wearable device, and a set-top box (STB). ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc., may be implemented as a stationary device or a movable device.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • STB set-top box
  • the mobile terminal 100 includes a communication unit 110 , an input unit 120 , a learning processor 130 , a sensing unit 140 , an output unit 150 , a memory 170 , and a processor 180 .
  • a communication unit 110 may include
  • the communication unit 110 may transmit/receive data to and from external devices such as another mobile terminal or an external server using wired/wireless communication technology.
  • the communication unit 110 may transmit/receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
  • the communication technology used by the communication unit 110 includes GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity) ), Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • the camera or microphone may be treated as a sensor, and a signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire training data for model training and input data to be used when acquiring an output using the training model.
  • the input unit 120 may acquire raw input data, and in this case, the processor 180 or the learning processor 130 may extract an input feature as a preprocessing for the input data.
  • the input unit 120 may include a camera (Camera, 121) for inputting an image signal, a microphone (Microphone, 122) for receiving an audio signal, and a user input unit (User Input Unit, 123) for receiving information from a user. have.
  • a camera Camera
  • Microphone Microphone
  • User Input Unit User Input Unit
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user.
  • the mobile terminal 100 may include one or more Cameras 121 may be provided.
  • the camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170 .
  • the microphone 122 processes an external sound signal as electrical voice data.
  • the processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the mobile terminal 100 . Meanwhile, various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be applied to the microphone 122 .
  • the user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123 , the processor 180 may control the operation of the mobile terminal 100 to correspond to the input information. .
  • the user input unit 123 includes a mechanical input means (or a mechanical key, for example, a button located on the front/rear or side of the terminal 100, a dome switch, a jog wheel, a jog switch, etc.) and It may include a touch input means.
  • the touch input means consists of a virtual key, a soft key, or a visual key displayed on the touch screen through software processing, or a part other than the touch screen. It may be made of a touch key (touch key) disposed on the.
  • the learning processor 130 may train a model composed of an artificial neural network by using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.
  • the learning processor 130 may include a memory integrated or implemented in the mobile terminal 100 .
  • the learning processor 130 may be implemented using the memory 170 , an external memory directly coupled to the mobile terminal 100 , or a memory maintained in an external device.
  • the sensing unit 140 may acquire at least one of internal information of the mobile terminal 100 , surrounding environment information of the mobile terminal 100 , and user information by using various sensors.
  • sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.
  • the output unit 150 may generate an output related to visual, auditory or tactile sense.
  • the output unit 150 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
  • the output unit 150 includes at least one of a display unit 151, a sound output unit 152, a haptic module 153, and an optical output unit 154. can do.
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100 .
  • the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or being formed integrally with the touch sensor.
  • a touch screen may function as the user input unit 123 providing an input interface between the mobile terminal 100 and the user, and may provide an output interface between the terminal 100 and the user.
  • the sound output unit 152 may output audio data received from the communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 may include at least one of a receiver, a speaker, and a buzzer.
  • the haptic module 153 generates various tactile effects that the user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may be vibration.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event by using the light of the light source of the mobile terminal 100 .
  • Examples of the event generated in the mobile terminal 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the memory 170 may store data supporting various functions of the mobile terminal 100 .
  • the memory 170 may store input data obtained from the input unit 120 , learning data, a learning model, a learning history, and the like.
  • the processor 180 may determine at least one executable operation of the mobile terminal 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Then, the processor 180 may control the components of the mobile terminal 100 to perform the determined operation.
  • the processor 180 may request, search, receive, or utilize the data of the learning processor 130 or the memory 170, and may perform a predicted operation or an operation determined to be desirable among the at least one executable operation. It is possible to control the components of the mobile terminal 100 to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
  • the processor 180 may obtain intention information with respect to a user input and determine a user's requirement based on the obtained intention information.
  • the processor 180 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input may be obtained.
  • STT speech to text
  • NLP natural language processing
  • At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning processor 130 , learned by an external server, or learned by distributed processing thereof.
  • the processor 180 collects history information including user feedback on the operation contents or operation of the mobile terminal 100 and stores it in the memory 170 or the learning processor 130, or to an external device such as an external server. can be transmitted The collected historical information may be used to update the learning model.
  • the processor 180 may control at least some of the components of the mobile terminal 100 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the processor 180 may operate two or more of the components included in the mobile terminal 100 in combination with each other.
  • FIG. 2 is a view for explaining a noise removal method according to the prior art
  • FIG. 3 is a view for explaining an example of adjusting the amount of ambient noise inflow according to an embodiment of the present disclosure.
  • the noise removal module 200 removes the noise signal n from the voice signal y including the original sound signal s0 and the noise signal n.
  • the noise removal module 200 may output the estimated original sound signal s1 similar to the input original sound signal s.
  • the noise removal module 200 may identify the noise signal n, generate a signal having a waveform opposite to that of the identified noise signal n, and cancel the noise signal n.
  • the noise signal n can be effectively removed, there is a problem in that the noise signal n corresponding to the ambient noise signal is always removed.
  • an inflow amount of ambient noise is to be adjusted.
  • the mobile terminal 100 may include a noise removal module 310 and a mixer 330 .
  • the noise removal module 310 and the mixer 330 may be included in the processor 180 of FIG. 1 or may exist separately from the processor 180 .
  • the microphone 122 may receive a voice signal y from the outside.
  • the voice signal y may include an original sound signal s0 corresponding to the voice output by the target object and a noise signal n corresponding to ambient noise.
  • the noise removal module 310 may output the estimated original sound signal s1 obtained by removing the noise signal n from the voice signal y.
  • the noise removal module 310 may separate the original sound signal s0 and the noise signal n from the voice signal y.
  • the noise removal module 310 may generate an opposite signal having a waveform opposite to that of the noise signal n, and cancel the noise signal n by using the generated opposite signal. Accordingly, an estimated original sound signal s1 similar to the original sound signal s0 may be obtained.
  • the mixer 330 may mix the estimated original sound signal s1 and the original sound signal y, and output the mixed result.
  • the mixer 330 may mix the estimated original sound signal s1 and the audio signal y using the scaling factor ⁇ .
  • the mixing voice signal which is the mixing result of the mixer 330, may be expressed as Equation 1 below.
  • the scaling factor ( ⁇ ) is a factor used to adjust the amount of ambient noise, and may be any one of 0 or more and 1 or less.
  • the reason that the voice signal y is used instead of the noise signal n in the (1- ⁇ ) y item corresponding to the amount of ambient noise is that the estimated original sound signal s1 is used in the process of removing the noise signal n. because it was distorted.
  • the voice signal y is used instead of the noise signal n. This is because the audio signal y includes the original sound signal s0 to compensate for distortion of the estimated original sound signal s1.
  • the amount of ambient noise introduced may be 0.
  • the amount of ambient noise introduced may be 1.
  • the value of the scaling factor ⁇ may be set as a default or may be set according to a user input.
  • the value of the scaling factor ⁇ may be associated with an ambient noise mixing level determined through manipulation of a mixing level adjustment menu, which will be described later.
  • the amount of ambient noise can be adjusted, so that the user can remove the ambient noise to a desired degree.
  • a sense of presence appropriate to the recording environment of the video may be delivered to the viewer of the video.
  • FIG. 4 is a view for explaining in detail a process in which a removal rate of a noise signal from an original sound signal input through a microphone is adjusted according to an embodiment of the present disclosure.
  • the mobile terminal 100 may include a plurality of microphones.
  • two microphones 122a and 122b are used as an example.
  • the processor 180 may include a noise removal module 310 , a preprocessor 320 , a mixer 330 , and a postprocessor 350 .
  • the noise removal module 310 may remove a noise signal from a voice signal input through the first microphone 122a or the second microphone 122b.
  • the preprocessor 320 may preprocess the voice signal input through the first microphone 122a or the second microphone 122b.
  • the mixer 330 may mix the original sound signal from which the noise signal is removed and the audio signal.
  • the mixer 330 may mix an original sound signal and an audio signal based on the ambient noise mixing level.
  • the post-processing unit 350 may post-process the mixed voice signal representing the output result of the mixer 330 .
  • the noise removal module 310 may include a first amplifier 311 , a first digital filter 313 , a signal separator 315 , and a first dynamic range compressor 317 .
  • the first amplifier 311 may amplify a voice signal input through the first microphone 122a or the second microphone 122b.
  • the first digital filter 313 may filter the amplified voice signal.
  • the first digital filter 313 may correct the tone characteristics of the voice signal.
  • the signal separator 315 may separate the filtered voice signal into an original sound signal and a noise signal.
  • the signal separation unit 315 may separate a voice signal into an original sound signal and a noise signal by using a well-known deep learning algorithm or machine learning algorithm for noise cancellation.
  • the noise signal may be a signal corresponding to the surrounding voice signal.
  • the signal separator 315 may obtain an estimated original sound signal obtained by estimating the original sound signal by removing the separated noise signal.
  • the first dynamic range compressor 317 may compress the dynamic range of the estimated original sound signal.
  • the dynamic range of the estimated original sound signal may be a range between the largest magnitude and the smallest magnitude of the estimated original sound signal.
  • the preprocessor 320 may include a delay time compensator 321 , a second amplifier 323 , and a second digital filter 325 .
  • the delay time compensator 321 determines the time it takes for the voice signal to be output to the mixer 330 through the noise removal module 310 and the time it takes for the voice signal to be output to the mixer 330 through the preprocessor 320 . difference can be compensated for.
  • the delay time compensator 321 may compensate for the delay time through phase shifting of the voice signal.
  • the second amplifier 323 may amplify the audio signal.
  • the second digital filter 325 may filter the amplified voice signal.
  • the second digital filter 325 may correct distortion of the amplified voice signal.
  • the mixer 330 may mix the estimated original sound signal output from the noise removal module 310 and the filtered audio signal output from the preprocessor 320 .
  • the mixer 330 may mix the estimated original sound signal and the audio signal based on the ambient noise mixing level, and may output a mixed audio signal indicating the mixing result.
  • the post-processing unit 350 may include a second dynamic range compressor 351 , a third amplifier 353 , and an encoder 355 .
  • the second dynamic range compressor 351 may compress the dynamic range of the mixed voice signal output from the mixer 330 .
  • the third amplifier 353 may amplify a mixed voice signal having a compressed dynamic range.
  • the encoder 355 may encode the amplified speech signal.
  • the encoded mixed voice signal may be matched with a moving picture and stored in the memory 170 .
  • the encoded mixed voice signal, the moving picture, and the ambient noise mixing level may be stored together in the memory 170 .
  • FIG. 5 is a flowchart illustrating a method of operating a mobile terminal according to an embodiment of the present disclosure.
  • the processor 180 of the mobile terminal 100 displays a preview screen on the display unit 151 ( S501 ).
  • the processor 180 may display a preview screen on the display unit 151 according to the execution of the camera application installed in the mobile terminal 100 .
  • the preview screen may include an image capturing button for capturing an image and a video capturing button for capturing a moving picture.
  • the processor 180 may start recording a video when a video recording button is selected.
  • the preview screen will be described with reference to FIG. 6 .
  • FIG. 6 is a diagram illustrating an example of a preview screen according to an embodiment of the present disclosure.
  • the preview screen 600 may include a preview image 610 acquired through the camera 121 , a mixing level adjustment menu 630 , and a video recording button 601 .
  • the mixing level adjustment menu 630 may be a menu for adjusting the amount of ambient noise introduced through one or more microphones while shooting a video.
  • the mixing level adjustment menu 630 will be described later in detail.
  • the video recording button 601 may be a button for starting or ending recording of a video.
  • FIG. 5 will be described.
  • the processor 180 of the mobile terminal 100 preview While displaying the screen, it is determined whether a request for controlling the ambient noise has been received (S503), and if the request for controlling the ambient noise is received, the ambient noise level is adjusted according to the received request. mixing The level is determined (S505).
  • the processor 18 may receive a request for adjusting the ambient noise after shooting a video.
  • the processor 180 may receive a request for adjusting ambient noise even before shooting a video. That is, the processor 180 may receive a request for adjusting the ambient noise even when the preview image 610 of FIG. 6 is displayed and the video capture button 601 is not selected.
  • the ambient noise control request may be received through manipulation of the mixing level control menu 630 on the preview screen 600 of FIG. 6 . This will be described later.
  • the processor 180 may determine the mixing level of the ambient noise through manipulation of the mixing level adjustment menu 630 .
  • the preview screen 600 may include a mixing level adjustment menu 630 .
  • the mixing level adjustment menu 630 may be displayed when a video recording command is received.
  • the mixing level adjustment menu 630 includes one or more of a minimum level icon 631 , a maximum level icon 633 , a mixing level adjustment guide bar 635 , a mixing level adjustment button 637 , and a mixing level indicator 639 . can do.
  • the minimum level icon 631 may be an icon for maximally reducing ambient noise. When the minimum level icon 631 is selected, the ambient voice mixing level may be set to the minimum.
  • the minimum value of the ambient voice mixing level may be 0, and the maximum value of the ambient voice mixing level may be 100. However, this is only an example, and may vary according to user settings.
  • the maximum level icon 633 may be an icon for maximally increasing ambient noise. When the maximum level icon 633 is selected, the ambient voice mixing level may be set to the maximum.
  • the mixing level adjustment guide bar 635 may guide selection of a mixing level of ambient noise.
  • the mixing level adjusting guide bar 635 may be divided into a plurality of levels.
  • the mixing level adjustment button 637 may move on the mixing level adjustment guide bar 635 and may be a button for selecting a specific mixing level.
  • the mixing level adjustment button 637 may be located at any one of a plurality of levels partitioned on the mixing level adjustment guide bar 635 .
  • a user may select a mixing level of ambient noise through a touch input to the mixing level adjustment button 637 .
  • the mixing level indicator 639 may be an indicator indicating the value of the mixing level selected through the mixing level control button 637 . The user may check how much of the ambient noise is introduced through the mixing level indicator 639 .
  • the amount of ambient noise may be increased, and as the value of the mixing level indicator 639 decreases, the amount of ambient noise may decrease.
  • the value of the scaling factor ⁇ may be 1.
  • the value of the scaling factor ⁇ may be 0.
  • FIG. 5 will be described.
  • the processor 180 of the mobile terminal 100 separates the voice signal input through the microphone 122 into an original sound signal and an ambient noise signal (S507).
  • the processor 180 may separate the voice signal into an original sound signal and an ambient noise signal.
  • the ambient noise signal may be a noise signal.
  • the noise removal module 310 of the processor 180 may separate the voice signal into an original sound signal and an ambient noise signal and remove the ambient noise signal. Accordingly, the processor 180 may obtain an estimated original sound signal similar to the original sound signal.
  • the processor 180 may use a well-known deep learning algorithm or machine learning algorithm for noise cancellation to separate an original sound signal and an ambient sound signal from a voice signal, and may remove the surrounding voice signal.
  • the processor 180 of the mobile terminal 100 determines the ambient noise mixing Based on the level, the separated original sound signal and the audio signal input through the microphone 122 are mix (S509).
  • the mixer 330 of the processor 180 may generate a mixed voice signal by mixing the separated original sound signal and the voice signal.
  • the accurately separated original sound signal may be the estimated original sound signal s1.
  • the mixed voice signal representing the mixing result may be expressed as in [Equation 1] below.
  • the scaling factor ( ⁇ ) is a factor used to adjust the amount of ambient noise, and may be any one of 0 or more and 1 or less.
  • the scaling factor ⁇ may be a value corresponding to the ambient noise mixing level. As the value of the ambient noise mixing level increases, the value of the scaling factor ⁇ may decrease. As the value of the ambient noise mixing level decreases, the value of the scaling factor ⁇ may increase.
  • the processor 180 of the mobile terminal 100 determines whether a video recording end command has been received (S511), and upon receiving the video recording end command, the captured video and mixing indicating the result mixing Voice signal and ambient noise mixing The level is stored in the memory 170 (S513).
  • the processor 180 may output a mixed voice signal reflecting the mixing result through a speaker provided in the mobile terminal 100 when playing the video.
  • the processor 180 of the mobile terminal 100 does not receive the ambient noise control request. if not , preset ambient noise mixing A level is acquired (S515).
  • the processor 180 may determine the amount of ambient noise introduced by using a preset ambient noise mixing level.
  • the preset ambient noise mixing level may be the most recently stored ambient noise mixing level before shooting a video.
  • the preset ambient noise mixing level may be a default level.
  • the level set by default may be 50, but this is only an example.
  • FIG. 7 is a table illustrating a relationship between a scaling factor and an ambient noise mixing level according to an embodiment of the present disclosure.
  • the scaling factor ⁇ is a factor described in [Equation 1], and the ambient noise mixing level is a level selected from the mixing level adjustment menu 630 of FIG. 6 .
  • the value of the scaling factor ⁇ may be set to 0.
  • the value of the scaling factor ⁇ may be set to 0.2.
  • the value of the scaling factor ⁇ may be set to 0.5.
  • the value of the scaling factor ⁇ may be set to 0.8.
  • the value of the scaling factor ⁇ may be set to 0.
  • the processor 180 may obtain the ambient noise mixing level selected from the mixing level adjustment menu 630 and determine a scaling factor ⁇ corresponding to the obtained ambient noise mixing level.
  • the processor 180 may obtain a mixed voice signal as in [Equation 1] by using the determined value of the scaling factor ⁇ .
  • the present disclosure described above can be implemented as computer-readable code on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is this
  • the computer may include the processor 180 of the artificial intelligence device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)

Abstract

The present disclosure relates to a mobile terminal capable of adjusting the input amount of ambient noise, and the mobile terminal can comprise: one or more microphones for receiving a speech signal including an original sound signal and a noise signal; a camera for acquiring a video; a display for displaying a preview screen including a mixing level adjustment menu for adjusting the image acquired by the camera and the input amount of ambient noise; and a processor for receiving a request for the ambient noise adjustment through the mixing level adjustment menu, determining a noise mixing level according to the received request, and adjusting the input amount of ambient noise according to the determined noise mixing level.

Description

이동 단말기mobile terminal
본 발명은 이동 단말기에 관한 것으로, 보다 상세하게는 주변 소음의 유입을 제어할 수 있는 이동 단말기에 관한 것이다.The present invention relates to a mobile terminal, and more particularly, to a mobile terminal capable of controlling the inflow of ambient noise.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치 형 단말기(vehicle mounted terminal)로 나뉠 수 있다. The terminal may be divided into a mobile/portable terminal and a stationary terminal according to whether the terminal can be moved. Again, the mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal depending on whether the user can carry it directly.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions for data and voice communication, photography and video recording through a camera, voice recording, music file playback through a speaker system, and outputting an image or video to the display unit. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals that provide broadcast and visual content such as video or television programs.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. As such a terminal is diversified in functions, for example, in the form of a multimedia player equipped with complex functions such as taking pictures or videos, playing music or video files, playing games, and receiving broadcasts. is being implemented.
최근에는, 단말기를 통해 개인이 촬영한 동영상을 컨텐트 제공 서버나, 소셜 네트워크 서비스를 제공하는 서버에 업로드하여, 다른 사용자와 공유하고 있다.Recently, a video shot by an individual through a terminal is uploaded to a content providing server or a server providing a social network service and shared with other users.
다만, 종래의 단말기는 동영상 촬영 시, 주변 소음을 제거하는 노이즈 캔슬링 기능만 구비되어 있다. 이에 따라, 원하는 오브젝트(사람 또는 물체)가 출력하는 음성 이외의 모든 소리가 제거되어, 오브젝트가 출력하는 원음에 왜곡이 발생되는 문제가 있다.However, the conventional terminal is equipped with only a noise canceling function that removes ambient noise when shooting a video. Accordingly, all sounds other than the voice output by the desired object (person or object) are removed, and there is a problem in that the original sound output by the object is distorted.
또한, 노이즈 캔슬링 기능만 제거한 경우, 동영상의 촬영 환경의 현장감 전달에 취약한 문제도 있다.In addition, when only the noise canceling function is removed, there is a problem in that the realism of the shooting environment of the moving picture is transmitted.
본 개시는 동영상 촬영 시, 원음이 왜곡되지 않으면서, 사용자가 원하는 만큼 주변 소음을 유입할 수 있도록 하는 이동 단말기의 제공을 목적으로 한다.An object of the present disclosure is to provide a mobile terminal that allows a user to introduce as much ambient noise as desired without distorting the original sound when shooting a video.
본 개시는 별도의 음성 편집 없이, 개인 방송 및 소셜 네트워크 서비스(SNS)를 통한 공유에 적합한 품질의 음성을 갖는 컨텐트를 제작할 수 있도록 하는 이동 단말기의 제공을 목적으로 한다.An object of the present disclosure is to provide a mobile terminal capable of producing content having a quality suitable for sharing through personal broadcasting and social network service (SNS) without separate voice editing.
본 개시의 실시 예에 따른 이동 단말기는 원음 신호 및 노이즈 신호를 포함하는 음성 신호를 수신하는 하나 이상의 마이크로폰, 영상을 획득하는 카메라, 상기 카메라가 획득한 영상 및 주변 소음의 유입량을 조절하기 위한 믹싱 레벨 조절 메뉴를 포함하는 프리뷰 화면을 표시하는 디스플레이 및 상기 믹싱 레벨 조절 메뉴를 통해 상기 주변 소음 조절을 위한 요청을 수신하고, 수신된 요청에 따라 소음 믹싱 레벨을 결정하고, 결정된 소음 믹싱 레벨에 따라 상기 주변 소음의 유입량을 조절하는 프로세서를 포함할 수 있다.A mobile terminal according to an embodiment of the present disclosure includes one or more microphones for receiving an audio signal including an original sound signal and a noise signal, a camera for acquiring an image, and a mixing level for controlling an inflow of an image acquired by the camera and ambient noise Receives a request for adjusting the ambient noise through a display displaying a preview screen including an adjustment menu and the mixing level adjustment menu, determines a noise mixing level according to the received request, and determines the ambient noise level according to the determined noise mixing level It may include a processor that adjusts the amount of noise introduced.
상기 프로세서는 상기 결정된 소음 믹싱 레벨에 따라 상기 원음 신호와 상기 음성 신호를 믹싱하여, 상기 주변 소음의 유입량을 조절할 수 있다.The processor may mix the original sound signal and the audio signal according to the determined noise mixing level to adjust the amount of inflow of the ambient noise.
상기 프로세서는 상기 음성 신호로부터 상기 노이즈 신호를 제거하여, 상기 원음 신호를 추정한 추정 원음 신호를 획득하고, 상기 결정된 소음 믹싱 레벨에 따라 상기 추정 원음 신호와 상기 음성 신호를 믹싱할 수 있다.The processor may remove the noise signal from the voice signal to obtain an estimated original sound signal obtained by estimating the original sound signal, and may mix the estimated original sound signal and the voice signal according to the determined noise mixing level.
본 개시의 실시 예에 따르면, 사용자는 동영상 촬영 시, 간단한 터치 입력 만으로, 주변 소음의 유입량을 제어할 수 있다. 이에 따라, 주변 환경에 구애 받지 않고, 동영상을 촬영할 수 있는 효과가 있다.According to an embodiment of the present disclosure, the user may control the amount of ambient noise inflow with only a simple touch input when shooting a video. Accordingly, there is an effect that a video can be captured regardless of the surrounding environment.
또한, 시끄러운 곳에서도, 동영상을 촬영할 수 있고, 잡음 제거 성능이 우수한 효과가 있다.In addition, it is possible to shoot a video even in a noisy place, and there is an effect of excellent noise removal performance.
또한, 동영상의 촬영 후, 편집 없이, 개인 방송 또는 SNS를 위한 서버에 바로 업로드할 수 있어, 사용자의 편의성이 크게 향상될 수 있다.In addition, after shooting a video, it can be uploaded directly to a server for personal broadcasting or SNS without editing, so that the user's convenience can be greatly improved.
도 1은 본 개시의 일 실시 예에 따른 이동 단말기를 나타낸다.1 shows a mobile terminal according to an embodiment of the present disclosure.
도 2는 종래 기술에 따른 노이즈 제거 방식을 설명하는 도면이다.2 is a view for explaining a noise removal method according to the prior art.
도 3은 본 개시의 실시 예에 따른 주변 소음 유입량을 조절하는 예를 설명하는 도면이다.3 is a view for explaining an example of adjusting the amount of ambient noise inflow according to an embodiment of the present disclosure.
도 4는 본 개시의 실시 예에 따라 마이크로폰을 통해 입력된 원음 신호로부터 노이즈 신호의 제거 비율이 조절되는 과정을 상세히 설명하는 도면이다.4 is a view for explaining in detail a process in which a removal rate of a noise signal from an original sound signal input through a microphone is adjusted according to an embodiment of the present disclosure.
도 5는 본 개시의 실시 예에 따른 이동 단말기의 동작 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of operating a mobile terminal according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시 예에 따른 프리뷰 화면의 예를 보여주는 도면이다.6 is a diagram illustrating an example of a preview screen according to an embodiment of the present disclosure.
도 7은 본 개시의 실시 예에 따른 스케일링 팩터와 주변 소음 믹싱 레벨 간의 관계를 설명하는 표이다.7 is a table illustrating a relationship between a scaling factor and an ambient noise mixing level according to an embodiment of the present disclosure.
도 1은 본 개시의 일 실시 예에 따른 이동 단말기(100)를 나타낸다.1 shows a mobile terminal 100 according to an embodiment of the present disclosure.
이동 단말기(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다. The mobile terminal 100 includes a TV, a projector, a mobile phone, a smart phone, a desktop computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a tablet PC, a wearable device, and a set-top box (STB). ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc., may be implemented as a stationary device or a movable device.
도 1을 참조하면, 이동 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180)를 포함할 수 있다.Referring to FIG. 1 , the mobile terminal 100 includes a communication unit 110 , an input unit 120 , a learning processor 130 , a sensing unit 140 , an output unit 150 , a memory 170 , and a processor 180 . may include
통신부(110)는 유무선 통신 기술을 이용하여 다른 이동 단말기나 외부 서버와 같은 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The communication unit 110 may transmit/receive data to and from external devices such as another mobile terminal or an external server using wired/wireless communication technology. For example, the communication unit 110 may transmit/receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.At this time, the communication technology used by the communication unit 110 includes GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity) ), Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.The input unit 120 may acquire various types of data.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like. Here, the camera or microphone may be treated as a sensor, and a signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The input unit 120 may acquire training data for model training and input data to be used when acquiring an output using the training model. The input unit 120 may acquire raw input data, and in this case, the processor 180 or the learning processor 130 may extract an input feature as a preprocessing for the input data.
입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다. The input unit 120 may include a camera (Camera, 121) for inputting an image signal, a microphone (Microphone, 122) for receiving an audio signal, and a user input unit (User Input Unit, 123) for receiving information from a user. have.
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.The input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user. For input of image information, the mobile terminal 100 may include one or more Cameras 121 may be provided.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.The camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170 .
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.The microphone 122 processes an external sound signal as electrical voice data. The processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the mobile terminal 100 . Meanwhile, various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be applied to the microphone 122 .
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. The user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123 , the processor 180 may control the operation of the mobile terminal 100 to correspond to the input information. .
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 단말기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The user input unit 123 includes a mechanical input means (or a mechanical key, for example, a button located on the front/rear or side of the terminal 100, a dome switch, a jog wheel, a jog switch, etc.) and It may include a touch input means. As an example, the touch input means consists of a virtual key, a soft key, or a visual key displayed on the touch screen through software processing, or a part other than the touch screen. It may be made of a touch key (touch key) disposed on the.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning processor 130 may train a model composed of an artificial neural network by using the training data. Here, the learned artificial neural network may be referred to as a learning model. The learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.
이때, 러닝 프로세서(130)는 이동 단말기(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), 이동 단말기(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the learning processor 130 may include a memory integrated or implemented in the mobile terminal 100 . Alternatively, the learning processor 130 may be implemented using the memory 170 , an external memory directly coupled to the mobile terminal 100 , or a memory maintained in an external device.
센싱부(140)는 다양한 센서들을 이용하여 이동 단말기(100) 내부 정보, 이동 단말기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The sensing unit 140 may acquire at least one of internal information of the mobile terminal 100 , surrounding environment information of the mobile terminal 100 , and user information by using various sensors.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The output unit 150 may generate an output related to visual, auditory or tactile sense.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the output unit 150 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다. The output unit 150 includes at least one of a display unit 151, a sound output unit 152, a haptic module 153, and an optical output unit 154. can do.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the mobile terminal 100 . For example, the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or being formed integrally with the touch sensor. Such a touch screen may function as the user input unit 123 providing an input interface between the mobile terminal 100 and the user, and may provide an output interface between the terminal 100 and the user.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. The sound output unit 152 may output audio data received from the communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.The sound output unit 152 may include at least one of a receiver, a speaker, and a buzzer.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.The haptic module 153 generates various tactile effects that the user can feel. A representative example of the tactile effect generated by the haptic module 153 may be vibration.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event by using the light of the light source of the mobile terminal 100 . Examples of the event generated in the mobile terminal 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The memory 170 may store data supporting various functions of the mobile terminal 100 . For example, the memory 170 may store input data obtained from the input unit 120 , learning data, a learning model, a learning history, and the like.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 이동 단말기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 이동 단말기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The processor 180 may determine at least one executable operation of the mobile terminal 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Then, the processor 180 may control the components of the mobile terminal 100 to perform the determined operation.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 이동 단말기(100)의 구성 요소들을 제어할 수 있다.To this end, the processor 180 may request, search, receive, or utilize the data of the learning processor 130 or the memory 170, and may perform a predicted operation or an operation determined to be desirable among the at least one executable operation. It is possible to control the components of the mobile terminal 100 to execute.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The processor 180 may obtain intention information with respect to a user input and determine a user's requirement based on the obtained intention information.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다. In this case, the processor 180 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input may be obtained.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, 외부 서버에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning processor 130 , learned by an external server, or learned by distributed processing thereof.
프로세서(180)는 이동 단말기(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, 외부 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The processor 180 collects history information including user feedback on the operation contents or operation of the mobile terminal 100 and stores it in the memory 170 or the learning processor 130, or to an external device such as an external server. can be transmitted The collected historical information may be used to update the learning model.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 이동 단말기(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 180 may control at least some of the components of the mobile terminal 100 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the processor 180 may operate two or more of the components included in the mobile terminal 100 in combination with each other.
도 2는 종래 기술에 따른 노이즈 제거 방식을 설명하는 도면이고, 도 3은 본 개시의 실시 예에 따른 주변 소음 유입량을 조절하는 예를 설명하는 도면이다.FIG. 2 is a view for explaining a noise removal method according to the prior art, and FIG. 3 is a view for explaining an example of adjusting the amount of ambient noise inflow according to an embodiment of the present disclosure.
도 2를 참조하면, 종래 기술에 따른 노이즈 제거 모듈(200)은 원음 신호(s0) 및 노이즈 신호(n)를 포함하는 음성 신호(y)로부터 노이즈 신호(n)를 제거한다.Referring to FIG. 2 , the noise removal module 200 according to the related art removes the noise signal n from the voice signal y including the original sound signal s0 and the noise signal n.
이에 따라, 노이즈 제거 모듈(200)은 입력된 원음 신호(s)에 유사한, 추정 원음 신호(s1)를 출력할 수 있다.Accordingly, the noise removal module 200 may output the estimated original sound signal s1 similar to the input original sound signal s.
노이즈 제거 모듈(200)은 노이즈 신호(n)를 식별하고, 식별된 노이즈 신호(n)의 파형과 정 반대의 파형을 갖는 신호를 생성하여, 노이즈 신호(n)를 상쇄시킬 수 있다.The noise removal module 200 may identify the noise signal n, generate a signal having a waveform opposite to that of the identified noise signal n, and cancel the noise signal n.
종래 기술에 따를 경우, 노이즈 신호(n)를 효과적으로 제거할 수는 있으나, 주변 소음 신호에 상응하는 노이즈 신호(n)가 항상 제거되는 문제가 있다.According to the prior art, although the noise signal n can be effectively removed, there is a problem in that the noise signal n corresponding to the ambient noise signal is always removed.
즉, 노이즈 신호(n)가 제거됨에 따라 원음 신호(s0)의 왜곡이 발생될 수 있고, 주변 환경이 어떤 환경인지 인지되지 못하는 문제가 있다.That is, as the noise signal n is removed, distortion of the original sound signal s0 may occur, and there is a problem in that the surrounding environment is not recognized.
또한, 모든 노이즈 신호(n)가 제거됨에 따라 동영상 촬영의 현장감 전달에 취약한 문제가 있다.In addition, as all the noise signals n are removed, there is a problem in that the realism of moving pictures is transmitted.
이러한 문제를 해결하기 위해, 본 개시의 실시 예에서는, 주변 소음의 유입량을 조절하고자 한다.In order to solve this problem, in an embodiment of the present disclosure, an inflow amount of ambient noise is to be adjusted.
도 3을 참조하면, 이동 단말기(100)는 노이즈 제거 모듈(310) 및 믹서(330)를 포함할 수 있다.Referring to FIG. 3 , the mobile terminal 100 may include a noise removal module 310 and a mixer 330 .
노이즈 제거 모듈(310) 및 믹서(330)는 도 1의 프로세서(180)에 포함될 수도 있고, 프로세서(180)와 별도로 존재할 수도 있다.The noise removal module 310 and the mixer 330 may be included in the processor 180 of FIG. 1 or may exist separately from the processor 180 .
마이크로폰(122)은 외부로부터 음성 신호(y)를 수신할 수 있다. 음성 신호(y)는 타겟 오브젝트가 출력하는 음성에 상응하는 원음 신호(s0) 및 주변 소음에 상응하는 노이즈 신호(n)를 포함할 수 있다.The microphone 122 may receive a voice signal y from the outside. The voice signal y may include an original sound signal s0 corresponding to the voice output by the target object and a noise signal n corresponding to ambient noise.
노이즈 제거 모듈(310)은 음성 신호(y)로부터 노이즈 신호(n)를 제거한 추정 원음 신호(s1)를 출력할 수 있다. The noise removal module 310 may output the estimated original sound signal s1 obtained by removing the noise signal n from the voice signal y.
노이즈 제거 모듈(310)은 음성 신호(y)로부터 원음 신호(s0) 및 노이즈 신호(n)를 분리할 수 있다.The noise removal module 310 may separate the original sound signal s0 and the noise signal n from the voice signal y.
노이즈 제거 모듈(310)은 노이즈 신호(n)와 정 반대의 파형을 갖는 반대 신호를 생성하고, 생성된 반대 신호를 이용하여, 노이즈 신호(n)를 상쇄시킬 수 있다. 이에 따라, 원음 신호(s0)와 유시한 추정 원음 신호(s1)가 얻어질 수 있다.The noise removal module 310 may generate an opposite signal having a waveform opposite to that of the noise signal n, and cancel the noise signal n by using the generated opposite signal. Accordingly, an estimated original sound signal s1 similar to the original sound signal s0 may be obtained.
믹서(330)는 추정 원음 신호(s1)와 원음 신호(y)를 믹싱하고, 믹싱된 결과를 출력할 수 있다.The mixer 330 may mix the estimated original sound signal s1 and the original sound signal y, and output the mixed result.
믹서(330)는 스케일링 팩터(α)를 이용하여, 추정 원음 신호(s1) 및 음성 신호(y)를 믹싱할 수 있다.The mixer 330 may mix the estimated original sound signal s1 and the audio signal y using the scaling factor α.
믹서(330)의 믹싱 결과인 믹싱 음성 신호는 다음의 수학식 1과 같이 표현될 수 있다.The mixing voice signal, which is the mixing result of the mixer 330, may be expressed as Equation 1 below.
[수학식 1][Equation 1]
Figure PCTKR2020003862-appb-img-000001
Figure PCTKR2020003862-appb-img-000001
여기서, 스케일링 팩터(α)는 주변 소음의 유입량을 조절하는데 사용되는 팩터로, 0 이상 1 이하의 값 중 어느 하나일 수 있다.Here, the scaling factor (α) is a factor used to adjust the amount of ambient noise, and may be any one of 0 or more and 1 or less.
주변 소음 유입량에 상응하는 (1-α)·y 항목에서, 노이즈 신호(n) 대신, 음성 신호(y)가 사용된 이유는, 추정 원음 신호(s1)가 노이즈 신호(n)의 제거 과정에서 왜곡되었기 때문이다.The reason that the voice signal y is used instead of the noise signal n in the (1-α) y item corresponding to the amount of ambient noise is that the estimated original sound signal s1 is used in the process of removing the noise signal n. because it was distorted.
즉, 추정 원음 신호(s1)의 왜곡을 보상하기 위해, 주변 소음 유입량에 상응하는 (1-α)·y 항목에서, 노이즈 신호(n) 대신, 음성 신호(y)가 사용되었다. 음성 신호(y)는 원음 신호(s0)를 포함하여, 추정 원음 신호(s1)의 왜곡을 보상할 수 있기 때문이다.That is, in order to compensate for the distortion of the estimated original sound signal s1, in the (1-α)·y item corresponding to the amount of ambient noise, the voice signal y is used instead of the noise signal n. This is because the audio signal y includes the original sound signal s0 to compensate for distortion of the estimated original sound signal s1.
스케일링 팩터(α)의 값이 1인 경우, 주변 소음의 유입량은 0일 수 있다.When the value of the scaling factor α is 1, the amount of ambient noise introduced may be 0.
스케일링 팩터(α)의 값이 0인 경우, 주변 소음의 유입량은 1일 수 있다. When the value of the scaling factor α is 0, the amount of ambient noise introduced may be 1.
스케일링 팩터(α)의 값은 디폴트로 설정되거나, 사용자 입력에 따라 설정될 수 있다. 스케일링 팩터(α)의 값은 후술할, 믹싱 레벨 조절 메뉴의 조작을 통해 결정된 주변 소음 믹싱 레벨과 연계될 수 있다.The value of the scaling factor α may be set as a default or may be set according to a user input. The value of the scaling factor α may be associated with an ambient noise mixing level determined through manipulation of a mixing level adjustment menu, which will be described later.
스케일링 팩터(α)의 값의 설정에 대해서는 후술한다.The setting of the value of the scaling factor α will be described later.
이와 같이, 본 개시의 실시 예에 따르면, 주변 소음의 유입량이 조절될 수 있어, 사용자가 원하는 정도로 주변 소음을 제거할 수 있다. As described above, according to an embodiment of the present disclosure, the amount of ambient noise can be adjusted, so that the user can remove the ambient noise to a desired degree.
이에 따라, 동영상의 촬영 환경에 맞는 현장감이 동영상의 시청자에게 전달될 수 있다.Accordingly, a sense of presence appropriate to the recording environment of the video may be delivered to the viewer of the video.
도 4는 본 개시의 실시 예에 따라 마이크로폰을 통해 입력된 원음 신호로부터 노이즈 신호의 제거 비율이 조절되는 과정을 상세히 설명하는 도면이다.4 is a view for explaining in detail a process in which a removal rate of a noise signal from an original sound signal input through a microphone is adjusted according to an embodiment of the present disclosure.
이동 단말기(100)는 복수의 마이크로폰들을 포함할 수 있다.The mobile terminal 100 may include a plurality of microphones.
도 4에서는, 2개의 마이크로폰(122a, 122b)이 사용됨을 예로 들어 설명한다.In FIG. 4 , two microphones 122a and 122b are used as an example.
도 4를 참조하면, 프로세서(180)는 노이즈 제거 모듈(310), 전처리부(320), 믹서(330) 및 후처리부(350)를 포함할 수 있다.Referring to FIG. 4 , the processor 180 may include a noise removal module 310 , a preprocessor 320 , a mixer 330 , and a postprocessor 350 .
노이즈 제거 모듈(310)은 제1 마이크로폰(122a) 또는 제2 마이크로폰(122b)을 통해 입력된 음성 신호로부터 노이즈 신호를 제거할 수 있다.The noise removal module 310 may remove a noise signal from a voice signal input through the first microphone 122a or the second microphone 122b.
전처리부(320)는 제1 마이크로폰(122a) 또는 제2 마이크로폰(122b)을 통해 입력된 음성 신호를 전처리할 수 있다.The preprocessor 320 may preprocess the voice signal input through the first microphone 122a or the second microphone 122b.
믹서(330)는 노이즈 신호가 제거된 원음 신호 및 음성 신호를 믹싱할 수 있다.The mixer 330 may mix the original sound signal from which the noise signal is removed and the audio signal.
믹서(330)는 주변 소음 믹싱 레벨에 기초하여, 원음 신호 및 음성 신호를 믹싱할 수 있다.The mixer 330 may mix an original sound signal and an audio signal based on the ambient noise mixing level.
후처리부(350)는 믹서(330)의 출력 결과를 나타내는 믹싱 음성 신호를 후 처리할 수 있다.The post-processing unit 350 may post-process the mixed voice signal representing the output result of the mixer 330 .
이하에서는, 각 구성의 기능을 보다 상세히 설명한다.Hereinafter, the function of each configuration will be described in more detail.
노이즈 제거 모듈(310)은 제1 증폭부(311), 제1 디지털 필터(313), 신호 분리부(315) 및 제1 다이내믹 레인지 컴프레서(317)를 포함할 수 있다.The noise removal module 310 may include a first amplifier 311 , a first digital filter 313 , a signal separator 315 , and a first dynamic range compressor 317 .
제1 증폭부(311)는 제1 마이크로폰(122a) 또는 제2 마이크로폰(122b)을 통해 입력된 음성 신호를 증폭할 수 있다.The first amplifier 311 may amplify a voice signal input through the first microphone 122a or the second microphone 122b.
제1 디지털 필터(313)는 증폭된 음성 신호를 필터링할 수 있다. 제1 디지털 필터(313)는 음성 신호의 음색 특성을 보정할 수 있다.The first digital filter 313 may filter the amplified voice signal. The first digital filter 313 may correct the tone characteristics of the voice signal.
신호 분리부(315)는 필터링된 음성 신호를 원음 신호 및 노이즈 신호로 분리할 수 있다.The signal separator 315 may separate the filtered voice signal into an original sound signal and a noise signal.
신호 분리부(315)는 노이즈 캔슬링을 위한 공지된 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 이용하여, 음성 신호를 원음 신호 및 노이즈 신호로 분리할 수 있다. 노이즈 신호는 주변 음성 신호에 대응되는 신호일 수 있다.The signal separation unit 315 may separate a voice signal into an original sound signal and a noise signal by using a well-known deep learning algorithm or machine learning algorithm for noise cancellation. The noise signal may be a signal corresponding to the surrounding voice signal.
신호 분리부(315)는 분리된 노이즈 신호를 제거하여, 원음 신호를 추정한 추정 원음 신호를 획득할 수 있다.The signal separator 315 may obtain an estimated original sound signal obtained by estimating the original sound signal by removing the separated noise signal.
제1 다이나믹 레인지 컴프레서(317)는 추정 원음 신호의 다이나믹 레인지를 압축할 수 있다. 추정 원음 신호의 다이내믹 레인지는 추정 원음 신호의 가장 큰 크기와 가장 작은 크기 사이의 범위일 수 있다.The first dynamic range compressor 317 may compress the dynamic range of the estimated original sound signal. The dynamic range of the estimated original sound signal may be a range between the largest magnitude and the smallest magnitude of the estimated original sound signal.
전처리부(320)는 지연 시간 보상부(321), 제2 증폭부(323) 및 제2 디지털 필터(325)를 포함할 수 있다.The preprocessor 320 may include a delay time compensator 321 , a second amplifier 323 , and a second digital filter 325 .
지연 시간 보상부(321)는 음성 신호가 노이즈 제거 모듈(310)을 통해 믹서(330)로 출력되기 까지 걸리는 시간과 음성 신호가 전처리부(320)를 통해 믹서(330)로 출력되기 까지 걸리는 시간 간의 차이를 보상할 수 있다. 지연 시간 보상부(321)는 음성 신호의 페이즈 시프팅을 통해, 지연 시간을 보상할 수 있다.The delay time compensator 321 determines the time it takes for the voice signal to be output to the mixer 330 through the noise removal module 310 and the time it takes for the voice signal to be output to the mixer 330 through the preprocessor 320 . difference can be compensated for. The delay time compensator 321 may compensate for the delay time through phase shifting of the voice signal.
제2 증폭부(323)는 음성 신호를 증폭할 수 있다.The second amplifier 323 may amplify the audio signal.
제2 디지털 필터(325)는 증폭된 음성 신호를 필터링할 수 있다. 제2 디지털 필터(325)는 증폭된 음성 신호의 왜곡을 보정할 수 있다.The second digital filter 325 may filter the amplified voice signal. The second digital filter 325 may correct distortion of the amplified voice signal.
믹서(330)는 노이즈 제거 모듈(310)에서 출력된 추정 원음 신호 및 전처리부(320)에서 출력된 필터링된 음성 신호를 믹싱할 수 있다.The mixer 330 may mix the estimated original sound signal output from the noise removal module 310 and the filtered audio signal output from the preprocessor 320 .
믹서(330)는 주변 소음 믹싱 레벨에 기초하여, 추정 원음 신호 및 음성 신호를 믹싱하고, 믹싱 결과를 나타내는 믹싱 음성 신호를 출력할 수 있다.The mixer 330 may mix the estimated original sound signal and the audio signal based on the ambient noise mixing level, and may output a mixed audio signal indicating the mixing result.
후처리부(350)는 제2 다이나믹 레인지 컴프레서(351), 제3 증폭부(353) 및 인코더(355)를 포함할 수 있다.The post-processing unit 350 may include a second dynamic range compressor 351 , a third amplifier 353 , and an encoder 355 .
제2 다이나믹 레인지 컴프레서(351)는 믹서(330)의 출력인 믹싱 음성 신호의 다이나믹 레인지를 압축할 수 있다.The second dynamic range compressor 351 may compress the dynamic range of the mixed voice signal output from the mixer 330 .
제3 증폭부(353)는 다이나믹 레인지가 압축된 믹싱 음성 신호를 증폭할 수 있다.The third amplifier 353 may amplify a mixed voice signal having a compressed dynamic range.
인코더(355)는 증폭된 음성 신호를 인코딩할 수 있다.The encoder 355 may encode the amplified speech signal.
인코딩된 믹싱 음성 신호는 동영상과 매칭되어, 메모리(170)에 저장될 수 있다.The encoded mixed voice signal may be matched with a moving picture and stored in the memory 170 .
또 다른 예로, 인코딩된 믹싱 음성 신호, 동영상 및 주변 소음 믹싱 레벨이 함께, 메모리(170)에 저장될 수 있다.As another example, the encoded mixed voice signal, the moving picture, and the ambient noise mixing level may be stored together in the memory 170 .
도 5는 본 개시의 실시 예에 따른 이동 단말기의 동작 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of operating a mobile terminal according to an embodiment of the present disclosure.
도 5를 참조하면, 이동 단말기(100)의 프로세서(180)는 프리뷰 화면을 디스플레이부 (151) 상에 표시한다(S501). Referring to FIG. 5 , the processor 180 of the mobile terminal 100 displays a preview screen on the display unit 151 ( S501 ).
프로세서(180)는 이동 단말기(100)에 설치된 카메라 어플리케이션의 실행에 따라 프리뷰 화면을 디스플레이부(151) 상에 표시할 수 있다.The processor 180 may display a preview screen on the display unit 151 according to the execution of the camera application installed in the mobile terminal 100 .
프리뷰 화면은 이미지를 촬영하기 위한 이미지 촬영 버튼 및 동영상을 촬영하기 위한 동영상 촬영 버튼을 포함할 수 있다.The preview screen may include an image capturing button for capturing an image and a video capturing button for capturing a moving picture.
프로세서(180)는 동영상 촬영 버튼이 선택된 경우, 동영상 촬영을 개시할 수 있다.The processor 180 may start recording a video when a video recording button is selected.
프리뷰 화면에 대해서는, 도 6을 참조하여 설명한다.The preview screen will be described with reference to FIG. 6 .
도 6은 본 개시의 일 실시 예에 따른 프리뷰 화면의 예를 보여주는 도면이다.6 is a diagram illustrating an example of a preview screen according to an embodiment of the present disclosure.
도 6을 참조하면, 프리뷰 화면(600)은 카메라(121)를 통해 획득된 프리뷰 영상(610), 믹싱 레벨 조절 메뉴(630), 동영상 촬영 버튼(601)을 포함할 수 있다.Referring to FIG. 6 , the preview screen 600 may include a preview image 610 acquired through the camera 121 , a mixing level adjustment menu 630 , and a video recording button 601 .
믹싱 레벨 조절 메뉴(630)은 동영상의 촬영 중, 하나 이상의 마이크로폰을 통해 유입되는 주변 소음의 유입량을 조절하기 위한 메뉴일 수 있다.The mixing level adjustment menu 630 may be a menu for adjusting the amount of ambient noise introduced through one or more microphones while shooting a video.
믹싱 레벨 조절 메뉴(630)에 대해서는 자세히 후술한다.The mixing level adjustment menu 630 will be described later in detail.
동영상 촬영 버튼(601)은 동영상의 촬영을 개시 또는 종료하기 위한 버튼일 수 있다.The video recording button 601 may be a button for starting or ending recording of a video.
다시, 도 5를 설명한다.Again, FIG. 5 will be described.
이동 단말기(100)의 프로세서(180)는 The processor 180 of the mobile terminal 100 프리뷰preview 화면의 표시 중, 주변 소음 조절 요청을 수신했는지를 판단하고(S503), 주변 소음 조절 요청을 수신한 경우, 수신된 요청에 따라 주변 소음의 While displaying the screen, it is determined whether a request for controlling the ambient noise has been received (S503), and if the request for controlling the ambient noise is received, the ambient noise level is adjusted according to the received request. 믹싱mixing 레벨을 결정한다(S505). The level is determined (S505).
일 실시 예에서, 프로세서(18)는 동영상 촬영 후, 주변 소음 조절 요청을 수신할 수 있다.In an embodiment, the processor 18 may receive a request for adjusting the ambient noise after shooting a video.
또 다른 실시 예에서, 프로세서(180)는 동영상 촬영 전이라도, 주변 소음 조절을 위한 요청을 수신할 수 있다. 즉, 프로세서(180)는 도 6의 프리뷰 영상(610)이 표시되고 있고, 동영상 촬영 버튼(601)이 선택되지 않은 상태에서도, 주변 소음 조절을 위한 요청을 수신할 수 있다.In another embodiment, the processor 180 may receive a request for adjusting ambient noise even before shooting a video. That is, the processor 180 may receive a request for adjusting the ambient noise even when the preview image 610 of FIG. 6 is displayed and the video capture button 601 is not selected.
주변 소음 조절 요청은 도 6의 프리뷰 화면(600) 상에서, 믹싱 레벨 조절 메뉴(630)의 조작을 통해 수신할 수 있다. 이에 대해서는 후술한다.The ambient noise control request may be received through manipulation of the mixing level control menu 630 on the preview screen 600 of FIG. 6 . This will be described later.
프로세서(180)는 믹싱 레벨 조절 메뉴(630)의 조작을 통해 주변 소음의 믹싱 레벨을 결정할 수 있다.The processor 180 may determine the mixing level of the ambient noise through manipulation of the mixing level adjustment menu 630 .
이에 대해서는, 다시, 도 6을 참조하여 설명한다.This will be described again with reference to FIG. 6 .
도 6을 참조하면, 프리뷰 화면(600)은 믹싱 레벨 조절 메뉴(630)를 포함할 수 있다.Referring to FIG. 6 , the preview screen 600 may include a mixing level adjustment menu 630 .
믹싱 레벨 조절 메뉴(630)는 동영상 촬영 명령을 수신한 경우, 표시될 수 있다.The mixing level adjustment menu 630 may be displayed when a video recording command is received.
믹싱 레벨 조절 메뉴(630)는 최소 레벨 아이콘(631), 최대 레벨 아이콘(633), 믹싱 레벨 조절 가이드 바(635), 믹싱 레벨 조절 버튼(637) 및 믹싱 레벨 인디케이터(639) 중 하나 이상을 포함할 수 있다.The mixing level adjustment menu 630 includes one or more of a minimum level icon 631 , a maximum level icon 633 , a mixing level adjustment guide bar 635 , a mixing level adjustment button 637 , and a mixing level indicator 639 . can do.
최소 레벨 아이콘(631)은 주변 소음을 최대로 줄이기 위한 아이콘일 수 있다. 최소 레벨 아이콘(631)이 선택된 경우, 주변 음성 믹싱 레벨은 최소로 설정될 수 있다. The minimum level icon 631 may be an icon for maximally reducing ambient noise. When the minimum level icon 631 is selected, the ambient voice mixing level may be set to the minimum.
주변 음성 믹싱 레벨의 최소 값은 0이고, 주변 음성 믹싱 레벨의 최대 값은 100일 수 있다. 그러나, 이는 예시에 불과한 수치이고, 사용자의 설정에 따라 달라질 수 있다.The minimum value of the ambient voice mixing level may be 0, and the maximum value of the ambient voice mixing level may be 100. However, this is only an example, and may vary according to user settings.
최대 레벨 아이콘(633)은 주변 소음을 최대로 늘이기 위한 아이콘일 수 있다. 최대 레벨 아이콘(633)이 선택된 경우, 주변 음성 믹싱 레벨은 최대로 설정될 수 있다.The maximum level icon 633 may be an icon for maximally increasing ambient noise. When the maximum level icon 633 is selected, the ambient voice mixing level may be set to the maximum.
믹싱 레벨 조절 가이드 바(635)는 주변 소음의 믹싱 레벨의 선택을 가이드할 수 있다. 믹싱 레벨 조절 가이드 바(635)는 복수의 레벨들로 구획될 수 있다.The mixing level adjustment guide bar 635 may guide selection of a mixing level of ambient noise. The mixing level adjusting guide bar 635 may be divided into a plurality of levels.
믹싱 레벨 조절 버튼(637)은 믹싱 레벨 조절 가이드 바(635) 상을 이동 가능하고, 특정 믹싱 레벨을 선택하기 위한 버튼일 수 있다.The mixing level adjustment button 637 may move on the mixing level adjustment guide bar 635 and may be a button for selecting a specific mixing level.
믹싱 레벨 조절 버튼(637)은 믹싱 레벨 조절 가이드 바(635) 상에서 구획된 복수의 레벨들 중 어느 하나에 위치될 수 있다.The mixing level adjustment button 637 may be located at any one of a plurality of levels partitioned on the mixing level adjustment guide bar 635 .
사용자는 믹싱 레벨 조절 버튼(637)에 대한 터치 입력을 통해 주변 소음의 믹싱 레벨을 선택할 수 있다.A user may select a mixing level of ambient noise through a touch input to the mixing level adjustment button 637 .
믹싱 레벨 인디케이터(639)는 믹싱 레벨 조절 버튼(637)을 통해 선택된 믹싱 레벨의 수치를 나타내는 인디케이터일 수 있다. 사용자는 믹싱 레벨 인디케이터(639)를 통해 주변 소음의 유입량이 어느 정도인지를 확인할 수 있다.The mixing level indicator 639 may be an indicator indicating the value of the mixing level selected through the mixing level control button 637 . The user may check how much of the ambient noise is introduced through the mixing level indicator 639 .
믹싱 레벨 인디케이터(639)의 값이 커질수록 주변 소음의 유입량이 증가될 수 있고, 믹싱 레벨 인디케이터(639)의 값이 작아질수록 주변 소음의 유입량이 감소될 수 있다.As the value of the mixing level indicator 639 increases, the amount of ambient noise may be increased, and as the value of the mixing level indicator 639 decreases, the amount of ambient noise may decrease.
하기의 [수학식 1]과, 주변 음성 믹싱 레벨 간의 관계를 설명한다.A relationship between the following [Equation 1] and the ambient voice mixing level will be described.
[수학식 1][Equation 1]
Figure PCTKR2020003862-appb-img-000002
Figure PCTKR2020003862-appb-img-000002
주변 음성 믹싱 레벨의 값이 최소인 0인 경우, 스케일링 팩터(α)의 값은 1일 수 있다. When the value of the ambient voice mixing level is 0, which is the minimum, the value of the scaling factor α may be 1.
주변 음성 믹싱 레벨의 값이 최대인 1인 경우, 스케일링 팩터(α)의 값은 0일 수 있다.When the value of the ambient voice mixing level is 1, which is the maximum, the value of the scaling factor α may be 0.
다시, 도 5를 설명한다.Again, FIG. 5 will be described.
이동 단말기(100)의 프로세서(180)는 마이크로폰(122)을 통해 입력된 음성 신호를 원음 신호 및 주변 소음 신호로 분리한다(S507).The processor 180 of the mobile terminal 100 separates the voice signal input through the microphone 122 into an original sound signal and an ambient noise signal (S507).
프로세서(180)는 음성 신호를 원음 신호 및 주변 소음 신호로 분리할 수 있다. 주변 소음 신호는 노이즈 신호일 수 있다.The processor 180 may separate the voice signal into an original sound signal and an ambient noise signal. The ambient noise signal may be a noise signal.
프로세서(180)의 노이즈 제거 모듈(310)은 음성 신호를 원음 신호와 주변 소음 신호로 분리하고, 주변 소음 신호를 제거할 수 있다. 이에 따라, 프로세서(180)는 원음 신호와 유사한 추정 원음 신호를 획득할 수 있다.The noise removal module 310 of the processor 180 may separate the voice signal into an original sound signal and an ambient noise signal and remove the ambient noise signal. Accordingly, the processor 180 may obtain an estimated original sound signal similar to the original sound signal.
프로세서(180)는 노이즈 캔슬링을 위한 공지된 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 이용하여, 음성 신호로부터 원음 신호와 주변 음성 신호를 분리하고, 주변 음성 신호를 제거할 수 있다.The processor 180 may use a well-known deep learning algorithm or machine learning algorithm for noise cancellation to separate an original sound signal and an ambient sound signal from a voice signal, and may remove the surrounding voice signal.
이동 단말기(100)의 프로세서(180)는 결정된 주변 소음 The processor 180 of the mobile terminal 100 determines the ambient noise 믹싱mixing 레벨에 기초하여, 분리된 원음 신호 및 마이크로폰(122)을 통해 입력된 음성 신호를 Based on the level, the separated original sound signal and the audio signal input through the microphone 122 are 믹싱한다mix (S509).(S509).
프로세서(180)의 믹서(330)는 분리된 원음 신호 및 음성 신호를 믹싱하여, 믹싱 음성 신호를 생성할 수 있다. 정확하게 분리된 원음 신호는 추정 원음 신호(s1)일 수 있다.The mixer 330 of the processor 180 may generate a mixed voice signal by mixing the separated original sound signal and the voice signal. The accurately separated original sound signal may be the estimated original sound signal s1.
믹싱 결과를 나타내는 믹싱 음성 신호는 다음의 [수학식 1]과 같이, 표현될 수 있다.The mixed voice signal representing the mixing result may be expressed as in [Equation 1] below.
[수학식 1][Equation 1]
Figure PCTKR2020003862-appb-img-000003
Figure PCTKR2020003862-appb-img-000003
여기서, 스케일링 팩터(α)는 주변 소음의 유입량을 조절하는데 사용되는 팩터로, 0 이상 1 이하의 값 중 어느 하나일 수 있다.Here, the scaling factor (α) is a factor used to adjust the amount of ambient noise, and may be any one of 0 or more and 1 or less.
스케일링 팩터(α)는 주변 소음 믹싱 레벨에 대응되는 값일 수 있다. 주변 소음 믹싱 레벨의 값이 커질수록 스케일링 팩터(α)의 값은 작아지고, 주변 소음 믹싱 레벨의 값이 작아질수록 스케일링 팩터(α)의 값은 커질 수 있다.The scaling factor α may be a value corresponding to the ambient noise mixing level. As the value of the ambient noise mixing level increases, the value of the scaling factor α may decrease. As the value of the ambient noise mixing level decreases, the value of the scaling factor α may increase.
이동 단말기(100)의 프로세서(180)는 동영상 촬영 종료 명령을 수신했는지를 판단하고(S511), 동영상 촬영 종료 명령을 수신한 경우, 촬영된 동영상 및 The processor 180 of the mobile terminal 100 determines whether a video recording end command has been received (S511), and upon receiving the video recording end command, the captured video and 믹싱mixing 결과를 나타내는 indicating the result 믹싱mixing 음성 신호 및 주변 소음 Voice signal and ambient noise 믹싱mixing 레벨을 메모리(170)에 저장한다(S513). The level is stored in the memory 170 (S513).
프로세서(180)는 저장된 동영상을 재생하는 요청을 수신한 경우, 동영상을 재생 시, 믹싱 결과를 반영한 믹싱 음성 신호를 이동 단말기(100)에 구비된 스피커를 통해 출력할 수 있다.When receiving a request to play a stored video, the processor 180 may output a mixed voice signal reflecting the mixing result through a speaker provided in the mobile terminal 100 when playing the video.
한편, 이동 단말기(100)의 프로세서(180)는 주변 소음 조절 요청을 수신하지 Meanwhile, the processor 180 of the mobile terminal 100 does not receive the ambient noise control request. 않은 경우if not , , 기 설정된preset 주변 소음 ambient noise 믹싱mixing 레벨을 획득한다(S515). A level is acquired (S515).
즉, 프로세서(180)는 주변 소음 조절 요청을 수신하지 않은 경우, 기 설정된 주변 소음 믹싱 레벨을 이용하여, 주변 소음 유입량을 결정할 수 있다.That is, if the processor 180 does not receive the ambient noise control request, the processor 180 may determine the amount of ambient noise introduced by using a preset ambient noise mixing level.
기 설정된 주변 소음 믹싱 레벨은 동영상의 촬영 전, 가장 최근에 저장된 주변 소음 믹싱 레벨일 수 있다.The preset ambient noise mixing level may be the most recently stored ambient noise mixing level before shooting a video.
또 다른 예로, 기 설정된 주변 소음 믹싱 레벨은 디폴트로 설정된 레벨일 수 있다. 디폴트로 설정된 레벨은 50일 수 있으나, 예시에 불과하다.As another example, the preset ambient noise mixing level may be a default level. The level set by default may be 50, but this is only an example.
도 7은 본 개시의 실시 예에 따른 스케일링 팩터와 주변 소음 믹싱 레벨 간의 관계를 설명하는 표이다.7 is a table illustrating a relationship between a scaling factor and an ambient noise mixing level according to an embodiment of the present disclosure.
스케일링 팩터(α)는 [수학식 1]에서 설명되는 팩터이고, 주변 소음 믹싱 레벨은 도 6의 믹싱 레벨 조절 메뉴(630)에서 선택된 레벨이다.The scaling factor α is a factor described in [Equation 1], and the ambient noise mixing level is a level selected from the mixing level adjustment menu 630 of FIG. 6 .
주변 소음 믹싱 레벨이 100으로 설정된 경우, 스케일링 팩터(α)의 값은 0으로 설정될 수 있다.When the ambient noise mixing level is set to 100, the value of the scaling factor α may be set to 0.
주변 소음 믹싱 레벨이 80으로 설정된 경우, 스케일링 팩터(α)의 값은 0.2로 설정될 수 있다.When the ambient noise mixing level is set to 80, the value of the scaling factor α may be set to 0.2.
주변 소음 믹싱 레벨이 50으로 설정된 경우, 스케일링 팩터(α)의 값은 0.5로 설정될 수 있다.When the ambient noise mixing level is set to 50, the value of the scaling factor α may be set to 0.5.
주변 소음 믹싱 레벨이 20으로 설정된 경우, 스케일링 팩터(α)의 값은 0.8로 설정될 수 있다.When the ambient noise mixing level is set to 20, the value of the scaling factor α may be set to 0.8.
주변 소음 믹싱 레벨이 0으로 설정된 경우, 스케일링 팩터(α)의 값은 0으로 설정될 수 있다.When the ambient noise mixing level is set to 0, the value of the scaling factor α may be set to 0.
프로세서(180)는 믹싱 레벨 조절 메뉴(630)에서 선택된 주변 소음 믹싱 레벨을 획득하고, 획득된 주변 소음 믹싱 레벨에 상응하는 스케일링 팩터(α)를 결정할 수 있다.The processor 180 may obtain the ambient noise mixing level selected from the mixing level adjustment menu 630 and determine a scaling factor α corresponding to the obtained ambient noise mixing level.
프로세서(180)는 결정된 스케일링 팩터(α)의 값을 이용하여, [수학식 1]과 같은 믹싱 음성 신호를 획득할 수 있다.The processor 180 may obtain a mixed voice signal as in [Equation 1] by using the determined value of the scaling factor α.
전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 인공 지능 기기의 프로세서(180)를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is this In addition, the computer may include the processor 180 of the artificial intelligence device.

Claims (13)

  1. 이동 단말기에 있어서,In a mobile terminal,
    원음 신호 및 노이즈 신호를 포함하는 음성 신호를 수신하는 하나 이상의 마이크로폰;one or more microphones for receiving a voice signal including an original sound signal and a noise signal;
    영상을 획득하는 카메라;a camera for acquiring an image;
    상기 카메라가 획득한 영상 및 주변 소음의 유입량을 조절하기 위한 믹싱 레벨 조절 메뉴를 포함하는 프리뷰 화면을 표시하는 디스플레이; 및a display for displaying a preview screen including a mixing level adjustment menu for adjusting an inflow amount of the image acquired by the camera and ambient noise; and
    상기 믹싱 레벨 조절 메뉴를 통해 상기 주변 소음 조절을 위한 요청을 수신하고, 수신된 요청에 따라 소음 믹싱 레벨을 결정하고, 결정된 소음 믹싱 레벨에 따라 상기 주변 소음의 유입량을 조절하는 프로세서를 포함하는A processor configured to receive a request for adjusting the ambient noise through the mixing level adjustment menu, determine a noise mixing level according to the received request, and adjust the amount of ambient noise introduced according to the determined noise mixing level
    이동 단말기.mobile terminal.
  2. 제1항에 있어서,According to claim 1,
    상기 프로세서는the processor
    상기 결정된 소음 믹싱 레벨에 따라 상기 원음 신호와 상기 음성 신호를 믹싱하여, 상기 주변 소음의 유입량을 조절하는Mixing the original sound signal and the audio signal according to the determined noise mixing level to adjust the amount of inflow of the ambient noise
    이동 단말기.mobile terminal.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는the processor
    상기 음성 신호로부터 상기 노이즈 신호를 제거하여, 상기 원음 신호를 추정한 추정 원음 신호를 획득하고,removing the noise signal from the voice signal to obtain an estimated original sound signal estimating the original sound signal;
    상기 결정된 소음 믹싱 레벨에 따라 상기 추정 원음 신호와 상기 음성 신호를 믹싱하는mixing the estimated original sound signal and the audio signal according to the determined noise mixing level;
    이동 단말기.mobile terminal.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 프로세서는the processor
    다음의 [수학식 1]을 이용하여, 상기 추정 원음 신호와 상기 음성 신호를 믹싱하는Mixing the estimated original sound signal and the audio signal using the following [Equation 1]
    [수학식 1][Equation 1]
    Figure PCTKR2020003862-appb-img-000004
    Figure PCTKR2020003862-appb-img-000004
    α는 0부터 1까지의 값을 갖는 스케일링 팩터이고, s1은 상기 추정 원음 신호이고, y는 상기 음성 신호이고,α is a scaling factor having a value from 0 to 1, s1 is the estimated original sound signal, y is the audio signal,
    상기 스케일링 팩터는 상기 소음 믹싱 레벨에 따라 정해지는 값인The scaling factor is a value determined according to the noise mixing level.
    이동 단말기.mobile terminal.
  5. 제4항에 있어서,5. The method of claim 4,
    상기 소음 믹싱 레벨이 커질수록 상기 스케일링 팩터의 값은 감소하고, 상기 소음 믹싱 레벨이 작아질수록 상기 스케일링 팩터의 값은 증가하는As the noise mixing level increases, the value of the scaling factor decreases, and as the noise mixing level decreases, the value of the scaling factor increases.
    이동 단말기.mobile terminal.
  6. 제4항에 있어서,5. The method of claim 4,
    메모리를 더 포함하고,more memory,
    상기 프로세서는the processor
    상기 추정 원음 신호와 상기 음성 신호의 믹싱 결과를 나타내는 믹싱 음성 신호, 상기 카메라를 통해 촬영된 동영상 및 상기 소음 믹싱 레벨을 상기 메모리에 저장하는storing a mixed audio signal indicating a mixing result of the estimated original sound signal and the audio signal, a moving picture captured by the camera, and the noise mixing level in the memory
    이동 단말기.mobile terminal.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 프로세서는the processor
    상기 동영상을 재생하는 요청을 수신한 경우, 상기 동영상의 재생 시, 상기 믹싱 음성 신호를 출력하는When a request to play the video is received, when the video is played, the mixing voice signal is output.
    이동 단말기.mobile terminal.
  8. 제3항에 있어서,4. The method of claim 3,
    상기 프로세서는the processor
    상기 음성 신호로부터 상기 노이즈 신호를 제거하여, 상기 추정 원음 신호를 출력하는 노이즈 캔슬링 모듈,a noise canceling module that removes the noise signal from the voice signal and outputs the estimated original sound signal;
    상기 음성 신호를 전처리하는 전처리부 및a pre-processing unit for pre-processing the audio signal; and
    상기 추정 원음 신호 및 전처리된 음성 신호를 상기 소음 믹싱 레벨에 따라 믹싱하는 믹서를 포함하는and a mixer for mixing the estimated original sound signal and the preprocessed audio signal according to the noise mixing level
    이동 단말기.mobile terminal.
  9. 제1항에 있어서,According to claim 1,
    상기 믹싱 레벨 조절 메뉴는The mixing level adjustment menu is
    상기 소음 믹싱 레벨의 선택을 가이드 하는 믹싱 레벨 조절 가이드 바 및a mixing level control guide bar for guiding the selection of the noise mixing level; and
    상기 믹싱 레벨 조절 가이드 바 상에서 이동 가능하며, 특정 소음 믹싱 레벨을 선택하기 위한 믹싱 레벨 조절 버튼을 포함하는It is movable on the mixing level adjustment guide bar and includes a mixing level adjustment button for selecting a specific noise mixing level.
    이동 단말기.mobile terminal.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 믹싱 레벨 조절 메뉴는The mixing level adjustment menu is
    상기 믹싱 레벨 조절 버튼을 통해 선택된 상기 소음 믹싱 레벨을 수치화한 믹싱 레벨 인디케이터를 더 포함하는Further comprising a mixing level indicator that digitizes the noise mixing level selected through the mixing level adjustment button
    이동 단말기.mobile terminal.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 믹싱 레벨 조절 메뉴는The mixing level adjustment menu is
    상기 소음 믹싱 레벨을 최소로 설정하기 위한 최소 레벨 아이콘 및 상기 소음 믹싱 레벨을 최대로 설정하기 위한 최대 레벨 아이콘을 더 포함하는Further comprising a minimum level icon for setting the noise mixing level to a minimum and a maximum level icon for setting the noise mixing level to a maximum
    이동 단말기.mobile terminal.
  12. 제9항에 있어서,10. The method of claim 9,
    상기 주변 소음 조절을 위한 요청은 사용자의 터치 입력을 통해 상기 믹싱 레벨 조절 버튼을 조작함에 의해 수신되는The request for adjusting the ambient noise is received by operating the mixing level adjustment button through a user's touch input.
    이동 단말기.mobile terminal.
  13. 제1항에 있어서,According to claim 1,
    상기 프로세서는the processor
    동영상 촬영 명령을 수신한 경우, 상기 믹싱 레벨 조절 메뉴를 상기 디스플레이 상에 표시하는When receiving a video recording command, displaying the mixing level adjustment menu on the display
    이동 단말기.mobile terminal.
PCT/KR2020/003862 2020-03-20 2020-03-20 Mobile terminal WO2021187645A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/003862 WO2021187645A1 (en) 2020-03-20 2020-03-20 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/003862 WO2021187645A1 (en) 2020-03-20 2020-03-20 Mobile terminal

Publications (1)

Publication Number Publication Date
WO2021187645A1 true WO2021187645A1 (en) 2021-09-23

Family

ID=77768208

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003862 WO2021187645A1 (en) 2020-03-20 2020-03-20 Mobile terminal

Country Status (1)

Country Link
WO (1) WO2021187645A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093454A (en) * 1996-08-08 1998-04-10 Motorola Inc Device and method for generating noise within digital receiver
KR20120034863A (en) * 2010-10-04 2012-04-13 삼성전자주식회사 Method and apparatus processing audio signal in a mobile communication terminal
KR101516589B1 (en) * 2008-03-25 2015-05-06 에스케이텔레콤 주식회사 Mobile Communication Terminal and Voice Signal Processing Method Thereof
KR20160000345A (en) * 2014-06-24 2016-01-04 엘지전자 주식회사 Mobile terminal and the control method thereof
KR20160055023A (en) * 2014-11-07 2016-05-17 엘지전자 주식회사 Mobile terminal and method of controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093454A (en) * 1996-08-08 1998-04-10 Motorola Inc Device and method for generating noise within digital receiver
KR101516589B1 (en) * 2008-03-25 2015-05-06 에스케이텔레콤 주식회사 Mobile Communication Terminal and Voice Signal Processing Method Thereof
KR20120034863A (en) * 2010-10-04 2012-04-13 삼성전자주식회사 Method and apparatus processing audio signal in a mobile communication terminal
KR20160000345A (en) * 2014-06-24 2016-01-04 엘지전자 주식회사 Mobile terminal and the control method thereof
KR20160055023A (en) * 2014-11-07 2016-05-17 엘지전자 주식회사 Mobile terminal and method of controlling the same

Similar Documents

Publication Publication Date Title
WO2015194693A1 (en) Video display device and operation method therefor
EP3430811A1 (en) Electronic apparatus and method of operating the same
WO2016175424A1 (en) Mobile terminal and method for controlling same
WO2016182361A1 (en) Gesture recognition method, computing device, and control device
WO2020251074A1 (en) Artificial intelligence robot for providing voice recognition function and operation method thereof
WO2019135433A1 (en) Display device and system comprising same
WO2021060575A1 (en) Artificial intelligence server and operation method thereof
WO2022010177A1 (en) Device and method for generating summary video
WO2018066788A1 (en) Display device
WO2021187645A1 (en) Mobile terminal
WO2015142135A1 (en) Method and device for displaying image
WO2021201320A1 (en) Display device
WO2022102945A1 (en) Electronic device and control method thereof
WO2022169039A1 (en) Electronic apparatus and controlling method thereof
WO2021193991A1 (en) Display device
WO2020122271A1 (en) Display device
WO2020235724A1 (en) Display device
WO2024005241A1 (en) Display device and operating method therefor
WO2021162173A1 (en) Multi-camera, device for capturing image, and method therefor
WO2023182624A1 (en) Display device
WO2023095947A1 (en) Display device and method for operating same
WO2024010129A1 (en) Display device and operation method thereof
WO2023008621A1 (en) Wireless display device, wireless set-top box, and wireless display system
WO2024117508A1 (en) Electronic device and method for providing virtual space
WO2022065662A1 (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926058

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926058

Country of ref document: EP

Kind code of ref document: A1