WO2021162316A1 - 오디오를 제어하는 전자 장치 및 방법 - Google Patents

오디오를 제어하는 전자 장치 및 방법 Download PDF

Info

Publication number
WO2021162316A1
WO2021162316A1 PCT/KR2021/001367 KR2021001367W WO2021162316A1 WO 2021162316 A1 WO2021162316 A1 WO 2021162316A1 KR 2021001367 W KR2021001367 W KR 2021001367W WO 2021162316 A1 WO2021162316 A1 WO 2021162316A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
audio
processor
output
risk
Prior art date
Application number
PCT/KR2021/001367
Other languages
English (en)
French (fr)
Inventor
최광용
김현중
김두현
김미선
김상헌
서미라
오효민
임연욱
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021162316A1 publication Critical patent/WO2021162316A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • Embodiments disclosed in this document may relate to a technique for controlling audio, specifically, an audio signal.
  • the user adjusts the reproduction volume of the audio device in order to minimize auditory damage with clear sound quality.
  • the user's left and right ears have no choice but to uniformly adjust the reproduction volume. Just as the vision in both eyes is different, so is the hearing in the left and right ears.
  • the technical problem to be achieved by an embodiment disclosed in this document is to provide an audio control method and apparatus capable of accurately measuring the amount of audio signal energy applied to a user.
  • the technical problem to be achieved by an embodiment disclosed in this document is to provide an audio control method and apparatus capable of measuring and displaying an amount of audio signal energy in consideration of a user's hearing characteristics.
  • the technical problem to be achieved by the embodiment disclosed in this document is to provide a volume monitor function according to the user's auditory characteristics and audio signal energy amount to the user, and to provide an audio control method and apparatus capable of displaying the same.
  • An electronic device includes a communication circuit, a display, a memory and a processor configured to receive data from or transmit data to the at least one external device, and the memory
  • the processor determines an output method of the audio based on the audio input, and analyzes the signal energy of the audio based on at least one of a frame size change or a period change based on the determined output method, and It is possible to predict a risk level based on the signal usage of audio, and store instructions for displaying at least one of the signal energy or the predicted risk level through the display.
  • the method performed by the electronic device is based on at least one of determining an output method of audio based on an audio input, changing the size of a frame based on the determined output method, or changing a period to analyze the signal energy of the audio, predicting a level of risk based on the signal usage of the audio, and displaying at least one of the signal energy or the predicted level of risk through a display of the electronic device. have.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a block diagram illustrating a program according to various embodiments.
  • FIG. 3 is a flowchart of a method for an electronic device to control audio, according to an embodiment.
  • FIG. 4 is a flowchart of a method for an electronic device to determine an audio output method, according to an embodiment.
  • FIG. 5 is a flowchart of a method for an electronic device to analyze audio signal energy, according to an embodiment.
  • 6A is an exemplary diagram of a method for an electronic device to analyze audio signal energy according to an exemplary embodiment.
  • 6B is a conceptual diagram illustrating a method for an electronic device to analyze audio signal energy according to an exemplary embodiment.
  • FIG. 7 is a flowchart of a method for an electronic device to predict a risk level of audio signal usage, according to an embodiment.
  • FIG. 8 is an exemplary diagram of a linear regression model established according to a method of controlling audio by an electronic device.
  • FIG. 9 is an exemplary diagram of a UI displayed on a screen of the electronic device according to a method for controlling audio by the electronic device.
  • FIG. 10 is an exemplary diagram of a UI for providing detailed information displayed on a screen of the electronic device according to a method of controlling audio by the electronic device.
  • 11 is an exemplary view of a UI for displaying a warning message on a screen when an audio volume of an electronic device reaches a dangerous level.
  • FIG. 12 is an exemplary view of a UI provided by the electronic device to change notification settings for a warning message.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as one integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphics processing unit, an image signal processor) that can be operated independently or in conjunction with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphics processing unit, an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 may be, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. there is.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected directly or wirelessly with the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the electronic device 102 may output a sound.
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • the corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, Alternatively, it may communicate with the external electronic device 104 through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified and authenticated.
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 and 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 is a block diagram 200 illustrating a program 140 in accordance with various embodiments.
  • the program 140 executes an operating system 142 , middleware 144 , or an application 146 executable in the operating system 142 for controlling one or more resources of the electronic device 101 .
  • may include Operating system 142 may include, for example, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, or BadaTM.
  • At least some of the programs 140 are, for example, preloaded into the electronic device 101 at the time of manufacture, or an external electronic device (eg, the electronic device 102 or 104 ), or a server (eg, the electronic device 102 or 104 ) when used by a user ( 108)), or may be updated.
  • the operating system 142 may control management (eg, allocation or retrieval) of one or more system resources (eg, a process, memory, or power) of the electronic device 101 .
  • the operating system 142 may additionally or alternatively include other hardware devices of the electronic device 101 , for example, the input device 150 , the sound output device 155 , the display device 160 , and the audio module 170 . , sensor module 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or It may include one or more driver programs for driving the antenna module 197 .
  • the middleware 144 may provide various functions to the application 146 so that functions or information provided from one or more resources of the electronic device 101 may be used by the application 146 .
  • the middleware 144 includes, for example, an application manager 201 , a window manager 203 , a multimedia manager 205 , a resource manager 207 , a power manager 209 , a database manager 211 , and a package manager 213 . ), a connectivity manager 215 , a notification manager 217 , a location manager 219 , a graphics manager 221 , a security manager 223 , a call manager 225 , or a voice recognition manager 227 .
  • an application manager 201 includes, for example, an application manager 201 , a window manager 203 , a multimedia manager 205 , a resource manager 207 , a power manager 209 , a database manager 211 , and a package manager 213 .
  • a connectivity manager 215 a notification manager 217 , a
  • the application manager 201 may manage the life cycle of the application 146 , for example.
  • the window manager 203 may manage one or more GUI resources used in a screen, for example.
  • the multimedia manager 205 for example, identifies one or more formats required for playback of media files, and encodes or decodes a corresponding media file among the media files using a codec suitable for the selected format. can be done
  • the resource manager 207 may manage the space of the source code of the application 146 or the memory of the memory 130 , for example.
  • the power manager 209 may, for example, manage the capacity, temperature, or power of the battery 189 , and determine or provide related information necessary for the operation of the electronic device 101 by using the corresponding information. . According to an embodiment, the power manager 209 may interwork with a basic input/output system (BIOS) (not shown) of the electronic device 101 .
  • BIOS basic input/output system
  • the database manager 211 may create, retrieve, or change a database to be used by the application 146 , for example.
  • the package manager 213 may manage installation or update of an application distributed in the form of a package file, for example.
  • the connectivity manager 215 may manage, for example, a wireless connection or a direct connection between the electronic device 101 and an external electronic device.
  • the notification manager 217 may provide, for example, a function for notifying the user of the occurrence of a specified event (eg, an incoming call, a message, or an alarm).
  • the location manager 219 may manage location information of the electronic device 101 , for example.
  • the graphic manager 221 may manage, for example, one or more graphic effects to be provided to a user or a user interface related thereto.
  • Security manager 223 may provide, for example, system security or user authentication.
  • the telephony manager 225 may manage, for example, a voice call function or a video call function provided by the electronic device 101 .
  • the voice recognition manager 227 for example, transmits the user's voice data to the server 108, and based at least in part on the voice data, a command corresponding to a function to be performed in the electronic device 101; Alternatively, the converted text data may be received from the server 108 based at least in part on the voice data.
  • the middleware 244 may dynamically delete some existing components or add new components.
  • at least a portion of the middleware 144 may be included as a part of the operating system 142 or implemented as software separate from the operating system 142 .
  • Application 146 includes, for example, home 251 , dialer 253 , SMS/MMS 255 , instant message (IM) 257 , browser 259 , camera 261 , alarm 263 . , contact 265, voice recognition 267, email 269, calendar 271, media player 273, album 275, watch 277, health 279 (such as exercise or blood sugar) measuring biometric information), or environmental information 281 (eg, measuring atmospheric pressure, humidity, or temperature information).
  • the application 146 may further include an information exchange application (not shown) capable of supporting information exchange between the electronic device 101 and an external electronic device.
  • the information exchange application may include, for example, a notification relay application configured to transmit specified information (eg, call, message, or alarm) to an external electronic device, or a device management application configured to manage the external electronic device.
  • the notification relay application for example, transmits notification information corresponding to a specified event (eg, mail reception) generated in another application (eg, the email application 269 ) of the electronic device 101 to the external electronic device.
  • the notification relay application may receive notification information from the external electronic device and provide it to the user of the electronic device 101 .
  • the device management application is, for example, a power source (eg, turn-on or turn on) of an external electronic device that communicates with the electronic device 101 or some components thereof (eg, the display device 160 or the camera module 180 ). -off) or a function (eg, brightness, resolution, or focus of the display device 160 or the camera module 180 ) may be controlled.
  • the device management application may additionally or alternatively support installation, deletion, or update of an application operating in an external electronic device.
  • FIG. 3 is a flowchart 300 of a method for controlling audio by the electronic device 101 according to an embodiment disclosed in this document.
  • a processor eg, the processor 120 of FIG. 1
  • the electronic device 101 stores a memory (eg, FIG. 1 ). It can be understood as being performed by executing an instruction stored in the memory 130 of the .
  • the electronic device 101 may determine an audio input.
  • the audio input may mean a sound source to be heard by a user.
  • the sound source may be classified according to a location where the sound source is provided.
  • the sound source may include a storage sound source and/or a playback device sound source.
  • the electronic device 101 may operate as a playback device and an output device of the storage sound source.
  • the storage sound source may include a sound source stored in an internal/external storage attached to the electronic device 101 as well as a sound source stored in an external server and/or a sound source provided by a digital media provider.
  • the electronic device 101 receives a storage sound source in a standard audio file format (eg, MP3), a standard video file format (eg, MP4) or streaming format, and outputs the provided sound source and The output may be performed using an output device of the electronic device 101 (eg, the sound output device 155 of FIG. 1 ).
  • the electronic device 101 may connect the playback device to output the sound of the sound source being reproduced by the playback device.
  • the reproduction device sound source may mean a sound source being reproduced or scheduled to be reproduced in the external electronic device 101 .
  • the electronic device 101 may connect to the playback device using a wired/wireless protocol.
  • the electronic device 101 may output the sound of the sound source being reproduced only from the electronic device, or output the sound from the electronic device and the playback device simultaneously.
  • the smart phone may be connected to the TV and simultaneously reproduce a sound being played on the TV through a speaker of the smart phone.
  • the electronic device 101 may determine an audio output method.
  • audio may include an audio signal.
  • the electronic device 101 may transmit information on the determined output method to the audio signal processing processor and the audio signal energy analysis step.
  • the electronic device 101 may determine the audio output method by determining the properties of the audio output device, the user's auditory characteristics, and the use of the audio. This will be described in detail with reference to FIG. 4 .
  • the electronic device 101 may analyze the audio signal energy based on at least one of a change in a size or a period of an audio frame.
  • a frame is when the electronic device 101 converts a digital sound source (eg, MP3) into PCM (Pulse Code Modulation, hereinafter referred to as PCM) data and transmits it to an audio signal processing processor. It may mean a unit of transmitted PCM data.
  • the electronic device 101 may analyze and store the audio energy signal by structuring and layering the unit time, output method, and channel into elements.
  • the electronic device 101 may maintain the audio output period and the energy collection period asynchronously.
  • the electronic device 101 may ensure audio output quality and adjust the UI update period by maintaining the audio output period and the energy collection period asynchronously. This can be beneficial for power conservation.
  • step 303 may include a frame unit RMS (Root Mean Square, root mean square, rms value, hereinafter referred to as RMS) analysis step, an RMS analysis step in seconds, RMS synthesis for each output method, and a dB conversion step. have. This will be described in detail with reference to FIGS. 5 and 6 .
  • RMS Root Mean Square, root mean square, rms value
  • the electronic device 101 may predict the risk level based on the audio signal usage.
  • the electronic device 101 may analyze the usage of the audio signal to predict when a dangerous level will be reached and warn the user.
  • the electronic device 101 may establish a linear regression model to analyze the usage of the audio signal, and predict the time to reach the risk level using the linear regression model. This will be described in detail with reference to FIGS. 7 and 8 .
  • the electronic device 101 may display at least one of the signal energy and the predicted risk level through a display.
  • the electronic device 101 may display the audio signal energy information and/or the risk level arrival time on the display based on the audio signal energy analysis result information and/or the audio signal usage risk prediction result information. This will be described in detail with reference to FIGS. 9 to 12 .
  • FIG. 4 is a flowchart 400 of a method for the electronic device 101 to determine an audio output method according to an embodiment disclosed in this document.
  • the processor eg, the processor 120 of FIG. 1
  • the memory eg, FIG. 1 . It can be understood as being performed by executing an instruction stored in the memory 130 of the .
  • the electronic device 101 may determine the property of the audio output device.
  • the audio output device may include, as well as the electronic device 101 , an external device (eg, a headphone or a speaker) connected to the electronic device 101 in a wired/wireless manner.
  • the external device may include an external device connected by BluetoothTM, WiFi Aware, Adhoc method, Mobile Access Point and/or WiFi direct.
  • the electronic device 101 may additionally determine an attribute for a volume monitor operation together with audio signal information of the audio output device.
  • the electronic device 101 may determine whether the electronic device and the output device support volume synchronization (Absolute Volume Control, hereinafter AVC), and whether the electronic device 101 is closely attached to the user's ear (for example, the degree of adhesion may be determined in the order of canal type earphone > headset > speaker). ) and/or an attribute for the volume monitor operation may be determined based on whether the device is an output device for a vehicle.
  • the electronic device 101 may acquire attribute information when connecting to an external device by wire/wireless.
  • the attribute information may refer to information including at least one of maximum output level information, supported sound source format information, supported sampling rate information, and information on whether to support self-volume control.
  • the electronic device 101 may reflect the user's sensitivity to sound pressure, which may be felt differently depending on the characteristics of the device, even at the same volume of audio by recognizing the properties of the audio output device.
  • the electronic device 101 may determine the property of the output device. For example, when a user rides a car, the electronic device 101 may change the output device from an earphone to a speaker inside the car. Alternatively, when the user enters the house, the electronic device 101 may change the output device from the earphone to the AI speaker located inside the house. The electronic device 101 may determine different properties of the earphone and the speaker. For example, an earphone may have properties of a closed output device, and a speaker may have properties of an open output device. The electronic device 101 determines the properties of the audio output device in step 401 to maximize the accuracy of risk calculation even when the output device is not a closed output device, thereby protecting the user's hearing.
  • the electronic device 101 may determine whether the audio signal is a property that does not pass through the electronic device (eg, an audio signal of an FM radio). When it is determined that the audio signal does not pass through the electronic device, the electronic device 101 may reflect the volume level of the output device to be used for energy analysis of the audio signal. The electronic device 101 identifies the properties of the audio output device in step 401 so that the energy of the audio signal can be analyzed using the volume level of the output device even when the audio signal is a property that does not pass through the electronic device, thereby calculating the risk. Accuracy can be maximized, thereby protecting the user's hearing.
  • the audio signal is a property that does not pass through the electronic device
  • the electronic device 101 may reflect the volume level of the output device to be used for energy analysis of the audio signal.
  • the electronic device 101 identifies the properties of the audio output device in step 401 so that the energy of the audio signal can be analyzed using the volume level of the output device even when the audio signal is a property that does not pass through the electronic device
  • the electronic device 101 may determine the user's auditory characteristics.
  • the user's auditory characteristics may refer to information based on the hearing level of the user's left and right ears and/or the recognition level of each frequency band of the left and right ears.
  • the electronic device 101 may determine the user's auditory characteristics based on user setting information.
  • the user setting information may mean a hearing profile or an audio profile set by a user.
  • the user setting information may mean equalizer information set by a user.
  • the electronic device 101 may recognize the user's auditory characteristics and reflect the sensitivity to sound pressure that is different for each user even with the same volume of audio.
  • the electronic device 101 may store the user setting information and share the stored user setting information with an external electronic device in a wired/wireless manner.
  • the electronic device 101 stores the user setting information in an internal memory of the electronic device 101 or an external memory connected to the electronic device 101 by wire or wirelessly, or an account of the user of the electronic device 101 . It can be stored in an online storage medium (eg, server) linked with the .
  • the electronic device 101 may share the stored user setting information based on a request from an external electronic device. Alternatively, when the user accounts of the electronic device 101 and the external electronic device are the same, the stored user setting information may be shared without a separate request.
  • the external electronic device may determine the user's auditory characteristics by using the shared user setting information.
  • the electronic device 101 may determine the purpose of the audio.
  • the electronic device 101 may identify information regarding the format in which the user or application intends to reproduce and/or output audio.
  • the electronic device 101 may determine the use of the audio based on the real-time nature of the audio. For example, the electronic device 101 may determine the use of the audio by dividing it into a use for listening to music and a use for sound effects used in a game.
  • the electronic device 101 may recognize audio having a low real-time property, a relatively high delay, a frame period set to be relatively long, and a large size of each frame itself, as audio for listening to music.
  • the electronic device 101 may recognize audio having a high real-time property and low delay, a relatively short frame period and a small frame size, as audio for sound effects used in a game.
  • the electronic device 101 may determine an audio output method.
  • the electronic device 101 may transmit the identified attribute information of the audio output device and the identified user auditory characteristic information to the audio signal energy analysis step in the determined output method.
  • the audio output method may include a process unit size (frame count) and a process unit delivery period. For example, in the case of audio for listening to music in high-quality sound for a long time, the electronic device 101 transmits the information to the audio signal processing processor in a long cycle in a large-sized process unit to increase the effect of power saving and process stabilization. have. Conversely, in the case of audio for sound effects used in a game, the electronic device 101 may improve real-time performance by transmitting the information to the audio signal processing processor in a small process unit in a short cycle.
  • the processor eg, the processor 120 of FIG. 1
  • the memory eg, FIG. 1
  • the audio signal processing processor of the electronic device 101 executes an instruction stored in a memory.
  • the electronic device 101 may analyze the frame-by-frame RMS.
  • the electronic device 101 may calculate the RMS type audio energy by analyzing the PCM type frame received from the audio signal processing processor. It will be described in detail with reference to FIG. 6A.
  • the electronic device 101 may analyze the RMS in units of seconds.
  • the electronic device 101 may store the value in seconds based on the screen update period in the frame-by-frame RMS analysis step.
  • the screen update cycle may mean a cycle for updating the screen of the electronic device 101 set by an application. For example, when the screen update period is 1 minute, the electronic device 101 may store the start time of each second together using an arrangement. It will be described in detail with reference to FIG. 6B.
  • the electronic device 101 may perform RMS synthesis and dB conversion for each output method.
  • the electronic device 101 may accumulate the values stored in the array based on the screen update period according to the RMS analysis result in units of seconds.
  • the electronic device 101 may accumulate RMS values of each application according to the screen update period even when the RMS value update rate does not match because the frame period is different for each application and solves the inconsistency problem. It will be described in detail with reference to FIG. 6B.
  • the electronic device 101 may calculate an RMS value according to a result of the second-unit analysis RMS analysis step for each channel.
  • the electronic device 101 may convert the calculated RMS value into dB.
  • the electronic device 101 may convert the audio output level estimated based on the digital signal into a unit of the audio output level of the analog signal that the user can feel.
  • the electronic device 101 may filter the audio output level based on the digital signal in the user audible region to remove frequency components other than the audible region.
  • the electronic device 101 may convert the filtered audio output level into an audio output of an analog signal.
  • 6A is an exemplary diagram of a method for an electronic device to analyze audio signal energy according to an exemplary embodiment.
  • 6A is a graph with time as the x-axis and amplitude value (dB) as the y-axis.
  • the electronic device may analyze a PCM-type frame received from the audio signal processing processor to calculate RMS (Root Mean Square, root mean square, rms) audio energy.
  • RMS Root Mean Square, root mean square, rms
  • the electronic device 101 may obtain an RMS value by squaring and summing amplitude values (dB) 603 of samples included in the frame period, and then taking the square root.
  • the electronic device 101 may calculate each RMS value by Equation 1 below.
  • K may mean the number of samples in one frame, and an may mean the amplitude of the corresponding sample n.
  • the electronic device 101 may calculate the RMS in units of frames for each channel according to use.
  • the electronic device 101 may accumulate the RMS in units of frames before reaching a predetermined time (eg, 1 second), and transfer the accumulated RMS to the RMS in units of seconds. After transferring the accumulated RMS to the RMS step in units of seconds, the electronic device 101 may reset the corresponding value and recalculate the RMS of the next frame from the start value. For this reason, the electronic device 101 can keep the storage size of the RMS in units of Frames very small.
  • the electronic device 101 may accumulate the RMS 601 in units of frames before reaching 1 second.
  • the electronic device 101 may transfer the RMS accumulated for 1 second to the RMS analysis step in units of seconds, reset the corresponding value when the transfer is completed, and recalculate the RMS 602 of the next frame from 0.
  • 6B is a conceptual diagram illustrating a method for an electronic device to analyze audio signal energy according to an exemplary embodiment.
  • the electronic device 101 may accumulate the RMS in units of frames analyzed in the step of analyzing the RMS in units of frames (eg, in operation 501 of FIG. 5 ) as RMS in units of seconds.
  • the size of the frame may be different according to the purpose of the audio. Taking FIG. 6B as an example, the size of the audio frame (eg, 610, 611, 612) whose purpose is music may be different from the size of the audio frame (eg, 613, 614, 615) whose purpose is a game. have. Therefore, the number of frame RMS to be accumulated in units of seconds may also be different depending on the purpose of audio. Also, the start and end of every second and frame may be different.
  • the electronic device 101 may determine whether the frame should be accumulated for the corresponding second and accumulate the frame RMS value in the corresponding second RMS. For example, after determining whether frames are accumulated based on the start time of the frame, the electronic device 101 sets the frame RMS value to the corresponding second RMS (eg, 616, 617) when frames are to be accumulated in the corresponding second. ) can be accumulated in the corresponding second RMS.
  • the electronic device 101 may accumulate the values stored in the array based on the screen update period according to the RMS analysis result (eg, 616 and 617 ) in units of seconds.
  • the electronic device 101 provides a period of an audio frame (eg, 610, 611, 612) whose purpose is music and an audio frame (eg, 613, 614, 615) whose purpose is a game. Even when the period of ' is different, it can be accumulated based on the screen update period using the values stored in the array according to the RMS analysis result in units of seconds.
  • the period of the audio frame (eg, 610, 611, 612) that is music and the period of the audio frame (eg, 613, 614, 615) of the game are different from each other, so that the RMS value Even when the update rates do not match, the RMS values of each application can be accumulated according to the screen update period, and the inconsistency problem can be solved.
  • the electronic device 101 may continue to accumulate the RMS in units of seconds even when a screen update is unnecessary, such as when the screen LCD is turned off. It can provide the RMS value in seconds.
  • FIG. 7 is a flowchart of a method 700 of an electronic device 101 predicting a risk level of audio signal usage according to an embodiment disclosed in this document.
  • the processor eg, the processor 120 of FIG. 1
  • the memory eg, FIG. 1 . It can be understood as being performed by executing an instruction stored in the memory 130 of the .
  • the electronic device 101 may establish a linear regression model.
  • the electronic device 101 may establish a linear regression model assuming that the audio usage per hour is proportional.
  • the electronic device 101 may learn (time, dB) data collected for a predetermined time. Based on the learning, the electronic device 101 may calculate the slope and the intercept value of the graph by using the square value of the difference between the predicted dB value and the measured dB value. For example, the slope W value and the intercept b value may be predicted using Equations 2 and 3 below the electronic device 101 .
  • the electronic device 101 calculates W and b values using Equation 2 based on (time, dB) data collected for a predetermined time, and then uses Equation 3 to minimize the value of the cost function of Equation 3 This can be repeated until W and b are found.
  • Equation 3 x may mean a measured value, and y may mean an error on the graph.
  • the electronic device 101 may establish a linear regression model by using the calculated slope and intercept values of the graph.
  • the electronic device may predict the dB value at a specific time using the established linear regression model.
  • the electronic device 101 may repeat the learning until it finds a slope and an intercept value that minimize the difference between the predicted value and the measured value by using the square value of the difference between the predicted dB value and the measured dB value.
  • the electronic device 101 may input newly acquired (time, dB) data to the linear regression model obtained through the learning, and determine whether the prediction accuracy of the linear regression model is greater than or equal to an expected level. When the prediction accuracy is less than the expected level, the electronic device 101 may re-learn the linear regression model to correct the slope and intercept values and establish a new linear regression model.
  • the electronic device 101 may predict the time to reach the risk level.
  • the electronic device 101 inputs the dB value of the risk level to the y-axis of the linear regression model, and inversely calculates the time value on the x-axis corresponding to the dB value of the risk level to predict the time to reach the risk level have.
  • the electronic device 101 compares the predicted risk level reaching time and the current user's exposure time to audio, and when it is determined that the user is overexposed to audio, the current exposure time and the risk are displayed as a screen display operation step. Data on time to level arrival and/or prediction accuracy may be passed along.
  • FIG. 8 Data on time to level arrival and/or prediction accuracy
  • 8 is an exemplary diagram of a linear regression model. 8 is a graph showing time as an x-axis and a dB value converted by analyzing audio signal energy as a y-axis.
  • the measured dB values 801 , 802 , 803 , 804 , and 805 are shown as dots, and predicted dB values are shown on the lines 810 , 820 , and 830 .
  • the electronic device 101 may collect (time, dB) data every predetermined time (eg, 1 minute).
  • the electronic device 101 may display the collected (time, dB) data as dB values 801 , 802 , 803 , 804 , 805 measured at the corresponding time.
  • the electronic device 101 may learn (time, dB) data collected for a predetermined time. Based on the learning, the electronic device 101 may calculate the slope and the intercept value of the graph by using the square value of the difference between the predicted dB value and the measured dB value.
  • the electronic device 101 learns only the first measured value 801 and the second measured value 802 and calculates the slope and intercept, the result of the first graph 810 may be obtained.
  • the third measured value 803 shows a large difference from the expected value of the first graph 810 .
  • the electronic device 101 may further collect the third measured value 803 and the fourth measured value 804 to relearn.
  • the electronic device 101 may obtain the result of the second graph 820 by re-learning the four measured values 801 , 802 , 803 , and 804 to calculate slope and intercept values.
  • the second graph 820 compares the first graph 810
  • the second graph 820 expects the third measured value 803 and the fourth measured value 804 compared to the first graph 810 . It can be seen that the difference between the values and
  • the electronic device may repeat learning until an error between the measured value and the prediction graph is minimized.
  • 9 to 12 are exemplary views of a UI displayed on a screen in the electronic device 101 according to various embodiments of the present disclosure.
  • 9 is an exemplary diagram of a UI displayed on the screen of the electronic device 101 according to a method for controlling audio by the electronic device 101 .
  • FIG. 9A illustrates a first area 901 displayed on the electronic device 101 to determine whether to operate the volume monitor.
  • a function for operating or stopping the volume monitor of the current electronic device 101 is displayed.
  • the electronic device 101 may activate or stop the volume monitor function.
  • FIG 9B illustrates a second area 902 displayed on the electronic device 101 when the volume monitoring source option setting has not been completed.
  • the electronic device 101 may display a message to check the hearing status after checking the hearing status through the second area 902 and setting the volume monitoring source option.
  • FIGC illustrates a screen displayed on the electronic device 101 for setting a volume monitoring source option.
  • An image for helping setting may be displayed in the third area 903 of the screen.
  • a description for helping setting may be displayed in text format.
  • external devices connectable to the electronic device 101 by wire/wireless may be displayed.
  • An audio source may be output using the external devices.
  • the electronic device 101 may provide a setting UI together on the display.
  • the setting UI may include an interface 908 for setting activation of a volume monitoring function using a wired/wireless connection with the selected external device.
  • the electronic device 101 may activate or deactivate a volume monitoring function using a wired/wireless connection with an external device based on an input to the interface 908 .
  • the electronic device 101 may display the UI of FIG. 10 on the screen based on an input to the icon 907 indicating confirmation.
  • FIG. 10 is an exemplary view of a UI for providing detailed information displayed on a screen of the electronic device 101 according to a method of controlling audio by the electronic device 101 .
  • FIG. 10A is an exemplary diagram in which daily information is displayed on the screen of the electronic device 101 .
  • a word indicating the current volume monitoring risk level may be displayed in the first area 1001 of the electronic device 101 .
  • the word Loud may be displayed.
  • the word OK may be displayed.
  • advice according to the current volume state may also be displayed in the form of text.
  • the word Loud is marked, and accordingly, advice to reduce the volume or take a break is indicated for hearing protection.
  • the volume of the volume used during the day is displayed as a bar graph according to time.
  • a risk level dB may be displayed together.
  • the exposure time to the user and the average dB may be displayed. Also in the line below it can be displayed the average dB compared to yesterday. Taking Fig. 10A as an example, the user was exposed to an average of 82dB of audio for 6 hours and 58 minutes on June 22, 2019. It is indicated that the average of 82dB is a 3dB increase compared to the previous day.
  • 10B is an exemplary diagram in which weekly information is displayed on the screen of the electronic device 101 .
  • weekly information only the contents of the second area of the daily information may be switched.
  • the volume used for each day during a preset period based on today may be displayed in a bar graph according to the date.
  • FIG. 10B the volume of the volume used for each date from June 16th is displayed based on June 22nd.
  • a separate icon 1011 may be displayed under the corresponding date so that the user can intuitively know whether the bar graph corresponding to each date exceeds the risk level dB. For example, when the volume of the volume on the corresponding day exceeds the dangerous level dB, the icon 1012 marked with an x may be displayed.
  • the screen 1007 of FIG. 10C may be displayed.
  • the electronic device 101 may provide information for protecting the user's hearing by using the screen of 10c.
  • the information may include information on the WHO's recommended usage (1008), OK and Loud's judgment grounds (1009), and the maximum exposure time (1010) of each of the audio dB above the risk level dB.
  • the warning message 1101 is an exemplary view of a UI in which the electronic device 101 displays a warning message on the screen when the audio volume reaches a dangerous level.
  • the warning message 1101 may be displayed in the form of a pop-up message. Alternatively, it may be displayed using a quick panel.
  • the quick panel may refer to a panel that displays whether wifi, Bluetooth, GPS, vibration, auto-rotation, or an application or function currently in progress, based on an input to the upper bar of the electronic device 101 .
  • the electronic device 101 may display a warning message 1101 based on a swipe input received at the top of the screen of the electronic device 101 .
  • the warning message 1101 shows a screen on which a warning message 1101 is displayed using the quick panel.
  • the warning message 1101 may include a message to reduce the volume or take a break to protect hearing.
  • a notification setting area 1103 for changing a notification method may be included at the bottom of the warning message 1101 .
  • the electronic device 101 may change the notification method from the quick panel method to the pop-up method based on an input to the notification setting area 1103 .
  • the electronic device 101 may display the screen of FIG. 12 based on an input to the management icon 1102 included in the warning message 1101 .
  • the management icon 1102 included in the warning message 1101 .
  • FIG. 12 is an exemplary view of a UI provided by the electronic device 101 to change a notification setting for a warning message.
  • the UI of FIG. 12 may be displayed based on an input to the management icon 1102 of FIG. 11 .
  • the electronic device 101 may display an option selection UI 1202 for changing notification settings based on an input to the first icon 1201 .
  • the option selection UI 1202 may be displayed in various forms. For example, the electronic device 101 may display the option selection UI 1202 in the form of a pop-up window.
  • the electronic device 101 may display the notification option selection UI 1206 based on an input to the notification option icon 1203 included in the option selection UI 1202 .
  • the notification option selection UI 1206 may be displayed in various forms.
  • the electronic device 101 may display the notification option selection UI 1206 in the form of a pop-up window.
  • the electronic device 101 may change a criterion for displaying a warning notification based on a user input to the notification option selection UI 1206 .
  • the electronic device 101 may display a warning message notification when the user uses 100% of the available capacity based on an input for selecting the first option 1204 .
  • the electronic device 101 may display a warning message notification when the user uses 85% of the available capacity based on an input for selecting the second option 1205 .
  • an electronic device includes a communication circuit, a display, a memory, and a processor configured to receive data from or transmit data to the at least one external device, wherein the memory, when executed
  • the processor determines an output method of the audio based on the audio input, analyzes the signal energy of the audio based on at least one of a frame size change or a period change based on the determined output method, and determines the signal usage of the audio. It is possible to predict the level of risk based on and store instructions for displaying at least one of the signal energy or the predicted level of risk through the display.
  • the electronic device divides the audio input into a storage sound source and a playback device sound source according to a location where the audio input is provided, and if the audio input is a playback device sound source, operatively with the communication circuit
  • the audio may be output using a connected external electronic device.
  • the electronic device may cause the processor to determine the output method of the audio based on at least one of attribute information of the audio output device, auditory characteristic information of a user, and usage information of the audio.
  • the electronic device may cause the processor to determine the attribute information of the audio output device based on at least one of audio signal information of the audio output device and attribute information for a volume monitor operation.
  • the electronic device may allow the processor to determine the properties of the audio output device and determine the user's sensitivity to sound pressure based on the characteristics of the audio output device.
  • the property of the audio output device includes whether the audio signal is a signal passing through the electronic device, and in the electronic device, when the processor determines that the audio signal does not pass through the electronic device, may use the volume level of the audio output device for energy analysis of the audio signal.
  • the electronic device may cause the processor to analyze the RMS value in units of frames, analyze the RMS values in units of seconds, and synthesize the RMS values for each output method to analyze the signal energy of the audio.
  • the electronic device may cause the processor to analyze the RMS value in units of frames for each channel according to the purpose of the audio.
  • the electronic device may cause the processor to establish a linear regression model, predict a time to reach the risk level using the linear regression model, and determine the degree of risk based on the time to reach the risk level.
  • the linear regression model may be learned using a learning algorithm.
  • the method performed by the electronic device includes: when one or more instructions included in the electronic device or stored in a memory connected to the electronic device are executed, determining an audio output method based on an audio input; The operation of analyzing the signal energy of the audio based on at least one of a change in the size of a frame or a change of a period based on the determined output method, an operation of predicting a degree of risk based on the signal usage of the audio, and the display of the electronic device and displaying at least one of signal energy or the predicted risk.
  • the method performed by the electronic device includes dividing the audio input into a storage sound source and a playback device sound source according to a location where the audio input is provided, and if the audio input is a playback device sound source, the communication circuit The method may further include outputting the audio using an external electronic device operatively connected to the .
  • the method performed by the electronic device includes determining an output method of the audio based on at least one of attribute information of the audio output device, auditory characteristic information of a user, and usage information of the audio. may include.
  • the method performed by the electronic device includes determining the attribute information of the audio output device based on at least one of audio signal information of the audio output device and attribute information for a volume monitor operation.
  • the method performed by the electronic device may include an operation of identifying a property of the audio output apparatus and an operation of determining a user's sensitivity to sound pressure based on a characteristic of the audio output apparatus.
  • the property of the audio output device includes whether an audio signal is a signal passing through the electronic device, and determines that the audio signal is a property that does not pass through the electronic device.
  • the operation of using the volume level of the audio output device for energy analysis of the audio signal may be included.
  • the method performed by the electronic device includes an operation of analyzing an RMS value in units of frames, an operation of analyzing an RMS value in units of seconds, and an operation of analyzing the signal energy of the audio by synthesizing RMS values for each output method.
  • the method performed by the electronic device may include analyzing the RMS value in units of frames for each channel according to the purpose of the audio.
  • the method performed by the electronic device includes an operation of establishing a linear regression model, an operation of predicting a time to reach the risk level using the linear regression model, and determining a degree of risk based on the time to reach the risk level It can include actions.
  • the method performed by the electronic device may be that the linear regression model is learned using a learning algorithm.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • a or B “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C” and “A,
  • Each of the phrases “at least one of B, or C” may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases.
  • Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other such components, and refer to those components in other aspects (e.g., importance or order) is not limited.
  • one (eg first) component is “coupled” or “connected” to another (eg, second) component with or without the terms “functionally” or “communicatively”
  • one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101).
  • a machine eg, electronic device 101
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a portion of a computer program product eg, a downloadable app
  • a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)

Abstract

적어도 하나의 외부 장치로부터 데이터를 수신하거나, 상기 적어도 하나의 외부 장치로 데이터를 송신하는 통신 회로, 디스플레이, 메모리 및 프로세서를 포함하고, 상기 메모리는, 실행 시에 상기 프로세서가, 오디오 입력에 기반하여 오디오의 출력 방식을 결정하고, 상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하고, 상기 오디오의 신호 사용량에 기반한 위험도를 예측하고, 상기 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 인스트럭션들을 저장할 수 있는 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시예가 가능하다.

Description

오디오를 제어하는 전자 장치 및 방법
본 문서에서 개시되는 실시예들은, 오디오, 구체적으로 오디오 신호를 제어하는 기술과 관련될 수 있다.
네트워크 기술의 부단한 발전에 따라, 더욱 많은 사람들이 오디오 장치를 이용해 온라인으로 직접 음악을 듣거나 음악 파일을 개인용 휴대 장치에 다운로드해 듣고 있다. 이와 함께, 타인에게 방해가 되지 않고 언제 어디서나 음악을 들을 수 있도록 하기 위한 헤드폰 장치가 개인용 휴대 장치의 필수품이 되었으며, 오디오 장치의 종류 또한 매우 다양화 되었다.
그러나, 사용자는 음악을 깨끗한 음질로 청각 손상을 최소화 하기 위해 오디오 장치의 재생 음량을 조정하는데, 종래의 기술로는 사용자의 좌우측 귀에 대한 재생 음량을 일률적으로 조정할 수 밖에 없다. 양쪽 눈의 시력이 다른 것과 마찬가지로, 좌우측 귀의 청력에도 차이가 있다.
뿐만 아니라, 오디오 장치의 다양화에도 불구하고, 장치 별로 사용자에게 가해지는 오디오 신호 에너지량에 따른 위험도를 측정할 수 없는 문제점이 존재한다.
본 문서에서 개시되는 일 실시예에 의해 달성하고자 하는 기술적 과제는 사용자에게 가해지는 오디오 신호 에너지량을 정확하게 측정할 수 있는 오디오 제어 방법 및 장치를 제공한다.
본 문서에서 개시되는 일 실시예에 의해 달성하고자 하는 기술적 과제는 사용자의 청력 특성을 고려하여 오디오 신호 에너지량을 측정하고 이를 표시할 수 있는 오디오 제어 방법 및 장치를 제공한다.
본 문서에서 개시되는 일 실시예에 의해 달성하고자 하는 기술적 과제는 사용자에게 상기 사용자의 청각 특성 및 오디오 신호 에너지량에 따른 볼륨 모니터 기능을 제공하고 이를 표시할 수 있는 오디오 제어 방법 및 장치를 제공한다.
본 문서에 개시되는 일 실시예에 따른 전자 장치는, 적어도 하나의 외부 장치로부터 데이터를 수신하거나, 상기 적어도 하나의 외부 장치로 데이터를 송신하는 통신 회로, 디스플레이, 메모리 및 프로세서를 포함하고, 상기 메모리는, 실행 시에 상기 프로세서가 오디오 입력에 기반하여 오디오의 출력 방식을 결정하고, 상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하고, 상기 오디오의 신호 사용량에 기반한 위험도를 예측하고, 상기 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 인스트럭션들을 저장할 수 있다.
본 문서에 개시되는 일 실시예에 따른 전자 장치가 수행하는 방법은, 오디오 입력에 기반하여 오디오의 출력 방식을 결정하는 동작, 상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하는 동작, 상기 오디오의 신호 사용량에 기반한 위험도를 예측하는 동작 및 상기 전자 장치의 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 동작을 포함할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 사용자에게 전달되는 오디오 신호 에너지량을 정확하게 측정하고 이를 바탕으로 사용자의 청력을 보호할 수 있는 방법 및 장치를 제공할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 사용자에게 전달되는 오디오 신호 에너지량을 정확히 측정하여 사용자의 청력에 위험이 될 시점을 예측하고 이에 기반한 알림을 제공하는 방법 및 장치를 제공할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시예에 따른 프로그램을 예시하는 블록도이다.
도 3은 일 실시예에 따라, 전자 장치가 오디오를 제어하는 방법에 대한 순서도이다.
도 4는 일 실시예에 따라, 전자 장치가 오디오의 출력 방식을 결정하는 방법에 대한 순서도이다.
도 5는 일 실시예에 따라, 전자 장치가 오디오 신호 에너지를 분석하는 방법에 대한 순서도이다.
도 6a는 일 실시예에 따른 전자 장치가 오디오 신호 에너지를 분석하는 방법의 예시도이다.
도 6b는 일 실시예에 따른 전자 장치가 오디오 신호 에너지를 분석하는 방법을 설명하기 위한 개념도이다.
도 7은 일 실시예에 따라, 전자 장치가 오디오 신호 사용량의 위험도를 예측하는 방법에 대한 순서도이다.
도 8은 전자 장치가 오디오를 제어하는 방법에 따라 수립하는 선형 회귀 모델의 예시도이다.
도 9는 전자 장치가 오디오를 제어하는 방법에 따라 상기 전자 장치의 화면에 표시하는 UI의 예시도이다.
도 10은 전자 장치가 오디오를 제어하는 방법에 따라 상기 전자 장치의 화면에 표시하는 세부 정보 제공을 위한 UI의 예시도이다.
도 11은 전자 장치가 오디오의 음량이 위험수준에 도달한 경우 화면에 경고 메세지를 표시하기 위한 UI의 예시도이다.
도 12는 전자 장치가 경고 메시지에 대한 알림 설정을 변경하기 위해 제공하는 UI의 예시도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2은 다양한 실시예에 따른 프로그램(140)을 예시하는 블록도(200)이다. 일실시예에 따르면, 프로그램(140)은 전자 장치(101)의 하나 이상의 리소스들을 제어하기 위한 운영 체제(142), 미들웨어(144), 또는 상기 운영 체제(142)에서 실행 가능한 어플리케이션(146)을 포함할 수 있다. 운영 체제(142)는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 프로그램(140) 중 적어도 일부 프로그램은, 예를 들면, 제조 시에 전자 장치(101)에 프리로드되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 전자 장치(102 또는 104), 또는 서버(108))로부터 다운로드되거나 갱신 될 수 있다.
운영 체제(142)는 전자 장치(101)의 하나 이상의 시스템 리소스들(예: 프로세스, 메모리, 또는 전원)의 관리(예: 할당 또는 회수)를 제어할 수 있다. 운영 체제(142)는, 추가적으로 또는 대체적으로, 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버 프로그램들을 포함할 수 있다.
미들웨어(144)는 전자 장치(101)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 미들웨어(144)는, 예를 들면, 어플리케이션 매니저(201), 윈도우 매니저(203), 멀티미디어 매니저(205), 리소스 매니저(207), 파워 매니저(209), 데이터베이스 매니저(211), 패키지 매니저(213), 커넥티비티 매니저(215), 노티피케이션 매니저(217), 로케이션 매니저(219), 그래픽 매니저(221), 시큐리티 매니저(223), 통화 매니저(225), 또는 음성 인식 매니저(227)를 포함할 수 있다.
어플리케이션 매니저(201)는, 예를 들면, 어플리케이션(146)의 생명 주기를 관리할 수 있다. 윈도우 매니저(203)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI 자원들을 관리할 수 있다. 멀티미디어 매니저(205)는, 예를 들면, 미디어 파일들의 재생에 필요한 하나 이상의 포맷들을 파악하고, 그 중 선택된 해당하는 포맷에 맞는 코덱을 이용하여 상기 미디어 파일들 중 해당하는 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(207)는, 예를 들면, 어플리케이션(146)의 소스 코드 또는 메모리(130)의 메모리의 공간을 관리할 수 있다. 파워 매니저(209)는, 예를 들면, 배터리(189)의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치(101)의 동작에 필요한 관련 정보를 결정 또는 제공할 수 있다. 일실시예에 따르면, 파워 매니저(209)는 전자 장치(101)의 바이오스(BIOS: basic input/output system)(미도시)와 연동할 수 있다.
데이터베이스 매니저(211)는, 예를 들면, 어플리케이션(146)에 의해 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(213)는, 예를 들면, 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다. 커넥티비티 매니저(215)는, 예를 들면, 전자 장치(101)와 외부 전자 장치 간의 무선 연결 또는 직접 연결을 관리할 수 있다. 노티피케이션 매니저(217)는, 예를 들면, 지정된 이벤트(예: 착신 통화, 메시지, 또는 알람)의 발생을 사용자에게 알리기 위한 기능을 제공할 수 있다. 로케이션 매니저(219)는, 예를 들면, 전자 장치(101)의 위치 정보를 관리할 수 있다. 그래픽 매니저(221)는, 예를 들면, 사용자에게 제공될 하나 이상의 그래픽 효과들 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다.
시큐리티 매니저(223)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 통화(telephony) 매니저(225)는, 예를 들면, 전자 장치(101)에 의해 제공되는 음성 통화 기능 또는 영상 통화 기능을 관리할 수 있다. 음성 인식 매니저(227)는, 예를 들면, 사용자의 음성 데이터를 서버(108)로 전송하고, 그 음성 데이터에 적어도 일부 기반하여 전자 장치(101)에서 수행될 기능에 대응하는 명령어(command), 또는 그 음성 데이터에 적어도 일부 기반하여 변환된 문자 데이터를 서버(108)로부터 수신할 수 있다. 일 실시예에 따르면, 미들웨어(244)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 일 실시예에 따르면, 미들웨어(144)의 적어도 일부는 운영 체제(142)의 일부로 포함되거나, 또는 운영 체제(142)와는 다른 별도의 소프트웨어로 구현될 수 있다.
어플리케이션(146)은, 예를 들면, 홈(251), 다이얼러(253), SMS/MMS(255), IM(instant message)(257), 브라우저(259), 카메라(261), 알람(263), 컨택트(265), 음성 인식(267), 이메일(269), 달력(271), 미디어 플레이어(273), 앨범(275), 와치(277), 헬스(279)(예: 운동량 또는 혈당과 같은 생체 정보를 측정), 또는 환경 정보(281)(예: 기압, 습도, 또는 온도 정보 측정) 어플리케이션을 포함할 수 있다. 일실시예에 따르면, 어플리케이션(146)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션(미도시)을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보 (예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다. 노티피케이션 릴레이 어플리케이션은, 예를 들면, 전자 장치(101)의 다른 어플리케이션(예: 이메일 어플리케이션(269))에서 발생된 지정된 이벤트(예: 메일 수신)에 대응하는 알림 정보를 외부 전자 장치로 전달할 수 있다. 추가적으로 또는 대체적으로, 노티피케이션 릴레이 어플리케이션은 외부 전자 장치로부터 알림 정보를 수신하여 전자 장치(101)의 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치(101)와 통신하는 외부 전자 장치 또는 그 일부 구성 요소(예: 표시 장치(160) 또는 카메라 모듈(180))의 전원(예: 턴-온 또는 턴-오프) 또는 기능(예: 표시 장치(160) 또는 카메라 모듈(180)의 밝기, 해상도, 또는 포커스)을 제어할 수 있다. 장치 관리 어플리케이션은, 추가적으로 또는 대체적으로, 외부 전자 장치에서 동작하는 어플리케이션의 설치, 삭제, 또는 갱신을 지원할 수 있다.
도 3은 본 문서에 개시되는 일 실시예에 따른 전자 장치(101)가 오디오를 제어하는 방법의 순서도(300)이다. 일 실시예에 따르면, 도 3에 도시된 프로세스는 전자 장치(101)(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))가 메모리(예: 도 1의 메모리(130))에 저장된 인스트럭션을 실행하여 수행되는 것으로 이해될 수 있다.
단계 301에서 전자 장치(101)는 오디오 입력을 결정할 수 있다. 상기 오디오 입력이란, 사용자에게 들려질 음원을 의미할 수 있다. 상기 음원은 상기 음원이 제공되는 위치에 따라 구분될 수 있다. 예를 들어, 상기 음원은 저장소 음원 및/또는 재생장치 음원을 포함할 수 있다.
일 실시예에서, 오디오 입력이 저장소 음원인 경우, 전자 장치(101)는 상기 저장소 음원의 재생 장치 및 출력 장치로 동작할 수 있다. 상기 저장소 음원이란, 상기 전자 장치(101)에 부착된 내/외부 저장소에 저장된 음원은 물론, 외부 서버에 저장된 음원 및/또는 디지털 미디어 사업자 등이 제공하는 음원을 포함할 수 있다. 예를 들어, 전자 장치(101)는 저장소 음원을 표준 오디오 파일 형식(예를 들어, MP3), 표준 비디오 파일 형식(예를 들어, MP4) 또는 스트리밍 형태로 제공 받고, 상기 제공받은 음원을 출력하고 상기 전자 장치(101)의 출력 장치(예를 들어, 도 1의 음향출력장치(155))를 이용해 출력할 수 있다.
일 실시예에서, 오디오 입력이 재생 장치 음원인 경우, 전자 장치(101)는 상기 재생 장치를 연결하여 상기 재생 장치가 재생중인 음원의 소리를 출력할 수 있다. 상기 재생 장치 음원이란, 외부 전자 장치(101)에서 재생 중이거나 재생 예정인 음원을 의미할 수 있다. 전자 장치(101)는 유/무선 프로토콜을 이용해 상기 재생 장치와 연결할 수 있다. 전자 장치(101)는 상기 재생중인 음원의 소리를 상기 전자장치에서만 출력하도록 할 수도 있고, 상기 전자장치와 상기 재생장치에서 동시에 출력하도록 할 수도 있다. 예를 들어, 전자장치가 스마트 폰이고 재생 장치가 TV인 경우, 상기 스마트 폰은 TV와 연결하고 상기 TV에서 재생중인 소리를 스마트 폰의 스피커를 통해 동시에 재생할 수 있다.
단계 302에서, 전자 장치(101)는 오디오의 출력 방식을 결정할 수 있다. 이하, 본 문서에 개시되는 다양한 실시예들에서, 오디오는 오디오 신호를 포함할 수 있다. 전자 장치(101)는 상기 결정된 출력 방식에 대한 정보를 오디오 신호처리 프로세서 및 오디오 신호 에너지 분석 단계에 전달할 수 있다. 일 실시예에서, 전자 장치(101)는 오디오 출력 장치의 속성을 파악하고, 사용자의 청각 특성을 파악하고, 오디오의 용도를 파악하여 상기 오디오 출력 방식을 결정할 수 있다. 이에 대하여는 도 4에서 자세히 설명하도록 한다.
단계 303에서, 전자 장치(101)는 오디오의 프레임(frame)의 크기 또는 주기의 변경 중 적어도 하나에 기반하여 오디오 신호 에너지를 분석할 수 있다. 본 명세서에서 프레임(frame)이란, 전자 장치(101)가 디지털 음원(예를 들어, MP3)을 PCM(Pulse Code Modulation, 이하 PCM이라 한다) 데이터로 변환된 뒤 오디오 신호처리 프로세서로 전달할 때, 상기 전달되는 PCM 데이터의 단위를 의미할 수 있다.
일 실시예에서, 전자 장치(101)는 단위 시간, 출력 방식, 채널을 요소로 구조화 및 계층화 하여 오디오 에너지 신호를 분석하고 저장할 수 있다. 전자 장치(101)는 오디오 출력 주기와 에너지 수집 주기를 비 동기적으로 유지할 수 있다. 전자 장치(101)는 오디오 출력 주기와 에너지 수집 주기를 비 동기적으로 유지함으로써 오디오 출력 음질을 보장할 수 있고, UI 업데이트 주기를 조절할 수 있다. 이는 전력 보존에 유리할 수 있다.
일 실시예에서, 단계 303은 프레임 단위 RMS(Root Mean Square, 제곱 평균 제곱근, 실효값, 이하 RMS라 한다) 분석 단계, 초 단위 RMS 분석 단계, 출력방식 별 RMS 종합 및 dB 변환 단계를 포함할 수 있다. 이에 대해서는 도 5 및 도 6을 참조하여 자세히 설명하도록 한다.
단계 304에서, 전자 장치(101)는 오디오 신호 사용량에 기반하여 위험도를 예측할 수 있다. 일 실시예에서, 전자 장치(101)는 오디오 신호의 사용량을 분석하여 위험 수준에 도달할 시기를 예측하고 사용자에게 경고할 수 있다. 일 실시예에서, 전자 장치(101)는 선형회귀모델을 수립하여 오디오 신호의 사용량을 분석하고, 상기 선형회귀모델을 이용하여 위험수준 도달 시간을 예측할 수 있다. 이에 대하여는 도 7 및 도 8을 참조하여 자세히 설명하도록 한다.
단계 305에서, 전자 장치(101)는 디스플레이를 통해 상기 신호 에너지 및 상기 예측된 위험도 중 적어도 하나를 표시할 수 있다. 일 실시예에서, 전자 장치(101)는 오디오 신호 에너지 분석 결과 정보 및/ 또는 오디오 신호 사용량 위험 예측 결과 정보에 기반하여 오디오 신호 에너지 정보 및/ 또는 위험 수준 도달 시간을 디스플레이에 표시할 수 있다. 이에 대해서는 도 9 내지 도 12를 이용하여 자세히 설명하도록 한다.
도 4는 본 문서에 개시되는 일 실시예에 따라, 전자 장치(101)가 오디오의 출력 방식을 결정하는 방법에 대한 순서도(400)이다. 일 실시예에 따르면, 도 4에 도시된 프로세스는 전자 장치(101)(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))가 메모리(예: 도 1의 메모리(130))에 저장된 인스트럭션을 실행하여 수행되는 것으로 이해될 수 있다.
단계 401에서, 전자 장치(101)는 오디오 출력 장치의 속성을 파악할 수 있다. 상기 오디오 출력 장치는 상기 전자 장치(101)는 물론, 상기 전자 장치(101)에 유/ 무선으로 연결되는 외부 장치(예를 들어, 헤드폰 또는 스피커)를 포함할 수 있다. 예를 들어, 외부 장치는 블루투스(Bluetooth™), 와이파이 어웨어(WiFi Aware), 애드혹(Adhoc) 방식, 모바일 액세스 포인트(Mobile Access Point) 및/ 또는 와이파이 다이렉트(WiFi direct) 로 연결된 외부 장치를 포함할 수 있다.
일 실시예에서 전자 장치(101)는 상기 오디오 출력 장치의 오디오 신호 정보와 함께 볼륨 모니터 동작을 위한 속성을 추가로 판단할 수 있다. 전자 장치(101)는 전자장치와 출력장치의 볼륨 동기화(Absolute Volume Control, 이하 AVC) 지원여부, 사용자 귀에 얼마나 밀착되는지 여부(예를 들어, 커널형 이어폰 > 헤드셋 > 스피커 순으로 밀착도가 판단될 수 있다) 및/또는 차량용 출력장치인지 여부에 기반하여 상기 볼륨 모니터 동작을 위한 속성을 판단할 수 있다. 일 실시예에서 전자 장치(101)는 외부 장치와 유/무선으로 연결시 속성 정보를 획득할 수 있다. 상기 속성 정보란, 최대 출력 레벨 정보, 지원 음원 포맷 정보, 지원 샘플링 레이트 정보, 자체 볼륨 제어 지원 여부에 관한 정보 중 적어도 하나의 정보를 포함하는 정보를 의미할 수 있다. 전자 장치(101)는 오디오 출력 장치의 속성을 파악하여 동일한 오디오의 크기(volume)에도 장치의 특성에 따라 상이하게 느낄 수 있는 음압에 대한 사용자의 민감도를 반영할 수 있다.
일 실시예에서, 전자 장치(101)는 사용자의 장소 이동에 따른 출력 장치가 변동하는 경우, 출력 장치의 속성을 판단할 수 있다. 예를 들어, 전자 장치(101)는 사용자가 자동차를 탑승하는 경우, 출력 장치를 이어폰에서 자동차 내부의 스피커로 변경할 수 있다. 또는 전자 장치(101)는 사용자가 집에 들어오는 경우, 출력 장치를 이어폰에서 집 내부에 위치한 AI 스피커로 변경할 수 있다. 전자 장치(101)는 이어폰과 스피커의 각기 다른 속성을 판단할 수 있다. 예를 들어, 이어폰은 폐쇄형 출력 장치의 속성을 가지고 있고, 스피커는 개방형 출력 장치의 속성을 가지고 있을 수 있다. 전자 장치(101)는 단계 401에서 오디오 출력 장치의 속성을 파악하여 출력 장치가 폐쇄형 출력 장치가 아닌 경우에도 위험도 계산의 정확도를 극대화 할 수 있고, 이로 인해 사용자의 청력을 보호할 수 있다.
일 실시예에서, 전자 장치(101)는 오디오 신호가 전자 장치를 거치지않는 속성(예를 들면, FM 라디오의 오디오 신호)인지 파악할 수 있다. 전자 장치(101)는 오디오 신호가 전자 장치를 거치지않는 속성으로 파악되는 경우에는 출력장치의 볼륨 레벨을 오디오 신호의 에너지 분석에 이용하도록 반영할 수 있다. 전자 장치(101)는 단계 401에서 오디오 출력 장치의 속성을 파악하여 오디오 신호가 전자 장치를 거치지않는 속성인 경우에도 출력 장치의 볼륨 레벨을 이용하여 오디오 신호의 에너지를 분석할 수 있도록 함으로써 위험도 계산의 정확도를 극대화 할 수 있고, 이로 인해 사용자의 청력을 보호할 수 있다.
단계 402에서, 전자 장치(101)는 사용자의 청각 특성을 파악할 수 있다. 사용자 청각 특성이란, 사용자의 왼쪽 귀와 오른쪽 귀의 청력 및/또는 왼쪽 귀와 오른쪽 귀의 주파수 대역별 인지 수준에 기반한 정보를 의미할 수 있다. 일 실시예에서 전자 장치(101)는 사용자 설정 정보에 기반하여 사용자 청각 특성을 파악할 수 있다. 상기 사용자 설정 정보란, 사용자에 의하여 설정된 청력 프로필 또는 오디오 프로필을 의미할 수 있다. 예를 들어 상기 사용자 설정 정보란 사용자에 의하여 설정된 이퀄라이저 정보를 의미할 수 있다. 전자 장치(101)는 사용자 청각 특성을 파악하여 동일한 오디오의 크기(volume)에도 사용자 별로 상이하게 느끼는 음압에 대한 민감도를 반영할 수 있다.
일 실시예에서, 전자 장치(101)는 상기 사용자 설정 정보를 저장하고, 상기 저장된 사용자 설정 정보를 외부 전자 장치와 유/ 무선으로 공유할 수 있다. 예를 들어, 전자 장치(101)는 상기 사용자 설정 정보를 전자 장치(101)의 내부 메모리 또는 전자 장치(101)와 유/ 무선으로 연결된 외부 메모리에 저장하거나, 전자 장치(101)의 사용자의 계정과 연동된 온라인 저장 매체(예: 서버)에 저장할 수 있다. 전자 장치(101)는 상기 저장된 사용자 설정 정보를 외부 전자 장치의 요청에 기반하여 공유할 수 있다. 또는 전자 장치(101)와 외부 전자 장치의 사용자 계정이 동일한 경우 별도의 요청 없이도 상기 저장된 사용자 설정 정보를 공유할 수 있다. 상기 외부 전자 장치는 상기 공유된 사용자 설정 정보를 이용하여 상기 사용자 청각 특성을 파악할 수 있다.
단계 403에서, 전자 장치(101)는 오디오의 용도를 파악할 수 있다. 전자 장치(101)는 사용자 혹은 어플리케이션이 어떤 형태로 오디오를 재생 및/또는 출력하려 하는지에 관한 정보를 파악할 수 있다. 일 실시예에서 전자 장치(101)는 상기 오디오의 실시간성에 기반하여 상기 오디오의 용도를 파악할 수 있다. 예를 들어, 전자 장치(101)는 상기 오디오의 용도를 음악감상 용도와 게임에서 사용되는 효과음 용도로 나누어 파악할 수 있다. 전자 장치(101)는 실시간성이 낮고 상대적으로 높은 지연을 가지며 프레임의 주기가 상대적으로 길게 설정되고 각 프레임의 크기 자체는 큰 속성을 가진 오디오를 음악감상 용도의 오디오로 파악할 수 있다. 반대로 전자 장치(101)는 실시간성이 높고 낮은 지연을 가지며 프레임의 주기가 상대적으로 짧고 프레임의 크기 자체가 작게 설정된 오디오를 게임에서 사용되는 효과음 용도의 오디오로 파악할 수 있다.
단계 404에서, 전자 장치(101)는 오디오의 출력 방식을 결정할 수 있다. 전자 장치(101)는 결정된 출력 방식으로 오디오 신호 에너지 분석 단계에 상기 파악된 오디오 출력 장치의 속성 정보와 상기 파악된 사용자 청각 특성 정보를 전달할 수 있다. 상기 오디오의 출력 방식에는 프로세스 단위 크기 (Frame count) 와 프로세스 단위 전달 주기가 포함될 수 있다. 예를 들어, 장시간 고음질 형태의 음악 감상 용도의 오디오인 경우, 전자 장치(101)는 큰 크기의 프로세스 단위를 긴 주기로 상기 정보들을 오디오 신호처리 프로세서에 전달하여 전력절감 및 프로세스 안정화의 효과를 높일 수 있다. 반대로 게임에서 사용되는 효과음 용도의 오디오라면, 전자 장치(101)는 작은 크기의 프로세스 단위를 짧은 주기로 상기 정보들을 오디오 신호처리 프로세서에 전달하여 실시간성을 높일 수 있다.
도 5는 본 문서에 개시되는 일 실시예에 따라, 전자 장치(101)가 오디오 신호 에너지를 분석하는 방법에 대한 순서도(500)이다. 일 실시예에 따르면, 도 5에 도시된 프로세스는 전자 장치(101)(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))가 메모리(예: 도 1의 메모리(130))에 저장된 인스트럭션을 실행하여 수행되는 것으로 이해될 수 있다. 또는 전자 장치(101)의 오디오 신호처리 프로세서가 메모리에 저장된 인스트럭션을 실행하여 수행되는 것으로 이해될 수 있다.
단계 501에서, 전자 장치(101)는 프레임 단위 RMS를 분석할 수 있다. 일 실시예에서, 전자 장치(101)는 오디오 신호처리 프로세서로부터 전달받은 PCM 형태의 프레임을 분석하여 RMS 형태의 오디오 에너지를 계산할 수 있다. 도 6a를 참조하여 자세히 설명하도록 한다.
단계 502에서, 전자 장치(101)는 초단위 RMS를 분석할 수 있다. 일 실시예에서, 전자 장치(101)는 프레임 단위 RMS를 분석 단계에서 초단위 값을 화면 업데이트 주기에 기반하여 저장할 수 있다. 화면 업데이트 주기란, 어플리케이션에 의하여 설정된 전자 장치(101)의 화면을 업데이트하는 주기를 의미할 수 있다. 예를 들어, 화면 업데이트 주기가 1분인 경우, 전자 장치(101)는 배열을 이용하여 각 초의 시작시간을 함께 저장할 수 있다. 도 6b를 참조하여 자세히 설명하도록 한다.
단계 503에서, 전자 장치(101)는 출력 방식 별 RMS 종합 및 dB 변환 동작을 수행할 수 있다. 일 실시예에서, 전자 장치(101)는 초 단위 RMS 분석 결과에 따라 배열에 저장된 값을 화면 업데이트 주기를 기준으로 누적할 수 있다. 전자 장치(101)는 각 어플리케이션 마다 프레임 주기가 상이하여 RMS 값이 업데이트 되는 속도가 불일치한 경우에도 화면 업데이트 주기에 따라 각 어플리케이션의 RMS 값들을 누적할 수 있고 상기 불일치의 문제를 해결할 수 있다. 도 6b를 참조하여 자세히 설명하도록 한다.
일 실시예에서, 전자 장치(101)는 채널 별로 상기 초 단위 분석 RMS 분석 단계에서의 결과에 따른 RMS 값을 연산할 수 있다. 전자 장치(101)는 상기 연산된 RMS 값을 dB로 전환할 수 있다. 예를 들어, 전자 장치(101)는 디지털 신호에 기반하여 추정된 오디오 출력 레벨을 사용자가 느낄 수 있는 아날로그 신호의 오디오 출력의 크기 단위로 전환할 수 있다. 예를 들어, 전자 장치(101)는 디지털 신호에 기반한 오디오 출력 레벨을 사용자 가청 영역에 대하여 필터링하여 가청 영역 이외의 주파수 성분을 제거할 수 있다. 전자 장치(101)는 상기 필터링 된 오디오 출력 레벨을 아날로그 신호의 오디오 출력으로 변환할 수 있다.
도 6a는 일 실시예에 따른 전자 장치가 오디오 신호 에너지를 분석하는 방법의 예시도이다. 도 6a에는 시간을 x축으로 하고 진폭 값(dB)을 y축으로 하는 그래프가 도시되어 있다.
일 실시예에서, 전자장치는 오디오 신호처리 프로세서로부터 전달 받은 PCM 형태의 Frame 을 분석하여 RMS(Root Mean Square, 제곱 평균 제곱근, 실효값) 형태의 오디오 에너지를 계산할 수 있다.
일 실시예에서, 전자 장치(101)는 같이 프레임 구간에 포함된 샘플들의 진폭 값(dB)(603)를 제곱하여 합한 뒤 제곱근을 취하여 RMS 값을 얻을 수 있다.
예를 들어, 전자 장치(101)는 각 RMS 값을 아래의 수학식 1에 의하여 계산할 수 있다.
Figure PCTKR2021001367-appb-M000001
수학식 1에서 K는 1 프레임 내의 샘플의 개수, an은 해당 샘플 n의 진폭의 크기(amplitude)를 의미할 수 있다.
일 실시예에서, 전자 장치(101)는 용도에 따라 채널 별로 Frame 단위 RMS를 각각 계산할 수 있다. 전자 장치(101)는 일정 시간(예를 들어, 1초)에 도달하기 이전 프레임 단위 RMS를 누적하며, 상기 누적한 RMS를 초단위 RMS 단계에 전달할 수 있다. 전자 장치(101)는 상기 누적한 RMS를 초단위 RMS 단계에 전달한 후, 해당 값을 리셋하고 다음 frame 의 RMS를 시작 값부터 재계산할 수 있다. 이로 인해, 전자 장치(101)는 Frame 단위 RMS 의 저장소 크기를 매우 작게 유지할 수 있다.
예를 들어, 전자 장치(101)는 1초에 도달하기 이전 Frame 단위 RMS(601)를 누적할 수 있다. 전자 장치(101)는 1초간 누적한 RMS를 초단위 RMS 분석 단계에 전달한 뒤, 전달이 완료되면 해당 값을 리셋하고 다음 frame 의 RMS(602)를 0부터 재계산할 수 있다.
도 6b는 일 실시예에 따른 전자 장치가 오디오 신호 에너지를 분석하는 방법을 설명하기 위한 개념도이다.
도 6b를 참조하면, 전자 장치(101)는 프레임 단위 RMS 분석 단계(예: 도 5의 단계 501)에서 분석한 프레임 단위 RMS를 초 단위 RMS로 누적할 수 있다. 일 실시예에서, 오디오의 용도에 따른 프레임의 크기는 상이할 수 있다. 도 6b를 예로 들면, 용도가 음악인 오디오의 프레임(예를 들어, 610, 611, 612)의 크기와 용도가 게임인 오디오의 프레임(예를 들어, 613, 614, 615)의 크기는 상이할 수 있다. 따라서 초 단위로 누적 되어야 하는 프레임 RMS 의 개수도 오디오의 용도에 따라 상이할 수 있다. 또한 매 초와 프레임의 시작과 끝이 상이할 수 있다.
일 실시예에서, 전자 장치(101)는 RMS 분석 단계(예: 도 5의 단계 502)에서 상기 프레임이 해당 초에 누적 계산되어야 하는지 판단하여 프레임 RMS 값을 해당 초 RMS 에 누적할 수 있다. 예를 들어, 전자 장치(101)는 프레임의 시작 시간을 기준으로 프레임의 누적 여부를 판단한 뒤, 프레임이 해당 초에 누적 되어야하는 경우, 프레임 RMS 값을 해당 초 RMS (예를 들어, 616, 617)에 누적할 수 있다
일 실시예에서, 전자 장치(101)는 초 단위 RMS 분석 결과(예를 들어, 616, 617)에 따라 배열에 저장된 값을 화면 업데이트 주기를 기준으로 누적할 수 있다. 도 6b를 예로 들면, 전자 장치(101)는 용도가 음악인 오디오의 프레임(예를 들어, 610, 611, 612)의 주기와 용도가 게임인 오디오의 프레임(예를 들어, 613, 614, 615)의 주기가 상이한 경우에도, 초 단위 RMS 분석 결과에 따라 배열에 저장된 값을 이용하여 화면 업데이트 주기를 기준으로 누적할 수 있다. 따라서 전자 장치(101)는 음악인 오디오의 프레임(예를 들어, 610, 611, 612)의 주기와 용도가 게임인 오디오의 프레임(예를 들어, 613, 614, 615)의 주기가 상이하여 RMS 값이 업데이트 되는 속도가 불일치한 경우에도 화면 업데이트 주기에 따라 각 어플리케이션의 RMS 값들을 누적할 수 있고 상기 불일치의 문제를 해결할 수 있다.
일 실시예에서, 전자 장치(101)는 화면 LCD off 등 화면 업데이트가 불필요한 상황인 경우에도 초 단위 RMS를 계속 누적할 수 있고, 이후 화면 업데이트가 다시 필요한 상황이 되면, 이전 화면 업데이트 이후로 누적된 초 단위 RMS 값을 제공해 줄 수 있다.
도 7은 본 문서에 개시되는 일 실시예에 따라, 전자 장치(101)가 오디오 신호 사용량의 위험도를 예측하는 방법(700)에 대한 순서도이다. 일 실시예에 따르면, 도 7에 도시된 프로세스는 전자 장치(101)(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))가 메모리(예: 도 1의 메모리(130))에 저장된 인스트럭션을 실행하여 수행되는 것으로 이해될 수 있다.
단계 701에서, 전자 장치(101)는 선형 회귀 모델을 수립할 수 있다. 일 실시예에서, 전자 장치(101)는 시간당 오디오 사용량은 비례한다고 가정하고, 선형 회귀 모델을 수립할 수 있다. 전자 장치(101)는 일정 시간 수집된 (시간, dB) 데이터를 학습할 수 있다. 전자 장치(101)는 상기 학습을 기반으로 전자 장치(101)는 상기 예측된 dB값과 실측된 dB값의 차이의 제곱 값을 이용하여 그래프의 기울기와 절편 값을 계산할 수 있다. 예를 들어, 전자 장치(101) 아래의 수학식 2 및 수학식 3을 이용하여 기울기 W 값과 절편 b 값을 예측할 수 있다. 전자 장치(101)는 일정 시간 수집된 (시간, dB) 데이터를 기반으로 수학식 2를 이용하여 W 와 b값을 계산한 뒤, 수학식 3를 이용하여 수학식 3의 cost function 의 값을 최소화 시키는 W와 b 를 찾을 때까지 이를 반복할 수 있다. 수학식 3에서 x는 실측된 값을 의미하고, y는 그래프 상의 오차를 의미할 수 있다.
Figure PCTKR2021001367-appb-M000002
Figure PCTKR2021001367-appb-M000003
전자 장치(101)는 상기 계산된 그래프의 기울기와 절편 값을 이용하여 선형 회귀 모델을 수립할 수 있다. 전자장치는 상기 수립된 선형 회귀 모델을 이용하여 특정 시간에서의 dB 값을 예측할 수 있다. 전자 장치(101)는 상기 예측된 dB값과 실측된 dB값의 차이의 제곱 값을 이용하여 예측 값과 실측 값의 차이를 최소화 시키는 기울기와 절편 값을 찾을 때까지 학습을 반복할 수 있다.
일 실시예에서, 전자 장치(101)는 상기 학습을 통해 얻어진 선형 회귀 모델에 새로 획득한 (시간, dB) 데이터를 입력하여, 상기 선형 회귀 모델의 예측 정확도가 기대 수준 이상인지 파악할 수 있다. 상기 예측 정확도가 기대 수준 이하인 경우, 전자 장치(101)는 선형 회귀 모델을 재학습하여 기울기와 절편 값을 수정하고 새로운 선형 회귀 모델을 수립할 수 있다.
단계 702에서, 전자 장치(101)는 위험수준 도달 시간을 예측할 수 있다. 일 실시예에서, 전자 장치(101)는 상기 선형회귀 모델의 y축에 위험 수준의 dB 값을 입력하여 상기 위험 수준의 dB값에 대응하는 x축의 시간 값을 역산하여 위험수준 도달 시간을 예측할 수 있다. 전자 장치(101)는 상기 예측된 위험수준 도달시간과 현재 사용자가 오디오에 노출된 시간을 비교하여, 상기 사용자가 오디오에 과도하게 노출되어 있다고 판단되는 경우, 화면 표시 동작 단계로 현재 노출 시간과 위험수준 도달 시간 및/ 또는 예측 정확도에 대한 데이터를 함께 전달할 수 있다. 이하, 도 8을 이용하여 자세히 설명하도록 한다.
도 8은 선형 회귀 모델의 예시도이다. 도 8에는 시간을 x축으로, 오디오 신호 에너지를 분석하여 전환된 dB 값을 y축으로 두는 그래프가 도시되어 있다. 또한, 도 8에는 실측된 dB값(801, 802, 803, 804, 805)은 점으로 도시되어 있고 이에 따른 예측된 dB값은 선(810, 820, 830) 상에 도시되어 있다.
전자 장치(101)는 일정 시간(예: 1분)마다 (시간, dB) 데이터를 수집할 수 있다. 전자 장치(101)는 수집된 (시간, dB) 데이터를 해당 시간에 실측된 dB값(801, 802, 803, 804, 805)으로 표시할 수 있다.
전자 장치(101)는 일정 시간 수집된 (시간, dB) 데이터를 학습할 수 있다. 전자 장치(101)는 상기 학습을 기반으로 전자 장치(101)는 상기 예측된 dB값과 실측된 dB값의 차이의 제곱 값을 이용하여 그래프의 기울기와 절편 값을 계산할 수 있다.
예를 들어, 전자 장치(101)가 처음 실측된 값(801)과 두번째 실측된 값(802)만을 학습하여 기울기와 절편 값을 계산하면 제1 그래프(810)의 결과를 얻을 수 있다. 다만, 이 경우 세번째 실측된 값(803)은 제1 그래프(810)의 예상된 값과 큰 차이를 보인다. 전자 장치(101)는 세번째 실측된 값(803)과 네번째 실측된 값(804)을 더 수집하여 재 학습할 수 있다.
전자 장치(101)는 4개의 실측된 값(801, 802, 803, 804)들을 재 학습하여 기울기와 절편 값을 계산하면 제2 그래프(820)의 결과를 얻을 수 있다. 제2 그래프(820)는 제1 그래프(810)를 비교하면, 제2 그래프(820)가 제1 그래프(810)에 비해 세번째 실측된 값(803)과 4번째 실측된 값(804)이 예상된 값과의 차이가 줄었음을 알 수 있다.
전자 장치는 실측된 값과 예측 그래프 상의 오차가 최소화 될 때까지 학습을 반복할 수 있다.
도 9 내지 도 12는 다양한 실시예에 따른 전자 장치(101)에서 화면에 표시되는 UI의 예시도를 나타낸다. 도 9은 전자 장치(101)가 오디오를 제어하는 방법에 따라 상기 전자 장치(101)의 화면에 표시하는 UI의 예시도이다.
도 9a는 볼륨 모니터 작동 여부 결정을 위해 전자 장치(101)에 표시되는 제1 영역(901)이 도시되어 있다. 제1 영역(901)에는 현재 전자 장치(101)의 볼륨 모니터를 작동시키거나 멈출 수 있는 기능이 표시되어 있다. on/off 아이콘(906)에 입력을 가하면, 전자 장치(101)는 상기 볼륨 모니터 기능을 작동시키거나 작동을 멈출 수 있다..
도 9b는 볼륨 모니터링 소스 옵션 세팅이 완료되어 있지 않은 경우 전자 장치(101)에 표시되는 제2 영역(902)이 도시되어 있다. 전자 장치(101)는 제2 영역(902)을 통해 청력 상태를 체크하고 볼륨 모니터링 소스 옵션을 세팅한 후 청력 상태를 체크하라는 메시지를 표시할 수 있다.
도 9c에는 볼륨 모니터링 소스 옵션 세팅을 위해 전자 장치(101)에 표시되는 화면이 도시되어 있다. 화면의 제3 영역(903)에는 세팅을 도와주기 위한 이미지가 표시될 수 있다. 제4 영역(904)에는 세팅을 도와주기 위한 설명이 텍스트 형식으로 표시될 수 있다. 제5 영역(905)에는 전자 장치(101)와 유/무선으로 연결 가능한 외부 장치들이 표시될 수 있다. 상기 외부 장치들을 이용하여 오디오 소스가 출력될 수 있다. 전자 장치(101)는 디스플레이 상에 설정 UI를 함께 제공할 수 있다. 예를 들어, 설정 UI는 선택된 외부 장치와의 유/무선 연결을 이용한 볼륨 모니터링 기능의 활성화 설정을 위한 인터페이스(908)을 포함할 수 있다. 예를 들어, 전자 장치(101)는 인터페이스(908)에 대한 입력에 기반하여 외부 장치와의 유/무선 연결을 이용한 볼륨 모니터링 기능을 활성화 하거나 비활성화 할 수 있다.
전자 장치(101)는 확인을 나타내는 아이콘(907)에 대한 입력에 기반하여, 도 10의 UI를 화면에 표시할 수 있다.
도 10은 전자 장치(101)가 오디오를 제어하는 방법에 따라 상기 전자 장치(101)의 화면에 표시하는 세부 정보 제공을 위한 UI의 예시도이다.
도 10a에는 전자 장치(101)의 화면에 데일리 정보가 표시된 예시도가 도시되어 있다. 전자 장치(101) 제1 영역(1001)에는 현재 볼륨 모니터링 위험 수준을 나타내는 단어가 표시될 수 있다. 예를 들어, 현재 볼륨 모니터링 결과 위험 수준인 경우, Loud라는 단어가 표시될 수 있다. 또는, 현재 볼륨 모니터링 결과 위험 수준이 아닌 경우, OK라는 단어가 표시될 수 있다. 제1 영역(1001)에는 이와 함께 현재 음량 상태에 따른 조언이 텍스트 형태로 함께 표시될 수 있다. 도 10a의 제1 영역(1001)에는 Loud라는 단어가 표시되어 있고, 이에 따라 청력 보호를 위해 볼륨을 줄이거나 휴식을 취하라는 조언이 표시되어 있다.
제2 영역(1002)에는 하루 동안 이용된 음량의 볼륨이 시간에 따라 막대 그래프로 표시되어 있다. 제2 영역(1002)에는 위험 수준 dB가 함께 표시될 수 있다.
제3 영역(1003)에는 사용자에게 노출된 시간과 평균 dB가 표시될 수 있다. 또한 그 아래 줄에 어제와 비교한 평균 dB가 표시될 수 있다. 도 10a를 예를 들면, 사용자는 2019년 6월 22일에 6시간 58분 동안 평균 82dB의 오디오에 노출되었다. 평균 82dB는 하루 전에 비해 3dB 상승한 값임이 표시되어 있다.
도 10b에는 전자 장치(101)의 화면에 위클리 정보가 표시된 예시도가 도시되어 있다. 위클리 정보는 데일리 정보의 제2 영역의 내용만 전환될 수 있다.
위클리 정보의 제2 영역(1006)에는 오늘을 기준으로 기 설정된 기간 동안 각 날짜의 이용된 음량의 볼륨이 날짜에 따라 막대 그래프로 표시될 수 있다. 도 10b를 예로 들면, 6월 22일을 기준으로 6월 16일부터 각 날짜 별로 이용된 음량의 볼륨이 표시되어 있다. 각 날짜에 대응되는 막대 그래프가 위험 수준 dB를 넘었는지 여부를 사용자가 직관적으로 알 수 있도록 해당 날짜의 아래에 별도의 아이콘(1011)으로 표시될 수 있다. 예를 들어, 해당 날짜의 음량의 볼륨이 위험 수준 dB를 넘은 경우, x 표시된 아이콘(1012)이 표시될 수 있다.
도 10a의 정보 아이콘(1005)이 선택되면, 도 10c의 화면(1007)이 표시될 수 있다. 전자 장치(101)는 10c의 화면을 이용해 사용자의 청력 보호를 위한 정보를 제공할 수 있다. 예를 들어, 상기 정보는 WHO의 권고 사용량(1008), OK와 Loud의 판단 근거(1009), 위험 수준 dB 이상의 dB의 오디오 각각의 최대 노출 시간(1010)에 대한 정보를 포함할 수 있다.
도 11은 전자 장치(101)가 오디오의 음량이 위험수준에 도달한 경우 화면에 경고 메세지를 표시하는 UI의 예시도이다. 경고 메시지(1101)는 팝업 메시지 형태로 표시될 수 있다. 또는 퀵 패널을 이용하여 표시될 수 있다. 퀵 패널이란, 전자 장치(101)의 상단 바에 대한 입력에 기반하여, wifi, 블루투스, GPS, 진동, 자동회전여부 또는 현재 진행중인 어플이나 기능을 표시해주는 패널을 의미할 수 있다. 예를 들어 전자 장치(101)는 상기 전자 장치(101)의 화면 상단에 수신된 스와이프 입력에 기반하여, 경고 메시지(1101)를 표시할 수 있다.
도 11에는 퀵 패널을 이용하여 경고 메시지(1101)가 표시된 화면이 도시되어 있다. 경고 메시지(1101)는 청력의 보호를 위해 불륨을 줄이거나 휴식을 취하라는 내용의 메시지를 포함할 수 있다. 경고 메시지(1101)의 하단에는 알림 방법을 변경할 수 있는 알림 세팅 영역(1103)을 포함할 수 있다. 예를 들어, 전자 장치(101)는 알림 세팅 영역(1103)에 대한 입력에 기반하여 알림 방법을 퀵패널 방식에서 팝업 방식으로 변경할 수 있다.
전자 장치(101)는 경고 메시지(1101)에 포함된 관리 아이콘(1102)에 대한 입력에 기반하여 도 12의 화면을 표시할 수 있다. 이하, 도 12를 참조하여 자세히 설명한다.
도 12는 전자 장치(101)가 경고 메시지에 대한 알림 설정을 변경하기 위해 제공하는 UI의 예시도이다.
도 11의 관리 아이콘(1102)에 대한 입력에 기반하여 도 12의 UI가 표시될 수 있다. 전자 장치(101)는 제1 아이콘(1201)에 대한 입력에 기반하여 알림 설정을 변경할 수 있는 옵션 선택 UI(1202)를 표시할 수 있다. 옵션 선택 UI(1202)는 다양한 형태로 표시될 수 있다. 예를 들어, 전자 장치(101)는 옵션 선택 UI(1202)를 팝업창 형태로 표시할 수 있다.
전자 장치(101)는 옵션 선택 UI(1202)에 포함된 알림 옵션 아이콘(1203)에 대한 입력에 기반하여 알림 옵션 선택 UI(1206)를 표시할 수 있다. 알림 옵션 선택 UI(1206)는 다양한 형태로 표시될 수 있다. 예를 들어, 전자 장치(101)는 알림 옵션 선택 UI(1206)를 팝업창 형태로 표시할 수 있다.
전자 장치(101)는 알림 옵션 선택 UI(1206)에 대한 사용자 입력에 기반하여 경고 알림을 표시하는 기준을 변경할 수 있다. 예를 들어, 전자 장치(101)는 제1 옵션(1204)을 선택하는 입력에 기반하여 사용자가 가용량의 100%를 사용하였을 때 경고 메시지 알림을 표시할 수 있다. 또는 전자 장치(101)는 제2 옵션(1205)을 선택하는 입력에 기반하여 사용자가 가용량의 85%를 사용하였을 때 경고 메시지 알림을 표시할 수 있다.
일 실시예에 따르면, 전자 장치는 적어도 하나의 외부 장치로부터 데이터를 수신하거나, 상기 적어도 하나의 외부 장치로 데이터를 송신하는 통신 회로, 디스플레이, 메모리 및 프로세서를 포함하고, 상기 메모리는, 실행 시에 상기 프로세서가 오디오 입력에 기반하여 오디오의 출력 방식을 결정하고, 상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하고, 상기 오디오의 신호 사용량에 기반한 위험도를 예측하고, 상기 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 상기 오디오 입력이 제공되는 위치에 따라 상기 오디오 입력을 저장소 음원과 재생 장치 음원으로 구분하고, 상기 오디오 입력이 재생 장치 음원이면, 상기 통신 회로와 작동적으로 연결된 외부 전자 장치를 이용하여 상기 오디오를 출력하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 오디오 출력 장치의 속성 정보, 사용자의 청각 특성 정보, 또는 상기 오디오의 용도 정보 중 적어도 하나의 정보에 기반하여 상기 오디오의 출력 방식을 결정하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 상기 오디오 출력 장치의 오디오 신호 정보 또는 볼륨 모니터 동작을 위한 속성 정보 중 적어도 하나의 정보에 기반하여 상기 오디오 출력 장치의 속성 정보를 판단하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 오디오 출력 장치의 속성을 파악하고 상기 오디오 출력 장치의 특성에 기반한 음압에 대한 사용자의 민감도를 판단하도록 할 수 있다.
일 실시예에 따르면, 상기 오디오 출력 장치의 속성은 오디오 신호가 상기 전자 장치를 거치는 신호인지 여부를 포함하고, 전자 장치는 상기 프로세서가 상기 오디오 신호가 상기 전자 장치를 거치치 않는 속성으로 파악되는 경우에는 상기 오디오 출력 장치의 볼륨 레벨을 상기 오디오 신호의 에너지 분석에 이용하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 프레임 단위 RMS 값을 분석하고, 초 단위 RMS 값을 분석하고, 출력 방식 별 RMS 값을 종합하여 상기 오디오의 신호 에너지를 분석하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 상기 오디오의 용도에 따라 채널 별로 상기 프레임 단위 RMS 값을 분석하도록 할 수 있다.
일 실시예에 따르면, 전자 장치는 프로세서가 선형 회귀 모델을 수립하고, 상기 선형 회귀 모델을 이용하여 위험 수준 도달 시간을 예측하고, 상기 위험 수준 도달 시간에 기반하여 위험도를 판단하도록 할 수 있다.
일 실시예에 따르면, 상기 선형 회귀 모델은 학습 알고리즘을 이용하여 학습되는 것일 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 전자 장치에 포함되거나 상기 전자 장치에 연결된 메모리에 저장된 하나 이상의 인스트럭션들이 실행됨에 따라, 오디오 입력에 기반하여 오디오의 출력 방식을 결정하는 동작, 상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하는 동작, 상기 오디오의 신호 사용량에 기반한 위험도를 예측하는 동작 및 상기 전자 장치의 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 오디오 입력이 제공되는 위치에 따라 상기 오디오 입력을 저장소 음원과 재생 장치 음원으로 구분하는 동작 및 상기 오디오 입력이 재생 장치 음원이면, 상기 통신 회로와 작동적으로 연결된 외부 전자 장치를 이용하여 상기 오디오를 출력하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 오디오 출력 장치의 속성 정보, 사용자의 청각 특성 정보, 또는 상기 오디오의 용도 정보 중 적어도 하나의 정보에 기반하여 상기 오디오의 출력 방식을 결정하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 오디오 출력 장치의 오디오 신호 정보 또는 볼륨 모니터 동작을 위한 속성 정보 중 적어도 하나의 정보에 기반하여 상기 오디오 출력 장치의 속성 정보를 판단하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 오디오 출력 장치의 속성을 파악하는 동작 및 상기 오디오 출력 장치의 특성에 기반한 음압에 대한 사용자의 민감도를 판단하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 오디오 출력 장치의 속성은 오디오 신호가 상기 전자 장치를 거치는 신호인지 여부를 포함하고, 상기 오디오 신호가 상기 전자 장치를 거치치 않는 속성으로 파악되는 경우에는 상기 오디오 출력 장치의 볼륨 레벨을 상기 오디오 신호의 에너지 분석에 이용하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 프레임 단위 RMS 값을 분석하는 동작, 초 단위 RMS 값을 분석하는 동작 및 출력 방식 별 RMS 값을 종합하여 상기 오디오의 신호 에너지를 분석하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 오디오의 용도에 따라 채널 별로 프레임 단위 RMS 값을 분석하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 선형 회귀 모델을 수립하는 동작, 상기 선형 회귀 모델을 이용하여 위험 수준 도달 시간을 예측하는 동작 및 상기 위험 수준 도달 시간에 기반하여 위험도를 판단하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치가 수행하는 방법은, 상기 선형 회귀 모델은 학습 알고리즘을 이용하여 학습되는 것일 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    적어도 하나의 외부 장치로부터 데이터를 수신하거나, 상기 적어도 하나의 외부 장치로 데이터를 송신하는 통신 회로;
    디스플레이;
    메모리; 및
    프로세서를 포함하고,
    상기 메모리는, 실행 시에 상기 프로세서가,
    오디오 입력에 기반하여 오디오의 출력 방식을 결정하고,
    상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하고,
    상기 오디오의 신호 사용량에 기반한 위험도를 예측하고,
    상기 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 인스트럭션들을 저장하는,
    전자 장치.
  2. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 오디오 입력이 제공되는 위치에 따라 상기 오디오 입력을 저장소 음원과 재생 장치 음원으로 구분하고,
    상기 오디오 입력이 재생 장치 음원이면, 상기 통신 회로와 작동적으로 연결된 외부 전자 장치를 이용하여 상기 오디오를 출력하도록 하는,
    전자 장치.
  3. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    오디오 출력 장치의 속성 정보, 사용자의 청각 특성 정보, 또는 상기 오디오의 용도 정보 중 적어도 하나의 정보에 기반하여 상기 오디오의 출력 방식을 결정하도록 하는,
    전자 장치.
  4. 청구항 3에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 오디오 출력 장치의 오디오 신호 정보 또는 볼륨 모니터 동작을 위한 속성 정보 중 적어도 하나의 정보에 기반하여 상기 오디오 출력 장치의 속성 정보를 판단하도록 하는,
    전자 장치.
  5. 청구항 4에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    오디오 출력 장치의 속성을 파악하고
    상기 오디오 출력 장치의 특성에 기반한 음압에 대한 사용자의 민감도를 판단하도록 하는,
    전자 장치.
  6. 청구항 3에 있어서,
    상기 오디오 출력 장치의 속성은 오디오 신호가 상기 전자 장치를 거치는 신호인지 여부를 포함하고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 오디오 신호가 상기 전자 장치를 거치치 않는 속성으로 파악되는 경우에는 상기 오디오 출력 장치의 볼륨 레벨을 상기 오디오 신호의 에너지 분석에 이용하도록 하는,
    전자 장치.
  7. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    프레임 단위 RMS 값을 분석하고,
    초 단위 RMS 값을 분석하고,
    출력 방식 별 RMS 값을 종합하여 상기 오디오의 신호 에너지를 분석하도록 하는,
    전자 장치.
  8. 청구항 7에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 오디오의 용도에 따라 채널 별로 상기 프레임 단위 RMS 값을 분석하도록 하는,
    전자 장치.
  9. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    선형 회귀 모델을 수립하고,
    상기 선형 회귀 모델을 이용하여 위험 수준 도달 시간을 예측하고,
    상기 위험 수준 도달 시간에 기반하여 위험도를 판단하도록 하는,
    전자 장치.
  10. 청구항 9에 있어서,
    상기 선형 회귀 모델은 학습 알고리즘을 이용하여 학습되는 것인,
    전자 장치.
  11. 전자 장치가 수행하는 방법에 있어서,
    오디오 입력에 기반하여 오디오의 출력 방식을 결정하는 동작;
    상기 결정된 출력 방식에 기반한 프레임의 크기 변경 또는 주기 변경 중 적어도 하나에 기반하여 상기 오디오의 신호 에너지를 분석하는 동작;
    상기 오디오의 신호 사용량에 기반한 위험도를 예측하는 동작; 및
    상기 전자 장치의 디스플레이를 통해 상기 신호 에너지 또는 상기 예측된 위험도 중 적어도 하나를 표시하는 동작을 포함하는,
    방법.
  12. 청구항 11에 있어서,
    상기 오디오의 출력 방식을 결정하는 동작은,
    오디오 출력 장치의 속성 정보, 사용자의 청각 특성 정보, 또는 상기 오디오의 용도 정보 중 적어도 하나의 정보에 기반하여 상기 오디오의 출력 방식을 결정하는 동작을 포함하는,
    방법.
  13. 청구항 11에 있어서,
    상기 오디오의 신호 에너지를 분석하는 동작은,
    프레임 단위 RMS 값을 분석하는 동작;
    초 단위 RMS 값을 분석하는 동작; 및
    출력 방식 별 RMS 값을 종합하여 상기 오디오의 신호 에너지를 분석하는 동작을 포함하는,
    방법.
  14. 청구항 13에 있어서,
    상기 프레임 단위 RMS 값을 분석하는 동작은,
    상기 오디오의 용도에 따라 채널 별로 상기 프레임 단위 RMS 값을 분석하는 동작을 포함하는,
    방법.
  15. 청구항 11에 있어서,
    상기 위험도를 예측하는 동작은,
    선형 회귀 모델을 수립하는 동작;
    상기 선형 회귀 모델을 이용하여 위험 수준 도달 시간을 예측하는 동작; 및
    상기 위험 수준 도달 시간에 기반하여 위험도를 판단하는 동작을 포함하는,
    방법.
PCT/KR2021/001367 2020-02-10 2021-02-02 오디오를 제어하는 전자 장치 및 방법 WO2021162316A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0015921 2020-02-10
KR1020200015921A KR20210101668A (ko) 2020-02-10 2020-02-10 오디오를 제어하는 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2021162316A1 true WO2021162316A1 (ko) 2021-08-19

Family

ID=77292501

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001367 WO2021162316A1 (ko) 2020-02-10 2021-02-02 오디오를 제어하는 전자 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20210101668A (ko)
WO (1) WO2021162316A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079782A (ko) * 2008-01-18 2009-07-22 삼성전자주식회사 청력 보호를 위한 오디오 처리 장치 및 방법
US20110299705A1 (en) * 2010-06-07 2011-12-08 Hannstar Display Corporation Audio signal adjusting system and method
KR20120089006A (ko) * 2011-02-01 2012-08-09 주식회사 코아로직 휴대 단말기에서의 오디오 신호 크기 제어 시스템 및 방법
KR20170025840A (ko) * 2015-08-31 2017-03-08 엘지전자 주식회사 이어셋, 이어셋 시스템 및 그 제어방법
KR20170103539A (ko) * 2016-03-04 2017-09-13 엘지전자 주식회사 휴대기기 및 휴대기기를 활용한 청취패턴 제어방법 및 청취패턴 제어 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079782A (ko) * 2008-01-18 2009-07-22 삼성전자주식회사 청력 보호를 위한 오디오 처리 장치 및 방법
US20110299705A1 (en) * 2010-06-07 2011-12-08 Hannstar Display Corporation Audio signal adjusting system and method
KR20120089006A (ko) * 2011-02-01 2012-08-09 주식회사 코아로직 휴대 단말기에서의 오디오 신호 크기 제어 시스템 및 방법
KR20170025840A (ko) * 2015-08-31 2017-03-08 엘지전자 주식회사 이어셋, 이어셋 시스템 및 그 제어방법
KR20170103539A (ko) * 2016-03-04 2017-09-13 엘지전자 주식회사 휴대기기 및 휴대기기를 활용한 청취패턴 제어방법 및 청취패턴 제어 시스템

Also Published As

Publication number Publication date
KR20210101668A (ko) 2021-08-19

Similar Documents

Publication Publication Date Title
WO2019088793A1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
WO2020085789A1 (en) Foldable electronic device for controlling user interface and operating method thereof
WO2018110959A1 (en) Electronic device, storage medium, and method of processing audio signal by electronic device
WO2017043828A1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
WO2020085636A1 (en) Electronic device for displaying list of executable applications on split screen and operating method thereof
WO2019117566A1 (ko) 전자 장치 및 그의 입력 제어 방법
WO2019083271A1 (ko) 어플리케이션 프로그램을 제어하는 전자 장치 및 그 제어 방법
WO2019039716A1 (ko) 전자 장치 및 그의 스트레스 측정 방법
WO2019177373A1 (en) Electronic device for controlling predefined function based on response time of external electronic device on user input, and method thereof
WO2020166894A1 (en) Electronic device and method for recommending word in same
WO2019112298A1 (en) Electronic device having structure with gas sensor
WO2021141213A1 (ko) 단말기의 통신 요금제를 변경하기 위한 서버 및 이의 동작 방법
WO2019164098A1 (en) Apparatus and method for providing function associated with keyboard layout
WO2022154286A1 (ko) 사용자 인터페이스를 제공하는 방법 및 그 전자 장치
WO2020171342A1 (ko) 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법
WO2020204617A1 (en) Method for removing dust using speaker and electronic device supporting the same
WO2021162316A1 (ko) 오디오를 제어하는 전자 장치 및 방법
WO2019164204A1 (ko) 전자 장치 및 그의 동작 방법
WO2019151667A1 (ko) 자동 응답 시스템으로 개인 정보를 전송하기 위한 장치 및 방법
WO2022154264A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022211389A1 (ko) 오디오 공유를 지원하기 위한 전자 장치
WO2021230560A1 (ko) 카메라 장치를 포함하는 전자 장치
WO2020159032A1 (ko) 복수의 어플리케이션에 카메라에서 획득한 이미지를 제공하는 전자 장치 및 그의 동작 방법
WO2022065845A1 (ko) 입력 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2020159213A1 (ko) 상황에 기반한 사용자 맞춤형 설정 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754538

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21754538

Country of ref document: EP

Kind code of ref document: A1