WO2022005248A1 - 주변 오디오 신호의 감지 방법 및 전자 장치 - Google Patents

주변 오디오 신호의 감지 방법 및 전자 장치 Download PDF

Info

Publication number
WO2022005248A1
WO2022005248A1 PCT/KR2021/008424 KR2021008424W WO2022005248A1 WO 2022005248 A1 WO2022005248 A1 WO 2022005248A1 KR 2021008424 W KR2021008424 W KR 2021008424W WO 2022005248 A1 WO2022005248 A1 WO 2022005248A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
information
audio signal
external electronic
ambient audio
Prior art date
Application number
PCT/KR2021/008424
Other languages
English (en)
French (fr)
Inventor
최광용
김대호
김상헌
김미선
서미라
임연욱
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022005248A1 publication Critical patent/WO2022005248A1/ko
Priority to US18/090,299 priority Critical patent/US20230137857A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Definitions

  • Various embodiments of the present disclosure relate to a method for detecting an ambient audio signal and an electronic device.
  • Electronic devices may be used in various ways. Electronic devices have been continuously studied to detect an audio signal and to determine a user's surrounding situation based on the detected audio signal. The electronic device may analyze the detected audio signal based on a context aware technology.
  • the electronic device may perform wireless communication with another external electronic device (eg, an ear wearable device or an earphone), and may at least partially control the other electronic device. For example, the electronic device may change the operation mode of the other electronic device and acquire an audio signal using a microphone provided in the other electronic device. The electronic device may analyze the audio signal acquired through another external electronic device to check the user's surroundings.
  • another external electronic device eg, an ear wearable device or an earphone
  • the electronic device may analyze the audio signal acquired through another external electronic device to check the user's surroundings.
  • the electronic device may perform wireless communication with an ear wearable device (eg, an earphone), and may at least partially control the ear wearable device.
  • the electronic device may play music while the ear wearable device is mounted on the user's ear.
  • the eardrum is shielded, so it may be difficult for the user to sense the surrounding audio signal. In this case, the probability that the user is exposed to the risk of an accident may increase.
  • Various embodiments of the present disclosure may provide a method of detecting an ambient audio signal even when a user wears an ear wearable device on an ear and playing music, and an electronic device implementing the same.
  • An electronic device may include an audio module, a wireless communication circuit for communication with at least one external electronic device, a memory and a processor operatively connected to the audio module, the wireless communication circuit, and the memory have.
  • the processor obtains an ambient audio signal based on the at least one external electronic device and the audio module, checks whether preset audio information is included based on the obtained ambient audio signal, and In response to the confirmation, the at least one external electronic device connected through the wireless communication circuit may be determined, and data related to the ambient audio signal may be transmitted to the determined at least one external electronic device.
  • the method includes an operation of acquiring an ambient audio signal based on at least one of an electronic device and at least one external electronic device connected to communicate with the electronic device, and preset audio based on the obtained ambient audio signal.
  • An operation of determining whether information is included, an operation of determining the at least one external electronic device in response to the confirmation of the audio information, and an operation of providing the determined at least one external electronic device with data related to the ambient audio signal It may include an operation of transmitting.
  • Various embodiments of the present disclosure have an object to prevent an accident by detecting an ambient audio signal while playing music using an ear wearable device connected to an electronic device.
  • the electronic device may determine at least one microphone for receiving an ambient audio signal in consideration of context information. According to an embodiment, the electronic device may analyze the received ambient audio signal and determine at least one receiving device (eg, a receiver) for transmitting the ambient audio signal. According to an embodiment, the electronic device may at least partially control an operatively connected external electronic device (eg, an external electronic device and/or a receiver equipped with a microphone).
  • the electronic device may analyze the received ambient audio signal and determine at least one receiving device (eg, a receiver) for transmitting the ambient audio signal. According to an embodiment, the electronic device may at least partially control an operatively connected external electronic device (eg, an external electronic device and/or a receiver equipped with a microphone).
  • the electronic device may detect a situation corresponding to an ambient audio signal while listening to music using the ear wearable device, and provides notification information corresponding to the detected situation to another external electronic device. can do.
  • various effects directly or indirectly identified through this document may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2 is an exemplary diagram illustrating a situation in which a peripheral audio signal cannot be heard when the ear wearable device according to various embodiments of the present disclosure is worn.
  • FIG 3 is an example illustrating a situation in which an electronic device and at least one external electronic device are operatively connected to each other, and the at least one external electronic device is at least partially controlled by the electronic device according to various embodiments of the present disclosure; It is also
  • FIG. 4 is an exemplary diagram illustrating a situation in which an electronic device equipped with a microphone is selected to receive an ambient audio signal and another electronic device for transmitting the received ambient audio signal is determined according to various embodiments of the present disclosure; .
  • FIG. 5 is an exemplary diagram illustrating a process in which an electronic device determines at least one external electronic device for receiving an ambient audio signal according to various embodiments of the present disclosure
  • FIG. 6 is an exemplary diagram illustrating a process in which an electronic device determines at least one external electronic device for transmitting an analyzed ambient audio signal, according to various embodiments of the present disclosure
  • the 7 is at least one external device for receiving an ambient audio signal by selecting at least one external electronic device, analyzing the ambient audio signal, and transmitting data related to the ambient audio signal according to various embodiments of the present disclosure; It is a flowchart illustrating a method of determining an electronic device.
  • FIG. 8 is a flowchart illustrating a method of collecting context information and determining at least one external electronic device for receiving an ambient audio signal based on the context information according to various embodiments of the present disclosure
  • 9A is a table illustrating an embodiment of changing microphone settings of an electronic device and at least one external electronic device based on collected context information according to various embodiments of the present disclosure
  • 9B is a table illustrating an embodiment of changing the operation mode of an electronic device and at least one external electronic device based on collected context information according to various embodiments of the present disclosure.
  • 10A is a flowchart illustrating a method for an electronic device to sense a surrounding situation based on a received surrounding audio signal according to various embodiments of the present disclosure.
  • 10B is a flowchart illustrating in more detail a method for an electronic device to sense a surrounding situation based on a received surrounding audio signal according to various embodiments of the present disclosure.
  • 11 is a table illustrating an embodiment in which the electronic device ignores the ambient audio signal based on the received ambient audio signal according to various embodiments of the present disclosure.
  • FIG. 12 is a flowchart illustrating a method for an electronic device to determine at least one external electronic device for transmitting an analysis-completed ambient audio signal, according to various embodiments of the present disclosure
  • FIG. 13 is a table illustrating an example in which an electronic device determines at least one external electronic device for transmitting an analyzed ambient audio signal according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the co-processor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is an exemplary diagram illustrating a situation in which a peripheral audio signal cannot be heard when the ear wearable device according to various embodiments of the present disclosure is worn.
  • the electronic device 101 (eg, the electronic device 101 of FIG. 1 ) includes an ear wearable device 201 (eg, the electronic devices 102 and 104 of FIG. 1 ), an earphone (earphone)) can be operatively connected.
  • the ear wearable device 201 may be worn at least partially in close contact with the user's ear, and the eardrum may be in a shielded state through which external sounds are not introduced.
  • the electronic device 101 may execute a music-related application, and may output music through the wearable device 201 .
  • the external sound may include a warning sound to indicate a danger in the surroundings, such as a car horn sound 203 .
  • the user's ear may be blocked by the ear wearable device 201 .
  • FIG 3 is an example illustrating a situation in which an electronic device and at least one external electronic device are operatively connected to each other, and the at least one external electronic device is at least partially controlled by the electronic device according to various embodiments of the present disclosure; It is also
  • the electronic device 101 (eg, the electronic device 101 of FIG. 1 ) includes an ear wearable device 201 (eg, the electronic devices 102 and 104 of FIG. 1 ), an earphone (earphone)) and/or a wrist wearable device 301 (eg, the electronic devices 102 and 104 of FIG. 1 ).
  • the electronic device 101 may at least partially control the ear wearable device 201 and the wrist wearable device 301 .
  • the electronic device 101 may switch the use mode of the ear wearable device 201 and the wrist wearable device 301 , and at least partially control some components (eg, a microphone, a speaker, a sensor module) can do.
  • the electronic device 101 may activate a microphone included in the ear wearable device 201 to control to receive a surrounding audio signal.
  • the electronic device 101 may switch the operation mode of the ear wearable device 201 to receive an audio signal through the ear wearable device 201 .
  • the electronic device 101 may select at least one external electronic device equipped with a microphone (eg, the ear wearable device 201 and/or the wrist wearable device 301 ), and the selected external electronic device Through the device, the external electronic device may be at least partially controlled to receive an audio signal in the vicinity.
  • the electronic device 101 may analyze the received surrounding audio signal, and as a result of the analysis, determine at least one external electronic device to transmit data related to the selected audio signal.
  • the electronic device 101 and/or at least one external electronic device may acquire context information.
  • the electronic device 101 may determine at least one external electronic device that will receive a surrounding audio signal in consideration of context information.
  • the at least one external electronic device may include at least one microphone.
  • the context information may include information indicating the state of the electronic device 101 sensed using a sensor module (eg, the sensor module 176 of FIG. 1 ).
  • the context information of the electronic device 101 may include information for determining whether the electronic device 101 is located in a pocket using an illuminance sensor.
  • the context information of the external electronic device may include information for determining a relative position with respect to the electronic device 101 using a gyro sensor and/or an acceleration sensor.
  • the context information may include information related to a context in which the user is using the electronic device 101 using at least one sensor.
  • FIG. 4 is an exemplary diagram illustrating a situation in which an electronic device equipped with a microphone is selected to receive an ambient audio signal and another electronic device for transmitting the received ambient audio signal is determined according to various embodiments of the present disclosure; .
  • the electronic device 101 (eg, the electronic device 101 of FIG. 1 ) is connected to a network 420 (eg, the first network 198 of FIG. 1 and/or the second
  • the network 199 may communicate with at least one external electronic device 102 (eg, the electronic device 102 of FIG. 1 ).
  • the electronic device 101 may be operatively connected to the ear wearable device 201 (eg, a headset, an earphone), and may at least partially control the ear wearable device 201 .
  • the at least one external electronic device 102 may be operatively connected to a plurality of other electronic devices (eg, the AI speaker 401 , the television 402 , and the refrigerator 403 ).
  • the electronic device 101 may at least partially control the at least one external electronic device 102 and/or a plurality of other electronic devices connected to the at least one external electronic device 102 .
  • the electronic device 101 may activate a microphone device included in the at least one external electronic device 102 and acquire an ambient audio signal through the activated microphone device.
  • the electronic device 101 may receive the ambient audio signal from the at least one external electronic device 102 and analyze the ambient audio signal.
  • the at least one external electronic device 102 may analyze an ambient audio signal by itself, and may transmit the analyzed result data to the electronic device 101 .
  • the electronic device 101 may be located in the user's (eg, withdrawal) room, and at least one external electronic device 102 connected to the electronic device 101 may be located in the living room.
  • the user may be in a state of listening to music while wearing the ear wearable device 201 connected to the electronic device 101 on an ear.
  • the at least one external electronic device 102 located in the living room may acquire the mother's audio signal, and transmit the acquired mother's audio signal. may be transmitted to the electronic device 101 .
  • the electronic device 101 may analyze the mother's audio signal transmitted from the at least one external electronic device 102 , and the ear wearable device 201 to transmit the audio signal based on the analyzed audio signal can be decided
  • the electronic device 101 may transmit the analyzed audio signal to the ear wearable device 201 , and may output the audio signal through the ear wearable device 201 .
  • the electronic device 101 may select at least one external electronic device 102 to receive an ambient audio signal, and may select the ear wearable device 201 to output the audio signal.
  • FIG. 5 is an exemplary diagram illustrating a process in which an electronic device determines at least one external electronic device for receiving an ambient audio signal according to various embodiments of the present disclosure
  • the electronic device 101 may be operatively connected to another external electronic device (eg, the ear wearable device 201 of FIG. 2 ), The ear wearable device 201 may be at least partially controlled.
  • the electronic device 101 may communicate with the ear wearable device 201 through a network (eg, the first network 198 and/or the second network 199 of FIG. 1 ).
  • the electronic device 101 includes a processor 120 (eg, the processor 120 of FIG. 1 ), a wireless communication circuitry 511 , and an ultra wide band (UWB) positioning circuit (UWB).
  • UWB ultra wide band
  • the processor 120 may include a data processing unit 501 , a position determining unit 503 , and/or an interface manager 505 .
  • the electronic device 101 may be operatively connected to the ear wearable device 201 to confirm a relative position of the ear wearable device 201 with respect to the electronic device 101 .
  • the electronic device 101 may determine whether the ear wearable device 201 can receive an ambient audio signal based on the position of the ear wearable device 201 . If it is confirmed that the peripheral audio signal can be received through the ear wearable device 201, the electronic device 101 may receive the peripheral audio signal through the ear wearable device 201, so that the ear wearable device ( 201) can be at least partially controlled.
  • the data processing unit 501 of the processor 120 may process data transmitted and received with the ear wearable device 201 operatively connected to the electronic device 101 .
  • the data processing unit 501 may encode data to convert it into a digital signal, and then transmit the digital signal to the wearable device 201 .
  • the data processing unit 501 may decode the digital signal received from the ear wearable device 201 and convert it into data.
  • the data processing unit 501 may process command data for at least partially controlling the wearable device 201 .
  • the data processing unit 501 may transmit/receive a signal to and from the ear wearable device 201 through the wireless communication circuit 511 .
  • the posture determiner 503 of the processor 120 may determine the relative position of the ear wearable device 201 operatively connected to the electronic device 101 . According to an embodiment, the posture determiner 503 uses the sensor circuit 521 and/or the GNSS circuit 523 of the electronic device 101 to perform an ear wearable device 201 based on the electronic device 101 . can determine the relative position of For example, the posture determiner 503 may determine whether the ear wearable device 201 is positioned in the right direction or the left direction of the electronic device 101 . The posture determiner 503 may determine whether the height of the ear wearable device 201 is higher or lower based on the electronic device 101 .
  • the posture determiner 503 may determine the relative position of the ear wearable device 201 using the UWB positioning circuit 513 .
  • the posture determiner 503 may measure range information and/or arrival of angle information (AOA) of the wearable device 201 using a UWB signal (eg, sequential ranging block).
  • AOA angle information
  • the posture determining unit 503 may measure a transmission/reception time of a poll message and/or a response message to the ear wearable device 201, and based on the measured transmission/reception time Range information of the wearable device 201 may be determined.
  • the UWB signal includes a directional signal, and direction information, range information, and/or angle information of an external electronic device operatively connected to the electronic device 101 (eg, the ear wearable device 201 ). can be checked.
  • the processor 120 may at least partially control the ear wearable device 201 using the UWB signal.
  • the processor 120 of the electronic device 101 may acquire direction information, range information, and/or angle information corresponding to the ear wearable device 201 (eg, an external electronic device), The relative position (eg, position and posture) of the ear wearable device 201 may be determined based on at least one of the direction information, the range information, and/or the angle information.
  • the processor 120 may acquire satellite positioning information using the GNSS circuit 523 , and accuracy may be improved in determining the location of the ear wearable device 201 .
  • the processor 120 may determine whether the ear wearable device 201 can receive an ambient audio signal based on the relative position of the ear wearable device 201 .
  • the processor 120 may receive an ambient audio signal through the ear wearable device 201 . According to another embodiment, the processor 120 may determine whether to transmit data related to the audio signal based on the relative position of the ear wearable device 201 . According to another embodiment, the processor 120 may transmit data related to the audio signal to the ear wearable device 201 .
  • the interface manager 505 of the processor 120 may display a user interface through the display 160 (eg, the display module 160 of FIG. 1 ). According to an embodiment, the interface manager 505 may configure a user interface for selecting at least one external electronic device for receiving an ambient audio signal, and display the user interface through the display 160 . have. According to an embodiment, after the analysis of the audio signal is completed, the interface manager 505 may configure the user interface to select at least one external electronic device to which data information related to the audio signal is to be transmitted, and display the user interface. It can be displayed through (160). According to an embodiment, the interface manager 505 may provide a user interface for selecting at least one external electronic device to the user. The interface manager 505 may list at least one external electronic device operatively connected to the electronic device 101 and provide it to the user.
  • the electronic device 101 may be operatively connected to at least one external electronic device capable of communication, and may at least partially control the at least one external electronic device.
  • the electronic device 101 includes an audio module 170 , a wireless communication circuit 190 for communication with at least one external electronic device 102 , a memory 130 , and the audio module 170 . , the wireless communication circuitry 190 , and a processor 120 operatively coupled to the memory 130 .
  • the processor 120 obtains an ambient audio signal based on at least one of the at least one external electronic device 102 and the audio module 170, and receives preset audio information based on the obtained ambient audio signal. determine whether the at least one external electronic device is included, and in response to the confirmation of the audio information, determine the at least one external electronic device connected through the wireless communication circuit 190, and transmit the ambient audio to the determined at least one external electronic device It is possible to transmit data related to the signal.
  • the electronic device 101 further includes a sensor module 176
  • the processor 120 is configured to operate the electronic device through at least one of the at least one external electronic device and the sensor module 176 .
  • obtain context information of , determine at least one microphone device from which to acquire the ambient audio signal based on the obtained context information, and obtain the ambient audio signal through the determined at least one microphone device can do.
  • the context information may include at least one of information related to the state of the electronic device, user activity information, user schedule information, time information, place information, and event information.
  • the processor 120 may change the setting information of the microphone so that the at least one microphone device can acquire the ambient audio signal.
  • the processor 120 increases the sensitivity of the microphone when it is necessary to precisely acquire the ambient audio signal based on the obtained redemption information, and based on the obtained situation information Therefore, in a situation in which it is not necessary to precisely acquire the ambient audio signal, the sensitivity of the microphone may be reduced.
  • the processor 120 obtains at least one of range information and angle information of the at least one external electronic device using an ultra wide band (UWB) signal, and selects at least one of the obtained range information and angle information.
  • UWB ultra wide band
  • the at least one external electronic device may be determined based on at least one.
  • the at least one external electronic device may include an ear wearable device that can be worn on the user's ear and a wearable device that can be worn at least partially on the user's body.
  • the preset audio information may include at least one of a car clock sound, navigation voice information, AI speaker voice information, a siren sound, a police car signal, an ambulance signal, and a fire engine signal.
  • the processor 120 determines whether it is an emergency based on the audio information included in the ambient audio signal, and in case of an emergency, sends the ambient audio to all external electronic devices connected to the electronic device. It is possible to transmit data related to the signal.
  • the processor 120 determines at least one external electronic device corresponding to the audio information when it is not the emergency situation, and transmits data related to the surrounding audio signal to the determined at least one external electronic device. can be transmitted
  • the data related to the ambient audio signal may include at least one of an original sound of the ambient audio signal, a notification sound corresponding to the ambient audio signal, a preset notification message, and preset notification information.
  • FIG. 6 is an exemplary diagram illustrating a process in which an electronic device determines at least one external electronic device for transmitting an analyzed ambient audio signal, according to various embodiments of the present disclosure
  • the electronic device 101 (eg, the electronic device 101 of FIG. 1 ) includes at least one external electronic device (eg, the electronic device 102 of FIG. 1 , the ear wearable device 201 of FIG. 2 ). ), the AI speaker 601 , and/or the refrigerator 603).
  • the electronic device 101 may transmit/receive data to and from at least one external electronic device located within a range in which network communication is possible.
  • the electronic device 101 may at least partially control at least one external electronic device.
  • the electronic device 101 may change the operation mode of the ear wearable device 201 or turn on/off the power of the AI speaker 601 .
  • the electronic device 101 may transmit a UWB signal to at least one external electronic device using a UWB positioning circuit (eg, the UWB positioning circuit 513 of FIG. 5 ).
  • the UWB signal is a directional signal, and may identify direction information, range information, and angle information of at least one external electronic device operatively connected to the electronic device 101 .
  • the electronic device 101 may receive a response signal of a UWB signal from the at least one external electronic device, and check a relative position of the at least one external electronic device based on the response signal can
  • the electronic device 101 may determine at least one external electronic device for receiving an ambient audio signal by using the UWB signal.
  • the electronic device 101 may use the UWB signal to determine at least one external electronic device for transmitting data related to an audio signal for which analysis has been completed.
  • the 7 is at least one external device for receiving an ambient audio signal by selecting at least one external electronic device, analyzing the ambient audio signal, and transmitting data related to the ambient audio signal according to various embodiments of the present disclosure; It is a flowchart illustrating a method of determining an electronic device.
  • the processor (eg, the processor 120 of FIG. 1 ) of the electronic device operates at least one external electronic device (eg, the electronic device 102 of FIG. 1 ). 2 ) may be operatively connected to the ear wearable device 201), and an ambient audio signal may be acquired through the at least one external electronic device.
  • the electronic device 101 may at least partially control the at least one external electronic device.
  • the electronic device 101 may control a microphone included in the at least one external electronic device, and may acquire an ambient audio signal through the microphone.
  • the electronic device 101 may change the operation mode of the at least one external electronic device.
  • the at least one external electronic device may change to a mode in which microphone sensitivity is increased in order to more accurately receive an ambient audio signal.
  • the at least one external electronic device may include the ear wearable device 201 .
  • the electronic device 101 eg, a user's smartphone
  • the electronic device 101 may analyze the ambient audio signal acquired through the at least one external electronic device.
  • at least one external electronic device may obtain an ambient audio signal using a microphone and transmit the obtained ambient audio signal to the electronic device 101 .
  • the electronic device 101 may check whether preset audio information is included based on the surrounding audio signal.
  • the preset audio information may include at least one of a car clock sound, navigation voice information, AI speaker voice information, a siren sound, a police car signal sound, an ambulance signal sound, and a fire engine signal sound.
  • the preset audio information may include a warning sound indicating an emergency situation.
  • the preset audio information may be set by a user and may include a keyword indicating a specific object.
  • the electronic device 101 may analyze whether preset audio information is included in the ambient audio signal. According to an embodiment, when the ambient audio signal does not include preset audio information, the electronic device 101 may determine the ambient audio signal as a noise signal and ignore the acquisition of the noise signal.
  • the electronic device 101 may determine at least one external electronic device to transmit the analyzed audio signal. For example, when the user wears the ear wearable device 201 on the ear and listens to music, the electronic device 101 may determine the ear wearable device 201 as a target to transmit an ambient audio signal. According to another embodiment, the electronic device 101 may determine a wrist wearable device worn on the wrist as a target to transmit an ambient audio signal.
  • the electronic device 101 may transmit data related to the surrounding audio signal to the determined at least one external electronic device.
  • the data related to the surrounding audio signal may include at least one of an original sound of the surrounding audio signal, a notification sound corresponding to the surrounding audio signal, a preset notification message, and preset notification information.
  • FIG. 8 is a flowchart illustrating a method of collecting context information and determining at least one external electronic device for receiving an ambient audio signal based on the context information according to various embodiments of the present disclosure
  • the electronic device may display at least one of user's state information (eg, activity information, schedule information), time information, place information, and/or event information. It is possible to collect context information, including
  • the processor of the electronic device 101 eg, the processor 120 of FIG. 1
  • the electronic device 101 may continuously collect context information at set time intervals, and may determine at least one external electronic device based on the collected context information.
  • the processor 120 may determine at least one external electronic device for transmitting an audio signal on which audio analysis has been completed based on the collected context information.
  • the electronic device 101 may be operatively connected to at least one external electronic device, and may identify a microphone provided in the at least one external electronic device.
  • an external electronic device including a microphone may be referred to as a microphone device.
  • the electronic device 101 may identify a location of a microphone provided in the at least one external electronic device. For example, in the case of an external electronic device provided with a plurality of microphones, the electronic device 101 may individually check the arrangement positions of the microphones.
  • the electronic device 101 may collect context information by using at least one of the electronic device 101 and the at least one external electronic device.
  • the context information may include at least one of user's state information (eg, activity information, schedule information), time information, place information, and/or event information.
  • the electronic device 101 and the external electronic device may collect the context information using at least one provided sensor, and may continuously collect the context information in real time or at preset time intervals.
  • the electronic device 101 may store the collected context information in a memory (eg, the memory 130 of FIG. 1 ).
  • the electronic device 101 may select at least one microphone based on the collected context information. Selecting a microphone may mean selecting at least one external electronic device equipped with a microphone. According to an embodiment, the electronic device 101 may select a microphone included in at least one external electronic device based on context information. According to an embodiment, the electronic device 101 may determine whether a situation in which it is necessary to precisely acquire an ambient audio signal based on the collected situation information. For example, the electronic device 101 may determine that it is necessary to precisely acquire the surrounding audio signal, and may increase the sensitivity of the microphone. For example, the electronic device 101 may determine that it is not necessary to precisely acquire the surrounding audio signal, and may reduce the sensitivity of the microphone. According to an embodiment, the electronic device 101 may determine whether to more precisely acquire the ambient audio signal based on the context information, and if there is a need to precisely acquire the ambient audio signal, It is possible to increase the sensitivity of the microphone.
  • the electronic device 101 may acquire an ambient audio signal using at least one microphone of the at least one external electronic device.
  • the electronic device 101 may acquire an ambient audio signal using a microphone included in the ear wearable device 201 while playing music through the ear wearable device 201 .
  • 9A is a table illustrating an embodiment of changing microphone settings of an electronic device and at least one external electronic device based on collected context information according to various embodiments of the present disclosure
  • the electronic device 101 (eg, the electronic device 101 of FIG. 1 ) includes at least one external electronic device (eg, the ear wearable device 201 of FIG. 2 , the wrist wearable device of FIG. 3 ) 301)) can be operatively connected.
  • the electronic device 101 may collect context information through at least one of the electronic device 101 and at least one external electronic device.
  • the context information may include user status information (eg, user movement information, user activity information, and/or user location information), time information, place information, and/or event information.
  • the context information may be included or deleted according to a user's need.
  • the electronic device 101 may change the microphone setting of the electronic device 101 or at least one external electronic device based on the collected context information.
  • the electronic device 101 (eg, the first electronic device) checks whether a preset condition is satisfied based on the collected context information, and when the set condition is satisfied, the electronic device 101 and at least partially control operations of at least one external electronic device (eg, a second electronic device or a third electronic device).
  • the first electronic device (eg, the electronic device 101) checks whether the user is located at home at the time the user goes to work (eg, 9:00 am), and sets the corresponding condition. If it is satisfied, the display of the first electronic device (eg, the display module 160 of FIG. 1 ) may be turned off, and set music may be played.
  • the first electronic device may control the second electronic device to output music through an operatively connected second electronic device (eg, the ear wearable device 201 of FIG. 2 ).
  • the first electronic device may control the third electronic device to switch to an exercise mode in the operatively connected third electronic device (eg, the wrist wearable device 301 of FIG. 3 ).
  • the first electronic device may not receive an ambient audio signal by turning off the microphone.
  • the first electronic device may change the setting information of the second electronic device to increase the microphone sensitivity of the second electronic device, and may control to receive an ambient audio signal.
  • the first electronic device may change setting information of the third electronic device to increase the microphone sensitivity of the third electronic device, and may control to receive an ambient audio signal.
  • the electronic device 101 may determine at least one external electronic device capable of receiving an ambient audio signal.
  • the electronic device 101 may at least partially control the electronic device 101 and at least one external electronic device based on the collected context information.
  • the first electronic device when an event (eg, Bluetooth connection of a vehicle (eg, the second electronic device)) occurs while driving, the first electronic device (eg, the electronic device 101 ) performs the first A voice call of the electronic device may be turned on, and navigation may be executed.
  • the first electronic device may play music through the Bluetooth-connected second electronic device (eg, vehicle).
  • the first electronic device may control the third electronic device to switch to the driving mode in the operatively connected third electronic device (eg, the wrist wearable device 301 of FIG. 3 ).
  • the first electronic device may change the setting information of the first electronic device to increase the microphone sensitivity.
  • the first electronic device may change the setting information of the second electronic device to increase the microphone sensitivity of the second electronic device.
  • the first electronic device eg, the electronic device 101 checks whether it is located in the company during business hours (eg, from 9:30 to 18:00), When the condition is satisfied, the first electronic device may be switched to a vibration mode.
  • the first electronic device may be connected to the company WIFI and may be switched to a work mode.
  • the first electronic device may change the setting information of the first electronic device to increase the microphone sensitivity.
  • the first electronic device (eg, the electronic device 101) checks whether the user is playing a game in the room at night time (eg, 23:00), and sets the condition If it is satisfied, the first electronic device may switch to the horizontal screen mode.
  • the first electronic device may be connected to home WIFI and may block notifications.
  • the first electronic device may control the third electronic device so that the third electronic device plays a game screen. have.
  • the first electronic device may not receive an ambient audio signal by turning off the microphone.
  • the first electronic device may change setting information of the second electronic device (eg, an ear wearable device) to increase the microphone sensitivity of the second electronic device, and may control to receive an ambient audio signal.
  • the first electronic device may change setting information of the third electronic device to increase the microphone sensitivity of the third electronic device, and may control to receive an ambient audio signal.
  • 9B is a table illustrating an embodiment of changing the operation mode of an electronic device and at least one external electronic device based on collected context information according to various embodiments of the present disclosure.
  • the first electronic device eg, the electronic device 101
  • the user may be listening to music while going to work by public transportation. Because the user is listening to music, it is necessary to listen more carefully to the warning sound to notify of an emergency (e.g., the sound of a car's clock, siren, police car, ambulance, fire engine).
  • the first electronic device may load a dangerous sound sound model, and may determine whether audio information corresponding to the dangerous sound sound model is included in an ambient audio signal. The first electronic device may more intensively detect audio information corresponding to the dangerous sound sound model.
  • the first electronic device may load the speech-sensing sound model and check whether audio information corresponding to the speech-sensing sound model is included in the surrounding audio signal.
  • the first electronic device may more intensively detect audio information corresponding to the speech-sensing sound model.
  • the user may be in a meeting in a company.
  • a user needs to receive the other party's voice during a meeting.
  • the first electronic device may load the voice detection sound model and check whether audio information corresponding to the voice detection sound model is included in the surrounding audio signal.
  • the first electronic device may more intensively detect audio information corresponding to the voice detection sound model.
  • the user may be playing a game while wearing the ear wearable device and glasses.
  • the user needs to receive a voice calling the user during the game.
  • the first electronic device may load the speech-sensing sound model and check whether audio information corresponding to the speech-sensing sound model is included in the surrounding audio signal.
  • the first electronic device may more intensively detect audio information corresponding to the speech-sensing sound model.
  • the electronic device 101 may set a sound model according to convenience based on voice-related information and keyword-related information.
  • 10A is a flowchart illustrating a method for an electronic device to sense a surrounding situation based on a received surrounding audio signal according to various embodiments of the present disclosure.
  • the processor eg, the processor 120 of FIG. 1
  • the electronic device may detect preset sound data based on the acquired ambient audio signal.
  • the electronic device 101 may set at least one piece of keyword information and audio related information (eg, audio frequency information and audio volume size information) as sound data.
  • the electronic device 101 may determine whether preset sound data is included in the acquired ambient audio signal.
  • the electronic device 101 may detect a situation corresponding to the detected sound data. For example, when the detected sound data is a vehicle clock sound, it is possible to detect a situation in which the vehicle needs attention on the road. When the detected sound data is an ambulance signal, it may be detected that the ambulance needs to yield.
  • the electronic device 101 may set a plurality of sound models corresponding to various situations, and may detect a specific situation corresponding to the sound model based on the acquired ambient audio signal.
  • 10B is a flowchart illustrating in more detail a method for an electronic device to sense a surrounding situation based on a received surrounding audio signal according to various embodiments of the present disclosure.
  • the processor 120 of the electronic device 101 may determine whether a preset danger signal is included in the acquired ambient audio signal. If a danger signal is included, in operation 1013 , the processor 120 determines all external electronic devices operatively connected to the electronic device 101 , and in operation 1015 all external electronic devices corresponding to the danger signal data can be transmitted. According to an embodiment, the electronic device 101 may transmit an original sound corresponding to the danger signal or transmit a set warning sound corresponding to the danger signal.
  • the processor 120 may determine whether preset audio information is included. If preset audio information is included, in operation 1019, the processor 120 may determine at least one external electronic device based on unique information of at least one electronic device and the preset audio information. For example, when preset audio information is a specific name, at least one external electronic device corresponding to the specific name may be determined. In operation 1021 , the processor 120 may transmit data related to an ambient audio signal to the determined at least one external electronic device.
  • the processor 120 may ignore the obtained ambient audio signal in operation 1023 .
  • the electronic device 101 may analyze an ambient audio signal acquired through the electronic device 101 and/or an external electronic device, and may determine at least one external electronic device according to the analysis result .
  • the electronic device 101 may transmit data related to the ambient audio signal to the determined at least one external electronic device.
  • 11 is a table illustrating an embodiment in which the electronic device ignores the ambient audio signal based on the received ambient audio signal according to various embodiments of the present disclosure.
  • the first electronic device eg, the electronic device 101
  • the first electronic device prioritizes dangerous sounds (eg, a vehicle's clock sound, a siren sound, a police car signal, an ambulance signal, and a fire engine signal) based on the dangerous sound sound model. It can be set, and the priority of other human sounds can be set low or ignored.
  • dangerous sounds eg, a vehicle's clock sound, a siren sound, a police car signal, an ambulance signal, and a fire engine signal
  • the first electronic device may set the priority of the human voice to be high based on the speech detection sound model, and set the priority of the ambient music sound to be low or ignore it.
  • the electronic device 101 may set at least one sound model according to the user's convenience, and selectively analyze an ambient audio signal based on the set sound model.
  • FIG. 12 is a flowchart illustrating a method for an electronic device to determine at least one external electronic device for transmitting an analysis-completed ambient audio signal, according to various embodiments of the present disclosure
  • the processor eg, the processor 120 of FIG. 1
  • the electronic device determines at least one external electronic device based on the collected context information and the sensed context can For example, the electronic device 101 may determine at least one external electronic device capable of receiving data related to an ambient audio signal from among at least one operatively connected external electronic device.
  • the electronic device 101 may determine a data type to be transmitted in response to the ambient audio signal.
  • the data type may include at least one of an original sound of the surrounding audio signal, a notification sound corresponding to the surrounding audio signal, a preset notification message, and preset notification information.
  • the electronic device 101 may transmit data based on the determined data type to the determined at least one external electronic device.
  • the electronic device 101 may determine a data type suitable to be provided to the user by the at least one external electronic device based on the collected context information and the sensed context.
  • the electronic device 101 may transmit data corresponding to the determined data type to the at least one external electronic device.
  • the electronic device 101 may determine a user-confirmable data type based on the collected context information and the sensed context, and may provide data corresponding to the determined data type to the user.
  • FIG. 13 is a table illustrating an example in which an electronic device determines at least one external electronic device for transmitting an analyzed ambient audio signal according to various embodiments of the present disclosure.
  • FIG. 13 an embodiment corresponding to the first to fourth embodiments of Figs. 9A and 9B is shown.
  • the first electronic device determines the original sound of the peripheral audio signal as a data type to be transmitted, and all external electronic devices capable of communicating with the first electronic device (eg, an electronic device capable of outputting the original sound) device) to transmit the determined original sound.
  • the first electronic device may also transmit a command for changing the mode of the external electronic device so that the external electronic device can output the original sound.
  • the first electronic device may determine the original sound of the surrounding audio signal as a data type to be transmitted, and transmit the determined original sound to the first electronic device in which navigation is operating.
  • the first electronic device may determine the original sound of the surrounding audio signal as a data type to be transmitted, and transmit the determined original sound to an external electronic device directly connected to the first electronic device.
  • the first electronic device determines the original sound of the ambient audio signal as the data type to be transmitted, and the second electronic device specified in the speech (eg, corresponding to audio information included in the ambient audio signal) The determined original sound may be transmitted to the electronic device.
  • the method includes an operation of acquiring an ambient audio signal based on at least one of an electronic device and at least one external electronic device connected to communicate with the electronic device, and preset audio based on the obtained ambient audio signal.
  • An operation of determining whether information is included, an operation of determining the at least one external electronic device in response to the confirmation of the audio information, and an operation of providing the determined at least one external electronic device with data related to the ambient audio signal It may include an operation of transmitting.
  • the obtaining of the ambient audio signal may include obtaining context information of the electronic device through at least one of the electronic device and the at least one external electronic device;
  • the method may include determining at least one microphone device from which to acquire the ambient audio signal based on the information, and acquiring the ambient audio signal through the determined at least one microphone device.
  • the context information may include at least one of information related to the state of the electronic device, user activity information, user schedule information, time information, place information, and event information.
  • the method according to an embodiment may further include changing setting information of a microphone so that the at least one microphone device can acquire the ambient audio signal.
  • the operation of reducing the sensitivity of the microphone may be further included.
  • the determining of the at least one external electronic device includes: obtaining at least one of range information and angle information of the at least one external electronic device using an ultra wide band (UWB) signal; and determining the at least one external electronic device based on at least one of the acquired range information and angle information.
  • UWB ultra wide band
  • the preset audio information includes at least one of a car clock sound, navigation voice information, AI speaker voice information, a siren sound, a police car signal, an ambulance signal, and a fire engine signal
  • the surrounding audio signal and The related data may include at least one of an original sound of the surrounding audio signal, a notification sound corresponding to the surrounding audio signal, a preset notification message, and preset notification information.
  • the operation of transmitting the data related to the ambient audio signal may include checking whether an emergency situation exists based on the audio information included in the ambient audio signal and, in the case of the emergency, connected to the electronic device
  • the method may include transmitting data related to the ambient audio signal to all external electronic devices.
  • the method includes determining at least one external electronic device corresponding to the audio information when it is not an emergency, and transmitting data related to the ambient audio signal to the determined at least one external electronic device It may further include an action.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Abstract

다양한 실시예에 따르면, 전자 장치에 있어서, 오디오 모듈, 적어도 하나의 외부 전자 장치와 통신을 위한 무선 통신 회로, 메모리, 및 상기 오디오 모듈, 상기 무선 통신 회로 및 상기 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 적어도 하나의 외부 전자 장치 및 상기 오디오 모듈 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하고, 상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하고, 상기 오디오 정보의 확인에 응답하여, 상기 무선 통신 회로를 통해 연결된 상기 적어도 하나의 외부 전자 장치를 결정하고, 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다. 그 밖에 다양한 실시예들이 가능할 수 있다.

Description

주변 오디오 신호의 감지 방법 및 전자 장치
본 발명의 다양한 실시 예는 주변 오디오 신호의 감지 방법 및 전자 장치 에 관한 것이다.
기술이 발달함에 따라, 전자 장치는 다양하게 활용될 수 있다. 전자 장치는 오디오 신호를 검출하고, 상기 검출된 오디오 신호를 기반으로 사용자의 주변 상황을 판단할 수 있도록 꾸준히 연구되었다. 전자 장치는 상황 인지(context aware) 기술을 기반으로 상기 검출된 오디오 신호를 분석할 수 있다.
전자 장치는 외부의 다른 전자 장치(예: 이어 웨어러블 장치, 이어폰)와 무선 통신을 수행할 수 있고, 상기 다른 전자 장치를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치는 상기 다른 전자 장치의 동작 모드를 변경할 수 있고, 상기 다른 전자 장치에 구비된 마이크를 이용하여 오디오 신호를 획득할 수 있다. 전자 장치는 외부의 다른 전자 장치를 통해 획득한 오디오 신호를 분석하여, 사용자의 주변 상황을 확인할 수 있다.
전자 장치는 이어 웨어러블 장치(예: 이어폰)와 무선 통신을 수행할 수 있고, 상기 이어 웨어러블 장치를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치는 이어 웨어러블 장치가 사용자의 귀에 장착된 상태에서 음악을 재생할 수 있다. 사용자가 이어 웨어러블 장치를 귀에 장착하는 경우 고막이 차폐되어, 사용자는 주변 오디오 신호를 감지하기 어려울 수 있다. 이 경우 사용자가 사고의 위험에 노출되는 확률이 높아질 수 있다.
본 발명의 다양한 실시예는 사용자가 이어 웨어러블 장치를 귀에 착용하고 음악을 재생하는 상황에서도 주변 오디오 신호를 감지하는 방법 및 이를 구현하는 전자 장치를 제공할 수 있다.
다양한 실시예에 따른 전자 장치에 있어서, 오디오 모듈, 적어도 하나의 외부 전자 장치와 통신을 위한 무선 통신 회로, 메모리 및 상기 오디오 모듈, 상기 무선 통신 회로 및 상기 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는 상기 적어도 하나의 외부 전자 장치 및 상기 오디오 모듈을 기반으로 주변 오디오 신호를 획득하고, 상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하고, 상기 오디오 정보의 확인에 응답하여, 상기 무선 통신 회로를 통해 연결된 상기 적어도 하나의 외부 전자 장치를 결정하고, 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
다양한 실시예에 따른 방법은, 전자 장치 및 상기 전자 장치와 통신하도록 연결된 적어도 하나의 외부 전자 장치 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하는 동작, 상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하는 동작, 상기 오디오 정보의 확인에 응답하여, 상기 적어도 하나의 외부 전자 장치를 결정하는 동작, 및 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들은 전자 장치와 연결된 이어 웨어러블 장치를 이용하여 음악을 재생하는 도중 주변 오디오 신호를 감지하여 사고를 방지하는 것을 목적으로 한다.
다양한 실시예에 따르면, 전자 장치는 상황 정보(context information)를 고려하여, 주변 오디오 신호를 수신하기 위한 적어도 하나의 마이크를 결정할 수 있다. 일 실시예에 따르면, 전자 장치는 상기 수신된 주변 오디오 신호를 분석할 수 있고, 상기 주변 오디오 신호를 송신하기 위한 적어도 하나의 수신 장치(예: 리시버(receiver))를 결정할 수 있다. 일 실시예에 따르면, 전자 장치는 작동적으로 연결된 외부 전자 장치(예: 마이크가 구비된 외부 전자 장치 및/또는 리시버)를 적어도 부분적으로 제어할 수 있다.
다양한 실시예에 따르면, 전자 장치는 이어 웨어러블 장치를 이용하여 음악을 청취하는 중에도 주변 오디오 신호에 대응하는 상황을 감지할 수 있고, 외부의 다른 전자 장치에게 상기 감지된 상황에 대응하는 알림 정보를 제공할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 발명의 다양한 실시예에 따른 이어 웨어러블 장치를 착용 시, 주변 오디오 신호를 듣지 못하는 상황을 도시한 예시도이다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치와 적어도 하나의 외부 전자 장치가 작동적으로 연결되고, 전자 장치에 의해, 상기 적어도 하나의 외부 전자 장치가 적어도 부분적으로 제어되는 상황을 도시한 예시도이다.
도 4는 본 발명의 다양한 실시예에 따른 마이크가 구비된 전자 장치를 선택하여 주변 오디오 신호를 수신하고, 상기 수신된 주변 오디오 신호를 전달하기 위한 다른 전자 장치를 결정하는 상황을 도시한 예시도이다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치가 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 과정을 도시한 예시도이다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 과정을 도시한 예시도이다.
도 7은 본 발명의 다양한 실시예에 따른 적어도 하나의 외부 전자 장치를 선택하여 주변 오디오 신호를 수신하고, 상기 주변 오디오 신호를 분석하고, 상기 주변 오디오 신호와 관련된 데이터를 전송하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
도 8은 본 발명의 다양한 실시예에 따른 상황 정보(context information)를 수집하고, 상기 상황정보를 기반으로 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
도 9a는 본 발명의 다양한 실시예에 따른 수집된 상황 정보를 기반으로 전자 장치 및 적어도 하나의 외부 전자 장치의 마이크 설정을 변경하는 실시예를 도시한 테이블이다.
도 9b는 본 발명의 다양한 실시예에 따른 수집된 상황 정보를 기반으로 전자 장치 및 적어도 하나의 외부 전자 장치의 동작 모드를 변경하는 실시예를 도시한 테이블이다.
도 10a는 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 주변 상황을 감지하는 방법을 도시한 흐름도이다.
도 10b는 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 주변 상황을 감지하는 방법을 보다 구체적으로 도시한 흐름도이다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 상기 주변 오디오 신호를 무시하는 실시예를 도시한 테이블이다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
도 13은 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 실시예를 도시한 테이블이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 발명의 다양한 실시예에 따른 이어 웨어러블 장치를 착용 시, 주변 오디오 신호를 듣지 못하는 상황을 도시한 예시도이다.
도 2를 참조하면, 다양한 실시예에서, 전자 장치(101)(예: 도 1의 전자 장치(101))는 이어 웨어러블 장치(201)(예: 도 1의 전자 장치(102, 104), 이어폰(earphone))와 작동적으로 연결될 수 있다. 이어 웨어러블 장치(201)는 사용자의 귀에 적어도 부분적으로 밀착되어 착용될 수 있고, 고막은 외부 소리가 유입되지 않는 차폐 상태일 수 있다. 전자 장치(101)는 음악 관련 어플리케이션(application)을 실행할 수 있고, 이어 웨어러블 장치(201)를 통해 음악을 출력할 수 있다. 일 실시예에 따르면, 이어 웨어러블 장치(201)가 귀에 착용된 상태에서 음악이 재생되면, 사용자는 외부 소리를 듣기 어려울 수 있다. 예를 들어, 외부 소리는 자동차의 경적 소리(203)와 같은, 주변의 위험을 알리기 위한 경고음을 포함할 수 있다.
일 실시예에 따르면, 사용자가 이어 웨어러블 장치(201)를 사용하여 음악을 감상 중일 때, 사용자의 귀가 상기 이어 웨어러블 장치(201)에 의해 차폐된 상태일 수 있다. 일 실시예에 따르면, 사용자는 음악이 재생 중일 때, 주변에서 발생한 오디오 신호를 감지하기 어려울 수 있다. 예를 들어, 사용자는 주행 중인 차량의 경적 소리(203)를 인식하지 못하여, 위험한 상황에 처할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치와 적어도 하나의 외부 전자 장치가 작동적으로 연결되고, 전자 장치에 의해, 상기 적어도 하나의 외부 전자 장치가 적어도 부분적으로 제어되는 상황을 도시한 예시도이다.
도 3을 참조하면, 다양한 실시예에서, 전자 장치(101)(예: 도 1의 전자 장치(101))는 이어 웨어러블 장치(201)(예: 도 1의 전자 장치(102, 104), 이어폰(earphone)) 및/또는 손목 웨어러블 장치(301)(예: 예: 도 1의 전자 장치(102, 104))와 작동적으로 연결될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 이어 웨어러블 장치(201) 및 손목 웨어러블 장치(301)를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치(101)는 이어 웨어러블 장치(201) 및 손목 웨어러블 장치(301)의 사용 모드를 전환할 수 있고, 일부 구성 요소(예: 마이크, 스피커, 센서 모듈)를 적어도 부분적으로 제어할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 이어 웨어러블 장치(201)에 구비된 마이크를 활성화하여 주변의 오디오 신호를 수신하도록 제어할 수 있다. 전자 장치(101)는 이어 웨어러블 장치(201)를 통해 오디오 신호를 수신할 수 있도록 이어 웨어러블 장치(201)의 동작 모드를 전환할 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는 마이크가 구비된 적어도 하나의 외부 전자 장치(예: 이어 웨어러블 장치(201) 및/또는 손목 웨어러블 장치(301))를 선택할 수 있고, 상기 선택된 외부 전자 장치를 통해, 주변의 오디오 신호를 수신하도록 상기 외부 전자 장치를 적어도 부분적으로 제어할 수 있다. 전자 장치(101)는 상기 수신된 주변의 오디오 신호를 분석할 수 있고, 상기 분석 결과, 선별된 오디오 신호와 관련된 데이터를 송신할 적어도 하나의 외부 전자 장치를 결정할 수 있다.
다양한 실시예에 따르면, 전자 장치(101) 및/또는 적어도 하나의 외부 전자 장치는 상황 정보(context information)를 획득할 수 있다. 전자 장치(101)는 상황 정보를 고려하여, 주변의 오디오 신호를 수신할 적어도 하나의 외부 전자 장치를 결정할 수 있다. 상기 적어도 하나의 외부 전자 장치는 적어도 하나의 마이크를 포함할 수 있다. 일 실시예에 따르면, 상황 정보는 센서 모듈(예: 도 1의 센서 모듈(176))을 이용하여 감지된 전자 장치(101)의 상태를 나타내는 정보를 포함할 수 있다. 예를 들어, 전자 장치(101)의 상황 정보는 조도 센서를 사용하여 전자 장치(101)가 주머니 속에 위치하였는지 여부를 판단하기 위한 정보를 포함할 수 있다. 예를 들어, 외부 전자 장치의 상황 정보는 자이로 센서 및/또는 가속도 센서를 사용하여, 전자 장치(101)를 기준으로 상대적인 위치를 판단하기 위한 정보를 포함할 수 있다. 일 실시예에 따르면, 상황 정보는 적어도 하나의 센서를 사용하여 사용자가 전자 장치(101)를 사용하고 있는 상황과 관련된 정보를 포함할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 마이크가 구비된 전자 장치를 선택하여 주변 오디오 신호를 수신하고, 상기 수신된 주변 오디오 신호를 전달하기 위한 다른 전자 장치를 결정하는 상황을 도시한 예시도이다.
도 4를 참조하면, 다양한 실시예에서, 전자 장치(101)(예: 도 1의 전자 장치(101))는 네트워크(420)(예: 도 1의 제 1 네트워크(198) 및/또는 제 2 네트워크(199))를 통해 적어도 하나의 외부 전자 장치(102)(예: 도 1의 전자 장치(102))와 통신을 수행할 수 있다. 전자 장치(101)는 이어 웨어러블 장치(201)(예: 헤드셋, 이어폰)와 작동적으로 연결될 수 있고, 상기 이어 웨어러블 장치(201)를 적어도 부분적으로 제어할 수 있다. 일 실시예에 따르면, 적어도 하나의 외부 전자 장치(102)는 복수 개의 다른 전자 장치(예: AI 스피커(401), 텔레비전(402), 냉장고(403))와 작동적으로 연결될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치(102) 및/또는 상기 적어도 하나의 외부 전자 장치(102)에 연결된 복수 개의 다른 전자 장치를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치(102)에 구비된 마이크 장치를 활성화할 수 있고, 상기 활성화된 마이크 장치를 통해 주변 오디오 신호를 획득할 수 있다. 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치(102)로부터 상기 주변 오디오 신호를 전달 받아, 상기 주변 오디오 신호를 분석할 수 있다. 다른 실시예에 따르면, 상기 적어도 하나의 외부 전자 장치(102)는 자체적으로 주변 오디오 신호를 분석할 수 있고, 분석된 결과 데이터를 전자 장치(101)에 전달할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자(예: 철수)의 방에 위치한 상태이고, 상기 전자 장치(101)와 연결된 적어도 하나의 외부 전자 장치(102)는 거실에 위치한 상태일 수 있다. 예를 들어, 사용자는 전자 장치(101)에 연결된 이어 웨어러블 장치(201)를 귀에 착용하고, 음악을 감상하는 상태일 수 있다. 사용자의 엄마가 거실에서 사용자의 이름(예: 철수)을 부를 경우, 거실에 위치한 상기 적어도 하나의 외부 전자 장치(102)는 엄마의 오디오 신호를 획득할 수 있고, 상기 획득된 엄마의 오디오 신호를 상기 전자 장치(101)에 전송할 수 있다. 상기 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치(102)로부터 전달된 엄마의 오디오 신호를 분석할 수 있고, 상기 분석된 오디오 신호에 기반하여 상기 오디오 신호를 송신할 이어 웨어러블 장치(201)를 결정할 수 있다. 전자 장치(101)는 상기 이어 웨어러블 장치(201)에 상기 분석된 오디오 신호를 전송할 수 있고, 상기 이어 웨어러블 장치(201)를 통해 상기 오디오 신호를 출력할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 주변 오디오 신호를 수신하도록 적어도 하나의 외부 전자 장치(102)를 선택할 수 있고, 상기 오디오 신호를 출력하기 위한 이어 웨어러블 장치(201)를 선택할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치가 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 과정을 도시한 예시도이다.
도 5를 참조하면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 외부의 다른 전자 장치(예: 도 2의 이어 웨어러블 장치(201))와 작동적으로 연결될 수 있고, 상기 이어 웨어러블 장치(201)를 적어도 부분적으로 제어할 수 있다. 전자 장치(101)는 네트워크(예: 도 1의 제 1 네트워크(198) 및/또는 제 2 네트워크(199))를 통해 이어 웨어러블 장치(201)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120)(예: 도 1의 프로세서(120)), 무선 통신 회로(wireless communication circuitry)(511), UWB(ultra wide band) 포지셔닝 회로(UWB positioning circuitry)(513), 센서 회로(sensor circuitry)(521), 및/또는 GNSS(global navigation satellite system) 회로(GNSS circuitry)(523)를 포함할 수 있다. 프로세서(120)는 데이터 처리부(data processing unit)(501), 자세 결정부(position determining unit)(503), 및/또는 인터페이스 매니저(interface manager)(505)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 이어 웨어러블 장치(201)와 작동적으로 연결되어, 전자 장치(101)를 기준으로, 상대적인 이어 웨어러블 장치(201)의 포지션(position)을 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 이어 웨어러블 장치(201)의 포지션을 기반으로 상기 이어 웨어러블 장치(201)에서 주변 오디오 신호를 수신할 수 있는지 여부를 판단할 수 있다. 이어 웨어러블 장치(201)를 통해 주변 오디오 신호를 수신할 수 있음을 확인하면, 전자 장치(101)는 상기 이어 웨어러블 장치(201)를 통해 상기 주변 오디오 신호를 수신할 수 있도록, 상기 이어 웨어러블 장치(201)를 적어도 부분적으로 제어할 수 있다.
프로세서(120)의 데이터 처리부(501)는 전자 장치(101)와 작동적으로 연결된 이어 웨어러블 장치(201)와의 송수신 데이터를 처리할 수 있다. 예를 들어, 데이터 처리부(501)는 데이터를 인코딩(encoding)하여 디지털 신호로 변환하고, 상기 디지털 신호를 이어 웨어러블 장치(201)로 전송할 수 있다. 데이터 처리부(501)는 상기 이어 웨어러블 장치(201)로부터 수신된 디지털 신호를 디코딩(decoding)하여 데이터로 변환할 수 있다. 일 실시예에 따르면, 데이터 처리부(501)는 이어 웨어러블 장치(201)를 적어도 부분적으로 제어하기 위한 명령 데이터를 처리할 수 있다. 일 실시예에 따르면, 데이터 처리부(501)는 무선 통신 회로(511)를 통해 이어 웨어러블 장치(201)와 신호를 송수신할 수 있다.
프로세서(120)의 자세 결정부(503)는 전자 장치(101)와 작동적으로 연결된 이어 웨어러블 장치(201)의 상대적인 위치를 확인할 수 있다. 일 실시예에 따르면, 자세 결정부(503)는 전자 장치(101)의 센서 회로(521) 및/또는 GNSS 회로(523)를 이용하여, 전자 장치(101)를 기준으로 이어 웨어러블 장치(201)의 상대적인 위치를 판단할 수 있다. 예를 들어, 자세 결정부(503)는 이어 웨어러블 장치(201)가 전자 장치(101)의 오른쪽 방향에 위치하였는지, 왼쪽 방향에 위치하였는지 여부를 판단할 수 있다. 자세 결정부(503)는 전자 장치(101)를 기준으로, 이어 웨어러블 장치(201)의 높이가 더 높은 건지, 더 낮은 건지 여부를 판단할 수 있다. 일 실시예에 따르면, 자세 결정부(503)는 UWB 포지셔닝 회로(513)를 사용하여 이어 웨어러블 장치(201)의 상대적인 위치를 확인할 수 있다. 자세 결정부(503)는 UWB 신호(예: sequential ranging block)를 사용하여, 이어 웨어러블 장치(201)의 범위 정보(range information) 및/또는 각도 정보(AOA(arrival of angle) information)를 측정할 수 있다. 예를 들어, 자세 결정부(503)는 이어 웨어러블 장치(201)에 대한 요청(poll) 메시지 및/또는 응답(response) 메시지의 송수신 시간을 측정할 수 있고, 상기 측정된 송수신 시간을 기반으로 이어 웨어러블 장치(201)의 범위 정보를 결정할 수 있다. 일 실시예에 따르면, UWB 신호는 지향성 신호를 포함하고, 전자 장치(101)와 작동적으로 연결된 외부 전자 장치(예: 이어 웨어러블 장치(201))의 방향 정보, 범위 정보, 및/또는 각도 정보를 확인할 수 있다. 다른 실시예에 따르면, 프로세서(120)는 UWB 신호를 이용하여, 이어 웨어러블 장치(201)를 적어도 부분적으로 제어할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 이어 웨어러블 장치(201)(예: 외부 전자 장치)에 대응하는 방향 정보, 범위 정보, 및/또는 각도 정보를 획득할 수 있고, 상기 방향 정보, 상기 범위 정보, 및/또는 상기 각도 정보 중 적어도 하나를 기반으로 상기 이어 웨어러블 장치(201)의 상대적인 위치(예: 포지션, 자세)를 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 GNSS 회로(523)를 이용하여 위성 측위 정보를 획득할 수 있고, 상기 이어 웨어러블 장치(201)의 위치를 결정함에 있어서, 정확도가 향상될 수 있다. 일 실시예에 따르면, 프로세서(120)는 이어 웨어러블 장치(201)의 상대적인 위치를 기반으로, 상기 이어 웨어러블 장치(201)가 주변 오디오 신호를 수신할 수 있는지 여부를 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 상기 이어 웨어러블 장치(201)를 통해 주변 오디오 신호를 수신할 수 있다. 다른 실시예에 따르면, 프로세서(120)는 이어 웨어러블 장치(201)의 상대적인 위치를 기반으로, 오디오 신호와 관련된 데이터를 송신할 것인지 여부를 판단할 수 있다. 다른 실시예에 따르면, 프로세서(120)는 상기 이어 웨어러블 장치(201)에 상기 오디오 신호와 관련된 데이터를 송신할 수 있다.
프로세서(120)의 인터페이스 매니저(505)는 디스플레이(160)(예: 도 1의 디스플레이 모듈(160))를 통해 사용자 인터페이스(user interface)를 표시할 수 있다. 일 실시예에 따르면, 인터페이스 매니저(505)는 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 선택하기 위한 사용자 인터페이스를 구성할 수 있고, 상기 사용자 인터페이스를 디스플레이(160)를 통해 표시할 수 있다. 일 실시예에 따르면, 인터페이스 매니저(505)는 오디오 신호의 분석이 완료된 후, 오디오 신호와 관련된 데이터 정보를 전송할 적어도 하나의 외부 전자 장치를 선택하도록 사용자 인터페이스를 구성할 수 있고, 상기 사용자 인터페이스를 디스플레이(160)를 통해 표시할 수 있다. 일 실시예에 따르면, 인터페이스 매니저(505)는 사용자에게 적어도 하나의 외부 전자 장치를 선택하기 위한 사용자 인터페이스를 제공할 수 있다. 인터페이스 매니저(505)는 전자 장치(101)와 작동적으로 연결된 적어도 하나의 외부 전자 장치를 리스트화하여 사용자에게 제공할 수 있다.
도 5를 참조하면, 전자 장치(101)와 이어 웨어러블 장치(201)가 작동적으로 연결된 상황이 도시되었으나, 이어 웨어러블 장치(201)에 한정되지 않는다. 전자 장치(101)는 통신이 가능한 적어도 하나의 외부 전자 장치와 작동적으로 연결될 수 있고, 상기 적어도 하나의 외부 전자 장치를 적어도 부분적으로 제어할 수 잇다.
다양한 실시예에 따르면, 전자 장치(101)는 오디오 모듈(170), 적어도 하나의 외부 전자 장치(102)와 통신을 위한 무선 통신 회로(190), 메모리(130), 및 상기 오디오 모듈(170), 상기 무선 통신 회로(190), 및 상기 메모리(130)에 작동적으로 연결된 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는 상기 적어도 하나의 외부 전자 장치(102) 및 상기 오디오 모듈(170) 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하고, 상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하고, 상기 오디오 정보의 확인에 응답하여, 상기 무선 통신 회로(190)를 통해 연결된 상기 적어도 하나의 외부 전자 장치를 결정하고, 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 센서 모듈(176)을 더 포함하고, 상기 프로세서(120)는 상기 적어도 하나의 외부 전자 장치 및 상기 센서 모듈(176) 중 적어도 하나를 통해 상기 전자 장치의 상황 정보(context information)를 획득하고, 상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 획득할 적어도 하나의 마이크 장치를 결정하고, 상기 결정된 적어도 하나의 마이크 장치를 통해 상기 주변 오디오 신호를 획득할 수 있다.
일 실시예에 따르면, 상기 상황 정보는 상기 전자 장치의 상태와 관련된 정보, 사용자의 활동 정보, 사용자의 스케줄 정보, 시간 정보, 장소 정보 및 이벤트 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 프로세서(120)는 상기 적어도 하나의 마이크 장치가 상기 주변 오디오 신호를 획득할 수 있도록 마이크의 설정 정보를 변경할 수 있다.
일 실시예에 따르면, 프로세서(120)는 상기 획득된 상환 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인 경우, 상기 마이크의 민감도를 증가시키고, 상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 없는 상황인 경우, 상기 마이크의 민감도를 감소시킬 수 있다.
일 실시예에 따르면, 프로세서(120)는 UWB(ultra wide band) 신호를 이용하여 상기 적어도 하나의 외부 전자 장치의 범위 정보 및 각도 정보 중 적어도 하나를 획득하고, 상기 획득된 범위 정보 및 각도 정보 중 적어도 하나를 기반으로 상기 적어도 하나의 외부 전자 장치를 결정할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 외부 전자 장치는 사용자의 귀에 장착 가능한 이어 웨어러블 장치 및 사용자의 신체에 적어도 부분적으로 착용 가능한 웨어러블 장치를 포함할 수 있다.
일 실시예에 따르면, 상기 기 설정된 오디오 정보는 자동차의 클락션 소리, 네비게이션 음성 정보, AI 스피커 음성 정보, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 프로세서(120)는 상기 주변 오디오 신호에 포함된 상기 오디오 정보를 기반으로 응급 상황인지 여부를 확인하고, 상기 응급 상황인 경우 상기 전자 장치와 연결된 모든 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
일 실시예에 따르면, 프로세서(120)는 상기 응급 상황이 아닌 경우 상기 오디오 정보에 대응하는 적어도 하나의 외부 전자 장치를 결정하고, 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
일 실시예에 따르면, 상기 주변 오디오 신호와 관련된 데이터는 상기 주변 오디오 신호의 원음, 상기 주변 오디오 신호에 대응하는 알림음, 기 설정된 알림 메시지, 및 기 설정된 알림 정보 중 적어도 하나를 포함할 수 있다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 과정을 도시한 예시도이다.
도 6을 참조하면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 적어도 하나의 외부 전자 장치(예: 도 1의 전자 장치(102), 도 2의 이어 웨어러블 장치(201), AI 스피커(601), 및/또는 냉장고(603))와 작동적으로 연결될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 네트워크 통신이 가능한 범위 내에 위치한 적어도 하나의 외부 전자 장치와 데이터를 송수신할 수 있다. 전자 장치(101)는 적어도 하나의 외부 전자 장치를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치(101)는 이어 웨어러블 장치(201)의 동작 모드를 변경하거나, AI 스피커(601)의 전원을 ON/OFF 할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 UWB 포지셔닝 회로(예: 도 5의 UWB 포지셔닝 회로(513))를 사용하여 UWB 신호를 적어도 하나의 외부 전자 장치에 전송할 수 있다. UWB 신호는 지향성 신호로서, 전자 장치(101)와 작동적으로 연결된 적어도 하나의 외부 전자 장치의 방향 정보, 범위 정보, 각도 정보를 확인할 수 있다. 예를 들어, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치로부터 UWB 신호의 응답(response) 신호를 수신할 수 있고, 상기 응답 신호를 기반으로 상기 적어도 하나의 외부 전자 장치의 상대적인 위치를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 UWB 신호를 사용하여, 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정할 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 UWB 신호를 사용하여, 분석이 완료된 오디오 신호와 관련된 데이터를 전송하기 위한 적어도 하나의 외부 전자 장치를 결정할 수 있다.
도 7은 본 발명의 다양한 실시예에 따른 적어도 하나의 외부 전자 장치를 선택하여 주변 오디오 신호를 수신하고, 상기 주변 오디오 신호를 분석하고, 상기 주변 오디오 신호와 관련된 데이터를 전송하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
동작 701에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 적어도 하나의 외부 전자 장치(예: 도 1의 전자 장치(102), 도 2의 이어 웨어러블 장치(201))와 작동적으로 연결될 수 있고, 상기 적어도 하나의 외부 전자 장치를 통해 주변 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치를 적어도 부분적으로 제어할 수 있다. 예를 들어, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치에 포함된 마이크를 제어할 수 있고, 상기 마이크를 통해 주변 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치의 동작 모드를 변경할 수도 있다. 예를 들어, 상기 적어도 하나의 외부 전자 장치는 주변 오디오 신호를 보다 정확하게 수신하기 위하여, 마이크 민감도(sensitivity)가 높아지는 모드로 변경될 수 있다. 일 실시예에 따르면, 적어도 하나의 외부 전자 장치는 이어 웨어러블 장치(201)를 포함할 수 있다. 전자 장치(101)(예: 사용자의 스마트폰)는 이어 웨어러블 장치(201)를 통해 음악을 재생하는 상태에서 상기 이어 웨어러블 장치(201)에 구비된 마이크를 이용하여 주변 오디오 신호를 획득할 수 있다.
동작 703에서 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치를 통해 획득한 주변 오디오 신호를 분석할 수 있다. 일 실시예에 따르면, 적어도 하나의 외부 전자 장치는 마이크를 이용하여 주변 오디오 신호를 획득하고, 상기 획득한 주변 오디오 신호를 전자 장치(101)에 송신할 수 있다. 전자 장치(101)는 상기 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인할 수 있다. 예를 들어, 기 설정된 오디오 정보는 자동차의 클락션 소리, 네비게이션 음성 정보, AI 스피커 음성 정보, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 기 설정된 오디오 정보는 응급한 상황을 나타내는 경고음을 포함할 수 있다. 일 실시예에 따르면, 기 설정된 오디오 정보는 사용자에 의해 설정될 수 있고, 특정 대상을 가리키는 키워드를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 주변 오디오 신호에 기 설정된 오디오 정보가 포함되었는지 여부를 분석할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 주변 오디오 신호에 기 설정된 오디오 정보가 포함되어 있지 않은 경우 상기 주변 오디오 신호를 노이즈 신호로 결정하고, 상기 노이즈 신호의 획득을 무시할 수 있다.
동작 705에서 전자 장치(101)는 상기 분석이 완료된 오디오 신호를 전송할 적어도 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 사용자가 이어 웨어러블 장치(201)를 귀에 장착하고 음악을 감상 중인 경우, 전자 장치(101)는 주변 오디오 신호를 전송할 대상으로 이어 웨어러블 장치(201)를 결정할 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 주변 오디오 신호를 전송할 대상으로 손목에 착용된 손목 웨어러블 장치를 결정할 수도 있다.
동작 707에서 전자 장치(101)는 상기 결정된 적어도 하나의 외부 전자 장치에 주변 오디오 신호와 관련된 데이터를 전송할 수 있다. 예를 들어, 상기 주변 오디오 신호와 관련된 데이터는 상기 주변 오디오 신호의 원음, 상기 주변 오디오 신호에 대응하는 알림음, 기 설정된 알림 메시지, 및 기 설정된 알림 정보 중 적어도 하나를 포함할 수 있다.
도 8은 본 발명의 다양한 실시예에 따른 상황 정보(context information)를 수집하고, 상기 상황정보를 기반으로 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는 사용자의 상태 정보(예: 활동 정보, 스케줄 정보), 시간 정보, 장소 정보, 및/또는 이벤트 정보 중 적어도 하나를 포함하는 상황 정보(context information)를 수집할 수 있다. 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 1 의 프로세서(120))는 상기 수집된 상황 정보를 기반으로 주변 오디오 신호를 수신하기 위한 적어도 하나의 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 설정된 시간 간격마다 계속적으로 상황 정보를 수집할 수 있고, 상기 수집된 상황 정보를 기반으로 적어도 하나의 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 상기 수집된 상황 정보를 기반으로 오디오 분석이 완료된 오디오 신호를 전송하기 위한 적어도 하나의 외부 전자 장치를 결정할 수 있다.
동작 801에서 전자 장치(101)는 적어도 하나의 외부 전자 장치와 작동적으로 연결될 수 있고, 상기 적어도 하나의 외부 전자 장치에 구비된 마이크를 확인할 수 있다. 예를 들어, 마이크가 포함된 외부 전자 장치는 마이크 장치로 지칭될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치에 구비된 마이크의 위치를 확인할 수 있다. 예를 들어, 복수 개의 마이크가 구비된 외부 전자 장치의 경우 전자 장치(101)는 각각 개별적으로 마이크의 배치 위치를 확인할 수 있다.
동작 803에서 전자 장치(101)는 상기 전자 장치(101) 및 상기 적어도 하나의 외부 전자 장치 중 적어도 하나를 사용하여 상황 정보를 수집할 수 있다. 예를 들어, 상황 정보는 사용자의 상태 정보(예: 활동 정보, 스케줄 정보), 시간 정보, 장소 정보, 및/또는 이벤트 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101) 및 외부 전자 장치는 구비된 적어도 하나의 센서를 사용하여 상기 상황 정보를 수집할 수 있고, 실시간 또는 기 설정된 시간 간격 마다 계속적으로 상황 정보를 수집할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 수집된 상황 정보를 메모리(예: 도 1의 메모리(130))에 저장할 수 있다.
동작 805에서 전자 장치(101)는 상기 수집된 상황 정보를 기반으로 적어도 하나의 마이크를 선택할 수 있다. 마이크를 선택한다는 것은 마이크가 구비된 적어도 하나의 외부 전자 장치를 선택한다는 의미일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상황 정보를 기반으로 적어도 하나의 외부 전자 장치에 구비된 마이크를 선택할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 수집된 상황 정보를 기반으로 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인지 여부를 확인할 수 있다. 예를 들어, 전자 장치(101)는 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황이라고 판단하고, 상기 마이크의 민감도를 증가시킬 수 있다. 예를 들어, 전자 장치(101)는 상기 주변 오디오 신호를 정밀하게 획득할 필요가 없는 상황이라고 판단하고, 상기 마이크의 민감도를 감소시킬 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 상황 정보를 기반으로, 상기 주변 오디오 신호를 보다 정밀하게 획득할지 여부를 결정할 수 있고, 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황이라면, 상기 마이크의 민감도를 증가시킬 수 있다.
동작 807에서 전자 장치(101)는 상기 적어도 하나의 외부 전자 장치의 적어도 하나의 마이크를 사용하여 주변 오디오 신호를 획득할 수 있다. 예를 들어, 전자 장치(101)는 이어 웨어러블 장치(201)를 통해 음악을 재생하는 상태에서, 상기 이어 웨어러블 장치(201)에 포함된 마이크를 사용하여 주변 오디오 신호를 획득할 수 있다.
도 9a는 본 발명의 다양한 실시예에 따른 수집된 상황 정보를 기반으로 전자 장치 및 적어도 하나의 외부 전자 장치의 마이크 설정을 변경하는 실시예를 도시한 테이블이다.
도 9a를 참조하면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 적어도 하나의 외부 전자 장치(예: 도 2의 이어 웨어러블 장치(201), 도 3의 손목 웨어러블 장치(301))와 작동적으로 연결될 수 있다. 전자 장치(101)는 전자 장치(101) 및 적어도 하나의 외부 전자 장치 중 적어도 하나를 통해 상황 정보(context information)를 수집할 수 있다. 일 실시예에 따르면, 상황 정보는 사용자의 상태 정보(예: 사용자의 움직임 정보, 사용자의 활동 정보, 및/또는 사용자의 위치 정보), 시간 정보, 장소 정보 및/또는 이벤트 정보를 포함할 수 있다. 일 실시예에 따르면, 상황 정보는 사용자의 필요에 따라 포함되거나, 삭제될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 수집된 상황 정보를 기반으로 전자 장치(101) 또는 적어도 하나의 외부 전자 장치의 마이크 설정을 변경할 수 있다.
일 실시예에 따르면, 전자 장치(101)(예: 제 1 전자 장치)는 수집된 상황 정보를 기반으로 기 설정된 조건을 충족하는지 여부를 확인하고, 상기 설정된 조건이 충족되면, 전자 장치(101) 및 적어도 하나의 외부 전자 장치(예: 제 2 전자 장치, 제 3 전자 장치)의 동작을 적어도 부분적으로 제어할 수 있다.
예를 들어, 제 1 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 사용자가 출근하는 시간(예: 오전 9시)에 집에 위치하고 있는지 여부를 확인하고, 해당 조건을 충족하는 경우 제 1 전자 장치의 디스플레이(예: 도 1의 디스플레이 모듈(160))를 OFF하고, 설정된 음악을 재생할 수 있다. 제 1 전자 장치는 작동적으로 연결된 제 2 전자 장치(예: 도 2의 이어 웨어러블 장치(201))를 통해 음악이 출력되도록 상기 제 2 전자 장치를 제어할 수 있다. 제 1 전자 장치는 작동적으로 연결된 제 3 전자 장치(예: 도 3의 손목 웨어러블 장치(301))에서 운동 모드로 전환되도록 상기 제 3 전자 장치를 제어할 수 있다. 일 실시예에 따르면, 제 1 전자 장치는 마이크를 OFF 하여, 주변 오디오 신호를 수신하지 않을 수 있다. 제 1 전자 장치는 제 2 전자 장치의 마이크 민감도가 높아지도록 제 2 전자 장치의 설정 정보를 변경할 수 있고, 주변 오디오 신호를 수신하도록 제어할 수 있다. 제 1 전자 장치는 제 3 전자 장치의 마이크 민감도가 높아지도록 제 3 전자 장치의 설정 정보를 변경할 수 있고, 주변 오디오 신호를 수신하도록 제어할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 주변 오디오 신호를 수신할 수 있는 적어도 하나의 외부 전자 장치를 결정할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 수집된 상황 정보를 기반으로 전자 장치(101) 및 적어도 하나의 외부 전자 장치를 적어도 부분적으로 제어할 수 있다.
예를 들어, 제 2 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 운전 중에 이벤트(예: 차량(예: 제 2 전자 장치)의 블루투스 연결)가 발생하는 경우 제 1 전자 장치의 음성 호출을 켜고, 네비게이션을 실행시킬 수 있다. 제 1 전자 장치는 블루투스 연결된 제 2 전자 장치(예: 차량)를 통해 음악을 재생할 수 있다. 제 1 전자 장치는 작동적으로 연결된 제 3 전자 장치(예: 도 3의 손목 웨어러블 장치(301))에서 운전 모드로 전환되도록 상기 제 3 전자 장치를 제어할 수 있다. 일 실시예에 따르면, 제 1 전자 장치는 마이크 민감도가 높아지도록 상기 제 1 전자 장치의 설정 정보를 변경할 수 있다. 제 1 전자 장치는 제 2 전자 장치의 마이크 민감도가 높아지도록 상기 제 2 전자 장치의 설정 정보를 변경할 수 있다.
예를 들어, 제 3 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 업무 시간(예: 9시30분부터 18시까지)에 회사에 위치하고 있는지 여부를 확인하고, 해당 조건을 충족하는 경우 제 1 전자 장치는 진동 모드로 전환될 수 있다. 제 1 전자 장치는 회사 WIFI에 연결될 수 있고, 업무 모드로 전환될 수 있다. 일 실시예에 따르면, 제 1 전자 장치는 마이크 민감도가 높아지도록 상기 제 1 전자 장치의 설정 정보를 변경할 수 있다.
예를 들어, 제 4 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 사용자가 밤 시간(예: 23시)에 방에서 게임을 하고 있는지 여부를 확인하고, 해당 조건을 충족하는 경우 제 1 전자 장치는 화면 가로 모드로 전환될 수 있다. 제 1 전자 장치는 집 WIFI에 연결될 수 있고, 알림을 차단할 수 있다. 예를 들어, 제 1 전자 장치가 제 3 전자 장치(예: 글래스)에 작동적으로 연결된 상태인 경우 제 1 전자 장치는 제 3 전자 장치가 게임 화면을 재생하도록 상기 제 3 전자 장치를 제어할 수 있다. 일 실시예에 따르면, 제 1 전자 장치는 마이크를 OFF 하여, 주변 오디오 신호를 수신하지 않을 수 있다. 제 1 전자 장치는 제 2 전자 장치의 마이크 민감도가 높아지도록 제 2 전자 장치(예: 이어 웨어러블 장치)의 설정 정보를 변경할 수 있고, 주변 오디오 신호를 수신하도록 제어할 수 있다. 제 1 전자 장치는 제 3 전자 장치의 마이크 민감도가 높아지도록 제 3 전자 장치의 설정 정보를 변경할 수 있고, 주변 오디오 신호를 수신하도록 제어할 수 있다.
도 9b는 본 발명의 다양한 실시예에 따른 수집된 상황 정보를 기반으로 전자 장치 및 적어도 하나의 외부 전자 장치의 동작 모드를 변경하는 실시예를 도시한 테이블이다.
도 9b를 참조하면, 도 9a의 제 1 실시예 내지 제 4 실시예에 대응하는 실시예을 도시한다. 일 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 수집된 상황 정보를 기반으로 제 1 전자 장치, 제 2 전자 장치, 및/또는 제 3 전자 장치의 사운드 인식 설정을 변경할 수 있다.
예를 들어, 제 1 실시예에 따르면, 사용자가 대중 교통으로 출근을 하면서 음악을 감상하고 있는 상황일 수 있다. 사용자는 음악을 감상 중이기 때문에 응급 상황을 알리기 위한 경고음(예: 차량의 클락션 소리, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음)을 보다 주의 깊게 들을 필요가 있다. 제 1 실시예에 따르면, 제 1 전자 장치는 위험 소리 사운드 모델을 로딩할 수 있고, 주변 오디오 신호에 상기 위험 소리 사운드 모델에 대응하는 오디오 정보가 포함되어 있는지 여부를 확인할 수 있다. 제 1 전자 장치는 위험 소리 사운드 모델에 대응하는 오디오 정보를 보다 중점적으로 검출할 수 있다.
예를 들어, 제 2 실시예에 따르면, 사용자가 네비게이션을 실행 후 운전을 하면서, 음악을 감상하고 있는 상황일 수 있다. 사용자는 음악을 감상 중인 상태에서 네비게이션의 안내 음성을 수신할 필요가 있다. 제 1 실시예에 따르면, 제 1 전자 장치는 스피치 감지 사운드 모델을 로딩할 수 있고, 주변 오디오 신호에 상기 스피치 감지 사운드 모델에 대응하는 오디오 정보가 포함되어 있는지 여부를 확인할 수 있다. 제 1 전자 장치는 스피치 감지 사운드 모델에 대응하는 오디오 정보를 보다 중점적으로 검출할 수 있다.
예를 들어, 제 3 실시예에 따르면, 사용자가 회사에서 회의중인 상황일 수 있다. 사용자는 회의 중에 상대방의 음성을 수신할 필요가 있다. 제 3 실시예에 따르면, 제 1 전자 장치는 보이스 감지 사운드 모델을 로딩할 수 있고, 주변 오디오 신호에 상기 보이스 감지 사운드 모델에 대응하는 오디오 정보가 포함되어 있는지 여부를 확인할 수 있다. 제 1 전자 장치는 보이스 감지 사운드 모델에 대응하는 오디오 정보를 보다 중점적으로 검출할 수 있다.
예를 들어, 제 4 실시예에 따르면, 사용자가 이어 웨어러블 장치 및 글래스를 착용한 상태에서 게임 중인 상황일 수 있다. 사용자는 게임 중에 사용자를 호출하는 음성을 수신할 필요가 있다. 제 4 실시예에 따르면, 제 1 전자 장치는 스피치 감지 사운드 모델을 로딩할 수 있고, 주변 오디오 신호에 상기 스피치 감지 사운드 모델에 대응하는 오디오 정보가 포함되어 있는지 여부를 확인할 수 있다. 제 1 전자 장치는 스피치 감지 사운드 모델에 대응하는 오디오 정보를 보다 중점적으로 검출할 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는 음성 관련 정보 및 키워드 관련 정보를 기반으로 사운드 모델을 편의에 따라 설정할 수 있다.
도 10a는 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 주변 상황을 감지하는 방법을 도시한 흐름도이다.
동작 1001에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 획득한 주변 오디오 신호를 기반으로 기 설정된 사운드 데이터를 검출할 수 있다. 예를 들어, 전자 장치(101)는 적어도 하나의 키워드 정보 및 오디오 관련 정보(예: 오디오 주파수 정보, 오디오의 볼륨 크기 정보)를 사운드 데이터로 설정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 획득한 주변 오디오 신호에 기 설정된 사운드 데이터가 포함되어 있는지 여부를 확인할 수 있다.
동작 1003에서 전자 장치(101)는 검출된 사운드 데이터에 대응되는 상황을 감지할 수 있다. 예를 들어, 검출된 사운드 데이터가 차량 클락션 소리인 경우 도로에서 차량을 주의해야 하는 상황임을 감지할 수 있다. 검출된 사운드 데이터가 구급차 신호음인 경우 구급차에게 양보해야 하는 상황임을 감지할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 여러 상황에 대응하는 복수 개의 사운드 모델을 설정할 수 있고, 상기 획득한 주변 오디오 신호를 기반으로 사운드 모델에 대응되는 특정 상황을 감지할 수 있다.
도 10b는 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 주변 상황을 감지하는 방법을 보다 구체적으로 도시한 흐름도이다.
동작 1011에서 전자 장치(101)의 프로세서(120)는 획득한 주변 오디오 신호에 기 설정된 위험 신호가 포함되어 있는지 여부를 판단할 수 있다. 만약 위험 신호가 포함되어 있다면, 동작 1013에서 프로세서(120)는 전자 장치(101)와 작동적으로 연결된 모든 외부 전자 장치를 결정하고, 동작 1015에서 상기 결정된 모든 외부 전자 장치에 상기 위험 신호에 대응하는 데이터를 전송할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 위험 신호에 대응하는 원음을 전송하거나, 상기 위험 신호에 대응하는 설정된 경고음을 전송할 수 있다.
동작 1011에서 획득한 주변 오디오 신호에 위험 신호가 포함되지 않았다면, 동작 1017에서 프로세서(120)는 기 설정된 오디오 정보가 포함되어 있는지 여부를 판단할 수 있다. 만약 기 설정된 오디오 정보가 포함되어 있다면, 동작 1019에서 프로세서(120)는 적어도 하나의 전자 장치의 고유 정보와 상기 기 설정된 오디오 정보를 기반으로 적어도 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 기 설정된 오디오 정보가 특정 이름인 경우 상기 특정 이름에 대응하는 적어도 하나의 외부 전자 장치가 결정될 수 있다. 동작 1021에서 프로세서(120)는 상기 결정된 적어도 하나의 외부 전자 장치에 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
동작 1017에서 획득한 주변 오디오 신호에 기 설정된 오디오 정보가 포함되지 않았다면, 동작 1023에서 프로세서(120)는 상기 획득한 주변 오디오 신호를 무시할 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는 전자 장치(101) 및/또는 외부 전자 장치를 통해 획득한 주변 오디오 신호를 분석할 수 있고, 분석 결과에 따른 적어도 하나의 외부 전자 장치를 결정할 수 있다. 전자 장치(101)는 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송할 수 있다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치가 수신된 주변 오디오 신호를 기반으로 상기 주변 오디오 신호를 무시하는 실시예를 도시한 테이블이다.
도 11을 참조하면, 도 9a 및 도 9b의 제 1 실시예 내지 제 4 실시예에 대응하는 실시예를 도시한다. 일 실시예에 따르면, 제 1 전자 장치(예: 전자 장치(101))는 결정된 사운드 모델을 기반으로 주변 오디오 신호에 대한 분석을 선별적으로 수행할 수 있다.
예를 들어, 제 1 실시예에 따르면, 제 1 전자 장치는 위험 소리 사운드 모델을 기반으로 위험 소리(예: 차량의 클락션 소리, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음)의 우선 순위를 높게 설정할 수 있고, 기타 사람 소리의 우선 순위를 낮게 설정하거나 무시할 수 있다.
예를 들어, 제 2 실시예 내지 제 4 실시예에 따르면, 제 1 전자 장치는 스피치 감지 사운드 모델을 기반으로 사람 목소리의 우선 순위를 높게 설정할 수 있고, 주변 음악 소리의 우선 순위를 낮게 설정하거나 무시할 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는 사용자의 편의에 따라 적어도 하나의 사운드 모델을 설정할 수 있고, 상기 설정된 사운드 모델을 기반으로 주변 오디오 신호를 선별적으로 분석할 수 있다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 방법을 도시한 흐름도이다.
동작 1201에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 수집된 상황 정보 및 감지된 상황을 기반으로 적어도 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 전자 장치(101)는 작동적으로 연결된 적어도 하나의 외부 전자 장치 중에서 주변 오디오 신호와 관련된 데이터를 수신 가능한 적어도 하나의 외부 전자 장치를 결정할 수 있다.
동작 1203에서 전자 장치(101)는 상기 주변 오디오 신호에 대응하여 전송할 데이터 타입을 결정할 수 있다. 예를 들어, 데이터 타입은 상기 주변 오디오 신호의 원음, 상기 주변 오디오 신호에 대응하는 알림음, 기 설정된 알림 메시지, 및 기 설정된 알림 정보 중 적어도 하나를 포함할 수 있다.
동작 1205에서 전자 장치(101)는 상기 결정된 적어도 하나의 외부 전자 장치에 상기 결정된 데이터 타입에 기반한 데이터를 전송할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 수집된 상황 정보 및 감지된 상황을 기반으로 상기 적어도 하나의 외부 전자 장치에서 사용자에게 제공하기 적합한 데이터 타입을 결정할 수 있다. 전자 장치(101)는 상기 결정된 데이터 타입에 대응하는 데이터를 상기 적어도 하나의 외부 전자 장치에 전송할 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 수집된 상황 정보 및 감지된 상황을 기반으로 사용자가 확인 가능한 데이터 타입을 결정할 수 있고, 상기 결정된 데이터 타입에 대응하는 데이터를 사용자에게 제공할 수 있다.
도 13은 본 발명의 다양한 실시예에 따른 전자 장치가 분석이 완료된 주변 오디오 신호를 송신하기 위한 적어도 하나의 외부 전자 장치를 결정하는 실시예를 도시한 테이블이다.
도 13을 참조하면, 도 9a 및 도 9b의 제 1 실시예 내지 제 4 실시예에 대응하는 실시예를 도시한다.
예를 들어, 제 1 실시예에 따르면, 제 1 전자 장치는 전송할 데이터 타입으로 상기 주변 오디오 신호의 원음을 결정하고, 상기 제 1 전자 장치와 통신 가능한 모든 외부 전자 장치(예: 원음 출력이 가능한 전자 장치)에 상기 결정된 원음을 전송할 수 있다. 제 1 전자 장치는 외부 전자 장치에서 원음을 출력할 수 있도록 상기 외부 전자 장치의 모드를 변경하기 위한 명령어(command)를 함께 전송할 수 있다.
예를 들어, 제 2 실시예에 따르면, 제 1 전자 장치는 전송할 데이터 타입으로 상기 주변 오디오 신호의 원음을 결정하고, 네비게이션이 작동 중인 제 1 전자 장치에 상기 결정된 원음을 전송할 수 있다.
예를 들어, 제 3 실시예에 따르면, 제 1 전자 장치는 전송할 데이터 타입으로 상기 주변 오디오 신호의 원음을 결정하고, 상기 제 1 전자 장치에 직접 연결된 외부 전자 장치에 상기 결정된 원음을 전송할 수 있다.
예를 들어, 제 4 실시예에 따르면, 제 1 전자 장치는 전송할 데이터 타입으로 상기 주변 오디오 신호의 원음을 결정하고, 스피치에 명시된(예: 주변 오디오 신호에 포함된 오디오 정보에 대응되는) 제 2 전자 장치에 상기 결정된 원음을 전송할 수 있다.
다양한 실시예에 따른 방법은, 전자 장치 및 상기 전자 장치와 통신하도록 연결된 적어도 하나의 외부 전자 장치 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하는 동작, 상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하는 동작, 상기 오디오 정보의 확인에 응답하여, 상기 적어도 하나의 외부 전자 장치를 결정하는 동작, 및 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작을 포함할 수 있다.
일 실시예에 따른 상기 주변 오디오 신호를 획득하는 동작은, 상기 전자 장치 및 상기 적어도 하나의 외부 전자 장치 중 적어도 하나를 통해 상기 전자 장치의 상황 정보(context information)를 획득하는 동작, 상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 획득할 적어도 하나의 마이크 장치를 결정하는 동작, 및 상기 결정된 적어도 하나의 마이크 장치를 통해 상기 주변 오디오 신호를 획득하는 동작을 포함할 수 있다.
일 실시예에 따른 방법에서 상기 상황 정보는 상기 전자 장치의 상태와 관련된 정보, 사용자의 활동 정보, 사용자의 스케줄 정보, 시간 정보, 장소 정보 및 이벤트 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 방법은, 상기 적어도 하나의 마이크 장치가 상기 주변 오디오 신호를 획득할 수 있도록 마이크의 설정 정보를 변경하는 동작을 더 포함할 수 있다.
일 실시예에 따른 방법은, 상기 획득된 상환 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인 경우, 상기 마이크의 민감도를 증가시키는 동작 및 상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 없는 상황인 경우, 상기 마이크의 민감도를 감소시키는 동작을 더 포함할 수 있다.
일 실시예에 따른 상기 적어도 하나의 외부 전자 장치를 결정하는 동작은, UWB(ultra wide band) 신호를 이용하여 상기 적어도 하나의 외부 전자 장치의 범위 정보 및 각도 정보 중 적어도 하나를 획득하는 동작 및 상기 획득된 범위 정보 및 각도 정보 중 적어도 하나를 기반으로 상기 적어도 하나의 외부 전자 장치를 결정하는 동작을 포함할 수 있다.
일 실시예에 따른 방법에서 상기 기 설정된 오디오 정보는 자동차의 클락션 소리, 네비게이션 음성 정보, AI 스피커 음성 정보, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음 중 적어도 하나를 포함하고, 상기 주변 오디오 신호와 관련된 데이터는 상기 주변 오디오 신호의 원음, 상기 주변 오디오 신호에 대응하는 알림음, 기 설정된 알림 메시지, 및 기 설정된 알림 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작은, 상기 주변 오디오 신호에 포함된 상기 오디오 정보를 기반으로 응급 상황인지 여부를 확인하는 동작 및 상기 응급 상황인 경우 상기 전자 장치와 연결된 모든 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작을 포함할 수 있다.
일 실시예에 따른 방법은, 상기 응급 상황이 아닌 경우 상기 오디오 정보에 대응하는 적어도 하나의 외부 전자 장치를 결정하는 동작 및 상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    오디오 모듈;
    적어도 하나의 외부 전자 장치와 통신을 위한 무선 통신 회로;
    메모리; 및
    상기 오디오 모듈, 상기 무선 통신 회로 및 상기 메모리에 작동적으로 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 외부 전자 장치 및 상기 오디오 모듈 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하고,
    상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하고,
    상기 오디오 정보의 확인에 응답하여, 상기 무선 통신 회로를 통해 연결된 상기 적어도 하나의 외부 전자 장치를 결정하고,
    상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 전자 장치.
  2. 제 1 항에 있어서,
    센서 모듈을 더 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 외부 전자 장치 및 상기 센서 모듈 중 적어도 하나를 통해 상기 전자 장치의 상황 정보(context information)를 획득하고,
    상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 획득할 적어도 하나의 마이크 장치를 결정하고,
    상기 결정된 적어도 하나의 마이크 장치를 통해 상기 주변 오디오 신호를 획득하고,
    상기 상황 정보는 상기 전자 장치의 상태와 관련된 정보, 사용자의 활동 정보, 사용자의 스케줄 정보, 시간 정보, 장소 정보 및 이벤트 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 마이크 장치가 상기 주변 오디오 신호를 획득할 수 있도록 마이크의 설정 정보를 변경하는 전자 장치.
  4. 제 3 항에 있어서,
    상기 프로세서는,
    상기 획득된 상환 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인 경우, 상기 마이크의 민감도를 증가시키고,
    상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 없는 상황인 경우, 상기 마이크의 민감도를 감소시키는 전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는,
    UWB(ultra wide band) 신호를 이용하여 상기 적어도 하나의 외부 전자 장치의 범위 정보 및 각도 정보 중 적어도 하나를 획득하고,
    상기 획득된 범위 정보 및 각도 정보 중 적어도 하나를 기반으로 상기 적어도 하나의 외부 전자 장치를 결정하는 전자 장치.
  6. 제 1 항에 있어서,
    상기 적어도 하나의 외부 전자 장치는 사용자의 귀에 장착 가능한 이어 웨어러블 장치 및 사용자의 신체에 적어도 부분적으로 착용 가능한 웨어러블 장치를 포함하고,
    상기 기 설정된 오디오 정보는 자동차의 클락션 소리, 네비게이션 음성 정보, AI 스피커 음성 정보, 사이렌 소리, 경찰차 신호음, 구급차 신호음, 소방차 신호음 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
  7. 제 1 항에 있어서,
    상기 프로세서는,
    상기 주변 오디오 신호에 포함된 상기 오디오 정보를 기반으로 응급 상황인지 여부를 확인하고,
    상기 응급 상황인 경우 상기 전자 장치와 연결된 모든 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하고,
    상기 응급 상황이 아닌 경우 상기 오디오 정보에 대응하는 적어도 하나의 외부 전자 장치를 결정하고,
    상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 전자 장치.
  8. 제 1 항에 있어서,
    상기 주변 오디오 신호와 관련된 데이터는 상기 주변 오디오 신호의 원음, 상기 주변 오디오 신호에 대응하는 알림음, 기 설정된 알림 메시지, 및 기 설정된 알림 정보 중 적어도 하나를 포함하는 전자 장치.
  9. 방법에 있어서,
    전자 장치 및 상기 전자 장치와 통신하도록 연결된 적어도 하나의 외부 전자 장치 중 적어도 하나를 기반으로 주변 오디오 신호를 획득하는 동작;
    상기 획득된 주변 오디오 신호를 기반으로 기 설정된 오디오 정보가 포함되어 있는지 여부를 확인하는 동작;
    상기 오디오 정보의 확인에 응답하여, 상기 적어도 하나의 외부 전자 장치를 결정하는 동작; 및
    상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작; 을 포함하는 방법.
  10. 제 9 항에 있어서,
    상기 주변 오디오 신호를 획득하는 동작은,
    상기 전자 장치 및 상기 적어도 하나의 외부 전자 장치 중 적어도 하나를 통해 상기 전자 장치의 상황 정보(context information)를 획득하는 동작;
    상기 획득된 상황 정보를 기반으로 상기 주변 오디오 신호를 획득할 적어도 하나의 마이크 장치를 결정하는 동작; 및
    상기 결정된 적어도 하나의 마이크 장치를 통해 상기 주변 오디오 신호를 획득하는 동작; 을 포함하고,
    상기 상황 정보는 상기 전자 장치의 상태와 관련된 정보, 사용자의 활동 정보, 사용자의 스케줄 정보, 시간 정보, 장소 정보 및 이벤트 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  11. 제 10 항에 있어서,
    상기 적어도 하나의 마이크 장치가 상기 주변 오디오 신호를 획득할 수 있도록 마이크의 설정 정보를 변경하는 동작; 을 더 포함하는 방법.
  12. 제 11 항에 있어서,
    상기 획득된 상환 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인 경우, 상기 마이크의 민감도를 증가시키는 동작; 및
    상기 획득된 상환 정보를 기반으로 상기 주변 오디오 신호를 정밀하게 획득할 필요가 있는 상황인 경우, 상기 마이크의 민감도를 감소시키는 동작; 을 더 포함하는 방법.
  13. 제 9 항에 있어서,
    상기 적어도 하나의 외부 전자 장치를 결정하는 동작은,
    UWB(ultra wide band) 신호를 이용하여 상기 적어도 하나의 외부 전자 장치의 범위 정보 및 각도 정보 중 적어도 하나를 획득하는 동작; 및
    상기 획득된 범위 정보 및 각도 정보 중 적어도 하나를 기반으로 상기 적어도 하나의 외부 전자 장치를 결정하는 동작; 을 포함하는 방법.
  14. 제 9 항에 있어서,
    상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작은,
    상기 주변 오디오 신호에 포함된 상기 오디오 정보를 기반으로 응급 상황인지 여부를 확인하는 동작; 및
    상기 응급 상황인 경우 상기 전자 장치와 연결된 모든 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작; 을 포함하는 방법.
  15. 제 14 항에 있어서,
    상기 응급 상황이 아닌 경우 상기 오디오 정보에 대응하는 적어도 하나의 외부 전자 장치를 결정하는 동작; 및
    상기 결정된 적어도 하나의 외부 전자 장치에 상기 주변 오디오 신호와 관련된 데이터를 전송하는 동작; 을 더 포함하는 방법.
PCT/KR2021/008424 2020-07-02 2021-07-02 주변 오디오 신호의 감지 방법 및 전자 장치 WO2022005248A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/090,299 US20230137857A1 (en) 2020-07-02 2022-12-28 Method and electronic device for detecting ambient audio signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200081739A KR20220003908A (ko) 2020-07-02 2020-07-02 주변 오디오 신호의 감지 방법 및 전자 장치
KR10-2020-0081739 2020-07-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/090,299 Continuation US20230137857A1 (en) 2020-07-02 2022-12-28 Method and electronic device for detecting ambient audio signal

Publications (1)

Publication Number Publication Date
WO2022005248A1 true WO2022005248A1 (ko) 2022-01-06

Family

ID=79317655

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/008424 WO2022005248A1 (ko) 2020-07-02 2021-07-02 주변 오디오 신호의 감지 방법 및 전자 장치

Country Status (3)

Country Link
US (1) US20230137857A1 (ko)
KR (1) KR20220003908A (ko)
WO (1) WO2022005248A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150105130A (ko) * 2014-03-07 2015-09-16 삼성전자주식회사 보청기의 피드백 제거를 위한 장치 및 방법
KR20160071129A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 음향 출력 장치, 음향 출력 시스템 및 그 제어 방법
US20160188284A1 (en) * 2014-12-26 2016-06-30 Intel Corporation Noise cancellation with enhancement of danger sounds
KR101750871B1 (ko) * 2015-11-05 2017-06-26 엘지전자 주식회사 이어셋 장치 및 그 장치의 제어 방법
KR20200074445A (ko) * 2018-12-17 2020-06-25 삼성전자주식회사 Em 신호를 발생시킨 외부 전자 장치에 따라 오디오 신호의 경로를 변경하는 전자 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150105130A (ko) * 2014-03-07 2015-09-16 삼성전자주식회사 보청기의 피드백 제거를 위한 장치 및 방법
KR20160071129A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 음향 출력 장치, 음향 출력 시스템 및 그 제어 방법
US20160188284A1 (en) * 2014-12-26 2016-06-30 Intel Corporation Noise cancellation with enhancement of danger sounds
KR101750871B1 (ko) * 2015-11-05 2017-06-26 엘지전자 주식회사 이어셋 장치 및 그 장치의 제어 방법
KR20200074445A (ko) * 2018-12-17 2020-06-25 삼성전자주식회사 Em 신호를 발생시킨 외부 전자 장치에 따라 오디오 신호의 경로를 변경하는 전자 장치 및 방법

Also Published As

Publication number Publication date
US20230137857A1 (en) 2023-05-04
KR20220003908A (ko) 2022-01-11

Similar Documents

Publication Publication Date Title
WO2022055068A1 (ko) 음성에 포함된 커맨드를 확인하는 전자 장치와 이의 동작 방법
WO2022154546A1 (ko) 자동 음량 제어를 수행하는 웨어러블 장치
WO2022005248A1 (ko) 주변 오디오 신호의 감지 방법 및 전자 장치
WO2022177299A1 (ko) 통화 기능의 제어 방법 및 이를 지원하는 전자 장치
WO2022103021A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2022065845A1 (ko) 입력 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2022065806A1 (ko) 리세스 구조가 형성된 하우징 및 이를 포함하는 전자 장치
WO2022225229A1 (ko) 긴급 메시지를 전송하는 전자 장치 및 이의 동작 방법
WO2023080401A1 (ko) 이어폰을 이용한 전자 장치의 사운드 레코딩 방법 및 장치
WO2022019476A1 (ko) 음상 정위에 따른 음성 출력 방법 및 이를 이용한 장치
WO2024063456A1 (ko) 음향 신호를 출력하기 위한 전자 장치, 방법 및 비 일시적 저장 매체
WO2022103108A1 (ko) 전자 장치 및 전자 장치의 터치 입력 감지 방법
WO2024053931A1 (ko) 마이크를 전환하는 방법 및 전자 장치
WO2024076043A1 (ko) 진동 소리 신호를 생성하기 위한 전자 장치 및 방법
WO2022080880A1 (ko) 전자 장치 및 이를 이용한 알림 제공 방법
WO2022154558A1 (ko) 위치 탐색을 위한 전자 장치, 방법 및 비 일시적 저장 매체
WO2022154394A1 (ko) 내부 노이즈를 줄이는 전자 장치 및 이의 동작 방법
WO2024048955A1 (ko) 동영상을 촬영하기 위한 전자 장치, 그 동작 방법 및 저장 매체
WO2023013945A1 (ko) 무선 통신으로 인한 노이즈를 제어하는 전자 장치 및 그의 동작 방법
WO2024058472A1 (ko) 어플리케이션에 대한 정보를 외부 디스플레이를 통해 제공하는 웨어러블 장치 및 상기 웨어러블 장치의 제어 방법
WO2022114648A1 (ko) 배경 화면을 설정하기 위한 전자 장치 및 그의 동작 방법
WO2021256720A1 (ko) 외부 장치로 요청을 전송하는 방법 및 이를 지원하는 전자 장치
WO2022098004A1 (ko) 통신 연결을 통하여 데이터를 전송하는 전자 장치와 이의 동작 방법
WO2023158268A1 (ko) 외부 소음에 기반한 마이크 및 센서 제어 방법 및 전자 장치
WO2022154321A1 (ko) 잡음 환경에 따라서 통신 연결을 전환하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21832933

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21832933

Country of ref document: EP

Kind code of ref document: A1