WO2021020686A1 - 헤드셋 전자 장치 및 그와 연결되는 전자 장치 - Google Patents

헤드셋 전자 장치 및 그와 연결되는 전자 장치 Download PDF

Info

Publication number
WO2021020686A1
WO2021020686A1 PCT/KR2020/003590 KR2020003590W WO2021020686A1 WO 2021020686 A1 WO2021020686 A1 WO 2021020686A1 KR 2020003590 W KR2020003590 W KR 2020003590W WO 2021020686 A1 WO2021020686 A1 WO 2021020686A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
headset
microphone
processor
state information
Prior art date
Application number
PCT/KR2020/003590
Other languages
English (en)
French (fr)
Inventor
구관회
정용범
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021020686A1 publication Critical patent/WO2021020686A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/09Applications of special connectors, e.g. USB, XLR, in loudspeakers, microphones or headphones

Definitions

  • Various embodiments disclosed in this document relate to a headset electronic device and an electronic device connected to the headset electronic device.
  • the headset electronic device may be equipped with a speaker for outputting sound and a microphone for recording sound. As the functions of the headset electronic device increase, the number of microphones mounted on the headset electronic device has also increased.
  • a headset electronic device having a noise canceling function may be equipped with a microphone for receiving external sound.
  • headset electronic devices that are connected to electronic devices through a USB connection method are increasing.
  • Various embodiments disclosed in this document may provide an electronic device for receiving sound generated from the outside, processing an audio signal received from an external electronic device based on the received sound, and outputting sound.
  • Various embodiments disclosed in this document include a headset electronic device for appropriately operating a plurality of microphones mounted on the headset electronic device according to a state of an electronic device connected to the headset electronic device and a wearing state of the headset electronic device, and a headset electronic device connected An electronic device that can be used can be provided.
  • a headset electronic device includes a pair of headset housings, a speaker disposed inside the pair of headset housings, and each formed on the pair of headset housings to connect the speaker and the outside.
  • a speaker output path a first microphone disposed inside the pair of headset housings to face an outer direction of the pair of headset housings, a second microphone respectively disposed on the speaker output path, the speaker,
  • a first cable electrically connected to each of a first microphone and a second microphone
  • a processor that is electrically connected to the first cable to control the speaker, the first microphone, and the second microphone, and the processor is electrically connected to the processor.
  • the processor comprises: Driven by power supplied from a power signal pin included in the USB connector connected to the device, receive audio data from the external electronic device through a data signal pin included in the USB connector, and receive the first microphone and the second
  • An external noise signal may be received from at least one of the microphones, audio data may be processed based on the external noise signal, and audio data may be transmitted to the speaker.
  • An electronic device may include a USB connector and a processor electrically connected to the USB connector, wherein the processor receives wearing state information from the headset electronic device, and the wearing state information
  • the operation signal may be transmitted through a USB connector of the headset electronic device connected to the USB connector so that at least one of a plurality of microphones included in the headset electronic device is operated.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments.
  • FIG. 2 is a block diagram of an audio module, according to various embodiments.
  • FIG. 3 is a diagram of a headset electronic device according to various embodiments.
  • FIG. 4A is an exploded perspective view of a headset unit of the headset electronic device shown in FIG. 3.
  • FIG. 4B is a cross-sectional view of a headset unit of the headset electronic device shown in FIG. 3.
  • FIG. 5 is a flow chart in which the headset electronic device operates in various scenarios.
  • 6A to 6F are block diagrams of a headset electronic device operated in various scenarios.
  • each of the phrases such as “at least one of C” may include any one of the items listed together in the corresponding phrase among the phrases, or all possible combinations thereof.
  • Terms such as “first”, “second”, or “first” or “second” may be used simply to distinguish the component from other corresponding components, and the components may be referred to in other aspects (eg, importance or Order) is not limited.
  • Some (eg, first) component is referred to as “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When mentioned, it means that any of the above components can be connected to the other components directly (eg by wire), wirelessly, or via a third component.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, a short-range wireless communication network), or a second network 199 It is possible to communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ) Can be included.
  • a sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197
  • at least one of these components may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components may be implemented as one integrated circuit.
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the display device 160 eg, a display.
  • the processor 120 for example, executes software (eg, a program 140) to implement at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and can perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 may store commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132. The command or data stored in the volatile memory 132 may be processed, and result data may be stored in the nonvolatile memory 134.
  • software eg, a program 140
  • the processor 120 may store commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132.
  • the command or data stored in the volatile memory 132 may be processed, and result data may be stored in the nonvolatile memory 134.
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphic processing unit, an image signal processor) that can be operated independently or together , A sensor hub processor, or a communication processor). Additionally or alternatively, the coprocessor 123 may be set to use less power than the main processor 121 or to be specialized for a designated function. The secondary processor 123 may be implemented separately from the main processor 121 or as a part thereof.
  • the coprocessor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, an application is executed). ) While in the state, together with the main processor 121, at least one of the components of the electronic device 101 (for example, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the functions or states related to. According to an embodiment, the coprocessor 123 (eg, an image signal processor or a communication processor) may be implemented as part of another functionally related component (eg, the camera module 180 or the communication module 190). have.
  • an image signal processor or a communication processor may be implemented as part of another functionally related component (eg, the camera module 180 or the communication module 190). have.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176).
  • the data may include, for example, software (eg, the program 140) and input data or output data for commands related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive a command or data to be used for a component of the electronic device 101 (eg, the processor 120) from outside the electronic device 101 (eg, a user).
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output an sound signal to the outside of the electronic device 101.
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include a touch circuitry set to sense a touch, or a sensor circuit (eg, a pressure sensor) set to measure the strength of a force generated by the touch. have.
  • the audio module 170 may convert sound into an electric signal or, conversely, convert an electric signal into sound. According to an embodiment, the audio module 170 acquires sound through the input device 150, the sound output device 155, or an external electronic device (for example, an external electronic device directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102) (for example, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an atmospheric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used for the electronic device 101 to connect directly or wirelessly with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that a user can perceive through a tactile or motor sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture a still image and a video.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 388 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, electronic device 102, electronic device 104, or server 108). It is possible to support establishment and communication through the established communication channel.
  • the communication module 190 operates independently of the processor 120 (eg, an application processor), and may include one or more communication processors that support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg : A LAN (local area network) communication module, or a power line communication module) may be included.
  • a corresponding communication module is a first network 198 (for example, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (for example, a cellular network, the Internet, or It can communicate with external electronic devices through a computer network (for example, a telecommunication network such as a LAN or WAN).
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 in a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the antenna module 197 may transmit a signal or power to the outside (eg, an external electronic device) or receive from the outside.
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, provided by the communication module 190 from the plurality of antennas. Can be chosen.
  • the signal or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as part of the antenna module 197.
  • At least some of the components are connected to each other through a communication method (e.g., a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI))) between peripheral devices and signals ( E.g. commands or data) can be exchanged with each other.
  • a communication method e.g., a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or part of the operations executed by the electronic device 101 may be executed by one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101 does not execute the function or service by itself.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the execution result to the electronic device 101.
  • the electronic device 101 may process the result as it is or additionally and provide it as at least part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology Can be used.
  • audio codec audio module
  • the audio module 170 includes, for example, an audio input interface 210, an audio input mixer 220, an analog to digital converter (ADC) 230, an audio signal processor 240, and a DAC.
  • a (digital to analog converter) 250, an audio output mixer 260, or an audio output interface 270 may be included.
  • the audio input interface 210 is obtained from the outside of the electronic device 101 as a part of the input device 150 or through a microphone configured separately from the electronic device 101 (eg, a dynamic microphone, a condenser microphone, or a piezo microphone). An audio signal corresponding to sound can be received.
  • a microphone configured separately from the electronic device 101
  • An audio signal corresponding to sound can be received.
  • the audio input interface 210 is directly connected to the external electronic device 102 through the connection terminal 178. Or, it is connected wirelessly (eg, Bluetooth communication) through the wireless communication module 192 to receive an audio signal.
  • the audio input interface 210 may receive a control signal (eg, a volume adjustment signal received through an input button) related to an audio signal obtained from the external electronic device 102.
  • the audio input interface 210 may include a plurality of audio input channels, and may receive different audio signals for each corresponding audio input channel among the plurality of audio input channels.
  • the audio input interface 210 may receive an audio signal from another component of the electronic device 101 (eg, the processor 120 or the memory 130 ).
  • the audio input mixer 220 may synthesize a plurality of input audio signals into at least one audio signal.
  • the audio input mixer 220 may synthesize a plurality of analog audio signals input through the audio input interface 210 into at least one analog audio signal.
  • the ADC 230 may convert an analog audio signal into a digital audio signal.
  • the ADC 230 converts the analog audio signal received through the audio input interface 210, or additionally or alternatively, the analog audio signal synthesized through the audio input mixer 220 to digital audio. Can be converted to a signal.
  • the audio signal processor 240 may perform various processing on a digital audio signal input through the ADC 230 or a digital audio signal received from another component of the electronic device 101. For example, according to an embodiment, the audio signal processor 240 may change a sampling rate for one or more digital audio signals, apply one or more filters, perform interpolation processing, amplify or attenuate all or some frequency bands, Noise processing (eg, noise or echo attenuation), channel change (eg, switching between mono and stereo), mixing, or specified signal extraction can be performed. According to an embodiment, one or more functions of the audio signal processor 240 may be implemented in the form of an equalizer.
  • the DAC 250 may convert a digital audio signal into an analog audio signal.
  • the DAC 250 is a digital audio signal processed by the audio signal processor 240, or other components of the electronic device 101 (for example, the processor 120 or the memory 130 )) can be converted into an analog audio signal.
  • the audio output mixer 260 may synthesize a plurality of audio signals to be output into at least one audio signal.
  • the audio output mixer 260 includes an audio signal converted to analog through the DAC 250 and another analog audio signal (eg, an analog audio signal received through the audio input interface 210). ) Can be synthesized into at least one analog audio signal.
  • the audio output interface 270 transmits an analog audio signal converted through the DAC 250, or additionally or alternatively, an analog audio signal synthesized by the audio output mixer 260, through the audio output device 155. ) Can be printed out.
  • the sound output device 155 may include, for example, a speaker such as a dynamic driver or a balanced armature driver, or a receiver.
  • the sound output device 155 may include a plurality of speakers.
  • the audio output interface 270 may output an audio signal having a plurality of different channels (eg, stereo or 5.1 channels) through at least some of the speakers.
  • the audio output interface 270 is directly connected to an external electronic device 102 (eg, an external speaker or headset) through a connection terminal 178 or wirelessly through a wireless communication module 192 And output an audio signal.
  • the audio module 170 does not separately include the audio input mixer 220 or the audio output mixer 260, and uses at least one function of the audio signal processor 240 to provide a plurality of digital audio signals. By synthesizing them to generate at least one digital audio signal.
  • the audio module 170 is an audio amplifier (not shown) capable of amplifying an analog audio signal input through the audio input interface 210 or an audio signal to be output through the audio output interface 270 (Eg, speaker amplification circuit) may be included.
  • the audio amplifier may be configured as a separate module from the audio module 170.
  • FIG. 3 is a diagram of a headset electronic device according to various embodiments disclosed in this document
  • FIG. 4A is an exploded perspective view of the headset unit 310 (eg, the electronic device 102 of FIG. 1) shown in FIG. 3.
  • FIG. 4B is a cross-sectional view of the headset unit 310 shown in FIG. 3.
  • the headset electronic device includes a headset unit 310, a first cable 320, a speaker control unit 340, a processor 350, a second cable 330, and a first connector ( 360).
  • the above-described audio module (for example, the audio module 270 of FIG. 2) may be included in the speaker controller 340 or the first connector 360.
  • a pair of headset units 310 may be provided.
  • the headset unit 310 may be formed in a symmetrical shape to be worn on the left and right ears of the user.
  • the headset unit 310 may be seated on the user's ear and reproduce sound.
  • the headset unit 310 may include a headset housing 410, a speaker 420, a first microphone 431 and a second microphone 432. As described above, since a pair of headset units 310 is provided, a pair of components included in the headset unit 310 are also provided.
  • the headset housing 410 may support the components of the headset unit 310.
  • the headset housing 410 may include a first housing 411 and a second housing 413.
  • the first housing 411 is a housing positioned close to the user's ear
  • the second housing 413 is a housing positioned relatively far from the user's ear compared to the first housing 411.
  • a speaker output path 450 toward the user's ear may be formed in the first housing 411. Sound output from the speaker 420 disposed inside the headset housing 410 may be transmitted through the speaker output path 450.
  • a screen member 419 may be disposed at an end of the speaker output path 450. The screen member may block foreign matter from flowing into the speaker output path 450.
  • the second housing 413 may be coupled to the housing cover 415.
  • a logo or pattern may be displayed on the outer surface of the housing cover 415.
  • An acoustic hole 416 communicating into the headset housing 410 may be formed in the second housing 413 and the housing cover 415.
  • a screen member 417 may be disposed on the path of the sound hole 416. The screen member 417 may prevent foreign substances from flowing into the headset housing 410 through the sound hole 416.
  • the speaker 420 may be seated in the headset housing 410.
  • the speaker 420 may be electrically connected to the first cable 320 and may output an acoustic signal transmitted through the first cable 320.
  • the speaker 420 may include a unit such as a dynamic driver unit or a balanced armature dirver unit. These units may output an acoustic signal transmitted through the first cable 320.
  • the speaker 420 may output sound signals in various ways.
  • the first microphone 431 and the second microphone 432 may be disposed inside the headset housing 410.
  • the first microphone 431 and the second microphone 432 may be mounted on the printed circuit board 440.
  • the printed circuit board 440 on which the first microphone 431 and the second microphone 432 are mounted is electrically connected to the first cable 320 so that the first microphone 431 and the second microphone 432 are first It may be electrically connected to the cable 320.
  • a substrate buffer member 441 may be disposed at a portion where the printed circuit board 440 and the second housing 413 contact each other. The substrate buffer member 441 may protect the printed circuit board 440 from external impact.
  • the first microphone 431 may be disposed to face the sound hole 416 of the second housing 413.
  • the first microphone 431 may be disposed at a position capable of receiving external sound introduced through the sound hole 416.
  • the second microphone 432 may be disposed on the speaker output path 450 formed in the first housing 411. That is, the second microphone 432 may be disposed within the headset housing 410 at a position capable of receiving sound.
  • the first microphone 431 may be disposed at a location capable of receiving external sound
  • the second microphone 432 may be disposed at a location capable of receiving internal sound.
  • the ear tip 460 may be formed of an elastic material such as rubber or synthetic resin.
  • the ear tip 460 may include a first tip 461 and a second tip 462. As shown in FIG. 5, the first tip 461 may be a portion inserted into the user's ear, and the second tip 462 may be a portion extending from the first tip 461.
  • a protrusion 463 corresponding to the groove 412 formed in the speaker output path 450 may be formed in the first tip 461.
  • the protrusion 463 of the first tip 461 may be inserted into the groove 412 formed in the speaker output path 450 so that the first tip 461 may be fixed to the speaker output path 450.
  • a groove may be formed in the first tip 461 and a protrusion may be formed in the speaker output path 450.
  • a groove 465 corresponding to the protrusion 414 formed in the first housing 411 may be formed in the second tip 462.
  • the protrusion 414 of the first housing 411 may be inserted into the groove 465 of the second tip 462 so that the second tip 462 may be fixed to the first housing 411.
  • a protrusion may be formed in the second tip 462 and a groove may be formed in the first housing 411.
  • the first cable 320 may electrically connect the headset unit 310 and the processor 350.
  • a wire made of a metal material may be disposed inside the first cable 320. Electrical signals may be transferred through a wire made of metal.
  • a wire may be formed of various conductive materials capable of transmitting electrical signals.
  • the wire cover may wrap the wire on the outer surface of the first cable 320 so as to protect the wire and to electrically block the outside and the inside of the first cable 320.
  • the wire cover may be formed of a flexible synthetic resin material so that the first cable 320 may have flexibility.
  • the wire cover may be formed of various materials that protect the wire and have insulating properties.
  • a third microphone 433 may be installed on the path of the first cable 320.
  • the third microphone 433 may be electrically connected to the first cable 320.
  • the speaker control unit 340 may be electrically connected to the first cable 320.
  • the speaker control unit 340 may include the audio module shown in FIG. 2 (for example, the audio module 270 of FIG. 2 ). That is, the speaker controller 340 may convert a digital audio signal into an analog audio signal that can be output from the speaker 420.
  • the speaker control unit 340 may be electrically connected to the volume buttons 341 and 342, the play button 343, and the noise canceling button 345.
  • the volume buttons 341 and 342 may be buttons capable of receiving a user's input.
  • the volume buttons 341 and 342 may be buttons in a form that can be moved by the pressure applied by the user.
  • the volume buttons 341 and 342 may be capacitive touch sensors that recognize a touch.
  • the volume buttons 341 and 342 may include buttons for increasing the volume and buttons for decreasing the volume.
  • the speaker control unit 340 may process the user's input received through the volume buttons 341 and 342 and transmit it to the headset unit 310 through the first cable 320. Accordingly, the volume of the speaker 420 included in the headset unit 310 may be adjusted.
  • the play button 343 may be a button capable of receiving a user's input. Like the volume buttons 341 and 342 described above, the play button 343 may be a button that can be moved by pressure or a capacitive touch sensor.
  • the speaker control unit 340 may process the user's input received through the play button 343 and transmit it to the headset unit 310 through the first cable 320. Accordingly, whether or not the speaker 420 included in the headset unit 310 is operated may be determined. In some cases, the speaker control unit 340 transmits the user input received through the play button 343 to an electronic device (eg, the electronic device 101 of FIG. 1) through the first connector 360 Sounds playing on the device can be stopped or played.
  • an electronic device eg, the electronic device 101 of FIG. 1
  • the noise canceling button 345 may be a button capable of receiving a user's input. Like the volume buttons 341 and 342 described above, the noise canceling button 345 may be a button that can be moved by pressure or a capacitive touch sensor.
  • the speaker control unit 340 may process the user's input received through the noise canceling button 345 and transmit it to the headset unit 310 through the first cable 320. Accordingly, the headset unit 310 may perform or stop the noise canceling operation.
  • Noise canceling may mean blocking sound that is introduced from the outside rather than sound according to the volume signal transmitted to the speaker 420.
  • the first microphone 431 and the second microphone 432 of the headset unit 310 may be activated.
  • the first microphone 431 may receive sound from the outside of the headset housing 410
  • the second microphone 432 may receive a sound ringing inside the headset housing 410.
  • the second microphone 432 may also receive sound output from the speaker 420 through the speaker output path 450. In this way, the sound received by the first microphone 431 and the second microphone 432 may be measured in the form of a sound wave. Noise can be canceled by outputting a sound wave corresponding to the opposite phase of the sound wave to the speaker 420.
  • audio data can be processed based on an external noise signal.
  • Noise external noise signal
  • the second microphone 432 may also receive sound output from the speaker 420 through the speaker output path 450. It is also possible to use the second microphone 432 in a way to check and compensate for the output state of the speaker 420 through the second microphone 432. That is, the sound received by the second microphone 432 may be utilized for correction of noise canceling. In some cases, it may be possible to perform noise canceling using only one of the first microphone 431 and the second microphone 432.
  • the noise canceling method described above is only the most basic noise canceling method, and noise can be removed using various methods.
  • the processor 350 may control the headset unit 310 to operate the headset unit 310 in various scenarios.
  • the processor 350 may be included in the speaker control unit 340. A description of how the processor 350 operates the headset unit 310 in various scenarios will be described later.
  • the first connector 360 is a second connector (eg, the connection terminal 178 of FIG. 1 or the first connector of FIG. 6A) of an electronic device (eg, the electronic device 101 of FIG. 1 or the electronic device 700 of FIG. 6A). 2 may be coupled to the connector 730.
  • the first connector 360 may be a USB connector, for example, a USB C Type male connector
  • the second connector may be a USB connector.
  • it may be a USB C type female connector.
  • the first connector 360 and the second connector may be physically fastened, and may be various types of connectors capable of transmitting and receiving electrical signals in a fastened state.
  • the first connector 360 and the second connector When the first connector 360 and the second connector are fastened, the first connector 360 and the second connector may be electrically connected, the electronic device and the headset electronic device may exchange electrical signals. Power of the electronic device may be received through the power signal pin of the connector 360. An electrical signal including a digital audio signal may be received or transmitted through the data signal pin of the first connector 360.
  • the first connector 360 may include the audio module shown in Fig. 2. That is, the first connector 360 is an analog type in which a digital audio signal can be output from the speaker 420.
  • the headset electronic device according to various embodiments disclosed in this document may be connected to the electronic device through USB, thereby allowing various types of data to be exchanged between the headset electronic device and the electronic device. have.
  • the second cable 330 may electrically connect the first connector 360 and the speaker control unit 340.
  • a wire made of a metal material may be disposed inside the second cable 330. Electrical signals may be transferred through a wire made of metal.
  • a wire may be formed of various conductive materials capable of transmitting electrical signals.
  • a wire cover may wrap the wire on the outer surface of the second cable 330 so as to protect the wire and electrically block the outside and the inside of the second cable 330.
  • the wire cover may be formed of a flexible synthetic resin material so that the second cable 330 has flexibility.
  • the wire cover may be formed of various materials that protect the wire and have insulating properties.
  • FIGS. 5 and 6A to 6F are block diagrams illustrating a headset electronic device operating in various scenarios.
  • the processor 350 may determine 530 a driving scenario of the headset electronic device by checking the driving state information 510 and the wearing state information 520. First, the wearing state information and the driving state information received by the processor 350 will be described.
  • the wearing state information may be information capable of determining which of the pair of headset units 310 is worn on the user's ear. Wearing state information can be collected in various ways.
  • Wearing state information may be collected using the second microphone 432.
  • the wearing state information may be a sound of a specific frequency received by the second microphone 432.
  • a sound (wearing sound) of a specific frequency band may be generated due to contact between the headset unit 310 and the user's ear.
  • the second microphone 432 may receive such sound and transmit it to the processor 350 through the first cable 320.
  • the processor 350 may determine that the headset unit 310 in which the second microphone 432 to which the wearing sound is received is disposed is in a wearing state. For example, when the wearing sound is transmitted from the second microphone 432 disposed inside the right headset unit 310, the processor 350 may determine that the right headset unit 310 is worn.
  • the processor 350 may determine that both headset units 310 are in a wearing state. According to various embodiments, a specified sound is output from the speaker 420, the sound output to the speaker is received through the second microphone 432, and the sound received by the sound is changed according to the wearing state, I can judge that.
  • the wearing state information may be an electrical signal generated due to deformation of the ear tip 460.
  • a sensor electrode may be embedded inside the first tip so that resistance or capacitance changes according to deformation of the first tip of the ear tip 460 inserted into the user's ear.
  • the processor 350 may determine that the right headset unit 310 is worn.
  • the processor 350 may determine that both headset units 310 are in a wearing state.
  • the sensor unit may include a sensor capable of detecting that an object approaches.
  • the sensor unit may include a laser sensor or an infrared sensor.
  • a sensor unit of the worn headset unit may detect a proximity state between the user's ear and the headset unit.
  • the processor 350 may determine that the headset unit is worn according to the proximity signal transmitted by the sensor unit.
  • wearing state information may be collected in various ways.
  • the processor 350 it is also possible for the processor 350 to more accurately determine the wearing state of the headset unit 310 by applying a big data technique to the collected wearing state information.
  • the driving state information may include information related to an application running in an electronic device connected to the headset electronic device.
  • the application information may include function information required by the application. For example, when the application is a call-related application, a speaker 420 function for outputting a voice of the other party and a microphone function for receiving a user's voice may be required. In the case of an application related to video recording or audio recording, a microphone function for recording sound may be required. Whether to operate the speaker 420 and the microphone of the headset electronic device may be determined through the driving state information.
  • the driving state information may be transmitted from the processor of the electronic device to the processor 350 through a data signal pin of the first connector 360.
  • the driving state information may be function information required for an application running in the electronic device. For example, when a call-related application is running, the driving state information may be information indicating that a speaker 420 and a microphone function are required. When an application related to recording and recording is running, the driving state information may be information that a microphone function is required.
  • the processor 350 may operate the headset electronic device in various scenarios using driving state information and wearing state information.
  • the processor 350 may receive driving state information related to operation 433 through the speaker 420 of the headset electronic device 600 and the microphones 431, 432, and 433.
  • the processor 350 of the headset electronic device 600 or the processor 710 of the electronic device 700 uses application-related information or wearing state information through the second connector 730 to control the operation of the headset electronic device 600.
  • the necessary speaker 420 and microphones 431, 432, and 433 can be determined.
  • the processor 710 may transmit driving state information related to the operation of the speaker 420 and the microphones 431, 432, 433 to the processor 350 of the headset electronic device 600 through the second connector.
  • FIGS. 6A to 6F are block diagrams in which the headset electronic device 600 according to various embodiments disclosed in this document is operated in various scenarios.
  • the part where the operation signal is transmitted is indicated by a solid line, and the part where the operation signal is not transmitted is indicated by a dotted line.
  • the first scenario may be a driving scenario in a state in which a call-related application is executed in the electronic device 700 and the user is wearing both headset units 610 and 630.
  • the processor 350 may receive driving state information through the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for a call-related application using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user is wearing both headset units 610 and 630 by using the wearing state information.
  • the processor 350 may operate the speaker 420, the first microphone 431, and the second microphone 432 included in both headset units 610 and 630. Also, the processor 350 may operate the third microphone 433. The first microphone 431 and the second microphone 432 may be operated for noise cancellation. The speaker 420 may output the other party's voice. Since external noise is removed through noise canceling, users can more accurately hear the other person's voice. The third microphone 433 may receive a user's voice.
  • the second scenario may be a driving scenario in a state in which a call-related application is executed in the electronic device 700 and the user is wearing one headset unit 310.
  • the processor 350 may receive driving state information through the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for a call-related application using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user is wearing only one of the headset units 610 and 630, using the wearing state information.
  • the processor 350 may operate the speaker 420, the first microphone 431, and the second microphone 432 included in the headset unit 610 in a wearing state. Also, the processor 350 may operate the third microphone 433. The speaker 420 may output the other party's voice. The third microphone 433 may receive a user's voice. Also, the first microphone 431 and the second microphone 432 may auxiliaryly receive a user's voice.
  • the third scenario may be a driving scenario in a state in which a call-related application is executed in the electronic device 700 and the user does not wear the headset units 610 and 630.
  • the processor 350 may receive the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for a call-related application using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user does not wear the headset units 610 and 630 by using the wearing state information.
  • the processor 350 may operate the third microphone 433.
  • the other party's voice may be output from a speaker (not shown) included in the electronic device 700.
  • the third microphone 433 may receive a user's voice.
  • the fourth scenario may be a driving scenario in a state in which an application related to recording and recording is executed in the electronic device 700 and the user is wearing both headset units 610 and 630.
  • the processor 350 may receive the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for recording and recording-related applications using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user is wearing both headset units 610 and 630 by using the wearing state information.
  • the processor 350 may operate the first microphone 431 included in both headset units 610 and 630. Also, the processor 350 may operate the third microphone 433. Stereo recording may be performed through the first microphone 431 of both headset units 610 and 630. When the first microphones 431 of both headset units 610 and 630 are operated, recording may be performed through the first microphones 431 disposed on the left and right sides. Through this, it is possible to record a three-dimensional sound that allows you to feel the direction of the sound. Since the third microphone 433 is a microphone disposed close to a user's mouth, it may be operated as a main microphone.
  • the fifth scenario may be a driving scenario in a state in which an application related to recording and recording is executed in the electronic device 700 and the user is wearing one headset unit 610.
  • the processor 350 may receive driving state information through the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for recording and recording-related applications using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user is wearing only one headset unit 610 using the wearing state information.
  • the processor 350 may operate the first microphone 431 included in the worn headset unit 610. Also, the processor 350 may operate the third microphone 433. Since the third microphone 433 is a microphone disposed close to a user's mouth, it may be operated as a main microphone.
  • the sixth scenario may be a driving scenario in a state in which an application related to recording and recording is executed in the electronic device 700 and the user does not wear the headset unit 310.
  • the processor 350 may receive driving state information through the first connector 360 connected to the second connector 730 of the electronic device 700.
  • the processor 350 may check what functions are required for recording and recording-related applications using the driving state information.
  • the driving state information may directly include function information for the operation of the application.
  • the processor 350 may receive wearing state information.
  • the processor 350 may determine that the user does not wear the headset units 610 and 630 by using the wearing state information.
  • the processor 350 may operate only the third microphone 433.
  • the processor 350 may drive the headset units 610 and 630 in various scenarios using the driving state information and the wearing state information. For example, when the headset electronic device 600 does not include the third microphone 433, the operation of the third microphone 433 may be excluded.
  • the processor 350 of the headset electronic device operates the headset electronic device 600 in various scenarios, but the processor 710 of the electronic device 700 operates the headset electronic device 600 in various scenarios. It is also possible.
  • the processor 710 of the electronic device 700 may receive wearing state information from the headset electronic device 700 through the second connector.
  • the processor 710 determines the speaker 420 and microphones 431, 432, and 433 that need to be operated using the driving state information and the wearing state information, and the processor 350 of the headset electronic device 600 through the second connector.
  • a command including information on the speaker 420 and the microphones 431, 432, 433 in the direction to be operated may be transmitted.
  • the user may directly select the microphones 431, 432, and 433 that require operation through the electronic device 700.
  • the user's selection input of the microphones 431, 432, and 433 may be input through an input device of the electronic device 700 (eg, the input device 150 of FIG. 1 ).
  • the user's selection of microphones 431, 432, and 433 inputted through the electronic device 700 is transmitted to the headset electronic device 600 so that the selected microphone may be operated.
  • the processor 710 of the electronic device 700 may drive the headset units 610 and 630 in various scenarios using the driving state information and the wearing state information. For example, when the headset electronic device 600 does not include the third microphone 433, the operation of the third microphone 433 may be excluded.
  • a headset electronic device may include a pair of headset housings, a speaker disposed inside the pair of headset housings, and each formed on the pair of headset housings to connect the speaker and the outside.
  • a speaker output path a first microphone disposed inside the pair of headset housings to face an outer direction of the pair of headset housings, a second microphone respectively disposed on the speaker output path, the speaker,
  • a first cable electrically connected to each of a first microphone and a second microphone
  • a processor that is electrically connected to the first cable to control the speaker, the first microphone, and the second microphone, and the processor is electrically connected to the processor.
  • the processor comprises: Driven by power supplied from a power signal pin included in the USB connector connected to the device, receive audio data from the external electronic device through a data signal pin included in the USB connector, and receive the first microphone and the second
  • An external noise signal may be received from at least one of the microphones, audio data may be processed based on the external noise signal, and audio data may be transmitted to the speaker.
  • the processor may receive information on a wearing state of the headset electronic device and operate at least one of the first microphone and the second microphone according to the wearing state information.
  • the wearing state information received by the processor may be collected through the second microphone.
  • it may further include a sensor unit respectively installed in the pair of headset housings to detect a proximity state of an object facing the pair of headset housings, the wearing state information received by the processor is collected through the sensor unit Can be.
  • it may further include an ear tip including a first tip fastened to a groove formed on the speaker output path and a second tip connected to the first tip and fastened to a protrusion formed on the headset housing.
  • the wearing state information received by the processor may be collected through a sensor that is embedded in the first tip of the ear tip and detects a change in shape of the first tip.
  • the processor may receive driving state information of an external electronic device through a data signal pin included in the USB connector, and may operate at least one of the first microphone and the second microphone according to the driving state information.
  • the driving state information received by the processor may include a type of an application being executed in the external electronic device.
  • the processor may operate the first microphones respectively disposed in a pair of headset housings in a stereo recording state when a voice recording function is included in an application running in the external electronic device using the driving state information.
  • a third microphone disposed on at least one of the first and second cables and electrically connected to the processor may be further included.
  • the processor when a call function is included in an application running in the external electronic device by using the driving state information, the processor operates the third microphone and externally operates the third microphone from at least one of the first microphone and the second microphone. It is possible to receive a noise signal, process the received call audio data based on the external noise signal, and transmit the call audio data to the speaker.
  • the processor may receive information on a wearing state of the headset electronic device, and operate at least one of the first microphone, a second microphone, and a third microphone according to the wearing state information.
  • the processor may receive driving state information of an external electronic device through a data signal pin included in the first connector, and at least one of the first microphone, the second microphone, and the third microphone according to the driving state information. Can work.
  • the processor may operate the first microphone and the third microphone disposed in the headset housing where the wearing state information is detected.
  • the processor may operate only the third microphone.
  • a speaker control unit including a volume button for increasing or decreasing the speaker and a play button for turning the speaker on and off may be further included, and the processor may be included in the speaker control unit.
  • An electronic device may include a USB connector and a processor electrically connected to the USB connector, wherein the processor receives wearing state information from the headset electronic device, and receives the wearing state information.
  • the operation signal may be transmitted through a USB connector of the headset electronic device connected to the USB connector so that at least one of a plurality of microphones included in the headset electronic device is operated.
  • the processor may be configured to operate at least one of a plurality of microphones included in the headset electronic device by using driving state information including application information being executed in the electronic device, the USB of the headset electronic device connected to the USB connector.
  • the activation signal can be transmitted via the connector.
  • the processor from the wearing state information, checks the headset housing in the wearing state among the headset housings of the headset electronic device, and operates a microphone disposed in the headset housing in the wearing state among a plurality of microphones included in the headset electronic device. I can make it.
  • the processor may check whether the headset housing of the headset electronic device is worn from the wearing state information, and when not in the wearing state, operate a microphone disposed on a cable of the headset electronic device.

Abstract

본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치는, 한 쌍의 헤드셋 하우징, 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 스피커, 상기 스피커와 외부를 연결하도록 상기 한 쌍의 헤드셋 하우징에 각각 형성되는 스피커 출력 경로, 상기 한 쌍의 헤드셋 하우징의 외측 방향을 향하도록 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 제1 마이크, 상기 스피커 출력 경로 상에 각각 배치되는 제2 마이크, 상기 스피커와, 제1 마이크 및 제2 마이크와 각각 전기적으로 연결되는 제1 케이블, 상기 제1 케이블과 전기적으로 연결되어 상기 스피커와, 제1마이크와, 제2 마이크를 제어하는 프로세서, 상기 프로세서와 전기적으로 연결되는 제2 케이블 및 상기 제2 케이블과 전기적으로 연결되고, 전원 신호 핀과 데이터 신호 핀을 포함하고 외부 전자 장치의 USB 커넥터와 전기적으로 연결되는 USB 커넥터를 포함할 수 있고, 상기 프로세서는, 상기 외부 전자 장치와 연결된 상기 USB 커넥터에 포함된 전원 신호 핀으로부터 공급된 전력을 통해 구동되고, 상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 상기 외부 전자 장치로부터 오디오 데이터를 수신하고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 오디오 데이터를 처리하여 상기 스피커로 오디오 데이터를 송신할 수 있다. 이 밖에도 다양한 실시예가 가능할 수 있다.

Description

헤드셋 전자 장치 및 그와 연결되는 전자 장치
본 문서에 개시된 다양한 실시예들은, 헤드셋 전자 장치와, 헤드셋 전자 장치와 연결되는 전자 장치에 관한 것이다.
헤드셋 전자 장치에는 소리를 출력하기 위한 스피커와 음향을 녹음하기 위한 마이크가 탑재될 수 있다. 헤드셋 전자 장치의 기능이 늘어남에 따라, 헤드셋 전자 장치에 탑재되는 마이크의 개수도 증가하였다.
노이즈 캔슬링 기능이 있는 헤드셋 전자 장치는 외부에서 발생하는 소리를 수음하기 위한 마이크가 탑재될 수 있다.
한편, 전자 장치와 USB 연결 방식을 통해 연결되는 헤드셋 전자 장치가 증가하고 있다.
본 문서에 개시된 다양한 실시예들은 외부에서 발생하는 소리를 수음하고, 수음된 소리에 기반하여 외부 전자 장치에서 수신된 오디오 신호를 처리하고 소리를 출력하기 위한 전자 장치를 제공하기 할 수 있다.
본 문서에 개시된 다양한 실시예들은 헤드셋 전자 장치와 연결된 전자 장치의 상태와 헤드셋 전자 장치의 착용 상태에 따라, 헤드셋 전자 장치에 탑재된 복수의 마이크들을 적절히 동작시키는 헤드셋 전자 장치와, 헤드셋 전자 장치와 연결되는 전자 장치를 제공할 수 있다.
본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치는, 한 쌍의 헤드셋 하우징, 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 스피커, 상기 스피커와 외부를 연결하도록 상기 한 쌍의 헤드셋 하우징에 각각 형성되는 스피커 출력 경로, 상기 한 쌍의 헤드셋 하우징의 외측 방향을 향하도록 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 제1 마이크, 상기 스피커 출력 경로 상에 각각 배치되는 제2 마이크, 상기 스피커와, 제1 마이크 및 제2 마이크와 각각 전기적으로 연결되는 제1 케이블, 상기 제1 케이블과 전기적으로 연결되어 상기 스피커와, 제1마이크와, 제2 마이크를 제어하는 프로세서, 상기 프로세서와 전기적으로 연결되는 제2 케이블 및 상기 제2 케이블과 전기적으로 연결되고, 전원 신호 핀과 데이터 신호 핀을 포함하고 외부 전자 장치의 USB 커넥터와 전기적으로 연결되는 USB 커넥터를 포함할 수 있고, 상기 프로세서는, 상기 외부 전자 장치와 연결된 상기 USB 커넥터에 포함된 전원 신호 핀으로부터 공급된 전력을 통해 구동되고, 상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 상기 외부 전자 장치로부터 오디오 데이터를 수신하고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 오디오 데이터를 처리하여 상기 스피커로 오디오 데이터를 송신할 수 있다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치는, USB 커넥터 및 상기 USB 커넥터와 전기적으로 연결되는 프로세서를 포함할 수 있고, 상기 프로세서는, 헤드셋 전자 장치로부터 착용 상태 정보를 수신하고, 상기 착용 상태 정보를 이용하여 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 적어도 하나가 작동되도록 상기 USB 커넥터에 연결된 상기 헤드셋 전자 장치의 USB 커넥터를 통해 작동 신호를 전송할 수 있다.
본 문서에 개시된의 다양한 실시 예에 따르면, 헤드셋 전자 장치에 탑재된 복수의 마이크를 효율적으로 작동시킬 수 있다. 또한, 외부에서 발생하는 소리를 상쇄시켜 보다 깨끗한 음향을 청취할 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2은, 다양한 실시예들에 따른, 오디오 모듈의 블록도이다.
도 3은, 다양한 실시예들에 따른, 헤드셋 전자 장치의 도면이다.
도 4a는, 도 3에 도시된 헤드셋 전자 장치의 헤드셋 유닛의 분리 사시도이다.
도 4b는, 도 3에 도시된 헤드셋 전자 장치의 헤드셋 유닛의 단면도이다.
도 5는, 헤드셋 전자 장치가 다양한 시나리오로 작동되는 순서도이다.
도 6a 내지 도 6f는, 다양한 시나리오로 작동되는 헤드셋 전자 장치의 블록도이다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다.
도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예:스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
다음으로, 본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치에 포함될 수 있는 오디오 코덱(오디오 모듈)에 대해 설명한다.
도 2은, 다양한 실시에 따른, 오디오 모듈(170)의 블록도(200)이다. 도 2를 참조하면, 오디오 모듈(170)은, 예를 들면, 오디오 입력 인터페이스(210), 오디오 입력 믹서(220), ADC(analog to digital converter)(230), 오디오 신호 처리기(240), DAC(digital to analog converter)(250), 오디오 출력 믹서(260), 또는 오디오 출력 인터페이스(270)를 포함할 수 있다.
오디오 입력 인터페이스(210)는 입력 장치(150)의 일부로서 또는 전자 장치(101)와 별도로 구성된 마이크(예: 다이나믹 마이크, 콘덴서 마이크, 또는 피에조 마이크)를 통하여 전자 장치(101)의 외부로부터 획득한 소리에 대응하는 오디오 신호를 수신할 수 있다. 예를 들어, 오디오 신호가 외부의 전자 장치(102)(예: 헤드셋 또는 마이크)로부터 획득되는 경우, 오디오 입력 인터페이스(210)는 상기 외부의 전자 장치(102)와 연결 단자(178)를 통해 직접, 또는 무선 통신 모듈(192)을 통하여 무선으로(예: Bluetooth 통신) 연결되어 오디오 신호를 수신할 수 있다. 일실시예에 따르면, 오디오 입력 인터페이스(210)는 상기 외부의 전자 장치(102)로부터 획득되는 오디오 신호와 관련된 제어 신호(예: 입력 버튼을 통해 수신된 볼륨 조정 신호)를 수신할 수 있다. 오디오 입력 인터페이스(210)는 복수의 오디오 입력 채널들을 포함하고, 상기 복수의 오디오 입력 채널들 중 대응하는 오디오 입력 채널 별로 다른 오디오 신호를 수신할 수 있다. 일실시예에 따르면, 추가적으로 또는 대체적으로, 오디오 입력 인터페이스(210)는 전자 장치(101)의 다른 구성 요소(예: 프로세서(120) 또는 메모리(130))로부터 오디오 신호를 입력 받을 수 있다.
오디오 입력 믹서(220)는 입력된 복수의 오디오 신호들을 적어도 하나의 오디오 신호로 합성할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 입력 믹서(220)는, 오디오 입력 인터페이스(210)를 통해 입력된 복수의 아날로그 오디오 신호들을 적어도 하나의 아날로그 오디오 신호로 합성할 수 있다.
ADC(230)는 아날로그 오디오 신호를 디지털 오디오 신호로 변환할 수 있다. 예를 들어, 일실시예에 따르면, ADC(230)는 오디오 입력 인터페이스(210)을 통해 수신된 아날로그 오디오 신호, 또는 추가적으로 또는 대체적으로 오디오 입력 믹서(220)를 통해 합성된 아날로그 오디오 신호를 디지털 오디오 신호로 변환할 수 있다.
오디오 신호 처리기(240)는 ADC(230)를 통해 입력받은 디지털 오디오 신호, 또는 전자 장치(101)의 다른 구성 요소로부터 수신된 디지털 오디오 신호에 대하여 다양한 처리를 수행할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 신호 처리기(240)는 하나 이상의 디지털 오디오 신호들에 대해 샘플링 비율 변경, 하나 이상의 필터 적용, 보간(interpolation) 처리, 전체 또는 일부 주파수 대역의 증폭 또는 감쇄, 노이즈 처리(예: 노이즈 또는 에코 감쇄), 채널 변경(예: 모노 및 스테레오간 전환), 합성(mixing), 또는 지정된 신호 추출을 수행할 수 있다. 일실시예에 따르면, 오디오 신호 처리기(240)의 하나 이상의 기능들은 이퀄라이저(equalizer)의 형태로 구현될 수 있다.
DAC(250)는 디지털 오디오 신호를 아날로그 오디오 신호로 변환할 수 있다. 예를 들어, 일실시예에 따르면, DAC(250)는 오디오 신호 처리기(240)에 의해 처리된 디지털 오디오 신호, 또는 전자 장치(101)의 다른 구성 요소(예: 프로세서(120) 또는 메모리(130))로부터 획득한 디지털 오디오 신호를 아날로그 오디오 신호로 변환할 수 있다.
오디오 출력 믹서(260)는 출력할 복수의 오디오 신호들을 적어도 하나의 오디오 신호로 합성할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 출력 믹서(260)는 DAC(250)를 통해 아날로그로 전환된 오디오 신호 및 다른 아날로그 오디오 신호(예: 오디오 입력 인터페이스(210)을 통해 수신한 아날로그 오디오 신호)를 적어도 하나의 아날로그 오디오 신호로 합성할 수 있다.
오디오 출력 인터페이스(270)는 DAC(250)를 통해 변환된 아날로그 오디오 신호, 또는 추가적으로 또는 대체적으로 오디오 출력 믹서(260)에 의해 합성된 아날로그 오디오 신호를 음향 출력 장치(155) 를 통해 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들어, dynamic driver 또는 balanced armature driver 같은 스피커, 또는 리시버를 포함할 수 있다. 일실시예에 따르면, 음향 출력 장치(155)는 복수의 스피커들을 포함할 수 있다. 이런 경우, 오디오 출력 인터페이스(270)는 상기 복수의 스피커들 중 적어도 일부 스피커들을 통하여 서로 다른 복수의 채널들(예: 스테레오, 또는 5.1채널)을 갖는 오디오 신호를 출력할 수 있다. 일실시예에 따르면, 오디오 출력 인터페이스(270)는 외부의 전자 장치(102)(예: 외부 스피커 또는 헤드셋)와 연결 단자(178)를 통해 직접, 또는 무선 통신 모듈(192)을 통하여 무선으로 연결되어 오디오 신호를 출력할 수 있다.
일실시예에 따르면, 오디오 모듈(170)은 오디오 입력 믹서(220) 또는 오디오 출력 믹서(260)를 별도로 구비하지 않고, 오디오 신호 처리기(240)의 적어도 하나의 기능을 이용하여 복수의 디지털 오디오 신호들을 합성하여 적어도 하나의 디지털 오디오 신호를 생성할 수 있다.
일실시예에 따르면, 오디오 모듈(170)은 오디오 입력 인터페이스(210)를 통해 입력된 아날로그 오디오 신호, 또는 오디오 출력 인터페이스(270)를 통해 출력될 오디오 신호를 증폭할 수 있는 오디오 증폭기(미도시)(예: 스피커 증폭 회로)를 포함할 수 있다. 일실시예에 따르면, 상기 오디오 증폭기는 오디오 모듈(170)과 별도의 모듈로 구성될 수 있다.
도 3은, 본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치의 도면이고, 도 4a는, 도 3에 도시된 헤드셋 유닛(310)(예: 도 1의 전자 장치(102))의 분리 사시도이고, 도 4b는, 도 3에 도시된 헤드셋 유닛(310)의 단면도이다.
도 3을 참조하면, 헤드셋 전자 장치는 헤드셋 유닛(310)과, 제1 케이블(320)과, 스피커 제어부(340)와, 프로세서(350)와, 제2 케이블(330)과, 제1 커넥터(360)를 포함할 수 있다. 상술한 오디오 모듈(예: 도 2의 오디오 모듈(270))은 스피커 제어부(340)나 제1 커넥터(360) 에 포함될 수 있다.
헤드셋 유닛(310)은 한 쌍 마련될 수 있다. 헤드셋 유닛(310)은 사용자의 좌우 귀에 착용되도록 대칭된 형태로 형성될 수 있다. 헤드셋 유닛(310)은 사용자의 귀에 안착되어 소리를 재생할 수 있다.
도 4a 및 도 4b를 참조하면, 헤드셋 유닛(310)은 헤드셋 하우징(410)과, 스피커(420)와, 제1 마이크(431)와, 제2 마이크(432)를 포함할 수 있다. 상술한 바와 같이, 헤드셋 유닛(310)은 한 쌍 마련되므로, 헤드셋 유닛(310)에 포함된 구성들도 한 쌍 마련된다.
헤드셋 하우징(410)은 헤드셋 유닛(310)의 구성들을 지지할 수 있다. 도 4a를 참조하면, 헤드셋 하우징(410)은 제1 하우징(411)과 제2 하우징(413)을 포함할 수 있다. 제1 하우징(411)은 사용자의 귀에 근접하게 위치되는 하우징이고, 제2 하우징(413)은 제1 하우징(411)에 비해 상대적으로 사용자의 귀에서 멀게 위치되는 하우징이다. 제1 하우징(411)에는 사용자의 귓 속으로 향하는 스피커 출력 경로(450)가 형성될 수 있다. 스피커 출력 경로(450)를 통해 헤드셋 하우징(410) 내부에 배치되는 스피커(420)에서 출력되는 음향이 전달될 수 있다. 스피커 출력 경로(450)의 끝부분에는 스크린 부재(419)가 배치될 수 있다. 스크린 부재는 스피커 출력 경로(450)로 외부의 이물질이 유입되는 것을 차단할 수 있다.
제2 하우징(413)은 하우징 커버(415)와 결합될 수 있다. 하우징 커버(415)의 외면에는 로고나 문양이 표시될 수 있다. 제2 하우징(413)과 하우징 커버(415)에는 헤드셋 하우징(410) 내부로 연통되는 음향홀(416)이 형성될 수 있다. 그리고, 음향홀(416)의 경로 상에 스크린 부재(417)가 배치될 수 있다. 스크린 부재(417)는 음향홀(416)을 통해 헤드셋 하우징(410) 내부로 이물질이 유입되는 것을 방지할 수 있다.
스피커(420)는 헤드셋 하우징(410)의 내부에 안착될 수 있다. 스피커(420)는 제1 케이블(320)과 전기적으로 연결되어 제1 케이블(320)을 통해 전송되는 음향 신호를 출력할 수 있다. 스피커(420)는 다이나믹 드라이버 유닛(dynamic driver unit)이나, 밸런스드 아마추어 드라이버 유닛(balanced armature dirver unit)과 같은 유닛을 포함할 수 있다. 이 유닛들은 제1 케이블(320)을 통해 전송되는 음향 신호를 출력할 수 있다. 이 밖에도 스피커(420)는 다양한 방식으로 음향 신호를 출력할 수 있다.
제1 마이크(431)와 제2 마이크(432)는 헤드셋 하우징(410) 내부에 배치될 수 있다. 제1 마이크(431)와 제2 마이크(432)는 인쇄 회로 기판(440)에 실장될 수 있다. 제1 마이크(431)와 제2 마이크(432)가 실장된 인쇄 회로 기판(440)이 제1 케이블(320)과 전기적으로 연결되어 제1 마이크(431)와 제2 마이크(432)가 제1 케이블(320)과 전기적으로 연결될 수 있다. 인쇄 회로 기판(440)과 제2 하우징(413)이 맞닿는 부분에는 기판 완충 부재(441)가 배치될 수 있다. 기판 완충 부재(441)는 외부의 충격으로부터 인쇄 회로 기판(440)을 보호할 수 있다. 제1 마이크(431)는 제2 하우징(413)의 음향홀(416)을 바라보도록 배치될 수 있다. 즉, 제1 마이크(431)는 음향홀(416)을 통해 유입되는 외부 소리를 수음할 수 있는 위치에 배치될 수 있다. 도 5를 참조하면, 제2 마이크(432)는 제1 하우징(411)에 형성된 스피커 출력 경로(450) 상에 배치될 수 있다. 즉, 제2 마이크(432)는 헤드셋 하우징(410) 내부에 소리를 수음할 수 있는 위치에 배치될 수 있다. 정리하면, 제1 마이크(431)는 외부의 소리를 수음할 수 있는 위치에 배치되고, 제2 마이크(432)는 내부의 소리를 수음할 수 있는 위치에 배치될 수 있다.
이어팁(460)은 고무나 합성 수지와 같은 탄성 재질로 형성될 수 있다. 이어팁(460)은 제1 팁(461)과 제2 팁(462)을 포함할 수 있다. 도 5에 도시된 것과 같이, 제1 팁(461)은 사용자의 귀에 삽입되는 부분이고, 제2 팁(462)은 제1 팁(461)에서 연장된 부분일 수 있다. 제1 팁(461)에는 스피커 출력 경로(450)에 형성된 홈(412)과 대응하는 돌기(463)가 형성될 수 있다. 제1 팁(461)의 돌기(463)가 스피커 출력 경로(450)에 형성된 홈(412)에 삽입되어 제1 팁(461)이 스피커 출력 경로(450)에 고정될 수 있다. 경우에 따라서는, 제1 팁(461)에 홈이 형성되고 스피커 출력 경로(450)에 돌기가 형성되는 것도 가능할 수 있다. 제2 팁(462)에는 제1 하우징(411)에 형성된 돌기(414)와 대응하는 홈(465)이 형성될 수 있다. 제1 하우징(411)의 돌기(414)가 제2 팁(462)의 홈(465)에 삽입되어 제2 팁(462)이 제1 하우징(411)에 고정될 수 있다. 경우에 따라서는, 제2 팁(462)에 돌기가 형성되고 제1 하우징(411)에 홈이 형성되는 것도 가능할 수 있다.
다시 도 3으로 돌아가서 헤드셋 전자 장치의 나머지 구성들에 대해 설명하도록 한다.
제1 케이블(320)은 헤드셋 유닛(310)과 프로세서(350)를 전기적으로 연결시킬 수 있다. 제1 케이블(320)의 내부에는 금속 재질의 와이어(wire)가 배치될 수 있다. 금속 재질의 와이어를 통해 전기적 신호가 이동될 수 있다. 이 밖에도 전기적 신호를 전달할 수 있는 다양한 도전성 재질로 와이어가 형성될 수 있다. 제1 케이블(320)의 외면에는 와이어를 보호하고 제1 케이블(320)의 외부와 내부를 전기적으로 차단 시킬 수 있도록 와이어 커버가 와이어를 감쌀 수 있다. 와이어 커버는 제1 케이블(320)이 유연성을 가질 수 있도록 유연한 합성 수지 재질로 형성될 수 있다. 이 밖에도 와이어 커버는 와이어를 보호하고 절연 성질을 갖는 다양한 재질로 형성될 수 있다.
제1 케이블(320)의 경로 상에는 제3 마이크(433)가 설치될 수 있다. 제3 마이크(433)는 제1 케이블(320)과 전기적으로 연결될 수 있다.
스피커 제어부(340)는 제1 케이블(320)과 전기적으로 연결될 수 있다. 상술한 바와 같이, 스피커 제어부(340)는 도 2에 도시된 오디오 모듈(예: 도 2의 오디오 모듈(270))을 포함할 수 있다. 즉, 스피커 제어부(340)는 디지털 오디오 신호를 스피커(420)에서 출력될 수 있는 형태의 아날로그 오디오 신호로 변환할 수 있다. 스피커 제어부(340)는 볼륨 버튼(341, 342), 재생 버튼(343), 노이즈 캔슬링 버튼(345)과 전기적으로 연결될 수 있다.
볼륨 버튼(341, 342)은 사용자의 입력을 수신할 수 있는 버튼일 수 있다. 여기서 사용자의 입력이 물리적인 힘일 경우, 볼륨 버튼(341, 342)은 사용자가 가한 압력에 의해 이동될 수 있는 형태의 버튼일 수 있다. 사용자의 입력이 터치 입력인 경우, 볼륨 버튼(341, 342)은 터치를 인식하는 정전식 터치 센서일 수 있다. 볼륨 버튼(341, 342)은 볼륨을 증가시키는 버튼과 감소시키는 버튼을 포함할 수 있다. 볼륨 버튼(341, 342)을 통해 수신된 사용자의 입력을 스피커 제어부(340)가 처리하여 이를 제1 케이블(320)을 통해 헤드셋 유닛(310)으로 전달할 수 있다. 이로써, 헤드셋 유닛(310)에 포함된 스피커(420)의 음량이 조절될 수 있다.
재생 버튼(343)은 사용자의 입력을 수신할 수 있는 버튼일 수 있다. 재생 버튼(343)도 상술한 볼륨 버튼(341, 342)과 마찬가지로 압력에 의해 이동될 수 있는 형태의 버튼이거나 정전식 터치 센서일 수 있다. 재생 버튼(343)을 통해 수신된 사용자의 입력을 스피커 제어부(340)가 처리하여 이를 제1 케이블(320)을 통해 헤드셋 유닛(310)으로 전달할 수 있다. 이로써, 헤드셋 유닛(310)에 포함된 스피커(420)의 작동 여부가 결정될 수 있다. 경우에 따라서는, 재생 버튼(343)을 통해 수신된 사용자 입력을 스피커 제어부(340)가 제1 커넥터(360)을 통해 전자 장치(예: 도 1의 전자 장치(101))로 전달하여, 전자 장치에서 재생 중인 소리가 정지되거나 재생되도록 할 수 있다.
노이즈 캔슬링 버튼(345)은 사용자의 입력을 수신할 수 있는 버튼일 수 있다. 노이즈 캔슬링 버튼(345)도 상술한 볼륨 버튼(341, 342)과 마찬가지로 압력에 의해 이동될 수 있는 형태의 버튼이거나 정전식 터치 센서일 수 있다. 노이즈 캔슬링 버튼(345)을 통해 수신된 사용자의 입력을 스피커 제어부(340)가 처리하여 이를 제1 케이블(320)을 통해 헤드셋 유닛(310)으로 전달할 수 있다. 이로써, 헤드셋 유닛(310)은 노이즈 캔슬링 동작이 수행되거나 정지될 수 있다.
노이즈 캔슬링은 스피커(420)에 전달된 음량 신호에 따른 소리가 아닌 외부에서 유입되는 소리를 차단하는 것을 의미할 수 있다. 노이즈 캔슬링 기능이 활성화되면, 헤드셋 유닛(310)의 제1 마이크(431)와 제2 마이크(432)가 활성화될 수 있다. 상술한 바와 같이, 제1 마이크(431)는 헤드셋 하우징(410)의 외부에서 유입되는 소리를 수음하고, 제2 마이크(432)는 헤드셋 하우징(410)의 내부에서 울리는 소리를 수음할 수 있다. 제2 마이크(432)는 스피커 출력 경로(450)를 통해 스피커(420)에서 출력되는 소리도 수음할 수 있다. 이와 같이, 제1 마이크(431)와 제2 마이크(432)로 수음된 소리는 음파 형태로 측정될 수 있다. 이 음파의 반대 위상에 해당하는 음파를 스피커(420)로 출력하여 노이즈를 캔슬링할 수 있다. 즉, 외부 소음 신호에 기반하여 오디오 데이터를 처리할 수 있다. 헤드셋 하우징(410)의 외부에서 유입되거나 내부에서 울리는 노이즈(외부 소음 신호)는 반대 위상의 음파에 의해 상쇄되어 제거될 수 있다. 상술한 바와 같이, 제2 마이크(432)는 스피커 출력 경로(450)를 통해 스피커(420)에서 출력되는 소리도 수음할 수 있다. 제2 마이크(432)를 통해 스피커(420)의 출력 상태를 확인하고 이를 보상하는 방식으로 제2 마이크(432)를 활용하는 것도 가능하다. 즉, 제2 마이크(432)로 수음된 소리는 노이즈 캔슬링의 보정을 위해 활용될 수도 있다. 경우에 따라서는 제1 마이크(431)나 제2 마이크(432) 중 하나만을 이용하여 노이즈 캔슬링을 수행하는 것도 가능할 수 있다. 이상 설명한 노이즈 캔슬링 방법은 가장 기본적인 노이즈 캔슬링 방법에 불과하며 다양한 방법을 이용하여 노이즈를 제거할 수 있다.
프로세서(350)는 헤드셋 유닛(310)을 다양한 시나리오로 작동될 수 있도록 헤드셋 유닛(310)을 제어할 수 있다. 프로세서(350)는 스피커 제어부(340)에 포함될 수 있다. 프로세서(350)가 헤드셋 유닛(310)을 다양한 시나리오로 작동시키는 것과 관련된 설명은 후술하도록 한다.
제1 커넥터(360)는 전자 장치(예: 도 1의 전자 장치(101) 또는 도 6a의 전자 장치(700))의 제2 커넥터(예: 도 1의 연결 단자(178) 또는 도 6a의 제2 커넥터(730)와 체결될 수 있다. 제1 커넥터(360)는 USB 커넥터일 수 있다. 예를 들어, USB C Type의 수커넥터일 수 있다. 제2 커넥터는 USB 커넥터일 수 있다. 예를 들어, USB C Type의 암커넥터일 수 있다. 이 밖에도 제1 커넥터(360)와 제2 커넥터는 물리적인 체결이 가능하고, 체결된 상태에서 전기적 신호의 송, 수신이 가능한 다양한 종류의 커넥터일 수 있다. 제1 커넥터(360)와 제2 커넥터가 체결되면, 제1 커넥터(360)와 제2 커넥터는 전기적으로 연결될 수 있다. 전자 장치와 헤드셋 전자 장치는 전기적 신호를 주고 받을 수 있다. 제1 커넥터(360)의 전원 신호 핀을 통해 전자 장치의 전력을 수신 할 수 있다. 제1 커넥터(360)의 데이터 신호 핀을 통해 디지털 형태의 오디오 신호를 포함하는 전기적 신호가 수신 또는 송신 될 수 있다. 상술한 바와 같이, 제1 커넥터(360)는 도 2에 도시된 오디오 모듈을 포함할 수 있다. 즉, 제1 커넥터(360)에서 디지털 오디오 신호가 스피커(420)에서 출력될 수 있는 형태의 아날로그 오디오 신호로 변환할 수 있다. 본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치는 USB를 통해 전자 장치와 연결될 수 있다. 이로 인해, 헤드셋 전자 장치와 전자 장치 사이는 다양한 종류의 데이터를 주고 받을 수 있다.
제2 케이블(330)은 제1 커넥터(360)와 스피커 제어부(340)를 전기적으로 연결시킬 수 있다.. 제2 케이블(330)의 내부에는 금속 재질의 와이어(wire)가 배치될 수 있다. 금속 재질의 와이어를 통해 전기적 신호가 이동될 수 있다. 이 밖에도 전기적 신호를 전달할 수 있는 다양한 도전성 재질로 와이어가 형성될 수 있다. 제2 케이블(330)의 외면에는 와이어를 보호하고 제2 케이블(330)의 외부와 내부를 전기적으로 차단 시킬 수 있도록 와이어 커버가 와이어를 감쌀 수 있다. 와이어 커버는 제2 케이블(330)이 유연성을 가질 수 있도록 유연한 합성 수지 재질로 형성될 수 있다. 이 밖에도 와이어 커버는 와이어를 보호하고 절연 성질을 갖는 다양한 재질로 형성될 수 있다.
다음으로, 도 5 및 도 6a 내지 도 6f를 참조하여 헤드셋 전자 장치가 다양한 시나리오로 작동되는 과정을 설명하도록 한다. 도 5는, 헤드셋 전자 장치가 다양한 시나리오로 작동되는 순서도이고, 도 6a 내지 도 6f는, 다양한 시나리오로 작동되는 헤드셋 전자 장치의 블록도이다.
도 5를 참조하면, 프로세서(350)는 구동 상태 정보를 확인(510)하고 착용 상태 정보를 확인(520)하여 헤드셋 전자 장치의 구동 시나리오를 결정(530)할 수 있다. 먼저, 프로세서(350)가 수신하는 착용 상태 정보와 구동 상태 정보에 대해 설명하도록 한다.
착용 상태 정보는 한 쌍의 헤드셋 유닛(310) 중 어떤 헤드셋 유닛(310)이 사용자 귀에 착용된 상태인지 판별할 수 있는 정보일 수 있다. 착용 상태 정보는 다양한 방법으로 수집될 수 있다.
제2 마이크(432)를 이용하여 착용 상태 정보를 수집할 수 있다. 이 때, 착용 상태정보는 제2 마이크(432)가 수음하는 특정한 주파수의 소리일 수 있다. 사용자가 헤드셋 유닛(310)을 착용하는 과정에서 헤드셋 유닛(310)과 사용자 귀의 접촉으로 인해 특정 주파수 대역의 소리(착용 소리)가 발생할 수 있다. 제2 마이크(432)는 이러한 소리를 수음하여 제1 케이블(320)을 통해 프로세서(350)로 전송할 수 있다. 프로세서(350)는 착용 소리가 수음된 제2 마이크(432)가 배치된 헤드셋 유닛(310)이 착용 상태인 것으로 판단할 수 있다. 예를 들어, 오른쪽 헤드셋 유닛(310)의 내부에 배치된 제2 마이크(432)에서 착용 소리가 전송된 경우, 프로세서(350)는 오른쪽 헤드셋 유닛(310)이 착용된 것으로 판단할 수 있다. 양 쪽 헤드셋 유닛(310)의 내부에 배치된 제2 마이크(432)에서 착용 소리가 모두 전송된 경우, 프로세서(350)는 양 쪽 헤드셋 유닛(310)이 모두 착용 상태인 것으로 판단할 수 있다. 다양한 실시예에 따르면, 스피커(420)에서 지정된 소리가 출력되고, 제2 마이크(432)를 통하여 스피커로 출력된 소리를 수음하고, 착용 상태에 따라 수음되는 소리가 변경되는 것을 감지하여 착용 상태인 것을 판단할 수 있다.
이어팁(460)의 변형을 통해 착용 상태 정보를 수집하는 것도 가능하다. 이 때, 착용 상태 정보는 이어팁(460)의 변형으로 인해 발생하는 전기적 신호일 수 있다. 사용자의 귀에 삽입되는 이어팁(460)의 제1 팁의 변형에 따라 저항이나 정전 용량이 변하도록 제1 팁의 내부에 센서 전극을 내장시킬 수 있다. 사용자가 헤드셋 유닛(310)을 착용할 때, 이어팁(460)의 제1 팁이 변형되는데 센서 전극은 이 변형을 전기적 신호로 변환하여 프로세서(350)에 전달할 수 있다. 예를 들어, 오른쪽 헤드셋 유닛(310)의 이어팁(460)에서 변형에 따른 전기적 신호가 전달되면 프로세서(350)는 오른쪽 헤드셋 유닛(310)이 착용된 것으로 판단할 수 있다. 양 쪽 헤드셋 유닛(310)의 이어팁(460)에서 변형에 따른 전기적 신호가 모두 전달되면 프로세서(350)는 양 쪽 헤드셋 유닛(310)이 모두 착용 상태인 것으로 판단할 수 있다.
다양한 실시예에 따르면, 헤드셋 유닛(예: 도 3의 헤드셋 유닛(310))에 설치된 센서부(미도시)를 통해 착용 상태 정보를 수집하는 것도 가능하다. 센서부는 물체가 접근하는 것을 감지할 수 있는 센서를 포함할 수 있다. 예를 들어, 센서부는 레이저 센서나 적외선 센서를 포함할 수 있다. 사용자가 헤드셋 유닛을 착용하면, 착용된 헤드셋 유닛의 센서부가 사용자의 귀와 헤드셋 유닛의 근접 상태를 감지할 수 있다. 프로세서(350)는 센서부가 송신하는 근접 신호에 따라 해당 헤드셋 유닛이 착용된 것으로 판단할 수 있다.
이 밖에도 다양한 방법으로 착용 상태 정보가 수집될 수 있다. 경우에 따라서는 수집된 착용 상태 정보에 빅데이터 기법을 적용하여 프로세서(350)가 보다 정확하게 헤드셋 유닛(310)의 착용 상태를 판별하는 것도 가능하다.
구동 상태 정보는 헤드셋 전자 장치와 연결된 전자 장치에서 구동 중인 어플리케이션과 관련된 정보를 포함할 수 있다. 어플리케이션 정보는 어플리케이션에서 요구하는 기능 정보를 포함할 수 있다. 예를 들어, 어플리케이션이 통화 관련 어플리케이션인 경우 상대방의 목소리를 출력하는 스피커(420) 기능과 사용자의 목소리를 입력받는 마이크 기능이 요구될 수 있다. 영상 녹화, 음성 녹음 관련 어플리케이션인 경우 소리를 녹음하는 마이크 기능이 요구될 수 있다. 구동 상태 정보를 통해, 헤드셋 전자 장치의 스피커(420)와 마이크의 작동 여부를 결정할 수 있다. 구동 상태 정보는 전자 장치의 프로세서로부터 제1 커넥터(360)의 데이터 신호 핀을 통해 프로세서(350)로 전달될 수 있다. 경우에 따라서, 구동 상태 정보는 전자 장치에서 실행 중인 어플리케이션에 필요한 기능 정보일 수 있다. 예를 들어, 통화 관련 어플리케이션이 실행 중인 경우, 구동 상태 정보는 스피커(420)와 마이크 기능이 필요하다는 정보일 수 있다. 녹화 및 녹음 관련 어플리케이션이 실행 중인 경우, 구동 상태 정보는 마이크 기능이 필요하다는 정보일 수 있다.
도 5에 도시된 것과 같이, 프로세서(350)는 구동 상태 정보와 착용 상태 정보를 이용하여 헤드셋 전자 장치를 다양한 시나리오로 작동시킬 수 있다.
다양한 실시예에 따르면, 프로세서(350)는 헤드셋 전자 장치(600)의 스피커(420)와 마이크(431, 432, 433)를 통해 433) 동작과 관련된 구동 상태 정보를 수신할 수 있다. 헤드셋 전자 장치(600)의 프로세서(350) 또는 전자 장치(700)의 프로세서(710)는 어플리케이션 관련 정보 또는 제2 커넥터(730)를 통해 착용 상태 정보를 이용하여 헤드셋 전자 장치(600)의 동작이 필요한 스피커(420)와 마이크(431, 432, 433)를 결정 할수 있다. 프로세서(710)는 제2 커넥터를 통해 헤드셋 전자 장치(600)의 프로세서(350)에 스피커(420)와 마이크(431, 432, 433) 동작과 관련된 구동 상태 정보를 전달할 수 있다.
도 6a 내지 도 6f는, 본 문서에 개시된 다양한 실시예에 따른 헤드셋 전자 장치(600)가 다양한 시나리오로 작동되는 블록도이다. 동작 신호가 전달되는 부분은 실선으로, 동작 신호가 전달되지 않는 부분은 점선으로 표시하였다.
먼저, 도 6a을 참조하여 제1 시나리오에 대해 설명한다. 제1 시나리오는 전자 장치(700)에서 통화 관련 어플리케이션이 실행되고, 사용자가 양 쪽 헤드셋 유닛(610, 630)을 착용하고 있는 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 통해 구동 상태 정보를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 통화 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 양 쪽 헤드셋 유닛(610, 630)을 착용하고 있는 상태임을 판단할 수 있다.
프로세서(350)는 양 쪽 헤드셋 유닛(610, 630)에 포함된 스피커(420), 제1 마이크(431), 제2 마이크(432)를 작동시킬 수 있다. 또한, 프로세서(350)는 제3 마이크(433)를 작동시킬 수 있다. 제1 마이크(431)와 제2 마이크(432)는 노이즈 캔슬링을 위해 작동될 수 있다. 스피커(420)는 상대방의 목소리를 출력할 수 있다. 노이즈 캔슬링을 통해 외부 소음이 제거되므로 사용자는 상대방의 목소리를 보다 정확하게 청취할 수 있다. 제3 마이크(433)는 사용자의 목소리를 수음할 수 있다.
도 6b를 참조하여 제2 시나리오에 대해 설명한다. 제2 시나리오는 전자 장치(700)에서 통화 관련 어플리케이션이 실행되고, 사용자가 한 쪽 헤드셋 유닛(310)을 착용하고 있는 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 통해 구동 상태 정보를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 통화 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 양 쪽 헤드셋 유닛(610, 630) 중 한 쪽 헤드셋 유닛(610)만을 착용하고 있는 상태임을 판단할 수 있다.
프로세서(350)는 착용 상태인 헤드셋 유닛(610)에 포함된 스피커(420), 제1 마이크(431), 제2 마이크(432)를 작동시킬 수 있다. 또한, 프로세서(350)는 제3 마이크(433)를 작동시킬 수 있다. 스피커(420)는 상대방의 목소리를 출력할 수 있다. 제3 마이크(433)는 사용자의 목소리를 수음할 수 있다. 또한, 제1 마이크(431)와 제2 마이크(432)는 사용자의 목소리를 보조적으로 수음할 수 있다.
도 6c를 참조하여 제3 시나리오에 대해 설명한다. 제3 시나리오는 전자 장치(700)에서 통화 관련 어플리케이션이 실행되고, 사용자가 헤드셋 유닛(610, 630)을 착용하지 않은 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 통화 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 헤드셋 유닛(610, 630)을 착용하지 않은 상태임을 판단할 수 있다.
프로세서(350)는 제3 마이크(433)를 작동시킬 수 있다. 상대방의 목소리는 전자 장치(700)에 포함된 스피커(미도시)에서 출력될 수 있다. 제3 마이크(433)는 사용자의 목소리를 수음할 수 있다.
도 6d를 참조하여 제4 시나리오에 대해 설명한다. 제4 시나리오는 전자 장치(700)에서 녹화 및 녹음 관련 어플리케이션이 실행되고, 사용자가 양 쪽 헤드셋 유닛(610, 630)을 착용하고 있는 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 녹화 및 녹음 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 양 쪽 헤드셋 유닛(610, 630)을 착용하고 있는 상태임을 판단할 수 있다.
프로세서(350)는 양 쪽 헤드셋 유닛(610, 630)에 포함된 제1 마이크(431)를 작동시킬 수 있다. 또한, 프로세서(350)는 제3 마이크(433)를 작동시킬 수 있다. 양 쪽 헤드셋 유닛(610, 630)의 제1 마이크(431)를 통해 스테레오 녹음을 수행할 수 있다. 양 쪽 헤드셋 유닛(610, 630)의 제1 마이크(431)가 작동되면 좌우에 배치된 제1 마이크(431)를 통해 녹음이 수행될 수 있다. 이를 통해 소리의 방향성을 느낄 수 있게 하는 입체 음향을 녹음할 수도 있다. 제3 마이크(433)는 사용자의 입에 가깝게 배치되는 마이크이므로 메인 마이크로 작동될 수 있다.
도 6e를 참조하여 제5 시나리오에 대해 설명한다. 제5 시나리오는 전자 장치(700)에서 녹화 및 녹음 관련 어플리케이션이 실행되고, 사용자가 한 쪽 헤드셋 유닛(610)을 착용하고 있는 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 통해 구동 상태 정보를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 녹화 및 녹음 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 한 쪽 헤드셋 유닛(610) 만을 착용하고 있는 상태임을 판단할 수 있다.
프로세서(350)는 착용된 헤드셋 유닛(610)에 포함된 제1 마이크(431)를 작동시킬 수 있다. 또한, 프로세서(350)는 제3 마이크(433)를 작동시킬 수 있다. 제3 마이크(433)는 사용자의 입에 가깝게 배치되는 마이크이므로 메인 마이크로 작동될 수 있다.
도 6f를 참조하여 제6 시나리오에 대해 설명한다. 제6 시나리오는 전자 장치(700)에서 녹화 및 녹음 관련 어플리케이션이 실행되고, 사용자가 헤드셋 유닛(310)을 착용하지 않은 상태에서의 구동 시나리오일 수 있다.
프로세서(350)는 전자 장치(700)의 제2 커넥터(730)와 연결된 제1 커넥터(360)를 통해 구동 상태 정보를 수신할 수 있다. 프로세서(350)는 구동 상태 정보를 이용하여 녹화 및 녹음 관련 어플리케이션에 필요한 기능이 무엇인지 확인할 수 있다. 경우에 따라서, 구동 상태 정보는 어플리케이션의 작동을 위한 기능 정보를 직접 포함할 수도 있다.
이와 같은 상태에서, 프로세서(350)는 착용 상태 정보를 수신할 수 있다. 프로세서(350)는 착용 상태 정보를 이용하여 사용자가 헤드셋 유닛(610, 630)을 착용하지 않은 상태임을 판단할 수 있다.
이 때, 프로세서(350)는 제3 마이크(433)만을 작동시킬 수 있다.
이 밖에도 프로세서(350)는 구동 상태 정보와 착용 상태 정보를 이용하여 헤드셋 유닛(610, 630)을 다양한 시나리오로 구동할 수 있다. 예를 들어, 헤드셋 전자 장치(600)가 제3 마이크(433)를 구비하지 않는 경우, 제3 마이크(433)의 동작은 제외할 수도 있다.
이상, 헤드셋 전자 장치의 프로세서(350)가 다양한 시나리오로 헤드셋 전자 장치(600)를 작동시키는 것을 설명하였으나, 전자 장치(700)의 프로세서(710)가 다양한 시나리오로 헤드셋 전자 장치(600)를 작동시키는 것도 가능하다.
전자 장치(700)의 프로세서(710)는 헤드셋 전자 장치(700)로부터 제2 커넥터를 통해 착용 상태 정보를 수신할 수 있다. 프로세서(710)는 구동 상태 정보와 착용 상태 정보를 이용하여 작동이 필요한 스피커(420)와 마이크(431, 432, 433)를 판단하여 제2 커넥터를 통해 헤드셋 전자 장치(600)의 프로세서(350)에 작동될 방향의 스피커(420)와 마이크(431, 432, 433) 정보를 포함하는 명령을 전달할 수 있다.
경우에 따라서는, 사용자가 전자 장치(700)를 통해 동작이 필요한 마이크(431, 432, 433)을 직접 선택할 수도 있다. 이 경우, 사용자의 마이크(431, 432, 433) 선택 입력은 전자 장치(700)의 입력 장치(예: 도 1의 입력 장치(150))를 통해 입력될 수 있다. 전자 장치(700)를 통해 입력된 사용자의 마이크(431, 432, 433) 선택 입력은 헤드셋 전자 장치(600)로 전달되어 선택된 마이크가 동작될 수 있다.
이 밖에도 전자 장치(700)의 프로세서(710)는 구동 상태 정보와 착용 상태 정보를 이용하여 헤드셋 유닛(610, 630)을 다양한 시나리오로 구동할 수 있다. 예를 들어, 헤드셋 전자 장치(600)가 제3 마이크(433)를 구비하지 않는 경우, 제3 마이크(433)의 동작은 제외할 수도 있다.
본 문서에 개시된 다양한 실시예에 따르면 헤드셋 전자 장치는, 한 쌍의 헤드셋 하우징, 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 스피커, 상기 스피커와 외부를 연결하도록 상기 한 쌍의 헤드셋 하우징에 각각 형성되는 스피커 출력 경로, 상기 한 쌍의 헤드셋 하우징의 외측 방향을 향하도록 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 제1 마이크, 상기 스피커 출력 경로 상에 각각 배치되는 제2 마이크, 상기 스피커와, 제1 마이크 및 제2 마이크와 각각 전기적으로 연결되는 제1 케이블, 상기 제1 케이블과 전기적으로 연결되어 상기 스피커와, 제1마이크와, 제2 마이크를 제어하는 프로세서, 상기 프로세서와 전기적으로 연결되는 제2 케이블 및 상기 제2 케이블과 전기적으로 연결되고, 전원 신호 핀과 데이터 신호 핀을 포함하고 외부 전자 장치의 USB 커넥터와 전기적으로 연결되는 USB 커넥터를 포함할 수 있고, 상기 프로세서는, 상기 외부 전자 장치와 연결된 상기 USB 커넥터에 포함된 전원 신호 핀으로부터 공급된 전력을 통해 구동되고, 상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 상기 외부 전자 장치로부터 오디오 데이터를 수신하고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 오디오 데이터를 처리하여 상기 스피커로 오디오 데이터를 송신할 수 있다.
또한, 상기 프로세서는, 상기 헤드셋 전자 장치의 착용 상태 정보를 수신하고, 상기 착용 상태 정보에 따라 상기 제1 마이크와 제2 마이크 중 적어도 하나를 작동시킬 수 있다.
또한, 상기 프로세서가 수신하는 착용 상태 정보는, 상기 제2 마이크를 통해 수집될 수 있다.
또한, 상기 한 쌍의 헤드셋 하우징에 대향되는 물체의 근접 상태를 감지하도록 한 쌍의 헤드셋 하우징에 각각 설치되는 센서부를 더 포함할 수 있고, 상기 프로세서가 수신하는 착용 상태 정보는, 상기 센서부를 통해 수집될 수 있다.
또한, 상기 스피커 출력 경로 상에 형성된 홈에 체결되는 제1 팁과, 상기 제1 팁과 연결되어 상기 헤드셋 하우징에 형성된 돌기에 체결되는 제2 팁을 포함하는 이어팁을 더 포함할 수 있다.
또한, 상기 프로세서가 수신하는 착용 상태 정보는, 상기 이어팁의 제1 팁에 내장되어 상기 제1 팁의 형태 변화를 감지하는 센서를 통해 수집될 수 있다.
또한, 상기 프로세서는, 상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 외부 전자 장치의 구동 상태 정보를 수신하고, 상기 구동 상태 정보에 따라 상기 제1 마이크와 제2 마이크 중 적어도 하나를 작동시킬 수 있다.
또한, 상기 프로세서가 수신하는 구동 상태 정보는, 상기 외부 전자 장치에서 실행 중인 어플리케이션의 종류를 포함할 수 있다.
또한, 상기 프로세서는, 상기 구동 상태 정보를 이용하여 상기 외부 전자 장치에서 실행 중인 어플리케이션에 음성 녹음 기능이 포함된 경우, 한 쌍의 헤드셋 하우징에 각각 배치된 제1 마이크를 스테레오 녹음 상태로 작동시킬 수 있다.
또한, 상기 제1 케이블 및 제2 케이블 중 적어도 하나의 경로 상에 배치되어 상기 프로세서와 전기적으로 연결되는 제3 마이크를 더 포함할 수 있다.
또한, 상기 프로세서는, 상기 구동 상태 정보를 이용하여 상기 외부 전자 장치에서 실행 중인 어플리케이션에 통화 기능이 포함된 경우, 상기 제3 마이크를 작동시키고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 통화 오디오 데이터를 처리하여 상기 스피커로 통화 오디오 데이터를 송신할 수 있다.
또한, 상기 프로세서는, 상기 헤드셋 전자 장치의 착용 상태 정보를 수신하고, 상기 착용 상태 정보에 따라 상기 제1 마이크, 제2 마이크, 제3 마이크 중 적어도 하나를 작동시킬 수 있다.
또한, 상기 프로세서는, 상기 제1 커넥터에 포함된 데이터 신호 핀을 통해 외부 전자 장치의 구동 상태 정보를 수신하고, 상기 구동 상태 정보에 따라 상기 제1 마이크, 제2 마이크, 제3 마이크 중 적어도 하나를 작동시킬 수 있다.
또한, 상기 프로세서는, 상기 착용 상태 정보를 이용하여 착용이 감지된 헤드셋 하우징에 배치된 제1 마이크와 제3 마이크를 작동시킬 수 있다.
또한, 상기 프로세서는, 상기 착용 상태 정보를 이용하여 착용이 감지된 헤드셋 하우징이 없는 경우, 제3 마이크만을 작동시킬 수 있다.
또한, 상기 스피커의 증감시키는 볼륨 버튼과, 상기 스피커를 온-오프시키는 재생버튼을 포함하는 스피커 제어부를 더 포함할 수 있고, 상기 프로세서는 상기 스피커 제어부에 포함될 수 있다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치는 USB 커넥터 및 상기 USB 커넥터와 전기적으로 연결되는 프로세서를 포함할 수 있고, 상기 프로세서는, 헤드셋 전자 장치로부터 착용 상태 정보를 수신하고, 상기 착용 상태 정보를 이용하여 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 적어도 하나가 작동되도록 상기 USB 커넥터에 연결된 상기 헤드셋 전자 장치의 USB 커넥터를 통해 작동 신호를 전송할 수 있다.
또한, 상기 프로세서는, 상기 전자 장치에서 실행 중인 어플리케이션 정보를 포함하는 구동 상태 정보를 이용하여 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 적어도 하나가 작동되도록 상기 USB 커넥터에 연결된 상기 헤드셋 전자 장치의 USB 커넥터를 통해 작동 신호를 전송할 수 있다.
또한, 상기 프로세서는, 상기 착용 상태 정보로부터 상기 헤드셋 전자 장치의 헤드셋 하우징 중 착용 상태인 헤드셋 하우징을 확인하고, 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 착용 상태인 헤드셋 하우징에 배치된 마이크를 작동시킬 수 있다.
또한, 상기 프로세서는, 상기 착용 상태 정보로부터 상기 헤드셋 전자 장치의 헤드셋 하우징의 착용 여부를 확인하고, 착용 상태가 아닌 경우에는 상기 헤드셋 전자 장치의 케이블에 배치된 마이크를 작동시킬 수 있다.
그리고 본 명세서와 도면에 개시된 본 문서에 개시된의 실시 예들은 본 문서에 개시된의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 문서에 개시된의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 문서에 개시된의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 문서에 개시된의 다양한 실시 예의 범위는 여기에 개시된 실시 예들 이외에도 본 문서에 개시된의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 문서에 개시된의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 헤드셋 전자 장치에 있어서,
    한 쌍의 헤드셋 하우징;
    상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 스피커;
    상기 스피커와 외부를 연결하도록 상기 한 쌍의 헤드셋 하우징에 각각 형성되는 스피커 출력 경로;
    상기 한 쌍의 헤드셋 하우징의 외측 방향을 향하도록 상기 한 쌍의 헤드셋 하우징의 내부에 각각 배치되는 제1 마이크;
    상기 스피커 출력 경로 상에 각각 배치되는 제2 마이크;
    상기 스피커와, 제1 마이크 및 제2 마이크와 각각 전기적으로 연결되는 제1 케이블;
    상기 제1 케이블과 전기적으로 연결되어 상기 스피커와, 제1마이크와, 제2 마이크를 제어하는 프로세서;
    상기 프로세서와 전기적으로 연결되는 제2 케이블; 및
    상기 제2 케이블과 전기적으로 연결되고, 전원 신호 핀과 데이터 신호 핀을 포함하고 외부 전자 장치의 USB 커넥터와 전기적으로 연결되는 USB 커넥터;를 포함하고,
    상기 프로세서는,
    상기 외부 전자 장치와 연결된 상기 USB 커넥터에 포함된 전원 신호 핀으로부터 공급된 전력을 통해 구동되고,
    상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 상기 외부 전자 장치로부터 오디오 데이터를 수신하고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 오디오 데이터를 처리하여 상기 스피커로 오디오 데이터를 송신하는 헤드셋 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 헤드셋 전자 장치의 착용 상태 정보를 수신하고, 상기 착용 상태 정보에 따라 상기 제1 마이크와 제2 마이크 중 적어도 하나를 작동시키는 헤드셋 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서가 수신하는 착용 상태 정보는,
    상기 제2 마이크를 통해 수집되는 헤드셋 전자 장치.
  4. 제2항에 있어서,
    상기 한 쌍의 헤드셋 하우징에 대향되는 물체의 근접 상태를 감지하도록 한 쌍의 헤드셋 하우징에 각각 설치되는 센서부;를 더 포함하고,
    상기 프로세서가 수신하는 착용 상태 정보는,
    상기 센서부를 통해 수집되는 헤드셋 전자 장치
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 외부 전자 장치의 구동 상태 정보를 수신하고, 상기 구동 상태 정보에 따라 상기 제1 마이크와 제2 마이크 중 적어도 하나를 작동시키는 헤드셋 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서가 수신하는 구동 상태 정보는,
    상기 외부 전자 장치에서 실행 중인 어플리케이션의 종류를 포함하는 헤드셋 전자 장치.
  7. 제5항에 있어서,
    상기 프로세서는,
    상기 구동 상태 정보를 이용하여 상기 외부 전자 장치에서 실행 중인 어플리케이션에 음성 녹음 기능이 포함된 경우, 한 쌍의 헤드셋 하우징에 각각 배치된 제1 마이크를 스테레오 녹음 상태로 작동시키는 헤드셋 전자 장치.
  8. 제2항에 있어서,
    상기 제1 케이블 및 제2 케이블 중 적어도 하나의 경로 상에 배치되어 상기 프로세서와 전기적으로 연결되는 제3 마이크;를 더 포함하는 헤드셋 전자 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 구동 상태 정보를 이용하여 상기 외부 전자 장치에서 실행 중인 어플리케이션에 통화 기능이 포함된 경우, 상기 제3 마이크를 작동시키고, 상기 제1 마이크 및 제2 마이크 중 적어도 하나로부터 외부 소음 신호를 수신하고, 상기 외부 소음 신호에 기반하여 수신된 통화 오디오 데이터를 처리하여 상기 스피커로 통화 오디오 데이터를 송신하는 헤드셋 전자 장치.
  10. 제8항에 있어서,
    상기 프로세서는,
    상기 헤드셋 전자 장치의 착용 상태 정보를 수신하고, 상기 착용 상태 정보에 따라 상기 제1 마이크, 제2 마이크, 제3 마이크 중 적어도 하나를 작동시키는 헤드셋 전자 장치.
  11. 제8항에 있어서,
    상기 프로세서는,
    상기 USB 커넥터에 포함된 데이터 신호 핀을 통해 외부 전자 장치의 구동 상태 정보를 수신하고, 상기 구동 상태 정보에 따라 상기 제1 마이크, 제2 마이크, 제3 마이크 중 적어도 하나를 작동시키는 헤드셋 전자 장치.
  12. 제8항에 있어서,
    상기 프로세서는,
    상기 착용 상태 정보를 이용하여 착용이 감지된 헤드셋 하우징에 배치된 제1 마이크와 제3 마이크를 작동시키고,
    상기 착용 상태 정보를 이용하여 착용이 감지된 헤드셋 하우징이 없는 경우, 제3 마이크만을 작동시키는 헤드셋 전자 장치.
  13. 전자 장치에 있어서,
    USB 커넥터; 및
    상기 USB 커넥터와 전기적으로 연결되는 프로세서;를 포함하고,
    상기 프로세서는,
    헤드셋 전자 장치로부터 착용 상태 정보를 수신하고, 상기 착용 상태 정보를 이용하여 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 적어도 하나가 작동되도록 상기 USB 커넥터에 연결된 상기 헤드셋 전자 장치의 USB 커넥터를 통해 작동 신호를 전송하는 전자 장치.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 전자 장치에서 실행 중인 어플리케이션 정보를 포함하는 구동 상태 정보를 이용하여 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 적어도 하나가 작동되도록 상기 USB 커넥터에 연결된 상기 헤드셋 전자 장치의 USB 커넥터를 통해 작동 신호를 전송하는 전자 장치.
  15. 제13항에 있어서,
    상기 프로세서는,
    상기 착용 상태 정보로부터 상기 헤드셋 전자 장치의 헤드셋 하우징 중 착용 상태인 헤드셋 하우징을 확인하고, 상기 헤드셋 전자 장치에 포함된 복수의 마이크 중 착용 상태인 헤드셋 하우징에 배치된 마이크를 작동시키고,
    상기 착용 상태 정보로부터 상기 헤드셋 전자 장치의 헤드셋 하우징의 착용 여부를 확인하고, 착용 상태가 아닌 경우에는 상기 헤드셋 전자 장치의 케이블에 배치된 마이크를 작동시키는 전자 장치.
PCT/KR2020/003590 2019-07-30 2020-03-16 헤드셋 전자 장치 및 그와 연결되는 전자 장치 WO2021020686A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0092315 2019-07-30
KR1020190092315A KR102643055B1 (ko) 2019-07-30 2019-07-30 헤드셋 전자 장치 및 그와 연결되는 전자 장치

Publications (1)

Publication Number Publication Date
WO2021020686A1 true WO2021020686A1 (ko) 2021-02-04

Family

ID=74229202

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003590 WO2021020686A1 (ko) 2019-07-30 2020-03-16 헤드셋 전자 장치 및 그와 연결되는 전자 장치

Country Status (2)

Country Link
KR (1) KR102643055B1 (ko)
WO (1) WO2021020686A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185698A1 (zh) * 2022-03-28 2023-10-05 华为技术有限公司 一种佩戴检测方法及相关装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068741A1 (ko) * 2021-10-18 2023-04-27 삼성전자 주식회사 웨어러블 장치 장착 가이드 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080072324A (ko) * 2007-02-02 2008-08-06 노틸러스효성 주식회사 이어마이크폰
KR101899021B1 (ko) * 2017-09-06 2018-09-14 이종민 이어폰을 이용한 필터링된 외부 소리 전달 서비스 제공 방법
JP2019062342A (ja) * 2017-09-26 2019-04-18 株式会社Jvcケンウッド 信号処理装置、信号処理方法、及びプログラム
KR102002784B1 (ko) * 2018-07-27 2019-07-23 주식회사 파인테크닉스 마이크 내장형 이어폰 장치
US20190230431A1 (en) * 2018-01-24 2019-07-25 Gn Hearing A/S Hearing protection device, hearing protection system, and related method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080072324A (ko) * 2007-02-02 2008-08-06 노틸러스효성 주식회사 이어마이크폰
KR101899021B1 (ko) * 2017-09-06 2018-09-14 이종민 이어폰을 이용한 필터링된 외부 소리 전달 서비스 제공 방법
JP2019062342A (ja) * 2017-09-26 2019-04-18 株式会社Jvcケンウッド 信号処理装置、信号処理方法、及びプログラム
US20190230431A1 (en) * 2018-01-24 2019-07-25 Gn Hearing A/S Hearing protection device, hearing protection system, and related method
KR102002784B1 (ko) * 2018-07-27 2019-07-23 주식회사 파인테크닉스 마이크 내장형 이어폰 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185698A1 (zh) * 2022-03-28 2023-10-05 华为技术有限公司 一种佩戴检测方法及相关装置

Also Published As

Publication number Publication date
KR102643055B1 (ko) 2024-03-05
KR20210014359A (ko) 2021-02-09

Similar Documents

Publication Publication Date Title
WO2020204611A1 (en) Method for detecting wearing of acoustic device and acoustic device supporting the same
WO2020209574A1 (en) Electronic device including acoustic duct having a vibratable sheet
WO2019045394A1 (ko) 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법
WO2021157901A1 (ko) 인쇄회로기판을 포함하는 전자 장치
WO2020117008A1 (en) Electronic device including speaker and microphone
WO2019156338A1 (ko) 노이즈가 정제된 음성 신호를 획득하는 방법 및 이를 수행하는 전자 장치
WO2021157891A1 (ko) 음향 경로를 포함하는 전자 장치
WO2021085902A1 (ko) 복수의 어플리케이션들의 오디오 데이터를 출력하는 전자 장치 및 그 동작 방법
WO2019066293A1 (ko) 외부 마이크로폰의 그라운드 단자와 전기적으로 연결될 수 있는 커넥터에 포함된 지정된 핀이 회로 기판의 지정된 그라운드와 전기적으로 연결된 회로 구조를 갖는 전자 장치
WO2021020686A1 (ko) 헤드셋 전자 장치 및 그와 연결되는 전자 장치
WO2019112357A1 (ko) 복수의 스피커의 상태에 기반하여 오디오 신호의 볼륨 레벨을 제어하는 전자 장치
WO2019231296A1 (en) An electronic device and method for preventing corrosion of an audio jack
WO2020262835A1 (ko) 전자 장치 및 이를 이용한 오디오 신호를 처리하기 위한 음향 장치를 결정하는 방법
WO2021132852A1 (ko) 오디오 데이터의 출력 방법 및 이를 지원하는 전자 장치
WO2019074238A1 (ko) 마이크로폰, 마이크로폰을 포함하는 전자 장치 및 전자 장치의 제어 방법
WO2021034127A1 (en) Electronic device including multi-channel speaker system
WO2019107973A1 (ko) 오디오 신호의 음량에 따라 설정된 해상도에 기반하여, 오디오 신호를 처리하는 방법 및 그 전자 장치
WO2022019614A1 (ko) 터치 전극을 포함하는 전자 장치
WO2021162337A1 (ko) 음질 개선 방법 및 이어 웨어러블 장치
WO2020235818A1 (ko) 웨어러블 전자 장치 및 웨어러블 전자 장치의 착용상태를 식별하는 방법
WO2020213845A1 (ko) 액세서리를 인식하는 전자 장치
WO2023128623A1 (ko) 웨어러블 장치
WO2021054738A1 (ko) 라디오 신호를 수신할 수 있는 헤드셋 전자 장치 및 그와 연결되는 전자 장치
WO2019066552A1 (ko) 이어폰 안테나를 위한 이어잭 연결 장치 및 이를 포함하는 전자 장치
WO2023149720A1 (ko) 센서 모듈을 포함하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20847622

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20847622

Country of ref document: EP

Kind code of ref document: A1