WO2023003330A1 - 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법 - Google Patents

외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2023003330A1
WO2023003330A1 PCT/KR2022/010550 KR2022010550W WO2023003330A1 WO 2023003330 A1 WO2023003330 A1 WO 2023003330A1 KR 2022010550 W KR2022010550 W KR 2022010550W WO 2023003330 A1 WO2023003330 A1 WO 2023003330A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
external electronic
module
uwb module
user
Prior art date
Application number
PCT/KR2022/010550
Other languages
English (en)
French (fr)
Inventor
이호성
박정민
제성민
최창림
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202280050575.7A priority Critical patent/CN117651930A/zh
Priority to EP22846200.8A priority patent/EP4336314A1/en
Priority to US17/896,618 priority patent/US20230018784A1/en
Publication of WO2023003330A1 publication Critical patent/WO2023003330A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • G01S13/765Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted with exchange of information between interrogator and responder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0284Relative positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Definitions

  • an electronic device for controlling an external electronic device and an operating method of the electronic device. Specifically, an electronic device and an electronic device capable of determining a user's gaze direction using a UWB module, determining a user's motion using a motion sensor, and controlling an external electronic device according to the user's gaze direction and motion. It's about how it works.
  • a headset in the past consisted of a microphone and a speaker, and was connected to a sound generating device with a wire to input or output sound.
  • control functions such as reproducing or recording a sound source and adjusting volume were mainly performed by a sound source generator connected to the headset.
  • a wireless headset can perform not only a wireless connection function, but also a control function of the headset itself by being equipped with various sensors.
  • a sensor capable of detecting a user's motion such as an acceleration sensor or a gyro sensor, provides a control function based on whether or not the user is wearing a wireless headset, and a touch sensor provides a control function based on a user's touch input.
  • the wireless headset may reproduce a sound source when detecting a user putting on the wireless headset, and stop playing sound when detecting a user taking off the wireless headset.
  • the wireless headset detects a user's touch and plays a sound source, stops, or plays the next sound source in the list.
  • ultra-wideband is a short-distance wireless communication technology that transmits and receives data in a wide frequency band using short-time pulses.
  • UWB modules have been used not only for short-distance wireless communication but also for application fields.
  • the UWB module is used for distance measurement based on TWR (two way ranging) and TDOA (time difference of arrival), which use the arrival time of radio waves, and AOA (Angle of Arrival), which uses the antenna's radio wave transmission and reception angle. It can be used for a variety of applications, such as measuring angles according to Such a UWB module may be applied to perform various functions by being mounted in an electronic device such as a wireless headset.
  • Various embodiments disclosed in this document may provide an electronic device capable of controlling an external electronic device by determining a user's motion and gaze direction using a motion sensor and an ultra-wideband (UWB) module.
  • UWB ultra-wideband
  • the electronic device of various embodiments disclosed in this document may select an external electronic device located in the user's line of sight recognized through a UWB module, and control the selected external electronic device according to the user's motion recognized through a motion sensor.
  • an electronic device disclosed in this document may include a plurality of UWB modules, and each UWB module may be configured to be located on both ears when a user wears the electronic device.
  • the electronic device may measure ToF with the external electronic device using each UWB module on both sides, and obtain relative distances with the external electronic device, respectively. For example, when the user's gaze is directed toward the external electronic device, since each UWB module is positioned symmetrically with respect to the external electronic device, the relative distance between each UWB module and the external electronic device may be the same. On the other hand, when the user's gaze does not face the external electronic device, there may be a difference in relative distance between each UWB module and the external electronic device.
  • the electronic device may determine the user's line of sight based on a difference in relative distance between each UWB module and the external electronic device.
  • the electronic device may select an external electronic device located in the user's gaze based on the user's gaze.
  • the electronic device may recognize a user's motion, such as a motion of gazing at one place, a motion of nodding the head up and down, and a motion of shaking the head left and right, through a motion sensor, and select an external electronic device according to the user's motion. You can control the device. Accordingly, the user can conveniently control the external electronic device by looking at the electronic device and a simple operation while wearing the electronic device.
  • An electronic device includes a communication module, a first UWB module, a second UWB module, and a processor operatively connected to the communication module, the first UWB module, and the second UWB module. wherein the processor determines a gaze direction of the user based on data obtained from the first UWB module and data obtained from the second UWB module, and selects at least one of external electronic devices located in the gaze direction. and transmits a request for outputting media to the selected external electronic device through the communication module.
  • An electronic device connected to a mobile device that outputs media includes a communication module, a first UWB module, a second UWB module, and the communication module, the first UWB module, and the second UWB module. and a processor operatively connected to the processor, wherein the processor determines a gaze direction of the user based on data obtained from the first UWB module and data obtained from the second UWB module, and is located in the gaze direction. At least one external electronic device may be selected, and a request for outputting the media output from the mobile device may be transmitted to the selected external electronic device through the communication module.
  • An operating method of an electronic device includes determining a user's gaze direction based on data obtained from a first UWB module and data acquired from a second UWB module, and positioning in the gaze direction. and an operation of selecting at least one of external electronic devices to be played, and an operation of transmitting a request for outputting media to the selected external electronic device.
  • the electronic device may recognize the user's gaze using the UWB module.
  • the electronic device may recognize the user's gaze based on a difference in relative distance between the two units and the external electronic device.
  • the electronic device can prevent power consumption by operating the UWB module when the user gazes at one place.
  • the electronic device can select an external electronic device to be controlled with a user's gaze without a separate operation, providing a user with a convenient control environment.
  • the electronic device may control a convenient environment in which a user can control an external electronic device with a simple operation.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments.
  • 2A is a diagram illustrating a configuration of an electronic device according to various embodiments.
  • 2B is a diagram illustrating a configuration of an electronic device according to various embodiments.
  • 2C is a diagram illustrating a configuration of an electronic device according to various embodiments.
  • FIG. 3 is a block diagram of a configuration of an electronic device and an external electronic device controlled by the electronic device according to various embodiments of the present disclosure
  • FIG. 4 is a flowchart illustrating a method for an electronic device to control an external electronic device according to various embodiments.
  • FIG. 5 is a diagram illustrating an operation of determining a user's gaze direction by an electronic device according to various embodiments.
  • FIG. 6 is a diagram illustrating an operation of selecting an external electronic device by an electronic device according to various embodiments.
  • FIGS. 7A, 7B, and 7C are diagrams illustrating an operation of an electronic device controlling an external electronic device according to various embodiments.
  • FIG. 8 is a diagram illustrating an external electronic device according to various embodiments.
  • FIG. 1 is a block diagram of an electronic device 101 within a network environment 100, according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • the server 108 e.g, a long-distance wireless communication network
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
  • the processor 120 for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor).
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor.
  • NPU neural network processing unit
  • the secondary processor 123 may be implemented separately from or as part of the main processor 121 .
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, image signal processor or communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor set to detect a touch or a pressure sensor set to measure the intensity of force generated by the touch.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : a local area network (LAN) communication module or a power line communication module.
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 is a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.
  • eMBB peak data rate for eMBB realization
  • a loss coverage for mMTC realization eg, 164 dB or less
  • U-plane latency for URLLC realization eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2A is a diagram illustrating a configuration of an electronic device 200a according to various embodiments.
  • the electronic device 200a may include a microphone or a speaker.
  • the electronic device 200a may output sound through a speaker.
  • the electronic device 200a may be worn on at least a part of the user's body (eg, near the user's left ear or the user's right ear).
  • the electronic device 200a may be worn on the user's body and output sound near the user's ear through a speaker.
  • the electronic device 200a may convert a digital signal (eg, digital data) into an analog signal (eg, sound) and output the converted signal.
  • a digital signal eg, digital data
  • an analog signal eg, sound
  • the electronic device 200a may receive sound from outside the electronic device through a microphone, and generate or store data for the received sound. For example, the electronic device 200a may generate or convert the received sound into electrical data. For example, the electronic device 200a may convert an analog signal into a digital signal. For example, the electronic device 200a may at least temporarily store data about sound.
  • the electronic device 200a may have various forms and provide various functions according to a user's purpose of use.
  • the electronic device 200a may include, for example, a headset, headphones, earpieces, hearing aids, or personal sound amplification products.
  • the electronic device 200a may include a first unit 201 and a second unit 202 .
  • the first unit 201 can be worn near the user's right ear and the second unit 202 can be worn near the user's left ear.
  • the electronic device 200a may include at least one sensor (eg, a wearing detection sensor, a motion sensor, a touch sensor, not shown) and a communication module (not shown).
  • at least one sensor may sense whether or not the electronic device 200a is worn on the user's body and a posture in which the electronic device 200a is worn.
  • the at least one sensor may include at least one of a proximity sensor and a grip sensor.
  • at least one sensor may detect a posture change caused by a user's movement.
  • at least one sensor may include an acceleration sensor and a gyro sensor.
  • An acceleration sensor may sense acceleration along three axes, and a gyro sensor may sense angular velocity based on three axes.
  • at least one sensor may detect a gesture such as a user's finger touch and swipe.
  • the electronic device 200a may perform control including at least one or a combination of two or more of playing music, stopping music, playing next music, and playing previous music.
  • the communication module may be a module that wirelessly communicates with the outside.
  • the communication module may include an ultra wide band (UWB) module, a bluetooth (BT) network, a Bluetooth low energy (BLE) network, a wireless fidelity (Wi-Fi) network, an ANT+ network, a long-term evolution (LTE) network, Communication with other devices and/or access points (APs) may be established through at least one or a combination of two or more of a 5th generation (5G) network and a narrowband Internet of Things (NB-IoT) network.
  • the UWB module eg, the first UWB module 341 and/or the second UWB module 342 of FIG. 3
  • the UWB module may be located in the first unit 201 and the second unit 202 of the electronic device 200a, respectively.
  • 2B is a diagram illustrating a configuration of an electronic device 200b according to various embodiments.
  • an electronic device 200b is wirelessly connected to an external electronic device (eg, a smart phone), receives an audio signal output from the external electronic device, and outputs the audio signal through a speaker. It may be a device that transmits an audio signal input from the outside (eg, a user) through a microphone to an external electronic device.
  • the electronic device 200b may include at least one of the first device 203 , the second device 204 , and the case 250 .
  • the first device 203 and the second device 204 may be accommodated (or mounted) in the case 250 or may be separated (or detached) from the case 250 .
  • the first device 203 and the second device 204 may be worn on a part of the user's body (eg, the user's left ear or the user's right ear).
  • Each of the first device 203 and the second device 204 may include a speaker or a microphone.
  • Each of the first device 203 and the second device 204 may output an audio signal through a speaker or receive (or input) an audio signal from the outside through a microphone.
  • power may be turned on.
  • power of the first device 203 and the second device 204 may be turned off or charged.
  • the first device 203 may serve as a master and the second device 204 may serve as a slave. Conversely, the first device 203 may act as a slave and the second device 204 may act as a master. The first device 203 and the second device 204 may periodically transmit each sensing information to an external electronic device.
  • the case 250 may include a housing having an accommodating portion (or space) configured to accommodate (or store) the first device 203 or the second device 204 and a cover attached to the housing.
  • the receptacle may be configured to magnetically attract and hold the first device 203 or the second device 204 into the case 250 .
  • the case 250 turns off the power of the first device 203 and the second device 204 when the first device 203 and the second device 204 are mounted in the accommodating portion or when the cover is closed. or can be controlled to charge.
  • the case 250 turns on power to the first device 203 and the second device 204 when the first device 203 and the second device 204 are separated from the accommodating portion or when the cover is opened. can make it
  • the electronic device 200b may include at least one sensor (eg, a wearing detection sensor, a motion sensor, a touch sensor, not shown) and a communication module (not shown).
  • at least one sensor may sense whether or not the electronic device 200b is worn on the user's body and a posture in which the electronic device 200b is worn.
  • the at least one sensor may include at least one of a proximity sensor and a grip sensor.
  • at least one sensor may detect a posture change caused by a user's movement.
  • at least one sensor may include an acceleration sensor and a gyro sensor.
  • An acceleration sensor may sense acceleration along three axes, and a gyro sensor may sense angular velocity based on three axes.
  • at least one sensor may detect a gesture such as a user's finger touch and swipe.
  • the electronic device 200b may perform control including at least one or a combination of two or more of playing music, stopping music, playing next music, and playing previous music.
  • the communication module may be a module that wirelessly communicates with the outside.
  • the communication module may include an ultra wide band (UWB) module, a bluetooth (BT) network, a Bluetooth low energy (BLE) network, a wireless fidelity (Wi-Fi) network, an ANT+ network, a long-term evolution (LTE) network, Communication with other devices and/or access points (APs) may be established through at least one or a combination of two or more of a 5th generation (5G) network and a narrowband Internet of Things (NB-IoT) network.
  • UWB ultra wide band
  • BT Bluetooth
  • BLE Bluetooth low energy
  • Wi-Fi wireless fidelity
  • ANT+ ANT+
  • LTE long-term evolution
  • APs access points
  • the UWB module (eg, the first UWB module 341 and/or the second UWB module 342 of FIG. 3 ) is the first device 203 and the second device of the electronic device 200b ( 204), respectively.
  • FIG. 2C is a diagram illustrating a configuration of an electronic device 200c (eg, the electronic device 101 of FIG. 1 ) according to various embodiments.
  • the electronic device 200c may be an electronic device 200c manufactured to be worn on the user's head.
  • the electronic device 200c may be configured in the form of at least one of glasses, goggles, a helmet, or a hat, but is not limited thereto.
  • the electronic device 200c includes a plurality of transparent members (eg, the first transparent member 220 and/or the second transparent member) corresponding to both eyes (eg, left and/or right eyes) of the user. (230)).
  • the electronic device 200c may provide a user with an image related to an augmented reality (AR) service.
  • AR augmented reality
  • the electronic device 200c projects or displays a virtual object on the first transparent member 220 and/or the second transparent member 230 so that the user can view the first transparent member 220 of the electronic device.
  • at least one virtual object may overlap with the reality perceived through the second transparent member 230 .
  • the electronic device 200c includes a main body part 223, a support part (eg, a first support part 221 and a second support part 222), and a hinge part (eg, a first support part 222).
  • a hinge part 240-1 and a second hinge part 240-2) may be included.
  • the body portion 223 and the support portions 221 and 222 may be operatively connected through hinge portions 240-1 and 240-2.
  • the body portion 223 may include a portion formed to be at least partially mounted on the user's nose.
  • the support parts 221 and 222 may include a support member in a form that can be placed over the user's ears.
  • the support parts 221 and 222 may include a first support part 221 mounted on the left ear and/or a second support part 222 mounted on the right ear.
  • the first hinge part 240 - 1 may connect the first support part 221 and the body part 223 such that the first support part 221 is rotatable with respect to the body part 223 .
  • the second hinge part 240 - 2 may connect the second support part 222 and the body part 223 such that the second support part 222 is rotatable with respect to the body part 223 .
  • the hinge parts 240-1 and 240-2 of the electronic device 200c may be omitted.
  • the body portion 223 and the support portions 221 and 222 may be directly connected.
  • the body portion 223 may include at least one transparent member (eg, the first transparent member 220 and the second transparent member 230), or at least one display module (eg, the first display module ( 214-1), a second display module 214-2), at least one camera module (eg, front camera module 213), a gaze tracking camera module (eg, first gaze tracking camera module 212-1) , a second gaze tracking camera module 212-2), a recognition camera module (eg, a first recognition camera module 211-1, a second recognition camera module 211-2), and at least one microphone. (eg, the first microphone 241-1 and the second microphone 241-2).
  • the first display module eg, the first display module ( 214-1), a second display module 214-2
  • at least one camera module eg, front camera module 213
  • a gaze tracking camera module eg, first gaze tracking camera module 212-1
  • a second gaze tracking camera module 212-2 eg, a recognition camera module (eg, a first recognition camera module 211-1, a second recognition
  • light generated by the display modules 214-1 and 214-2 may be projected onto the transparent members 220 and 230 to display information.
  • light generated by the first display module 214-1 may be projected onto the first transparent member 220
  • light generated by the second display module 214-2 may be projected onto the second transparent member ( 230) can be projected.
  • the display module 160 described in FIG. 1 may be understood to include the display modules 214-1 and 214-2 and the transparent members 220 and 230 in the electronic device 200c shown in FIG. 2C.
  • the electronic device 200c described in the present invention is not limited to displaying information through the method described above.
  • a display module that may be included in the electronic device 200c may be changed to a display module including various information display methods.
  • a display panel including a light emitting element made of a transparent material is embedded in the transparent members 220 and 230, separate display modules (eg, the first display module 214-1, the second display module ( Information can be displayed without 214-2)).
  • the display module 160 described in FIG. 1 may mean a display panel included in the transparent members 220 and 230 and the transparent members 220 and 230 .
  • the virtual object output through the display modules 214-1 and 214-2 is information related to an application program running on the electronic device 200c and/or a user's view of the transparent members 220 and 230. It may include information related to an external object located in a real space recognized through External objects may include objects existing in a real space.
  • a real space perceived by the user through the transparent members 220 and 230 will be referred to as a field of view (FoV) area of the user.
  • the electronic device 200c determines the area determined by the user's field of view (FoV) in image information related to the real space acquired through a camera module (eg, the camera module 213 for photographing) of the electronic device 200c. It is possible to check external objects included in at least some of them.
  • the electronic device 200c may output a virtual object related to the checked external object through the display modules 214-1 and 214-2.
  • the electronic device 200c may display a virtual object related to an augmented reality service together based on image information related to a real space acquired through the camera module 213 for capturing of the electronic device 200c.
  • the electronic device 200c includes display modules disposed corresponding to both eyes of the user (eg, the first display module 214-1 corresponding to the left eye and/or the second display module corresponding to the right eye). (214-2)), the virtual object may be displayed.
  • the electronic device 200c may display a virtual object based on preset setting information (eg, resolution, frame rate, brightness, and/or display area).
  • the transparent members 220 and 230 may include a condensing lens (not shown) and/or a waveguide (eg, the first waveguide 220-1 and/or the second waveguide 230-1).
  • the first waveguide 220-1 may be partially positioned on the first transparent member 220
  • the second waveguide 230-1 may be partially positioned on the second transparent member 230.
  • Light emitted from the display modules 214-1 and 214-2 may be incident on one side of the transparent members 220 and 230.
  • Light incident on one side of the transparent member 220 or 230 may be transferred to the user through the waveguides 220-1 or 230-1 located in the transparent member 220 or 230.
  • the waveguides 220-1 and 230-1 may be made of glass, plastic, or polymer, and may include a nanopattern formed on an inner or outer surface.
  • the nanopattern may include a polygonal or curved grating structure.
  • light incident on one surface of the transparent member 220 or 230 may be propagated or reflected inside the waveguide 220-1 or 230-1 by the nano-pattern and then transferred to the user.
  • the waveguides 220-1 and 230-1 may include at least one diffractive element (eg, a diffractive optical element (DOE) or a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror). may contain one.
  • the waveguides 220-1 and 230-1 guide the light emitted from the display modules 214-1 and 214-2 to the user's eyes using at least one diffractive element or reflective element.
  • DOE diffractive optical element
  • HOE holographic optical element
  • a reflective element eg, a reflective mirror
  • the electronic device 200c may include a camera module 213 (eg, RGB) for capturing an image corresponding to a user's field of view (FoV) and/or measuring a distance to an object.
  • camera module eg, RGB
  • eye tracking camera modules 212-1 and 212-2 for checking the direction of the user's gaze
  • a recognition camera module for recognizing a certain space (gesture camera module) (211-1, 211-2)
  • the photographing camera module 213 may photograph the front direction of the electronic device 200c, and the gaze tracking camera modules 212-1 and 212-2 are opposite to the photographing direction of the photographing camera module 213. You can take a picture of the direction you want to go.
  • the first gaze tracking camera module 212-1 may partially photograph the user's left eye
  • the second gaze tracking camera module 212-2 may partially photograph the user's right eye
  • the photographing camera module 213 may include a high resolution camera module such as a high resolution (HR) camera module and/or a photo video (PV) camera module.
  • the eye-gaze tracking camera modules 212-1 and 212-2 may detect the user's eyes and track the gaze direction. The tracked gaze direction may be used to move the center of a virtual image including a virtual object in correspondence with the gaze direction.
  • the recognition camera modules 211-1 and 211-2 may detect a user gesture and/or a certain space within a preset distance (eg, a certain space).
  • the recognition camera modules 211-1 and 211-2 may include a camera module including a global shutter (GS).
  • the recognition camera modules 211-1 and 211-2 include a GS capable of reducing a rolling shutter (RS) phenomenon in order to detect and track a fast hand gesture and/or a fine movement such as a finger. It may be a camera module.
  • GS global shutter
  • RS rolling shutter
  • the electronic device 200c uses at least one of the camera modules 211-1, 211-2, 212-1, 212-2, and 213 to determine the main eye and/or the left eye and/or the right eye.
  • an eye corresponding to the secondary eye may be detected.
  • the electronic device 200c may detect an eye corresponding to the main eye and/or the secondary eye based on the direction of the user's gaze to the external object or virtual object.
  • At least one camera module included in the electronic device 200c shown in FIG. 2C may not be limited.
  • at least one camera module eg, a photographing camera module 213, an eye tracking camera module 212-1, 212-2
  • the number and location of the recognition camera modules 211-1 and 211-2 may be variously changed.
  • the electronic device 200c includes at least one camera module (eg, the photographing camera module 213, the gaze tracking camera modules 212-1 and 212-2), and/or the recognition camera module 211- 1 and 211-2) may include at least one illumination LED (eg, the first light emitting device 242-1 and the second light emitting device 242-2) to increase accuracy.
  • the first light emitting device 242-1 may be disposed in a portion corresponding to the user's left eye
  • the second light emitting device 242-2 may be disposed in a portion corresponding to the user's right eye.
  • the light emitting devices 242-1 and 242-2 may be used as an auxiliary means for increasing accuracy when photographing the user's eyes with the gaze tracking camera modules 212-1 and 212-2, and may be used as infrared wavelengths. It may include an IR LED that generates light of.
  • the light emitting devices 242-1 and 242-2 detect a subject to be photographed due to a dark environment or mixed and reflected light of various light sources when the user's gesture is photographed by the camera modules 211-1 and 211-2 for recognition. It can be used as an aid when this is not easy.
  • the electronic device 200c may include microphones (eg, the first microphone 241-1 and the second microphone 241-2) for receiving the user's voice and ambient sounds.
  • the microphones 241-1 and 241-2 may be components included in the audio module 170 of FIG.
  • the first support part 221 and/or the second support part 222 may be a printed circuit board (PCB) (eg, the first printed circuit board 231-1, the second printed circuit board).
  • PCB printed circuit board
  • substrate 231-2 a speaker (eg, a first speaker 232-1, a second speaker 232-2), and/or a battery (eg, a first battery 233-1, A second battery 233-2) may be included.
  • the speakers 232-1 and 232-2 include a first speaker 232-1 for transmitting audio signals to the user's left ear and a second speaker (232-1) for transmitting audio signals to the user's right ear ( 232-2) may be included.
  • the speakers 232-1 and 232-2 may be components included in the audio module 170 of FIG. 1 .
  • the electronic device 200c may include a plurality of batteries 233-1 and 233-2, and print through a power management module (eg, the power management module 188 of FIG. 1). Power may be supplied to the circuit boards 231-1 and 231-2.
  • the plurality of batteries 233-1 and 233-2 may be electrically connected to a power management module (eg, the power management module 188 of FIG. 1).
  • the electronic device 200c has been described as a device displaying augmented reality, but the electronic device 200c may be a device displaying virtual reality (VR).
  • the transparent members 220 and 230 may be formed of an opaque material so that the user cannot recognize the actual space through the transparent members 220 and 230 .
  • the transparent members 220 and 230 may function as the display module 160 .
  • the transparent members 220 and 230 may include a display panel displaying information.
  • the electronic device 200c may include at least one sensor (eg, a wearing detection sensor, a motion sensor, a touch sensor, not shown) and a communication module (not shown).
  • at least one sensor may sense whether or not the electronic device 200c is worn on the user's body and a posture in which the electronic device 200c is worn.
  • the at least one sensor may include at least one of a proximity sensor and a grip sensor.
  • at least one sensor may detect a posture change caused by a user's movement.
  • at least one sensor may include an acceleration sensor and a gyro sensor.
  • An acceleration sensor may sense acceleration along three axes, and a gyro sensor may sense angular velocity based on three axes.
  • at least one sensor may detect a gesture such as a user's finger touch and swipe.
  • the electronic device 200c may perform control including at least one or a combination of two or more of playing music, stopping music, playing next music, and playing previous music.
  • the communication module may be a module that wirelessly communicates with the outside.
  • the communication module may include an ultra wide band (UWB) module, a bluetooth (BT) network, a Bluetooth low energy (BLE) network, a wireless fidelity (Wi-Fi) network, an ANT+ network, a long-term evolution (LTE) network, Communication with other devices and/or access points (APs) may be established through at least one or a combination of two or more of a 5th generation (5G) network and a narrowband Internet of Things (NB-IoT) network.
  • UWB ultra wide band
  • BT Bluetooth
  • BLE Bluetooth low energy
  • Wi-Fi wireless fidelity
  • ANT+ ANT+
  • LTE long-term evolution
  • APs access points
  • the UWB module (eg, the first UWB module 341 and/or the second UWB module 342 of FIG. 3 ) may be located on the front side of the electronic device 200c.
  • the UWB module 340 may include at least one UWB antenna.
  • each UWB antenna may be arranged in a right triangle shape, and the distance of each UWB antenna may be similar.
  • the front view camera module 213 may be disposed between each UWB antenna in response to the arrangement of each UWB antenna in a right triangle.
  • the UWB module eg, the first UWB module 341 and/or the second UWB module 342 of FIG. 3
  • is a first recognition camera module eg, located on the front side of the electronic device 200c). 211-1) and the second recognition camera module 211-2.
  • the electronic device 200c obtains relative location information (eg, distance and direction) with an external electronic device (eg, the external electronic device 500 of FIG. 3) through the UWB module 340.
  • the electronic device 200c may activate at least some functions of the electronic device 200c in response to a relative distance to the external electronic device 500 being less than a specified value.
  • the electronic device 200c may track the user's gaze direction through the gaze tracking camera modules 212-1 and 212-2, and an external electronic device to be controlled based on the tracked gaze direction. (500) can be selected.
  • the electronic device 200c may determine the direction of the user's gaze through the UWB module (eg, the first UWB module 341 and/or the second UWB module 342 of FIG. 3 ), and the determined An external electronic device 500 to be controlled may be selected based on the gaze direction.
  • the electronic device 200c may determine the user's gaze direction using at least one of the UWB module and the gaze tracking camera modules 212-1 and 212-2.
  • the electronic device 200c may determine the type of the external electronic device 500 based on the image of the external electronic device 500 obtained through the front camera module 213, and the external electronic device A control command corresponding to the type of (500) may be generated.
  • the electronic device 200c may determine a user's motion through the recognition camera modules 211-1 and 211-2, and generate a control command based on the determined user's motion.
  • FIG 3 is a diagram illustrating a configuration of an electronic device 300 and an external electronic device 500 controlled by the electronic device 300 according to various embodiments.
  • an electronic device 300 may include a processor 310, a communication module 320, a motion sensor 330, and a UWB module 340. Components included in FIG. 3 are for some of components included in the electronic device 300 , and the electronic device 300 may include various other components shown in FIG. 1 .
  • the communication module 320 includes a first network (eg, the second network 198 of FIG. 1) (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA). or a second network (eg, the first network 199 of FIG. 1) (eg, a legacy cellular network, a 5G network, a next-generation communication network, a telecommunications network such as the Internet, or a computer network (eg, a LAN or WAN)).
  • a first network eg, the second network 198 of FIG. 1
  • a second network eg, the first network 199 of FIG. 1
  • a legacy cellular network eg, a 5G network, a next-generation communication network, a telecommunications network such as the Internet
  • a computer network eg, a LAN or WAN
  • the communication module 320 may transmit a control command generated by the processor 310 to the external electronic device 500, a server
  • the motion sensor 330 may measure a motion signal related to a user's motion.
  • the motion sensor 330 may be mounted on the user's head and measure a motion signal related to the movement of the user's head.
  • the motion sensor 330 may include an acceleration sensor 331 and/or a gyro sensor 332 .
  • the acceleration sensor 331 may measure a signal related to the acceleration of the electronic device 300 .
  • the acceleration sensor 331 may measure rotational angles of roll, pitch, and yaw axes around a reference axis.
  • the gyro sensor 332 may measure a signal related to the angular velocity of the electronic device 300 .
  • the gyro sensor 332 may measure the amount of change in the rotational angle per time unit of the roll, pitch, and yaw axes around the reference axis.
  • the UWB module 340 may include a first UWB module 341 and a second UWB module 342 .
  • the first UWB module 341 and/or the second UWB module 342 may communicate using an ultra-wideband (UWB) wireless communication method.
  • UWB ultra-wideband
  • the electronic device 300 supports the UWB communication method, but the first UWB module 341 and/or the second UWB module 342 cannot determine the distance from the external electronic device 500. It can be replaced with a communication module that supports various communication methods that can be measured.
  • the first UWB module 341 and/or the second UWB module 342 may include at least one UWB antenna.
  • the processor 310 may measure a distance to the external electronic device 500 through the first UWB module 341 and/or the second UWB module 342 .
  • the processor 310 may perform a mutual communication between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500 based on a time of flight (ToF).
  • ToF time of flight
  • distance can be measured.
  • the mutual distance d may be determined by Equation 1.
  • C may be the speed of light (2.997*10 8 m/s).
  • the processor 310 may measure the distance between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500 using a time difference of arrival (TDoA) method.
  • TDoA time difference of arrival
  • the processor 310 designates the first UWB module 341 and/or the second UWB module 342 as UWB tags and the external electronic device 500 as a UWB anchor; Based on the difference between the time when the first UWB module 341 and/or the second UWB module 342 transmits the data packet and the time when the external electronic device 500 receives the data packet, distance can be measured.
  • TDoA time difference of arrival
  • the processor 310 determines the timestamp when the first UWB module 341 and/or the second UWB module 342 transmits the data packet, and the time when the external electronic device 500 receives the data packet. ToF may be determined as shown in Equation 2 based on the time difference between timestamps at the time.
  • the processor 310 may measure the distance between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500 using a two way ranging (TWR) method.
  • the processor 310 may perform an operation for measuring distance and direction information using a two way ranging (TWR) method between external electronic devices capable of UWB communication in which clocks are not synchronized.
  • TWR operation can be divided into single sided two way ranging (SS-TWR) and double sided two way ranging (DS-TWR).
  • the processor 310 may perform an operation for measuring distance and direction information using a single sided-two way ranging (SS-TWR) method and a double sided-two way ranging (DS-TWR) method.
  • the processor 310 designates the first UWB module 341 and/or the second UWB module 342 as UWB tags, the external electronic device 500 as a UWB anchor, and the first UWB module 341 ) and/or the time at which the second UWB module 342 transmits the data packet and receives a response from the external electronic device 500, the distance between them may be measured.
  • the processor 310 determines the time from when the first UWB module 341 and/or the second UWB module 342 transmits a data packet to when a response is received ( ) and the time from when the external electronic device 500 receives the data packet to when it transmits the response ( ), ToF can be determined as in Equation 3.
  • the processor 310 operates the first UWB module 341 and/or the second UWB module 342 based on a communication signal between the external electronic device 500 and the first UWB module 341 and/or the second UWB module 342. Alternatively, a relative angle between the second UWB module 342 and the external electronic device 500 may be measured. According to an embodiment, the first UWB module 341 and/or the second UWB module 342 may include two or more UWB antennas.
  • the processor 310 may measure a relative angle (eg, angle of arrival (AOA)) between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500.
  • the processor 310 may acquire the signal transmitted from the external electronic device 500 through the first and second antennas of the first UWB module 341 and/or the second UWB module 342 .
  • the processor 310 may obtain signal arrival times and phases of the first and second antennas of the first UWB module 341 and/or the second UWB module 342 , respectively.
  • the processor 310 determines the first UWB module 341 and/or the second UWB module 342 based on differences in arrival times and phases of signals acquired by the first and second antennas, respectively.
  • a relative angle between the module 341 and/or the second UWB module 342 and the external electronic device 500 may be determined.
  • the processor 310 may determine the relative angle ⁇ using Equation 4.
  • d is the distance between the first and second antennas
  • is the length of the wavelength
  • is the phase difference between the phase of the signal acquired by the first antenna and the signal acquired by the second antenna.
  • the electronic device 300 may include a first UWB module 341 and/or a second UWB module 342 .
  • the first UWB module 341 may be located in the first unit (eg, the right unit) of the electronic device 300, and the second UWB module 342 may be located in the second unit of the electronic device 300. (e.g. left unit).
  • the first UWB module 341 may be located in the first unit 201 of the electronic device 200a
  • the second UWB module 342 may be located in the second unit 201 of the electronic device 200a.
  • the first UWB module 341 may be located in the first device 203 of the electronic device 200b
  • the second UWB module 342 may be located in the second device 203 of the electronic device 200b. It can be located on the device 204.
  • the first UWB module 341 is the first recognition camera module 211-1 and the second recognition camera module 211-2 located on the front side of the electronic device 200c. may be located nearby.
  • the external electronic device 500 may include an electronic device capable of directly/indirectly communicating with the electronic device 300 .
  • the external electronic device 500 may include a communication module, and may directly and/or indirectly receive a control command of the electronic device 300 through the communication module.
  • the external electronic device 500 may directly receive a control command from the electronic device 300 through a communication module.
  • the external electronic device 500 may indirectly receive a control command generated by the electronic device 300 from a server and/or an external mobile device (eg, a smartphone) through a communication module.
  • the external electronic device 500 may include a UWB module, and the electronic device 300 may determine a relative distance and/or distance from the external electronic device 500 through the UWB module of the external electronic device 500 Relative angles can be measured.
  • the external electronic device 500 may be connected to a UWB accessory (eg, the UWB accessory 510 of FIG. 8 ), and the electronic device 300 may connect to the external electronic device 500 through the UWB accessory 510 . ) relative distance and/or relative angle.
  • FIG. 4 is a flowchart illustrating a method for the electronic device 300 to control an external electronic device according to various embodiments.
  • the processor 310 in operation 410, may determine the user's operation as a stop state.
  • the processor 310 may obtain a signal related to a user's motion from the motion sensor 330 .
  • the motion sensor 330 may include an acceleration sensor 331 and/or a gyro sensor 332 and may measure a signal related to a user's motion.
  • the processor 310 may obtain motion information of the user based on a signal obtained from the motion sensor 330 .
  • the processor 310 may obtain motion information of the user, such as a stationary state, a motion of nodding the head up and down, and a motion of shaking the head left and right, based on a signal measured by the motion sensor 330. .
  • the electronic device 300 may determine the user's motion as a stop state in response to data related to a signal obtained from the motion sensor 330 being less than a specified value. For example, the electronic device 300 stops the user's operation in response to acceleration data obtained from the acceleration sensor 331 being less than a designated value and angular velocity data obtained from the gyro sensor 332 being less than a designated value. state can be determined.
  • the processor 310 may determine the user's gaze direction in response to determining the user's motion as a stop state. For example, the processor 310 operates the first UWB module 341 and/or the second UWB module 342 when it is confirmed that the user's operation is stopped, thereby reducing the first UWB module that consumes a large current through high-frequency communication. 341 and/or the operation of the second UWB module 342 may be limited, and accordingly, current consumed by the electronic device 300 may be reduced.
  • the processor 310 determines that the user's motion is in a stopped state, the processor 310 transmits an advertising message to the external electronic device 500 through a communication module (eg, BLE communication), and a response message (eg, BLE communication) from the external electronic device. : BLE packet message) can be received.
  • the processor 310 may activate the first UWB module 341 and/or the second UWB module 342 based on the response message received from the external electronic device 500 .
  • the processor 310 may maintain the first UWB module 341 and/or the second UWB module 342 in an activated state regardless of the recognized user's motion.
  • the processor 310 in operation 420, may determine the user's gaze direction.
  • the processor 310 may determine the gaze direction using UWB communication between the first UWB module 341 and the second UWB module 342 .
  • the processor 310 may measure a distance based on a time of flight (ToF) between the first UWB module 341 and the second UWB module 342 .
  • the mutual distance d may be determined by Equation 1.
  • the processor 310 may measure the distance between the first UWB module 341 and the second UWB module 342 using a time difference of arrival (TDoA) method. Specifically, the processor 310 designates the first UWB module 341 as a UWB tag, the second UWB module 342 as a UWB anchor, and the first UWB module 341 transmits a data packet. A mutual distance may be measured based on a difference between time and a time when the second UWB module 342 receives the data packet. For example, the processor 310 is based on a time difference between a timestamp when the first UWB module 341 transmits the data packet and a timestamp when the second UWB module 342 receives the data packet.
  • ToF can be determined as shown in Equation 2.
  • the processor 310 may measure the distance between the first UWB module 341 and the second UWB module 342 using a two way ranging (TWR) method. Specifically, the processor 310 designates the first UWB module 341 as a UWB tag and the second UWB module 342 as a UWB anchor, the first UWB module 341 transmits a data packet, and A mutual distance may be measured based on a time at which a response is received from the UWB module 342 .
  • TWR two way ranging
  • the processor 310 determines the time from when the first UWB module 341 transmits a data packet to when a response is received ( ) and the time from when the second UWB module 342 receives the data packet to when it transmits the response ( ), ToF can be determined as in Equation 3.
  • the electronic device 300 determines the distance between the first UWB module 341 and the second UWB module 342 in a memory (eg, the memory of FIG. 1 ) during a manufacturing process. 130)).
  • a memory eg, the memory of FIG. 1
  • the processor 310 may determine the user's gaze direction based on the distance between the first UWB module 341 and the second UWB module 342 . For example, the processor 310 determines a direction perpendicular to the virtual straight line based on the center point of the straight line as the gaze direction in the virtual straight line connecting the first UWB module 341 and the second UWB module 342. can
  • the processor 310 may determine the gaze direction using UWB communication between the first UWB module 341 , the second UWB module 342 and the external electronic device 500 .
  • the processor 310 determines the time of propagation between the first UWB module 341 and the external electronic device 500 and between the second UWB module 342 and the external electronic device 500 (ToF, time of The distance between them can be measured based on flight).
  • ToF time of The distance between them can be measured based on flight.
  • the mutual distance d may be determined by Equation 1.
  • the processor 310 may measure the distance between the first UWB module 341 and the external electronic device 500 using a time difference of arrival (TDoA) method. Specifically, the processor 310 designates the first UWB module 341 as a UWB tag, the external electronic device 500 as a UWB anchor, and the time when the first UWB module 341 transmits a data packet. A mutual distance may be measured based on a time difference between the external electronic device 500 and the time when the data packet is received.
  • TDoA time difference of arrival
  • the processor 310 determines the difference between the timestamp when the first UWB module 341 transmits the data packet and the timestamp when the external electronic device 500 receives the data packet, and timestamp 1 Based on the time corresponding to the dog, ToF may be determined as shown in [Equation 2]. Also, the processor 310 may measure the distance between the second UWB module 342 and the external electronic device 500 in the same way.
  • the processor 310 may measure the distance between the first UWB module 341 and the external electronic device 500 using a two way ranging (TWR) method. Specifically, the processor 310 designates the first UWB module 341 as a UWB tag and the external electronic device 500 as a UWB anchor, the first UWB module 341 transmits a data packet, and the external electronic device 500 A mutual distance may be measured based on the time at which a response is received from 500 .
  • TWR two way ranging
  • the processor 310 determines the time from when the first UWB module 341 transmits the data packet to when the response is received ( ) and the time from when the external electronic device 500 receives the data packet to when it transmits the response ( ), ToF can be determined as shown in [Equation 3].
  • the processor 310 may measure the distance between the second UWB module 342 and the external electronic device 500 in the same way.
  • the processor 310 is based on a difference between a distance between the first UWB module 341 and the external electronic device 500 and a distance between the second UWB module 342 and the external electronic device 500.
  • the user's gaze direction can be determined.
  • the processor 310 determines that a difference between a distance between the first UWB module 341 and the external electronic device 500 and a distance between the second UWB module 342 and the external electronic device 500 is less than a specified value.
  • it may be determined that the user's gaze is directed toward the external electronic device 500, and it may be determined that the user's gaze is not directed toward the external electronic device 500 corresponding to a difference greater than or equal to a specified value.
  • the processor 310 may determine the gaze direction using UWB communication between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500 .
  • the processor 310 operates the first UWB module 341 and/or the second UWB module 342 based on a communication signal between the external electronic device 500 and the first UWB module 341 and/or the second UWB module 342. Alternatively, a relative angle between the second UWB module 342 and the external electronic device 500 may be measured. According to an embodiment, the first UWB module 341 and/or the second UWB module 342 may include two or more UWB antennas.
  • the processor 310 may measure a relative angle between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500 using an Angle of Arrival (AoA) method.
  • AoA Angle of Arrival
  • the processor 310 may acquire the signal transmitted from the external electronic device 500 through the first and second antennas of the first UWB module 341 and/or the second UWB module 342 .
  • Each of the first antenna and the second antenna of the first UWB module 341 and/or the second UWB module 342 may acquire the arrival time and phase of the signal.
  • the processor 310 determines the first UWB module 341 and/or the second UWB module 342 based on differences in arrival times and phases of signals acquired by the first and second antennas, respectively.
  • a relative angle between the module 341 and/or the second UWB module 342 and the external electronic device 500 may be measured.
  • the processor 310 may determine the relative angle ⁇ using Equation 4.
  • d is the distance between the first and second antennas
  • is the length of the wavelength
  • is the phase difference between the phase of the signal acquired by the first antenna and the signal acquired by the second antenna.
  • the processor 310 may determine the direction of the user's gaze based on the relative angle between the first UWB module 341 and/or the second UWB module 342 and the external electronic device 500. .
  • the processor 310 may determine the relative angle as the direction of the user's gaze in response to the fact that the first UWB module 341 and/or the second UWB module 342 are one.
  • the processor 310 may, in the first UWB module 341 and the second UWB module 342, correspond to the number of the first UWB module 341 and/or the second UWB module 342 being two or more.
  • the user's line of sight is directed toward the external electronic device 500 in response to the fact that the measured difference in relative angle with the external electronic device 500 is less than a specified value, and the difference in angle is greater than or equal to the specified value. It may be determined that the user's gaze does not face the external electronic device 500 .
  • the processor 310 determines the gaze direction by using communication between the first UWB module 341 or the second UWB module 342 and the UWB accessory 510 connected to the external electronic device 500.
  • a UWB accessory 510 may be connected to the external electronic device 500 to perform UWB communication with the electronic device 300 .
  • the processor 310 may select an external electronic device.
  • the processor 310 may select the external electronic device 500 based on the user's gaze direction. For example, the processor 310 may select the external electronic device 500 located in the user's gaze direction.
  • the processor 310 based on the difference between the distance between the first UWB module 341 and the external electronic device 500 and the distance between the second UWB module 342 and the external electronic device 500
  • the difference between the distance between the first UWB module 341 and the external electronic device 500 and the distance between the second UWB module 342 and the external electronic device 500 in response to determining the user's gaze direction is a designated value.
  • An external electronic device 500 of less than in response to a plurality of recognized external electronic devices 500, the processor 310 determines the distance between the first UWB module 341 and the external electronic device 500 and the distance between the second UWB module 342 and the external electronic device 500.
  • An external electronic device 500 having a smaller distance difference between the external electronic devices 500 may be selected.
  • the processor 310 has one UWB module 340 and determines the user's gaze direction based on the relative angle between the UWB module 340 and the external electronic device 500.
  • the relative angle is An external electronic device 500 within a designated range of 90 degrees may be selected.
  • the processor 310 may select the external electronic device 500 having a relative angle closer to 90 degrees.
  • the processor 310 includes two or more first UWB modules 341 and/or second UWB modules 342, the first UWB module 341 and/or the second UWB module 342 and Relative to the external electronic device 500 measured by the first UWB module 341 and the second UWB module 342, respectively, in response to determining the direction of the user's gaze based on the relative angle between the external electronic devices 500.
  • An external electronic device 500 having an angle difference less than a specified value may be selected.
  • the processor 310 may select an external electronic device 500 having a smaller relative angle difference.
  • the processor 310 may select the external electronic devices 501 and 502 based on a user's motion in response to a plurality of recognized external electronic devices 501 and 502 . For example, the processor 310 first selects the first external electronic device 501 having a relatively short distance, and based on the user's motion (eg, shaking the head left and right), the processor 310 selects the second external electronic device 502. can choose
  • the processor 310 in operation 440, may determine the user's operation.
  • the processor 310 may obtain a signal related to a user's motion from the motion sensor 330 .
  • the motion sensor 330 may include an acceleration sensor 331 and/or a gyro sensor 332 and may measure a signal related to a user's motion.
  • the processor 310 may obtain motion information of the user based on a signal obtained from the motion sensor 330 .
  • the processor 310 may obtain motion information of the user, such as a stationary state, a motion of nodding the head up and down, and a motion of shaking the head left and right, based on a signal measured by the motion sensor 330. .
  • the processor 310 may determine the user's motion as a stop state in response to data related to a signal obtained from the motion sensor 330 being less than a specified value. For example, in response to acceleration data acquired from the acceleration sensor 331 being less than a designated value and angular velocity data obtained from the gyro sensor 332 being less than a designated value, the processor 310 sets the user's motion to a stop state. can be determined by
  • the processor 310 may determine the motion of the user as a motion of nodding the head up and down in response to data related to a signal obtained from the motion sensor 330 being included in a specified range. For example, the processor 310 determines that the rotation angle of the pitch axis obtained from the acceleration sensor 331 is within a designated range, the rotation angle of the roll and yaw axes is less than a designated value, and the gyro In response to the fact that the angular velocity data of the pitch axis obtained from the sensor 332 is greater than or equal to a specified value, the user's motion may be determined as a nodding motion.
  • the processor 310 may determine the motion of the user as a motion of shaking the head left and right in response to data related to a signal obtained from the motion sensor 330 being included in a specified range. For example, the processor 310 determines that the rotation angle of the yaw axis obtained from the acceleration sensor 331 is within a specified range, the rotation angle of the roll and pitch axes is less than a specified value, and the gyro In response to the fact that the angular velocity data of the yaw axis obtained from the sensor 332 is greater than or equal to a specified value, the user's motion may be determined as a motion of shaking the head left and right.
  • the processor 310 may obtain motion information of the user based on data measured by the first UWB module 341 and/or the second UWB module 342 . For example, the processor 310 moves closer to the external electronic device 500 based on the relative distance to the external electronic device 500 measured by the first UWB module 341 and/or the second UWB module 342. Motion information of the user, such as motion and distance motion, may be obtained.
  • the processor 310 determines the user's motion to be closer when the relative distance obtained from the first UWB module 341 and/or the second UWB module 342 decreases, and when the relative distance increases may decide to move away from the user's motion.
  • the processor 310 may, in operation 450, control an external electronic device.
  • the processor 310 may generate a control command based on a user's motion.
  • the processor 310 may generate a command to repeatedly perform a specified operation in the external electronic device 500 during the stop state in response to the user's motion being stopped. For example, the processor 310 may generate a command to repeatedly change a channel number output from the external electronic device 500 .
  • the processor 310 may generate a command for executing a selected function in the external electronic device 500 in response to a user's motion of nodding his/her head up and down. For example, the processor 310 may display a notification on the external electronic device 500 indicating whether to perform mirroring with the external electronic device 500 based on the selection of the external electronic device 500, A mirroring function to the external electronic device 500 may be performed in response to a nodding motion with .
  • the processor 310 may generate a command for stopping or canceling a selected function in the external electronic device 500 in response to a user's action of shaking his head left and right.
  • the processor 310 may display, on the external electronic device 500, a notification about whether to perform mirroring with the external electronic device 500 based on the external electronic device 500 being selected, and The mirroring function to the external electronic device 500 may be canceled in response to the motion of shaking the head with .
  • the processor 310 may control the external electronic device 500 based on a change in distance between the user and the external electronic device 500 .
  • the processor 310 may generate a command to reduce the volume of a speaker output from the external electronic device 500 in response to the user moving away from the external electronic device 500 .
  • the processor 310 may generate a command to increase the volume of a speaker output from the external electronic device 500 in response to the user moving closer to the external electronic device 500 .
  • the processor 310 may generate a control command based on a gesture such as a user's touch and swipe.
  • the processor 310 is included in the first unit (eg, the first unit 201 of FIG. 2A, the first device 203 of FIG. 2B, and the first hinge part 240-1 of FIG. 2C) Performs a media rewind function in response to a touch input from a user with a touch sensor, and a second unit (eg, the second unit 202 in FIG. 2A, the second device 204 in FIG. 2B, and the second unit 204 in FIG. 2C) 2 In response to a touch input input to the touch sensor included in the hinge unit 240-2, a media fast-forward function may be performed.
  • the processor 310 is included in the first unit (eg, the first unit 201 of FIG. 2A, the first device 203 of FIG. 2B, and the first hinge part 240-1 of FIG. 2C) input through a touch sensor included in the second unit (e.g., the second unit 202 in FIG. 2A, the second device 204 in FIG. 2B, and the second hinge part 240-2 in FIG. 2C)
  • a control command may be generated based on the number of touches of the user.
  • the processor 310 may perform a media playback stop function in response to a single touch, perform a previous media playback function in response to a second touch, and perform a next media playback function in response to a three-time touch.
  • control including at least one or a combination of two or more of multi-media playback, stop, next media playback, and previous media playback may be performed.
  • the processor 310 may directly and/or indirectly transmit a control command to the external electronic device 500 through the communication module 320.
  • the processor 310 transmits a control command to the external electronic device 500 through the communication module 320 through a network (eg, the first network 198 and/or the second network 199 of FIG. 1).
  • the communication module 320 may be controlled to transmit.
  • the processor 310 may control the communication module 320 so that the communication module 320 transmits a control command to a server and/or an external mobile device (eg, a smart phone) through a network.
  • a server and/or an external mobile device receiving a command from the electronic device 300 may transmit a control command to the external electronic device 500 .
  • the processor 310 may receive a control command transmitted to the external electronic device 500 from a user.
  • the processor 310 may provide a user interface (UI) capable of inputting a control command corresponding to a user's motion to the user, receive the control command from the user, and store the control command in a memory.
  • the processor 310 may acquire a control command corresponding to the recognized user's motion from a memory and transmit it to the external electronic device 500 .
  • UI user interface
  • the electronic device 300 may be connected to a mobile device (eg, a smartphone) through a local area network (eg, Bluetooth, wifi) using the communication module 320 .
  • the processor 310 may transmit a control command to the mobile device through the communication module 320 and/or receive a signal from the mobile device to output media audio from the electronic device 300 .
  • the processor 310 may transmit information related to the external electronic device 500 selected through the communication module 320 to the mobile device.
  • the mobile device may be connected to the external electronic device 500 through a local area network (eg, Bluetooth, wifi).
  • the mobile device may transmit a signal to the external electronic device 500 to output video and/or audio of media from the external electronic device 500 .
  • the mobile device in response to receiving information related to the selected external electronic device 500 from the electronic device 300, selects a device to output audio and/or video of media and selects an output signal. can be sent to the device. For example, in response to receiving information related to the selected external electronic device 500 from the electronic device 300, the mobile device transmits a signal to output the audio of the media to the electronic device 300, and A signal for outputting an image may be transmitted to the external electronic device 500 . For another example, in response to receiving information related to the selected external electronic device 500 from the electronic device 300, the mobile device transmits a signal for outputting audio and video of media to the external electronic device 500. can do.
  • the mobile device transmits information related to the electronic device 300 to the external electronic device 500 so that the electronic device 300 is connected to the external electronic device 500 through a local area network (eg, Bluetooth, wifi).
  • Information eg, information of the electronic device 300 registered in the account
  • the external electronic device 500 may be connected to the electronic device 300 through a local area network (eg, Bluetooth, wifi) based on information related to the electronic device 300 .
  • FIG. 5 is a diagram illustrating an operation of determining a user's gaze direction by the electronic device 300 according to various embodiments.
  • Figure (a) is a diagram showing an example of a case where the user's gaze is directed toward the external electronic device 500
  • Figures (b) and (c) are cases in which the user's gaze is not directed toward the external electronic device 500. It is a drawing showing an example of
  • the first UWB module 341 may be located on the right side of the electronic device 300 (eg, headset), and the second UWB module 342 may be located on the left side of the electronic device 300 .
  • the right unit including the first UWB module 341 is worn on the right ear
  • the left unit including the second UWB module 342 is worn on the left ear.
  • the user's gaze direction may coincide with a direction perpendicular to the virtual straight line based on the center point of the virtual straight line z connecting the first UWB module 341 and the second UWB module 342. .
  • the electronic device 300 may determine the gaze direction using UWB communication between the first UWB module 341 , the second UWB module 342 and the external electronic device 500 .
  • the electronic device 300 includes a propagation travel time (ToF) time between the first UWB module 341 and the external electronic device 500 and between the second UWB module 342 and the external electronic device 500.
  • a distance (x) between the first UWB module 341 and the external electronic device 500 and a distance (y) between the second UWB module 342 and the external electronic device 500 may be measured based on the number of flights.
  • the mutual distance (x, y) may be determined by Equation 1.
  • the electronic device 300 may measure the distance (x) between the first UWB module 341 and the external electronic device 500 using a time difference of arrival (TDoA) method. Specifically, the electronic device 300 designates the first UWB module 341 as a UWB tag and the external electronic device 500 as a UWB anchor, and the first UWB module 341 transmits a data packet. A mutual distance (x) may be measured based on a difference between time and a time when the external electronic device 500 receives the data. For example, the electronic device 300 is based on a time difference between a timestamp when the first UWB module 341 transmits a data packet and a timestamp when the external electronic device 500 receives the data packet. Thus, ToF can be determined as shown in [Equation 2]. Also, the electronic device 300 may measure the distance y between the second UWB module 342 and the external electronic device 500 in the same way.
  • TDOA time difference of arrival
  • the electronic device 300 may measure the distance (x) between the first UWB module 341 and the external electronic device 500 using a two way ranging (TWR) method. Specifically, the electronic device 300 designates the first UWB module 341 as a UWB tag and the external electronic device 500 as a UWB anchor, and the first UWB module 341 transmits a data packet and transmits a data packet to the external electronic device 500. A mutual distance (x) may be measured based on a time for receiving a response from the device 500 .
  • TWR two way ranging
  • the electronic device 300 determines the time from when the first UWB module 341 transmits the data packet to when the response is received ( ) and the time from when the external electronic device 500 receives the data packet to when it transmits the response ( ), ToF can be determined as shown in [Equation 3].
  • the electronic device 300 may measure the distance y between the second UWB module 342 and the external electronic device 500 in the same way.
  • the electronic device 300 includes a distance (x) between the first UWB module 341 and the external electronic device 500 and a distance between the second UWB module 342 and the external electronic device 500. Based on the difference in (y), the user's gaze direction may be determined. For example, the electronic device 300 may determine that the user's gaze is directed toward the external electronic device 500 in response to that the difference between x and y is less than a specified value, and the difference between x and y is greater than or equal to a specified value. Corresponding to , it may be determined that the user's gaze does not face the external electronic device 500 .
  • the first UWB A distance (x) between the module 341 and the external electronic device 500 is shorter than a distance (y) between the second UWB module 342 and the external electronic device 500 . Therefore, a difference between x and y occurs, and this difference increases as the external electronic device 500 is farther from the user's line of sight. For example, the difference between x and y in figure (c) is greater than the difference between x and y in figure (b).
  • FIG. 6 is a diagram illustrating an operation of selecting an external electronic device by the electronic device 300 according to various embodiments.
  • Figure (a) is a diagram showing an example of a case where the electronic device 300 selects the first external electronic device 501, and figure (b) shows an example in which the electronic device 300 selects the second external electronic device 502. It is a diagram showing an example of selecting.
  • the electronic device 300 may select the external electronic devices 501 and 502 based on the user's gaze direction. For example, the electronic device 300 may select the external electronic devices 501 and 502 located in the user's gaze direction.
  • the electronic device 300 determines the distances (x1, x2) between the first UWB module 341 and the external electronic devices 501 and 502 and the distances (x1 and x2) between the second UWB module 342 and the external electronic devices 501 and 501. 502), the distances (x1, x2) between the first UWB module 341 and the external electronic devices 501 and 502 (x1, x2) and The external electronic devices 501 and 502 in which the difference between the distances y1 and y2 between the second UWB module 342 and the external electronic devices 501 and 502 are less than a specified value may be selected.
  • the electronic device 300 determines the distance (x1, x2) between the first UWB module 341 and the external electronic devices 501 and 502. ) and the difference between the distances y1 and y2 between the second UWB module 342 and the external electronic devices 501 and 502 may be selected.
  • the values of x1 and y1 for the electronic device 501 are different (x1 > y1).
  • the electronic device 300 may select the second external electronic device 502 having a smaller distance difference (
  • FIGS. 7A, 7B, and 7C are diagrams illustrating an operation of an electronic device 300 controlling an external electronic device 500 according to various embodiments.
  • FIG. 7A is a diagram illustrating an example of an operation of controlling an external electronic device 500 in response to an operation (stop state) of the electronic device 300 observing the user's external electronic device 500 according to various embodiments of the present disclosure; to be.
  • the electronic device 300 may obtain a signal related to a user's motion from the motion sensor 330 .
  • the motion sensor 330 may include an acceleration sensor 331 and/or a gyro sensor 332 and may measure a signal related to a user's motion.
  • the electronic device 300 may obtain motion information of the user based on a signal acquired from the motion sensor 330 .
  • the electronic device 300 may determine the user's motion as a stop state in response to data related to a signal obtained from the motion sensor 330 being less than a specified value.
  • the electronic device 300 responds to the change data of acceleration obtained from the acceleration sensor 331 being less than a designated value and the angular velocity data obtained from the gyro sensor 332 being less than a designated value, and the user's operation is performed. can be determined as stationary.
  • the electronic device 300 may transmit a control command to the external electronic device 500 based on a user's motion. For example, the electronic device 300 transmits a command to change a channel output from the electronic device 500 to the external electronic device 500 during the time of the stop external state in response to the user's motion being stopped. can do.
  • the electronic device 300 repeatedly changes the channel of the external electronic device 500 in response to the user's gaze at the external electronic device 500 and its operation being stopped. command may be transmitted to the external electronic device 500.
  • FIG. 7B is a diagram illustrating an example of an operation for the electronic device 300 to control an external electronic device 500 in response to a user's motion of nodding his head up and down or shaking his head left and right according to various embodiments. to be.
  • the processor 310 may obtain a signal related to a user's motion from the motion sensor 330 .
  • the motion sensor 330 may include an acceleration sensor 331 and/or a gyro sensor 332 and may measure a signal related to a user's motion.
  • the processor 310 may obtain motion information of the user based on a signal obtained from the motion sensor 330 .
  • the processor 310 may determine the motion of the user as a motion of nodding the head up and down in response to data related to a signal obtained from the motion sensor 330 being included in a specified range. For example, the processor 310 determines that the rotation angle of the pitch axis obtained from the motion sensor 330 is within a specified range, the rotation angle of the roll and yaw axes is less than a specified value, and the gyro In response to the fact that the angular velocity data of the pitch axis obtained from the sensor 332 is greater than or equal to a specified value, the user's motion may be determined as a nodding motion.
  • the processor 310 may determine the motion of the user as a motion of shaking the head left and right in response to data related to a signal obtained from the motion sensor 330 being included in a specified range. For example, the processor 310 determines that the rotation angle of the yaw axis obtained from the acceleration sensor 331 is within a specified range, the rotation angle of the roll and pitch axes is less than a specified value, and the gyro In response to the fact that the angular velocity data of the yaw axis obtained from the sensor 332 is greater than or equal to a specified value, the user's motion may be determined as a motion of shaking the head left and right.
  • the electronic device 300 may transmit a control command to the external electronic device 500 based on a user's motion.
  • the electronic device 300 executes a function selected from the external electronic device 500 in response to a user's motion of nodding up and down (eg, in Figure (a)).
  • a command to “shut down the TV?” - Yes) may be transmitted to the external electronic device 500 .
  • the electronic device 300 stops the function selected in the external electronic device 500 in response to the user's motion of shaking the head left and right (eg, "TV” in Figure (a)). Do you want to end?” - No) may be transmitted to the external electronic device 500 .
  • FIG. 7C is a diagram illustrating an example of an operation of controlling settings related to the external electronic device 500 in response to a user's motion of the electronic device 300 approaching or moving away from the external electronic device 500 according to various embodiments. .
  • the processor 310 may obtain motion information of the user based on signals measured by the first UWB module 341 and/or the second UWB module 342 . For example, the processor 310 moves closer to the external electronic device 500 based on the relative distance to the external electronic device 500 measured by the first UWB module 341 and/or the second UWB module 342. Motion information of the user, such as motion or distance motion, may be obtained. For example, the processor 310 determines the user's motion to be closer when the relative distance obtained from the first UWB module 341 and/or the second UWB module 342 decreases, and when the relative distance increases may decide to move away from the user's motion.
  • the electronic device 300 may control settings related to the external electronic device 500 based on a user's motion.
  • the electronic device 300 responds to the media output from the external electronic device 500 in response to the user's motion moving away from the external electronic device 500, and the electronic device 300 ), the speaker can be controlled to reduce the volume output from the speaker.
  • the electronic device 300 corresponds to the media output from the external electronic device 500 in response to the user's action of getting closer to the external electronic device 500, and the electronic device 300 ), the speaker can be controlled to increase the volume output from the speaker.
  • the electronic device 300 responds to a user's motion of getting closer to the external electronic device 500, and provides a command (eg: A command to increase resolution or brightness) may be transmitted to the external electronic device 500 .
  • a command eg: A command to increase resolution or brightness
  • the electronic device 300 responds to a user's motion moving away from the external electronic device 500, and provides a command (eg: A command to lower resolution or brightness) may be transmitted to the external electronic device 500.
  • a command eg: A command to lower resolution or brightness
  • FIG. 8 is a diagram illustrating an external electronic device 500 according to various embodiments.
  • the external electronic device 500 may include a UWB module.
  • the external electronic device 500 according to another embodiment may not include a UWB module.
  • a UWB accessory 510 is connected to the external electronic device 500 and the electronic device 300 and UWB communication can be performed.
  • the UWB accessory 510 may be attached to the back of the external electronic device 500 as shown in (a) and/or attached to the top of the external electronic device 500 as shown in (b).
  • the combination of the UWB accessory 510 and the external electronic device 500 is not limited to the disclosure in FIG. 8 , and in addition, external electronic devices 500 capable of various types of UWB communication may be a subject of the present invention.
  • the electronic device 300 includes a communication module 320, a first UWB module 341, a second UWB module 342, the communication module 320, and the first UWB module. 341 and a processor 310 operatively connected to the second UWB module 342, wherein the processor 310 receives data obtained from the first UWB module 341 and the second UWB module Based on the data obtained from step 342, the user's gaze direction is determined, at least one external electronic device 500 located in the gaze direction is selected, and the selected external electronic device is selected through the communication module 320.
  • a request to output media may be sent to 500 .
  • the electronic device 300 further includes a motion sensor 330 that measures data related to a user's motion, and the processor 310 performs data acquired from the motion sensor 330. determines the user's motion based on the user's motion, generates a control command based on the user's motion, and transmits the control command to the external electronic device 500 through the communication module 320 based on the control command can do.
  • a motion sensor 330 that measures data related to a user's motion
  • the processor 310 performs data acquired from the motion sensor 330. determines the user's motion based on the user's motion, generates a control command based on the user's motion, and transmits the control command to the external electronic device 500 through the communication module 320 based on the control command can do.
  • the processor 310 determines that the user's motion is in a stopped state based on data acquired from the motion sensor 330, and the first The user's gaze direction may be determined based on the data obtained from the UWB module 341 and the data obtained from the second UWB module 342 .
  • the processor 310 obtains a distance between the first UWB module 341 and the second UWB module 342, and the first UWB module
  • the direction perpendicular to the imaginary straight line connecting the first UWB module 341 and the second UWB module 342 based on the central point of 341 and the second UWB module 342 is the user's line of sight. direction can be determined.
  • the processor 310 determines the relative distance between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 Relative distances between the external electronic device 500 are obtained, and the relative distances between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 and the external electronic device 500 are obtained.
  • the direction of the external electronic device 500 may be determined as the direction of the user's line of sight.
  • the processor 310 obtains a relative angle between the first UWB module 341 and the external electronic device 500, and the first UWB module ( 341) and the external electronic device 500 are within a specified range of 90 degrees, the direction of the external electronic device 500 may be determined as the user's gaze direction.
  • the processor 310 determines the relative angle between the first UWB module 341 and the external electronic device 500 and the second UWB module 342.
  • a relative angle of the external electronic device 500 is acquired, and a relative angle between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 and the external electronic device 500 are obtained.
  • the direction of the external electronic device 500 may be determined as the direction of the user's line of sight.
  • the processor 310 selects the external electronic device 500 from among the external electronic devices 500 in response to a plurality of external electronic devices 500 located in the gaze direction.
  • the external electronic device 500 in which the difference between the relative distance between the first UWB module 341 and the external electronic device 500 and the relative distance between the second UWB module 342 and the external electronic device 500 is smaller. You can choose.
  • a touch sensor is further included, and the processor 310 performs a stop operation, up and down movement based on data acquired from the motion sensor 330 or the touch sensor.
  • a motion of the user including a nodding motion, a left and right shaking motion, a touch motion, and a swipe motion may be determined.
  • the processor 310 controls the execution of a function selected in the external electronic device 500 in response to the user's motion of nodding up and down.
  • a command may be generated, and a control command for canceling the selected function of the external electronic device 500 may be generated in response to the user's action of shaking his head left and right.
  • the processor 310 performs the processing based on the data obtained from the first UWB module 341 and the data obtained from the second UWB module 342.
  • a user's motion including a motion to approach the external electronic device 500 and a motion to move away from the external electronic device 500 may be determined.
  • An electronic device 300 connected to a mobile device that outputs media includes a communication module 320, a first UWB module 341, a second UWB module 342, and the communication module ( 320), a processor 310 operatively connected to the first UWB module 341 and the second UWB module 342, wherein the processor 310 obtains information from the first UWB module 341
  • the user's gaze direction is determined based on one data and the data obtained from the second UWB module 342, at least one external electronic device 500 located in the gaze direction is selected, and the communication module 320 ) through which a request to output the media output from the mobile device may be transmitted to the selected external electronic device 500 .
  • An operating method of an electronic device 300 determines a user's gaze direction based on data acquired from a first UWB module 341 and data obtained from a second UWB module 342. operation, an operation of selecting at least one of the external electronic devices 500 located in the gaze direction, and an operation of transmitting a request for outputting media to the selected external electronic device 500.
  • an operation of determining a user's operation based on data acquired from a seam sensor, an operation of generating a control command based on the user's operation, and An operation of transmitting the control command to the external electronic device 500 based on the control command may be included.
  • the first UWB module ( 341) and the data acquired from the second UWB module 342 may include an operation of determining the user's gaze direction.
  • an operation of obtaining a distance between the first UWB module 341 and the second UWB module 342, and the first UWB module ( 341) and the center point of the second UWB module 342, the direction perpendicular to the imaginary straight line connecting the first UWB module 341 and the second UWB module 342 is the direction of the user's line of sight. It may include an operation to determine.
  • the relative distance between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 and the external electronic device Obtaining the relative distance of the device 500, and the relative distance between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 and the external electronic device 500
  • an operation of determining the direction of the external electronic device 500 as the direction of the user's gaze may be included.
  • the relative angle between the first UWB module 341 and the external electronic device 500 and the second UWB module 342 and the external electronic device Obtaining the relative angle of the device 500, the relative angle between the first UWB module 341 and the external electronic device 500 and the relative angle between the second UWB module 342 and the external electronic device 500
  • An operation of determining the direction of the external electronic device 500 as the direction of the user's gaze may be included in response to the angle difference being less than a specified value.
  • the first UWB among the external electronic devices 500 corresponds to a plurality of external electronic devices 500 located in the gaze direction.
  • An operation of selecting the external electronic device 500 having a smaller difference between the relative distance between the module 341 and the external electronic device 500 and the relative distance between the second UWB module 342 and the external electronic device 500 can include
  • first, second, or first or secondary may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.
  • a (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • a storage medium eg, internal memory 136 or external memory 138
  • a machine eg, electronic device 101
  • a processor eg, the processor 120
  • a device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play Store TM
  • It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Abstract

다양한 실시예에 따른 전자 장치에서, 전자 장치는 통신 모듈, 제 1 UWB 모듈, 제 2 UWB 모듈, 및 상기 통신 모듈, 상기 제 1 UWB 모듈 및 상기 제 2 UWB 모듈과 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고, 상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하고, 상기 통신 모듈을 통하여 상기 선택된 외부 전자 장치에 미디어를 출력하는 요청을 송신할 수 있다. 이 밖에 다양한 실시예들이 가능하다.

Description

외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법
본 문서에 개시된 다양한 실시예들은, 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법에 관한 것이다. 구체적으로, UWB 모듈을 이용하여 사용자의 시선 방향을 결정하고, 모션 센서를 이용하여 사용자의 동작을 결정하고, 사용자의 시선 방향 및 동작에 따라 외부 전자 장치를 제어할 수 있는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
과거의 헤드셋은 마이크와 스피커로 구성되어, 음향 발생 장치와 선으로 연결되어 소리를 입력하거나 출력하는 역할만 하였다. 또한, 과거의 헤드셋은 음원의 재생이나 녹음, 음량의 조절과 같은 제어 기능이 주로 헤드셋에 연결된 음원 발생 장치에서 수행되었다.
최근에는 음원 발생 장치와 무선으로 연결되는 블루투스 이어폰, 양쪽 유닛까지 무선으로 분리된 완전 무선 이어폰(TWS, true wireless stereo)과 같이 다양한 형태의 무선 헤드셋이 개발되고 있다. 무선 헤드셋은 무선 연결 기능뿐 아니라, 다양한 센서를 탑재하여 헤드셋 자체에서 헤드셋의 제어 기능 또한 수행할 수 있다.
대표적으로, 가속도 센서, 자이로 센서와 같이 사용자의 동작을 감지할 수 있는 센서는 사용자가 무선 헤드셋을 착용하였는지 여부에 기반한 제어 기능을 제공하고, 터치 센서는 사용자의 터치 입력에 기반한 제어 기능을 제공할 수 있다. 예를 들어, 무선 헤드셋은 사용자가 무선 헤드셋을 착용하는 동작을 감지하는 경우 음원을 재생하고, 사용자가 무선 헤드셋을 벗는 동작을 감지하는 경우 음원 재생을 중지할 수 있다. 또 다른 예시로, 무선 헤드셋은 사용자의 터치를 감지하여 음원을 재생하거나, 멈추거나, 다음 목록 음원을 재생할 수 있다.
한편, UWB(Ultra-wideband)은 짧은 시간의 펄스를 사용하여 넓은 주파수 대역으로 데이터를 송수신하는 근거리 무선통신 기술이다. 최근에는 UWB 모듈은 근거리 무선 통신뿐만 아니라, 응용 분야에 사용되고 있다. 예를 들어, UWB 모듈은 전파의 도달 시간을 이용하는 방식인 TWR(two way ranging) 및 TDOA(time difference of arrival)에 따른 거리 측정, 안테나의 전파 송수신 각도를 이용하는 방식인 AOA(Angle of arrival)에 따른 각도 측정과 같이 다양한 응용 분야에 사용될 수 있다. 이러한 UWB 모듈은 무선 헤드셋과 같은 전자 장치에 탑재되어, 다양한 기능을 수행하도록 응용될 수 있다.
본 문서에 개시된 다양한 실시예는 모션 센서와 UWB(Ultra-wideband) 모듈을 이용하여 사용자의 동작과 시선 방향을 결정하여 외부 전자 장치를 제어할 수 있는 전자 장치를 제공할 수 있다.
구체적으로, 본 문서에 개시된 다양한 실시예의 전자 장치는 UWB 모듈을 통하여 인식한 사용자의 시선에 위치하는 외부 전자 장치를 선택하고, 모션 센서를 통하여 인식한 사용자의 동작에 따라 선택한 외부 전자 장치를 제어할 수 있다.
예를 들어, 본 문서에 개시된 전자 장치는 복수의 UWB 모듈을 포함할 수 있고, 각 UWB 모듈은 사용자가 전자 장치를 착용할 때 양쪽 귀에 위치하도록 구성될 수 있다. 전자 장치는 양 쪽의 각 UWB 모듈을 이용하여 외부 전자 장치와의 ToF를 측정할 수 있고, 외부 전자 장치와의 상대적 거리를 각각 획득할 수 있다. 예를 들어, 사용자의 시선이 외부 전자 장치를 향하고 있는 경우, 각 UWB 모듈은 외부 전자 장치를 기준으로 대칭이 되도록 위치하므로, 각 UWB 모듈과 외부 전자 장치와의 상대적 거리는 같을 수 있다. 반면, 사용자의 시선이 외부 전자 장치를 향하지 않는 경우, 각 UWB 모듈과 외부 전자 장치와의 상대적 거리는 차이가 있을 수 있다. 따라서, 전자 장치는 각 UWB 모듈과 외부 전자 장치와의 상대적 거리의 차이에 기반하여 사용자의 시선을 결정할 수 있다. 전자 장치는 사용자의 시선에 기반하여, 사용자의 시선에 위치하는 외부 전자 장치를 선택할 수 있다. 그리고, 전자 장치는 모션 센서를 통하여 한 곳을 응시하는 동작, 상하로 고개를 끄덕이는 동작, 좌우로 고개를 젓는 동작과 같은 사용자의 동작을 인식할 수 있고, 사용자의 동작에 따라 선택한 외부 전자 장치를 제어할 수 있다. 따라서, 사용자는 전자 장치를 착용한 상태에서 시선 및 간단한 동작에 의해 간편하게 외부 전자 장치를 제어할 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치는, 통신 모듈, 제 1 UWB 모듈, 제 2 UWB 모듈, 및 상기 통신 모듈, 상기 제 1 UWB 모듈 및 상기 제 2 UWB 모듈과 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고, 상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하고, 상기 통신 모듈을 통하여 상기 선택된 외부 전자 장치에 미디어를 출력하는 요청을 송신할 수 있다.
본 문서에 개시된 다양한 실시예에 따른 미디어를 출력하는 모바일 장치와 연결된 전자 장치는, 통신 모듈, 제 1 UWB 모듈, 제 2 UWB 모듈, 및 상기 통신 모듈, 상기 제 1 UWB 모듈 및 상기 제 2 UWB 모듈과 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고, 상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하고, 상기 통신 모듈을 통하여 상기 선택된 외부 전자 장치에 상기 모바일 장치에서 출력하는 상기 미디어를 출력하도록 하는 요청을 송신할 수 있다.
본 문서에 개시된 다양한 실시예에 따른 전자 장치의 동작 방법은, 제 1 UWB 모듈로부터 획득한 데이터 및 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는 동작, 상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하는 동작, 및 상기 선택된 외부 전자 장치에 미디어를 출력하는 요청을 송신하는 동작을 포함할 수 있다.
예를 들어, 전자 장치는 UWB 모듈을 이용하여 사용자의 시선을 인식할 수 있다.
예를 들어, 전자 장치는 양쪽 유닛과 외부 전자 장치와의 상대적 거리의 차이에 기반하여 사용자의 시선을 인식할 수 있다.
예를 들어, 전자 장치는 사용자가 한 곳을 응시하는 경우에 UWB 모듈을 동작하게 함으로써, 전력 소비를 방지할 수 있다.
예를 들어, 전자 장치는 별도의 동작 없이 사용자의 시선으로 제어하고자 하는 외부 전자 장치를 선택할 수 있어, 사용자에게 편리한 제어 환경을 제공할 수 있다.
예를 들어, 전자 장치는 사용자에게 간단한 동작으로 외부 전자 장치를 제어할 수 있는 편리한 환경을 제어할 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2a는 다양한 실시예들에 따른 전자 장치의 구성도를 도시한 도면이다.
도 2b는 다양한 실시예들에 따른 전자 장치의 구성도를 도시한 도면이다.
도 2c는 다양한 실시예들에 따른 전자 장치의 구성도를 도시한 도면이다.
도 3은, 다양한 실시예에 따른 전자 장치의 구성 및 전자 장치가 제어하는 외부 전자 장치의 블록도이다.
도 4는, 다양한 실시예에 따른 전자 장치가 외부 전자 장치를 제어하는 방법을 도시한 흐름도이다.
도 5는, 다양한 실시예에 따른 전자 장치가 사용자의 시선 방향을 결정하는 동작을 설명하기 위하여 도시한 도면이다.
도 6은, 다양한 실시예에 따른 전자 장치가 외부 전자 장치를 선택하는 동작을 도시한 도면이다.
도 7a, 도 7b 및 도 7c는, 다양한 실시예에 따른 전자 장치가 외부 전자 장치를 제어하는 동작을 설명하기 위하여 도시한 도면이다.
도 8은, 다양한 실시예에 따른 외부 전자 장치를 도시한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2a는 다양한 실시예들에 따른 전자 장치(200a)의 구성도를 도시한 도면이다.
일 실시예에 따르면, 전자 장치(200a)(예를 들어, 헤드셋)은 마이크 또는 스피커를 포함할 수 있다. 예를 들어, 전자 장치(200a)는 스피커를 통하여 소리를 출력할 수 있다.
일 실시예에 따르면, 전자 장치(200a)는 사용자 신체의 적어도 일부(예: 사용자의 왼쪽 귀 또는 사용자의 오른쪽 귀 근처)에 착용될 수 있다. 예를 들어, 전자 장치(200a)는 사용자의 신체에 착용되어 스피커를 통하여 사용자의 귀 인근에서 소리를 출력할 수 있다.
일 실시예에 따르면, 전자 장치(200a)는 디지털 신호(예를 들어, 디지털 데이터)를 아날로그 신호(예를 들어, 소리)로 변환하여 출력할 수 있다.
일 실시예에 따르면, 전자 장치(200a)는 마이크를 통하여 전자 장치 외부의 소리를 수신하고, 수신한 소리에 대한 데이터를 생성 또는 저장할 수 있다. 예를 들어, 전자 장치(200a)는 수신한 소리를 전기적인 데이터로 생성 또는 변환할 수 있다. 예를 들어, 전자 장치(200a)는 아날로그 신호를 디지털 신호로 변환할 수 있다. 예를 들어, 전자 장치(200a)는 소리에 대한 데이터를 적어도 임시로 저장할 수 있다.
다양한 실시예들에 따르면, 전자 장치(200a)는 사용자의 사용 목적에 따라 다양한 형태를 가질 수 있으며, 다양한 기능을 제공할 수 있다. 전자 장치(200a), 예를 들어, 헤드셋(headset), 헤드폰(headphone), 이어피스(earpiece), 보청기(hearing aids) 또는 소리 증폭기들(personal sound amplification products)를 포함할 수 있다.
일 실시예예 따르면, 전자 장치(200a)는 제 1 유닛(201) 및 제 2 유닛(202)을 포함할 수 있다. 예를 들어, 제 1 유닛(201)은 사용자의 우측 귀 인근에 착용될 수 있고, 제 2 유닛(202)은 사용자의 좌측 귀 인근에 착용될 수 있다.
다양한 실시예들에 따르면, 전자 장치(200a)는 적어도 하나의 센서(예: 착용 감지 센서, 모션 센서, 터치 센서, 미도시) 및 통신 모듈(미도시)을 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 전자 장치(200a)가 사용자의 신체에 착용여부 및 착용된 자세를 센싱할 수 있다. 예를 들어, 적어도 하나의 센서는 근접 센서 및 그립 센서 중 적어도 하나를 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 움직임으로 인해 발생하는 자세 변화량을 감지할 수 있다. 예를 들어, 적어도 하나의 센서는 가속도 센서 및 자이로 센서를 포함할 수 있다. 가속도 센서가 3축에 대한 가속도를 센싱하고, 자이로 센서가 3축을 기준으로 하는 각속도를 센싱할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 손가락 터치 및 스와이프(swipe) 행위와 같은 제스처를 감지할 수 있다. 전자 장치(200a)는 적어도 하나의 센서에서 센싱된 터치 데이터에 응답하여, 음악 재생, 중지, 다음 음악 재생, 및 이전 음악 재생 중 적어도 하나 또는 둘 이상의 조합을 포함하는 제어를 수행할 수 있다. 일 실시예예 따르면, 통신 모듈은 무선으로 외부와 통신하는 모듈일 수 있다. 예를 들어, 통신 모듈은 UWB(ultra wide band) 모듈, BT(bluetooth) 네트워크, BLE(Bluetooth low energy) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, ANT+ 네트워크, LTE(long-term evolution) 네트워크, 5G(5th generation) 네트워크, 및 NB-IoT(Narrowband Internet of Things) 네트워크 중 적어도 하나 또는 둘 이상의 조합을 통해 다른 기기 및/또는 AP(Access Point)와 통신을 수립할 수 있다. UWB 모듈(예: 도 3의 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342))은 전자 장치(200a)의 제1 유닛(201) 및 제2 유닛(202)에 각각 위치할 수 있다.
도 2b는 다양한 실시예들에 따른 전자 장치(200b)의 구성도를 도시한 도면이다.
도 2b를 참조하면, 다양한 실시예들에 따른 전자 장치(200b)는 외부 전자 장치(예: 스마트 폰)와 무선으로 연결되어, 외부 전자 장치로부터 출력되는 오디오 신호를 수신하여 스피커를 통해 출력하거나, 마이크를 통해 외부(예: 사용자)로부터 입력되는 오디오 신호를 외부 전자 장치로 전송하는 장치일 수 있다. 전자 장치(200b)는 제1 장치(203), 제2 장치(204) 및 케이스(250) 중 적어도 하나를 포함할 수 있다.
제1 장치(203) 및 제2 장치(204)는 케이스(250)에 수용(또는 장착)되거나, 케이스(250)로부터 분리(또는 탈착)될 수 있다. 제1 장치(203) 및 제2 장치(204)는 사용자 신체 일부(예: 사용자의 왼쪽 귀 또는 사용자의 오른쪽 귀)에 각각 착용될 수 있다. 제1 장치(203) 및 제2 장치(204) 각각은 스피커 또는 마이크를 포함할 수 있다. 제1 장치(203) 및 제2 장치(204) 각각은 스피커를 통해 오디오 신호를 출력하거나, 마이크를 통해 외부로부터 오디오 신호를 수신(또는 입력)할 수 있다. 제1 장치(203) 및 제2 장치(204)가 케이스(250)로부터 이탈되면, 전원이 온(on)될 수 있다. 제1 장치(203) 및 제2 장치(204)가 케이스(250)에 장착되면, 제1 장치(203) 및 제2 장치(204)의 전원은 오프(off)되거나, 충전될 수 있다.
다양한 실시예들에 따르면, 제1 장치(203)가 마스터 역할을 하고, 제2 장치(204)가 슬레이브 역할을 할 수 있다. 반대로, 제1 장치(203)가 슬레이브 역할을 하고, 제2 장치(204)가 마스터 역할을 할 수 있다. 제1 장치(203) 및 제2 장치(204)는 주기적으로 외부 전자 장치로 각각의 센싱 정보를 전송할 수 있다.
케이스(250)는 제1 장치(203) 또는 제2 장치(204)를 수용(또는 보관)하도록 구성된 수용부(또는 공간부)를 갖는 하우징 및 상기 하우징에 부착되는 덮개를 포함할 수 있다. 상기 수용부는 제1 장치(203) 또는 제2 장치(204)를 케이스(250) 내부로 자기적으로(magnetically) 끌어들여 유지시키도록 구성될 수 있다. 케이스(250)는 제1 장치(203) 및 제2 장치(204)가 상기 수용부에 장착되거나, 또는 상기 덮개가 닫혀지면, 제1 장치(203) 및 제2 장치(204)의 전원을 오프시키거나, 충전되도록 제어할 수 있다. 케이스(250)는 제1 장치(203) 및 제2 장치(204)가 상기 수용부로부터 분리되거나, 또는 상기 덮개가 열어지면, 제1 장치(203) 및 제2 장치(204)의 전원을 온시킬 수 있다.
다양한 실시예들에 따르면, 전자 장치(200b)는 적어도 하나의 센서(예: 착용 감지 센서, 모션 센서, 터치 센서, 미도시) 및 통신 모듈(미도시)을 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 전자 장치(200b)가 사용자의 신체에 착용여부 및 착용된 자세를 센싱할 수 있다. 예를 들어, 적어도 하나의 센서는 근접 센서 및 그립 센서 중 적어도 하나를 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 움직임으로 인해 발생하는 자세 변화량을 감지할 수 있다. 예를 들어, 적어도 하나의 센서는 가속도 센서 및 자이로 센서를 포함할 수 있다. 가속도 센서가 3축에 대한 가속도를 센싱하고, 자이로 센서가 3축을 기준으로 하는 각속도를 센싱할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 손가락 터치 및 스와이프(swipe) 행위와 같은 제스처를 감지할 수 있다. 전자 장치(200b)는 적어도 하나의 센서에서 센싱된 터치 데이터에 응답하여, 음악 재생, 중지, 다음 음악 재생, 및 이전 음악 재생 중 적어도 하나 또는 둘 이상의 조합을 포함하는 제어를 수행할 수 있다. 일 실시예예 따르면, 통신 모듈은 무선으로 외부와 통신하는 모듈일 수 있다. 예를 들어, 통신 모듈은 UWB(ultra wide band) 모듈, BT(bluetooth) 네트워크, BLE(Bluetooth low energy) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, ANT+ 네트워크, LTE(long-term evolution) 네트워크, 5G(5th generation) 네트워크, 및 NB-IoT(Narrowband Internet of Things) 네트워크 중 적어도 하나 또는 둘 이상의 조합을 통해 다른 기기 및/또는 AP(Access Point)와 통신을 수립할 수 있다.
다양한 실시예에 따르면, UWB 모듈(예: 도 3의 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342))은 전자 장치(200b)의 제1 장치(203) 및 제2 장치(204)에 각각 위치할 수 있다.
도 2c는 다양한 실시예들에 따른 전자 장치(200c)(예: 도 1의 전자 장치(101))의 구성도를 도시한 도면이다.
다양한 실시예에서, 전자 장치(200c)는 사용자의 머리 부분에 착용되는 형태로 제작된 전자 장치(200c)일 수 있다. 예를 들어, 전자 장치(200c)는 안경(glass), 고글(goggles), 헬멧 또는 모자 중 적어도 하나의 형태로 구성될 수 있으나, 이에 한정되지 않는다. 일 실시예에 따르면, 전자 장치(200c)는 사용자의 양안(예: 좌안 및/또는 우안), 각각에 대응하는 복수 개의 투명 부재(예: 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230))를 포함할 수 있다.
전자 장치(200c)는 사용자에게 증강 현실(augumented reality; AR) 서비스와 관련된 영상을 제공할 수 있다. 일 실시예에 따르면, 전자 장치(200c)는 제1 투명 부재(220) 및/또는 제2 투명 부재(230)에 가상 객체를 투영하거나, 표시함으로써, 사용자가 전자 장치의 제1 투명 부재(220) 및/또는 제2 투명 부재(230)를 통해 인지하는 현실에 적어도 하나의 가상 객체가 겹쳐 보이도록 할 수 있다.
도 2c를 참조하면, 일 실시예에 따른 전자 장치(200c)는 본체부(223), 지지부(예: 제 1 지지부(221), 제 2 지지부(222)), 및 힌지부(예: 제1 힌지부(240-1), 제2 힌지부(240-2))를 포함할 수 있다.
다양한 실시예에 따르면, 본체부(223)와 지지부(221, 222)는 힌지부(240-1, 240-2)를 통해 작동적으로 연결될 수 있다. 본체부(223)는 사용자의 코에 적어도 부분적으로 거치될 수 있도록 형성된 부분을 포함할 수 있다.
다양한 실시예에 따르면, 지지부(221, 222)는 사용자의 귀에 걸쳐질 수 있는 형태의 지지 부재를 포함할 수 있다. 지지부(221, 222)는 왼쪽 귀에 거치되는 제 1 지지부(221) 및/또는 오른쪽 귀에 거치되는 제 2 지지부(222)를 포함할 수 있다.
다양한 실시예에 따르면, 제1 힌지부(240-1)는 제1 지지부(221)가 본체부(223)에 대해 회전 가능하도록 제1 지지부(221)와 본체부(223)를 연결할 수 있다. 제2 힌지부(240-2)는 제2 지지부(222)가 본체부(223)에 대해 회전 가능하도록 제2 지지부(222)와 본체부(223)를 연결할 수 있다. 다른 실시예에 따르면, 전자 장치(200c)의 힌지부(240-1, 240-2)는 생략될 수 있다. 예를 들어, 본체부(223)와 지지부(221, 222)는 바로 연결될 수 있다.
다양한 실시예에 따르면, 본체부(223)는 적어도 하나의 투명 부재(예: 제1 투명 부재(220), 제2 투명 부재(230)), 적어도 하나의 디스플레이 모듈(예: 제1 디스플레이 모듈(214-1), 제2 디스플레이 모듈(214-2)), 적어도 하나의 카메라 모듈(예: 전방 촬영 카메라 모듈(213), 시선 추적 카메라 모듈(예: 제1 시선 추적 카메라 모듈(212-1), 제2 시선 추적 카메라 모듈(212-2)), 인식용 카메라 모듈(예: 제1 인식용 카메라 모듈(211-1), 제2 인식용 카메라 모듈(211-2)) 및 적어도 하나의 마이크(예: 제1 마이크(241-1), 제2 마이크(241-2))를 포함할 수 있다.
도 2c에서 설명되는 전자 장치(200c)의 경우, 디스플레이 모듈(214-1, 214-2)에서 생성된 광이 투명 부재(220, 230)에 투영되어 정보를 표시할 수 있다. 예를 들어, 제1 디스플레이 모듈(214-1)에서 생성된 광은 제1 투명 부재(220)에 투영될 수 있고, 제2 디스플레이 모듈(214-2)에서 생성된 광은 제2 투명 부재(230)에 투영될 수 있다. 적어도 일부가 투명한 소재로 형성된 투명 부재(220, 230)에 가상 객체를 표시할 수 있는 광이 투영됨으로써, 사용자는 가상 객체가 중첩된 현실을 인지할 수 있다. 이 경우, 도 1에서 설명한 디스플레이 모듈(160)은 도 2c에 도시된 전자 장치(200c)에서 디스플레이 모듈(214-1, 214-2) 및 투명 부재(220, 230)를 포함하는 것으로 이해될 수 있다. 다만, 본 발명에서 설명되는 전자 장치(200c)가 앞서 설명한 방식을 통해 정보를 표시하는 것으로 한정되는 것은 아니다. 전자 장치(200c)에 포함될 수 있는 디스플레이 모듈은 다양한 방식의 정보 표시 방법을 포함하는 디스플레이 모듈로 변경될 수 있다. 예를 들어, 투명 부재(220, 230) 자체에 투명 소재의 발광 소자를 포함하는 디스플레이 패널이 내장된 경우에는 별도의 디스플레이 모듈(예: 제1 디스플레이 모듈(214-1), 제2 디스플레이 모듈(214-2))없이 정보를 표시할 수 있다. 이 경우, 도 1에서 설명한 디스플레이 모듈(160)은 투명 부재(220, 230)와 투명 부재(220, 230)에 포함되는 디스플레이 패널을 의미할 수 있다.
다양한 실시예에 따르면, 디스플레이 모듈(214-1, 214-2)을 통해 출력되는 가상 객체는 전자 장치(200c)에서 실행되는 어플리케이션 프로그램과 관련된 정보 및/또는 사용자가 투명 부재(220, 230)를 통해 인지하는 실제 공간에 위치한 외부 객체와 관련된 정보를 포함할 수 있다. 외부 객체는 실제 공간에 존재하는 사물을 포함할 수 있다. 사용자가 투명 부재(220, 230)를 통해 인지하는 실제 공간을 이하에서는 사용자의 시야각(field of view; FoV) 영역으로 호칭하기로 한다. 예를 들어, 전자 장치(200c)는 전자 장치(200c)의 카메라 모듈(예: 촬영용 카메라 모듈(213))을 통해 획득한 실제 공간과 관련된 영상 정보에서 사용자의 시야각(FoV)으로 판단되는 영역의 적어도 일부에 포함된 외부 객체를 확인할 수 있다. 전자 장치(200c)는 확인한 외부 객체와 관련된 가상 객체를 디스플레이 모듈(214-1, 214-2)을 통해 출력할 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 전자 장치(200c)의 촬영용 카메라 모듈(213)을 통해 획득한 실제 공간과 관련된 영상 정보에 기반하여 증강 현실 서비스와 관련된 가상 객체를 함께 표시할 수 있다. 일 실시예에 따르면, 전자 장치(200c)는 사용자의 양안에 대응하여 배치된 디스플레이 모듈(예: 좌안에 대응되는 제1 디스플레이 모듈(214-1), 및/또는 우안에 대응되는 제2 디스플레이 모듈(214-2))을 기반으로 가상 객체를 표시할 수 있다. 일 실시예에 따르면, 전자 장치(200c)는 미리 설정된 설정 정보(예: 해상도(resolution), 프레임 레이트(frame rate), 밝기, 및/또는 표시 영역)를 기반으로 가상 객체를 표시할 수 있다.
다양한 실시예에 따르면, 투명 부재(220, 230)는 집광 렌즈(미도시) 및/또는 도파관(예: 제1 도파관(220-1) 및/또는 제2 도파관(230-1))을 포함할 수 있다. 예를 들어, 제1 도파관(220-1)은 제1 투명 부재(220)에 부분적으로 위치할 수 있고, 제2 도파관(230-1)은 제2 투명 부재(230)에 부분적으로 위치할 수 있다. 디스플레이 모듈(214-1, 214-2)에서 방출된 광은 투명 부재(220, 230)의 일면으로 입사될 수 있다. 투명 부재(220, 230)의 일면으로 입사된 광은 투명 부재(220, 230) 내에 위치한 도파관(220-1, 230-1)을 통해 사용자에게 전달될 수 있다. 도파관(220-1, 230-1)은 글래스, 플라스틱, 또는 폴리머로 제작될 수 있고, 내부 또는 외부의 일표면에 형성된 나노 패턴을 포함할 수 있다. 예를 들어, 나노 패턴은 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 투명 부재(220, 230)의 일면으로 입사된 광은 나노 패턴에 의해 도파관(220-1, 230-1) 내부에서 전파 또는 반사되어 사용자에게 전달될 수 있다. 일 실시예에 따르면, 도파관(220-1, 230-1)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 도파관(220-1, 230-1)은 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이 모듈(214-1, 214-2)로부터 방출된 광을 사용자의 눈으로 유도할 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 사용자의 시야각(FoV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체와의 거리를 측정하기 위한 촬영용 카메라 모듈(213)(예: RGB 카메라 모듈), 사용자가 바라보는 시선의 방향을 확인하기 위한 시선 추적 카메라 모듈(eye tracking camera module)(212-1, 212-2), 및/또는 일정 공간을 인식하기 위한 인식용 카메라 모듈(gesture camera module)(211-1, 211-2)을 포함할 수 있다. 예를 들어, 촬영용 카메라 모듈(213)은 전자 장치(200c)의 전면 방향을 촬영할 수 있고, 시선 추적 카메라 모듈(212-1, 212-2)은 상기 촬영용 카메라 모듈(213)의 촬영 방향과 반대되는 방향을 촬영할 수 있다. 예를 들어, 제1 시선 추적 카메라 모듈(212-1)은 사용자의 좌안을 부분적으로 촬영하고, 제2 시선 추적 카메라 모듈(212-2)은 사용자의 우안을 부분적으로 촬영할 수 있다. 일 실시예에 따르면, 촬영용 카메라 모듈(213)은 HR(high resolution) 카메라 모듈 및/또는 PV(photo video) 카메라 모듈과 같은 고해상도의 카메라 모듈을 포함할 수 있다. 일 실시예에 따르면, 시선 추적 카메라 모듈(212-1, 212-2)은 사용자의 눈동자를 검출하여, 시선 방향을 추적할 수 있다. 추적된 시선 방향은 가상 객체를 포함하는 가상 영상의 중심이 상기 시선 방향에 대응하여 이동되는데 활용될 수 있다. 일 실시예에 따르면, 인식용 카메라 모듈(211-1, 211-2)은 미리 설정된 거리 이내(예: 일정 공간)에서의 사용자 제스처 및/또는 일정 공간을 감지할 수 있다. 인식용 카메라 모듈(211-1, 211-2)은 GS(global shutter)를 포함하는 카메라 모듈을 포함할 수 있다. 예를 들어, 인식용 카메라 모듈(211-1, 211-2)은 빠른 손동작 및/또는 손가락과 같은 미세한 움직임을 검출 및 추적하기 위해, RS(rolling shutter) 현상이 감소될 수 있는 GS를 포함하는 카메라 모듈일 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 적어도 하나의 카메라 모듈(211-1, 211-2, 212-1, 212-2, 213)을 사용하여, 좌안 및/또는 우안 중에서 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다. 예를 들어, 전자 장치(200c)는 외부 객체 또는 가상 객체에 대한 사용자의 시선 방향에 기반하여, 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다.
도 2c에 도시된 전자 장치(200c)에 포함되는 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(213), 시선 추적 카메라 모듈(212-1, 212-2) 및/또는 인식용 카메라 모듈(211-1, 211-2))의 개수 및 위치는 한정되지 않을 수 있다. 예를 들어, 전자 장치(200c)의 형태(예: 모양 또는 크기)에 기반하여 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(213), 시선 추적 카메라 모듈(212-1, 212-2) 및/또는 인식용 카메라 모듈(211-1, 211-2))의 개수 및 위치는 다양하게 변경될 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 적어도 하나의 카메라 모듈(예: 촬영용 카메라 모듈(213), 시선 추적 카메라 모듈(212-1, 212-2) 및/또는 인식용 카메라 모듈(211-1, 211-2))의 정확도를 높이기 위한 적어도 하나의 발광 장치(illumination LED)(예: 제1 발광 장치(242-1), 제2 발광 장치(242-2))를 포함할 수 있다. 예를 들어, 제1 발광 장치(242-1)는 사용자의 좌안에 대응하는 부분에 배치될 수 있고, 제2 발광 장치(242-2)는 사용자의 우안에 대응하는 부분에 배치될 수 있다. 일 실시예에서, 발광 장치(242-1, 242-2)는 시선 추적 카메라 모듈(212-1, 212-2)로 사용자의 눈동자를 촬영할 때 정확도를 높이기 위한 보조 수단으로 사용될 수 있고, 적외선 파장의 광을 발생시키는 IR LED를 포함할 수 있다. 또한, 발광 장치(242-1, 242-2)는 인식용 카메라 모듈(211-1, 211-2)로 사용자의 제스처를 촬영할 때 어두운 환경이나 여러 광원의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 보조 수단으로 사용될 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 사용자의 음성 및 주변 소리를 수신하기 위한 마이크(예: 제1 마이크(241-1), 제2 마이크(241-2))를 포함할 수 있다. 예를 들어, 마이크(241-1, 241-2)는 도 1의 오디오 모듈(170)에 포함된 구성 요소일 수 있다.
다양한 실시예에 따르면, 제 1 지지부(221) 및/또는 제 2 지지부(222)는 인쇄 회로 기판(PCB, printed circuit board)(예: 제1 인쇄 회로 기판(231-1), 제2 인쇄 회로 기판(231-2)), 스피커(speaker)(예: 제1 스피커(232-1), 제2 스피커(232-2)), 및/또는 배터리(예: 제1 배터리(233-1), 제2 배터리(233-2))를 포함할 수 있다.
다양한 실시예에 따르면, 스피커(232-1, 232-2)는 사용자의 좌측 귀에 오디오 신호를 전달하기 위한 제 1 스피커(232-1) 및 사용자의 우측 귀에 오디오 신호를 전달하기 위한 제 2 스피커(232-2)를 포함할 수 있다. 스피커(232-1, 232-2)는 도 1의 오디오 모듈(170)에 포함된 구성 요소일 수 있다.
다양한 실시예에 따르면, 전자 장치(200c)는 복수 개의 배터리(233-1, 233-2)가 구비될 수 있고, 전력 관리 모듈(예: 도 1의 전력 관리 모듈(188))을 통해, 인쇄 회로 기판(231-1, 231-2)에 전력을 공급할 수 있다. 예를 들어, 복수 개의 배터리(233-1, 233-2)는 전력 관리 모듈(예: 도 1의 전력 관리 모듈(188))과 전기적으로 연결될 수 있다.
앞에서는, 전자 장치(200c)가 증강 현실을 표시하는 장치인 것으로 설명하였으나, 전자 장치(200c)는 가상 현실(virtual reality; VR)을 표시하는 장치일 수 있다. 이 경우, 사용자가 투명 부재(220, 230)를 통해 실제 공간을 인식할 수 없도록 투명 부재(220, 230)는 불투명한 소재로 형성될 수 있다. 또한, 투명 부재(220, 230)는 디스플레이 모듈(160)로써 기능할 수 있다. 예를 들어, 투명 부재(220, 230)는 정보를 표시하는 디스플레이 패널을 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(200c)는 적어도 하나의 센서(예: 착용 감지 센서, 모션 센서, 터치 센서, 미도시) 및 통신 모듈(미도시)을 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 전자 장치(200c)가 사용자의 신체에 착용여부 및 착용된 자세를 센싱할 수 있다. 예를 들어, 적어도 하나의 센서는 근접 센서 및 그립 센서 중 적어도 하나를 포함할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 움직임으로 인해 발생하는 자세 변화량을 감지할 수 있다. 예를 들어, 적어도 하나의 센서는 가속도 센서 및 자이로 센서를 포함할 수 있다. 가속도 센서가 3축에 대한 가속도를 센싱하고, 자이로 센서가 3축을 기준으로 하는 각속도를 센싱할 수 있다. 일 실시예예 따르면, 적어도 하나의 센서는 사용자의 손가락 터치 및 스와이프(swipe) 행위와 같은 제스처를 감지할 수 있다. 전자 장치(200c)는 적어도 하나의 센서에서 센싱된 터치 데이터에 응답하여, 음악 재생, 중지, 다음 음악 재생, 및 이전 음악 재생 중 적어도 하나 또는 둘 이상의 조합을 포함하는 제어를 수행할 수 있다. 일 실시예예 따르면, 통신 모듈은 무선으로 외부와 통신하는 모듈일 수 있다. 예를 들어, 통신 모듈은 UWB(ultra wide band) 모듈, BT(bluetooth) 네트워크, BLE(Bluetooth low energy) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, ANT+ 네트워크, LTE(long-term evolution) 네트워크, 5G(5th generation) 네트워크, 및 NB-IoT(Narrowband Internet of Things) 네트워크 중 적어도 하나 또는 둘 이상의 조합을 통해 다른 기기 및/또는 AP(Access Point)와 통신을 수립할 수 있다.
다양한 실시예에 따르면, UWB 모듈(예 : 도 3의 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342))은 전자 장치(200c)의 전면부에 위치할 수 있다.
일 실시예에 따르면, UWB 모듈(340)은 적어도 하나의 UWB 안테나를 포함할 수 있다. 예를 들어, 각 UWB 안테나는 직삼각형 형태로 배치될 수 있고, 각 UWB 안테나의 거리가 비슷하도록 배치될 수 있다. 예를 들어, 각 UWB 안테나가 직삼각형으로 배치됨에 대응하여, 각 UWB 안테나 사이에 전방 촬영 카메라 모듈(213)이 배치될 수 있다. 일 실시예에 따르면, UWB 모듈(예: 도 3의 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342))은 전자 장치(200c)의 전면부에 위치한 제1 인식용 카메라 모듈(211-1) 및 제2 인식용 카메라 모듈(211-2)의 주변에 배치될 수 있다.
일 실시예에 따르면, 전자 장치(200c)는 UWB 모듈(340)을 통하여, 외부 전자 장치(예 : 도 3의 외부 전자 장치(500))와의 상대적인 위치 정보(예: 거리, 방향)를 획득할 수 있다. 예를 들어, 전자 장치(200c)는 외부 전자 장치 (500)와의 상대적인 거리가 지정된 값 미만임에 대응하여 전자 장치(200c)의 적어도 일부의 기능을 활성화할 수 있다.
일 실시예에 따르면, 전자 장치(200c)는 시선 추적 카메라 모듈(212-1, 212-2)을 통하여 사용자의 시선 방향을 추적할 수 있고, 추적된 시선 방향에 기반하여 제어하고자 하는 외부 전자 장치(500)를 선택할 수 있다. 일 실시예에 따르면, 전자 장치(200c)는 UWB 모듈(예: 도 3의 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342))을 통하여 사용자의 시선 방향을 결정할 수 있고, 결정된 시선 방향에 기반하여 제어하고자 하는 외부 전자 장치(500)를 선택할 수 있다. 전자 장치(200c)는 UWB 모듈 및 시선 추적 카메라 모듈(212-1, 212-2) 중 적어도 하나를 이용하여 사용자의 시선 방향을 결정할 수 있다.
일 실시예에 따르면, 전자 장치(200c)는 전방 촬영 카메라 모듈(213)을 통하여 획득한 외부 전자 장치(500)의 이미지에 기반하여 외부 전자 장치(500)의 종류를 결정할 수 있고, 외부 전자 장치(500)의 종류에 대응하는 제어 명령을 생성할 수 있다.
일 실시예에 따르면, 전자 장치(200c)는 인식용 카메라 모듈(211-1, 211-2)을 통하여 사용자의 동작을 결정할 수 있고, 결정된 사용자의 동작에 기반하여 제어 명령을 생성할 수 있다.
도 3은, 다양한 실시예에 따른 전자 장치(300)의 구성 및 전자 장치(300)가 제어하는 외부 전자 장치(500)를 도시한 도면이다.
도 3을 참조하면, 전자 장치(300)는 프로세서(310), 통신 모듈(320), 모션 센서(330), UWB 모듈(340)을 포함할 수 있다. 도 3에 포함된 구성 요소는 전자 장치(300)에 포함된 구성들의 일부에 대한 것이며 전자 장치(300)는 이 밖에도 도 1에 도시된 다양한 구성요소를 포함할 수 있다.
다양한 실시예에 따른 통신 모듈(320)은 제 1 네트워크(예 : 도 1의 제 네트워크(198))(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(예 : 도 1의 제 1 네트워크(199))(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(500), 서버 및/또는 외부 모바일 장치(예 : 스마트폰)와 통신할 수 있다. 예를 들어, 통신 모듈(320)은 프로세서(310)가 생성한 제어 명령을 외부 전자 장치(500), 서버 및/또는 외부 모바일 장치(예 : 스마트폰)에 송신할 수 있다.
다양한 실시예에 따른 모션 센서(330)는, 사용자의 움직임과 관련된 동작 신호를 측정할 수 있다. 일 실시예에 따른 모션 센서(330)는, 사용자의 머리 영역에 장착되어 사용자의 머리의 움직임과 관련된 동작 신호를 측정할 수 있다.
일 실시예에 따르면, 모션 센서(330)는 가속도 센서(331) 및/또는 자이로 센서(332)를 포함할 수 있다. 예를 들어, 가속도 센서(331)는 전자 장치(300)의 가속도와 관련된 신호를 측정할 수 있다. 예를 들어, 가속도 센서(331)는 기준 축을 중심으로 roll, pitch, yaw 축의 회전 각도를 측정할 수 있다. 예를 들어, 자이로 센서(332)는 전자 장치(300)의 각속도와 관련된 신호를 측정할 수 있다. 예를 들어, 자이로 센서(332)는 기준 축을 중심으로 roll, pitch, yaw 축의 시간 단위 당 회전 각도의 변화량을 측정할 수 있다.
일 실시예에 따르면, UWB 모듈(340)은 제 1 UWB 모듈(341) 및 제 2 UWB 모듈(342)을 포함할 수 있다.
다양한 실시예에 따른 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)은, UWB(Ultra-Wideband) 무선 통신 방식에 의하여 통신할 수 있다. 본 명세서에서는, 전자 장치(300)가 UWB 통신 방식을 지원하는 것을 가정하고 설명하고 있으나, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)은 외부 전자 장치(500)와의 거리를 측정할 수 있는 다양한 통신 방식을 지원하는 통신 모듈로 대체될 수 있다. 일 실시예예 따르면, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)은 적어도 하나의 UWB 안테나를 포함할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 통하여 외부 전자 장치(500)와의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 전파 진행 시간(ToF, time of flight)에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 상호간의 거리(d)는 수학식 1에 의하여 결정될 수 있다.
Figure PCTKR2022010550-appb-img-000001
여기서, C는 광속(2.997*108 m/s)일 수 있다.
예를 들어, 프로세서(310)는 TDoA(time difference of arrival) 방식에 의하여 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 UWB 태그(tag)로 지정하고 외부 전자 장치(500)를 UWB 앵커(anchor)로 지정하고, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 데이터 패킷을 송신할 때의 시간과, 외부 전자 장치(500)가 상기 데이터 패킷을 수신할 때의 시간의 차이에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 데이터 패킷을 송신할 때의 타임스탬프와, 외부 전자 장치(500)가 데이터 패킷을 수신할 때의 타임스탬프의 시간 차이에 기반하여 수학식 2와 같이 ToF를 결정할 수 있다.
Figure PCTKR2022010550-appb-img-000002
예를 들어, 프로세서(310)는 TWR(two way ranging) 방식에 의하여 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다. 일 실시예에 따르면, 프로세서(310)는 클럭이 동기화되지 않은 UWB 통신이 가능한 외부 전자 장치들 사이에서 TWR(two way ranging) 방식을 이용한 거리와 방향 정보 측정 동작을 수행할 수 있다. TWR 동작은 SS-TWR(single sided two way ranging)과 DS-TWR(double sided two way ranging)으로 구분할 수 있다. 프로세서(310)는 SS-TWR(single sided-two way ranging) 방식과 DS-TWR(double sided-two way ranging) 방식을 통해 거리와 방향 정보 측정 동작을 수행할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 UWB 태그로 지정하고 외부 전자 장치(500) 을 UWB 앵커로 지정하고, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 데이터 패킷을 송신하고 외부 전자 장치(500)로부터 응답을 수신하는 시간에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 데이터 패킷을 송신할때부터 응답을 수신할때까지의 시간(
Figure PCTKR2022010550-appb-img-000003
)과 외부 전자 장치(500)가 데이터 패킷을 수신한때부터 응답을 송신할때까지의 시간(
Figure PCTKR2022010550-appb-img-000004
)에 기반하여 수학식 3과 같이 ToF를 결정할 수 있다.
Figure PCTKR2022010550-appb-img-000005
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)의 통신 신호에 기반하여 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)사이의 상대 각도를 측정할 수 있다. 일 실시예예 따르면, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)은 두개 이상의 UWB 안테나를 포함할 수 있다.
예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 상대 각도(예: AOA(angle of arrival))를 측정할 수 있다. 구체적으로, 프로세서(310)는 외부 전자 장치(500)로부터 송신된 신호를 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나로 획득할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나 각각의 신호 도착 시간과 위상을 획득할 수 있다. 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나가 각각 획득한 신호의 도착 시간과 위상의 차이에 기반하여, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 상대 각도를 결정할 수 있다. 예를 들어, 프로세서(310)는, 상대 각도(θ)를 수학식 4에 의하여 결정할 수 있다.
Figure PCTKR2022010550-appb-img-000006
여기서, d는 제 1 안테나 및 제 2 안테나 사이의 거리, λ는 파장의 길이, α는 제 1 안테나가 획득한 신호의 위상과 제 2 안테나가 획득한 신호의 위상 차이일 수 있다
일 실시예에 따르면, 전자 장치(300)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 포함할 수 있다.
예를 들어, 제 1 UWB 모듈(341)은 전자 장치(300)의 제 1 유닛(예 : 우측 유닛)에 위치할 수 있고, 제 2 UWB 모듈(342)은 전자 장치(300)의 제 2 유닛(예 : 좌측 유닛)에 위치할 수 있다. 예를 들어, 도 2a에서, 제 1 UWB 모듈(341)은 전자 장치(200a)의 제 1 유닛(201)에 위치할 수 있고, 제 2 UWB 모듈(342)은 전자 장치(200a)의 제 2 유닛(202)에 위치할 수 있다. 예를 들어, 도 2b에서, 제 1 UWB 모듈(341)은 전자 장치(200b)의 제 1 장치(203)에 위치할 수 있고, 제 2 UWB 모듈(342)은 전자 장치(200b)의 제 2 장치(204)에 위치할 수 있다. 예를 들어, 도 2c에서, 제 1 UWB 모듈(341)은 전자 장치(200c)의 전면부에 위치한 제1 인식용 카메라 모듈(211-1) 및 제2 인식용 카메라 모듈(211-2)의 주변에 위치할 수 있다.
다양한 실시예에 따른 외부 전자 장치(500)는, 전자 장치(300)와 직/간접적으로 통신할 수 있는 전자 장치를 포함할 수 있다.
일 실시예에 따르면, 외부 전자 장치(500)는 통신 모듈을 포함할 수 있고, 통신 모듈을 통하여 전자 장치(300)의 제어 명령을 직접적으로 및/또는 간접적으로 수신할 수 있다. 예를 들어, 외부 전자 장치(500)는 통신 모듈을 통하여 전자 장치(300)로부터 제어 명령을 직접 수신할 수 있다. 예를 들어, 외부 전자 장치(500)는 통신 모듈을 통하여 서버 및/또는 외부 모바일 장치(예 : 스마트폰)으로부터 전자 장치(300)가 생성한 제어 명령을 간접적으로 수신할 수 있다.
일 실시예에 따르면, 외부 전자 장치(500)는 UWB 모듈을 포함할 수 있고, 전자 장치(300)는 외부 전자 장치(500)의 UWB 모듈을 통하여 외부 전자 장치(500)와의 상대적 거리 및/또는 상대 각도를 측정할 수 있다. 일 실시예에 따르면, 외부 전자 장치(500)는 UWB 악세서리(예: 도 8의 UWB 액세서리(510))와 연결될 수 있고, 전자 장치(300)는 UWB 악세서리(510)를 통하여 외부 전자 장치(500)와의 상대적 거리 및/또는 상대 각도를 측정할 수 있다.
도 4는, 다양한 실시예에 따른 전자 장치(300)가 외부 전자 장치를 제어하는 방법을 도시한 흐름도이다.
다양한 실시예에 따르면, 프로세서(310)는, 동작 410에서, 사용자 동작을 정지 상태로 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는, 모션 센서(330)로부터 사용자의 동작과 관련된 신호를 획득할 수 있다. 예를 들어, 모션 센서(330)는 가속도 센서(331) 및/또는 자이로 센서(332)를 포함할 수 있고, 사용자의 동작과 관련된 신호를 측정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 모션 센서(330)로부터 획득한 신호에 기반하여 사용자의 동작 정보를 획득할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)가 측정한 신호에 기반하여 정지 상태, 상하로 고개를 끄덕이는 동작, 좌우로 고개를 젓는 동작과 같은 사용자의 동작 정보를 획득할 수 있다.
예를 들어, 전자 장치(300)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다. 예를 들어, 전자 장치(300)는 가속도 센서(331)로부터 획득한 가속도 데이터가 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 각속도 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 사용자의 동작을 정지 상태로 결정함에 대응하여, 사용자의 시선 방향을 결정할 수 있다. 예를 들어, 프로세서(310)는 사용자의 동작이 정지 상태라고 확인한 경우에 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 동작시킴으로써 고주파 통신으로 소모 전류가 큰 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 동작을 제한할 수 있고, 이에 따라 전자 장치(300)가 소모하는 전류를 줄일 수 있다. 예를 들어, 프로세서(310)는 사용자의 동작이 정지 상태라고 확인할 경우, 통신 모듈(예: BLE 통신)을 통해 외부 전자 장치(500)로 advertising 메시지를 송신하고, 외부 전자 장치로부터 응답 메시지(예: BLE 패킷 메시지)를 수신할 수 있다. 프로세서(310)는 외부 전자 장치(500)로부터 수신한 응답 메시지를 기반으로 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 활성화시킬 수 있다.
다양한 실시예에 따르면, 프로세서(310)는 인식된 사용자의 동작과 무관하게제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)을 활성화된 상태로 유지할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 동작 420에서, 사용자의 시선 방향을 결정할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342)의 UWB 통신을 이용하여 시선 방향을 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342) 사이의 데이터 송수신 시간(ToF, time of flight)에 기반하여 거리를 측정할 수 있다. 예를 들어, 상호간의 거리(d)는 수학식 1에 의하여 결정될 수 있다.
예를 들어, 프로세서(310)는 TDoA(time difference of arrival) 방식에 의하여 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342) 사이의 거리를 측정할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 제 2 UWB 모듈(342)을 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 시간과, 제 2 UWB 모듈(342)이 상기 데이터 패킷을 수신할 때의 시간의 차이에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 타임스탬프와, 제 2 UWB 모듈(342)이 데이터 패킷을 수신할 때의 타임스탬프의 시간 차이에 기반하여 수학식 2와 같이 ToF를 결정할 수 있다.
예를 들어, 프로세서(310)는 TWR(two way ranging) 방식에 의하여 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342) 사이의 거리를 측정할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 제 2 UWB 모듈(342)을 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신하고 제 2 UWB 모듈(342)로부터 응답을 수신하는 시간에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할때부터 응답을 수신할때까지의 시간(
Figure PCTKR2022010550-appb-img-000007
)과 제 2 UWB 모듈(342)이 데이터 패킷을 수신한때부터 응답을 송신할때까지의 시간(
Figure PCTKR2022010550-appb-img-000008
)에 기반하여 수학식 3과 같이 ToF를 결정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 제조 공정 시에 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342) 사이의 거리를 전자 장치(300)의 메모리(예: 도 1의 메모리(130))에 저장할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341)과 제 2 UWB 모듈(342) 사이의 거리에 기반하여 사용자의 시선 방향을 결정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및 제 2 UWB 모듈(342)을 잇는 가상의 직선에서, 직선의 중심점을 기준으로 가상의 직선에 수직이 되는 방향을 시선 방향으로 결정할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 제 1 UWB 모듈(341), 제 2 UWB 모듈(342) 및 외부 전자 장치(500) 사이의 UWB 통신을 이용하여 시선 방향을 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341)과 외부 전자 장치(500), 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 전파 진행 시간(ToF, time of flight)에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 상호간의 거리(d)는 수학식 1에 의하여 결정될 수 있다.
예를 들어, 프로세서(310)는 TDoA(time difference of arrival) 방식에 의하여 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 외부 전자 장치(500)를 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 시간과, 외부 전자 장치(500)가 상기 데이터 패킷을 수신할 때의 시간의 차이에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 타임스탬프와, 외부 전자 장치(500)기 데이터 패킷을 수신할 때의 타임스탬프의 차이 및 타임스탬프 1개에 대응하는 시간에 기반하여 [수학식 2]와 같이 ToF를 결정할 수 있다. 또한, 프로세서(310)는 동일한 방식으로 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다.
예를 들어, 프로세서(310)는 TWR(two way ranging) 방식에 의하여 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다. 구체적으로, 프로세서(310)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 외부 전자 장치(500)를 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신하고 외부 전자 장치(500)로부터 응답을 수신하는 시간에 기반하여 상호간의 거리를 측정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할때부터 응답을 수신할 때까지의 시간(
Figure PCTKR2022010550-appb-img-000009
)과 외부 전자 장치(500)가 데이터 패킷을 수신한때부터 응답을 송신할 때까지의 시간(
Figure PCTKR2022010550-appb-img-000010
) 에 기반하여 [수학식 3]과 같이 ToF를 결정할 수 있다. 프로세서(310)는 동일한 방식으로 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리를 측정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리 및 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리의 차이에 기반하여 사용자의 시선 방향을 결정할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리와 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리의 차이가 지정된 값 미만임에 대응하여, 사용자의 시선이 외부 전자 장치(500)를 향한다고 결정할 수 있고, 차이가 지정된 값 이상임에 대응하여, 사용자의 시선이 외부 전자 장치(500)를 향하지 않는다고 결정할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 UWB 통신을 이용하여 시선 방향을 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)의 통신 신호에 기반하여 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)사이의 상대 각도를 측정할 수 있다. 일 실시예예 따르면, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)은 두개 이상의 UWB 안테나를 포함할 수 있다.
예를 들어, 프로세서(310)는 AoA(Angle of Arrival) 방식에 의하여 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 상대 각도를 측정할 수 있다. 구체적으로, 프로세서(310)는 외부 전자 장치(500)로부터 송신된 신호를 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나로 획득할 수 있다. 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나 각각은 신호의 도착 시간과 위상을 획득할 수 있다. 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)의 제 1 안테나 및 제 2 안테나가 각각 획득한 신호의 도착 시간과 위상의 차이에 기반하여, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 상대 각도를 측정할 수 있다. 예를 들어, 프로세서(310)는, 상대 각도(θ)를 수학식 4에 의하여 결정할 수 있다.
여기서, d는 제 1 안테나 및 제 2 안테나 사이의 거리, λ는 파장의 길이, α는 제 1 안테나가 획득한 신호의 위상과 제 2 안테나가 획득한 신호의 위상 차이일 수 있다
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)사이의 상대 각도에 기반하여 사용자의 시선 방향을 결정할 수 있다. 예를 들어, 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 하나임에 대응하여, 상대 각도를 사용자의 시선 방향으로 결정할 수 있다. 예를 들어, 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 둘 이상임에 대응하여, 제 1 UWB 모듈(341) 및 제 2 UWB 모듈(342)에서 각각 측정한 외부 전자 장치(500)와의 상대 각도의 차이가 지정된 값 미만임에 대응하여, 사용자의 시선이 외부 전자 장치(500)를 향한다고 결정할 수 있고, 각도의 차이가 지정된 값 이상임에 대응하여 사용자의 시선이 외부 전자 장치(500)를 향하지 않는다고 결정할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 제 1 UWB 모듈(341) 또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)에 연결된 UWB 악세서리(510)의 통신을 이용하여 시선 방향을 결정할 수 있다. 예를 들어, UWB 모듈을 포함하지 않는 외부 전자 장치(500)의 경우에는, UWB 악세서리(510)를 외부 전자 장치(500)에 연결하여 전자 장치(300)와 UWB 통신을 수행할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 동작 430에서, 외부 전자 장치를 선택할 수 있다.
일 실시예에 따르면, 프로세서(310)는 사용자의 시선 방향에 기반하여 외부 전자 장치(500)를 선택할 수 있다. 예를 들어, 프로세서(310)는 사용자의 시선 방향에 위치하는 외부 전자 장치(500)를 선택할 수 있다.
예를 들어, 프로세서(310)는, 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리 및 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리의 차이에 기반하여 사용자의 시선 방향을 결정함에 대응하여, 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리 및 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리의 차이가 지정된 값 미만인 외부 전자 장치(500)를 선택할 수 있다. 예를 들어, 인식되는 외부 전자 장치(500)가 복수개임에 대응하여, 프로세서(310)는 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리 및 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리의 차이가 더 작은 외부 전자 장치(500)를 선택할 수 있다.
예를 들어, 프로세서(310)는 UWB 모듈(340)이 하나이고, UWB 모듈(340)과 외부 전자 장치(500)사이의 상대 각도에 기반하여 사용자의 시선 방향을 결정함에 대응하여, 상대 각도가 90도에서 지정된 범위 내인 외부 전자 장치(500)를 선택할 수 있다. 예를 들어, 인식되는 외부 전자 장치(500)가 복수개임에 대응하여, 프로세서(310)는 상대 각도가 90도에 더 가까운 외부 전자 장치(500)를 선택할 수 있다.
예를 들어, 프로세서(310)는, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 둘 이상이고, 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)과 외부 전자 장치(500)사이의 상대 각도에 기반하여 사용자의 시선 방향을 결정함에 대응하여, 제 1 UWB 모듈(341) 및 제 2 UWB 모듈(342)에서 각각 측정한 외부 전자 장치(500)와의 상대 각도의 차이가 지정된 값 미만인 외부 전자 장치(500)를 선택할 수 있다. 예를 들어, 인식되는 외부 전자 장치(500)가 복수개임에 대응하여, 프로세서(310)는 상대 각도의 차이가 더 작은 외부 전자 장치(500)를 선택할 수 있다.
일 실시예에 따르면, 프로세서(310)는 인식되는 외부 전자 장치(501,502)가 복수개임에 대응하여, 사용자의 동작에 기반하여 외부 전자 장치(501,502)를 선택할 수 있다. 예를 들어, 프로세서(310)는 상대적 거리가 가까운 제 1 외부 전자 장치(501)를 먼저 선택하고, 사용자의 동작(예 : 좌우로 고개를 젓는 동작)에 기반하여 제 2 외부 전자 장치(502)를 선택할 수 있다.
다양한 실시예예 따르면, 프로세서(310)는, 동작 440에서, 사용자의 동작을 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는, 모션 센서(330)로부터 사용자의 동작과 관련된 신호를 획득할 수 있다. 예를 들어, 모션 센서(330)는 가속도 센서(331) 및/또는 자이로 센서(332)를 포함할 수 있고, 사용자의 동작과 관련된 신호를 측정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 모션 센서(330)로부터 획득한 신호에 기반하여 사용자의 동작 정보를 획득할 수 있다. 예를 들어, 프로세서(310)는 모션 센서(330)가 측정한 신호에 기반하여 정지 상태, 상하로 고개를 끄덕이는 동작, 좌우로 고개를 젓는 동작과 같은 사용자의 동작 정보를 획득할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다. 예를 들어, 프로세서(310)는 가속도 센서(331)로부터 획득한 가속도 데이터가 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 각속도 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 범위에 포함됨에 대응하여, 사용자의 동작을 상하로 고개를 끄덕이는 동작으로 결정할 수 있다. 예를 들어, 프로세서(310)는 가속도 센서(331)로부터 획득한 피치(pitch)축의 회전각이 지정된 범위에 포함되고, 롤(roll), 야(yaw) 축의 회전각이 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 피치(pitch)축의 각속도 데이터가 지정된 값 이상임에 대응하여, 사용자의 동작을 고개를 끄덕이는 동작으로 결정할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 범위에 포함됨에 대응하여, 사용자의 동작을 좌우로 고개를 젓는 동작으로 결정할 수 있다. 예를 들어, 프로세서(310)는 가속도 센서(331)로부터 획득한 야(yaw)축의 회전각이 지정된 범위에 포함되고, 롤(roll), 피치(roll) 축의 회전각이 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 야(yaw)축의 각속도 데이터가 지정된 값 이상임에 대응하여, 사용자의 동작을 좌우로 고개를 젓는 동작으로 결정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 측정한 데이터에 기반하여 사용자의 동작 정보를 획득할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 측정한 외부 전자 장치(500)와의 상대적 거리에 기반하여 외부 전자 장치(500)와 가까워지는 동작, 멀어지는 동작과 같은 사용자의 동작 정보를 획득할 수 있다.
예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)로부터 획득한 상대적 거리가 줄어드는 경우에 사용자의 동작을 가까워지기로 결정하고, 상대적 거리가 늘어나는 경우에 사용자의 동작을 멀어지기로 결정할 수 있다.
다양한 실시예에 따르면, 프로세서(310)는, 동작 450에서, 외부 전자 장치를 제어할 수 있다.
일 실시예에 따르면, 프로세서(310)는 사용자의 동작에 기반하여, 제어 명령을 생성할 수 있다.
예를 들어, 프로세서(310)는 사용자의 동작이 정지 상태임에 대응하여, 정지상태인 시간 동안 외부 전자 장치(500)에서 지정된 동작을 반복적으로 수행하는 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 외부 전자 장치(500)에서 출력되는 채널 번호를 반복적으로 변경하도록 하는 명령을 생성할 수 있다.
예를 들어, 프로세서(310)는 사용자의 동작이 상하로 고개를 끄덕이는 동작임에 대응하여, 외부 전자 장치(500)에서 선택된 기능을 실행하도록 하는 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 외부 전자 장치(500)를 선택함에 기반하여 외부 전자 장치(500)로 미러링을 수행할 것인지에 대한 알림을 외부 전자 장치(500)에 디스플레이할 수 있고, 사용자의 상하로 고개를 끄덕이는 동작에 대응하여 외부 전자 장치(500)로의 미러링 기능을 수행할 수 있다.
예를 들어, 프로세서(310)는 사용자의 동작이 좌우로 고개를 젓는 동작임에 대응하여, 외부 전자 장치(500)에서 선택된 기능을 중지 또는 취소하도록 하는 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 외부 전자 장치(500)를 선택함에 기반하여 외부 전자 장치(500)로 미러링을 수행할 것인지에 대한 알림을 외부 전자 장치(500)에 디스플레이할 수 있고, 사용자의 좌우로 고개를 젓는 동작에 대응하여 외부 전자 장치(500)로의 미러링 기능을 취소할 수 있다.
예를 들어, 프로세서(310)는 사용자와 외부 전자 장치(500)와의 거리 변화에 기반하여 외부 전자 장치(500)를 제어할 수 있다. 예를 들어, 프로세서(310)는 사용자가 외부 전자 장치(500)와 멀어지는 동작함에 대응하여, 외부 전자 장치(500)에서 출력되는 스피커의 음량을 줄이는 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 사용자가 외부 전자 장치(500)와 가까워지는 동작함에 대응하여, 외부 전자 장치(500)에서 출력되는 스피커의 음량을 키우는 명령을 생성할 수 있다.
예를 들어, 프로세서(310)는 사용자의 터치 및 스와이프(swipe)와 같은 제스처에 기반하여, 제어 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 제 1 유닛(예 : 도 2a의 제 1 유닛(201), 도 2b의 제 1 장치(203), 도 2c의 제 1 힌지부(240-1) )에 포함된 터치 센서로 사용자로부터 입력된 터치 입력에 응답하여 미디어 되감기 기능을 수행하고, 제 2 유닛(예 : 도 2a의 제 2 유닛(202), 도 2b의 제 2 장치(204), 도 2c의 제 2 힌지부(240-2))에 포함된 터치 센서로 입력된 터치 입력에 응답하여 미디어 빨리 감기 기능을 수행할 수 있다. 예를 들어, 프로세서(310)는 제 1 유닛(예 : 도 2a의 제 1 유닛(201), 도 2b의 제 1 장치(203), 도 2c의 제 1 힌지부(240-1))에 포함된 터치 센서 또는 제 2 유닛(예 : 도 2a의 제 2 유닛(202), 도 2b의 제 2 장치(204), 도 2c의 제 2 힌지부(240-2))에 포함된 터치 센서로 입력된 사용자의 터치 회수에 기반하여 제어 명령을 생성할 수 있다. 예를 들어, 프로세서(310)는 1회 터치에 응답하여 미디어 재생 정지 기능을 수행하고, 2회 터치에 응답하여 이전 미디어 재생 기능을 수행하고, 3회 터치에 응답하여 다음 미디어 재생 기능을 수행할 수 있다. 예를 들어, 프로세서(310) 제 1 유닛(예 : 도 2a의 제 1 유닛(201), 도 2b의 제 1 장치(203), 도 2c의 제 1 힌지부(240-1) )에 포함된 터치 센서 또는 제 2 유닛(예 : 도 2a의 제 2 유닛(202), 도 2b의 제 2 장치(204), 도 2c의 제 2 힌지부(240-2))에 포함된 터치 센서로 입력된 스와이프 입력에 응답하여 멀티 미디어의 재생, 중지, 다음 미디어 재생, 및 이전 미디어 재생 중 적어도 하나 또는 둘 이상의 조합을 포함하는 제어를 수행할 수 있다.
일 실시예에 따르면, 프로세서(310)는 통신 모듈(320)을 통하여 직접적으로 및/또는 간접적으로 제어 명령을 외부 전자 장치(500)로 송신할 수 있다
예를 들어, 프로세서(310)는 통신 모듈(320)이 네트워크(예 : 도 1의 제1네트워크(198) 및/또는 제2네트워크(199))를 통하여 외부 전자 장치(500)로 제어 명령을 송신하도록 통신 모듈(320)을 제어할 수 있다.
예를 들어, 프로세서(310)는 통신 모듈(320)이 네트워크를 통하여 서버 및/또는 외부 모바일 장치(예 : 스마트폰)으로 제어 명령을 송신하도록 통신 모듈(320)을 제어할 수 있다. 예를 들어, 전자 장치(300)로부터 명령을 수신한 서버 및/또는 외부 모바일 장치는 제어 명령을 외부 전자 장치(500)로 송신할 수 있다.
일 실시예에 따르면, 프로세서(310)는 외부 전자 장치(500)로 송신하는 제어 명령을 사용자로부터 입력받을 수 있다. 예를 들어, 프로세서(310)는 사용자에게 사용자 동작에 대응하는 제어 명령을 입력할 수 있는 UI(user interface)를 제공하고, 사용자로부터 제어 명령을 입력받아 메모리에 저장할 수 있다. 예를 들어, 프로세서(310)는 인식한 사용자의 동작에 대응하는 제어 명령을 메모리로부터 획득하여, 외부 전자 장치(500)에 송신할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 통신 모듈(320)을 이용하여 근거리 네트워크(예 : 블루투스, wifi)를 통해 모바일 장치(예: 스마트폰)과 연결될 수 있다. 예를 들어, 프로세서(310)는 통신 모듈(320)을 통하여 제어 명령을 모바일 장치에 송신하거나 및/또는 미디어의 오디오를 전자 장치(300)에서 출력하도록 하는 신호를 모바일 장치로부터 수신할 수 있다.
일 실시예에 따르면, 프로세서(310)는 통신 모듈(320)을 통하여 선택한 외부 전자 장치(500)와 관련된 정보를 모바일 장치에 송신할 수 있다. 예를 들어, 모바일 장치는 외부 전자 장치(500)와 근거리 네트워크(예 : 블루투스, wifi)를 통하여 연결될 수 있다. 예를 들어, 모바일 장치는 미디어의 영상 및/또는 오디오를 외부 전자 장치(500)에서 출력하도록 하는 신호를 외부 전자 장치(500)에 송신할 수 있다.
일 실시예에 따르면, 모바일 장치는, 전자 장치(300)로부터 선택한 외부 전자 장치(500)와 관련된 정보를 수신함에 대응하여, 미디어의 오디오 및/또는 영상을 출력할 장치를 선택하여 출력 신호를 선택한 장치에 송신할 수 있다. 예를 들어, 모바일 장치는, 전자 장치(300)로부터 선택한 외부 전자 장치(500)와 관련된 정보를 수신함에 대응하여, 미디어의 오디오를 출력하도록 하는 신호를 전자 장치(300)에 송신하고, 미디어의 영상을 출력하도록 하는 신호를 외부 전자 장치(500)에 송신할 수 있다. 다른 예를 들어, 모바일 장치는, 전자 장치(300)로부터 선택한 외부 전자 장치(500)와 관련된 정보를 수신함에 대응하여, 미디어의 오디오 및 영상을 출력하도록 하는 신호를 외부 전자 장치(500)에 송신할 수 있다. 이 경우에, 예를 들어, 모바일 장치는 전자 장치(300)가 외부 전자 장치(500)와 근거리 네트워크(예 : 블루투스, wifi)로 연결되도록 외부 전자 장치(500)에 전자 장치(300)와 관련된 정보(예 : 계정에 등록된 전자 장치(300)의 정보)를 송신할 수 있다. 이 경우에, 외부 전자 장치(500)는 전자 장치(300)와 관련된 정보에 기반하여 전자 장치(300)와 근거리 네트워크(예 : 블루투스, wifi)를 통하여 연결될 수 있다.
도 5는, 다양한 실시예에 따른 전자 장치(300)가 사용자의 시선 방향을 결정하는 동작을 설명하기 위하여 도시한 도면이다.
그림 (a)는 사용자의 시선이 외부 전자 장치(500)를 향하는 경우의 예시를 도시한 도면이고, 그림 (b) 및 그림 (c)는 사용자의 시선이 외부 전자 장치(500)를 향하지 않는 경우의 예시를 도시한 도면이다.
일 실시예에 따르면, 제 1 UWB 모듈(341)은 전자 장치(300, 예 : 헤드셋)의 우측 유닛, 제 2 UWB 모듈(342)은 전자 장치(300)의 좌측 유닛에 위치할 수 있다. 예를 들어, 전자 장치(300)는 사용자의 머리에 착용하고, 제 1 UWB 모듈(341)을 포함하는 우측 유닛을 오른쪽 귀에, 제 2 UWB 모듈(342)을 포함하는 좌측 유닛을 왼쪽 귀에 착용하므로, 사용자의 시선 방향은 제 1 UWB 모듈(341) 및 제 2 UWB 모듈(342)을 잇는 가상의 직선(z)에서, 직선의 중심점을 기준으로 가상의 직선에 수직이 되는 방향과 일치할 수 있다.
다양한 실시예에 따르면, 전자 장치(300)는, 제 1 UWB 모듈(341), 제 2 UWB 모듈(342) 및 외부 전자 장치(500) 사이의 UWB 통신을 이용하여 시선 방향을 결정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 제 1 UWB 모듈(341)과 외부 전자 장치(500), 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 전파 진행 시간(ToF, time of flight)에 기반하여 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리(x), 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리(y)를 측정할 수 있다. 예를 들어, 상호간의 거리(x, y)는 수학식 1에 의하여 결정될 수 있다.
예를 들어, 전자 장치(300)는 TDoA(time difference of arrival) 방식에 의하여 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리(x)를 측정할 수 있다. 구체적으로, 전자 장치(300)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 외부 전자 장치(500)를 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 시간과, 외부 전자 장치(500)가 상기 데이터를 수신할 때의 시간의 차이에 기반하여 상호간의 거리(x)를 측정할 수 있다. 예를 들어, 전자 장치(300)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할 때의 타임스탬프와, 외부 전자 장치(500)기 데이터 패킷을 수신할 때의 타임스탬프의 시간 차이에 기반하여 [수학식 2]와 같이 ToF를 결정할 수 있다. 또한, 전자 장치(300)는 는 동일한 방식으로 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리(y)를 측정할 수 있다.
예를 들어, 전자 장치(300)는 TWR(two way ranging) 방식에 의하여 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리(x)를 측정할 수 있다. 구체적으로, 전자 장치(300)는 제 1 UWB 모듈(341)을 UWB 태그로 지정하고 외부 전자 장치(500)를 UWB 앵커로 지정하고, 제 1 UWB 모듈(341)이 데이터 패킷을 송신하고 외부 전자 장치(500)로부터 응답을 수신하는 시간에 기반하여 상호간의 거리(x)를 측정할 수 있다. 예를 들어, 전자 장치(300)는 제 1 UWB 모듈(341)이 데이터 패킷을 송신할때부터 응답을 수신할 때까지의 시간(
Figure PCTKR2022010550-appb-img-000011
)과 외부 전자 장치(500)가 데이터 패킷을 수신한때부터 응답을 송신할 때까지의 시간(
Figure PCTKR2022010550-appb-img-000012
)에 기반하여 [수학식 3]과 같이 ToF를 결정할 수 있다. 전자 장치(300)는 동일한 방식으로 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리(y)를 측정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 제 1 UWB 모듈(341)과 외부 전자 장치(500) 사이의 거리(x) 및 제 2 UWB 모듈(342)과 외부 전자 장치(500) 사이의 거리(y)의 차이에 기반하여 사용자의 시선 방향을 결정할 수 있다. 예를 들어, 전자 장치(300)는 x와 y의 차이가 지정된 값 미만임에 대응하여, 사용자의 시선이 외부 전자 장치(500)를 향한다고 결정할 수 있고, x와 y의 차이가 지정된 값 이상임에 대응하여, 사용자의 시선이 외부 전자 장치(500)를 향하지 않는다고 결정할 수 있다.
그림 (a)를 참조하면, 사용자의 시선이 외부 전자 장치(500)를 향해 있고, x와 y는 길이가 일치하므로, x와 y의 차이는 0이다.
그림 (b)와 (c)를 참조하면, 사용자의 시선이 외부 전자 장치(500)를 향해있지 않고, 외부 전자 장치(500)는 사용자의 시선에서 우측(사용자 관점)에 위치하므로, 제 1 UWB 모듈(341)과 외부 전자 장치(500)의 거리(x)가 제 2 UWB 모듈(342)과 외부 전자 장치(500)의 거리(y) 보다 짧다. 따라서 x와 y의 차이가 발생하고, 이 차이는 외부 전자 장치(500)가 사용자의 시선에서 멀수록 크게 발생한다. 예를 들어, 그림 (c)에서의 x와 y의 차이는 그림 (b)에서의 x와 y의 차이보다 크다.
도 6은, 다양한 실시예에 따른 전자 장치(300)가 외부 전자 장치를 선택하는 동작을 설명하기 위하여 도시한 도면이다.
그림 (a)는 전자 장치(300)가 제 1 외부 전자 장치(501)를 선택하는 경우의 예시를 도시한 도면이고, 그림 (b)는 전자 장치(300)가 제 2 외부 전자 장치(502)를 선택하는 경우의 예시를 도시한 도면이다.
다양한 실시예에 따르면, 전자 장치(300)는 사용자의 시선 방향에 기반하여 외부 전자 장치(501, 502)를 선택할 수 있다. 예를 들어, 전자 장치(300)는 사용자의 시선 방향에 위치하는 외부 전자 장치(501, 502)를 선택할 수 있다.
예를 들어, 전자 장치(300)는, 제 1 UWB 모듈(341)과 외부 전자 장치(501, 502) 사이의 거리(x1, x2) 및 제 2 UWB 모듈(342)과 외부 전자 장치(501, 502) 사이의 거리(y1, y2)의 차이에 기반하여 사용자의 시선 방향을 결정함에 대응하여, 제 1 UWB 모듈(341)과 외부 전자 장치(501, 502) 사이의 거리(x1, x2) 및 제 2 UWB 모듈(342)과 외부 전자 장치(501, 502) 사이의 거리(y1, y2)의 차이가 지정된 값 미만인 외부 전자 장치(501, 502)를 선택할 수 있다.
예를 들어, 인식되는 외부 전자 장치(501, 502)가 복수개임에 대응하여, 전자 장치(300)는 제 1 UWB 모듈(341)과 외부 전자 장치(501, 502) 사이의 거리(x1, x2) 및 제 2 UWB 모듈(342)과 외부 전자 장치(501, 502) 사이의 거리(y1, y2)의 차이가 더 작은 외부 전자 장치(501, 502)를 선택할 수 있다.
그림 (a)를 참조하면, 사용자의 시선이 제 1 외부 전자 장치(501)를 향하여, 제 1 외부 전자 장치(501)에 대한 x1과 y1의 값이 같은 반면(x1=y1), 제 2 외부 전자 장치(502)에 대한 x2과 y2의 값은 차이(y2>x2)가 있다. 따라서 전자 장치(300)는 거리의 차이가 더 작은(|x1-y1|<|x2-y2|) 제 1 외부 전자 장치(501)를 선택할 수 있다.
그림 (b)를 참조하면, 사용자의 시선이 제 2 외부 전자 장치(502)를 향하여, 제 2 외부 전자 장치(502)에 대한 x2과 y2의 값이 같은 반면(x2=y2), 제 1 외부 전자 장치(501)에 대한 x1과 y1의 값은 차이가 있다(x1>y1). 따라서 전자 장치(300)는 거리의 차이(|x1-y1|>|x2-y2|)가 더 작은 제 2 외부 전자 장치(502)를 선택할 수 있다.
도 7a, 도 7b 및 7c는, 다양한 실시예에 따른 전자 장치(300)가 외부 전자 장치(500)를 제어하는 동작을 도시한 도면이다.
도 7a는 다양한 실시예에 따른 전자 장치(300)가 사용자의 외부 전자 장치(500)를 주시하는 동작(정지 상태)에 대응하여, 외부 전자 장치(500)를 제어하는 동작의 예시를 도시한 도면이다.
일 실시예에 따르면, 전자 장치(300)는, 모션 센서(330)로부터 사용자의 동작과 관련된 신호를 획득할 수 있다. 예를 들어, 모션 센서(330)는 가속도 센서(331) 및/또는 자이로 센서(332)를 포함할 수 있고, 사용자의 동작과 관련된 신호를 측정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 모션 센서(330)로부터 획득한 신호에 기반하여 사용자의 동작 정보를 획득할 수 있다. 예를 들어, 전자 장치(300)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다. 예를 들어, 전자 장치(300)는 가속도 센서(331)로부터 획득한 가속도의 변화량 데이터가 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 각속도 데이터가 지정된 값 미만임에 대응하여, 사용자의 동작을 정지 상태로 결정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 동작에 기반하여, 제어 명령을 외부 전자 장치(500)에 송신할 수 있다. 예를 들어, 전자 장치(300)는 사용자의 동작이 정지 상태임에 대응하여, 정지외부상태인 시간 동안 전자 장치(500)에서 출력되는 채널을 변경하도록 하는 명령을 외부 전자 장치(500)에 송신할 수 있다.
그림 (a)와 (b)를 참조하면, 사용자가 외부 전자 장치(500)를 주시하여 동작이 정지 상태임에 대응하여, 전자 장치(300)는 외부 전자 장치(500)의 채널을 반복적으로 변경하는 명령을 외부 전자 장치(500)에 송신할 수 있다.
도 7b는 다양한 실시예에 따른 전자 장치(300)가 사용자의 상하로 고개를 끄덕이는 동작이나 좌우로 고개를 젓는 동작에 대응하여 외부 전자 장치(500)를 제어하는 동작의 예시를 도시한 도면이다.
일 실시예에 따르면, 프로세서(310)는, 모션 센서(330)로부터 사용자의 동작과 관련된 신호를 획득할 수 있다. 예를 들어, 모션 센서(330)는 가속도 센서(331) 및/또는 자이로 센서(332)를 포함할 수 있고, 사용자의 동작과 관련된 신호를 측정할 수 있다.
일 실시예에 따르면, 프로세서(310)는 모션 센서(330)로부터 획득한 신호에 기반하여 사용자의 동작 정보를 획득할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 범위에 포함됨에 대응하여, 사용자의 동작을 상하로 고개를 끄덕이는 동작으로 결정할 수 있다. 예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 피치(pitch)축의 회전각이 지정된 범위에 포함되고, 롤(roll), 야(yaw) 축의 회전각이 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 피치(pitch) 축의 각속도 데이터가 지정된 값 이상임에 대응하여, 사용자의 동작을 고개를 끄덕이는 동작으로 결정할 수 있다.
예를 들어, 프로세서(310)는 모션 센서(330)로부터 획득한 신호와 관련된 데이터가 지정된 범위에 포함됨에 대응하여, 사용자의 동작을 좌우로 고개를 젓는 동작으로 결정할 수 있다. 예를 들어, 프로세서(310)는 가속도 센서(331)로부터 획득한 야(yaw)축의 회전각이 지정된 범위에 포함되고, 롤(roll), 피치(roll) 축의 회전각이 지정된 값 미만이고, 자이로 센서(332)로부터 획득한 야(yaw) 축의 각속도 데이터가 지정된 값 이상임에 대응하여, 사용자의 동작을 좌우로 고개를 젓는 동작으로 결정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 동작에 기반하여, 제어 명령을 외부 전자 장치(500)에 송신할 수 있다.
그림 (a)를 참조하면, 전자 장치(300)는 사용자의 동작이 상하로 고개를 끄덕이는 동작임에 대응하여, 외부 전자 장치(500)에서 선택된 기능을 실행(예 : 그림 (a) 의 “티비를 종료하시겠습니까?” - 예)하도록 하는 명령을 외부 전자 장치(500)에 송신할 수 있다.
그림 (b)를 참조하면, 전자 장치(300)는 사용자의 동작이 좌우로 고개를 젓는동작임에 대응하여, 외부 전자 장치(500)에서 선택된 기능을 중지(예 : 그림 (a) 의 “티비를 종료하시겠습니까?” -아니오)하도록 하는 명령을 외부 전자 장치(500)에 송신할 수 있다.
도 7c는 다양한 실시예에 따른 전자 장치(300)가 사용자의 외부 전자 장치(500)에 가까워지거나 멀어지는 동작에 대응하여 외부 전자 장치(500)와 관련된 설정을 제어하는 동작의 예시를 도시한 도면이다.
일 실시예에 따르면, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 측정한 신호에 기반하여 사용자의 동작 정보를 획득할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)이 측정한 외부 전자 장치(500)와의 상대적 거리에 기반하여 외부 전자 장치(500)와 가까워지는 동작, 또는 멀어지는 동작와 같은 사용자의 동작 정보를 획득할 수 있다. 예를 들어, 프로세서(310)는 제 1 UWB 모듈(341) 및/또는 제 2 UWB 모듈(342)로부터 획득한 상대적 거리가 줄어드는 경우에 사용자의 동작을 가까워지기로 결정하고, 상대적 거리가 늘어나는 경우에 사용자의 동작을 멀어지기로 결정할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 동작에 기반하여, 외부 전자 장치(500)와 관련된 설정을 제어할 수 있다.
그림 (a)를 참조하면, 전자 장치(300)는 사용자의 동작이 외부 전자 장치(500)와 멀어지기임에 대응하여, 외부 전자 장치(500)에서 출력되는 미디어에 대응하고, 전자 장치(300)의 스피커에서 출력되는 음량을 줄이도록 스피커를 제어할 수 있다.
그림 (b)를 참조하면, 전자 장치(300)는 사용자의 동작이 외부 전자 장치(500)와 가까워지기임에 대응하여, 외부 전자 장치(500)에서 출력되는 미디어에 대응되고, 전자 장치(300)의 스피커에서 출력되는 음량을 키우도록 스피커를 제어할 수 있다.
다른 실시예에 따르면, 전자 장치(300)는 사용자의 동작이 외부 전자 장치(500)와 가까워지기임에 대응하여, 외부 전자 장치(500)에서 출력되는 화면과 관련된 설정을 변경하는 명령(예 : 해상도, 밝기를 높이는 명령)을 외부 전자 장치(500)에 송신할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 동작이 외부 전자 장치(500)와 멀어지기임에 대응하여, 외부 전자 장치(500)에서 출력되는 화면과 관련된 설정을 변경하는 명령(예 : 해상도, 밝기를 낮추는 명령)을 외부 전자 장치(500)에 송신할 수 있다.도 8은, 다양한 실시예에 따른 외부 전자 장치(500)를 도시한 도면이다.
일 실시예에 따른 외부 전자 장치(500)는, UWB 모듈을 포함할 수 있다. 다른 실시예에 따른 외부 전자 장치(500)는 UWB 모듈을 포함하지 않을 수도 있다.
그림 (a) 및 그림 (b)를 참조하면, UWB 모듈을 포함하지 않는 외부 전자 장치(500)의 경우에는, UWB 악세서리(510)를 외부 전자 장치(500)에 연결하여 전자 장치(300)와 UWB 통신을 수행할 수 있다.
UWB 악세서리(510)는 그림 (a)와 같이 외부 전자 장치(500)의 뒷면에 부착할 수 있고, 및/또는 그림 (b)와 같이 외부 전자 장치(500)의 윗면에 부착할 수도 있다. UWB 악세서리(510)와 외부 전자 장치(500)의 결합은 도 8에서 개시에 한정되지 않으며, 이 외에도 다양한 형태의 UWB 통신이 가능한 외부 전자 장치(500)가 본 발명의 대상이 될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)는, 통신 모듈(320), 제 1 UWB 모듈(341), 제 2 UWB 모듈(342), 및 상기 통신 모듈(320), 상기 제 1 UWB 모듈(341) 및 상기 제 2 UWB 모듈(342)과 작동적으로 연결되는 프로세서(310)를 포함하고, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)로부터 획득한 데이터 및 상기 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고, 상기 시선 방향에 위치하는 외부 전자 장치(500) 중에서 적어도 하나를 선택하고, 상기 통신 모듈(320)을 통하여 상기 선택된 외부 전자 장치(500)에 미디어를 출력하는 요청을 송신할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 사용자의 동작과 관련된 데이터를 측정하는 모션 센서(330)를 더 포함하고, 상기 프로세서(310)는 상기 모션 센서(330)로부터 획득한 데이터에 기반하여 사용자의 동작을 결정하고, 상기 사용자의 동작에 기반하여 제어 명령을 생성하고, 상기 제어 명령에 기반하여 상기 외부 전자 장치(500)에 상기 통신 모듈(320)을 통하여 상기 제어 명령을 송신할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 모션 센서(330)로부터 획득한 데이터에 기반하여 상기 사용자의 동작이 정지 상태라고 결정함에 대응하여, 상기 제 1 UWB 모듈(341)로부터 획득한 데이터 및 상기 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342) 사이의 거리를 획득하고, 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342)의 중심점을 기준으로 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342)을 연결한 가상의 직선에 수직이 되는 방향을 상기 사용자의 시선 방향으로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리 및 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리를 획득하고, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도를 획득하고, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도가 90도에서 지정된 범위 내임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도 및 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 각도를 획득하고, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 각도의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 시선 방향에 위치하는 상기 외부 전자 장치(500)가 복수 개임에 대응하여, 상기 외부 전자 장치(500) 중에서 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리의 차이가 더 작은 외부 전자 장치(500)를 선택할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 터치 센서를 더 포함하고, 상기 프로세서(310)는 상기 모션 센서(330) 또는 상기 터치 센서로부터 획득한 데이터에 기반하여 정지 동작, 상하로 고개를 끄덕이는 동작, 좌우로 고개를 젓는 동작, 터치 동작 및 스와이프 동작을 포함하는 사용자의 동작을 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 사용자의 동작이 상하로 고개를 끄덕이는데 대응하여, 상기 외부 전자 장치(500)에 선택된 기능을 실행하는 제어 명령을 생성하고, 상기 사용자의 동작이 좌우로 고개를 젓는 동작임에 대응하여, 상기 외부 전자 장치(500)의 선택된 기능을 취소하는 제어 명령을 생성할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)에서, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)로부터 획득한 데이터 및 상기 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 상기 외부 전자 장치(500)에 가까워지는 동작 및 멀어지는 동작을 포함하는 사용자의 동작을 결정할 수 있다.
본 발명의 다양한 실시예에 따른 미디어를 출력하는 모바일 장치와 연결된 전자 장치(300)는, 통신 모듈(320), 제 1 UWB 모듈(341), 제 2 UWB 모듈(342), 및 상기 통신 모듈(320), 상기 제 1 UWB 모듈(341) 및 상기 제 2 UWB 모듈(342)과 작동적으로 연결되는 프로세서(310)를 포함하고, 상기 프로세서(310)는 상기 제 1 UWB 모듈(341)로부터 획득한 데이터 및 상기 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고, 상기 시선 방향에 위치하는 외부 전자 장치(500) 중에서 적어도 하나를 선택하고, 상기 통신 모듈(320)을 통하여 상기 선택된 외부 전자 장치(500)에 상기 모바일 장치에서 출력하는 상기 미디어를 출력하도록 하는 요청을 송신할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법은, 제 1 UWB 모듈(341)로부터 획득한 데이터 및 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는 동작, 상기 시선 방향에 위치하는 외부 전자 장치(500) 중에서 적어도 하나를 선택하는 동작, 및 상기 선택된 외부 전자 장치(500)에 미디어를 출력하는 요청을 송신하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 션 센서로부터 획득한 데이터에 기반하여 사용자의 동작을 결정하는 동작, 상기 사용자의 동작에 기반하여 제어 명령을 생성하는 동작, 및 상기 제어 명령에 기반하여 상기 외부 전자 장치(500)에 상기 제어 명령을 송신하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 모션 센서(330)로부터 획득한 데이터에 기반하여 상기 사용자의 동작이 정지 상태라고 결정함에 대응하여, 상기 제 1 UWB 모듈(341)로부터 획득한 데이터 및 상기 제 2 UWB 모듈(342)로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342) 사이의 거리를 획득하는 동작, 및 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342)의 중심점을 기준으로 상기 제 1 UWB 모듈(341)과 상기 제 2 UWB 모듈(342)을 연결한 가상의 직선에 수직이 되는 방향을 상기 사용자의 시선 방향으로 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리 및 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리를 획득하는 동작, 및 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도를 획득하는 동작, 및 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도가 90도에서 지정된 범위 내임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도 및 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 각도를 획득하는 동작, 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 각도와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 각도의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치(500)의 방향을 상기 사용자의 시선 방향으로 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(300)의 동작 방법에서, 상기 시선 방향에 위치하는 상기 외부 전자 장치(500)가 복수 개임에 대응하여, 상기 외부 전자 장치(500) 중에서 상기 제 1 UWB 모듈(341)과 상기 외부 전자 장치(500)의 상대적인 거리와 상기 제 2 UWB 모듈(342)과 상기 외부 전자 장치(500)의 상대적인 거리의 차이가 더 작은 외부 전자 장치(500)를 선택하는 동작을 포함할 수 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    통신 모듈;
    제 1 UWB 모듈;
    제 2 UWB 모듈; 및
    상기 통신 모듈, 상기 제 1 UWB 모듈 및 상기 제 2 UWB 모듈과 작동적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는
    상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고,
    상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하고,
    상기 통신 모듈을 통하여 상기 선택된 적어도 하나의 외부 전자 장치에 미디어를 출력하는 요청을 송신하는전자 장치.
  2. 제 1 항에 있어서,
    사용자의 동작과 관련된 데이터를 측정하는 모션 센서를 더 포함하고,
    상기 프로세서는
    상기 모션 센서로부터 획득한 데이터에 기반하여 사용자의 동작을 결정하고,
    상기 사용자의 동작에 기반하여 제어 명령을 생성하고,
    상기 제어 명령에 기반하여 상기 외부 전자 장치에 상기 통신 모듈을 통하여 상기 제어 명령을 송신하는
    전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는
    상기 모션 센서로부터 획득한 데이터에 기반하여 상기 사용자의 동작이 정지 상태라고 결정함에 대응하여, 상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는
    전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는
    상기 제 1 UWB 모듈과 상기 제 2 UWB 모듈 사이의 거리를 획득하고,
    상기 제 1 UWB 모듈과 상기 제 2 UWB 모듈의 중심점을 기준으로 상기 제 1 UWB 모듈과 상기 제 2 UWB 모듈을 연결한 가상의 직선에 수직이 되는 방향을
    상기 사용자의 시선 방향으로 결정하는
    전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리 및
    상기 제 2 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리를 획득하고,
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리와
    상기 제 2 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치의 방향을 상기 사용자의 시선 방향으로 결정하는
    전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도를 획득하고,
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도가 90도에서 지정된 범위 내임에 대응하여, 상기 외부 전자 장치의 방향을 상기 사용자의 시선 방향으로 결정하는
    전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도 및
    상기 제 2 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도를 획득하고,
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도와
    상기 제 2 UWB 모듈과 상기 외부 전자 장치의 상대적인 각도의 차이가 지정된 값 미만임에 대응하여, 상기 외부 전자 장치의 방향을 상기 사용자의 시선 방향으로 결정하는
    전자 장치.
  8. 제5항에 있어서,
    상기 프로세서는
    상기 시선 방향에 위치하는 상기 외부 전자 장치가 복수개임에 대응하여,
    상기 외부 전자 장치 중에서
    상기 제 1 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리와
    상기 제 2 UWB 모듈과 상기 외부 전자 장치의 상대적인 거리의 차이가 더 작은 외부 전자 장치를 선택하는
    전자 장치.
  9. 제2항에 있어서,
    터치 센서;를 더 포함하고,
    상기 프로세서는
    상기 모션 센서 또는 상기 터치 센서로부터 획득한 데이터에 기반하여
    정지 동작, 상하로 고개를 끄덕이는 동작, 좌우로 고개를 젓는 동작, 터치 동작 및 스와이프 동작을 포함하는 사용자의 동작을 결정하는
    전자 장치.
  10. 제 9 항에 있어서,
    상기 프로세서는
    상기 사용자의 동작이 상하로 고개를 끄덕이는에 대응하여,
    상기 외부 전자 장치에 선택된 기능을 실행하는 제어 명령을 생성하고,
    상기 사용자의 동작이 좌우로 고개를 젓는 동작임에 대응하여,
    상기 외부 전자 장치의 선택된 기능을 취소하는 제어 명령을 생성하는
    전자 장치.
  11. 제1항에 있어서,
    상기 프로세서는
    상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여
    상기 외부 전자 장치에 가까워지는 동작 및 멀어지는 동작을 포함하는 사용자의 동작을 결정하는
    전자 장치.
  12. 미디어를 출력하는 모바일 장치와 연결된 전자 장치에 있어서,
    통신 모듈;
    제 1 UWB 모듈;
    제 2 UWB 모듈; 및
    상기 통신 모듈, 상기 제 1 UWB 모듈 및 상기 제 2 UWB 모듈과 작동적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는
    상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하고,
    상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하고,
    상기 통신 모듈을 통하여 상기 선택된 적어도 하나의 외부 전자 장치에 상기 모바일 장치에서 출력하는 상기 미디어를 출력하도록 하는 요청을 송신하는
    전자 장치.
  13. 제 1 UWB 모듈로부터 획득한 데이터 및 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는 동작;
    상기 시선 방향에 위치하는 외부 전자 장치 중에서 적어도 하나를 선택하는 동작; 및
    상기 선택된 외부 전자 장치에 미디어를 출력하는 요청을 송신하는 동작을 포함하는전자 장치의 동작 방법.
  14. 제 13 항에 있어서,
    모션 센서로부터 획득한 데이터에 기반하여 사용자의 동작을 결정하는 동작;
    상기 사용자의 동작에 기반하여 제어 명령을 생성하는 동작; 및
    상기 제어 명령에 기반하여 상기 외부 전자 장치에 상기 제어 명령을 송신하는 동작을 포함하는
    전자 장치의 동작 방법.
  15. 제14항에 있어서,
    상기 모션 센서로부터 획득한 데이터에 기반하여 상기 사용자의 동작이 정지 상태라고 결정함에 대응하여, 상기 제 1 UWB 모듈로부터 획득한 데이터 및 상기 제 2 UWB 모듈로부터 획득한 데이터에 기반하여 사용자의 시선 방향을 결정하는 동작을 포함하는
    전자 장치의 동작 방법.
PCT/KR2022/010550 2021-07-19 2022-07-19 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법 WO2023003330A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280050575.7A CN117651930A (zh) 2021-07-19 2022-07-19 控制外部电子装置的电子装置及电子装置的操作方法
EP22846200.8A EP4336314A1 (en) 2021-07-19 2022-07-19 Electronic device for controlling external electronic device, and operation method of electronic device
US17/896,618 US20230018784A1 (en) 2021-07-19 2022-08-26 Electronic device and operation method of electronic device for controlling external electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0094105 2021-07-19
KR1020210094105A KR20230013407A (ko) 2021-07-19 2021-07-19 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/896,618 Continuation US20230018784A1 (en) 2021-07-19 2022-08-26 Electronic device and operation method of electronic device for controlling external electronic device

Publications (1)

Publication Number Publication Date
WO2023003330A1 true WO2023003330A1 (ko) 2023-01-26

Family

ID=84979503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/010550 WO2023003330A1 (ko) 2021-07-19 2022-07-19 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
KR (1) KR20230013407A (ko)
WO (1) WO2023003330A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101648021B1 (ko) * 2014-11-28 2016-08-23 현대자동차주식회사 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
KR101733057B1 (ko) * 2010-05-14 2017-05-08 엘지전자 주식회사 전자 기기 및 전자 기기의 컨텐츠 공유 방법
KR102236879B1 (ko) * 2019-11-21 2021-04-06 (주)에이트원 산업 안전 가상 훈련 시스템 및 그 방법
CN112925416A (zh) * 2021-02-24 2021-06-08 中国工商银行股份有限公司 用户视线跟踪方法、装置及系统
KR102265086B1 (ko) * 2014-11-07 2021-06-15 삼성전자 주식회사 정보를 공유하기 위한 가상 환경

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733057B1 (ko) * 2010-05-14 2017-05-08 엘지전자 주식회사 전자 기기 및 전자 기기의 컨텐츠 공유 방법
KR102265086B1 (ko) * 2014-11-07 2021-06-15 삼성전자 주식회사 정보를 공유하기 위한 가상 환경
KR101648021B1 (ko) * 2014-11-28 2016-08-23 현대자동차주식회사 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
KR102236879B1 (ko) * 2019-11-21 2021-04-06 (주)에이트원 산업 안전 가상 훈련 시스템 및 그 방법
CN112925416A (zh) * 2021-02-24 2021-06-08 中国工商银行股份有限公司 用户视线跟踪方法、装置及系统

Also Published As

Publication number Publication date
KR20230013407A (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
WO2022108076A1 (ko) 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
WO2022092517A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
WO2023017986A1 (ko) 영상 데이터 및 오디오 데이터 출력 방법 및 전자 시스템
WO2022154440A1 (ko) 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법
WO2022098204A1 (ko) 가상현실 서비스를 제공하는 전자 장치 및 방법
WO2022114619A1 (ko) 렌즈 어셈블리를 포함하는 전자 장치
WO2023003330A1 (ko) 외부 전자 장치를 제어하기 위한 전자 장치 및 전자 장치의 동작 방법
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2023229199A1 (ko) 전자 장치의 화면 표시 모드를 결정하는 동작 방법 및 전자 장치
WO2023048466A1 (ko) 전자 장치 및 컨텐츠 표시 방법
WO2024071681A1 (ko) 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치
WO2024101718A1 (ko) 카메라 모듈을 포함하는 웨어러블 전자 장치
WO2024076058A1 (ko) 센서를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2024096460A1 (ko) 거리 정보를 획득하는 전자 장치 및 이의 동작 방법
WO2024101747A1 (ko) 카메라를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2024071903A1 (ko) 헤드 마운트 디스플레이 장치 및 그의 착용 상태 감지 방법
WO2023080420A1 (ko) 가변형 그라운드를 포함하는 웨어러블 전자 장치
WO2024043611A1 (ko) 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치
WO2024049094A1 (ko) 외부 전자 장치의 방향에 대응하는 디스플레이를 제어하기 위한 전자 장치, 그 동작 방법 및 저장 매체
WO2022231160A1 (ko) 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법
WO2024085436A1 (ko) 진동을 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치
WO2023136533A1 (ko) 간섭 제거 방법 및 상기 방법을 수행하는 전자 장치
WO2023096339A1 (ko) 외부 디스플레이 장치와 연동하여 컨텐츠를 제공하는 전자 장치 및 그 컨텐츠 제공 방법
WO2023106711A1 (ko) 라이다 장치를 포함하는 전자 장치 및 이의 동작 방법
WO2023038225A1 (ko) 적어도 하나의 외부 장치를 제어하는 전자 장치 및 이의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22846200

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022846200

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022846200

Country of ref document: EP

Effective date: 20231205

NENP Non-entry into the national phase

Ref country code: DE