WO2022131659A1 - Electronic apparatus and controlling method thereof - Google Patents

Electronic apparatus and controlling method thereof Download PDF

Info

Publication number
WO2022131659A1
WO2022131659A1 PCT/KR2021/018490 KR2021018490W WO2022131659A1 WO 2022131659 A1 WO2022131659 A1 WO 2022131659A1 KR 2021018490 W KR2021018490 W KR 2021018490W WO 2022131659 A1 WO2022131659 A1 WO 2022131659A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
screen
magnetic field
processor
data
Prior art date
Application number
PCT/KR2021/018490
Other languages
French (fr)
Korean (ko)
Inventor
디팩 아가왈데쉬
타얄로힛
아가왈안킷
오베로이하르쉬
라투르선일
콘하리초이스
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210119262A external-priority patent/KR20220084996A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2022131659A1 publication Critical patent/WO2022131659A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to an electronic device that can be controlled using an object without a touch, and a method for controlling the same.
  • BACKGROUND Electronic devices such as e-book readers, smart phones, tablet computers, and the like include touch sensor panels, which are becoming more and more popular due to the ease and versatility of operation on the touch screen.
  • an active digitizer sheet may be integrated with a touch sensor panel to sense a touch input of a stylus.
  • FIG. 1 illustrates an electronic device 11 with a stylus 13 .
  • the user may provide the touch input 12 to the electronic device 11 by holding the stylus 13 like a pen or pencil.
  • the active digitizer sheet consumes power of the electronic device 11 . Accordingly, the battery of the electronic device 11 is rapidly consumed.
  • the stylus 13 may be inserted into the cavity of the electronic device 11 .
  • the weight of the electronic device 11 increases, and the manufacturing cost of the electronic device 11 also increases due to additional hardware such as the stylus 13 .
  • an electronic device that can be controlled using an object such as ferromagnetic without touching the electronic device, and a control method thereof.
  • An electronic device includes a screen; a magnetometer sensor for acquiring magnetic field data in front of the screen; and a processor, wherein when detecting an object hovering over the screen based on the magnetic field data, a distance threshold value corresponding to the object based on the size and type of the object and if the distance between the object and the screen is less than the distance threshold, an operation corresponding to the position of the object is performed.
  • the processor may be configured to detect that the object is hovering over the screen when determining that a rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold based on the magnetic field data.
  • the electronic device may include a speaker; and a microphone; wherein the processor controls the speaker to output a sound signal toward the object when detecting the object, and is reflected from the object after being output from the speaker and received by the microphone
  • the size of the object may be determined based on the data of the sound signal.
  • the processor may determine the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
  • ML machine learning
  • the processor may determine the position of the object based on the speed of the object, the magnetic field data, and the direction of the electronic device.
  • the electronic device may include an accelerometer sensor; and a gyro sensor, wherein the processor determines the speed of the object based on accelerometer data output from the accelerometer sensor, and determines the direction of the electronic device based on direction data output from the gyro sensor.
  • the processor is configured to determine a position vector of the object with respect to a three-dimensional Cartesian coordinate system based on the speed of the object and the magnetic field data, and the object relative to the screen based on the position vector of the object and the direction of the electronic device position can be determined.
  • the processor may determine a point indicated by the object on the screen based on the position of the object, determine a user interface data item including the point, and perform an operation corresponding to the user interface data item .
  • the processor may determine a movement form of the object on the screen based on the position of the object, and control the screen to display a character corresponding to the movement form of the object.
  • the processor is configured to change the user profile of the electronic device from the first user profile corresponding to the first portion to the second portion when the position of the object moves from the first portion of the screen to the second portion of the screen. may be changed to a second user profile corresponding to .
  • an electronic device including a screen and a magnetometer sensor for acquiring magnetic field data in front of the screen, when detecting an object hovering over the screen based on the magnetic field data, the determine a distance threshold value corresponding to the object based on the size and type of the object; and performing an operation corresponding to the position of the object when the distance between the object and the screen is less than the distance threshold.
  • Detecting the object may include detecting that the object hovers over the screen when it is determined based on the magnetic field data that the rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold.
  • the electronic device may include a speaker; and a microphone, wherein the method of controlling the electronic device includes: when detecting the object, controlling the speaker to output a sound signal toward the object; It may further include; determining the size of the object based on the data of the sound signal reflected from the object after being output from the speaker and received by the microphone.
  • the control method of the electronic device may further include determining the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
  • ML machine learning
  • the method of controlling the electronic device may further include determining the position of the object based on the speed of the object, the magnetic field data, and the direction of the electronic device.
  • a stylus and an activated digitizer sheet are provided by providing control of an electronic device using an object, such as a ferromagnetic, without a touch based on an output of a pre-installed sensor.
  • an object such as a ferromagnetic
  • the size, weight, and manufacturing cost of the electronic device can be reduced, and power consumption of the electronic device can be significantly improved.
  • FIG. 1 is a diagram illustrating an electronic device having a stylus according to the related art.
  • FIG. 2A is a control block diagram of an electronic device according to an exemplary embodiment.
  • 2B is a block diagram of an operation controller for performing an operation of an electronic device according to an exemplary embodiment.
  • 3 and 4 are flowcharts illustrating a method of controlling an operation of an electronic device according to an exemplary embodiment.
  • 5A is a diagram illustrating a signal received by a microphone of an electronic device according to an exemplary embodiment.
  • 5B is a diagram illustrating a case in which an electronic device determines a size of an object hovered over a screen according to an exemplary embodiment.
  • 6A and 6B are diagrams illustrating a recurrent neural network (RNN) used by an electronic device to identify a type of an object hovered over a screen, according to an exemplary embodiment.
  • RNN recurrent neural network
  • FIG. 7 is a diagram illustrating a plot of a volume of an object with respect to a height of the object from a screen of an electronic device according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating a case in which an electronic device determines a speed of an object hovered over a screen according to an exemplary embodiment.
  • FIG. 9 is a diagram illustrating a case in which an electronic device calculates a direction according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating a position vector of an object in a 3D Cartesian coordinate system and a position of the object with respect to a screen in an electronic device according to an exemplary embodiment.
  • FIG. 11 is a diagram illustrating an exemplary scenario in which an electronic device receives an alphabet based on a position of an object, according to an embodiment.
  • FIG. 12 is a diagram illustrating an exemplary scenario in which an electronic device switches a user profile based on a location of an object, according to an embodiment.
  • FIG. 13 is a diagram illustrating an exemplary scenario in which an electronic device instructs to wash a user's hand based on a location of an object, according to an embodiment.
  • first may be referred to as a second component
  • second component may also be referred to as a first component
  • ⁇ part may mean a unit for processing at least one function or operation.
  • the terms may refer to at least one hardware such as a field-programmable gate array (FPGA) / application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by a processor. have.
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • An embodiment of the disclosed invention provides a method for controlling an operation of an electronic device using an object without a touch.
  • the method includes detecting, by the electronic device, an object hovered over a screen of the electronic device.
  • the method includes obtaining, by the electronic device, data from a first set of sensors (a first set of sensors).
  • the method includes determining, by the electronic device, a threshold value of a distance of the object to a screen of the electronic device based on data received from a first set of sensors.
  • the method includes obtaining, by the electronic device, data from a second set of sensors (a second set of sensors).
  • the method includes dynamically determining, by the electronic device, a position of the object relative to a screen of the electronic device based on data received from a second set of sensors.
  • the method includes determining, by the electronic device, a distance between the object and a screen of the electronic device based on the position of the object.
  • the method includes determining, by the electronic device, whether a distance between the object and a screen of the electronic device meets a distance threshold value.
  • the method may include performing, by the electronic device, an operation based on the position of the object when it is determined that the distance between the object and the screen of the electronic device satisfies the distance threshold value.
  • An embodiment of the disclosed invention provides an electronic device for controlling an operation using an object.
  • the electronic device includes a memory, a processor, a plurality of sensors, a screen, and an operation control unit, and the operation control unit is connected to the memory and the processor.
  • the motion controller may be configured to detect an object hovered over a screen of the electronic device.
  • the motion control may be configured to obtain data from a first set of sensors in the plurality of sensors.
  • the operation control unit may be configured to determine a distance threshold value of the object to the screen of the electronic device based on data received from the first sensor set.
  • the motion control may be configured to obtain data from a second set of sensors in the plurality of sensors.
  • the motion control unit may be configured to dynamically determine the position of the object with respect to the screen of the electronic device based on data received from the second sensor set.
  • the motion controller may be configured to determine a distance between the object and the screen of the electronic device based on the position of the object.
  • the operation controller may be configured to determine whether a distance between an object of the electronic device and the screen satisfies a distance threshold value. When it is determined that the distance between the object and the screen of the electronic device satisfies the distance threshold, the operation controller may be configured to perform an operation according to the position of the object.
  • the proposed method can be used to control the operation of an electronic device using an object such as a ferromagnetic tool (eg, a screwdriver, a spanner, a nail cutter, a metal paper clip, etc.).
  • the electronic device may use a plurality of existing sensors of the electronic device to detect a user input performed through a screen of the electronic device using an object.
  • this method can be used in electronic devices to incorporate the functionality of a stylus as in traditional touch sensitive devices. Since the stylus is not included in the design of the electronic device, the size, weight, and manufacturing cost of the electronic device can be greatly reduced.
  • the electronic device is effective in accurately determining the position of an object hovered over a screen of the electronic device using a plurality of existing sensors.
  • the electronic device may consider “hovering on the screen” as a user input such as a gesture, alphabet input, or command for performing an operation.
  • this method can be used in electronic devices to incorporate the functionality of a stylus as in traditional touch sensitive devices. Since the electronic device does not include an activation digitizer sheet, the power consumption of the electronic device can be greatly improved using the proposed method.
  • the proposed method enables a user to sign on the screen of the electronic device using an object for authentication, thereby eliminating the need for a fingerprint sensor in the electronic device for authentication. Since the electronic device does not include a fingerprint sensor, the power consumption of the electronic device can be greatly improved using the proposed method, and the manufacturing cost can be greatly reduced.
  • FIG. 2A is a control block diagram of an electronic device according to an exemplary embodiment.
  • the electronic device 100 includes an operation controller 110 , a memory 120 , a processor 130 , a sensor 140 , a screen 150 , a speaker 160 , and a communication unit ( 170) may be included.
  • the operation control unit 110 may be connected to the memory 120 and the processor 130 , or may be provided integrally with the memory 120 and the processor 130 .
  • the operation control unit 110 may be provided integrally with the processor 130 , and an operation of the operation control unit 110 to be described later may be performed by the processor 130 .
  • the operation control unit 110 is physically implemented by an analog or digital circuit such as a logic gate, an integrated circuit, a microprocessor, a microcontroller, a memory circuit, a passive electronic device, an active electronic device, an optical device, a hard wire circuit, and the like, and is stored in firmware.
  • an analog or digital circuit such as a logic gate, an integrated circuit, a microprocessor, a microcontroller, a memory circuit, a passive electronic device, an active electronic device, an optical device, a hard wire circuit, and the like, and is stored in firmware.
  • the circuit may be implemented with one or more semiconductor chips or may be implemented on a substrate support such as a printed circuit board.
  • the sensor 140 may be provided in plurality, and may include, for example, an accelerometer sensor 141 , a gyro sensor 142 , a microphone 143 , and a magnetometer sensor 144 .
  • the screen 150 may be an electronic display device such as a liquid crystal display (LCD) screen.
  • LCD liquid crystal display
  • the type of display panel constituting the screen 150 is not limited.
  • the speaker 160 may be an electronic device that generates an audible signal using power.
  • Examples of the operation of the electronic device 100 to be described below include, but are not limited to, alphabet input, user's signature input, drawing generation, user profile start, user's command identification, and gesture identification.
  • shapes such as alphabets, smiles, numbers, and symbols may be formed by moving an object.
  • the electronic device 100 may be a user equipment (UE), a smart phone, a tablet computer, a personal digital assistance (PDA), a desktop computer, the Internet of things (IoT), etc., and the type is limited. none.
  • UE user equipment
  • PDA personal digital assistance
  • IoT Internet of things
  • the object is a device made of a ferromagnetic material such as iron, cobalt, nickel, or an alloy.
  • a ferromagnetic material such as iron, cobalt, nickel, or an alloy.
  • objects include, but are not limited to, screwdrivers, nail cutters, metal paper clips, and pens.
  • the operation controller 110 may be configured to detect an object hovered over the screen 150 of the electronic device 100 .
  • the operation controller 110 may be configured to acquire magnetic field data from the magnetometer sensor 144 among the plurality of sensors 140 of the electronic device 100 .
  • the magnetometer sensor 144 may acquire magnetic field data in front of the screen 150 .
  • the operation controller 110 may detect an object hovering over the screen 150 based on the magnetic field data.
  • the operation controller 110 may detect that the object hovers over the screen 150 when it is determined that the rate of change of the magnetic field in front of the screen 150 exceeds a magnetic field threshold based on the magnetic field data.
  • the magnetic field data is a value of the magnetic field (B) in the (X, Y, Z) direction of a three-dimensional Cartesian coordinate system (ie, the real world).
  • Examples of magnetic field data (0.00 ⁇ T, 5.90 ⁇ T, -48.40 ⁇ T) indicate magnetic fields in the (X, Y, Z) direction, respectively.
  • the operation control unit 110 may be configured to determine whether the magnetic field data meets a magnetic field threshold value.
  • the magnetic field threshold value for each object may be stored in advance in the memory 120 .
  • the magnetic field threshold is the rate at which the magnetic field changes. For example, the speed range is greater than 0.05 micro tesla and less than 0.98 micro tesla.
  • the rate of change of the magnetic field (ie, ⁇ B/ ⁇ t) according to an embodiment is matched with a magnetic field threshold to determine whether the magnetic field data meets the magnetic field threshold.
  • the rate of change of the magnetic field is the change in the magnetic field with time.
  • An example for the rate of change of the magnetic field is 14 micro tesla/sec (ie, 14 ⁇ T/s).
  • the operation control unit 110 may be configured to detect an object hovered over the screen 150 . For example, when the magnetic field data (ie, ⁇ B/ ⁇ t) is greater than the magnetic field threshold, that is, when the magnetic field data meets the magnetic field threshold, the operation control unit 110 determines that the object is hovering over the screen 150 . can be configured to determine. When the magnetic field data (ie, ⁇ B/ ⁇ t) is less than or equal to the magnetic field threshold, that is, when the magnetic field data does not meet the magnetic field threshold, the operation control unit 110 determines that the object does not hover over the screen. can be configured.
  • the operation control unit 110 may be configured to obtain data from the first set 143 , 144 of the plurality of sensors 140 .
  • a first set 143 , 144 of sensors 140 includes a microphone 143 and a magnetometer sensor 144 .
  • the motion controller 110 determines a distance threshold value (eg, 62 mm) of the object to the screen 150 of the electronic device 100 based on data received from the first set 143 and 144 of the sensor 140 .
  • the distance threshold value means a minimum distance between an object for detecting an object by the electronic device 100 and the screen 150 .
  • the operation controller 110 may determine a distance threshold value corresponding to the object based on the size of the object and the type of the object.
  • the operation control unit 110 determines the size (eg, length, width, height, radius, etc.) of the object based on data received from the microphones 143 of the first set 143 and 144 .
  • sizes may include length, width, height, radius, and the like.
  • the operation control unit 110 controls the speaker 160 to output a sound signal toward the object when an object is detected, and the sound signal output from the speaker 160 and reflected from the object and received by the microphone 143 .
  • the size of the object can be determined based on the data of
  • the operation controller 110 may be configured to transmit a first signal (eg, an audio signal) from the speaker 160 of the electronic device 100 toward the object. Also, the operation controller 110 may be configured to receive a second signal (eg, an audio signal) reflected from the object using the microphone 143 in response to the first signal. Also, the operation controller 110 may be configured to determine the size of the object based on the second signal reflected from the object. The operation control unit 110 according to an embodiment may be configured to determine whether a temporal displacement of the reflected signal (ie, the second signal) is greater than a displacement threshold value. The displacement threshold is pre-stored in the memory 120 .
  • the temporal displacement of the reflected signal is greater than the pre-stored threshold (ie, the displacement threshold) the time it takes to detect the reflected signal after it is emitted.
  • the pre-stored threshold is 1450 ⁇ s.
  • the operation control unit 110 may be configured to determine the size of the object when the temporal displacement of the second signal is greater than the displacement threshold value.
  • the operation controller 110 may be configured to recognize the type of an object by applying a machine learning (ML) model 119 (see FIG. 2B ) to data received from the magnetometer sensor 144 .
  • ML model 119 is a recurrent neural network (RNN).
  • RNN recurrent neural network
  • the type of object may represent the ferromagnetic material used to make the object.
  • the operation controller 110 may determine the type of the object based on the output of the machinability model to which the magnetic field data is input.
  • the operation controller 110 may be configured to determine a threshold value of the distance of the object to the screen 150 of the electronic device 100 based on the size of the object and the type of the object. Specifically, the operation controller 110 may be configured to determine the volume of the object by using the size of the object. Also, the operation controller 110 may be configured to determine a threshold value of the distance of the object to the screen 150 of the electronic device 100 based on the volume of the object and the type of the object.
  • the operation controller 110 may perform an operation corresponding to the position of the object.
  • the operation controller 110 may determine the position of the object based on the object's speed, magnetic field data, and the direction of the electronic device.
  • the operation control unit 110 may be configured to obtain data from the second set 141 , 142 , 144 of the plurality of sensors 140 .
  • the second set of sensors 140 , 141 , 142 , 144 may include an accelerometer sensor 141 , a gyro sensor 142 and a magnetometer sensor 144 .
  • the operation control unit 110 may be configured to dynamically determine the position of the object with respect to the screen 150 of the electronic device 100 based on data received from the second set 141 , 142 , 144 of the sensor 140 .
  • the motion control unit 110 may be configured to determine the velocity of an object based on accelerometer data received from the accelerometer sensor 141 in the second set 141 , 142 , 144 of the sensor 140 .
  • the accelerometer data may include acceleration values of the electronic device 100 in the 3D Cartesian coordinate system (X, Y, Z) direction. Examples of the accelerometer data (0.00m/s2, 9.81m/s2, and 0.00m/s2) may indicate the acceleration in the (X, Y, Z) direction of the electronic device 100 , respectively. Examples of the object velocity (-0.2 m/s, 0.4 m/s, -0.14 m/s) may indicate the velocity of the electronic device 100 in the (X, Y, Z) directions, respectively.
  • the operation controller 110 may be configured to determine the speed of the object based on a change in magnetic field data generated while the object hovers over the screen 150 (refer to FIG. 8 ).
  • the operation controller 110 may be configured to identify a direction of the electronic device 100 based on direction data received from the gyro sensor 142 in the second set 141 , 142 , and 144 of the sensor 140 .
  • the direction of the electronic device 100 may be identified based on azimuth ( ⁇ ), pitch ( ⁇ ), and roll ( ⁇ ) information of direction data. Examples of azimuth, pitch and roll are -55 ⁇ , -28 ⁇ , -64 ⁇ , respectively.
  • the operation control unit 110 is configured to continuously determine the position of the object with respect to the screen 150 based on the direction of the electronic device 100 , the speed of the object, and magnetometer data (magnetic field data) received from the magnetometer sensor 144 .
  • magnetometer data magnetic field data
  • the motion control unit 110 may be configured to determine a position vector of the object with respect to a 3D Cartesian coordinate system based on the object's velocity and magnetometer data.
  • An example of an object's position vector with respect to the (X, Y, Z) direction of a three-dimensional Cartesian coordinate system is (-1.3, 6.7, 4.1), respectively.
  • ⁇ Equation 1> for determining the position vector of an object with respect to a three-dimensional Cartesian coordinate system (eg, world plane), that is, r (World Plane) is as follows.
  • B x , B y , and B z mean magnetic field values in the X, Y, and Z directions of the Cartesian coordinate system, respectively.
  • , is the change in the magnetic field in the X, Y, and Z directions of the Cartesian coordinate system, respectively.
  • the directions v x , v y , and v z mean the velocity of the object in the X, Y, and Z directions of the Cartesian coordinate system, respectively.
  • the operation controller 110 may be configured to dynamically determine the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
  • Equation 2> for dynamically determining the position of an object, that is, r (Device Plane) is as follows.
  • the operation controller 110 may be configured to determine a distance between the object of the electronic device 100 and the screen 150 based on the position of the object.
  • the operation controller 110 may be configured to determine whether a distance between the object of the electronic device 100 and the screen 150 satisfies a distance threshold value.
  • the operation controller 110 determines that the distance between the object of the electronic device 100 and the screen 150 is the distance It can be determined that the threshold is met.
  • the operation controller 110 determines that the distance between the object of the electronic device 100 and the screen 150 does not satisfy the distance threshold. can decide not to.
  • the operation controller 110 may perform an operation according to the position of the object.
  • the operation controller 110 may be configured to determine a part (point) of the screen 150 of the electronic device 100 pointed to by the object based on the position of the object.
  • the operation controller 110 may be configured to detect a user interface (UI) data item including a portion of the screen 150 of the electronic device 100 . Examples of UI data items include, but are not limited to, icons, widgets, videos, images, and UIs of applications.
  • the operation control unit 110 may be configured to determine an operation to be performed based on the UI data item.
  • the operation control unit 110 may be configured to perform an operation.
  • the operation controller 110 may determine a movement form of the object on the screen 150 based on the position of the object and control the screen 150 to display a character corresponding to the movement form of the object.
  • the operation controller 110 may change the user profile of the electronic device 100 to correspond to the first part.
  • the first user profile may be changed to a second user profile corresponding to the second part.
  • the memory 120 may store data from the plurality of sensors 140 .
  • the memory 120 may store a displacement threshold and a magnetic field threshold. Also, the memory 120 may provide the displacement threshold and the magnetic field threshold to the operation controller 110 in response to receiving a request from the operation controller 110 .
  • Memory 120 may include a non-volatile storage element. Examples of such non-volatile storage elements may include magnetic hard disks, optical disks, floppy disks, flash memory, or any form of electrical programmable memory (EPROM) or electrical erasable and programmable (EEPROM) memory. Also, memory 120 may be considered a non-transitory storage medium in some examples. The term “non-transitory” may indicate that the storage medium is not embodied as a carrier wave or a propagated signal. However, the term “non-transitory” is not to be interpreted as meaning that the memory 120 is immovable. In some examples, memory 120 may be configured to store larger amounts of information. In certain instances, the non-transitory storage medium may store data that may change over time (eg, random access memory (RAM) or cache).
  • RAM random access memory
  • the processor 130 is configured to execute instructions stored in the memory 120 .
  • the processor 130 is a general-purpose processor such as a central processing unit (CPU), an application processor (AP), and the like, a graphics processing unit (GPU), and a visual processing unit (VPU). It may be a graphics-only processing unit such as, for example.
  • Processor 130 may include multiple cores to execute instructions.
  • the communication unit 170 may be configured to internally communicate between hardware components of the electronic device 100 . Also, the communication unit 170 may be configured to facilitate communication between the electronic device 100 and other devices.
  • the communication unit 170 may include an electronic circuit specialized for a standard that enables wired or wireless communication.
  • FIG. 2A illustrates various hardware components of the electronic device 100, it should be understood that other embodiments are not limited thereto.
  • the electronic device 100 may include a smaller number of components.
  • labels or names of components are used for illustrative purposes only and do not limit the scope of the present invention.
  • 2B is a block diagram of the operation controller 110 for performing an operation of the electronic device 100 according to an exemplary embodiment.
  • the motion control unit 110 includes an object detector 111 , a size estimation engine 112 , an object classifier 113 , a distance threshold value estimator 114 , and a speed determination engine 115 . , a direction estimator 116 , a position estimation engine 117 , an action executor 118 , and an ML model 119 .
  • An object detector 111 , a size estimation engine 112 , an object classifier 113 , a distance threshold value estimator 114 , a velocity determination engine 115 , a direction estimator 116 , and a position estimation engine 117 according to an embodiment ), the action executor 118 and the ML model 119 are for analog or digital circuits such as logic gates, integrated circuits, microprocessors, microcontrollers, memory circuits, passive electronics, active electronics, optics, hardwired circuits, and the like. It may be physically implemented by a firmware and selectively driven by firmware.
  • the circuit may be implemented with one or more semiconductor chips or may be implemented on a substrate support such as a printed circuit board.
  • the object detector 111 may detect an object hovered over the screen 150 of the electronic device 100 .
  • the object detector 111 may acquire magnetic field data from the magnetometer sensor 144 .
  • the object detector 111 may determine whether the magnetic field data meets a magnetic field threshold. Further, the object detector 111 may detect an object hovered over the screen 150 in response to determining that the magnetic field data meets a magnetic field threshold.
  • the distance threshold value estimator 114 may obtain data from the first set 143 , 144 of the sensors 140 .
  • the distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 , 144 of the sensors 140 .
  • the size estimation engine 112 determines the size of the object based on data received from the microphone 143 .
  • the size estimation engine 112 transmits a first signal from the speaker 160 of the electronic device 100 toward the object.
  • the magnitude estimation engine 112 receives a second signal reflected from the object using the microphone 143 in response to the first signal.
  • the size estimation engine 112 may determine the size of the object based on the second signal reflected from the object.
  • the magnitude estimation engine 112 according to an embodiment may determine whether the temporal displacement of the second signal is greater than a displacement threshold value.
  • the size estimation engine 112 may determine the size of the object when the temporal displacement of the second signal is greater than the displacement threshold value.
  • the object classifier 113 may recognize the type of object by applying the ML model 119 to the data received from the magnetometer sensor 144 .
  • the distance threshold value estimator 114 may determine the distance threshold value of the object to the screen 150 according to the size of the object and the type of the object.
  • the distance threshold value estimator 114 may determine the volume of the object by using the size of the object.
  • the distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 according to the volume of the object and the type of the object.
  • the position estimation engine 117 dynamically determines the position of the object with respect to the screen 150 of the electronic device 100 based on data received from the second set 141 , 142 , 144 of the sensor 140 .
  • the speed determination engine 115 determines the speed of the object based on a change in accelerometer data or magnetic field data.
  • the direction estimator 116 may identify the direction of the electronic device 100 based on direction data received from the gyro sensor 142 .
  • the position estimation engine 117 may continuously determine the position of the object with respect to the screen 150 based on the direction of the electronic device 100 , the velocity of the object, and magnetometer data received from the magnetometer sensor 144 .
  • the position estimation engine 117 according to an embodiment may determine the position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity and magnetic field data of the object.
  • the position estimation engine 117 may dynamically determine the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
  • the location estimation engine 117 may determine a distance between the object and the screen 150 based on the location of the object. The location estimation engine 117 may determine whether a distance between the object of the electronic device 100 and the screen 150 satisfies a distance threshold value.
  • the action executor 118 determines that the distance between the object of the electronic device 100 and the screen 150 satisfies the distance threshold, the action executor 118 performs an action according to the location of the object.
  • the action executor 118 determines the portion of the screen 150 of the electronic device 100 pointed to by the object based on the position of the object.
  • the action executor 118 detects a UI data item that includes a portion of the screen 150 of the electronic device 100 .
  • the action executor 118 determines the action to perform based on the UI data item and performs the action.
  • FIG. 2B shows hardware components of the operation control unit 110, it should be understood that other embodiments are not limited thereto.
  • the operation control unit 110 may include a smaller number of components.
  • labels or names of components are used for illustrative purposes only and do not limit the scope of the present invention.
  • One or more components may be coupled together to perform the same or substantially similar function for performing the operation of the electronic device 100 based on the position of the object.
  • 3 and 4 are flowcharts illustrating a method of controlling an operation of the electronic device 100 according to an exemplary embodiment.
  • the electronic device 100 may detect an object hovered over the screen 150 .
  • the object detector 111 may detect an object hovered over the screen 150 .
  • the electronic device 100 may obtain data from the first set 143 and 144 of the sensors 140 .
  • the distance threshold value estimator 114 may obtain data from the first set 143 , 144 of the sensors 140 .
  • the electronic device 100 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 and 144 of the sensor 140 .
  • the distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 , 144 of the sensors 140 .
  • the electronic device 100 may obtain data from the second set 141 , 142 , and 144 of the sensor 140 .
  • the distance threshold value estimator 114 , the speed determination engine 115 , and the direction estimator 116 may obtain data from the second set 141 , 142 , 144 of the sensors 140 .
  • the electronic device 100 may dynamically determine the position of the object with respect to the screen 150 based on data received from the second set 141 , 142 , and 144 of the sensor 140 .
  • the position estimation engine 117 may dynamically determine the position of the object relative to the screen 150 based on data received from the second set 141 , 142 , 144 of the sensor 140 .
  • the electronic device 100 may determine a distance between the object and the screen 150 based on the position of the object.
  • the position estimation engine 117 may determine a distance between the object and the screen 150 based on the position of the object.
  • the electronic device 100 may determine whether the distance between the object and the screen 150 satisfies a distance threshold. Specifically, the location estimation engine 117 may determine whether the distance between the object and the screen 150 meets a distance threshold value.
  • operation 316 when the electronic device 100 determines that the distance between the object and the screen 150 satisfies a distance threshold, performing an operation based on the position of the object. Specifically, when the action executor 118 determines that the distance between the object and the screen 150 meets the distance threshold, it causes the action to be performed based on the position of the object.
  • the electronic device 100 monitors magnetic field data received from the magnetometer sensor 144 .
  • the electronic device 100 determines whether the rate of change of the magnetic field (ie, ⁇ B/ ⁇ t) is greater than a magnetic field threshold. If the electronic device 100 determines that the rate of change of the magnetic field (ie, ⁇ B/ ⁇ t) is not greater than the magnetic field threshold (No in 402 ), the electronic device 100 continues to monitor the magnetic field data ( 401 ).
  • step 403 when it is determined that the rate of change of the magnetic field (ie, ⁇ B/ ⁇ t) is greater than the magnetic field threshold (YES in 402 ), the electronic device 100 detects an object proximate to the electronic device 100 , and a speaker (160) may be used to transmit a first signal at a frequency of 15 kHz towards the object at time t1.
  • the electronic device 100 receives the second signal at t2 using the microphone 143 .
  • the second signal is a signal that collides with the first signal for the object and is reflected from the object.
  • the electronic device 100 may determine whether the temporal displacement of the second signal is greater than a displacement threshold value. When determining that the time displacement of the second signal is not greater than the displacement threshold (No in 405 ), the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
  • the electronic device 100 determines the size of the object in step 406, and determines the size of the object in step 407 based on the magnetometer data type can be identified.
  • the electronic device 100 determines a distance threshold value based on the size of the object and the type of the object.
  • step 409 if it is determined that the rate of change of the magnetic field (ie, ⁇ B/ ⁇ t) is greater than the magnetic field threshold (YES in 402 ), the electronic device 100 uses the accelerometer data received from the accelerometer sensor 141 to set the object determine the speed of
  • the electronic device 100 determines a position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity of the object.
  • the electronic device 100 identifies the direction of the electronic device 100 based on the direction data received from the gyro sensor 142 .
  • the electronic device 100 dynamically determines the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
  • the electronic device 100 may estimate the distance between the object and the screen 150 based on the position of the object with respect to the screen 150 .
  • the electronic device 100 may determine whether the distance between the object and the screen 150 is less than a distance threshold value.
  • the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
  • the electronic device 100 may perform an operation based on the position of the object.
  • 5A is a diagram illustrating a signal received by the microphone 143 of the electronic device 100 according to an exemplary embodiment.
  • the amplitude 501 of the second signal received at the microphone 143 at various times 502 is shown in FIG. 5A .
  • the second signal is a signal reflected by the first signal output from the speaker 160 to the object hitting the object.
  • the electronic device 100 does not know an appropriate second signal to be processed in order to estimate the distance between the object and the electronic device 100 .
  • the user In order to determine an appropriate second signal, the user must move the object back and forth in a direction parallel to the screen 150 of the electronic device 100 .
  • the electronic device 100 may determine the relevant movement time displacement of the appropriate second signal based on the movement of the object, and the unrelated second signal may be maintained close to the specific movement time.
  • the related movement time displacement is a displacement indicating whether the object moves away from or approaches the electronic device 100 .
  • the movement time is the time it takes for the signal output from the speaker 160 to travel to the microphone 143 after being reflected from the object.
  • the electronic device 100 may determine a plurality of accumulated detection and dispersion of the second signal, that is, the standard deviation of the movement time of each second signal.
  • the electronic device 100 may select a second signal exceeding the variance threshold as an appropriate second signal.
  • the dispersion threshold ranges from 1350 to 1550 ⁇ s.
  • FIG. 5B is a diagram illustrating a case in which the electronic device 100 determines the size of an object hovered over the screen 150 according to an exemplary embodiment.
  • FIG. 5B A side view of the object 510 hovered over the electronic device 100 is illustrated in FIG. 5B .
  • the microphone 143 and the speaker 160 are disposed with a distance 511 from the electronic device 100 .
  • the first signal 512A is transmitted from the speaker 160 and collides with the object 510 .
  • the first signal 512A reflected from the object 510 is the second signal 512B.
  • the microphone 143 may receive the second signal 512B.
  • the first signal 513A is transmitted from the speaker 160 and strikes the object 510 .
  • the first signal 513A reflected from the object 510 is the second signal 513B.
  • the microphone 143 may receive the second signal 513B.
  • the second signal 513B is bent due to the structural characteristics of the object 510 .
  • the electronic device 100 measures the distance 'x' 511 between the microphone 143 and the speaker 160 using ⁇ Equation 3>.
  • the movement time of the signal may be determined by the electronic device 100 .
  • the electronic device 100 determines a position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity of the object.
  • the electronic device 100 identifies the direction of the electronic device 100 based on the direction data received from the gyro sensor 142 .
  • the electronic device 100 dynamically determines the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
  • the electronic device 100 may estimate the distance between the object and the screen 150 based on the position of the object with respect to the screen 150 .
  • the electronic device 100 may determine whether the distance between the object and the screen 150 is less than a distance threshold value.
  • the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
  • the electronic device 100 may perform an operation based on the position of the object.
  • 5A is a diagram illustrating a signal received by the microphone 143 of the electronic device 100 according to an exemplary embodiment.
  • the amplitude 501 of the second signal received at the microphone 143 at various times 502 is shown in FIG. 5A .
  • the second signal is a signal reflected by the first signal output from the speaker 160 to the object hitting the object.
  • the electronic device 100 does not know an appropriate second signal to be processed in order to estimate the distance between the object and the electronic device 100 .
  • the user In order to determine an appropriate second signal, the user must move the object back and forth in a direction parallel to the screen 150 of the electronic device 100 .
  • the electronic device 100 may determine the relevant movement time displacement of the appropriate second signal based on the movement of the object, and the unrelated second signal may be maintained close to the specific movement time.
  • the related movement time displacement is a displacement indicating whether the object moves away from or approaches the electronic device 100 .
  • the movement time is the time it takes for the signal output from the speaker 160 to travel to the microphone 143 after being reflected from the object.
  • the electronic device 100 may determine a plurality of accumulated detection and dispersion of the second signal, that is, the standard deviation of the movement time of each second signal.
  • the electronic device 100 may select a second signal exceeding the variance threshold as an appropriate second signal.
  • the dispersion threshold ranges from 1350 to 1550 ⁇ s.
  • FIG. 5B is a diagram illustrating a case in which the electronic device 100 determines the size of an object hovered over the screen 150 according to an exemplary embodiment.
  • FIG. 5B A side view of the object 510 hovered over the electronic device 100 is illustrated in FIG. 5B .
  • the microphone 143 and the speaker 160 are disposed with a distance 511 from the electronic device 100 .
  • the first signal 512A is transmitted from the speaker 160 and collides with the object 510 .
  • the first signal 512A reflected from the object 510 is the second signal 512B.
  • the microphone 143 may receive the second signal 512B.
  • the first signal 513A is transmitted from the speaker 160 and strikes the object 510 .
  • the first signal 513A reflected from the object 510 is the second signal 513B.
  • the microphone 143 may receive the second signal 513B.
  • the second signal 513B is bent due to the structural characteristics of the object 510 .
  • the electronic device 100 measures the distance 'x' 511 between the microphone 143 and the speaker 160 using ⁇ Equation 3>.
  • the movement time of the signal may be determined by the electronic device 100 .
  • the speed of sound, v sound is 34300 cm/sec.
  • the electronic device 100 may determine the size of the object by applying the distance 511 between the microphone 143 and the speaker 160 to the Fresnel-Kirchhoff diffraction equation.
  • 6A and 6B are diagrams illustrating a recurrent neural network (RNN) used by an electronic device to identify a type of an object hovered over a screen, according to an exemplary embodiment.
  • RNN recurrent neural network
  • Table 1 shows absolute values of the magnetic field B measured every second by hovering each type of object on the electronic device 100 according to an embodiment.
  • the change rate ( ⁇ B/ ⁇ t) of the magnetic field according to an embodiment is shown in ⁇ Table 2>.
  • the electronic device 100 determines the type of object by learning the rate of change of the magnetic field. Hundreds of values of the rate of change of the magnetic field are sufficient to learn the electronic device 100 . Also, the electronic device 100 identifies the type of object based on the change rate of the magnetic field using the learned change rate of the magnetic field. As shown in FIG. 6A , the electronic device 100 applies a rate of change of the magnetic field to the RNN 600 to identify the type of object.
  • X 1 , X 2 , X 3 are inputs of the RNN 600 . X 1 is ⁇ B/ ⁇ t for the first instant. X 2 is ⁇ B/ ⁇ t for the second instant. X 3 is ⁇ B/ ⁇ t for the third.
  • f w (602), f w (604), f w (606) are functions with parameter 'W' (f w ).
  • h 0 (601), h 1 (603), h 2 (605), h 3 (607), ... h t (609) may be defined as in ⁇ Equation 4>.
  • Equation 4> can also be expressed as follows.
  • W(608) means a weight matrix (W hh ) used in every instantaneous function f w .
  • the weight matrix may be obtained by training using a backpropagation method.
  • W y (610) means the weight matrix used by h t (609) to generate the output Y (611).
  • Y(611) denotes the output of the RNN 600 given in ⁇ Equation 5> indicating the type of object for the given inputs X 1 , X 2 , and X 3 .
  • X 1 , X 2 , and X 3 are 0.70, 0.55, and 0.54, respectively.
  • the electronic device 100 may identify iron as the type of object.
  • a flowchart of a method of identifying a type of an object using the RNN 600 is shown in FIG. 6B .
  • the input of the RNN 600 is X (612), where X (612) means the rate of change of the magnetic field at each instant.
  • the output of the RNN 600 is Y 611 , where Y 611 means the type of object such as iron, cobalt, nickel, or the like.
  • FIG. 7 is a diagram illustrating a plot of a volume of an object with respect to a height of the object from the screen 150 of the electronic device 100 according to an exemplary embodiment.
  • the electronic device 100 may determine the volume of the object based on the size of the object. Also, the electronic device 100 may determine the distance threshold value of the object by performing regression analysis on the volume of the object. The electronic device 100 uses regression analysis to estimate the value of the dependent variable based on the value of the at least one independent variable, where the dependent variable is the height of the object from the screen 150 and the independent variable is the height of the object. is the volume
  • volume plot on the graph in the X direction and the height of the object from the screen 150 are plotted on the graph in the Y direction with the same relation as in Equation (6).
  • the relationship between volume and height can be described by a linear function 707 . That is, it is assumed that the change in height is due to the change in volume.
  • 705 denotes a point plotted on the graph according to the relationship between volume and height.
  • Y i 702 is the expected height of the object from the screen 150 relative to the object's volume 'X i ' 706 , while the actual value of Y i.e. the screen 150 of X i relative to the volume 706 . ), the actual height of the object is 701.
  • ⁇ 0 (703) and ⁇ 1 (708) represent constants determined according to the type of object.
  • ⁇ 0 and ⁇ 1 are trainable parameters whose values are determined using ⁇ Equation 8> and ⁇ Equation 9>.
  • the values of ⁇ 0 (703) and ⁇ 1 (708) are real numbers.
  • ⁇ i (704) represents an arbitrary error range between 10 -2 and 10 -4 .
  • the random error can be calculated using the minimization of ⁇ Equation 6> using gradient descent. Also, ⁇ Equation 6> may be modified to ⁇ Equation 7> according to random error calculation.
  • the electronic device 100 After determining the volume, the electronic device 100 determines the height at which the object is sensed. X is the volume and Y is the height. The electronic device 100 uses ⁇ Equation 8> and ⁇ Equation 9> to calculate b 0 and b 1 by minimizing the loss between the predicted value and the actual value using gradient descent.
  • distance thresholds for different objects for different volumes are as provided in Table 3.
  • FIG. 8 is a diagram illustrating a case in which an electronic device determines a speed of an object hovered over a screen according to an exemplary embodiment.
  • the electronic device 100 may learn to determine the speed of the object 510 , for example, a screw driver. During the learning phase, the object 510 should be placed on the screen 150 of the electronic device 100 . In addition, the electronic device 100 must move in the horizontal and vertical directions 801 - 804 by fixing the position of the object 510 .
  • the electronic device 100 may monitor magnetic field data and accelerometer data at every instant while moving the electronic device 100 .
  • the electronic device 100 may determine the magnetic field at every moment by using the accelerometer data.
  • the electronic device 100 may determine the speed of the electronic device 100 at every moment based on the accelerometer data. Examples of magnetic field and velocity are shown in ⁇ Table 4>.
  • B t-1 is the magnetic field at time 0 second and B t represents the magnetic field at time 1 second. Accordingly, the electronic device 100 may learn the relationship between the speed of the electronic device 100 and the magnetic field.
  • the electronic device 100 determines the speed of the object 510 by using the learned knowledge about the relationship between the speed of the electronic device 100 and the magnetic field. .
  • the electronic device 100 determines the speed of the object 510 by performing regression analysis on the magnetic field.
  • the electronic device 100 may use regression analysis to estimate the value of the dependent variable based on the value of the at least one independent variable.
  • the dependent variable is the speed of the object 510
  • the independent variable is a change in the magnetic field due to the movement of the object 510 .
  • the relationship between the velocity of the object 510 and the change in the magnetic field may be described as a linear function given in Equation (6).
  • Y i is the estimated speed of the object 510 according to the change of the magnetic field 'X i '.
  • ⁇ 0 and ⁇ 1 are constants determined according to the type of the object 510 .
  • ⁇ 0 and ⁇ 1 are trainable parameters whose values are determined using ⁇ Equation 8> and ⁇ Equation 9>.
  • the values of ⁇ 0 and ⁇ 1 are real numbers.
  • ⁇ i is a random error range between 10 -2 and 10 -4 .
  • An arbitrary error can be calculated using the minimization of ⁇ Equation 6> using the gradient descent method.
  • the electronic device 100 may determine the speed.
  • X is the change in the magnetic field and Y is the velocity.
  • the electronic device 100 may use ⁇ Equation 8> and ⁇ Equation 9> to calculate b 0 and b 1 by minimizing the loss between the predicted value and the actual value using gradient descent.
  • the electronic device 100 determines the position vector of the object 510 based on the speed of the object 510 .
  • Magnetic field 'B t-1 ' at time 0 seconds, magnetic field 'B t ' at time 1 second, change of magnetic field ' ⁇ B', corresponding velocity of object 510 and corresponding position vector of object 510 'r (World Plane) ' is shown in Table 5.
  • FIG. 9 is a diagram illustrating a method of calculating a direction of the electronic device 100 according to an embodiment
  • FIG. 10 is a position of an object 510 in a 3D Cartesian coordinate system in the electronic device 100 according to an embodiment. It is a diagram showing the position of the object 510 with respect to the vector and the screen 150 .
  • X ( 901 ), Y ( 902 ), and Z ( 903 ) are axes of a three-dimensional Cartesian coordinate system in a positive direction.
  • the electronic device 100 is arranged such that the screen 150 faces the positive Z-axis 903 and is disposed at the center of the X-axis 901, the Y-axis 902, and the Z-axis 903, and the positive Y-axis ( The upper end of the electronic device 100 may be disposed in a direction toward 902 .
  • the azimuth ' ⁇ ' 906 is the angle between the positive Y-axis 902 and magnetic north 907, and the azimuth 906 ranges from 0 degrees to 360 degrees.
  • a positive roll ' ⁇ ' 905 is defined as the electronic device 100 starts lying flat on a horizontal plane and the positive Z-axis 903 begins to tilt toward the positive X-axis 901 .
  • the positive pitch ' ⁇ ' 904 is defined as a case in which the electronic device 100 starts lying flat on a horizontal plane and the positive Z-axis 903 starts to tilt toward the positive Y-axis 902 .
  • the object 510 may be positioned on the electronic device 100 with position coordinates (x3, y3, z3) 1005 and a height 'h' 1004 above the screen 150 .
  • the height 'h' 1004 at which the object 510 is positioned from the screen 150 may be lower than the distance threshold value 805 .
  • the position coordinates of the magnetometer sensor 144 of the electronic device 100 may be (x1, y1) (1002).
  • the electronic device 100 may determine the position vector of the object 510 as r(1001). Also, the electronic device 100 uses the position vector of the object 510 and the direction of the electronic device 100 to determine the position (ie, position coordinates) of the object 510 with respect to the screen 150 or (x2, y2). ) 1003 may determine an arbitrary plane of the electronic device 100 .
  • FIG 11 is a diagram illustrating an exemplary scenario in which the electronic device 100 receives a text based on the position of the object 510 according to an embodiment.
  • a user uses a screw driver 510 , ie, an object 510 on the screen 150 of the electronic device 100 , in the shape of an 'S' 1101 , a distance threshold value. You can hover below (805).
  • the electronic device 100 determines the position of the screw driver 510 at every moment the screw driver 510 hovers over the screen 150 . Also, the electronic device 100 may sense a movement form of the object 510 on the screen 150 at every moment based on the position of the screw driver 510 . The electronic device 100 identifies the movement form of the object 510 as 'S' and takes the input as the alphabet 'S'. Also, as shown in 1100B, the electronic device 100 displays the alphabet 'S' 1102 to the user.
  • the proposed method can be used in the electronic device 100 to integrate the function of a stylus as in a traditional touch sensing device.
  • the size, weight, and manufacturing cost of the electronic device 100 may be greatly reduced.
  • the electronic device 100 does not include an active digitizer sheet, power consumption of the electronic device 100 can be greatly improved by using the proposed method.
  • the proposed method allows a user to sign the screen 150 of the electronic device 100 using an object to be authenticated, so that the electronic device 100 does not need a fingerprint sensor for authentication. By not including the fingerprint sensor in the electronic device 100 , power consumption of the electronic device 100 can be greatly improved and manufacturing cost can be greatly reduced using the proposed method.
  • FIG. 12 is a diagram illustrating an exemplary scenario in which the electronic device 100 switches a user profile based on a location of an object 510 according to an embodiment.
  • the electronic device 100 sets a boundary 1201 between the first part 1202 and the second part 1203 to display the UI of the electronic device 100 with the first part 1202 and the second part 1202 . Divide into two parts 1203.
  • the electronic device 100 may allocate the first part 1202 as a part for the first user profile and allocate the second part 1203 as a part for the second user profile.
  • the electronic device 100 may activate the first user profile when the user hovers the object into the first portion 1202 on the screen 150 within the distance threshold value range. Also, the electronic device 100 may activate the second user profile when the user hovers the object into the second portion 1203 on the screen 150 within the distance threshold range.
  • this method enables the electronic device 100 to switch a user profile based on a portion in which the user hovers an object.
  • FIG. 13 is a diagram illustrating an exemplary scenario in which the electronic device 100 instructs the user to wash the user's hand based on the position of the object, according to an embodiment.
  • a user may wear a metal ring 1304 that is an object. Also, as shown in 1300 , the user may wash hands 1303 using water 1302 flowing from the faucet 1301 .
  • the electronic device 100 may monitor the position of the metal ring 1304 while washing the hands 1303 when the position of the metal ring 1304 is within a distance threshold value range. That is, the electronic device 100 may track the movement of the metal ring 1304 while the user washes the hand 1303 .
  • the electronic device 100 may start and track a timer, as shown at 1305 . Also, according to the movement of the metal ring 1304 , the electronic device 100 may track whether the user is washing their hands for up to 20 seconds. As illustrated in 1306 , the electronic device 100 may instruct the user to continue hand washing when the movement of the metal ring 1304 is not detected within 20 seconds after the washing starts. The timer expires after 20 seconds, as shown in 1307 , and the electronic device 100 may instruct the user to stop washing the hands 1303 . Accordingly, the electronic device 100 of the present invention can intelligently track the tasks performed by the user to improve the user experience and provide the best recommendations to the user.
  • the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create a program module to perform the operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • the computer-readable recording medium includes any type of recording medium in which computer-readable instructions are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage, and the like.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory optical data storage, and the like.

Abstract

An electronic apparatus according to an embodiment comprises: a screen; a magnetometer sensor which acquires magnetic field data in front of the screen; and a processor, wherein the processor: when an object hovering over the screen is detected on the basis of the magnetic field data, determines a distance threshold value corresponding to the object on the basis of the size and type of the object; and when the distance between the object and the screen is less than the distance threshold value, performs an operation corresponding to the position of the object.

Description

전자 장치 및 그 제어 방법Electronic device and its control method
본 발명은 터치 없이 오브젝트를 이용하여 제어가 가능한 전자 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an electronic device that can be controlled using an object without a touch, and a method for controlling the same.
전자 책 리더, 스마트 폰, 태블릿 컴퓨터 등과 같은 전자 장치는 터치 스크린에서의 조작의 용이성과 다양성으로 인해 점점 더 대중화되고 있는 터치 센서 패널을 포함한다. 전자 장치에서 활성 디지타이저(digitizer) 시트는 터치 센서 패널과 통합되어 스타일러스(stylus)의 터치 입력을 감지할 수 있다.BACKGROUND Electronic devices such as e-book readers, smart phones, tablet computers, and the like include touch sensor panels, which are becoming more and more popular due to the ease and versatility of operation on the touch screen. In an electronic device, an active digitizer sheet may be integrated with a touch sensor panel to sense a touch input of a stylus.
도 1은 스타일러스(13)를 갖는 전자 장치(11)를 예시한다. 사용자는 펜이나 연필처럼 스타일러스(13)를 잡고 전자 장치(11)에 터치 입력(12)을 제공할 수 있다. 활성 디지타이저 시트는 전자 장치(11)의 전력을 소비한다. 따라서, 전자 장치(11)의 배터리는 빠르게 소모된다.1 illustrates an electronic device 11 with a stylus 13 . The user may provide the touch input 12 to the electronic device 11 by holding the stylus 13 like a pen or pencil. The active digitizer sheet consumes power of the electronic device 11 . Accordingly, the battery of the electronic device 11 is rapidly consumed.
또한, 일반적으로 스타일러스(13)는 전자 장치(11)의 캐비티 내에 삽입될 수 있다. 스타일러스(13)가 전자 장치(11)의 캐비티에 삽입됨에 따라 전자 장치(11)의 무게가 증가하고 스타일러스(13)와 같은 추가 하드웨어로 인해 전자 장치(11)의 제조 비용도 증가한다.Also, in general, the stylus 13 may be inserted into the cavity of the electronic device 11 . As the stylus 13 is inserted into the cavity of the electronic device 11 , the weight of the electronic device 11 increases, and the manufacturing cost of the electronic device 11 also increases due to additional hardware such as the stylus 13 .
더욱이, 얇고 슬림한 전자 장치(11)에서 스타일러스(13)의 이탈/삽입이 사용자에게 어려울 수 있으며, 이는 스타일러스(13)를 사용하는 동안 사용자 경험을 저하시킨다. 일반적으로 얇은 기계 소자는 스타일러스(13)가 손상되거나 파손될 위험이 있는 스타일러스(13)를 설계하는데 사용된다. 따라서, 적어도 유용한 대안을 제공하는 것이 바람직하다.Moreover, removal/insertion of the stylus 13 in the thin and slim electronic device 11 may be difficult for the user, which degrades the user experience while using the stylus 13 . In general, thin mechanical elements are used to design the stylus 13 where there is a risk that the stylus 13 is damaged or broken. Accordingly, it would be desirable to at least provide a useful alternative.
전자 장치를 터치하지 않고 강자성 등의 오브젝트를 이용하여 제어 가능한 전자 장치 및 그 제어 방법을 제공한다.Provided are an electronic device that can be controlled using an object such as ferromagnetic without touching the electronic device, and a control method thereof.
일 실시예에 따른 전자 장치는, 스크린; 상기 스크린 전방의 자기장 데이터를 획득하는 자력계 센서; 및 프로세서;를 포함하고, 상기 프로세서는, 상기 자기장 데이터에 기초하여 상기 스크린 위를 호버링(hovering)하는 오브젝트를 감지하는 경우, 상기 오브젝트의 크기 및 유형에 기초하여 상기 오브젝트에 대응하는 거리 임계 값을 결정하고, 상기 오브젝트와 상기 스크린 사이의 거리가 상기 거리 임계 값 미만인 경우 상기 오브젝트의 위치에 대응하는 동작을 수행한다.An electronic device according to an embodiment includes a screen; a magnetometer sensor for acquiring magnetic field data in front of the screen; and a processor, wherein when detecting an object hovering over the screen based on the magnetic field data, a distance threshold value corresponding to the object based on the size and type of the object and if the distance between the object and the screen is less than the distance threshold, an operation corresponding to the position of the object is performed.
상기 프로세서는, 상기 자기장 데이터에 기초하여 상기 스크린 전방에서의 자기장 변화율이 자기장 임계 값을 초과하는 것으로 결정하는 경우 상기 오브젝트가 상기 스크린 위를 호버링하는 것을 감지할 수 있다.The processor may be configured to detect that the object is hovering over the screen when determining that a rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold based on the magnetic field data.
상기 전자 장치는, 스피커; 및 마이크로폰;을 더 포함하고, 상기 프로세서는, 상기 오브젝트를 감지하는 경우 상기 오브젝트를 향하여 음향 신호를 출력하도록 상기 스피커를 제어하고, 상기 스피커로부터 출력된 이후 상기 오브젝트에서 반사되어 상기 마이크로폰에 의해 수신된 음향 신호의 데이터에 기초하여 상기 오브젝트의 크기를 결정할 수 있다.The electronic device may include a speaker; and a microphone; wherein the processor controls the speaker to output a sound signal toward the object when detecting the object, and is reflected from the object after being output from the speaker and received by the microphone The size of the object may be determined based on the data of the sound signal.
상기 프로세서는, 상기 자기장 데이터를 입력으로 하는 머신 러닝(machine learning; ML) 모델의 출력에 기초하여 상기 오브젝트의 유형을 결정할 수 있다.The processor may determine the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
상기 프로세서는, 상기 오브젝트의 속도, 상기 자기장 데이터 및 상기 전자 장치의 방향에 기초하여 상기 오브젝트의 위치를 결정할 수 있다.The processor may determine the position of the object based on the speed of the object, the magnetic field data, and the direction of the electronic device.
상기 전자 장치는, 가속도계 센서; 및 자이로 센서;를 더 포함하고, 상기 프로세서는, 상기 가속도계 센서로부터 출력된 가속도계 데이터에 기초하여 상기 오브젝트의 속도를 결정하고, 상기 자이로 센서로부터 출력된 방향 데이터에 기초하여 상기 전자 장치의 방향을 결정할 수 있다.The electronic device may include an accelerometer sensor; and a gyro sensor, wherein the processor determines the speed of the object based on accelerometer data output from the accelerometer sensor, and determines the direction of the electronic device based on direction data output from the gyro sensor. can
상기 프로세서는, 상기 오브젝트의 속도 및 상기 자기장 데이터에 기초하여 3차원 직교 좌표계에 대한 상기 오브젝트의 위치 벡터를 결정하고, 상기 오브젝트의 위치 벡터 및 상기 전자 장치의 방향에 기초하여 상기 스크린에 대한 상기 오브젝트의 위치를 결정할 수 있다.The processor is configured to determine a position vector of the object with respect to a three-dimensional Cartesian coordinate system based on the speed of the object and the magnetic field data, and the object relative to the screen based on the position vector of the object and the direction of the electronic device position can be determined.
상기 프로세서는, 상기 오브젝트의 위치에 기초하여 상기 스크린 상에서 상기 오브젝트가 가리키는 지점을 결정하고, 상기 지점을 포함하는 사용자 인터페이스 데이터 항목을 결정하고, 상기 사용자 인터페이스 데이터 항목에 대응하는 동작을 수행할 수 있다.The processor may determine a point indicated by the object on the screen based on the position of the object, determine a user interface data item including the point, and perform an operation corresponding to the user interface data item .
상기 프로세서는, 상기 오브젝트의 위치에 기초하여 상기 스크린 상에서의 상기 오브젝트의 움직임 형태를 결정하고, 상기 오브젝트의 움직임 형태에 대응하는 문자를 표시하도록 상기 스크린을 제어할 수 있다.The processor may determine a movement form of the object on the screen based on the position of the object, and control the screen to display a character corresponding to the movement form of the object.
상기 프로세서는, 상기 오브젝트의 위치가 상기 스크린의 제1 부분에서 상기 스크린의 제2 부분으로 이동하는 경우, 상기 전자 장치의 사용자 프로파일을 상기 제1 부분에 대응하는 제1 사용자 프로파일에서 상기 제2 부분에 대응하는 제2 사용자 프로파일로 변경할 수 있다.The processor is configured to change the user profile of the electronic device from the first user profile corresponding to the first portion to the second portion when the position of the object moves from the first portion of the screen to the second portion of the screen. may be changed to a second user profile corresponding to .
스크린 및 상기 스크린 전방의 자기장 데이터를 획득하는 자력계 센서를 포함하는 일 실시예에 따른 전자 장치의 제어 방법은, 상기 자기장 데이터에 기초하여 상기 스크린 위를 호버링(hovering)하는 오브젝트를 감지하는 경우, 상기 오브젝트의 크기 및 유형에 기초하여 상기 오브젝트에 대응하는 거리 임계 값을 결정하고; 상기 오브젝트와 상기 스크린 사이의 거리가 상기 거리 임계 값 미만인 경우 상기 오브젝트의 위치에 대응하는 동작을 수행하는 것;을 포함한다.In the control method of an electronic device according to an embodiment including a screen and a magnetometer sensor for acquiring magnetic field data in front of the screen, when detecting an object hovering over the screen based on the magnetic field data, the determine a distance threshold value corresponding to the object based on the size and type of the object; and performing an operation corresponding to the position of the object when the distance between the object and the screen is less than the distance threshold.
상기 오브젝트를 감지하는 것은, 상기 자기장 데이터에 기초하여 상기 스크린 전방에서의 자기장 변화율이 자기장 임계 값을 초과하는 것으로 결정하는 경우 상기 오브젝트가 상기 스크린 위를 호버링하는 것을 감지하는 것;을 포함할 수 있다.Detecting the object may include detecting that the object hovers over the screen when it is determined based on the magnetic field data that the rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold. .
상기 전자 장치는, 스피커; 및 마이크로폰;을 더 포함하고, 상기 전자 장치의 제어 방법은, 상기 오브젝트를 감지하는 경우 상기 오브젝트를 향하여 음향 신호를 출력하도록 상기 스피커를 제어하고; 상기 스피커로부터 출력된 이후 상기 오브젝트에서 반사되어 상기 마이크로폰에 의해 수신된 음향 신호의 데이터에 기초하여 상기 오브젝트의 크기를 결정하는 것;을 더 포함할 수 있다..The electronic device may include a speaker; and a microphone, wherein the method of controlling the electronic device includes: when detecting the object, controlling the speaker to output a sound signal toward the object; It may further include; determining the size of the object based on the data of the sound signal reflected from the object after being output from the speaker and received by the microphone.
상기 전자 장치의 제어 방법은, 상기 자기장 데이터를 입력으로 하는 머신 러닝(machine learning; ML) 모델의 출력에 기초하여 상기 오브젝트의 유형을 결정하는 것;을 더 포함할 수 있다.The control method of the electronic device may further include determining the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
상기 전자 장치의 제어 방법은, 상기 오브젝트의 속도, 상기 자기장 데이터 및 상기 전자 장치의 방향에 기초하여 상기 오브젝트의 위치를 결정하는 것;을 더 포함할 수 있다.The method of controlling the electronic device may further include determining the position of the object based on the speed of the object, the magnetic field data, and the direction of the electronic device.
일 실시예에 따른 전자 장치 및 그 제어 방법에 의하면, 기 설치된 센서의 출력에 기초하여 터치 없이 강자성 등의 오브젝트를 활용한 전자 장치의 제어를 제공함으로써, 스타일러스(stylus) 및 활성화 디지타이저(digitizer) 시트를 배제할 수 있으므로, 전자 장치의 크기, 무게 및 제조 비용을 줄일 수 있으며, 전자 장치의 전력 소비를 크게 향상시킬 수 있다.According to an electronic device and a method for controlling the same according to an embodiment, a stylus and an activated digitizer sheet are provided by providing control of an electronic device using an object, such as a ferromagnetic, without a touch based on an output of a pre-installed sensor. can be excluded, the size, weight, and manufacturing cost of the electronic device can be reduced, and power consumption of the electronic device can be significantly improved.
도 1은 종래 기술에 따른 스타일러스(stylus)를 갖는 전자 장치를 나타내는 도면이다.1 is a diagram illustrating an electronic device having a stylus according to the related art.
도 2a는 일 실시예에 따른 전자 장치의 제어 블록도이다.2A is a control block diagram of an electronic device according to an exemplary embodiment.
도 2b는 일 실시예에 따른 전자 장치의 동작을 수행하기 위한 동작 제어부의 블록도이다.2B is a block diagram of an operation controller for performing an operation of an electronic device according to an exemplary embodiment.
도 3 및 도 4는 일 실시예에 따른 전자 장치의 동작을 제어하는 방법을 나타내는 순서도이다.3 and 4 are flowcharts illustrating a method of controlling an operation of an electronic device according to an exemplary embodiment.
도 5a는 일 실시예에 따른 전자 장치의 마이크로폰에서 수신된 신호를 나타내는 도면이다.5A is a diagram illustrating a signal received by a microphone of an electronic device according to an exemplary embodiment.
도 5b는 일 실시예에 따른 전자 장치가 스크린 위로 호버링(hovering)된 오브젝트의 크기를 결정하는 경우를 나타내는 도면이다.5B is a diagram illustrating a case in which an electronic device determines a size of an object hovered over a screen according to an exemplary embodiment.
도 6a 및 도 6b는 일 실시예에 따른 전자 장치가 스크린 위로 호버링된 오브젝트의 유형을 식별하기 위해 이용하는 순환신경망(recurrent neural network; RNN)을 나타내는 도면이다.6A and 6B are diagrams illustrating a recurrent neural network (RNN) used by an electronic device to identify a type of an object hovered over a screen, according to an exemplary embodiment.
도 7은 일 실시예에 따른 전자 장치의 스크린으로부터의 오브젝트의 높이에 대한 오브젝트의 부피의 플롯을 나타내는 도면이다.7 is a diagram illustrating a plot of a volume of an object with respect to a height of the object from a screen of an electronic device according to an exemplary embodiment.
도 8은 일 실시예에 따른 전자 장치가 스크린 위로 호버링된 오브젝트의 속도를 결정하는 경우를 나타내는 도면이다.8 is a diagram illustrating a case in which an electronic device determines a speed of an object hovered over a screen according to an exemplary embodiment.
도 9는 일 실시예에 따른 전자 장치가 방향을 계산하는 경우를 나타내는 도면이다.9 is a diagram illustrating a case in which an electronic device calculates a direction according to an exemplary embodiment.
도 10은 일 실시예에 따른 전자 장치에서 3 차원 직교 좌표계에서의 오브젝트의 위치 벡터 및 스크린에 대한 오브젝트의 위치를 나타내는 도면이다.10 is a diagram illustrating a position vector of an object in a 3D Cartesian coordinate system and a position of the object with respect to a screen in an electronic device according to an exemplary embodiment.
도 11은 일 실시예에 따른 전자 장치가 오브젝트의 위치에 기초하여 알파벳을 입력받는 예시적인 시나리오를 나타내는 도면이다.11 is a diagram illustrating an exemplary scenario in which an electronic device receives an alphabet based on a position of an object, according to an embodiment.
도 12는 일 실시예에 따른 전자 장치가 오브젝트의 위치에 기초하여 사용자 프로파일을 전환하는 예시적인 시나리오를 나타내는 도면이다.12 is a diagram illustrating an exemplary scenario in which an electronic device switches a user profile based on a location of an object, according to an embodiment.
도 13은 일 실시예에 따른 전자 장치가 오브젝트의 위치에 기초하여 사용자의 손을 씻도록 지시하는 예시적인 시나리오를 나타내는 도면이다.13 is a diagram illustrating an exemplary scenario in which an electronic device instructs to wash a user's hand based on a location of an object, according to an embodiment.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The configuration shown in the embodiments and drawings described in this specification is only a preferred example of the disclosed invention, and there may be various modifications that can replace the embodiments and drawings of the present specification at the time of filing of the present application.
본 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout this specification, when a part is "connected" with another part, this includes not only a case in which it is directly connected but also a case in which it is indirectly connected, and the indirect connection refers to being connected through a wireless communication network. include
또한, 본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 소자 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 소자 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In addition, the terminology used herein is used to describe the embodiments, and is not intended to limit and/or limit the disclosed invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, element, or a combination thereof described in the specification exists, but one or more other features It does not preclude the possibility of the presence or addition of numbers, steps, operations, components, elements, or combinations thereof.
또한, 본 명세서에서 사용한 "제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In addition, terms including an ordinal number, such as "first", "second", etc. used herein may be used to describe various elements, but the elements are not limited by the terms, and the terms are It is used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(field-programmable gate array) / ASIC(application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ part", "~ group", "~ block", "~ member", and "~ module" may mean a unit for processing at least one function or operation. For example, the terms may refer to at least one hardware such as a field-programmable gate array (FPGA) / application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by a processor. have.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The signs attached to each step are used to identify each step, and these signs do not indicate the order between the steps, and each step is performed differently from the stated order unless the context clearly indicates a specific order. can be
개시된 발명의 실시예는 터치 없이 오브젝트를 이용하여 전자 장치의 동작을 제어하기 위한 방법을 제공한다. 방법은 전자 장치에 의해, 전자 장치의 스크린 위로 호버링(hovering)된 오브젝트를 감지하는 단계를 포함한다. 방법은 전자 장치에 의해, 제1 센서 세트(센서의 제1 세트)로부터 데이터를 획득하는 단계를 포함한다. 방법은 전자 장치에 의해, 제1 센서 세트로부터 수신된 데이터에 기초하여 전자 장치의 스크린에 대한 오브젝트의 거리 임계 값을 결정하는 단계를 포함한다. 방법은 전자 장치에 의해, 제2 센서 세트(센서의 제2 세트)로부터 데이터를 획득하는 단계를 포함한다. 방법은 전자 장치에 의해, 제2 센서 세트로부터 수신된 데이터에 기초하여 전자 장치의 스크린에 대한 오브젝트의 위치를 동적으로 결정하는 단계를 포함한다. 방법은 전자 장치에 의해, 오브젝트의 위치에 기초하여 오브젝트와 전자 장치의 스크린 사이의 거리를 결정하는 단계를 포함한다. 방법은 전자 장치에 의해, 오브젝트와 전자 장치의 스크린 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정하는 단계를 포함한다. 방법은 전자 장치에 의해, 오브젝트와 전자 장치의 스크린 사이의 거리가 거리 임계 값을 충족하는 것으로 결정한 경우, 오브젝트의 위치에 기초하여 동작을 수행하는 단계를 포함할 수 있다.An embodiment of the disclosed invention provides a method for controlling an operation of an electronic device using an object without a touch. The method includes detecting, by the electronic device, an object hovered over a screen of the electronic device. The method includes obtaining, by the electronic device, data from a first set of sensors (a first set of sensors). The method includes determining, by the electronic device, a threshold value of a distance of the object to a screen of the electronic device based on data received from a first set of sensors. The method includes obtaining, by the electronic device, data from a second set of sensors (a second set of sensors). The method includes dynamically determining, by the electronic device, a position of the object relative to a screen of the electronic device based on data received from a second set of sensors. The method includes determining, by the electronic device, a distance between the object and a screen of the electronic device based on the position of the object. The method includes determining, by the electronic device, whether a distance between the object and a screen of the electronic device meets a distance threshold value. The method may include performing, by the electronic device, an operation based on the position of the object when it is determined that the distance between the object and the screen of the electronic device satisfies the distance threshold value.
개시된 발명의 실시예는 오브젝트를 이용하여 동작을 제어하는 전자 장치를 제공한다. 전자 장치는 메모리, 프로세서, 복수의 센서, 스크린 및 동작 제어부를 포함하고, 동작 제어부는 메모리 및 프로세서에 연결된다. 동작 제어부는 전자 장치의 스크린 위로 호버링된 오브젝트를 감지하도록 구성될 수 있다. 동작 제어부는 복수의 센서 내의 제1 센서 세트로부터 데이터를 획득하도록 구성될 수 있다. 동작 제어부는 제1 센서 세트로부터 수신된 데이터에 기초하여 전자 장치의 스크린에 대한 오브젝트의 거리 임계 값을 결정하도록 구성될 수 있다. 동작 제어부는 복수의 센서 내의 제2 센서 세트로부터 데이터를 획득하도록 구성될 수 있다. 동작 제어부는 제2 센서 세트로부터 수신된 데이터에 기초하여 전자 장치의 스크린에 대한 오브젝트의 위치를 동적으로 결정하도록 구성될 수 있다. 동작 제어부는 오브젝트의 위치에 기초하여 오브젝트와 전자 장치의 스크린 사이의 거리를 결정하도록 구성될 수 있다. 동작 제어부는 전자 장치의 오브젝트와 스크린 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정하도록 구성될 수 있다. 동작 제어부는 오브젝트와 전자 장치의 스크린 사이의 거리가 거리 임계 값을 충족한다고 결정한 경우, 오브젝트의 위치에 따라 동작을 수행하도록 구성될 수 있다.An embodiment of the disclosed invention provides an electronic device for controlling an operation using an object. The electronic device includes a memory, a processor, a plurality of sensors, a screen, and an operation control unit, and the operation control unit is connected to the memory and the processor. The motion controller may be configured to detect an object hovered over a screen of the electronic device. The motion control may be configured to obtain data from a first set of sensors in the plurality of sensors. The operation control unit may be configured to determine a distance threshold value of the object to the screen of the electronic device based on data received from the first sensor set. The motion control may be configured to obtain data from a second set of sensors in the plurality of sensors. The motion control unit may be configured to dynamically determine the position of the object with respect to the screen of the electronic device based on data received from the second sensor set. The motion controller may be configured to determine a distance between the object and the screen of the electronic device based on the position of the object. The operation controller may be configured to determine whether a distance between an object of the electronic device and the screen satisfies a distance threshold value. When it is determined that the distance between the object and the screen of the electronic device satisfies the distance threshold, the operation controller may be configured to perform an operation according to the position of the object.
기존의 방법 및 시스템과 달리, 제안된 방법은 강자성 도구(예: 스크류 드라이버, 스패너, 네일 커터, 금속 종이 클립 등)와 같은 오브젝트를 이용하여 전자 장치의 동작을 제어하는데 사용할 수 있다. 전자 장치는 오브젝트를 이용하여 전자 장치의 스크린을 통해 수행되는 사용자 입력을 감지하도록 전자 장치의 복수의 기존 센서를 사용할 수 있다. 따라서, 이 방법은 전통적인 터치 감지 장치에서와 같이 스타일러스(stylus)의 기능을 통합하기 위해 전자 장치에 사용될 수 있다. 전자 장치의 설계에 스타일러스를 포함하지 않기 때문에 전자 장치의 크기, 무게 및 제조 비용을 크게 줄일 수 있다.Unlike the existing methods and systems, the proposed method can be used to control the operation of an electronic device using an object such as a ferromagnetic tool (eg, a screwdriver, a spanner, a nail cutter, a metal paper clip, etc.). The electronic device may use a plurality of existing sensors of the electronic device to detect a user input performed through a screen of the electronic device using an object. Thus, this method can be used in electronic devices to incorporate the functionality of a stylus as in traditional touch sensitive devices. Since the stylus is not included in the design of the electronic device, the size, weight, and manufacturing cost of the electronic device can be greatly reduced.
기존의 방법 및 시스템과 달리, 전자 장치는 복수의 기존 센서를 사용하여 전자 장치의 스크린 위로 호버링된 오브젝트의 위치를 정확하게 파악하는데 효율적이다. 전자 장치는 동작을 수행하기 위한 제스처, 알파벳 입력, 명령 등과 같은 사용자 입력으로 "스크린 위에서의 호버링"을 고려할 수 있다. 따라서, 이 방법은 전통적인 터치 감지 장치에서와 같이 스타일러스의 기능을 통합하기 위해 전자 장치에서 사용될 수 있다. 전자 장치에 활성화 디지타이저 시트를 포함하지 않기 때문에 제안된 방법을 사용하여 전자 장치의 전력 소비를 크게 향상시킬 수 있다.Unlike existing methods and systems, the electronic device is effective in accurately determining the position of an object hovered over a screen of the electronic device using a plurality of existing sensors. The electronic device may consider “hovering on the screen” as a user input such as a gesture, alphabet input, or command for performing an operation. Thus, this method can be used in electronic devices to incorporate the functionality of a stylus as in traditional touch sensitive devices. Since the electronic device does not include an activation digitizer sheet, the power consumption of the electronic device can be greatly improved using the proposed method.
제안된 방법은 사용자가 인증을 위한 오브젝트를 이용하여 전자 장치의 스크린에 서명을 할 수 있게 하여 인증을 위해 전자 장치에 지문 센서가 필요하지 않게 할 수 있다. 전자 장치에 지문 센서를 포함하지 않기 때문에 제안된 방법을 사용하여 전자 장치의 전력 소비를 크게 향상시킬 수 있으며 제조 비용을 크게 줄일 수 있다.The proposed method enables a user to sign on the screen of the electronic device using an object for authentication, thereby eliminating the need for a fingerprint sensor in the electronic device for authentication. Since the electronic device does not include a fingerprint sensor, the power consumption of the electronic device can be greatly improved using the proposed method, and the manufacturing cost can be greatly reduced.
이하에서는 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings.
도 2a는 일 실시예에 따른 전자 장치의 제어 블록도이다.2A is a control block diagram of an electronic device according to an exemplary embodiment.
도 2a를 참조하면, 일 실시예에 따른 전자 장치(100)는 동작 제어부(110), 메모리(120), 프로세서(130), 센서(140), 스크린(150), 스피커(160) 및 통신부(170)를 포함할 수 있다.Referring to FIG. 2A , the electronic device 100 according to an embodiment includes an operation controller 110 , a memory 120 , a processor 130 , a sensor 140 , a screen 150 , a speaker 160 , and a communication unit ( 170) may be included.
동작 제어부(110)는 메모리(120) 및 프로세서(130)에 연결되거나, 메모리(120) 및 프로세서(130)와 일체로 마련될 수 있다. 예를 들어, 동작 제어부(110)는, 프로세서(130)와 일체로 마련될 수 있으며, 후술하는 동작 제어부(110)의 동작은 프로세서(130)에 의해 수행될 수 있다.The operation control unit 110 may be connected to the memory 120 and the processor 130 , or may be provided integrally with the memory 120 and the processor 130 . For example, the operation control unit 110 may be provided integrally with the processor 130 , and an operation of the operation control unit 110 to be described later may be performed by the processor 130 .
동작 제어부(110)는 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리 회로, 수동 전자 소자, 능동 전자 소자, 광학 소자, 하드 와이어 회로 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 펌웨어에 의해 선택적으로 구동될 수 있다. 예를 들어, 회로는 하나 이상의 반도체 칩으로 구현되거나 인쇄 회로 기판 등과 같은 기판 지지대에 구현될 수 있다.The operation control unit 110 is physically implemented by an analog or digital circuit such as a logic gate, an integrated circuit, a microprocessor, a microcontroller, a memory circuit, a passive electronic device, an active electronic device, an optical device, a hard wire circuit, and the like, and is stored in firmware. can be selectively driven by For example, the circuit may be implemented with one or more semiconductor chips or may be implemented on a substrate support such as a printed circuit board.
센서(140)는, 복수개로 마련될 수 있으며, 예를 들어, 가속도계 센서(141), 자이로 센서(142), 마이크로폰(143) 및 자력계 센서(144)를 포함할 수 있다.The sensor 140 may be provided in plurality, and may include, for example, an accelerometer sensor 141 , a gyro sensor 142 , a microphone 143 , and a magnetometer sensor 144 .
스크린(150)은 LCD(liquid crystal display) 스크린과 같은 전자 디스플레이 장치일 수 있다. 다만, 스크린(150)을 구성하는 디스플레이 패널의 유형에는 제한이 없다.The screen 150 may be an electronic display device such as a liquid crystal display (LCD) screen. However, the type of display panel constituting the screen 150 is not limited.
스피커(160)는 전력을 이용하여 가청 신호를 발생시키는 전자 소자일 수 있다.The speaker 160 may be an electronic device that generates an audible signal using power.
후술하는 전자 장치(100)의 동작의 예로는 알파벳 입력, 사용자의 서명 입력, 도면 생성, 사용자 프로필 시작, 사용자의 명령 식별 및 제스처 식별이 포함되지만 이에 제한되지는 않는다.Examples of the operation of the electronic device 100 to be described below include, but are not limited to, alphabet input, user's signature input, drawing generation, user profile start, user's command identification, and gesture identification.
사용자의 제스처의 예로는 오브젝트를 움직여 알파벳, 스마일, 숫자, 기호 등의 모양을 형성할 수 있다.As an example of the user's gesture, shapes such as alphabets, smiles, numbers, and symbols may be formed by moving an object.
전자 장치(100)는, 사용자 장치(user equipment; UE), 스마트 폰, 태블릿 컴퓨터, PDA(personal digital assistance), 데스크톱 컴퓨터, 사물 인터넷(internet of things; IoT) 등일 수 있으며, 그 유형에 제한은 없다.The electronic device 100 may be a user equipment (UE), a smart phone, a tablet computer, a personal digital assistance (PDA), a desktop computer, the Internet of things (IoT), etc., and the type is limited. none.
이때, 오브젝트는 철, 코발트, 니켈, 합금 등과 같은 강자성 물질로 만들어진 장치이다. 오브젝트의 예로는 스크류 드라이버, 네일 커터, 금속 종이 클립 및 펜이 포함되나 이에 제한되지는 않는다.In this case, the object is a device made of a ferromagnetic material such as iron, cobalt, nickel, or an alloy. Examples of objects include, but are not limited to, screwdrivers, nail cutters, metal paper clips, and pens.
동작 제어부(110)는 전자 장치(100)의 스크린(150) 위로 호버링된 오브젝트를 감지하도록 구성될 수 있다.The operation controller 110 may be configured to detect an object hovered over the screen 150 of the electronic device 100 .
구체적으로, 동작 제어부(110)는 전자 장치(100)의 복수의 센서(140) 중 자력계 센서(144)로부터 자기장 데이터를 획득하도록 구성될 수 있다. 이때, 자력계 센서(144)는, 스크린(150) 전방의 자기장 데이터를 획득할 수 있다.Specifically, the operation controller 110 may be configured to acquire magnetic field data from the magnetometer sensor 144 among the plurality of sensors 140 of the electronic device 100 . In this case, the magnetometer sensor 144 may acquire magnetic field data in front of the screen 150 .
즉, 동작 제어부(110)는, 자기장 데이터에 기초하여 스크린(150) 위를 호버링(hovering)하는 오브젝트를 감지할 수 있다. 동작 제어부(110)는, 자기장 데이터에 기초하여 스크린(150) 전방에서의 자기장 변화율이 자기장 임계 값을 초과하는 것으로 결정하는 경우 오브젝트가 스크린(150) 위를 호버링하는 것을 감지할 수 있다.That is, the operation controller 110 may detect an object hovering over the screen 150 based on the magnetic field data. The operation controller 110 may detect that the object hovers over the screen 150 when it is determined that the rate of change of the magnetic field in front of the screen 150 exceeds a magnetic field threshold based on the magnetic field data.
자기장 데이터는 3차원 직교 좌표계(즉, 실제 세계)의 (X, Y, Z) 방향의 자기장(B)의 값이다. 자기장 데이터의 예(0.00μT, 5.90μT, -48.40μT)는 각각 (X, Y, Z) 방향의 자기장을 나타낸다. 동작 제어부(110)는 자기장 데이터가 자기장 임계 값을 충족하는지 여부를 결정하도록 구성될 수 있다. 여기서 각 오브젝트에 대한 자기장 임계 값은 메모리(120)에 미리 저장될 수 있다. 자기장 임계 값은 자기장이 변화하는 속도이다. 예를 들어 속도 범위는 0.05 마이크로 테슬라보다 크고 0.98 마이크로 테슬라 미만이다. 일 실시예에 따른 자기장의 변화율(즉, △B/△t)은 자기장 데이터가 자기장 임계 값을 충족하는지 여부를 결정하기 위해 자기장 임계 값과 매칭된다. 자기장의 변화율은 시간 변화에 따른 자기장의 변화이다. 자기장의 변화율에 대한 예는 14 마이크로 테슬라/초(즉, 14 μT/s)이다.The magnetic field data is a value of the magnetic field (B) in the (X, Y, Z) direction of a three-dimensional Cartesian coordinate system (ie, the real world). Examples of magnetic field data (0.00 μT, 5.90 μT, -48.40 μT) indicate magnetic fields in the (X, Y, Z) direction, respectively. The operation control unit 110 may be configured to determine whether the magnetic field data meets a magnetic field threshold value. Here, the magnetic field threshold value for each object may be stored in advance in the memory 120 . The magnetic field threshold is the rate at which the magnetic field changes. For example, the speed range is greater than 0.05 micro tesla and less than 0.98 micro tesla. The rate of change of the magnetic field (ie, ΔB/Δt) according to an embodiment is matched with a magnetic field threshold to determine whether the magnetic field data meets the magnetic field threshold. The rate of change of the magnetic field is the change in the magnetic field with time. An example for the rate of change of the magnetic field is 14 micro tesla/sec (ie, 14 μT/s).
또한, 동작 제어부(110)는 자기장 데이터가 자기장 임계 값을 충족한다고 결정된 경우, 스크린(150) 위에 호버링된 오브젝트를 감지하도록 구성될 수 있다. 예로서, 자기장 데이터(즉, △B/△t)가 자기장 임계 값보다 클 때, 즉 자기장 데이터가 자기장 임계 값을 충족하는 경우, 동작 제어부(110)는 오브젝트가 스크린(150) 위로 호버링되는 것으로 결정하도록 구성될 수 있다. 자기장 데이터(즉, △B/△t)가 자기장 임계 값보다 작거나 같을 때, 즉 자기장 데이터가 자기장 임계 값을 충족하지 않는 경우, 동작 제어부(110)는 오브젝트가 스크린 위로 호버링되지 않는 것으로 결정하도록 구성될 수 있다.Also, when it is determined that the magnetic field data satisfies a magnetic field threshold, the operation control unit 110 may be configured to detect an object hovered over the screen 150 . For example, when the magnetic field data (ie, ΔB/Δt) is greater than the magnetic field threshold, that is, when the magnetic field data meets the magnetic field threshold, the operation control unit 110 determines that the object is hovering over the screen 150 . can be configured to determine. When the magnetic field data (ie, ΔB/Δt) is less than or equal to the magnetic field threshold, that is, when the magnetic field data does not meet the magnetic field threshold, the operation control unit 110 determines that the object does not hover over the screen. can be configured.
동작 제어부(110)는 복수의 센서(140) 중 제1 세트(143, 144)로부터 데이터를 획득하도록 구성될 수 있다. 일 실시예에 따른 센서(140)의 제 1 세트(143, 144)는 마이크로폰(143) 및 자력계 센서(144)를 포함한다. 동작 제어부(110)는 센서(140)의 제1 세트(143, 144)로부터 수신된 데이터에 기초하여 전자 장치(100)의 스크린(150)에 대한 오브젝트의 거리 임계 값(예: 62mm)을 결정하도록 구성될 수 있다. 거리 임계 값은 전자 장치(100)에 의해 오브젝트를 감지하기 위한 오브젝트와 스크린(150) 사이의 최소 거리를 의미한다.The operation control unit 110 may be configured to obtain data from the first set 143 , 144 of the plurality of sensors 140 . A first set 143 , 144 of sensors 140 according to one embodiment includes a microphone 143 and a magnetometer sensor 144 . The motion controller 110 determines a distance threshold value (eg, 62 mm) of the object to the screen 150 of the electronic device 100 based on data received from the first set 143 and 144 of the sensor 140 . can be configured to The distance threshold value means a minimum distance between an object for detecting an object by the electronic device 100 and the screen 150 .
구체적으로, 동작 제어부(110)는, 오브젝트의 크기 및 오브젝트의 유형에 기초하여 오브젝트에 대응하는 거리 임계 값을 결정할 수 있다.Specifically, the operation controller 110 may determine a distance threshold value corresponding to the object based on the size of the object and the type of the object.
일 실시예에 따른 동작 제어부(110)는 제1 세트(143, 144)의 마이크로폰(143)으로부터 수신된 데이터에 기초하여 오브젝트의 크기(예를 들어, 길이, 폭, 높이, 반경 등)를 결정하도록 구성될 수 있다. 크기의 예에는 길이, 너비, 높이, 반경 등이 포함될 수 있다.The operation control unit 110 according to an embodiment determines the size (eg, length, width, height, radius, etc.) of the object based on data received from the microphones 143 of the first set 143 and 144 . can be configured to Examples of sizes may include length, width, height, radius, and the like.
동작 제어부(110)는, 오브젝트를 감지한 경우 오브젝트를 향하여 음향 신호를 출력하도록 스피커(160)를 제어하고, 스피커(160)로부터 출력된 이후 오브젝트에서 반사되어 마이크로폰(143)에 의해 수신된 음향 신호의 데이터에 기초하여 오브젝트의 크기를 결정할 수 있다.The operation control unit 110 controls the speaker 160 to output a sound signal toward the object when an object is detected, and the sound signal output from the speaker 160 and reflected from the object and received by the microphone 143 . The size of the object can be determined based on the data of
구체적으로, 동작 제어부(110)는 전자 장치(100)의 스피커(160)로부터 오브젝트를 향해 제1 신호(예를 들어, 오디오 신호)를 송신하도록 구성될 수 있다. 또한, 동작 제어부(110)는 제1 신호에 응답하여 마이크로폰(143)을 이용하여 오브젝트로부터 반사된 제2 신호(예를 들어, 오디오 신호)를 수신하도록 구성될 수 있다. 또한, 동작 제어부(110)는 오브젝트로부터 반사되는 제2 신호에 기초하여 오브젝트의 크기를 결정하도록 구성될 수 있다. 일 실시예에 따른 동작 제어부(110)는 반사된 신호(즉, 제2 신호)의 시간 변위가 변위 임계 값보다 큰지 여부를 확인하도록 구성될 수 있다. 변위 임계 값은 메모리(120)에 미리 저장된다. 반사 신호의 시간 변위는 방출된 후 반사 신호를 감지하는데 걸리는 시간이 미리 저장된 임계 값(즉, 변위 임계 값)보다 크다. 미리 저장된 임계 값의 예는 1450 ㎲이다. 동작 제어부(110)는 제2 신호의 시간 변위가 변위 임계 값보다 클 때, 오브젝트의 크기를 결정하도록 구성될 수 있다.Specifically, the operation controller 110 may be configured to transmit a first signal (eg, an audio signal) from the speaker 160 of the electronic device 100 toward the object. Also, the operation controller 110 may be configured to receive a second signal (eg, an audio signal) reflected from the object using the microphone 143 in response to the first signal. Also, the operation controller 110 may be configured to determine the size of the object based on the second signal reflected from the object. The operation control unit 110 according to an embodiment may be configured to determine whether a temporal displacement of the reflected signal (ie, the second signal) is greater than a displacement threshold value. The displacement threshold is pre-stored in the memory 120 . The temporal displacement of the reflected signal is greater than the pre-stored threshold (ie, the displacement threshold) the time it takes to detect the reflected signal after it is emitted. An example of a pre-stored threshold is 1450 µs. The operation control unit 110 may be configured to determine the size of the object when the temporal displacement of the second signal is greater than the displacement threshold value.
일 실시예에 따른 동작 제어부(110)는 자력계 센서(144)로부터 수신된 데이터에 ML(machine learning) 모델(119)(도 2b 참조)을 적용하여 오브젝트의 유형을 인식하도록 구성될 수 있다. ML 모델(119)의 예로는 순환신경망(recurrent neural network; RNN)이 있다. 오브젝트의 유형은 오브젝트를 만드는데 사용되는 강자성 물질을 나타낼 수 있다.The operation controller 110 according to an embodiment may be configured to recognize the type of an object by applying a machine learning (ML) model 119 (see FIG. 2B ) to data received from the magnetometer sensor 144 . An example of the ML model 119 is a recurrent neural network (RNN). The type of object may represent the ferromagnetic material used to make the object.
다시 말해, 동작 제어부(110)는 자기장 데이터를 입력으로 하는 머신 러능 모델의 출력에 기초하여 오브젝트의 유형을 결정할 수 있다.In other words, the operation controller 110 may determine the type of the object based on the output of the machinability model to which the magnetic field data is input.
일 실시예에 따른 동작 제어부(110)는 오브젝트의 크기 및 오브젝트의 유형에 기초하여 전자 장치(100)의 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정하도록 구성될 수 있다. 구체적으로, 동작 제어부(110)는 오브젝트의 크기를 사용하여 오브젝트의 부피를 결정하도록 구성될 수 있다. 또한, 동작 제어부(110)는 오브젝트의 부피 및 오브젝트의 유형에 기초하여 전자 장치(100)의 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정하도록 구성될 수 있다.The operation controller 110 according to an embodiment may be configured to determine a threshold value of the distance of the object to the screen 150 of the electronic device 100 based on the size of the object and the type of the object. Specifically, the operation controller 110 may be configured to determine the volume of the object by using the size of the object. Also, the operation controller 110 may be configured to determine a threshold value of the distance of the object to the screen 150 of the electronic device 100 based on the volume of the object and the type of the object.
일 실시예에 따른 동작 제어부(110)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값 미만인 경우 오브젝트의 위치에 대응하는 동작을 수행할 수 있다.When the distance between the object and the screen 150 is less than the distance threshold, the operation controller 110 according to an embodiment may perform an operation corresponding to the position of the object.
이때, 동작 제어부(110)는, 오브젝트의 속도, 자기장 데이터 및 전자 장치의 방향에 기초하여 오브젝트의 위치를 결정할 수 있다.In this case, the operation controller 110 may determine the position of the object based on the object's speed, magnetic field data, and the direction of the electronic device.
구체적으로, 동작 제어부(110)는 복수의 센서(140) 중 제2 세트(141, 142, 144)로부터 데이터를 획득하도록 구성될 수 있다. 센서(140)의 제 2 세트(141, 142, 144)는 가속도계 센서(141), 자이로 센서(142) 및 자력계 센서(144)를 포함할 수 있다.Specifically, the operation control unit 110 may be configured to obtain data from the second set 141 , 142 , 144 of the plurality of sensors 140 . The second set of sensors 140 , 141 , 142 , 144 may include an accelerometer sensor 141 , a gyro sensor 142 and a magnetometer sensor 144 .
동작 제어부(110)는 센서(140)의 제2 세트(141, 142, 144)로부터 수신된 데이터에 기초하여 전자 장치(100)의 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정하도록 구성될 수 있다.The operation control unit 110 may be configured to dynamically determine the position of the object with respect to the screen 150 of the electronic device 100 based on data received from the second set 141 , 142 , 144 of the sensor 140 . can
일 실시예에 따른 동작 제어부(110)는 센서(140)의 제2 세트(141, 142, 144)에서 가속도계 센서(141)로부터 수신된 가속도계 데이터에 기초하여 오브젝트의 속도를 결정하도록 구성될 수 있다. 가속도계 데이터는 3 차원 직교 좌표계(X, Y, Z)의 방향으로 전자 장치(100)의 가속도 값을 포함할 수 있다. 가속도계 데이터(0.00m/s2, 9.81m/s2, 0.00m/s2)의 예는 각각 전자 장치(100)의 (X, Y, Z) 방향으로의 가속도를 나타낼 수 있다. 오브젝트의 속도 (-0.2m/s, 0.4m/s, -0.14m/s)의 예는 각각 (X, Y, Z) 방향으로의 전자 장치(100)의 속도를 나타낼 수 있다.The motion control unit 110 according to an embodiment may be configured to determine the velocity of an object based on accelerometer data received from the accelerometer sensor 141 in the second set 141 , 142 , 144 of the sensor 140 . . The accelerometer data may include acceleration values of the electronic device 100 in the 3D Cartesian coordinate system (X, Y, Z) direction. Examples of the accelerometer data (0.00m/s2, 9.81m/s2, and 0.00m/s2) may indicate the acceleration in the (X, Y, Z) direction of the electronic device 100 , respectively. Examples of the object velocity (-0.2 m/s, 0.4 m/s, -0.14 m/s) may indicate the velocity of the electronic device 100 in the (X, Y, Z) directions, respectively.
다른 실시예에 따른 동작 제어부(110)는 오브젝트가 스크린(150) 위를 호버링하는 동안 발생하는 자기장 데이터의 변화에 기초하여 오브젝트의 속도를 결정하도록 구성될 수 있다(도 8 참조).The operation controller 110 according to another embodiment may be configured to determine the speed of the object based on a change in magnetic field data generated while the object hovers over the screen 150 (refer to FIG. 8 ).
동작 제어부(110)는 센서(140)의 제2 세트(141, 142, 144)에서 자이로 센서(142)로부터 수신된 방향 데이터에 기초하여 전자 장치(100)의 방향을 식별하도록 구성될 수 있다.The operation controller 110 may be configured to identify a direction of the electronic device 100 based on direction data received from the gyro sensor 142 in the second set 141 , 142 , and 144 of the sensor 140 .
전자 장치(100)의 방향은 방향 데이터의 방위각(α), 피치(β) 및 롤(γ) 정보에 기초하여 식별될 수 있다. 방위각, 피치 및 롤의 예는 각각 -55˚, -28˚, -64˚이다.The direction of the electronic device 100 may be identified based on azimuth (α), pitch (β), and roll (γ) information of direction data. Examples of azimuth, pitch and roll are -55˚, -28˚, -64˚, respectively.
동작 제어부(110)는 전자 장치(100)의 방향, 오브젝트의 속도 및 자력계 센서(144)로부터 수신된 자력계 데이터(자기장 데이터)에 기초하여 스크린(150)에 대한 오브젝트의 위치를 지속적으로 결정하도록 구성될 수 있다.The operation control unit 110 is configured to continuously determine the position of the object with respect to the screen 150 based on the direction of the electronic device 100 , the speed of the object, and magnetometer data (magnetic field data) received from the magnetometer sensor 144 . can be
일 실시예에 따른 동작 제어부(110)는 오브젝트의 속도 및 자력계 데이터에 기초하여 3차원 직교 좌표계에 대한 오브젝트의 위치 벡터를 결정하도록 구성될 수 있다. 3차원 직교 좌표계의 (X, Y, Z) 방향에 대한 오브젝트의 위치 벡터의 예는 각각 (-1.3, 6.7, 4.1)이다. 3 차원 직교 좌표계(예: 세계 평면), 즉 r(World Plane)에 대한 오브젝트의 위치 벡터를 결정하기 위한 <수학식 1>은 다음과 같다.The motion control unit 110 according to an embodiment may be configured to determine a position vector of the object with respect to a 3D Cartesian coordinate system based on the object's velocity and magnetometer data. An example of an object's position vector with respect to the (X, Y, Z) direction of a three-dimensional Cartesian coordinate system is (-1.3, 6.7, 4.1), respectively. <Equation 1> for determining the position vector of an object with respect to a three-dimensional Cartesian coordinate system (eg, world plane), that is, r (World Plane) is as follows.
<수학식 1><Equation 1>
Figure PCTKR2021018490-appb-img-000001
Figure PCTKR2021018490-appb-img-000001
여기서, Bx, By, Bz는 각각 직교 좌표계의 X, Y, Z 방향의 자기장 값을 의미한다.
Figure PCTKR2021018490-appb-img-000002
,
Figure PCTKR2021018490-appb-img-000003
,
Figure PCTKR2021018490-appb-img-000004
는 각각 직교 좌표계의 X, Y, Z 방향에서 자기장의 변화를 의미한다. 여기서, 방향 vx, vy, vz는 각각 직교 좌표계의 X, Y, Z 방향에 있는 오브젝트의 속도를 의미한다.
Here, B x , B y , and B z mean magnetic field values in the X, Y, and Z directions of the Cartesian coordinate system, respectively.
Figure PCTKR2021018490-appb-img-000002
,
Figure PCTKR2021018490-appb-img-000003
,
Figure PCTKR2021018490-appb-img-000004
is the change in the magnetic field in the X, Y, and Z directions of the Cartesian coordinate system, respectively. Here, the directions v x , v y , and v z mean the velocity of the object in the X, Y, and Z directions of the Cartesian coordinate system, respectively.
또한, 동작 제어부(110)는 오브젝트의 위치 벡터 및 전자 장치(100)의 방향에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정하도록 구성될 수 있다. 오브젝트의 위치를 동적으로 결정하기 위한 <수학식 2>, 즉 r(Device Plane)은 다음과 같다.Also, the operation controller 110 may be configured to dynamically determine the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 . <Equation 2> for dynamically determining the position of an object, that is, r (Device Plane) is as follows.
<수학식 2><Equation 2>
Figure PCTKR2021018490-appb-img-000005
Figure PCTKR2021018490-appb-img-000005
여기서,
Figure PCTKR2021018490-appb-img-000006
이다.
here,
Figure PCTKR2021018490-appb-img-000006
to be.
동작 제어부(110)는 오브젝트의 위치에 기초하여 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리를 결정하도록 구성될 수 있다. 동작 제어부(110)는 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정하도록 구성될 수 있다.The operation controller 110 may be configured to determine a distance between the object of the electronic device 100 and the screen 150 based on the position of the object. The operation controller 110 may be configured to determine whether a distance between the object of the electronic device 100 and the screen 150 satisfies a distance threshold value.
예를 들어, 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작은 경우, 동작 제어부(110)는 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는 것으로 결정할 수 있다.For example, when the distance between the object of the electronic device 100 and the screen 150 is less than the distance threshold, the operation controller 110 determines that the distance between the object of the electronic device 100 and the screen 150 is the distance It can be determined that the threshold is met.
전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값 이상인 경우, 동작 제어부(110)는 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하지 않는 것으로 결정할 수 있다.When the distance between the object of the electronic device 100 and the screen 150 is greater than or equal to the distance threshold, the operation controller 110 determines that the distance between the object of the electronic device 100 and the screen 150 does not satisfy the distance threshold. can decide not to.
동작 제어부(110)는 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는 것으로 결정한 경우, 오브젝트의 위치에 따라 동작을 수행할 수 있다. 동작 제어부(110)는 오브젝트의 위치에 기초하여 오브젝트가 가리키는 전자 장치(100)의 스크린(150)의 일부(지점)를 결정하도록 구성될 수 있다. 동작 제어부(110)는 전자 장치(100)의 스크린(150)의 일부를 포함하는 UI(user interface) 데이터 항목을 감지하도록 구성될 수 있다. UI 데이터 항목의 예로는 아이콘, 위젯, 비디오, 이미지 및 애플리케이션의 UI가 포함되지만 이에 제한되지는 않는다. 동작 제어부(110)는 UI 데이터 항목에 기초하여 수행될 동작을 결정하도록 구성될 수 있다. 동작 제어부(110)는 동작을 수행하도록 구성될 수 있다.When it is determined that the distance between the object of the electronic device 100 and the screen 150 satisfies the distance threshold, the operation controller 110 may perform an operation according to the position of the object. The operation controller 110 may be configured to determine a part (point) of the screen 150 of the electronic device 100 pointed to by the object based on the position of the object. The operation controller 110 may be configured to detect a user interface (UI) data item including a portion of the screen 150 of the electronic device 100 . Examples of UI data items include, but are not limited to, icons, widgets, videos, images, and UIs of applications. The operation control unit 110 may be configured to determine an operation to be performed based on the UI data item. The operation control unit 110 may be configured to perform an operation.
또한, 동작 제어부(110)는, 오브젝트의 위치에 기초하여 스크린(150) 상에서의 오브젝트의 움직임 형태를 결정하고, 오브젝트의 움직임 형태에 대응하는 문자를 표시하도록 스크린(150)을 제어할 수 있다.In addition, the operation controller 110 may determine a movement form of the object on the screen 150 based on the position of the object and control the screen 150 to display a character corresponding to the movement form of the object.
또한, 동작 제어부(110)는, 오브젝트의 위치가 스크린(150)의 제1 부분에서 스크린(150)의 제2 부분으로 이동하는 경우, 전자 장치(100)의 사용자 프로파일을 제1 부분에 대응하는 제1 사용자 프로파일에서 제2 부분에 대응하는 제2 사용자 프로파일로 변경할 수 있다.Also, when the position of the object moves from the first part of the screen 150 to the second part of the screen 150 , the operation controller 110 may change the user profile of the electronic device 100 to correspond to the first part. The first user profile may be changed to a second user profile corresponding to the second part.
메모리(120)는 복수의 센서(140)로부터의 데이터를 저장할 수 있다. 메모리(120)는 변위 임계 값 및 자기장 임계 값을 저장할 수 있다. 또한, 메모리(120)는 동작 제어부(110)로부터 요청을 수신한 것에 응답하여 변위 임계 값 및 자기장 임계 값을 동작 제어부(110)에 제공할 수 있다.The memory 120 may store data from the plurality of sensors 140 . The memory 120 may store a displacement threshold and a magnetic field threshold. Also, the memory 120 may provide the displacement threshold and the magnetic field threshold to the operation controller 110 in response to receiving a request from the operation controller 110 .
메모리(120)는 비휘발성 저장 요소를 포함할 수 있다. 이러한 비휘발성 저장 요소의 예는 자기 하드 디스크, 광 디스크, 플로피 디스크, 플래시 메모리 또는 EPROM(electrical programmable memory) 또는 EEPROM(electrical erasable and programmable) 메모리의 형태를 포함할 수 있습니다. 또한, 메모리(120)는 일부 예들에서 비일시적 저장 매체로 간주될 수 있다. "비일시적"이라는 용어는 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낼 수 있다. 그러나 "비일시적"이라는 용어는 메모리(120)가 움직일 수 없는 것으로 해석되지는 않는다. 일부 예들에서, 메모리(120)는 더 많은 양의 정보를 저장하도록 구성될 수 있다. 특정 예에서, 비일시적 저장 매체는 시간이 지남에 따라 변경될 수 있는 데이터(예를 들어, RAM(random access memory) 또는 캐시)를 저장할 수 있다.Memory 120 may include a non-volatile storage element. Examples of such non-volatile storage elements may include magnetic hard disks, optical disks, floppy disks, flash memory, or any form of electrical programmable memory (EPROM) or electrical erasable and programmable (EEPROM) memory. Also, memory 120 may be considered a non-transitory storage medium in some examples. The term “non-transitory” may indicate that the storage medium is not embodied as a carrier wave or a propagated signal. However, the term “non-transitory” is not to be interpreted as meaning that the memory 120 is immovable. In some examples, memory 120 may be configured to store larger amounts of information. In certain instances, the non-transitory storage medium may store data that may change over time (eg, random access memory (RAM) or cache).
프로세서(130)는 메모리(120)에 저장된 명령을 실행하도록 구성된다. 프로세서(130)는 중앙 처리 장치(central processing unit; CPU), 어플리케이션 프로세서(application processor; AP) 등과 같은 범용 프로세서, 그래픽 처리 장치(graphics processing unit; GPU), 시각 처리 장치(visual processing unit; VPU) 등과 같은 그래픽 전용 처리 장치일 수 있다. 프로세서(130)는 명령어를 실행하기 위해 다중 코어를 포함할 수 있다. The processor 130 is configured to execute instructions stored in the memory 120 . The processor 130 is a general-purpose processor such as a central processing unit (CPU), an application processor (AP), and the like, a graphics processing unit (GPU), and a visual processing unit (VPU). It may be a graphics-only processing unit such as, for example. Processor 130 may include multiple cores to execute instructions.
통신부(170)는 전자 장치(100)의 하드웨어 구성 요소 사이에서 내부적으로 통신하도록 구성될 수 있다. 또한, 통신부(170)는 전자 장치(100)와 다른 장치 간의 통신을 용이하게 하도록 구성될 수 있다. 통신부(170)는 유선 또는 무선 통신을 가능하게 하는 표준에 특화된 전자 회로를 포함할 수 있다.The communication unit 170 may be configured to internally communicate between hardware components of the electronic device 100 . Also, the communication unit 170 may be configured to facilitate communication between the electronic device 100 and other devices. The communication unit 170 may include an electronic circuit specialized for a standard that enables wired or wireless communication.
비록 도 2a는 전자 장치(100)의 다양한 하드웨어 구성 요소를 도시하였으나, 다른 실시예는 이에 제한되지 않음을 이해해야 한다. 다른 실시예에서, 전자 장치(100)는 더 적은 수의 구성 요소를 포함할 수 있다. 또한, 구성 요소의 라벨 또는 명칭은 예시 목적으로만 사용되며 본 발명의 범위를 제한하지 않는다.Although FIG. 2A illustrates various hardware components of the electronic device 100, it should be understood that other embodiments are not limited thereto. In another embodiment, the electronic device 100 may include a smaller number of components. In addition, labels or names of components are used for illustrative purposes only and do not limit the scope of the present invention.
도 2b는 일 실시예에 따른 전자 장치(100)의 동작을 수행하기 위한 동작 제어부(110)의 블록도이다.2B is a block diagram of the operation controller 110 for performing an operation of the electronic device 100 according to an exemplary embodiment.
도2b를 참조하면, 일 실시예에 따른 동작 제어부(110)는 오브젝트 감지기(111), 크기 추정 엔진(112), 오브젝트 분류기(113), 거리 임계 값 추정기(114), 속도 결정 엔진(115), 방향 추정기(116), 위치 추정 엔진(117), 동작 실행기(118) 및 ML 모델(119)을 포함할 수 있다.Referring to FIG. 2B , the motion control unit 110 according to an embodiment includes an object detector 111 , a size estimation engine 112 , an object classifier 113 , a distance threshold value estimator 114 , and a speed determination engine 115 . , a direction estimator 116 , a position estimation engine 117 , an action executor 118 , and an ML model 119 .
일 실시예에 따른 오브젝트 감지기(111), 크기 추정 엔진(112), 오브젝트 분류기(113), 거리 임계 값 추정기(114), 속도 결정 엔진(115), 방향 추정기(116), 위치 추정 엔진(117), 동작 실행기(118) 및 ML 모델(119)은 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리 회로, 수동 전자 소자, 능동 전자 소자, 광학 소자, 하드 와이어 회로 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 펌웨어에 의해 선택적으로 구동될 수 있다. 예를 들어, 회로는 하나 이상의 반도체 칩으로 구현되거나 인쇄 회로 기판 등과 같은 기판 지지대에 구현될 수 있다.An object detector 111 , a size estimation engine 112 , an object classifier 113 , a distance threshold value estimator 114 , a velocity determination engine 115 , a direction estimator 116 , and a position estimation engine 117 according to an embodiment ), the action executor 118 and the ML model 119 are for analog or digital circuits such as logic gates, integrated circuits, microprocessors, microcontrollers, memory circuits, passive electronics, active electronics, optics, hardwired circuits, and the like. It may be physically implemented by a firmware and selectively driven by firmware. For example, the circuit may be implemented with one or more semiconductor chips or may be implemented on a substrate support such as a printed circuit board.
오브젝트 감지기(111)는 전자 장치(100)의 스크린(150)에 호버링된 오브젝트를 감지할 수 있다. 일 실시예에 따른 오브젝트 감지기(111)는 자력계 센서(144)로부터 자기장 데이터를 획득할 수 있다. 오브젝트 감지기(111)는 자기장 데이터가 자기장 임계 값을 충족하는지 여부를 결정할 수 있다. 또한, 오브젝트 감지기(111)는 자기장 데이터가 자기장 임계 값을 충족한다고 결정한 것에 응답하여 스크린(150) 위에 호버링된 오브젝트를 감지할 수 있다.The object detector 111 may detect an object hovered over the screen 150 of the electronic device 100 . The object detector 111 according to an embodiment may acquire magnetic field data from the magnetometer sensor 144 . The object detector 111 may determine whether the magnetic field data meets a magnetic field threshold. Further, the object detector 111 may detect an object hovered over the screen 150 in response to determining that the magnetic field data meets a magnetic field threshold.
거리 임계 값 추정기(114)는 센서(140)의 제1 세트(143, 144)로부터 데이터를 획득할 수 있다. 거리 임계 값 추정기(114)는 센서(140)의 제1 세트(143, 144)로부터 수신된 데이터에 기초하여 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정할 수 있다.The distance threshold value estimator 114 may obtain data from the first set 143 , 144 of the sensors 140 . The distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 , 144 of the sensors 140 .
일 실시예에 따른 크기 추정 엔진(112)은 마이크로폰(143)으로부터 수신된 데이터에 기초하여 오브젝트의 크기를 결정한다. 일 실시예에 따른 크기 추정 엔진(112)은 전자 장치(100)의 스피커(160)로부터 오브젝트를 향해 제1 신호를 송신한다. 또한, 크기 추정 엔진(112)은 제1 신호에 응답하여 마이크로폰(143)을 이용하여 오브젝트에서 반사된 제2 신호를 수신한다. 또한, 크기 추정 엔진(112)은 오브젝트로부터 반사되는 제2 신호에 기초하여 오브젝트의 크기를 결정할 수 있다. 일 실시예에 따른 크기 추정 엔진(112)은 제2 신호의 시간 변위가 변위 임계 값보다 큰지 여부를 확인할 수 있다. 크기 추정 엔진(112)은 제2 신호의 시간 변위가 변위 임계 값보다 클 때 오브젝트의 크기를 결정할 수 있다.The size estimation engine 112 according to an embodiment determines the size of the object based on data received from the microphone 143 . The size estimation engine 112 according to an embodiment transmits a first signal from the speaker 160 of the electronic device 100 toward the object. In addition, the magnitude estimation engine 112 receives a second signal reflected from the object using the microphone 143 in response to the first signal. Also, the size estimation engine 112 may determine the size of the object based on the second signal reflected from the object. The magnitude estimation engine 112 according to an embodiment may determine whether the temporal displacement of the second signal is greater than a displacement threshold value. The size estimation engine 112 may determine the size of the object when the temporal displacement of the second signal is greater than the displacement threshold value.
오브젝트 분류기(113)는 자력계 센서(144)로부터 수신된 데이터에 ML 모델(119)을 적용하여 오브젝트의 유형을 인식할 수 있다. 또한, 거리 임계 값 추정기(114)는 오브젝트의 크기 및 오브젝트의 유형에 따라 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정할 수 있다. 일 실시예에 따른 거리 임계 값 추정기(114)는 오브젝트의 크기를 사용하여 오브젝트의 부피를 결정할 수 있다. 또한, 거리 임계 값 추정기(114)는 오브젝트의 부피와 오브젝트의 유형에 따라 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정할 수 있다.The object classifier 113 may recognize the type of object by applying the ML model 119 to the data received from the magnetometer sensor 144 . In addition, the distance threshold value estimator 114 may determine the distance threshold value of the object to the screen 150 according to the size of the object and the type of the object. The distance threshold value estimator 114 according to an embodiment may determine the volume of the object by using the size of the object. In addition, the distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 according to the volume of the object and the type of the object.
위치 추정 엔진(117)은 센서(140)의 제2 세트(141, 142, 144)로부터 수신된 데이터에 기초하여 전자 장치(100)의 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정한다. 일 실시예에 따른 속도 결정 엔진(115)은 가속도계 데이터 또는 자기장 데이터의 변화에 기초하여 오브젝트의 속도를 결정한다. 방향 추정기(116)는 자이로 센서(142)로부터 수신된 방향 데이터에 기초하여 전자 장치(100)의 방향을 식별할 수 있다. 위치 추정 엔진(117)은 전자 장치(100)의 방향, 오브젝트의 속도 및 자력계 센서(144)로부터 수신된 자력계 데이터에 기초하여 지속적으로 스크린(150)에 대한 오브젝트의 위치를 결정할 수 있다. 일 실시예에 따른 위치 추정 엔진(117)은 오브젝트의 속도 및 자기계 데이터에 기초하여 3 차원 직교 좌표계에 대한 오브젝트의 위치 벡터를 결정할 수 있다.The position estimation engine 117 dynamically determines the position of the object with respect to the screen 150 of the electronic device 100 based on data received from the second set 141 , 142 , 144 of the sensor 140 . The speed determination engine 115 according to an embodiment determines the speed of the object based on a change in accelerometer data or magnetic field data. The direction estimator 116 may identify the direction of the electronic device 100 based on direction data received from the gyro sensor 142 . The position estimation engine 117 may continuously determine the position of the object with respect to the screen 150 based on the direction of the electronic device 100 , the velocity of the object, and magnetometer data received from the magnetometer sensor 144 . The position estimation engine 117 according to an embodiment may determine the position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity and magnetic field data of the object.
위치 추정 엔진(117)은 오브젝트의 위치 벡터 및 전자 장치(100)의 방향에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정할 수 있다.The position estimation engine 117 may dynamically determine the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
위치 추정 엔진(117)은 오브젝트의 위치에 기초하여 오브젝트와 스크린(150) 사이의 거리를 결정할 수 있다. 위치 추정 엔진(117)은 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정할 수 있다.The location estimation engine 117 may determine a distance between the object and the screen 150 based on the location of the object. The location estimation engine 117 may determine whether a distance between the object of the electronic device 100 and the screen 150 satisfies a distance threshold value.
동작 실행기(118)는 전자 장치(100)의 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 만족한다고 결정한 경우, 오브젝트의 위치에 따라 동작을 수행한다.When the action executor 118 determines that the distance between the object of the electronic device 100 and the screen 150 satisfies the distance threshold, the action executor 118 performs an action according to the location of the object.
동작 실행기(118)는 오브젝트의 위치에 기초하여 오브젝트가 가리키는 전자 장치(100)의 스크린(150) 부분을 결정한다. 동작 실행기(118)는 전자 장치(100)의 스크린(150)의 일부를 포함하는 UI 데이터 항목을 감지한다. 동작 실행기(118)는 UI 데이터 항목에 기초하여 수행할 동작을 결정하고 동작을 수행한다.The action executor 118 determines the portion of the screen 150 of the electronic device 100 pointed to by the object based on the position of the object. The action executor 118 detects a UI data item that includes a portion of the screen 150 of the electronic device 100 . The action executor 118 determines the action to perform based on the UI data item and performs the action.
비록 도 2b는 동작 제어부(110)의 하드웨어 구성 요소를 도시하였으나, 다른 실시예는 이에 제한되지 않음을 이해해야 한다. 다른 실시예에서, 동작 제어부(110)는 더 적은 수의 구성 요소를 포함할 수 있다. 또한, 구성 요소의 라벨 또는 명칭은 예시 목적으로만 사용되며 본 발명의 범위를 제한하지 않는다. 오브젝트의 위치에 기초하여 전자 장치(100)의 동작을 수행하기 위한 동일하거나 실질적으로 유사한 기능을 수행하기 위해 하나 이상의 구성 요소가 함께 결합될 수 있다.Although FIG. 2B shows hardware components of the operation control unit 110, it should be understood that other embodiments are not limited thereto. In another embodiment, the operation control unit 110 may include a smaller number of components. In addition, labels or names of components are used for illustrative purposes only and do not limit the scope of the present invention. One or more components may be coupled together to perform the same or substantially similar function for performing the operation of the electronic device 100 based on the position of the object.
도 3 및 도 4는 일 실시예에 따른 전자 장치(100)의 동작을 제어하는 방법을 나타내는 순서도이다.3 and 4 are flowcharts illustrating a method of controlling an operation of the electronic device 100 according to an exemplary embodiment.
도 3을 참조하면, 단계 302에서, 전자 장치(100)는 스크린(150) 위로 호버링된 오브젝트를 감지할 수 있다. 구체적으로, 오브젝트 감지기(111)는 스크린(150) 위로 호버링된 오브젝트를 감지할 수 있다.Referring to FIG. 3 , in step 302 , the electronic device 100 may detect an object hovered over the screen 150 . Specifically, the object detector 111 may detect an object hovered over the screen 150 .
단계 304에서, 전자 장치(100)는 센서(140)의 제1 세트(143, 144)로부터 데이터를 획득할 수 있다. 구체적으로, 거리 임계 값 추정기(114)는 센서(140)의 제1 세트(143, 144)로부터 데이터를 획득할 수 있다.In operation 304 , the electronic device 100 may obtain data from the first set 143 and 144 of the sensors 140 . Specifically, the distance threshold value estimator 114 may obtain data from the first set 143 , 144 of the sensors 140 .
단계 306에서, 전자 장치(100)는 센서(140)의 제1 세트(143, 144)로부터 수신된 데이터에 기초하여 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정할 수 있다. 구체적으로, 거리 임계 값 추정기(114)는 센서(140)의 제1 세트(143, 144)로부터 수신된 데이터에 기초하여 스크린(150)에 대한 오브젝트의 거리 임계 값을 결정할 수 있다.In operation 306 , the electronic device 100 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 and 144 of the sensor 140 . Specifically, the distance threshold value estimator 114 may determine a distance threshold value of the object to the screen 150 based on data received from the first set 143 , 144 of the sensors 140 .
단계 308에서, 전자 장치(100)는 센서(140)의 제2 세트(141, 142, 144)로부터 데이터를 획득할 수 있다. 구체적으로, 거리 임계 값 추정기(114), 속도 결정 엔진(115) 및 방향 추정기(116)는 센서(140)의 제2 세트(141, 142, 144)로부터 데이터를 획득할 수 있다.In operation 308 , the electronic device 100 may obtain data from the second set 141 , 142 , and 144 of the sensor 140 . Specifically, the distance threshold value estimator 114 , the speed determination engine 115 , and the direction estimator 116 may obtain data from the second set 141 , 142 , 144 of the sensors 140 .
단계 310에서, 전자 장치(100)는 센서(140)의 제2 세트(141, 142, 144)로부터 수신된 데이터에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정할 수 있다. 구체적으로, 위치 추정 엔진(117)은 센서(140)의 제2 세트(141, 142, 144)로부터 수신된 데이터에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정할 수 있다.In operation 310 , the electronic device 100 may dynamically determine the position of the object with respect to the screen 150 based on data received from the second set 141 , 142 , and 144 of the sensor 140 . Specifically, the position estimation engine 117 may dynamically determine the position of the object relative to the screen 150 based on data received from the second set 141 , 142 , 144 of the sensor 140 .
단계 312에서, 전자 장치(100)는 오브젝트의 위치에 기초하여 오브젝트와 스크린(150) 사이의 거리를 결정할 수 있다. 구체적으로, 위치 추정 엔진(117)은 오브젝트의 위치에 기초하여 오브젝트와 스크린(150) 사이의 거리를 결정할 수 있다.In operation 312 , the electronic device 100 may determine a distance between the object and the screen 150 based on the position of the object. Specifically, the position estimation engine 117 may determine a distance between the object and the screen 150 based on the position of the object.
단계 314에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정할 수 있다. 구체적으로, 위치 추정 엔진(117)은 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는지 여부를 결정할 수 있다.In operation 314 , the electronic device 100 may determine whether the distance between the object and the screen 150 satisfies a distance threshold. Specifically, the location estimation engine 117 may determine whether the distance between the object and the screen 150 meets a distance threshold value.
단계 316에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는 것으로 결정한 경우, 오브젝트의 위치에 기초하여 동작을 수행하는 단계를 포함한다. 구체적으로, 동작 실행기(118)가 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값을 충족하는 것으로 결정한 경우, 오브젝트의 위치에 기초하여 동작을 수행하도록 한다.In operation 316 , when the electronic device 100 determines that the distance between the object and the screen 150 satisfies a distance threshold, performing an operation based on the position of the object. Specifically, when the action executor 118 determines that the distance between the object and the screen 150 meets the distance threshold, it causes the action to be performed based on the position of the object.
이상에서의 순서도에서 다양한 동작, 작용, 블록, 단계 등은 제시된 순서로, 상이한 순서로 또는 동시에 수행될 수 있다. 또한, 일부 실시예에서, 동작, 작용, 단계 등의 일부는 본 발명의 범위를 벗어나지 않고 생략, 추가, 수정, 건너 뛰기 등이 될 수 있다.Various operations, actions, blocks, steps, etc. in the flowcharts above may be performed in the order presented, in a different order, or simultaneously. Also, in some embodiments, some of the actions, acts, steps, etc. may be omitted, added, modified, skipped, etc. without departing from the scope of the present invention.
도 4를 참조하면, 단계 401에서, 전자 장치(100)는 자력계 센서(144)로부터 수신된 자기장 데이터를 모니터링한다. 단계 402에서, 전자 장치(100)는 자기장의 변화율(즉, △B/△t)이 자기장 임계 값보다 큰지 여부를 결정한다. 전자 장치(100)는 자기장의 변화율 (즉, △B/△t)이 자기장 임계 값보다 크지 않다고 결정한 경우(402의 아니오), 자기장 데이터를 계속 모니터링한다(401).Referring to FIG. 4 , in step 401 , the electronic device 100 monitors magnetic field data received from the magnetometer sensor 144 . In operation 402, the electronic device 100 determines whether the rate of change of the magnetic field (ie, ΔB/Δt) is greater than a magnetic field threshold. If the electronic device 100 determines that the rate of change of the magnetic field (ie, ΔB/Δt) is not greater than the magnetic field threshold (No in 402 ), the electronic device 100 continues to monitor the magnetic field data ( 401 ).
단계 403에서, 전자 장치(100)는, 자기장의 변화율 (즉, △B/△t)이 자기장 임계 값보다 크다고 결정한 경우(402의 예), 전자 장치(100)에 근접한 오브젝트를 감지하고, 스피커(160)를 사용하여 시간 t1에서 15kHz 주파수의 제1 신호를 오브젝트를 향해 송신할 수 있다.In step 403 , when it is determined that the rate of change of the magnetic field (ie, ΔB/Δt) is greater than the magnetic field threshold (YES in 402 ), the electronic device 100 detects an object proximate to the electronic device 100 , and a speaker (160) may be used to transmit a first signal at a frequency of 15 kHz towards the object at time t1.
단계 404에서, 전자 장치(100)는 마이크로폰(143)을 사용하여 t2에서 제2 신호를 수신한다. 여기서, 제2 신호는 오브젝트에 대한 제1 신호에 부딪혀 오브젝트로부터 반사되는 신호이다.In operation 404 , the electronic device 100 receives the second signal at t2 using the microphone 143 . Here, the second signal is a signal that collides with the first signal for the object and is reflected from the object.
단계 405에서, 전자 장치(100)는 제2 신호의 시간 변위가 변위 임계 값보다 큰지 여부를 결정할 수 있다. 전자 장치(100)는 제2 신호의 시간 변위가 변위 임계 값보다 크지 않다고 결정할 때(405의 아니오), 자기장 데이터를 계속 모니터링할 수 있다(401).In operation 405, the electronic device 100 may determine whether the temporal displacement of the second signal is greater than a displacement threshold value. When determining that the time displacement of the second signal is not greater than the displacement threshold (No in 405 ), the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
전자 장치(100)는, 제2 신호의 시간 변위가 변위 임계 값보다 크다고 결정하는 경우(405의 예), 단계 406에서, 오브젝트의 크기를 결정하고, 단계 407에서, 자력계 데이터에 기초하여 오브젝트의 유형을 식별할 수 있다.When determining that the temporal displacement of the second signal is greater than the displacement threshold value (YES in 405), the electronic device 100 determines the size of the object in step 406, and determines the size of the object in step 407 based on the magnetometer data type can be identified.
단계 408에서, 전자 장치(100)는 오브젝트의 크기 및 오브젝트의 유형에 기초하여 거리 임계 값을 결정한다.In operation 408, the electronic device 100 determines a distance threshold value based on the size of the object and the type of the object.
단계 409에서, 자기장의 변화율(즉, △B/△t)이 자기장 임계 값보다 크다고 결정하면(402의 예), 전자 장치(100)는 가속도계 센서(141)로부터 수신된 가속도계 데이터를 사용하여 오브젝트의 속도를 결정한다.In step 409 , if it is determined that the rate of change of the magnetic field (ie, ΔB/Δt) is greater than the magnetic field threshold (YES in 402 ), the electronic device 100 uses the accelerometer data received from the accelerometer sensor 141 to set the object determine the speed of
단계 410에서, 전자 장치(100)는 오브젝트의 속도에 기초하여 3차원 직교 좌표계에 대한 오브젝트의 위치 벡터를 결정한다.In operation 410, the electronic device 100 determines a position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity of the object.
단계 411에서, 전자 장치(100)는 자이로 센서(142)로부터 수신된 방향 데이터에 기초하여 전자 장치(100)의 방향을 식별한다.In operation 411 , the electronic device 100 identifies the direction of the electronic device 100 based on the direction data received from the gyro sensor 142 .
단계 412에서, 전자 장치(100)는 오브젝트의 위치 벡터 및 전자 장치(100)의 방향에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정한다.In operation 412 , the electronic device 100 dynamically determines the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
단계 413에서, 전자 장치(100)는 스크린(150)에 대한 오브젝트의 위치에 기초하여 오브젝트와 스크린(150) 사이의 거리를 추정할 수 있다.In operation 413 , the electronic device 100 may estimate the distance between the object and the screen 150 based on the position of the object with respect to the screen 150 .
단계 414에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작은지 여부를 결정할 수 있다.In operation 414 , the electronic device 100 may determine whether the distance between the object and the screen 150 is less than a distance threshold value.
전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작지 않다고 결정한 경우(414의 아니오), 자기장 데이터를 계속 모니터링할 수 있다(401).When it is determined that the distance between the object and the screen 150 is not smaller than the distance threshold (No in 414 ), the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
단계 415에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작은 것으로 결정한 경우(414의 예), 오브젝트의 위치에 기초하여 동작을 수행할 수 있다.In operation 415 , when it is determined that the distance between the object and the screen 150 is smaller than the distance threshold value (Yes in 414 ), the electronic device 100 may perform an operation based on the position of the object.
이상에서의 순서도에서 다양한 동작, 작용, 블록, 단계 등은 제시된 순서로, 상이한 순서로 또는 동시에 수행 될 수 있다. 또한, 일부 실시예에서, 동작, 작용, 블록, 단계 등의 일부는 본 발명의 범위를 벗어나지 않고 생략, 추가, 수정, 건너 뛰기 등이 될 수 있다.Various operations, actions, blocks, steps, etc. in the flowcharts above may be performed in the order presented, in a different order, or simultaneously. Further, in some embodiments, some of an action, action, block, step, etc. may be omitted, added, modified, skipped, etc. without departing from the scope of the present invention.
도 5a는 일 실시예에 따른 전자 장치(100)의 마이크로폰(143)에서 수신된 신호를 나타내는 도면이다.5A is a diagram illustrating a signal received by the microphone 143 of the electronic device 100 according to an exemplary embodiment.
다양한 시간(502)에 마이크로폰(143)에서 수신된 제2 신호의 진폭(501)이 도 5a에 도시되어 있다. 여기서, 제2 신호는 스피커(160)로부터 오브젝트로 출력된 제1 신호가 오브젝트에 부딪혀 반사된 신호이다.The amplitude 501 of the second signal received at the microphone 143 at various times 502 is shown in FIG. 5A . Here, the second signal is a signal reflected by the first signal output from the speaker 160 to the object hitting the object.
전자 장치(100)는 오브젝트와 전자 장치(100) 사이의 거리를 추정하기 위해 처리할 적절한 제2 신호를 알지 못한다. 적절한 제2 신호를 결정하기 위해서는 사용자가 전자 장치(100)의 스크린(150)과 평행한 방향으로 오브젝트를 앞뒤로 움직여야 한다. 전자 장치(100)는 오브젝트의 움직임에 기초하여 적절한 제2 신호의 관련 이동 시간 변위를 결정하고, 관련없는 제2 신호는 특정 이동 시간에 근접하게 유지될 수 있다. 관련 이동 시간 변위는 오브젝트가 전자 장치(100)에 멀어지거나 가까워지는지를 나타내는 변위이다. 이동 시간은 스피커(160)에서 출력된 신호가 오브젝트에서 반사된 후 마이크로폰(143)까지 이동하는 데 걸리는 시간이다. 전자 장치(100)는 제2 신호에 대해 복수의 누적 감지 및 분산, 즉 각 제2 신호의 이동 시간의 표준 편차를 결정할 수 있다. 전자 장치(100)는 분산 임계 값을 초과하는 제2 신호를 적절한 제2 신호로 선택할 수 있다. 분산 임계 값의 범위는 1350에서 1550㎲다.The electronic device 100 does not know an appropriate second signal to be processed in order to estimate the distance between the object and the electronic device 100 . In order to determine an appropriate second signal, the user must move the object back and forth in a direction parallel to the screen 150 of the electronic device 100 . The electronic device 100 may determine the relevant movement time displacement of the appropriate second signal based on the movement of the object, and the unrelated second signal may be maintained close to the specific movement time. The related movement time displacement is a displacement indicating whether the object moves away from or approaches the electronic device 100 . The movement time is the time it takes for the signal output from the speaker 160 to travel to the microphone 143 after being reflected from the object. The electronic device 100 may determine a plurality of accumulated detection and dispersion of the second signal, that is, the standard deviation of the movement time of each second signal. The electronic device 100 may select a second signal exceeding the variance threshold as an appropriate second signal. The dispersion threshold ranges from 1350 to 1550 μs.
도 5b는 일 실시예에 따른 전자 장치(100)가 스크린(150) 위로 호버링(hovering)된 오브젝트의 크기를 결정하는 경우를 나타내는 도면이다.FIG. 5B is a diagram illustrating a case in which the electronic device 100 determines the size of an object hovered over the screen 150 according to an exemplary embodiment.
전자 장치(100) 위에 호버링된 오브젝트(510)의 측면도가 도 5b에 도시되어 있다. 마이크로폰(143)과 스피커(160)는 전자 장치(100)에 거리 (511)를 두고 배치된다. 제1 신호(512A)는 스피커(160)로부터 송신되어 오브젝트(510)에 부딪힌다. 오브젝트(510)에서 반사되는 제1 신호(512A)는 제2 신호(512B)이다. 또한, 마이크로폰(143)은 제2 신호(512B)를 수신할 수 있다.A side view of the object 510 hovered over the electronic device 100 is illustrated in FIG. 5B . The microphone 143 and the speaker 160 are disposed with a distance 511 from the electronic device 100 . The first signal 512A is transmitted from the speaker 160 and collides with the object 510 . The first signal 512A reflected from the object 510 is the second signal 512B. Also, the microphone 143 may receive the second signal 512B.
유사하게, 제1 신호(513A)는 스피커(160)로부터 송신되어 오브젝트(510)에 부딪힌다. 오브젝트(510)에서 반사되는 제1 신호(513A)는 제2 신호(513B)이다. 또한, 마이크로폰(143)은 제2 신호(513B)를 수신할 수 있다. 여기서, 제2 신호(513B)는 오브젝트(510)의 구조적 특성으로 인해 구부러진다.Similarly, the first signal 513A is transmitted from the speaker 160 and strikes the object 510 . The first signal 513A reflected from the object 510 is the second signal 513B. Also, the microphone 143 may receive the second signal 513B. Here, the second signal 513B is bent due to the structural characteristics of the object 510 .
전자 장치(100)는 <수학식 3>을 이용하여 마이크로폰(143)과 스피커(160) 사이의 거리 'x'(511)를 측정한다. 여기서, 신호의 이동 시간은 전자 장치(100)에 의해 결정될 수 있다.The electronic device 100 measures the distance 'x' 511 between the microphone 143 and the speaker 160 using <Equation 3>. Here, the movement time of the signal may be determined by the electronic device 100 .
단계 410에서, 전자 장치(100)는 오브젝트의 속도에 기초하여 3차원 직교 좌표계에 대한 오브젝트의 위치 벡터를 결정한다.In operation 410, the electronic device 100 determines a position vector of the object with respect to the 3D Cartesian coordinate system based on the velocity of the object.
단계 411에서, 전자 장치(100)는 자이로 센서(142)로부터 수신된 방향 데이터에 기초하여 전자 장치(100)의 방향을 식별한다.In operation 411 , the electronic device 100 identifies the direction of the electronic device 100 based on the direction data received from the gyro sensor 142 .
단계 412에서, 전자 장치(100)는 오브젝트의 위치 벡터 및 전자 장치(100)의 방향에 기초하여 스크린(150)에 대한 오브젝트의 위치를 동적으로 결정한다.In operation 412 , the electronic device 100 dynamically determines the position of the object with respect to the screen 150 based on the position vector of the object and the direction of the electronic device 100 .
단계 413에서, 전자 장치(100)는 스크린(150)에 대한 오브젝트의 위치에 기초하여 오브젝트와 스크린(150) 사이의 거리를 추정할 수 있다.In operation 413 , the electronic device 100 may estimate the distance between the object and the screen 150 based on the position of the object with respect to the screen 150 .
단계 414에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작은지 여부를 결정할 수 있다.In operation 414 , the electronic device 100 may determine whether the distance between the object and the screen 150 is less than a distance threshold value.
전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작지 않다고 결정한 경우(414의 아니오), 자기장 데이터를 계속 모니터링할 수 있다(401).When it is determined that the distance between the object and the screen 150 is not smaller than the distance threshold (No in 414 ), the electronic device 100 may continue to monitor the magnetic field data ( 401 ).
단계 415에서, 전자 장치(100)는 오브젝트와 스크린(150) 사이의 거리가 거리 임계 값보다 작은 것으로 결정한 경우(414의 예), 오브젝트의 위치에 기초하여 동작을 수행할 수 있다.In operation 415 , when it is determined that the distance between the object and the screen 150 is smaller than the distance threshold value (Yes in 414 ), the electronic device 100 may perform an operation based on the position of the object.
이상에서의 순서도에서 다양한 동작, 작용, 블록, 단계 등은 제시된 순서로, 상이한 순서로 또는 동시에 수행 될 수 있다. 또한, 일부 실시예에서, 동작, 작용, 블록, 단계 등의 일부는 본 발명의 범위를 벗어나지 않고 생략, 추가, 수정, 건너 뛰기 등이 될 수 있다.Various operations, actions, blocks, steps, etc. in the flowcharts above may be performed in the order presented, in a different order, or simultaneously. Also, in some embodiments, some of an action, action, block, step, etc. may be omitted, added, modified, skipped, etc. without departing from the scope of the present invention.
도 5a는 일 실시예에 따른 전자 장치(100)의 마이크로폰(143)에서 수신된 신호를 나타내는 도면이다.5A is a diagram illustrating a signal received by the microphone 143 of the electronic device 100 according to an exemplary embodiment.
다양한 시간(502)에 마이크로폰(143)에서 수신된 제2 신호의 진폭(501)이 도 5a에 도시되어 있다. 여기서, 제2 신호는 스피커(160)로부터 오브젝트로 출력된 제1 신호가 오브젝트에 부딪혀 반사된 신호이다.The amplitude 501 of the second signal received at the microphone 143 at various times 502 is shown in FIG. 5A . Here, the second signal is a signal reflected by the first signal output from the speaker 160 to the object hitting the object.
전자 장치(100)는 오브젝트와 전자 장치(100) 사이의 거리를 추정하기 위해 처리할 적절한 제2 신호를 알지 못한다. 적절한 제2 신호를 결정하기 위해서는 사용자가 전자 장치(100)의 스크린(150)과 평행한 방향으로 오브젝트를 앞뒤로 움직여야 한다. 전자 장치(100)는 오브젝트의 움직임에 기초하여 적절한 제2 신호의 관련 이동 시간 변위를 결정하고, 관련없는 제2 신호는 특정 이동 시간에 근접하게 유지될 수 있다. 관련 이동 시간 변위는 오브젝트가 전자 장치(100)에 멀어지거나 가까워지는지를 나타내는 변위이다. 이동 시간은 스피커(160)에서 출력된 신호가 오브젝트에서 반사된 후 마이크로폰(143)까지 이동하는 데 걸리는 시간이다. 전자 장치(100)는 제2 신호에 대해 복수의 누적 감지 및 분산, 즉 각 제2 신호의 이동 시간의 표준 편차를 결정할 수 있다. 전자 장치(100)는 분산 임계 값을 초과하는 제2 신호를 적절한 제2 신호로 선택할 수 있다. 분산 임계 값의 범위는 1350에서 1550㎲다.The electronic device 100 does not know an appropriate second signal to be processed in order to estimate the distance between the object and the electronic device 100 . In order to determine an appropriate second signal, the user must move the object back and forth in a direction parallel to the screen 150 of the electronic device 100 . The electronic device 100 may determine the relevant movement time displacement of the appropriate second signal based on the movement of the object, and the unrelated second signal may be maintained close to the specific movement time. The related movement time displacement is a displacement indicating whether the object moves away from or approaches the electronic device 100 . The movement time is the time it takes for the signal output from the speaker 160 to travel to the microphone 143 after being reflected from the object. The electronic device 100 may determine a plurality of accumulated detection and dispersion of the second signal, that is, the standard deviation of the movement time of each second signal. The electronic device 100 may select a second signal exceeding the variance threshold as an appropriate second signal. The dispersion threshold ranges from 1350 to 1550 μs.
도 5b는 일 실시예에 따른 전자 장치(100)가 스크린(150) 위로 호버링(hovering)된 오브젝트의 크기를 결정하는 경우를 나타내는 도면이다.FIG. 5B is a diagram illustrating a case in which the electronic device 100 determines the size of an object hovered over the screen 150 according to an exemplary embodiment.
전자 장치(100) 위에 호버링된 오브젝트(510)의 측면도가 도 5b에 도시되어 있다. 마이크로폰(143)과 스피커(160)는 전자 장치(100)에 거리 (511)를 두고 배치된다. 제1 신호(512A)는 스피커(160)로부터 송신되어 오브젝트(510)에 부딪힌다. 오브젝트(510)에서 반사되는 제1 신호(512A)는 제2 신호(512B)이다. 또한, 마이크로폰(143)은 제2 신호(512B)를 수신할 수 있다.A side view of the object 510 hovered over the electronic device 100 is illustrated in FIG. 5B . The microphone 143 and the speaker 160 are disposed with a distance 511 from the electronic device 100 . The first signal 512A is transmitted from the speaker 160 and collides with the object 510 . The first signal 512A reflected from the object 510 is the second signal 512B. Also, the microphone 143 may receive the second signal 512B.
유사하게, 제1 신호(513A)는 스피커(160)로부터 송신되어 오브젝트(510)에 부딪힌다. 오브젝트(510)에서 반사되는 제1 신호(513A)는 제2 신호(513B)이다. 또한, 마이크로폰(143)은 제2 신호(513B)를 수신할 수 있다. 여기서, 제2 신호(513B)는 오브젝트(510)의 구조적 특성으로 인해 구부러진다.Similarly, the first signal 513A is transmitted from the speaker 160 and strikes the object 510 . The first signal 513A reflected from the object 510 is the second signal 513B. Also, the microphone 143 may receive the second signal 513B. Here, the second signal 513B is bent due to the structural characteristics of the object 510 .
전자 장치(100)는 <수학식 3>을 이용하여 마이크로폰(143)과 스피커(160) 사이의 거리 'x'(511)를 측정한다. 여기서, 신호의 이동 시간은 전자 장치(100)에 의해 결정될 수 있다.The electronic device 100 measures the distance 'x' 511 between the microphone 143 and the speaker 160 using <Equation 3>. Here, the movement time of the signal may be determined by the electronic device 100 .
<수학식 3><Equation 3>
Figure PCTKR2021018490-appb-img-000007
Figure PCTKR2021018490-appb-img-000007
여기서, 소리의 속도, vsound는 34300 cm/sec이다.Here, the speed of sound, v sound , is 34300 cm/sec.
또한, 전자 장치(100)는 Fresnel-Kirchhoff 회절 방정식에 마이크로폰(143)과 스피커(160) 사이의 거리(511)를 적용하여 오브젝트의 크기를 결정할 수 있다.Also, the electronic device 100 may determine the size of the object by applying the distance 511 between the microphone 143 and the speaker 160 to the Fresnel-Kirchhoff diffraction equation.
도 6a 및 도 6b는 일 실시예에 따른 전자 장치가 스크린 위로 호버링된 오브젝트의 유형을 식별하기 위해 이용하는 순환신경망(recurrent neural network; RNN)을 나타내는 도면이다.6A and 6B are diagrams illustrating a recurrent neural network (RNN) used by an electronic device to identify a type of an object hovered over a screen, according to an exemplary embodiment.
일 실시예에 따른 전자 장치(100) 위에 각 유형의 오브젝트를 호버링하여 매초마다 측정한 자기장 B의 절대 값이 <표 1>에 나와있다.Table 1 shows absolute values of the magnetic field B measured every second by hovering each type of object on the electronic device 100 according to an embodiment.
오브젝트
유형
object
category
B in 1st
second (μT)
B in 1 st
second (μT)
B in 2nd
second (μT)
B in 2nd
second (μT)
B in 3rd
second (μT)
B in 3rd
second (μT)
B in 4th
second (μT)
B in 4th
second (μT)
steel 34.4234.42 35.1235.12 35.6735.67 36.2136.21
니켈nickel 23.3223.32 23.6723.67 23.9123.91 24.1224.12
코발트cobalt 28.5628.56 28.6428.64 28.7928.79 28.8628.86
일 실시예에 따른 자기장의 변화율 (△B/△t)은 <표 2>에 나와있다.The change rate (ΔB/Δt) of the magnetic field according to an embodiment is shown in <Table 2>.
오브젝트
유형
object
category
△B/△t for 1st
instant (μT)
△B/△t for 1 st
instant (μT)
△B/△t for 2nd
instant (μT)
△B/△t for 2nd
instant (μT)
△B/△t for 3rd
instant (μT)
△B/ △t for 3rd
instant (μT)
steel 35.12-34.42 = 0.7035.12-34.42 = 0.70 35.67-35.12 = 0.5535.67-35.12 = 0.55 36.21- 35.67= 0.5436.21- 35.67= 0.54
니켈nickel 23.67-23.32= 0.3523.67-23.32 = 0.35 23.91- 23.67= 0.2423.91- 23.67 = 0.24 24.12- 23.91= 0.2124.12 - 23.91 = 0.21
코발트cobalt 28.64-28.56= 0.0828.64-28.56 = 0.08 28.79-28.64= 0.1528.79-28.64 = 0.15 28.86- 28.79= 0.0728.86- 28.79 = 0.07
전자 장치(100)는 자기장의 변화율을 학습하여 오브젝트의 유형을 결정한다. 자기장의 변화율의 수백 개의 값들은 전자 장치(100)를 학습하기에 충분하다. 또한, 전자 장치(100)는 학습된 자기장의 변화율에 대한 학습을 이용하여 자기장의 변화율에 기초하여 오브젝트의 유형을 식별한다. 전자 장치(100)는 도 6a에 도시된 바와 같이, 오브젝트의 유형을 식별하기 위해 RNN(600)에 자기장의 변화율을 적용한다. X1, X2, X3은 RNN(600)의 입력이다. X1은 첫 번째 순간에 대한 △B/△t이다. X2는 두 번째 순간에 대한 △B/△t이다. X3는 세 번째에 대한 △B/△t이다. fw(602), fw(604), fw(606)는 파라미터 'W' (fw)가 있는 함수이다. h0(601), h1(603), h2(605), h3(607),... ht(609)는 <수학식 4>과 같이 정의될 수 있다.The electronic device 100 determines the type of object by learning the rate of change of the magnetic field. Hundreds of values of the rate of change of the magnetic field are sufficient to learn the electronic device 100 . Also, the electronic device 100 identifies the type of object based on the change rate of the magnetic field using the learned change rate of the magnetic field. As shown in FIG. 6A , the electronic device 100 applies a rate of change of the magnetic field to the RNN 600 to identify the type of object. X 1 , X 2 , X 3 are inputs of the RNN 600 . X 1 is ΔB/Δt for the first instant. X 2 is ΔB/Δt for the second instant. X 3 is ΔB/Δt for the third. f w (602), f w (604), f w (606) are functions with parameter 'W' (f w ). h 0 (601), h 1 (603), h 2 (605), h 3 (607), ... h t (609) may be defined as in <Equation 4>.
<수학식 4><Equation 4>
Figure PCTKR2021018490-appb-img-000008
Figure PCTKR2021018490-appb-img-000008
여기서, ht-1은 이전 출력 값이고, ht는 새 출력 값이다. <수학식 4>는 다음과 같이 표현할 수도 있다.where h t-1 is the old output value and h t is the new output value. <Equation 4> can also be expressed as follows.
Figure PCTKR2021018490-appb-img-000009
Figure PCTKR2021018490-appb-img-000009
여기서, W(608)는 매 순간 함수 fw에서 사용하는 가중치 매트릭스 (Whh)를 의미한다. 일 실시예에 따른 가중치 매트릭스는 역전파 방법을 사용하여 훈련함으로써 획득될 수 있다. Wy(610)는 출력 Y(611)를 생성하기 위해 ht(609)에서 사용하는 가중치 매트릭스를 의미한다. 여기서, Y(611)는 주어진 입력 X1, X2, X3에 대한 오브젝트의 유형을 나타내는 <수학식 5>에 주어진 RNN(600)의 출력을 의미한다.Here, W(608) means a weight matrix (W hh ) used in every instantaneous function f w . The weight matrix according to an embodiment may be obtained by training using a backpropagation method. W y (610) means the weight matrix used by h t (609) to generate the output Y (611). Here, Y(611) denotes the output of the RNN 600 given in <Equation 5> indicating the type of object for the given inputs X 1 , X 2 , and X 3 .
<수학식 5><Equation 5>
Figure PCTKR2021018490-appb-img-000010
Figure PCTKR2021018490-appb-img-000010
일 예에서, X1, X2, X3이 각각 0.70, 0.55, 0.54라고 가정할 수 있다. 이 경우, 전자 장치(100)는 철을 오브젝트의 유형으로 식별할 수 있다. RNN(600)을 이용하여 오브젝트의 유형을 식별하는 방법의 순서도는 도 6b에 도시되어 있다. RNN(600)의 입력은 X(612)이며, 여기서 X(612)는 각 순간의 자기장 변화율을 의미한다. RNN(600)의 출력은 Y(611)이며, 여기서 Y(611)는 철, 코발트, 니켈 등과 같은 오브젝트의 유형을 의미한다.In an example, it may be assumed that X 1 , X 2 , and X 3 are 0.70, 0.55, and 0.54, respectively. In this case, the electronic device 100 may identify iron as the type of object. A flowchart of a method of identifying a type of an object using the RNN 600 is shown in FIG. 6B . The input of the RNN 600 is X (612), where X (612) means the rate of change of the magnetic field at each instant. The output of the RNN 600 is Y 611 , where Y 611 means the type of object such as iron, cobalt, nickel, or the like.
도 7은 일 실시예에 따른 전자 장치(100)의 스크린(150)으로부터의 오브젝트의 높이에 대한 오브젝트의 부피의 플롯을 나타내는 도면이다7 is a diagram illustrating a plot of a volume of an object with respect to a height of the object from the screen 150 of the electronic device 100 according to an exemplary embodiment.
도 7을 참조하면, 전자 장치(100)는 오브젝트의 크기에 기초하여 오브젝트의 부피를 결정할 수 있다. 또한, 전자 장치(100)는 오브젝트의 부피에 대한 회귀 분석을 수행하여 오브젝트의 거리 임계 값을 결정할 수 있다. 전자 장치(100)는 적어도 하나의 독립 변수의 값에 기초하여 종속 변수의 값을 추정하기 위해 회귀 분석을 사용하며, 여기서 종속 변수는 스크린(150)으로부터의 오브젝트의 높이이고, 독립 변수는 오브젝트의 부피이다.Referring to FIG. 7 , the electronic device 100 may determine the volume of the object based on the size of the object. Also, the electronic device 100 may determine the distance threshold value of the object by performing regression analysis on the volume of the object. The electronic device 100 uses regression analysis to estimate the value of the dependent variable based on the value of the at least one independent variable, where the dependent variable is the height of the object from the screen 150 and the independent variable is the height of the object. is the volume
X 방향으로 그래프상의 체적 플롯과 스크린(150)으로부터의 오브젝트의 높이가 <수학식 6>과 같은 관계로 Y 방향으로 그래프 상에 플롯되는 것을 고려한다. 부피와 높이 사이의 관계는 선형 함수(707)에 의해 설명될 수 있다. 즉, 높이의 변화는 부피의 변화로 인한 것으로 가정한다. 705는 부피와 높이 사이의 관계에 따라 그래프에 표시된 점을 나타낸다.It is considered that the volume plot on the graph in the X direction and the height of the object from the screen 150 are plotted on the graph in the Y direction with the same relation as in Equation (6). The relationship between volume and height can be described by a linear function 707 . That is, it is assumed that the change in height is due to the change in volume. 705 denotes a point plotted on the graph according to the relationship between volume and height.
<수학식 6><Equation 6>
Figure PCTKR2021018490-appb-img-000011
Figure PCTKR2021018490-appb-img-000011
여기서 Yi(702)는 오브젝트의 부피 'Xi'(706)를 기준으로 스크린(150)으로부터 오브젝트의 예상 높이인 반면, Y의 실제 값 즉, 부피(706)에 대한 Xi의 스크린(150)으로부터의 오브젝트의 실제 높이는 701이다. β0(703) 및 β1(708)은 오브젝트의 유형에 따라 결정되는 상수를 나타낸다. β0 및 β1은 값이 <수학식 8> 및 <수학식 9>를 사용하여 결정되는 훈련 가능한 파라미터이다. β0(703) 및 β1(708)의 값은 실수이다. εi(704)는 10-2에서 10-4 사이의 임의 오차 범위를 나타낸다. 임의 오차는 경사 하강법을 이용하여 <수학식 6>의 최소화를 사용하여 계산할 수 있다. 또한, <수학식 6>은 랜덤 오차 계산에 따라 <수학식 7>로 수정될 수 있다.where Y i 702 is the expected height of the object from the screen 150 relative to the object's volume 'X i ' 706 , while the actual value of Y i.e. the screen 150 of X i relative to the volume 706 . ), the actual height of the object is 701. β 0 (703) and β 1 (708) represent constants determined according to the type of object. β 0 and β 1 are trainable parameters whose values are determined using <Equation 8> and <Equation 9>. The values of β 0 (703) and β 1 (708) are real numbers. ε i (704) represents an arbitrary error range between 10 -2 and 10 -4 . The random error can be calculated using the minimization of <Equation 6> using gradient descent. Also, <Equation 6> may be modified to <Equation 7> according to random error calculation.
<수학식 7><Equation 7>
Figure PCTKR2021018490-appb-img-000012
Figure PCTKR2021018490-appb-img-000012
부피를 결정한 후, 전자 장치(100)는 오브젝트가 감지되는 높이를 결정한다. X는 부피이고 Y는 높이를 나타낸다. 전자 장치(100)는 경사 하강법을 이용하여 예측 값과 실제 값 사이의 손실을 최소화하여 b0 및 b1을 계산하기 위해 <수학식 8> 및 <수학식 9>를 사용한다.After determining the volume, the electronic device 100 determines the height at which the object is sensed. X is the volume and Y is the height. The electronic device 100 uses <Equation 8> and <Equation 9> to calculate b 0 and b 1 by minimizing the loss between the predicted value and the actual value using gradient descent.
<수학식 8><Equation 8>
Figure PCTKR2021018490-appb-img-000013
Figure PCTKR2021018490-appb-img-000013
<수학식 9><Equation 9>
Figure PCTKR2021018490-appb-img-000014
Figure PCTKR2021018490-appb-img-000014
일 예에서, 다른 부피에 대하여 다른 오브젝트에 대한 거리 임계 값은 <표 3>에 제공된 바와 같다.In one example, distance thresholds for different objects for different volumes are as provided in Table 3.
오브젝트 유형object type 부피 (cm2)Volume (cm 2 ) 깊이 (mm)Depth (mm)
steel 35.9035.90 6262
니켈nickel 29.6029.60 4646
코발트cobalt 54.7054.70 5656
steel 45.6545.65 7878
니켈nickel 69.5569.55 6464
코발트cobalt 79.5079.50 6868
steel 60.5060.50 9292
니켈nickel 24.5824.58 4040
코발트cobalt 80.6580.65 7070
도 8 일 실시예에 따른 전자 장치가 스크린 위로 호버링된 오브젝트의 속도를 결정하는 경우를 나타내는 도면이다.8 is a diagram illustrating a case in which an electronic device determines a speed of an object hovered over a screen according to an exemplary embodiment.
도 8을 참조하면, 전자 장치(100)는 오브젝트(510) 예를 들어, 스크류 드라이버의 속도를 결정하기 위해 학습할 수 있다. 학습 단계 동안, 오브젝트(510)는 전자 장치(100)의 스크린(150) 위에 배치되어야 한다. 또한, 전자 장치(100)는 오브젝트(510)의 위치를 고정하여 수평 및 수직 방향(801-804)으로 이동해야 한다.Referring to FIG. 8 , the electronic device 100 may learn to determine the speed of the object 510 , for example, a screw driver. During the learning phase, the object 510 should be placed on the screen 150 of the electronic device 100 . In addition, the electronic device 100 must move in the horizontal and vertical directions 801 - 804 by fixing the position of the object 510 .
전자 장치(100)는 전자 장치(100)를 이동하면서 매 순간마다 자기장 데이터와 가속도계 데이터를 모니터링할 수 있다. 전자 장치(100)는 가속도계 데이터를 이용하여 매 순간마다 자기장을 결정할 수 있다. 전자 장치(100)는 가속도계 데이터에 기초하여 매 순간에 전자 장치(100)의 속도를 결정할 수 있다. 자기장과 속도의 예는 <표 4>에 도시한 바와 같다. 여기서, Bt-1은 시간 0 초에서의 자기장이고 Bt는 시간 1 초에서의 자기장을 나타낸다. 따라서, 전자 장치(100)는 전자 장치(100)의 속도와 자기장의 관계를 학습할 수 있다.The electronic device 100 may monitor magnetic field data and accelerometer data at every instant while moving the electronic device 100 . The electronic device 100 may determine the magnetic field at every moment by using the accelerometer data. The electronic device 100 may determine the speed of the electronic device 100 at every moment based on the accelerometer data. Examples of magnetic field and velocity are shown in <Table 4>. Here, B t-1 is the magnetic field at time 0 second and B t represents the magnetic field at time 1 second. Accordingly, the electronic device 100 may learn the relationship between the speed of the electronic device 100 and the magnetic field.
Bt-1(μT)B t-1 (μT) Bt(μT)B t (μT) 속도(m/s2)speed (m/s 2 )
0.70,5.4,3.60.70,5.4,3.6 0.6,4.9,2.90.6,4.9,2.9 -0.2,0.4,-0.14-0.2,0.4,-0.14
0.35,0.21,0.270.35,0.21,0.27 0.24,0.31,0.110.24,0.31,0.11 0.21,0.12,-0.510.21,0.12,-0.51
0.08,0.82,0.330.08,0.82,0.33 0.72,0.15,0.910.72,0.15,0.91 1.23,-0.98,0.871.23,-0.98,0.87
또한, 전자 장치(100)는 오브젝트(510)가 스크린(150) 위를 호버링할 때 전자 장치(100)의 속도와 자기장의 관계에 대하여 학습된 지식을 이용하여 오브젝트(510)의 속도를 결정한다.Also, when the object 510 hovers over the screen 150 , the electronic device 100 determines the speed of the object 510 by using the learned knowledge about the relationship between the speed of the electronic device 100 and the magnetic field. .
전자 장치(100)는 자기장에 대한 회귀 분석을 수행하여 오브젝트(510)의 속도를 결정한다. 전자 장치(100)는 적어도 하나의 독립 변수의 값에 기초하여 종속 변수의 값을 추정하기 위해 회귀 분석을 사용할 수 있다. 여기서, 종속 변수는 오브젝트(510)의 속도이고 독립 변수는 오브젝트(510)의 움직임으로 인한 자기장의 변화이다. 오브젝트(510)의 속도와 자기장의 변화 사이의 관계는 <수학식 6>에 주어진 선형 함수로 설명될 수 있다.The electronic device 100 determines the speed of the object 510 by performing regression analysis on the magnetic field. The electronic device 100 may use regression analysis to estimate the value of the dependent variable based on the value of the at least one independent variable. Here, the dependent variable is the speed of the object 510 and the independent variable is a change in the magnetic field due to the movement of the object 510 . The relationship between the velocity of the object 510 and the change in the magnetic field may be described as a linear function given in Equation (6).
Yi는 자기장 'Xi'의 변화에 따른 오브젝트(510)의 추정 속도이다. β0 및 β1은 오브젝트(510)의 유형에 따라 결정되는 상수이다. β0 및 β1은 값이 <수학식 8> 및 <수학식 9>를 사용하여 결정되는 훈련 가능한 파라미터이다. β0 및 β1의 값은 실수이다. εi는 10-2 에서 10-4 사이의 임의 오차 범위이다. 임의의 오차는 경사 하강법을 이용한 <수학식 6>의 최소화를 사용하여 계산할 수 있다. 자기장의 변화를 확인한 후, 전자 장치(100)는 속도를 결정할 수 있다. X는 자기장의 변화이고 Y는 속도이다. 전자 장치(100)는 경사 하강법을 사용하여 예측 값과 실제 값 간의 손실을 최소화하여 b0 및 b1을 계산하기 위해 <수학식 8> 및 <수학식 9>를 사용할 수 있다.Y i is the estimated speed of the object 510 according to the change of the magnetic field 'X i '. β 0 and β 1 are constants determined according to the type of the object 510 . β 0 and β 1 are trainable parameters whose values are determined using <Equation 8> and <Equation 9>. The values of β 0 and β 1 are real numbers. ε i is a random error range between 10 -2 and 10 -4 . An arbitrary error can be calculated using the minimization of <Equation 6> using the gradient descent method. After confirming the change in the magnetic field, the electronic device 100 may determine the speed. X is the change in the magnetic field and Y is the velocity. The electronic device 100 may use <Equation 8> and <Equation 9> to calculate b 0 and b 1 by minimizing the loss between the predicted value and the actual value using gradient descent.
일 예에서, 전자 장치(100)는 오브젝트(510)의 속도에 기초하여 오브젝트(510)의 위치 벡터를 결정한다. 시간 0초의 자기장 ' Bt-1', 시간 1초의 자기장 'Bt', 자기장의 변화 '△B', 오브젝트(510)의 해당 속도 및 오브젝트(510)의 해당 위치 벡터 'r(World Plane)'가 표 5에 나와 있다.In an example, the electronic device 100 determines the position vector of the object 510 based on the speed of the object 510 . Magnetic field 'B t-1 ' at time 0 seconds, magnetic field 'B t ' at time 1 second, change of magnetic field 'ΔB', corresponding velocity of object 510 and corresponding position vector of object 510 'r (World Plane) ' is shown in Table 5.
Bt(μT)B t (μT) Bt-1(μT)B t-1 (μT) △B(μT)ΔB (μT) 속도
(m/s)
speed
(m/s)
r(World Plane)r(World Plane)
0.6,4.9,2.90.6,4.9,2.9 0.70,5.4,3.60.70,5.4,3.6 0.1,0.5,0.70.1,0.5,0.7 -0.2,0.4,-0.14-0.2,0.4,-0.14 -1.3,6.7,4.1-1.3,6.7,4.1
0.24,0.31,0.110.24,0.31,0.11 0.35,0.21,0.270.35,0.21,0.27 0.11,-0.10,0.160.11,-0.10,0.16 0.21,0.12,-0.510.21,0.12,-0.51 2.1,5.6,2.62.1,5.6,2.6
0.72,0.15,0.910.72,0.15,0.91 0.08,0.82,0.330.08,0.82,0.33 -0.64,0.67,-0.58-0.64,0.67,-0.58 1.23,-0.98,0.871.23,-0.98,0.87 -1.3,-0.6,0.3-1.3, -0.6,0.3
도 9는 일 실시예에 따른 전자 장치(100)의 방향을 계산하는 방법을 나타내는 도면이고, 도 10은 일 실시예에 따른 전자 장치(100)에서 3 차원 직교 좌표계에서의 오브젝트(510)의 위치 벡터 및 스크린(150)에 대한 오브젝트(510)의 위치를 나타내는 도면이다.9 is a diagram illustrating a method of calculating a direction of the electronic device 100 according to an embodiment, and FIG. 10 is a position of an object 510 in a 3D Cartesian coordinate system in the electronic device 100 according to an embodiment. It is a diagram showing the position of the object 510 with respect to the vector and the screen 150 .
도 9를 참조하면, X(901), Y(902), Z(903)는 양의 방향으로 3차원 직교 좌표계의 축이다. 전자 장치(100)는 스크린(150)이 양의 Z축(903)을 향하고 X축(901), Y축(902), Z축(903)의 중심에 배치되도록 배치되며, 양의 Y축(902)을 향하는 방향에 전자 장치(100)의 상단이 배치되도록 배치될 수 있다. 그러면 방위각 'α'(906)는 양의 Y축(902)과 자북(907) 사이의 각도이며, 방위각(906)의 범위는 0도에서 360도 사이이다. 양의 롤 'γ'(905)는 전자 장치(100)가 수평 평면에 평평하게 누워 시작하고 양의 Z축(903)이 양의 X축(901)을 향해 기울어지기 시작하는 것으로 정의된다. 양의 피치 'β'(904)는 전자 장치(100)가 수평 평면에 평평하게 누워 시작하고 양의 Z축(903)이 양의 Y축(902)쪽으로 기울어지기 시작하는 경우로 정의된다.Referring to FIG. 9 , X ( 901 ), Y ( 902 ), and Z ( 903 ) are axes of a three-dimensional Cartesian coordinate system in a positive direction. The electronic device 100 is arranged such that the screen 150 faces the positive Z-axis 903 and is disposed at the center of the X-axis 901, the Y-axis 902, and the Z-axis 903, and the positive Y-axis ( The upper end of the electronic device 100 may be disposed in a direction toward 902 . Then the azimuth 'α' 906 is the angle between the positive Y-axis 902 and magnetic north 907, and the azimuth 906 ranges from 0 degrees to 360 degrees. A positive roll 'γ' 905 is defined as the electronic device 100 starts lying flat on a horizontal plane and the positive Z-axis 903 begins to tilt toward the positive X-axis 901 . The positive pitch 'β' 904 is defined as a case in which the electronic device 100 starts lying flat on a horizontal plane and the positive Z-axis 903 starts to tilt toward the positive Y-axis 902 .
도 10을 참조하면, 오브젝트(510)는 위치 좌표(x3, y3, z3)(1005) 및 스크린(150) 위의 높이 'h'(1004)로 전자 장치(100) 위에 위치할 수 있다. 이때, 오브젝트(510)가 스크린(150)으로부터 위치하는 높이 'h'(1004)는 거리 임계 값(805)보다 낮을 수 있다. 또한, 전자 장치(100)의 자력계 센서(144)의 위치 좌표는 (x1, y1)(1002)일 수 있다.Referring to FIG. 10 , the object 510 may be positioned on the electronic device 100 with position coordinates (x3, y3, z3) 1005 and a height 'h' 1004 above the screen 150 . In this case, the height 'h' 1004 at which the object 510 is positioned from the screen 150 may be lower than the distance threshold value 805 . Also, the position coordinates of the magnetometer sensor 144 of the electronic device 100 may be (x1, y1) (1002).
전자 장치(100)는 오브젝트(510)의 위치 벡터를 r(1001)로 결정할 수 있다. 또한, 전자 장치(100)는 오브젝트(510)의 위치 벡터 및 전자 장치(100)의 방향을 이용하여, 스크린(150)에 대한 오브젝트(510)의 위치 (즉, 위치 좌표) 또는 (x2, y2)(1003)로서 전자 장치(100)의 임의의 평면을 결정할 수 있다.The electronic device 100 may determine the position vector of the object 510 as r(1001). Also, the electronic device 100 uses the position vector of the object 510 and the direction of the electronic device 100 to determine the position (ie, position coordinates) of the object 510 with respect to the screen 150 or (x2, y2). ) 1003 may determine an arbitrary plane of the electronic device 100 .
도 11은 일 실시예에 따른 전자 장치(100)가 오브젝트(510)의 위치에 기초하여 문자를 입력받는 예시적인 시나리오를 나타내는 도면이다.11 is a diagram illustrating an exemplary scenario in which the electronic device 100 receives a text based on the position of the object 510 according to an embodiment.
도 11을 참조하면, 1100A에 도시된 바와 같이, 사용자는 스크류 드라이버(510), 즉 전자 장치(100)의 스크린(150) 위에 있는 오브젝트(510)를 'S'(1101) 모양으로 거리 임계 값(805) 아래에서 호버링할 수 있다.Referring to FIG. 11 , as shown in 1100A, a user uses a screw driver 510 , ie, an object 510 on the screen 150 of the electronic device 100 , in the shape of an 'S' 1101 , a distance threshold value. You can hover below (805).
이때, 전자 장치(100)는 스크류 드라이버(510)가 스크린(150) 위로 호버링하는 매 순간에 스크류 드라이버(510)의 위치를 결정한다. 또한, 전자 장치(100)는 스크류 드라이버(510)의 위치에 기초하여 스크린(150)에서 오브젝트(510)의 움직임 형태를 매 순간 감지할 수 있다. 전자 장치(100)는 오브젝트(510)의 움직임 형태를 'S'로 식별하고 입력한 것을 알파벳 'S'로 취한다. 또한, 전자 장치(100)는, 1100B에 도시된 바와 같이, 알파벳 'S'(1102)를 사용자에게 표시하는 동작을 수행한다.In this case, the electronic device 100 determines the position of the screw driver 510 at every moment the screw driver 510 hovers over the screen 150 . Also, the electronic device 100 may sense a movement form of the object 510 on the screen 150 at every moment based on the position of the screw driver 510 . The electronic device 100 identifies the movement form of the object 510 as 'S' and takes the input as the alphabet 'S'. Also, as shown in 1100B, the electronic device 100 displays the alphabet 'S' 1102 to the user.
따라서, 제안된 방법은 전통적인 터치 감지 장치에서와 같이 스타일러스의 기능을 통합하기 위해 전자 장치(100)에서 사용될 수 있다. 전자 장치(100)의 설계에 스타일러스를 포함하지 않음으로써 전자 장치(100)의 크기, 무게 및 제조 비용을 크게 줄일 수 있다. 또한, 전자 장치(100)에 액티브 디지타이저 시트를 포함하지 않기 때문에 제안된 방법을 사용하여 전자 장치(100)의 전력 소모를 크게 향상시킬 수 있다. 제안된 방법은 사용자가 인증할 오브젝트를 이용하여 전자 장치(100)의 스크린(150)에 서명을 할 수 있도록 하여, 인증을 위해 전자 장치(100)에 지문 센서가 필요하지 않다. 전자 장치(100)에 지문 센서를 포함하지 않음으로써 제안된 방법을 이용하여 전자 장치(100)의 전력 소모를 크게 개선 할 수 있고 제조 비용을 크게 절감 할 수 있다.Therefore, the proposed method can be used in the electronic device 100 to integrate the function of a stylus as in a traditional touch sensing device. By not including the stylus in the design of the electronic device 100 , the size, weight, and manufacturing cost of the electronic device 100 may be greatly reduced. In addition, since the electronic device 100 does not include an active digitizer sheet, power consumption of the electronic device 100 can be greatly improved by using the proposed method. The proposed method allows a user to sign the screen 150 of the electronic device 100 using an object to be authenticated, so that the electronic device 100 does not need a fingerprint sensor for authentication. By not including the fingerprint sensor in the electronic device 100 , power consumption of the electronic device 100 can be greatly improved and manufacturing cost can be greatly reduced using the proposed method.
도 12는 일 실시예에 따른 전자 장치(100)가 오브젝트(510)의 위치에 기초하여 사용자 프로파일을 전환하는 예시적인 시나리오를 나타내는 도면이다.12 is a diagram illustrating an exemplary scenario in which the electronic device 100 switches a user profile based on a location of an object 510 according to an embodiment.
도 12를 참조하면, 전자 장치(100)는 제1 부분(1202)과 제2 부분(1203) 사이에 경계(1201)를 설정하여 전자 장치(100)의 UI를 제1 부분(1202)과 제2 부분(1203)으로 분할한다.Referring to FIG. 12 , the electronic device 100 sets a boundary 1201 between the first part 1202 and the second part 1203 to display the UI of the electronic device 100 with the first part 1202 and the second part 1202 . Divide into two parts 1203.
전자 장치(100)는 제1 부분(1202)을 제1 사용자 프로필을 위한 부분으로 할당하고, 제2 부분(1203)을 제2 사용자 프로필을 위한 부분으로 할당할 수 있다.The electronic device 100 may allocate the first part 1202 as a part for the first user profile and allocate the second part 1203 as a part for the second user profile.
전자 장치(100)는 사용자가 거리 임계 값 범위 내에서 스크린(150) 위의 제1 부분(1202) 내로 오브젝트를 호버링할 때 제1 사용자 프로파일을 활성화할 수 있다. 또한, 전자 장치(100)는 사용자가 거리 임계 값 범위 내에서 스크린(150) 위의 제2 부분(1203) 내로 오브젝트를 호버링할 때 제2 사용자 프로파일을 활성화할 수 있다.The electronic device 100 may activate the first user profile when the user hovers the object into the first portion 1202 on the screen 150 within the distance threshold value range. Also, the electronic device 100 may activate the second user profile when the user hovers the object into the second portion 1203 on the screen 150 within the distance threshold range.
따라서, 이 방법은 전자 장치(100)가 사용자가 오브젝트를 호버링하는 부분에 기초하여 사용자 프로파일을 전환할 수 있도록 한다.Accordingly, this method enables the electronic device 100 to switch a user profile based on a portion in which the user hovers an object.
도 13은 일 실시예에 따른 전자 장치(100)가 오브젝트의 위치에 기초하여 사용자의 손을 씻도록 지시하는 예시적인 시나리오를 나타내는 도면이다.13 is a diagram illustrating an exemplary scenario in which the electronic device 100 instructs the user to wash the user's hand based on the position of the object, according to an embodiment.
도 13을 참조하면, 사용자는 오브젝트인 금속 링(1304)을 착용할 수 있다. 또한, 사용자는, 1300에 도시된 바와 같이, 수도꼭지(1301)에서 흐르는 물(1302)을 이용하여 손(1303)을 씻을 수 있다.Referring to FIG. 13 , a user may wear a metal ring 1304 that is an object. Also, as shown in 1300 , the user may wash hands 1303 using water 1302 flowing from the faucet 1301 .
일 실시예에 따른 전자 장치(100)는 금속 링(1304)의 위치가 거리 임계 값 범위 내에 있을 때 손(1303)을 씻는 동안 금속 링(1304)의 위치를 모니터링할 수 있다. 즉, 전자 장치(100)는 사용자가 손(1303)을 씻는 동안 금속 링(1304)의 움직임을 추적할 수 있다.The electronic device 100 according to an embodiment may monitor the position of the metal ring 1304 while washing the hands 1303 when the position of the metal ring 1304 is within a distance threshold value range. That is, the electronic device 100 may track the movement of the metal ring 1304 while the user washes the hand 1303 .
전자 장치(100)는 금속 링(1304)의 움직임을 감지하는 것에 응답하여, 1305에 도시된 바와 같이, 타이머를 시작하고 추적할 수 있다. 또한, 전자 장치(100)는 금속 링(1304)의 움직임에 따라 사용자가 20 초까지 손을 씻고 있는지 추적할 수 있다. 전자 장치(100)는, 1306에 도시된 바와 같이, 세척 시작 후 20 초 이내에 금속 링(1304)의 움직임이 감지되지 않는 경우 사용자에게 손을 계속 씻도록 지시할 수 있다. 타이머는, 1307에 도시된 바와 같이, 20초 후에 만료되고, 전자 장치(100)는 사용자에게 손(1303) 씻기 중지를 지시할 수 있다. 이에 따라, 본 발명의 전자 장치(100)는, 사용자가 수행하는 작업을 지능적으로 추적하여 사용자 경험을 개선하고 사용자에게 최상의 권장 사항을 제공할 수 있다.In response to detecting the movement of the metal ring 1304 , the electronic device 100 may start and track a timer, as shown at 1305 . Also, according to the movement of the metal ring 1304 , the electronic device 100 may track whether the user is washing their hands for up to 20 seconds. As illustrated in 1306 , the electronic device 100 may instruct the user to continue hand washing when the movement of the metal ring 1304 is not detected within 20 seconds after the washing starts. The timer expires after 20 seconds, as shown in 1307 , and the electronic device 100 may instruct the user to stop washing the hands 1303 . Accordingly, the electronic device 100 of the present invention can intelligently track the tasks performed by the user to improve the user experience and provide the best recommendations to the user.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create a program module to perform the operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 유형의 기록 매체를 포함한다. 예를 들어, ROM(read only memory), RAM(random access memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.The computer-readable recording medium includes any type of recording medium in which computer-readable instructions are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage, and the like.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.The disclosed embodiments have been described with reference to the accompanying drawings as described above. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

Claims (15)

  1. 전자 장치에 있어서,In an electronic device,
    스크린;screen;
    상기 스크린 전방의 자기장 데이터를 획득하는 자력계 센서; 및a magnetometer sensor for acquiring magnetic field data in front of the screen; and
    프로세서;를 포함하고,processor; including;
    상기 프로세서는,The processor is
    상기 자기장 데이터에 기초하여 상기 스크린 위를 호버링(hovering)하는 오브젝트를 감지하는 경우, 상기 오브젝트의 크기 및 유형에 기초하여 상기 오브젝트에 대응하는 거리 임계 값을 결정하고,When detecting an object hovering over the screen based on the magnetic field data, determine a distance threshold value corresponding to the object based on the size and type of the object,
    상기 오브젝트와 상기 스크린 사이의 거리가 상기 거리 임계 값 미만인 경우 상기 오브젝트의 위치에 대응하는 동작을 수행하는 전자 장치.When the distance between the object and the screen is less than the distance threshold, the electronic device performs an operation corresponding to the position of the object.
  2. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 자기장 데이터에 기초하여 상기 스크린 전방에서의 자기장 변화율이 자기장 임계 값을 초과하는 것으로 결정하는 경우 상기 오브젝트가 상기 스크린 위를 호버링하는 것을 감지하는 전자 장치.and detecting that the object hovers over the screen when it is determined based on the magnetic field data that the rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold.
  3. 제1항에 있어서,According to claim 1,
    상기 전자 장치는,The electronic device is
    스피커; 및speaker; and
    마이크로폰;을 더 포함하고,It further comprises a microphone;
    상기 프로세서는,The processor is
    상기 오브젝트를 감지하는 경우 상기 오브젝트를 향하여 음향 신호를 출력하도록 상기 스피커를 제어하고, 상기 스피커로부터 출력된 이후 상기 오브젝트에서 반사되어 상기 마이크로폰에 의해 수신된 음향 신호의 데이터에 기초하여 상기 오브젝트의 크기를 결정하는 전자 장치.When detecting the object, the speaker is controlled to output a sound signal toward the object, and the size of the object is determined based on the data of the sound signal reflected from the object and received by the microphone after being output from the speaker Determining electronic device.
  4. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 자기장 데이터를 입력으로 하는 머신 러닝(machine learning; ML) 모델의 출력에 기초하여 상기 오브젝트의 유형을 결정하는 전자 장치.An electronic device that determines the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
  5. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 오브젝트의 속도, 상기 자기장 데이터 및 상기 전자 장치의 방향에 기초하여 상기 오브젝트의 위치를 결정하는 전자 장치.An electronic device to determine the position of the object based on the speed of the object, the magnetic field data, and a direction of the electronic device.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 전자 장치는,The electronic device is
    가속도계 센서; 및accelerometer sensor; and
    자이로 센서;를 더 포함하고,Gyro sensor; further comprising,
    상기 프로세서는,The processor is
    상기 가속도계 센서로부터 출력된 가속도계 데이터에 기초하여 상기 오브젝트의 속도를 결정하고, 상기 자이로 센서로부터 출력된 방향 데이터에 기초하여 상기 전자 장치의 방향을 결정하는 전자 장치.The electronic device determines the speed of the object based on the accelerometer data output from the accelerometer sensor, and determines the direction of the electronic device based on the direction data output from the gyro sensor.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 프로세서는,The processor is
    상기 오브젝트의 속도 및 상기 자기장 데이터에 기초하여 3차원 직교 좌표계에 대한 상기 오브젝트의 위치 벡터를 결정하고, 상기 오브젝트의 위치 벡터 및 상기 전자 장치의 방향에 기초하여 상기 스크린에 대한 상기 오브젝트의 위치를 결정하는 전자 장치.Determine a position vector of the object with respect to a three-dimensional Cartesian coordinate system based on the speed of the object and the magnetic field data, and determine the position of the object with respect to the screen based on the position vector of the object and the direction of the electronic device electronic device.
  8. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 오브젝트의 위치에 기초하여 상기 스크린 상에서 상기 오브젝트가 가리키는 지점을 결정하고, 상기 지점을 포함하는 사용자 인터페이스 데이터 항목을 결정하고, 상기 사용자 인터페이스 데이터 항목에 대응하는 동작을 수행하는 전자 장치.The electronic device determines a point pointed to by the object on the screen based on the position of the object, determines a user interface data item including the point, and performs an operation corresponding to the user interface data item.
  9. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 오브젝트의 위치에 기초하여 상기 스크린 상에서의 상기 오브젝트의 움직임 형태를 결정하고, 상기 오브젝트의 움직임 형태에 대응하는 문자를 표시하도록 상기 스크린을 제어하는 전자 장치.An electronic device that determines a movement form of the object on the screen based on the position of the object, and controls the screen to display a character corresponding to the movement form of the object.
  10. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 오브젝트의 위치가 상기 스크린의 제1 부분에서 상기 스크린의 제2 부분으로 이동하는 경우, 상기 전자 장치의 사용자 프로파일을 상기 제1 부분에 대응하는 제1 사용자 프로파일에서 상기 제2 부분에 대응하는 제2 사용자 프로파일로 변경하는 전자 장치.When the position of the object moves from the first part of the screen to the second part of the screen, the user profile of the electronic device is changed from the first user profile corresponding to the first part to the second part corresponding to the second part. 2 Electronic device changing to user profile.
  11. 스크린 및 상기 스크린 전방의 자기장 데이터를 획득하는 자력계 센서를 포함하는 전자 장치의 제어 방법에 있어서,A method for controlling an electronic device comprising a screen and a magnetometer sensor for acquiring magnetic field data in front of the screen,
    상기 자기장 데이터에 기초하여 상기 스크린 위를 호버링(hovering)하는 오브젝트를 감지하는 경우, 상기 오브젝트의 크기 및 유형에 기초하여 상기 오브젝트에 대응하는 거리 임계 값을 결정하고;when detecting an object hovering over the screen based on the magnetic field data, determine a distance threshold value corresponding to the object based on the size and type of the object;
    상기 오브젝트와 상기 스크린 사이의 거리가 상기 거리 임계 값 미만인 경우 상기 오브젝트의 위치에 대응하는 동작을 수행하는 것;을 포함하는 전자 장치의 제어 방법.and performing an operation corresponding to the position of the object when the distance between the object and the screen is less than the distance threshold.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 오브젝트를 감지하는 것은,Detecting the object is
    상기 자기장 데이터에 기초하여 상기 스크린 전방에서의 자기장 변화율이 자기장 임계 값을 초과하는 것으로 결정하는 경우 상기 오브젝트가 상기 스크린 위를 호버링하는 것을 감지하는 것;을 포함하는 전자 장치의 제어 방법.and detecting that the object hovers over the screen when it is determined that the rate of change of the magnetic field in front of the screen exceeds a magnetic field threshold based on the magnetic field data.
  13. 제11항에 있어서,12. The method of claim 11,
    상기 전자 장치는,The electronic device is
    스피커; 및speaker; and
    마이크로폰;을 더 포함하고,It further comprises a microphone;
    상기 오브젝트를 감지하는 경우 상기 오브젝트를 향하여 음향 신호를 출력하도록 상기 스피커를 제어하고;when detecting the object, control the speaker to output a sound signal toward the object;
    상기 스피커로부터 출력된 이후 상기 오브젝트에서 반사되어 상기 마이크로폰에 의해 수신된 음향 신호의 데이터에 기초하여 상기 오브젝트의 크기를 결정하는 것;을 더 포함하는 전자 장치의 제어 방법.and determining the size of the object based on data of an acoustic signal output from the speaker and reflected from the object and received by the microphone.
  14. 제11항에 있어서,12. The method of claim 11,
    상기 자기장 데이터를 입력으로 하는 머신 러닝(machine learning; ML) 모델의 출력에 기초하여 상기 오브젝트의 유형을 결정하는 것;을 더 포함하는 전자 장치의 제어 방법.and determining the type of the object based on an output of a machine learning (ML) model to which the magnetic field data is input.
  15. 제11항에 있어서,12. The method of claim 11,
    상기 오브젝트의 속도, 상기 자기장 데이터 및 상기 전자 장치의 방향에 기초하여 상기 오브젝트의 위치를 결정하는 것;을 더 포함하는 전자 장치의 제어 방법.and determining the position of the object based on the speed of the object, the magnetic field data, and the direction of the electronic device.
PCT/KR2021/018490 2020-12-14 2021-12-07 Electronic apparatus and controlling method thereof WO2022131659A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
IN202041054372 2020-12-14
IN202041054372 2020-12-14
KR1020210119262A KR20220084996A (en) 2020-12-14 2021-09-07 Electronic apparatus and controlling method thereof
KR10-2021-0119262 2021-09-07

Publications (1)

Publication Number Publication Date
WO2022131659A1 true WO2022131659A1 (en) 2022-06-23

Family

ID=82059678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/018490 WO2022131659A1 (en) 2020-12-14 2021-12-07 Electronic apparatus and controlling method thereof

Country Status (1)

Country Link
WO (1) WO2022131659A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090121566A (en) * 2008-05-22 2009-11-26 최형락 Mobile communication terminal having function of measuring subject size and measuring method using thereof
JP5263776B2 (en) * 2009-01-28 2013-08-14 独立行政法人産業技術総合研究所 Non-magnetic metal identification method
KR101412879B1 (en) * 2010-08-27 2014-06-26 애플 인크. Concurrent signal detection for touch and hover sensing
KR101501949B1 (en) * 2008-04-04 2015-03-11 엘지전자 주식회사 Mobile terminal capable of controlling operation using a proximity sensor and control method thereof
KR101549553B1 (en) * 2008-10-20 2015-09-03 엘지전자 주식회사 Mobile terminal and Mobile terminal control method
KR101553952B1 (en) * 2009-04-24 2015-09-17 엘지전자 주식회사 Control method of mobile terminal and apparatus thereof
KR20160089717A (en) * 2015-01-20 2016-07-28 주식회사 트레이스 3d hovering digitizer system using pen tilt

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101501949B1 (en) * 2008-04-04 2015-03-11 엘지전자 주식회사 Mobile terminal capable of controlling operation using a proximity sensor and control method thereof
KR20090121566A (en) * 2008-05-22 2009-11-26 최형락 Mobile communication terminal having function of measuring subject size and measuring method using thereof
KR101549553B1 (en) * 2008-10-20 2015-09-03 엘지전자 주식회사 Mobile terminal and Mobile terminal control method
JP5263776B2 (en) * 2009-01-28 2013-08-14 独立行政法人産業技術総合研究所 Non-magnetic metal identification method
KR101553952B1 (en) * 2009-04-24 2015-09-17 엘지전자 주식회사 Control method of mobile terminal and apparatus thereof
KR101412879B1 (en) * 2010-08-27 2014-06-26 애플 인크. Concurrent signal detection for touch and hover sensing
KR20160089717A (en) * 2015-01-20 2016-07-28 주식회사 트레이스 3d hovering digitizer system using pen tilt

Similar Documents

Publication Publication Date Title
WO2016114571A1 (en) Flexible device and method operating the same
WO2015023136A1 (en) Method and apparatus for recognizing grip state in electronic device
WO2020251288A1 (en) Touch device and touch detection method therefor
WO2013051752A1 (en) Apparatus and method for detecting a touch
WO2015002440A1 (en) Method for switching digitizer mode
WO2014088253A1 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
WO2019146918A1 (en) Method for recognizing fingerprint, and electronic device and storage medium therefor
WO2020159106A1 (en) Touch device
WO2016129923A1 (en) Display device, display method and computer-readable recording medium
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2020209639A1 (en) Touch device and touch detection method therefor
WO2020091505A1 (en) Electronic device and method for intelligent interaction thereof
WO2020085643A1 (en) Electronic device and controlling method thereof
WO2021080360A1 (en) Electronic device and method for controlling display operation thereof
WO2020153657A1 (en) Touch device and touch detection method therefor
WO2016195197A1 (en) Pen terminal and method for controlling the same
WO2019199086A1 (en) Electronic device and control method for electronic device
WO2022131659A1 (en) Electronic apparatus and controlling method thereof
WO2021149844A1 (en) Electronic device for displaying contents, and control method therefor
EP3350677A1 (en) Coordinate measuring apparatus and method of controlling the same
WO2022158692A1 (en) Electronic device for identifying force touch and method for operating same
WO2019022336A1 (en) Display device and control method for same display device
WO2018208041A1 (en) Method and apparatus for performing at least one operation based on devices context
WO2022019582A1 (en) Robot and control method therefor
WO2020171610A1 (en) Electronic device for identifying coordinates of external object touching touch sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906963

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21906963

Country of ref document: EP

Kind code of ref document: A1