WO2024043468A1 - Device and method for registering and deregistering authentication pattern using objects - Google Patents

Device and method for registering and deregistering authentication pattern using objects Download PDF

Info

Publication number
WO2024043468A1
WO2024043468A1 PCT/KR2023/008334 KR2023008334W WO2024043468A1 WO 2024043468 A1 WO2024043468 A1 WO 2024043468A1 KR 2023008334 W KR2023008334 W KR 2023008334W WO 2024043468 A1 WO2024043468 A1 WO 2024043468A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
authentication pattern
spatial
space
electronic device
Prior art date
Application number
PCT/KR2023/008334
Other languages
French (fr)
Korean (ko)
Inventor
김 안스테파니
김현우
송미정
정신재
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220113299A external-priority patent/KR20240029475A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024043468A1 publication Critical patent/WO2024043468A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • the disclosure below relates to technology for registering and deregistering authentication patterns using objects in augmented reality (AR).
  • AR augmented reality
  • Augmented reality is a technology that displays a 3D (or 2D) virtual image on a real image or background as a single image. Augmented reality technology, which mixes the real environment and virtual objects, allows users to see the real environment, providing a better sense of reality and additional information.
  • an electronic device in order to perform user authentication, can perform user authentication by receiving a number displayed on the screen from the user or a pattern connecting a plurality of points.
  • the process of entering user authentication information for example, numeric information or pattern information
  • the process of entering user authentication information is externally transmitted. There is a problem that external users can easily recognize user authentication information by being exposed.
  • An electronic device may include a display module, a memory storing computer-executable instructions, and a processor that accesses the memory and executes the instructions.
  • the processor scans the target space, identifies a plurality of objects that can be registered in relation to the target space, and orders two or more objects among the identified plurality of objects by specifying characteristic information describing each object. may be selected, and a space authentication pattern for the target space may be registered based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
  • a method implemented with a processor may include scanning a target space and identifying a plurality of objects that can be registered in relation to the target space.
  • the method may include selecting two or more objects among the identified plurality of objects in an order while specifying characteristic information describing each object.
  • the method may include registering a space authentication pattern for the target space based on a selection order of the two or more selected objects and characteristic information of the two or more selected objects.
  • FIG. 1 is a block diagram of a terminal device in a network environment according to an embodiment.
  • FIG. 2 is a diagram illustrating the structure of a wearable augmented reality (AR) device according to an embodiment.
  • AR augmented reality
  • FIG. 3 is a diagram illustrating a camera and a gaze tracking sensor of an electronic device according to an embodiment.
  • FIG. 4 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for a target space, according to an embodiment.
  • FIG. 5 is a diagram illustrating a process by which an electronic device sets the number of objects to be used to register a space authentication pattern for a target space, according to an embodiment.
  • FIG. 6A is a diagram illustrating a process in which an electronic device identifies a plurality of objects that can be registered in relation to a target space, according to an embodiment.
  • FIGS. 6B to 6C are diagrams illustrating a process in which an electronic device selects two or more objects from among a plurality of objects identified in the process of registering a spatial authentication pattern, according to an embodiment.
  • FIG. 7 is a diagram illustrating a process by which an electronic device specifies characteristic information describing an object, according to an embodiment.
  • FIG. 8 is a diagram illustrating a process in which an electronic device selects one object in the registration process of a spatial authentication pattern and then selects the next object in the order, according to an embodiment.
  • FIG. 9 is a diagram illustrating an example in which an electronic device completes registration of a space authentication pattern for a target space, according to an embodiment.
  • FIG. 10 is a diagram illustrating a process in which an electronic device transmits information about a space authentication pattern registered for a target space to another electronic device, according to an embodiment.
  • FIG. 11 is a diagram illustrating an example in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
  • FIG. 12 is a diagram illustrating a process in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
  • FIG. 13 is a diagram illustrating a process in which an electronic device selects an object in the process of releasing a spatial authentication pattern, according to an embodiment.
  • FIG. 14 is a diagram illustrating a process in which an electronic device selects one object and then selects the next object in the process of releasing a spatial authentication pattern, according to an embodiment.
  • FIG. 15 is a diagram illustrating a process by which an electronic device releases a spatial authentication pattern based on two or more objects selected in the process of releasing a spatial authentication pattern, according to an embodiment.
  • FIG. 16 is a diagram illustrating a process in which an electronic device stops releasing a spatial authentication pattern during the process of releasing the spatial authentication pattern, according to an embodiment.
  • FIGS. 17 and 18 are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern for a target space, according to an embodiment.
  • FIGS. 19A to 19C are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern, according to an embodiment.
  • FIG. 20 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for each user in the process of registering a space authentication pattern for a target space, according to an embodiment.
  • FIG. 21 is a diagram illustrating a process in which an electronic device sets a usage authority level corresponding to a spatial authentication pattern during the registration process of a spatial authentication pattern, according to an embodiment.
  • FIG. 1 is a block diagram of a terminal device 101 in a network environment 100, according to various embodiments.
  • the terminal device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network).
  • the terminal device 101 may communicate with the electronic device 104 through the server 108.
  • the terminal device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted, or one or more other components may be added to the terminal device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to run at least one other component (e.g., hardware or software component) of the terminal device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the terminal device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the terminal device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, this learning may be performed in the terminal device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the terminal device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the terminal device 101 (e.g., the processor 120) from outside the terminal device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the terminal device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the terminal device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the audio output module 155, or an external electronic device (e.g., directly or wirelessly connected to the terminal device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the terminal device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to directly or wirelessly connect the terminal device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the terminal device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the terminal device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the terminal device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 is a direct (e.g., wired) communication channel or wireless communication channel between the terminal device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the terminal device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a first side e.g., bottom side
  • a designated high frequency band e.g., mmWave band
  • a plurality of antennas e.g., array antennas
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the terminal device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the terminal device 101.
  • all or part of the operations performed in the terminal device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the terminal device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the terminal device 101 does not execute the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the terminal device 101.
  • the terminal device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the terminal device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the terminal device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Figure 2 is a diagram illustrating the structure of a wearable AR device according to an embodiment.
  • the wearable AR device 200 may be worn on the user's face and provide images related to augmented reality services and/or virtual reality services to the user.
  • the wearable AR device 200 includes a first display 205, a second display 210, a screen display unit 215, an input optical member 220, a first transparent member 225a, and a second transparent member.
  • the displays include, for example, a liquid crystal display (LCD), a digital mirror device (DMD), ), a liquid crystal on silicon (LCoS) device, an organic light emitting diode (OLED), or a micro LED (micro light emitting diode, micro LED).
  • LCD liquid crystal display
  • DMD digital mirror device
  • LCD liquid crystal on silicon
  • OLED organic light emitting diode
  • micro LED micro light emitting diode, micro LED
  • the wearable AR device 200 may include a light source that irradiates light to the screen output area of the display.
  • the wearable AR device 200 may provide good quality to the user even if it does not include a separate light source. can provide a virtual image of In one embodiment, if the display is implemented with organic light emitting diodes or micro LEDs, a light source is not required, so the wearable AR device 200 can be lightweight.
  • a display that can generate light on its own will be referred to as a self-luminous display, and will be described on the premise that it is a self-luminous display.
  • a display (eg, the first display 205 and the second display 210) according to various embodiments of the present invention may be composed of at least one micro light emitting diode (micro LED).
  • micro LED can express red (R, red), green (G, green), and blue (B, blue) through self-luminescence, and its size is small (e.g., 100 ⁇ m or less), so each chip is one pixel. (e.g. one of R, G, and B). Accordingly, when the display is composed of micro LED, high resolution can be provided without a backlight unit (BLU).
  • one pixel may include R, G, and B, and one chip may be implemented with a plurality of pixels including R, G, and B.
  • the display (e.g., the first display 205 and the second display 210) includes a display area composed of pixels for displaying a virtual image and reflection from the eyes disposed between the pixels. It may be composed of light-receiving pixels (e.g., photo sensor pixels) that receive light, convert it into electrical energy, and output it.
  • light-receiving pixels e.g., photo sensor pixels
  • the wearable AR device 200 may detect the user's gaze direction (eg, eye movement) through light-receiving pixels. For example, the wearable AR device 200 detects the gaze direction of the user's right eye and the user's left eye through one or more light-receiving pixels constituting the first display 205 and one or more light-receiving pixels constituting the second display 210. The gaze direction can be detected and tracked. The wearable AR device 200 may determine the position of the center of the virtual image according to the gaze direction of the user's right eye and left eye (e.g., the direction in which the user's right eye and left eye pupil are gazing) detected through one or more light-receiving pixels. .
  • the gaze direction e.g, eye movement
  • the light emitted from the display passes through a lens (not shown) and a waveguide and is directed to the user's right eye. It is possible to reach the screen display unit 215 formed on the first transparent member 225a and the screen display unit 215 formed on the second transparent member 225b arranged to face the user's left eye.
  • the light emitted from the display passes through the waveguide and reaches the grating area formed on the input optical member 220 and the screen display unit 215. It may be reflected and transmitted to the user's eyes.
  • the first transparent member 225a and/or the second transparent member 225b may be formed of a glass plate, a plastic plate, or a polymer, and may be made transparent or translucent.
  • a lens may be disposed on the front of a display (eg, the first display 205 and the second display 210).
  • Lenses may include concave lenses and/or convex lenses.
  • the lens may include a projection lens or a collimation lens.
  • the screen display unit 215 or a transparent member may include a lens including a waveguide or a reflective lens. there is.
  • the waveguide may be made of glass, plastic, or polymer, and may include a nanopattern formed on one inner or outer surface, for example, a grating structure in a polygonal or curved shape. there is.
  • light incident on one end of the waveguide may be propagated inside the display waveguide by a nano-pattern and provided to the user.
  • a waveguide composed of a free-form prism may provide incident light to the user through a reflection mirror.
  • the waveguide may include at least one of at least one diffractive element (eg, a diffractive optical element (DOE), a holographic optical element (HOE)), or a reflective element (eg, a reflective mirror).
  • the waveguide may guide light emitted from the displays 205 and 210 to the user's eyes using at least one diffractive element or reflective element included in the waveguide.
  • the diffractive element may include an input optic 220/output optic 220 (not shown).
  • the input optical member 220 may refer to an input grating area
  • the output optical member (not shown) may refer to an output grating area.
  • the input grating area transmits light output from the display (e.g., the first display 205 and the second display 210) (e.g., micro LED) to a transparent member (e.g., the first transparent member 250a) of the screen display unit 215. ), may serve as an input terminal that diffracts (or reflects) light to transmit it to the second transparent member 250b).
  • the output grating area may serve as an outlet that diffracts (or reflects) light transmitted to the transparent members of the waveguide (e.g., the first transparent member 250a and the second transparent member 250b) to the user's eyes.
  • the reflective element may include a total internal reflection (TIR) optical element or a total internal reflection waveguide.
  • TIR total internal reflection
  • total reflection is a method of guiding light. An angle of incidence is created so that the light (e.g. virtual image) input through the input grating area is 100% reflected from one side of the waveguide (e.g. a specific side), and the light input through the input grating area is created so that 100% of the light (e.g. virtual image) is reflected from one side of the waveguide (e.g. a specific side). This may mean ensuring that 100% delivery is achieved.
  • light emitted from the displays 205 and 210 may be guided through an optical input member 220 to a waveguide.
  • Light moving inside the waveguide may be guided toward the user's eyes through the output optical member.
  • the screen display unit 215 may be determined based on light emitted in the eye direction.
  • the first cameras 245a and 245b provide 3 degrees of freedom (3DoF), 6DoF head tracking, hand detection and tracking, gesture and/or space. May include a camera used for recognition.
  • the first cameras 245a and 245b may include a global shutter (GS) camera to detect and track the movement of the head and hand.
  • GS global shutter
  • the first cameras 245a and 245b may be stereo cameras for head tracking and spatial recognition, or cameras of the same standard and same performance may be used.
  • the first cameras 245a and 245b may be GS cameras with excellent performance (e.g., image drag) to detect and track fine movements such as fast hand movements and fingers.
  • the first cameras 245a and 245b may be RS (rolling shutter) cameras.
  • the first cameras 245a and 245b can perform SLAM functions through spatial recognition and depth shooting for 6 Dof.
  • the first cameras 245a and 245b may perform a user gesture recognition function.
  • the second cameras 275a and 275b may be used to detect and track the pupil.
  • the second cameras 275a and 275b may be referred to as cameras for eye tracking (ET).
  • the second camera 265a can track the user's gaze direction.
  • the wearable AR device 200 may consider the direction of the user's gaze and position the center of the virtual image projected on the screen display unit 215 according to the direction in which the user's eyes are gazing.
  • the second cameras 275a and 275b for tracking the gaze direction may be GS cameras to detect the pupil and track fast pupil movement.
  • the second camera 265a may be installed for the left eye and the right eye, respectively, and cameras with the same performance and specifications may be used as the second camera 265a for the left eye and the right eye.
  • the third camera 265 may be referred to as high resolution (HR) or photo video (PV) and may include a high resolution camera.
  • the third camera 265 may include a color camera equipped with functions for obtaining high-definition images, such as an auto focus (AF) function and an optical image stabilizer (OIS). It is not limited to this, and the third camera 265 may include a global shutter (GS) camera or a rolling shutter (RS) camera.
  • GS global shutter
  • RS rolling shutter
  • At least one sensor e.g., a gyro sensor, an acceleration sensor, a geomagnetic sensor, a touch sensor, an illumination sensor, and/or a gesture sensor
  • the first cameras 245a and 265b perform head tracking for 6DoF.
  • motion detection and prediction pose estimation & prediction
  • gesture and/or space recognition e.g., gesture and/or space recognition
  • the first cameras 245a and 245b may be used separately as a camera for head tracking and a camera for hand tracking.
  • the lighting units 230a and 230b may have different purposes depending on where they are attached.
  • the lighting units 230a and 230b are around a hinge connecting the frame and the temple (e.g., the first hinge 240a and the second hinge 240b) or around a bridge connecting the frames. ) It can be attached together with the first cameras 245a and 245b mounted nearby.
  • the lighting units 230a and 230b can be used as a means of supplementing surrounding brightness.
  • the lighting units 230a and 230b may be used in a dark environment or when it is difficult to detect a subject to be photographed due to mixing of various light sources and reflected light.
  • the lighting units 230a and 230b attached around the frame of the wearable AR device 200 are auxiliary to facilitate eye gaze detection when photographing the pupil with the second cameras 275a and 275b. It can be used as a means.
  • the lighting units 230a and 230b may include an IR (infrared) LED with an infrared wavelength.
  • the PCB (e.g., the first PCB 235a, the second PCB 235b) includes a processor (not shown), a memory (not shown), and a communication module that control the components of the wearable AR device 200. (not shown) may be included.
  • the communication module may be configured the same as the communication module 190 of FIG. 1, and the description of the communication module 190 may be applied in the same way.
  • the communication module may support establishment of a direct (e.g., wired) communication channel or wireless communication channel between the wearable AR device 200 and an external electronic device, and performance of communication through the established communication channel.
  • the PCB can transmit electrical signals to the components that make up the wearable AR device 200.
  • a communication module operates independently of the processor and may include one or more communication processors supporting direct (e.g., wired) communication or wireless communication.
  • the communication module is a wireless communication module (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (e.g., a local area network (LAN)). network) communication module, or power line communication module).
  • GNSS global navigation satellite system
  • LAN local area network
  • the corresponding communication module (not shown) is a short-range communication network such as Bluetooth, WiFi (wireless fidelity) direct, or IrDA (infrared data association), or a legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network. It is possible to communicate with external electronic devices through a long-distance communication network such as (e.g. LAN or WAN).
  • a short-range communication network such as Bluetooth, WiFi (wireless fidelity) direct, or IrDA (infrared data association), or a legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network. It is possible to communicate with external electronic devices through a long-distance communication network such as (e.g. LAN or WAN).
  • These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips).
  • the wireless communication module may support 5G networks after the 4G network and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module may support high frequency bands (e.g., mmWave bands), for example, to achieve high data rates.
  • Wireless communication modules use various technologies to secure performance in high frequency bands, such as beamforming, massive MIMO (multiple-input and multiple-output), and full-dimensional multiple input/output (FD).
  • -It can support technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna.
  • MIMO full dimensional MIMO
  • array antenna array antenna
  • analog beam-forming or large scale antenna.
  • the wearable AR device 200 may further include an antenna module (not shown).
  • the antenna module can transmit signals or power to or receive signals or power from the outside (e.g., an external electronic device).
  • the antenna module may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, the first PCB 235a and the second PCB 235b).
  • the antenna module may include a plurality of antennas (eg, an array antenna).
  • a plurality of microphones may process external acoustic signals into electrical voice data.
  • Processed voice data can be used in various ways depending on the function (or application being executed) being performed by the wearable AR device 200.
  • a plurality of speakers may output audio data received from a communication module or stored in a memory.
  • the battery 260 may include one or more batteries and may supply power to components constituting the wearable AR device 200.
  • the visors 270a and 270b may adjust the amount of external light incident on the user's eyes according to the transmittance.
  • the visors 270a and 270b may be located in front or behind the screen display unit 215.
  • the front of the screen display unit 215 may indicate a direction opposite to that of the user wearing the wearable AR device 200, and the rear may indicate the direction opposite to the user wearing the wearable AR device 200.
  • the visors 270a and 270b can protect the screen display unit 215 and adjust the amount of external light transmitted.
  • the visors 270a and 270b may include an electrochromic element that changes color and adjusts transmittance according to the applied power.
  • Electrochromism is a phenomenon in which color changes due to an oxidation-reduction reaction caused by applied power.
  • the visors 270a and 270b can adjust the transmittance of external light by using the color change of the electrochromic element.
  • the visors 270a and 270b may include a control module and an electrochromic element.
  • the control module can control the electrochromic element and adjust the transmittance of the electrochromic element.
  • FIG. 4 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for a target space, according to an embodiment.
  • An electronic device e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2 according to an embodiment has a see-through function that provides augmented reality (AR).
  • AR augmented reality
  • the see-through function may refer to a function that delivers additional information or images in real time as a single image while transmitting actual external images to the user's eyes through the display.
  • the electronic device may scan a target space and identify a plurality of objects that can be registered in relation to the target space.
  • Electronic devices can enter the target space.
  • a plurality of objects that the electronic device identifies in relation to the target space may be objects placed in the target space or virtual objects. For example, when an electronic device enters a target space, it may place a preset virtual object at a predetermined location within the target space.
  • the electronic device may select two or more objects from among a plurality of identified objects in an order while specifying characteristic information describing the objects.
  • the electronic device may select two or more objects from among a plurality of identified objects in order and specify at least one feature information for each object.
  • Feature information may include, for example, at least one of information indicating the properties of the object, information indicating the state of the object, and information indicating the relative position of the object.
  • the electronic device may register a space authentication pattern for the target space based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
  • FIG. 5 is a diagram illustrating a process in which an electronic device sets the number of objects to be used to register a space authentication pattern for a target space, according to an embodiment.
  • an electronic device e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2 enters the target space 510
  • space authentication for the target space 510 is performed. It is possible to determine whether a pattern is registered. If a space authentication pattern for the target space 510 is registered, the electronic device may determine whether to initiate a process of releasing the space authentication pattern registered for the target space 510. The cancellation of the space authentication pattern registered for the target space 510 will be described in detail in FIGS. 12 to 16.
  • the electronic device may determine whether to initiate a process of registering the space authentication pattern for the target space 510. For example, the electronic device may determine whether to initiate a registration process for the space authentication pattern for the target space 510 based on user input.
  • the electronic device may set the number of objects to be used for registration of the space authentication pattern based on user input.
  • the electronic device may display a user interface 521 for selecting the number of objects to be used for registering a spatial authentication pattern on the screen 520 of the electronic device. For example, the electronic device may set the number of objects to be used to register a space authentication pattern for the target space 510 to three.
  • FIG. 6A is a diagram illustrating a process in which an electronic device identifies a plurality of objects that can be registered in relation to a target space, according to an embodiment.
  • the electronic device when the number of objects to be used for registration of a space authentication pattern is set, the electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) is related to the target space.
  • a plurality of registerable objects 631, 632, 633, and 634 can be identified.
  • the electronic device may identify an object or virtual object placed in the target space 610 as an object that can be registered in relation to the target space 610.
  • the electronic device may display boundary areas 641, 642, 643, and 644 corresponding to each of the identified plurality of objects 631, 632, 633, and 634 on the screen 620. For example, referring to FIG.
  • the electronic device displays a border area (e.g., border area 641) on the screen 620 to include an area in which an identified object (e.g., object 631) is visible. can do.
  • the border area may have the shape of a cube with the minimum size including the area where the object is visible, but is not limited thereto.
  • the electronic device may display the boundary area on the screen to surround the area where the identified object is visible.
  • the electronic device may display the total number of objects that can be registered in relation to the target space 610 on the screen or announce them through voice.
  • FIGS. 6B to 6C are diagrams illustrating a process in which an electronic device selects two or more objects from among a plurality of objects identified in the process of registering a spatial authentication pattern, according to an embodiment.
  • an electronic device may track the center point 670 of the screen 620.
  • the electronic device identifies the object 631 as a spatial authentication pattern of the target space 610 based on the fact that the center point 670 of the tracked screen 620 is continuously positioned for more than a threshold time within the area where the object 631 is visible. It can be selected as an object to be used for registration.
  • the electronic device matches the object 631 to the space authentication pattern of the target space 610.
  • a user interface 621 inquiring whether to use it may be displayed on the screen.
  • the threshold time may be, but is not limited to, 3 seconds.
  • the electronic device when the electronic device determines to use the object 631 for registration of the space authentication pattern of the target space 610, it uses the object 631 as the target space (631) based on capturing the object 631. 610) can be selected as an object to be used for registration of the spatial authentication pattern.
  • the appearance of the object 631 may vary depending on the direction from which the object 631 is viewed. Accordingly, the electronic device can complete the capture of the object 631 by capturing the form in which the object 631 is viewed from all directions. To display the progress of capturing the object 631, the electronic device may display a closed curve 650 surrounding the area where the object 631 is visible on the screen 620.
  • the electronic device When the electronic device captures the shape of the object 631 corresponding to the first direction 681, the part of the closed curve 650 corresponding to the first direction 681 is changed to a second color different from the existing first color. It can be displayed.
  • the electronic device may display the portion of the closed curve 650 corresponding to the second direction 682 in a color different from the existing color.
  • the electronic device captures all visible shapes of the object 631 in each direction, the entire area of the closed curve 650 may be displayed in the second color.
  • the electronic device may select the object 631 as an object to be used for registering a space authentication pattern for the target space 610.
  • FIG. 7 is a diagram illustrating a process in which an electronic device specifies characteristic information describing an object, according to an embodiment.
  • an electronic device uses the object 731 as an object to be used in a space authentication pattern for the target space 710.
  • feature information describing the object 731 can be specified.
  • the electronic device may generate a plurality of characteristic information corresponding to the object 731 based on the captured form of the object 731.
  • the electronic device may generate characteristic information corresponding to the object 731 through vision recognition.
  • Feature information corresponding to the object 731 includes, for example, feature information 751, 752, and 753 indicating the properties of the object 731, feature information 754 indicating the current state of the object 731, and object There may be feature information 755 indicating the relative position of 731.
  • the electronic device may display a plurality of feature information 751 to 755 generated for the object 731 on the screen.
  • the electronic device may designate at least one feature information 752 and 753 among the plurality of feature information 751 to 755 generated for the object 731 as feature information describing the object 731.
  • the electronic device always displays essential feature information (e.g., feature information 753) among the plurality of feature information 751 to 755 generated for the object 731 regardless of user input. ) can be specified as feature information that explains.
  • the electronic device uses the remaining feature information (e.g., feature information 751, 752, 754, and 755), excluding essential feature information, among the plurality of feature information 751 to 755 corresponding to the object 731 to the user. Based on the input, it can be designated as feature information that describes the object 731.
  • FIG. 8 is a diagram illustrating a process in which an electronic device selects one object in the registration process of a spatial authentication pattern and then selects the next object in the order, according to an embodiment.
  • an electronic device may select two or more objects among a plurality of identified objects in an order.
  • the electronic device selects one object as the nth order object to be used for the spatial authentication pattern of the target space 810, and the nth A graphic object indicating that it is an object of order can be displayed in the area where the object is visible.
  • n may be a natural number of 1 or more.
  • the electronic device may select the object 831 as the first order object to be used for registration of the spatial authentication pattern, and select the graphic object 871 representing the first order as the object 831. can be displayed in the visible area.
  • the electronic device may select the object 832 as a second order object to be used for registration of the spatial authentication pattern, and display a graphic object 872 representing the second order in the area where the object 832 is visible. there is.
  • the electronic device shows one selected object (e.g., object 831) as an object to be used for registration of a spatial authentication pattern.
  • a graphic object may be displayed that connects an area where an object (e.g., object 831) is displayed and an area where an object (e.g., object 832) selected in the following order is shown.
  • the electronic device connects the point 871 within the area where the object 831 is shown and the point 872 within the area where the object 832 selected in the next order of the object 831 is shown with a solid line 891. You can.
  • the electronic device selects the last selected object at the current time as an object to be used for registration of a spatial authentication pattern (e.g., object 832). ) can be displayed, connecting the area where the image is displayed and the center point 870 of the screen 820.
  • a spatial authentication pattern e.g., object 832
  • the electronic device may connect the point 872 within the area where the object 832 is visible and the center point 870 of the screen 820 with a dotted line 899.
  • the electronic device does not need to select any more objects when selecting the object in the last order. Therefore, when the object in the last order is selected, the center point of the object and the screen may not be connected.
  • the electronic device in the process of registering the space authentication pattern of the target space 810, provides a user interface that indicates the total number of objects to be used in the space authentication pattern of the target space 810 and the number of objects selected up to the current point. (880) can be displayed.
  • the electronic device creates graphic objects 881, 882, and 883 as many as the total number of objects (e.g., 3) to be used for registering the space authentication pattern of the target space 810. It can be displayed in the interface 880, and among the displayed graphic objects 881, 882, 883, graphic objects 881, 882 as many as the number of objects selected up to the current point (e.g., 2) are displayed as the remaining graphic objects (881, 882). 883) and can be displayed in a different color.
  • FIG. 9 is a diagram illustrating an example in which an electronic device completes registration of a space authentication pattern for a target space, according to an embodiment.
  • An electronic device e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2 according to an embodiment may use two or more objects 931 to register a space authentication pattern for the target space 910. , 932, 933) can be selected, and feature information for each of two or more objects 931, 932, 933 can be specified.
  • the electronic device may set the number of objects to be used to register a space authentication pattern for the target space 910 to three.
  • the electronic device may register the space authentication pattern of the target space 910 by selecting the object 931, the object 932, and the object 933 in that order.
  • the electronic device displays a graphic object 961 representing the first order on the area where the object 931 selected in the first order is shown, and a graphic representing the second order on the area where the object 932 selected in the second order is shown.
  • a graphic object 963 representing the third order may be displayed on the area where the object 962 and the object 933 selected in the third order are shown, respectively.
  • the electronic device may connect the first-order object 931 and the second-order object 932 with a solid line 991, and connect the second-order object 932 and the third-order object 933 with a solid line ( 992).
  • the electronic device displays a user interface 921 that inquires whether to complete registration of the space authentication pattern for the target space 910. can be displayed.
  • the electronic device determines to complete registration of the spatial authentication pattern, the target is selected based on the selection order of the selected objects (931, 932, 933) and the characteristic information specified for each of the selected objects (931, 932, 933). Registration of the space authentication pattern for the space 910 may be completed.
  • the electronic device registers the spatial authentication pattern by sequentially selecting two or more objects to be used for registration of the spatial authentication pattern at a certain first location in the target space 910 and specifying characteristic information of the two or more selected objects. can be completed.
  • the electronic device sequentially selects two or more objects to be used for registration of a space authentication pattern at a certain first location in the target space 910 and specifies characteristic information of the two or more selected objects, and specifies characteristic information of the two or more selected objects in the target space ( In response to selecting the same two or more objects in the same selection order at a second location that is different from the first location in 910), registration of the spatial authentication pattern may be completed.
  • FIG. 10 is a diagram illustrating a process in which an electronic device transmits information about a space authentication pattern registered for a target space to another electronic device, according to an embodiment.
  • An electronic device e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2 according to an embodiment registers a space authentication pattern for the target space and then registers the space authentication pattern for the target space with another electronic device. Information about registered spatial authentication patterns can be transmitted.
  • the electronic device registers one object (e.g., object 931 in FIG. 9) for each of the objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register the spatial authentication pattern of the target space.
  • a graphic object representing the order selected when registering a temporary space authentication pattern (e.g., graphic object 1011), an image representing the shape of one object (e.g., image 1012), and characteristic information specified for one object ( Example: feature information 1013) may generate mapped contents (eg, contents 1010, 1020, 1030).
  • the electronic device may transmit a plurality of contents 1010, 1020, and 1030 generated in response to the space authentication pattern registered for the target space to another electronic device.
  • FIG. 11 is a diagram illustrating an example in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
  • the electronic device e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2 according to an embodiment may use the space registered for the target space.
  • the authentication pattern can initiate the deactivation process.
  • the electronic device may release a space authentication pattern registered for the target space based on selecting two or more objects from among a plurality of identified objects.
  • the electronic device selects a plurality of objects identical to two or more objects (e.g., objects 931, 932, and 933 of FIG. 9) used to register a space authentication pattern for the target space in advance. Based on the selection in order, the space authentication pattern registered for the target space can be released.
  • the preset selection order may represent the selection order of two or more objects selected during the registration process of a spatial authentication pattern. For example, the electronic device selects a plurality of objects identical to two or more objects (e.g., objects 931, 932, and 933 in FIG.
  • the preset feature information may indicate feature information specified for each of two or more objects selected during the registration process of a spatial authentication pattern.
  • the electronic device instead of selecting an object, releases the spatial authentication pattern registered for the target space using images and characteristic information corresponding to each of two or more objects used for registration of the spatial authentication pattern. You may. According to one embodiment, the electronic device may prohibit releasing a spatial authentication pattern based on selecting an object when releasing the spatial authentication pattern based on selecting an object continuously fails a preset number of times. For example, the preset number of times may be 5, but is not limited thereto. In this case, the electronic device may cancel the space authentication pattern registered for the target space using images and feature information corresponding to each of two or more objects used to register the space authentication pattern.
  • the electronic device may sequentially display content corresponding to each of two or more objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register a spatial authentication pattern on the screen.
  • the electronic device receives a user input for sequentially selecting content corresponding to each of two or more objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register a spatial authentication pattern
  • the registered The spatial authentication pattern can be released.
  • the electronic device displays an image representing the shape of an object (e.g., object 931 in FIG. 9) selected in the first order in the registration process of a spatial authentication pattern and an object (e.g., in FIG. 9).
  • Content 1110 to which characteristic information specified for the object 931 is mapped may be displayed on the screen.
  • the electronic device displays content (e.g., contents 1120) to which an image representing the shape of another object different from the object selected in the first order (e.g., object 931 in FIG. 9) and feature information describing the other object are mapped. , 1130)) can be displayed on the screen together with the content 1110.
  • content e.g., contents 1120
  • an image representing the shape of another object different from the object selected in the first order e.g., object 931 in FIG. 9
  • feature information describing the other object are mapped.
  • 1130 the electronic device receives a user input for selecting content 1110 corresponding to the object selected in the first order (e.g., the object 931 in FIG. 9)
  • the electronic device selects the object selected in the second order (e.g., the object 931 in FIG. 9).
  • Content (not shown) corresponding to (932)) can be displayed together with other contents.
  • the electronic device can cancel the registered spatial authentication pattern by sequentially selecting content corresponding to each of two or more objects.
  • the electronic device receives a user input for selecting content (e.g., content 1120, 1130) different from content corresponding to the objects used for registration of the spatial authentication pattern (e.g., content 1110), It may be determined that the release of the spatial authentication pattern failed.
  • FIG. 12 is a diagram illustrating a process in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
  • the electronic device e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2 registers the target space ( 1210), it is possible to determine whether to initiate the process of releasing the registered spatial authentication pattern. For example, the electronic device may determine whether to initiate the process of releasing the space authentication pattern registered for the target space 1210 based on the user input. When the electronic device decides to cancel the space authentication pattern registered for the target space 1210, it can identify a plurality of selectable objects.
  • the electronic device can select an object using the center point 1270 of the screen 1220, which will be described later with reference to FIG. 13.
  • the electronic device may display a user interface 1280 on the screen 1220 that indicates the number of objects used to register the space authentication pattern for the target space 1210. For example, referring to FIG. 12, the electronic device displays graphic objects 1281, 1282, ..., 1286 equal to the total number of objects (e.g., 6) used to register the space authentication pattern of the target space 1210. ) can be displayed in the user interface 1280.
  • the electronic device In the process of releasing the spatial authentication pattern, the electronic device displays graphic objects corresponding to the number of objects selected up to the current point in a different color from the remaining graphic objects, thereby informing the user of the electronic device of the objects selected to release the spatial authentication pattern up to the current point. The number can be notified.
  • FIG. 13 is a diagram illustrating a process in which an electronic device selects an object in the process of releasing a spatial authentication pattern, according to an embodiment.
  • a plurality of selectable objects ( 1331, 1332, 1333, 1334) can be identified.
  • the plurality of objects 1331, 1332, 1333, and 1334 that the electronic device identifies during the process of releasing the spatial authentication pattern may include two or more objects selected during the registration process of the spatial authentication pattern.
  • the electronic device may display a boundary area corresponding to each of the identified plurality of objects 1331, 1332, 1333, and 1334 on the screen.
  • the electronic device may select an object through the center point 1370 of the screen 1320.
  • the electronic device releases the spatial authentication pattern for the identified object 1331 based on the center point 1370 of the screen 1320 being continuously positioned for more than a threshold time within the area where one identified object 1331 is visible. It can be selected as an object to be used.
  • FIG. 14 is a diagram illustrating a process in which an electronic device selects one object and then selects the next object in the process of releasing a spatial authentication pattern, according to an embodiment.
  • an electronic device e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2 identifies a plurality of objects 1431, 1432, and 1433 identified in the process of releasing the spatial authentication pattern. ), you can select multiple objects sequentially.
  • the electronic device may sequentially select a plurality of objects equal to the number of objects used to register a spatial authentication pattern among the identified plurality of objects.
  • the electronic device selects one object (e.g., The selected object (e.g., object 1432) can be connected to each other in the following order: object 1431) and one object (e.g., object 1431). For example, the electronic device connects the point 1471 within the area where the object 1431 is shown and the point 1472 within the area where the object 1432 selected in the next order of the object 1431 is shown with a solid line 1491. You can.
  • the electronic device selects the last selected object at the current time as an object to be used for releasing the spatial authentication pattern.
  • the object 1432 and the center point 1470 of the screen 1420 can be connected to each other.
  • the electronic device may connect the point 1472 within the area where the object 1432 is visible and the center point 1470 of the screen 1420 with a dotted line 1499.
  • FIG. 15 is a diagram illustrating a process in which an electronic device releases a spatial authentication pattern based on a plurality of objects selected in the process of releasing the spatial authentication pattern, according to an embodiment.
  • the electronic device determines the number of objects used to register the spatial authentication pattern in the process of releasing the spatial authentication pattern. You can select as many objects as necessary. For example, referring to FIG. 15, when the number of objects used to register a spatial authentication pattern for the target space 1510 is 6, the electronic device selects one of the plurality of objects identified in the process of releasing the spatial authentication pattern. Six objects can be selected sequentially.
  • the electronic device may determine whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of canceling the spatial authentication pattern with two or more objects selected in the process of registering the spatial authentication pattern.
  • the electronic device determines whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of releasing the spatial authentication pattern with the selection order of two or more objects selected in the registration process of the spatial authentication pattern and the characteristic information specified for the two or more objects. You can judge.
  • the electronic device selects a plurality of objects selected in the process of releasing the spatial authentication pattern, matches two or more objects selected in the registration process of the spatial authentication pattern, and is selected according to the selection order of the two or more selected objects, In response to satisfying the characteristic information specified for two or more selected objects, the spatial authentication pattern may be released.
  • the electronic device may compare the kth order object selected in the process of releasing the spatial authentication pattern with the kth order object and characteristic information selected in the registration process of the spatial authentication pattern.
  • k may be a natural number less than or equal to the number of objects used to register the spatial authentication pattern.
  • the electronic device may compare the shape of object A in the kth order selected during the registration process of the spatial authentication pattern with the shape of object B in the kth order selected during the release process of the spatial authentication pattern. When the electronic device determines that object A and object B are the same object through shape comparison, the electronic device determines whether the kth object B selected in the process of releasing the spatial authentication pattern satisfies the characteristic information specified for object A. You can.
  • the electronic device may determine that selection of the kth object was successful. For example, the electronic device may select the object 1531 in the first order during the registration process of the space authentication pattern and specify feature information of 'located next to the sofa' for the object 1531. In this case, the electronic device selects the object 1531 in the first order in the process of releasing the space authentication pattern, and in response to the case where the object 1531 satisfies the characteristic information of 'located next to the sofa', It can be determined that the object selection in the order was successful.
  • the electronic device may release the space authentication pattern registered for the target space 1510. In this case, the electronic device may display a user interface 1521 on the screen 1520 indicating that the space authentication pattern has been released.
  • the electronic device may not release the space authentication pattern registered for the target space 1510. In this case, the electronic device may display a user interface on the screen indicating that the spatial authentication pattern has not been released. The electronic device may determine whether to proceed with the release process of the space authentication pattern registered for the target space 1510 again, and if the process of releasing the space authentication pattern is initiated again, the electronic device may continue until the current point in time to release the space authentication pattern. You can initialize the selected objects and select them again starting from the first object.
  • the electronic device may determine whether to release the spatial authentication pattern, but the server may also determine whether to release the spatial authentication pattern.
  • the electronic device may transmit information about the spatial authentication pattern registered for the target space 1510 to a server (eg, IoT server). Additionally, the electronic device may transmit information about a plurality of objects selected during the process of releasing the spatial authentication pattern to the server.
  • the server may determine whether to cancel the spatial authentication pattern by comparing the kth order object selected in the process of canceling the spatial authentication pattern with the kth order object and feature information selected in the registration process of the spatial authentication pattern. The server may transmit whether the spatial authentication pattern is released to the electronic device.
  • FIG. 16 is a diagram illustrating a process in which an electronic device stops releasing a spatial authentication pattern, according to an embodiment.
  • the electronic device may stop releasing the spatial authentication pattern while in the process of releasing the spatial authentication pattern.
  • the electronic device can detect the gaze direction of the user wearing the electronic device.
  • the electronic device may stop the release process of the spatial authentication pattern based on the fact that the detected user's gaze direction is downward relative to the horizontal plane and that the angle between the user's gaze direction and the horizontal plane is greater than or equal to a preset angle.
  • the electronic device asks whether to stop the release process of the spatial authentication pattern.
  • the user interface 1621 may be displayed on the screen 1620.
  • the preset angle may be 45 degrees, but is not limited thereto.
  • the electronic device may display a user interface 1680 indicating the number of objects used to register the spatial authentication pattern in a fixed area of the screen 1620.
  • the electronic device displays the user interface 1680 when the distance between the fixed area of the screen 1620 and the floor of the target space 1610 is less than a preset distance (for example, 80 cm). It may no longer be displayed on the screen 1620. If the distance between the fixed area of the user screen 1620 and the floor of the target space 1610 exceeds a preset distance, the electronic device may display the user interface 1680 on the fixed area of the screen 1620 again. there is.
  • a preset distance for example 80 cm
  • the electronic device may cancel the process of releasing the spatial authentication pattern. For example, when the electronic device cancels the spatial authentication pattern unlocking process, it may display a user interface (not shown) on the screen to inquire whether to restart the spatial authentication pattern unlocking process.
  • the electronic device may restart the process of releasing the spatial authentication pattern. For example, when restarting the process of releasing the spatial authentication pattern, the electronic device may initialize the objects selected up to the current point and select the first object in order to release the spatial authentication pattern.
  • FIGS. 17 and 18 are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern for a target space, according to an embodiment.
  • An electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) according to an embodiment may set the difficulty level for the space authentication pattern during the registration process of the space authentication pattern for the target space. there is. Depending on the level of difficulty set for the space authentication pattern, a plurality of registerable objects that the electronic device identifies within the target space may be different. According to one embodiment, the electronic device may determine a plurality of registerable objects to be identified in relation to the target space, based on the difficulty level set for the space authentication pattern.
  • the levels of difficulty that can be set for a space authentication pattern may include a first level of difficulty, a second level of difficulty, and a third level of difficulty, and the level of difficulty may increase in the order of the first level of difficulty, the level of the second level of difficulty, and the level of the third level of difficulty.
  • the difficulty for the spatial authentication pattern is set to the first difficulty, the second difficulty, and the third difficulty, respectively, the registerable object identified by the electronic device is divided into the first object, the second object, and the third object.
  • the electronic device may determine a plurality of objects that can be registered to be identified according to the level of difficulty of the spatial authentication pattern, based on the size of the object or the size of the area where the plurality of objects are displayed together on the screen.
  • the electronic device when the electronic device sets the difficulty level of the space authentication pattern to the first difficulty level, the electronic device registers the first object 1711, 1712, 1713, and 1714 having a size greater than a preset size. Objects can be identified. For example, the electronic device may determine the size of the object based on the size of the area where the object is visible on the screen. According to one embodiment, when the difficulty of the spatial authentication pattern is set to the second difficulty, the electronic device may identify objects 1721, 1722, and 1723 with sizes less than the preset size as registerable second objects. You can. As described above, since the electronic device registers a space authentication pattern while being located at a certain location in the target space, the size of each object can be determined.
  • a plurality of objects 1831 are displayed together within an area 1850 having a size less than a preset size.
  • 1832, ..., 1839 can each be identified as third-party objects that can be registered.
  • the electronic device may select one reference object (e.g., object 1831) disposed in an area 1850 of a preset size or more, and the selected reference object (e.g., object 1831) and the area ( Third objects that can be registered can be identified by determining the degree of similarity with each of the other objects (e.g., objects 1832 and 1833) arranged within 1850).
  • the electronic device may identify other objects (e.g., objects 1832 and 1833) whose similarity to the reference object (e.g., object 1831) is greater than or equal to a threshold similarity as third objects that can be registered. For example, an electronic device may determine similarity between objects based on shape and size.
  • FIGS. 19A to 19C are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern, according to an embodiment.
  • an electronic device uses a spatial authentication pattern based on classifying a high-level object into at least one low-level object. You can determine the registerable objects to be identified by level of difficulty.
  • the lower object may be an object shown in a portion of the area where the upper object is shown.
  • a parent object may include multiple child objects.
  • the electronic device may identify one first object as a registerable object.
  • the electronic device classifies one first object, which is a higher level object, into a plurality of second objects, which are lower level objects, thereby creating a plurality of second objects. Each can be identified as a registerable object.
  • the electronic device sets the difficulty level of the spatial authentication pattern to the third difficulty level, classifies each of the plurality of second objects, which are upper level objects, into a plurality of third objects, which are lower level objects, so that each of the third objects can be registered. It can be identified as an object.
  • a plurality of feature information generated corresponding to the first object, the second object, and the third object may be different from each other.
  • the electronic device may identify the first object 1911 as a registerable object. For example, the electronic device may identify three picture frames hanging on the wall as one first object 1911.
  • the electronic device may designate at least one feature information 1952 among the plurality of feature information 1951 and 1952 generated corresponding to the first object 1911 as feature information describing the first object 1911.
  • the electronic device when the electronic device sets the difficulty of the space authentication pattern to the second difficulty, the electronic device divides the first object (e.g., the first object 1911 of FIG. 19A) into a plurality of second objects 1921 and 1922. , 1923), each of the second objects 1921, 1922, and 1923 can be identified as a registerable object. For example, the electronic device may identify each of three picture frames hanging on the wall as second objects 1921, 1922, and 1923.
  • the first object e.g., the first object 1911 of FIG. 19A
  • each of the second objects 1921, 1922, and 1923 can be identified as a registerable object.
  • the electronic device may identify each of three picture frames hanging on the wall as second objects 1921, 1922, and 1923.
  • each of the second objects (e.g., the second objects 1921, 1922, and 1923 in FIG. 19B) is divided into a plurality of second objects.
  • each of the third objects (1931, 1932, 1933, 1934, ...) can be identified as a registerable object.
  • the electronic device may identify each of the leaves drawn in each frame as third objects (1931, 1932, 1933, 1934, ).
  • a plurality of selectable objects that the electronic device identifies during the release process of the spatial authentication pattern may be different.
  • a plurality of selectable objects to be identified in relation to the target space may be determined based on the difficulty level set for the space authentication pattern. For example, when canceling a spatial authentication pattern set at the first level of difficulty, the electronic device may identify first objects as objects that can be selected for canceling the spatial authentication pattern. When canceling a spatial authentication pattern set to the second level of difficulty, the electronic device may identify second objects as objects that can be selected for canceling the spatial authentication pattern. When canceling a spatial authentication pattern set to the third level of difficulty, the electronic device may identify third objects as objects that can be selected for canceling the spatial authentication pattern.
  • FIG. 20 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for each user account in the process of registering a space authentication pattern for a target space, according to an embodiment.
  • an electronic device may register a space authentication pattern for the target space 2010 for each user account.
  • the electronic device may register a first space authentication pattern 2011 for the target space 2010 in response to the first user account, and may register a first space authentication pattern 2011 for the target space 2010 in response to a second user account different from the first user account.
  • the combination of two or more objects used for registration of the first spatial authentication pattern (2011) may be different from the combination of two or more objects used for registration of the second spatial authentication pattern (2012). You can.
  • the electronic device selects one user account from among a plurality of user accounts corresponding to a plurality of space authentication patterns registered for the target space 2010, and responds to the selected user account. The process of releasing the registered space authentication pattern may be initiated.
  • FIG. 21 is a diagram illustrating a process in which an electronic device sets a usage authority level corresponding to a spatial authentication pattern during the registration process of a spatial authentication pattern, according to an embodiment.
  • an electronic device registers a spatial authentication pattern for the target space 2110, You can set the permission level.
  • the usage authority levels may include a first level, a second level, and a third level, and the usage authority levels may increase in the order of the first level, the second level, and the third level.
  • the higher the usage authority level set for the spatial authentication pattern the more authority the electronic device can receive from the external device when the spatial authentication pattern is released. For example, when a spatial authentication pattern with a high usage authority level is released, the electronic device can receive control authority for more IoT devices. For another example, when a space authentication pattern with a high usage authority level is released, the electronic device can receive access rights to a wider variety of contents.
  • the electronic device may transmit information about the spatial authentication pattern registered for the target space 2110 to the IoT server, and transmit information about a plurality of objects selected in the process of releasing the spatial authentication pattern to the IoT server.
  • the IoT server can determine whether to cancel the spatial authentication pattern by comparing information about the registered spatial authentication pattern with a plurality of objects selected in the process of canceling the spatial authentication pattern.
  • the IoT server decides to release the spatial authentication pattern, it can transmit the permission level set for the information and spatial authentication pattern of the electronic device to each content manager that manages IoT devices and contents.
  • IoT devices can grant control authority to electronic devices based on the usage authority level of the spatial authentication pattern, and content managers can also grant access authority to content to electronic devices based on the usage authority level of the spatial authentication pattern.
  • the electronic device grants control authority to the IoT devices 2181, 2182, and 2183 to each of the IoT devices 2181, 2182, and 2183. It can be granted from.
  • IoT device 2181 may be an electronic light
  • IoT device 2182 may be an electronic picture frame
  • IoT device 2183 may be an electronic chair.
  • the electronic device may increase the minimum number of objects to be used for registration of the spatial authentication pattern as the usage authority level set for the spatial authentication pattern increases. For example, when the electronic device sets the minimum number of objects to be used for registration of a spatial authentication pattern to 4 at the first level, the electronic device sets the minimum number of objects to be used for registration of a spatial authentication pattern at a second level higher than the first level. It can be set to 5.
  • the electronic device can set the effective period of the spatial authentication pattern.
  • the electronic device may receive authority corresponding to the usage authority level of the space authentication pattern during the period of the validity period set for the space authentication pattern from the point of release. there is.
  • the permission received by the electronic device may be released when the effective period of time elapses from the time the spatial authentication pattern is released.
  • the electronic device can receive authority corresponding to the usage authority level set for the space authentication pattern by canceling the space authentication pattern registered for the target space 2110 again.
  • An electronic device includes a display module, a memory in which computer-executable instructions are stored, and a processor that accesses the memory and executes the instructions, where the processor scans a target space and selects the target. Identify a plurality of objects that can be registered in relation to space, select two or more objects among the identified plurality of objects in an order while specifying characteristic information describing each object, and determine the selection order of the two or more selected objects and the two selected objects.
  • a space authentication pattern for the target space can be registered based on the characteristic information of the above objects.
  • the processor may set the number of objects to be used for registration of the spatial authentication pattern based on user input.
  • the processor tracks the center point of the screen, and determines the target object as an object to be used for registration of a spatial authentication pattern, based on the tracked center point of the screen being continuously located within the area where the target object is visible for more than a threshold time. You can choose as .
  • the processor creates a graphic object connecting the area where one selected object is shown and the area where the object selected in the next order of the one object is shown. You can display a graphic object that connects the center point of the screen and the area where the last selected object is visible at the current time.
  • the processor sequentially selects, for each of the two or more selected objects, contents to which images and feature information corresponding to the objects are mapped according to the selection order of the two or more selected objects, and sequentially selects a spatial authentication pattern registered for the target space. can be released.
  • the processor selects a plurality of objects to cancel the spatial authentication pattern as many as the number of objects used to register the spatial authentication pattern during the canceling process of the spatial authentication pattern, and selects a plurality of objects selected during the canceling process of the spatial authentication pattern. It is possible to determine whether to release the spatial authentication pattern by comparing the selection order of two or more objects with the characteristic information of the two or more selected objects.
  • the processor determines that a plurality of objects selected in the process of releasing the spatial authentication pattern match two or more objects selected in the registration process of the spatial authentication pattern, are selected according to the selection order of the two or more selected objects, and are selected in the selection order of the two or more selected objects.
  • the spatial authentication pattern may be released.
  • the processor detects the gaze direction of the user wearing the electronic device, and based on the fact that the angle formed between the detected user's gaze direction and the horizontal plane is greater than or equal to a preset angle, the processor detects the gaze direction of the user wearing the electronic device, can be stopped.
  • the processor sets a difficulty level for the spatial authentication pattern during the registration process of the spatial authentication pattern, and creates a plurality of registerable objects to be identified in relation to the target space based on the difficulty level set for the spatial authentication pattern during the registration process of the spatial authentication pattern.
  • a plurality of selectable objects to be identified in relation to the target space may be determined based on the difficulty level set for the space authentication pattern.
  • the processor When setting the difficulty of the spatial authentication pattern to the first difficulty, the processor identifies an object having a size greater than or equal to a preset size as a registerable object, and when setting the difficulty of the spatial authentication pattern to the second difficulty, the processor identifies an object having a size greater than or equal to a preset size.
  • Objects with a size less than the size are identified as registerable objects, and when the difficulty of the spatial authentication pattern is set to the third difficulty level, each of a plurality of objects shown together within an area with a size less than the preset size can be registered. It can be identified as an object.
  • the processor When setting the difficulty of the spatial authentication pattern to the first difficulty, the processor identifies the first object as a registerable object, and when setting the difficulty of the spatial authentication pattern to the second difficulty, the processor identifies the first object as a plurality of sub-objects. Classifies the plurality of second objects into second objects and identifies each of the plurality of second objects as a registerable object, and when the difficulty of the spatial authentication pattern is set to the third difficulty, the plurality of second objects are classified into a plurality of third objects that are sub-objects. By classifying objects into objects, each of the plurality of third objects can be identified as a registerable object.
  • the processor registers a first space authentication pattern for the target space in response to the first user account, registers a second space authentication pattern for the target space in response to a second user account different from the first user account, and registers a second space authentication pattern for the target space in response to the first user account. Based on selecting one user account from among the plurality of user accounts corresponding to the plurality of spatial authentication patterns registered for the space, a process of releasing the spatial authentication pattern registered corresponding to the selected user account may be initiated.
  • a method implemented with a processor includes the operation of scanning a target space to identify a plurality of objects that can be registered in relation to the target space, and describing each object of two or more objects among the plurality of identified objects. It may include an operation of selecting in an order while specifying characteristic information, and an operation of registering a space authentication pattern for the target space based on the selection order of two or more selected objects and the characteristic information of the two or more selected objects.
  • the method implemented with a processor may further include setting the number of objects to be used for registration of a spatial authentication pattern based on a user input.
  • the operation of selecting two or more objects involves tracking the center point of the screen, and spatially authenticating the target object based on the tracked center point of the screen being located continuously for more than a threshold time within the area where the target object is visible. It may include an operation of selecting an object to be used for pattern registration.
  • a method implemented with a processor includes, in the process of sequentially selecting two or more objects among a plurality of identified objects, an area where one selected object is shown and the selected object is shown in the order following the one object.
  • the operation may further include displaying a graphic object connecting the areas where the last selected object is displayed, and displaying a graphic object connecting the center point of the screen and the area where the last selected object is shown at the current time.
  • a method implemented with a processor is based on sequentially selecting content to which images and feature information corresponding to the objects are mapped for each of two or more selected objects according to the selection order of the two or more selected objects.
  • the operation of releasing a space authentication pattern registered for the target space may further be included.
  • a method implemented with a processor includes the operation of selecting a plurality of objects equal to the number of objects used to register the spatial authentication pattern to cancel the spatial authentication pattern in the process of releasing the spatial authentication pattern, and selecting the spatial authentication pattern.
  • the method may further include determining whether to release the spatial authentication pattern by comparing the plurality of objects selected in the release process with the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
  • a plurality of objects selected in the process of releasing a spatial authentication pattern are matched with two or more selected objects, and are selected according to the selection order of the two or more selected objects, and the selected two or more objects
  • the operation of releasing the spatial authentication pattern may be further included in response to satisfying the characteristic information specified for the space authentication pattern.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An electronic device according to one embodiment comprises: a display module; memory storing computer-executable instructions; and a processor which accesses the memory and executes the instructions. The processor can: scan a target space to identify a plurality of objects that can be registered in relation to the target space; select two or more objects from among the plurality of identified objects in a defined order while specifying characteristic information describing each of the objects; and register a space authentication pattern for the target space on the basis of the order of selection of the two or more selected objects and the characteristic information of the two or more selected objects.

Description

객체들을 이용하여 인증 패턴을 등록 및 해제하는 장치 및 방법Apparatus and method for registering and deregistering authentication patterns using objects
아래의 개시는 증강 현실(augmented reality, AR)에서 객체들을 이용하여 인증 패턴을 등록 및 해제하는 기술에 관한 것이다.The disclosure below relates to technology for registering and deregistering authentication patterns using objects in augmented reality (AR).
증강 현실(augmented reality, AR)은 현실의 이미지나 배경에 3차원(또는, 2차원)의 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 실제 환경과 가상의 객체가 혼합된 증강 현실 기술은 사용자가 실제 환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공할 수 있다. 일반적으로 전자 장치는 사용자 인증을 수행하기 위해서 사용자로부터 화면 상에 표시된 숫자를 입력 받거나 복수의 지점들을 연결하는 패턴을 입력 받아 사용자 인증을 수행할 수 있다. 그러나, 전자 장치가 사용자로부터 숫자를 입력 받거나 복수의 지점들을 연결하는 패턴을 입력 받아 사용자 인증을 수행하는 경우, 사용자 인증 정보(예를 들어, 숫자 정보 또는 패턴 형태 정보)를 입력하는 과정이 외부로 노출됨으로써 외부의 사용자가 사용자 인증 정보를 쉽게 알아차릴 수 있는 문제점이 존재한다.Augmented reality (AR) is a technology that displays a 3D (or 2D) virtual image on a real image or background as a single image. Augmented reality technology, which mixes the real environment and virtual objects, allows users to see the real environment, providing a better sense of reality and additional information. In general, in order to perform user authentication, an electronic device can perform user authentication by receiving a number displayed on the screen from the user or a pattern connecting a plurality of points. However, when an electronic device performs user authentication by receiving a number from the user or a pattern connecting a plurality of points, the process of entering user authentication information (for example, numeric information or pattern information) is externally transmitted. There is a problem that external users can easily recognize user authentication information by being exposed.
일 실시예에 따른 전자 장치는, 디스플레이 모듈, 컴퓨터로 실행 가능한 명령어들이 저장된 메모리, 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서를 포함할 수 있다. 상기 프로세서는, 대상 공간을 스캔(scan)하여 상기 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하고, 상기 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하며, 상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보에 기초하여 상기 대상 공간에 대한 공간 인증 패턴을 등록할 수 있다.An electronic device according to an embodiment may include a display module, a memory storing computer-executable instructions, and a processor that accesses the memory and executes the instructions. The processor scans the target space, identifies a plurality of objects that can be registered in relation to the target space, and orders two or more objects among the identified plurality of objects by specifying characteristic information describing each object. may be selected, and a space authentication pattern for the target space may be registered based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
일 실시예 따른 프로세서로 구현되는 방법은, 대상 공간을 스캔하여 상기 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하는 동작을 포함할 수 있다. 상기 방법은, 상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보에 기초하여 상기 대상 공간에 대한 공간 인증 패턴을 등록하는 동작을 포함할 수 있다.A method implemented with a processor according to an embodiment may include scanning a target space and identifying a plurality of objects that can be registered in relation to the target space. The method may include selecting two or more objects among the identified plurality of objects in an order while specifying characteristic information describing each object. The method may include registering a space authentication pattern for the target space based on a selection order of the two or more selected objects and characteristic information of the two or more selected objects.
도 1은 일 실시예에 따른 네트워크 환경 내의 단말 장치의 블록도이다.1 is a block diagram of a terminal device in a network environment according to an embodiment.
도 2는 일 실시예에 따른 웨어러블 증강현실(augmented reality, AR) 장치의 구조를 도시한 도면이다.FIG. 2 is a diagram illustrating the structure of a wearable augmented reality (AR) device according to an embodiment.
도 3은 일 실시예에 따른 전자 장치의 카메라 및 시선 추적 센서를 나타낸 도면이다.FIG. 3 is a diagram illustrating a camera and a gaze tracking sensor of an electronic device according to an embodiment.
도 4는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴을 등록하는 과정을 설명하는 도면이다.FIG. 4 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for a target space, according to an embodiment.
도 5는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록에 사용될 객체들의 개수를 설정하는 과정을 설명하는 도면이다.FIG. 5 is a diagram illustrating a process by which an electronic device sets the number of objects to be used to register a space authentication pattern for a target space, according to an embodiment.
도 6a는 일 실시예에 따른 전자 장치가 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하는 과정을 설명하는 도면이다.FIG. 6A is a diagram illustrating a process in which an electronic device identifies a plurality of objects that can be registered in relation to a target space, according to an embodiment.
도 6b 내지 도 6c는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 식별된 복수의 객체들 중 둘 이상의 객체들을 선택하는 과정을 설명하는 도면이다.FIGS. 6B to 6C are diagrams illustrating a process in which an electronic device selects two or more objects from among a plurality of objects identified in the process of registering a spatial authentication pattern, according to an embodiment.
도 7은 일 실시예에 따른 전자 장치가 객체를 설명하는 특징 정보를 지정하는 과정을 설명하는 도면이다.FIG. 7 is a diagram illustrating a process by which an electronic device specifies characteristic information describing an object, according to an embodiment.
도 8은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 하나의 객체를 선택한 후 다음 순서의 객체를 선택하는 과정을 설명하는 도면이다.FIG. 8 is a diagram illustrating a process in which an electronic device selects one object in the registration process of a spatial authentication pattern and then selects the next object in the order, according to an embodiment.
도 9는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록을 완료하는 예시를 설명하는 도면이다.FIG. 9 is a diagram illustrating an example in which an electronic device completes registration of a space authentication pattern for a target space, according to an embodiment.
도 10은 일 실시예에 따른 전자 장치가 다른 전자 장치에 대상 공간에 대해 등록된 공간 인증 패턴에 대한 정보를 전송하는 과정을 설명하는 도면이다.FIG. 10 is a diagram illustrating a process in which an electronic device transmits information about a space authentication pattern registered for a target space to another electronic device, according to an embodiment.
도 11은 일 실시예에 따른 전자 장치가 대상 공간에 대해 등록된 공간 인증 패턴을 해제하는 일 예시를 설명하는 도면이다.FIG. 11 is a diagram illustrating an example in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
도 12는 일 실시예에 따른 전자 장치가 대상 공간에 대하여 등록된 공간 인증 패턴을 해제하는 과정을 설명하는 도면이다.FIG. 12 is a diagram illustrating a process in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
도 13은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 객체를 선택하는 과정을 설명하는 도면이다.FIG. 13 is a diagram illustrating a process in which an electronic device selects an object in the process of releasing a spatial authentication pattern, according to an embodiment.
도 14는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 하나의 객체를 선택한 후 다음 순서의 객체를 선택하는 과정을 설명하는 도면이다.FIG. 14 is a diagram illustrating a process in which an electronic device selects one object and then selects the next object in the process of releasing a spatial authentication pattern, according to an embodiment.
도 15는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 선택된 둘 이상의 객체들에 기초하여 공간 인증 패턴을 해제하는 과정을 설명하는 도면이다.FIG. 15 is a diagram illustrating a process by which an electronic device releases a spatial authentication pattern based on two or more objects selected in the process of releasing a spatial authentication pattern, according to an embodiment.
도 16은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 공간 인증 패턴의 해제를 중단하는 과정을 설명하는 도면이다.FIG. 16 is a diagram illustrating a process in which an electronic device stops releasing a spatial authentication pattern during the process of releasing the spatial authentication pattern, according to an embodiment.
도 17 내지 도 18은 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴에 대해 설정된 난이도에 따라 식별하는 객체들을 설명하는 도면이다.FIGS. 17 and 18 are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern for a target space, according to an embodiment.
도 19a 내지 도 19c는 일 실시예에 따른 전자 장치가 공간 인증 패턴에 대해 설정된 난이도에 따라 따라 식별하는 객체들을 설명하는 도면이다.FIGS. 19A to 19C are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern, according to an embodiment.
도 20은 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록 과정에서 사용자 별로 공간 인증 패턴을 등록하는 과정을 설명하는 도면이다.FIG. 20 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for each user in the process of registering a space authentication pattern for a target space, according to an embodiment.
도 21은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대응하는 사용 권한 레벨을 설정하는 과정을 설명하는 도면이다.FIG. 21 is a diagram illustrating a process in which an electronic device sets a usage authority level corresponding to a spatial authentication pattern during the registration process of a spatial authentication pattern, according to an embodiment.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 단말 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 단말 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 단말 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 단말 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 단말 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of a terminal device 101 in a network environment 100, according to various embodiments. Referring to FIG. 1, in the network environment 100, the terminal device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the terminal device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the terminal device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted, or one or more other components may be added to the terminal device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 단말 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 단말 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to run at least one other component (e.g., hardware or software component) of the terminal device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the terminal device 101 includes a main processor 121 and a secondary processor 123, the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 단말 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 단말 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the terminal device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, co-processor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, this learning may be performed in the terminal device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.
메모리(130)는, 단말 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the terminal device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
입력 모듈(150)은, 단말 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 단말 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive commands or data to be used in a component of the terminal device 101 (e.g., the processor 120) from outside the terminal device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
음향 출력 모듈(155)은 음향 신호를 단말 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the terminal device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 단말 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 may visually provide information to the outside of the terminal device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 단말 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the audio output module 155, or an external electronic device (e.g., directly or wirelessly connected to the terminal device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
센서 모듈(176)은 단말 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the terminal device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
인터페이스(177)는 단말 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to directly or wirelessly connect the terminal device 101 to an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 단말 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the terminal device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 단말 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the terminal device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
배터리(189)는 단말 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the terminal device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 단말 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 단말 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (e.g., wired) communication channel or wireless communication channel between the terminal device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The terminal device 101 can be confirmed or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 단말 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the terminal device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 단말 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 단말 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 단말 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 단말 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 단말 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 단말 장치(101)로 전달할 수 있다. 단말 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 단말 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 단말 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the terminal device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the terminal device 101. According to one embodiment, all or part of the operations performed in the terminal device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the terminal device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the terminal device 101 does not execute the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the terminal device 101. The terminal device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The terminal device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The terminal device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
도 2는 일 실시 예에 따른 웨어러블 AR 장치의 구조를 도시한 도면이다.Figure 2 is a diagram illustrating the structure of a wearable AR device according to an embodiment.
도 2를 참조하면, 웨어러블 AR 장치(200)는 사용자의 안면에 착용되어, 사용자에게 증강 현실 서비스 및/또는 가상 현실 서비스와 관련된 영상을 제공할 수 있다.Referring to FIG. 2, the wearable AR device 200 may be worn on the user's face and provide images related to augmented reality services and/or virtual reality services to the user.
일 실시 예에서, 웨어러블 AR 장치(200)는 제1 디스플레이(205), 제2 디스플레이(210), 화면 표시부(215), 입력광학부재(220), 제1 투명부재(225a), 제2 투명부재(225b), 조명부(230a, 230b), 제1 PCB(235a), 제2 PCB(235b), 제1 힌지(hinge)(240a), 제2 힌지(240b), 제1 카메라(245a, 245b), 복수의 마이크(예: 제1 마이크(250a), 제2 마이크(250b), 제3 마이크(250c)), 복수의 스피커(예: 제1 스피커(255a), 제2 스피커(255b)), 배터리(260), 제2 카메라(275a, 275b), 제3 카메라(265), 및 바이저(270a, 270b)를 포함할 수 있다. In one embodiment, the wearable AR device 200 includes a first display 205, a second display 210, a screen display unit 215, an input optical member 220, a first transparent member 225a, and a second transparent member. Member 225b, lighting units 230a, 230b, first PCB 235a, second PCB 235b, first hinge 240a, second hinge 240b, first camera 245a, 245b ), multiple microphones (e.g., first microphone 250a, second microphone 250b, third microphone 250c), multiple speakers (e.g., first speaker 255a, second speaker 255b) , it may include a battery 260, second cameras 275a and 275b, third cameras 265, and visors 270a and 270b.
일 실시 예에서, 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))는, 예를 들면, 액정 표시 장치(liquid crystal display, LCD), 디지털 미러 표시 장치(digital mirror device, DMD), 실리콘 액정 표시 장치(liquid crystal on silicon, LCoS), 유기 발광 다이오드(organic light emitting diode, OLED) 또는 마이크로 엘이디(micro light emitting diode, micro LED)를 포함할 수 있다. 미도시 되었으나, 디스플레이가 액정 표시 장치, 디지털 미러 표시 장치, 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 웨어러블 AR 장치(200)는 디스플레이의 화면 출력 영역으로 광을 조사하는 광원을 포함할 수 있다. 다른 실시예에서, 디스플레이가 자체적으로 광을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우, 웨어러블 AR 장치(200)는 별도의 광원을 포함하지 않더라도 사용자에게 양호한 품질의 가상 영상을 제공할 수 있다. 일 실시 예에서, 디스플레이가 유기 발광 다이오드 또는 마이크로 엘이디로 구현된다면 광원이 불필요하므로, 웨어러블 AR 장치(200)가 경량화될 수 있다. 이하에서는, 자체적으로 광을 발생시킬 수 있는 디스플레이는 자발광 디스플레이로 지칭되며, 자발광 디스플레이를 전제로 설명된다.In one embodiment, the displays (e.g., first display 205 and second display 210) include, for example, a liquid crystal display (LCD), a digital mirror device (DMD), ), a liquid crystal on silicon (LCoS) device, an organic light emitting diode (OLED), or a micro LED (micro light emitting diode, micro LED). Although not shown, when the display is made of one of a liquid crystal display device, a digital mirror display device, or a silicon liquid crystal display device, the wearable AR device 200 may include a light source that irradiates light to the screen output area of the display. In another embodiment, if the display is capable of generating light on its own, for example, if it is made of one of organic light emitting diodes or micro LEDs, the wearable AR device 200 may provide good quality to the user even if it does not include a separate light source. can provide a virtual image of In one embodiment, if the display is implemented with organic light emitting diodes or micro LEDs, a light source is not required, so the wearable AR device 200 can be lightweight. Hereinafter, a display that can generate light on its own will be referred to as a self-luminous display, and will be described on the premise that it is a self-luminous display.
본 발명의 다양한 실시예들에 따른 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))는 적어도 하나의 마이크로 LED(micro light emitting diode)로 구성될 수 있다. 예컨대, 마이크로 LED는 자체 발광으로 적색(R, red), 녹색(G, green), 청색(B, blue)을 표현할 수 있으며, 크기가 작아(예: 100㎛ 이하), 칩 하나가 하나의 픽셀(예: R, G, 및 B 중 하나)을 구현할 수 있다. 이에 따라, 디스플레이가 마이크로 LED로 구성되는 경우, 백라이트유닛(BLU) 없이 높은 해상도를 제공할 수 있다. A display (eg, the first display 205 and the second display 210) according to various embodiments of the present invention may be composed of at least one micro light emitting diode (micro LED). For example, micro LED can express red (R, red), green (G, green), and blue (B, blue) through self-luminescence, and its size is small (e.g., 100㎛ or less), so each chip is one pixel. (e.g. one of R, G, and B). Accordingly, when the display is composed of micro LED, high resolution can be provided without a backlight unit (BLU).
이에 한정하는 것은 아니며, 하나의 픽셀은 R, G, 및 B를 포함할 수 있으며, 하나의 칩은 R, G, 및 B를 포함하는 픽셀이 복수개로 구현될 수 있다. It is not limited to this, and one pixel may include R, G, and B, and one chip may be implemented with a plurality of pixels including R, G, and B.
일 실시 예에서, 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))는 가상의 영상을 표시하기 위한 픽셀(pixel)들로 구성된 디스플레이 영역 및 픽셀들 사이에 배치되는 눈에서 반사되는 광을 수광하여 전기 에너지로 변환하고 출력하는 수광 픽셀(예: 포토 센서 픽셀(photo sensor pixel))들로 구성될 수 있다.In one embodiment, the display (e.g., the first display 205 and the second display 210) includes a display area composed of pixels for displaying a virtual image and reflection from the eyes disposed between the pixels. It may be composed of light-receiving pixels (e.g., photo sensor pixels) that receive light, convert it into electrical energy, and output it.
일 실시 예에서, 웨어러블 AR 장치(200)는 수광 픽셀들을 통해 사용자의 시선 방향(예: 눈동자 움직임)을 검출할 수 있다. 예컨대, 웨어러블 AR 장치(200)는 제1 디스플레이(205)를 구성하는 하나 이상의 수광 픽셀들 및 제2 디스플레이(210)를 구성하는 하나 이상의 수광 픽셀들을 통해 사용자의 우안에 대한 시선 방향 및 사용자의 좌안에 대한 시선 방향을 검출하고 추적할 수 있다. 웨어러블 AR 장치(200)는 하나 이상의 수광 픽셀들을 통해 검출되는 사용자의 우안 및 좌안의 시선 방향(예: 사용자의 우안 및 좌안의 눈동자가 응시하는 방향)에 따라 가상 영상의 중심의 위치를 결정할 수 있다. In one embodiment, the wearable AR device 200 may detect the user's gaze direction (eg, eye movement) through light-receiving pixels. For example, the wearable AR device 200 detects the gaze direction of the user's right eye and the user's left eye through one or more light-receiving pixels constituting the first display 205 and one or more light-receiving pixels constituting the second display 210. The gaze direction can be detected and tracked. The wearable AR device 200 may determine the position of the center of the virtual image according to the gaze direction of the user's right eye and left eye (e.g., the direction in which the user's right eye and left eye pupil are gazing) detected through one or more light-receiving pixels. .
일 실시 예에서, 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))로부터 방출되는 광은 렌즈(미도시) 및 웨이브가이드(waveguide)를 거쳐 사용자의 우안(right eye)에 대면하게 배치되는 제1 투명부재(225a)에 형성된 화면 표시부(215) 및 사용자의 좌안(left eye)에 대면하게 배치 제2 투명부재(225b)에 형성된 화면 표시부(215)에 도달할 수 있다. 예컨대, 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))로부터 방출되는 광은 웨이브가이드를 거쳐 입력광학부재(220)와 화면 표시부(215)에 형성된 그레이팅 영역(grating area)에 반사되어 사용자의 눈에 전달될 수 있다. 제1 투명 부재(225a) 및/또는 제2 투명 부재(225b)는 글래스 플레이트, 플라스틱 플레이트, 또는 폴리머로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다.In one embodiment, the light emitted from the display (e.g., the first display 205 and the second display 210) passes through a lens (not shown) and a waveguide and is directed to the user's right eye. It is possible to reach the screen display unit 215 formed on the first transparent member 225a and the screen display unit 215 formed on the second transparent member 225b arranged to face the user's left eye. For example, the light emitted from the display (e.g., the first display 205 and the second display 210) passes through the waveguide and reaches the grating area formed on the input optical member 220 and the screen display unit 215. It may be reflected and transmitted to the user's eyes. The first transparent member 225a and/or the second transparent member 225b may be formed of a glass plate, a plastic plate, or a polymer, and may be made transparent or translucent.
일 실시 예에서, 렌즈(미도시)는 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))의 전면에 배치될 수 있다. 렌즈(미도시)는 오목 렌즈 및/또는 볼록 렌즈를 포함할 수 있다. 예컨대, 렌즈(미도시)는 프로젝션 렌즈(projection lens) 또는 콜리메이션 렌즈(collimation lens)를 포함할 수 있다. In one embodiment, a lens (not shown) may be disposed on the front of a display (eg, the first display 205 and the second display 210). Lenses (not shown) may include concave lenses and/or convex lenses. For example, the lens (not shown) may include a projection lens or a collimation lens.
일 실시 예에서, 화면 표시부(215) 또는 투명 부재(예: 제1 투명 부재(225a), 제2 투명 부재(225b))는 웨이브가이드(waveguide)를 포함하는 렌즈, 반사형 렌즈를 포함할 수 있다.In one embodiment, the screen display unit 215 or a transparent member (e.g., the first transparent member 225a and the second transparent member 225b) may include a lens including a waveguide or a reflective lens. there is.
일 실시 예에서, 웨이브가이드는 글래스, 플라스틱, 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 그레이팅 구조(grating structure)를 포함할 수 있다. 일 실시 예에 따르면, 웨이브가이드의 일단으로 입사된 광은 나노 패턴에 의해 디스플레이 웨이브가이드 내부에서 전파되어 사용자에게 제공될 수 있다. 일 실시 예에서, 프리폼(free-form)형 프리즘으로 구성된 웨이브가이드는 입사된 광을 반사 미러를 통해 사용자에게 제공될 수 있다. 웨이브가이드는 적어도 하나의 회절 요소 예컨대, DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 웨이브가이드는 웨이브가이드에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이(205, 210)로부터 방출되는 광을 사용자의 눈으로 유도할 수 있다. In one embodiment, the waveguide may be made of glass, plastic, or polymer, and may include a nanopattern formed on one inner or outer surface, for example, a grating structure in a polygonal or curved shape. there is. According to one embodiment, light incident on one end of the waveguide may be propagated inside the display waveguide by a nano-pattern and provided to the user. In one embodiment, a waveguide composed of a free-form prism may provide incident light to the user through a reflection mirror. The waveguide may include at least one of at least one diffractive element (eg, a diffractive optical element (DOE), a holographic optical element (HOE)), or a reflective element (eg, a reflective mirror). In one embodiment, the waveguide may guide light emitted from the displays 205 and 210 to the user's eyes using at least one diffractive element or reflective element included in the waveguide.
다양한 실시예들에 따라, 회절 요소는 입력 광학 부재(220)/출력 광학 부재(미도시)를 포함할 수 있다. 예컨대, 입력 광학 부재(220)는 입력 그레이팅 영역(input grating area)을 의미할 수 있으며, 출력 광학 부재(미도시)는 출력 그레이팅 영역(output grating area)을 의미할 수 있다. 입력 그레이팅 영역은 디스플레이(예: 제1 디스플레이(205) 및 제2 디스플레이(210))(예: 마이크로 LED)로부터 출력되는 광을 화면 표시부(215)의 투명 부재(예: 제1 투명 부재(250a), 제2 투명 부재(250b))로 광을 전달하기 위해 회절(또는 반사)시키는 입력단 역할을 할 수 있다. 출력 그레이팅 영역은 웨이브가이드의 투명 부재(예: 제1 투명 부재(250a), 제2 투명 부재(250b))에 전달된 광을 사용자의 눈으로 회절(또는 반사)시키는 출구 역할을 할 수 있다. According to various embodiments, the diffractive element may include an input optic 220/output optic 220 (not shown). For example, the input optical member 220 may refer to an input grating area, and the output optical member (not shown) may refer to an output grating area. The input grating area transmits light output from the display (e.g., the first display 205 and the second display 210) (e.g., micro LED) to a transparent member (e.g., the first transparent member 250a) of the screen display unit 215. ), may serve as an input terminal that diffracts (or reflects) light to transmit it to the second transparent member 250b). The output grating area may serve as an outlet that diffracts (or reflects) light transmitted to the transparent members of the waveguide (e.g., the first transparent member 250a and the second transparent member 250b) to the user's eyes.
다양한 실시예들에 따라, 반사 요소는 전반사(total internal reflection, TIR)를 위한 전반사 광학 소자 또는 전반사 도파관을 포함할 수 있다. 예컨대, 전반사는 광을 유도하는 하나의 방식으로, 입력 그레이팅 영역을 통해 입력되는 광(예: 가상 영상)이 웨이브가이드의 일면(예: 특정 면)에서 100% 반사되도록 입사각을 만들어, 출력 그레이팅 영역까지 100% 전달되도록 하는 것을 의미할 수 있다.According to various embodiments, the reflective element may include a total internal reflection (TIR) optical element or a total internal reflection waveguide. For example, total reflection is a method of guiding light. An angle of incidence is created so that the light (e.g. virtual image) input through the input grating area is 100% reflected from one side of the waveguide (e.g. a specific side), and the light input through the input grating area is created so that 100% of the light (e.g. virtual image) is reflected from one side of the waveguide (e.g. a specific side). This may mean ensuring that 100% delivery is achieved.
일 실시 예에서, 디스플레이(205, 210)로부터 방출되는 광은 입력 광학 부재(220)를 통해 웨이브가이드로 광 경로가 유도될 수 있다. 웨이브가이드 내부를 이동하는 광은 출력 광학 부재를 통해 사용자 눈 방향으로 유도될 수 있다. 화면 표시부(215)는 눈 방향으로 방출되는 광에 기반하여 결정될 수 있다.In one embodiment, light emitted from the displays 205 and 210 may be guided through an optical input member 220 to a waveguide. Light moving inside the waveguide may be guided toward the user's eyes through the output optical member. The screen display unit 215 may be determined based on light emitted in the eye direction.
일 실시 예에서, 제1 카메라(245a, 245b)는 3DoF(3 degrees of freedom), 6DoF의 헤드 트래킹(head tracking), 핸드(hand) 검출과 트래킹(tracking), 제스처(gesture) 및/또는 공간 인식을 위해 사용되는 카메라를 포함할 수 있다. 예컨대, 제1 카메라(245a, 245b)는 헤드 및 핸드의 움직임을 검출하고, 움직임을 추적하기 위해 GS(global shutter) 카메라를 포함할 수 있다.In one embodiment, the first cameras 245a and 245b provide 3 degrees of freedom (3DoF), 6DoF head tracking, hand detection and tracking, gesture and/or space. May include a camera used for recognition. For example, the first cameras 245a and 245b may include a global shutter (GS) camera to detect and track the movement of the head and hand.
일례로, 제1 카메라(245a, 245b)는 헤드 트래킹과 공간 인식을 위해서 스테레오(stereo) 카메라가 적용될 수 있고, 동일 규격, 동일 성능의 카메라가 적용될 수 있다. 제1 카메라(245a, 245b)는 빠른 손동작과 손가락과 같이 미세한 움직임을 검출하고 움직임을 추적하기 위해서 성능(예: 영상끌림)이 우수한 GS 카메라가 사용될 수 있다.For example, the first cameras 245a and 245b may be stereo cameras for head tracking and spatial recognition, or cameras of the same standard and same performance may be used. The first cameras 245a and 245b may be GS cameras with excellent performance (e.g., image drag) to detect and track fine movements such as fast hand movements and fingers.
다양한 실시 예에 따라, 제1 카메라(245a, 245b)는 RS(rolling shutter) 카메라가 사용될 수 있다. 제1 카메라(245a, 245b)는 6 Dof를 위한 공간 인식, 깊이(depth) 촬영을 통한 SLAM 기능을 수행할 수 있다. 제1 카메라(245a, 245b)는 사용자 제스처 인식 기능을 수행할 수 있다.According to various embodiments, the first cameras 245a and 245b may be RS (rolling shutter) cameras. The first cameras 245a and 245b can perform SLAM functions through spatial recognition and depth shooting for 6 Dof. The first cameras 245a and 245b may perform a user gesture recognition function.
일 실시 예에서, 제2 카메라(275a, 275b)는 눈동자를 검출하고 추적할 용도로 사용될 수 있다. 제2 카메라(275a, 275b)는 ET(eye tracking)용 카메라로 지칭될 수 있다. 제2 카메라(265a)는 사용자의 시선 방향을 추적할 수 있다. 웨어러블 AR 장치(200)는 사용자의 시선 방향을 고려하여, 화면 표시부(215)에 투영되는 가상영상의 중심이 사용자의 눈동자가 응시하는 방향에 따라 위치하도록 할 수 있다.In one embodiment, the second cameras 275a and 275b may be used to detect and track the pupil. The second cameras 275a and 275b may be referred to as cameras for eye tracking (ET). The second camera 265a can track the user's gaze direction. The wearable AR device 200 may consider the direction of the user's gaze and position the center of the virtual image projected on the screen display unit 215 according to the direction in which the user's eyes are gazing.
시선 방향을 추적하기 위한 제2 카메라(275a, 275b)는 눈동자(pupil)를 검출하고 빠른 눈동자의 움직임을 추적할 수 있도록 GS 카메라가 사용될 수 있다. 제2 카메라(265a)는 좌안, 우안용으로 각각 설치될 수 있으며, 좌안용 및 우안용 제2카메라(265a)는 성능과 규격이 동일한 카메라가 사용될 수 있다.The second cameras 275a and 275b for tracking the gaze direction may be GS cameras to detect the pupil and track fast pupil movement. The second camera 265a may be installed for the left eye and the right eye, respectively, and cameras with the same performance and specifications may be used as the second camera 265a for the left eye and the right eye.
일 실시 예에서, 제3 카메라(265)는 HR(high resolution) 또는 PV(photo video)로 지칭될 수 있으며, 고해상도의 카메라를 포함할 수 있다. 제3 카메라(265)는 AF(auto focus) 기능과 떨림 보정(OIS(optical image stabilizer))과 같은 고화질의 영상을 얻기 위한 기능들이 구비된 칼라(color) 카메라를 포함할 수 있다. 이에 한정하는 것은 아니며, 제3 카메라(265)는 GS(global shutter) 카메라 또는 RS(rolling shutter) 카메라를 포함할 수 있다.In one embodiment, the third camera 265 may be referred to as high resolution (HR) or photo video (PV) and may include a high resolution camera. The third camera 265 may include a color camera equipped with functions for obtaining high-definition images, such as an auto focus (AF) function and an optical image stabilizer (OIS). It is not limited to this, and the third camera 265 may include a global shutter (GS) camera or a rolling shutter (RS) camera.
일 실시 예에서, 적어도 하나의 센서(예: 자이로 센서, 가속도 센서, 지자기 센서, 터치 센서, 조도 센서 및/또는 제스처 센서), 제1 카메라(245a, 265b)는 6DoF를 위한 헤드 트래킹(head tracking), 움직임 감지와 예측(pose estimation & prediction), 제스처 및/또는 공간 인식, 뎁스(depth) 촬영을 통한 슬램(slam) 기능 중 적어도 하나를 수행할 수 있다.In one embodiment, at least one sensor (e.g., a gyro sensor, an acceleration sensor, a geomagnetic sensor, a touch sensor, an illumination sensor, and/or a gesture sensor), and the first cameras 245a and 265b perform head tracking for 6DoF. ), motion detection and prediction (pose estimation & prediction), gesture and/or space recognition, and slam functions through depth shooting.
다른 실시예에서, 제1 카메라(245a, 245b)는 헤드 트래킹을 위한 카메라와 핸드 트래킹을 위한 카메라로 구분되어 사용될 수 있다.In another embodiment, the first cameras 245a and 245b may be used separately as a camera for head tracking and a camera for hand tracking.
일 실시 예에서, 조명부(230a, 230b)는 부착되는 위치에 따라 용도가 상이할 수 있다. 예컨대, 조명부(230a, 230b)는 프레임(frame) 및 템플(temple)을 이어주는 힌지(hinge)(예: 제1 힌지(240a), 제2 힌지(240b)) 주변이나 프레임을 연결해 주는 브릿지(bridge) 주변에 장착된 제1 카메라(245a, 245b)와 함께 부착될 수 있다. GS 카메라로 촬영하는 경우, 조명부(230a, 230b)는 주변 밝기를 보충하는 수단으로 사용될 수 있다. 예컨대, 어두운 환경이나 여러 광원의 혼입 및 반사 광 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때, 조명부(230a, 230b)가 사용될 수 있다.In one embodiment, the lighting units 230a and 230b may have different purposes depending on where they are attached. For example, the lighting units 230a and 230b are around a hinge connecting the frame and the temple (e.g., the first hinge 240a and the second hinge 240b) or around a bridge connecting the frames. ) It can be attached together with the first cameras 245a and 245b mounted nearby. When shooting with a GS camera, the lighting units 230a and 230b can be used as a means of supplementing surrounding brightness. For example, the lighting units 230a and 230b may be used in a dark environment or when it is difficult to detect a subject to be photographed due to mixing of various light sources and reflected light.
일 실시 예에서, 웨어러블 AR 장치(200)의 프레임 주변에 부착된 조명부(230a, 230b)는 제2 카메라(275a, 275b)로 동공을 촬영할 때 시선 방향(eye gaze) 검출을 용이하게 하기 위한 보조 수단으로 사용될 수 있다. 조명부(230a, 230b)가 시선 방향을 검출하기 위한 보조 수단으로 사용되는 경우 적외선 파장의 IR(infrared) LED를 포함할 수 있다. In one embodiment, the lighting units 230a and 230b attached around the frame of the wearable AR device 200 are auxiliary to facilitate eye gaze detection when photographing the pupil with the second cameras 275a and 275b. It can be used as a means. When the lighting units 230a and 230b are used as an auxiliary means for detecting the gaze direction, they may include an IR (infrared) LED with an infrared wavelength.
일 실시 예에서, PCB(예: 제1 PCB(235a), 제2 PCB(235b))에는 웨어러블 AR 장치(200)의 구성요소들을 제어하는 프로세서(미도시), 메모리(미도시) 및 통신 모듈(미도시)이 포함될 수 있다. 통신 모듈은 도 1의 통신 모듈(190)과 동일하게 구성될 수 있고, 통신 모듈(190)에 대한 설명이 동일하게 적용될 수 있다. 예를 들어, 통신 모듈은 웨어러블 AR 장치(200)와 외부 전자 장치 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. PCB는 웨어러블 AR 장치(200)를 구성하는 구성요소들에 전기적 신호를 전달할 수 있다.In one embodiment, the PCB (e.g., the first PCB 235a, the second PCB 235b) includes a processor (not shown), a memory (not shown), and a communication module that control the components of the wearable AR device 200. (not shown) may be included. The communication module may be configured the same as the communication module 190 of FIG. 1, and the description of the communication module 190 may be applied in the same way. For example, the communication module may support establishment of a direct (e.g., wired) communication channel or wireless communication channel between the wearable AR device 200 and an external electronic device, and performance of communication through the established communication channel. The PCB can transmit electrical signals to the components that make up the wearable AR device 200.
통신 모듈(미도시)은 프로세서와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(미도시)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈(미도시)은 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크 또는 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크를 통하여 외부의 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다.A communication module (not shown) operates independently of the processor and may include one or more communication processors supporting direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (not shown) is a wireless communication module (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (e.g., a local area network (LAN)). network) communication module, or power line communication module). Among these communication modules, the corresponding communication module (not shown) is a short-range communication network such as Bluetooth, WiFi (wireless fidelity) direct, or IrDA (infrared data association), or a legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network. It is possible to communicate with external electronic devices through a long-distance communication network such as (e.g. LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips).
무선 통신 모듈은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다.The wireless communication module may support 5G networks after the 4G network and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module may support high frequency bands (e.g., mmWave bands), for example, to achieve high data rates. Wireless communication modules use various technologies to secure performance in high frequency bands, such as beamforming, massive MIMO (multiple-input and multiple-output), and full-dimensional multiple input/output (FD). -It can support technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna.
웨어러블 AR 장치(200)는 안테나 모듈(미도시)을 더 포함할 수 있다. 안테나 모듈은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: 제1 PCB(235a), 제2 PCB(235b)) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.The wearable AR device 200 may further include an antenna module (not shown). The antenna module can transmit signals or power to or receive signals or power from the outside (e.g., an external electronic device). According to one embodiment, the antenna module may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, the first PCB 235a and the second PCB 235b). According to one embodiment, the antenna module may include a plurality of antennas (eg, an array antenna).
일 실시 예에서, 복수의 마이크(예: 제1 마이크(250a), 제2 마이크(250b), 제3 마이크(250c))는 외부의 음향 신호를 전기적인 음성 데이터로 처리할 수 있다. 처리된 음성 데이터는 웨어러블 AR 장치(200)에서 수행 중인 기능(또는 실행 중인 어플리케이션)에 따라 다양하게 활용될 수 있다.In one embodiment, a plurality of microphones (eg, the first microphone 250a, the second microphone 250b, and the third microphone 250c) may process external acoustic signals into electrical voice data. Processed voice data can be used in various ways depending on the function (or application being executed) being performed by the wearable AR device 200.
일 실시 예에서, 복수의 스피커(예: 제1 스피커(255a), 제2 스피커(255b))는 통신 모듈로부터 수신되거나 메모리에 저장된 오디오 데이터를 출력할 수 있다.In one embodiment, a plurality of speakers (eg, the first speaker 255a and the second speaker 255b) may output audio data received from a communication module or stored in a memory.
일 실시 예에서, 배터리(260)는 하나 이상 포함할 수 있으며, 웨어러블 AR 장치(200)를 구성하는 구성요소들에 전원을 공급할 수 있다.In one embodiment, the battery 260 may include one or more batteries and may supply power to components constituting the wearable AR device 200.
일 실시 예에서, 바이저(270a, 270b)는 투과율에 따라 사용자의 눈으로 입사되는 외부광의 투과량을 조절할 수 있다. 바이저(270a, 270b)는 화면 표시부(215)의 앞 또는 뒤에 위치할 수 있다. 화면 표시부(215)의 앞은 웨어러블 AR 장치(200)를 착용한 사용자측과 반대 방향, 뒤는 웨어러블 AR 장치(200)를 착용한 사용자측 방향을 의미할 수 있다. 바이저(270a, 270b)는 화면 표시부(215)의 보호 및 외부광의 투과량을 조절할 수 있다.In one embodiment, the visors 270a and 270b may adjust the amount of external light incident on the user's eyes according to the transmittance. The visors 270a and 270b may be located in front or behind the screen display unit 215. The front of the screen display unit 215 may indicate a direction opposite to that of the user wearing the wearable AR device 200, and the rear may indicate the direction opposite to the user wearing the wearable AR device 200. The visors 270a and 270b can protect the screen display unit 215 and adjust the amount of external light transmitted.
일례로, 바이저(270a, 270b)는 인가되는 전원에 따라 색이 변경되어 투과율을 조절하는 전기변색 소자를 포함할 수 있다. 전기변색은 인가 전원에 의한 산화-환원 반응이 발생하여 색이 변경되는 현상이다. 바이저(270a, 270b)는 전기변색 소자가 색이 변경되는 것을 이용하여, 외부광의 투과율을 조절할 수 있다.For example, the visors 270a and 270b may include an electrochromic element that changes color and adjusts transmittance according to the applied power. Electrochromism is a phenomenon in which color changes due to an oxidation-reduction reaction caused by applied power. The visors 270a and 270b can adjust the transmittance of external light by using the color change of the electrochromic element.
일례로, 바이저(270a, 270b)는 제어모듈 및 전기변색 소자를 포함할 수 있다. 제어모듈은 전기변색 소자를 제어하여 전기변색 소자의 투과율을 조절할 수 있다.For example, the visors 270a and 270b may include a control module and an electrochromic element. The control module can control the electrochromic element and adjust the transmittance of the electrochromic element.
도 4는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴을 등록하는 과정을 설명하는 도면이다.FIG. 4 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for a target space, according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 증강 현실(augmented reality, AR)을 제공하는 씨 스루(see-through) 기능을 제공할 수 있다. 씨 스루(see-through) 기능은 디스플레이를 통하여 실제 외부 영상들을 사용자의 안구에 전달하면서 실시간으로 부가적인 정보 또는 이미지를 하나의 영상으로 제공하는 기능을 나타낼 수 있다.An electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) according to an embodiment has a see-through function that provides augmented reality (AR). can be provided. The see-through function may refer to a function that delivers additional information or images in real time as a single image while transmitting actual external images to the user's eyes through the display.
동작(410)에서 전자 장치는 대상 공간(target space)을 스캔(scan)하여 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별할 수 있다. 전자 장치는 대상 공간 내에 진입할 수 있다. 전자 장치가 대상 공간과 관련하여 식별하는 복수의 객체들은 대상 공간 내에 배치된 객체 또는 가상의 객체(virtual object)일 수 있다. 예를 들어, 전자 장치는 대상 공간에 진입하는 경우, 미리 설정된 가상의 객체를 대상 공간 내의 미리 정한 위치에 배치할 수 있다.In operation 410, the electronic device may scan a target space and identify a plurality of objects that can be registered in relation to the target space. Electronic devices can enter the target space. A plurality of objects that the electronic device identifies in relation to the target space may be objects placed in the target space or virtual objects. For example, when an electronic device enters a target space, it may place a preset virtual object at a predetermined location within the target space.
동작(420)에서 전자 장치는 식별된 복수의 객체들 중 둘 이상의 객체들을 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택할 수 있다. 다시 말해, 전자 장치는 식별된 복수의 객체들 중 둘 이상의 객체들을 순서를 정해 선택하면서, 각 객체에 대해 적어도 하나의 특징 정보를 지정할 수 있다. 특징 정보는, 예를 들어, 객체의 성질을 나타내는 정보, 객체의 상태를 나타내는 정보, 및 객체의 상대적 위치를 나타내는 정보 중 적어도 하나를 포함할 수 있다.In operation 420, the electronic device may select two or more objects from among a plurality of identified objects in an order while specifying characteristic information describing the objects. In other words, the electronic device may select two or more objects from among a plurality of identified objects in order and specify at least one feature information for each object. Feature information may include, for example, at least one of information indicating the properties of the object, information indicating the state of the object, and information indicating the relative position of the object.
동작(430)에서 전자 장치는 선택된 둘 이상의 객체들의 선택 순서 및 선택된 둘 이상의 객체들의 특징 정보에 기초하여 대상 공간에 대한 공간 인증 패턴을 등록할 수 있다.In operation 430, the electronic device may register a space authentication pattern for the target space based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
도 5는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록에 사용될 객체들의 개수를 설정하는 과정을 설명하는 도면이다.FIG. 5 is a diagram illustrating a process in which an electronic device sets the number of objects to be used to register a space authentication pattern for a target space, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간(510)에 진입하는 경우, 대상 공간(510)에 대한 공간 인증 패턴이 등록되어 있는지 여부를 판단할 수 있다. 전자 장치는 대상 공간(510)에 대한 공간 인증 패턴이 등록되어 있는 경우, 대상 공간(510)에 대해 등록된 공간 인증 패턴의 해제 과정을 개시할 지 여부를 결정할 수 있다. 대상 공간(510)에 대해 등록된 공간 인증 패턴의 해제와 관련하여서는 도 12 내지 도 16에서 구체적으로 설명한다.According to one embodiment, when an electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) enters the target space 510, space authentication for the target space 510 is performed. It is possible to determine whether a pattern is registered. If a space authentication pattern for the target space 510 is registered, the electronic device may determine whether to initiate a process of releasing the space authentication pattern registered for the target space 510. The cancellation of the space authentication pattern registered for the target space 510 will be described in detail in FIGS. 12 to 16.
일 실시예에 따르면, 전자 장치는 대상 공간(510)에 대한 공간 인증 패턴이 등록되어 있지 않은 경우, 대상 공간(510)에 대한 공간 인증 패턴을 등록 과정을 개시할지 여부를 결정할 수 있다. 예를 들어, 전자 장치는 대상 공간(510)에 대한 공간 인증 패턴을 등록 과정의 개시할 지 여부를 사용자 입력에 기초하여 결정할 수 있다. 전자 장치는 대상 공간(510)에 대한 공간 인증 패턴의 등록 과정을 개시하는 것으로 결정한 경우, 공간 인증 패턴의 등록에 사용될 객체들의 개수를 사용자 입력에 기초하여 설정할 수 있다. 전자 장치는 전자 장치의 화면(520)에 공간 인증 패턴의 등록에 사용될 객체들의 개수의 선택을 위한 사용자 인터페이스(521)를 표시할 수 있다. 예를 들어, 전자 장치는 대상 공간(510)에 대한 공간 인증 패턴의 등록에 사용될 객체의 개수를 3개로 설정할 수 있다.According to one embodiment, when the space authentication pattern for the target space 510 is not registered, the electronic device may determine whether to initiate a process of registering the space authentication pattern for the target space 510. For example, the electronic device may determine whether to initiate a registration process for the space authentication pattern for the target space 510 based on user input. When the electronic device determines to initiate the registration process of the space authentication pattern for the target space 510, the electronic device may set the number of objects to be used for registration of the space authentication pattern based on user input. The electronic device may display a user interface 521 for selecting the number of objects to be used for registering a spatial authentication pattern on the screen 520 of the electronic device. For example, the electronic device may set the number of objects to be used to register a space authentication pattern for the target space 510 to three.
도 6a는 일 실시예에 따른 전자 장치가 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하는 과정을 설명하는 도면이다.FIG. 6A is a diagram illustrating a process in which an electronic device identifies a plurality of objects that can be registered in relation to a target space, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 공간 인증 패턴의 등록에 사용될 객체들의 개수가 설정되는 경우, 대상 공간과 관련하여 등록 가능한 복수의 객체들(631, 632, 633, 634)을 식별할 수 있다. 전자 장치는 대상 공간(610) 내에 배치된 객체 또는 가상의 객체를 대상 공간(610)과 관련하여 등록 가능한 객체로 식별할 수 있다. 전자 장치는 식별된 복수의 객체들(631, 632, 633, 634) 각각에 대응하는 경계 영역들(641, 642, 643, 644)을 화면(620) 상에 표시할 수 있다. 예를 들어, 도 6a를 참조하면, 전자 장치는 경계 영역(예: 경계 영역(641))이 식별된 객체(예: 객체(631))가 보여지는 영역을 포함하도록 화면(620) 상에 표시할 수 있다. 경계 영역은 객체가 보여지는 영역을 포함하는 최소 크기의 정육면체의 형태를 가질 수 있으나, 이로 한정되는 것은 아니다. 다른 예를 들어, 전자 장치는 경계 영역이 식별된 객체가 보여지는 영역을 둘러싸도록 화면 상에 표시할 수도 있다. 일 실시예에 따르면, 전자 장치는 대상 공간(610)과 관련하여 등록 가능한 복수의 객체들의 총 개수를 화면에 표시하거나 또는 음성을 통해 알릴 수 있다.According to one embodiment, when the number of objects to be used for registration of a space authentication pattern is set, the electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) is related to the target space. Thus, a plurality of registerable objects 631, 632, 633, and 634 can be identified. The electronic device may identify an object or virtual object placed in the target space 610 as an object that can be registered in relation to the target space 610. The electronic device may display boundary areas 641, 642, 643, and 644 corresponding to each of the identified plurality of objects 631, 632, 633, and 634 on the screen 620. For example, referring to FIG. 6A, the electronic device displays a border area (e.g., border area 641) on the screen 620 to include an area in which an identified object (e.g., object 631) is visible. can do. The border area may have the shape of a cube with the minimum size including the area where the object is visible, but is not limited thereto. For another example, the electronic device may display the boundary area on the screen to surround the area where the identified object is visible. According to one embodiment, the electronic device may display the total number of objects that can be registered in relation to the target space 610 on the screen or announce them through voice.
도 6b 내지 도 6c는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 식별된 복수의 객체들 중 둘 이상의 객체들을 선택하는 과정을 설명하는 도면이다.FIGS. 6B to 6C are diagrams illustrating a process in which an electronic device selects two or more objects from among a plurality of objects identified in the process of registering a spatial authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 화면(620)의 중심점(center point)(670)을 추적할 수 있다. 전자 장치는 추적된 화면(620)의 중심점(670)이 객체(631)가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 것에 기초하여, 객체(631)를 대상 공간(610)의 공간 인증 패턴의 등록에 사용될 객체로서 선택할 수 있다.According to one embodiment, an electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) may track the center point 670 of the screen 620. The electronic device identifies the object 631 as a spatial authentication pattern of the target space 610 based on the fact that the center point 670 of the tracked screen 620 is continuously positioned for more than a threshold time within the area where the object 631 is visible. It can be selected as an object to be used for registration.
도 6b를 참조하면, 전자 장치는 화면의 중심점(670)이 객체(631)가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 경우, 객체(631)를 대상 공간(610)의 공간 인증 패턴에 사용할 것인지 문의하는 사용자 인터페이스(621)를 화면 상에 표시할 수 있다. 예를 들어, 임계 시간은 3초일 수 있으나, 이로 한정하지는 않는다.Referring to FIG. 6B, when the center point 670 of the screen is continuously located for more than a threshold time within the area where the object 631 is visible, the electronic device matches the object 631 to the space authentication pattern of the target space 610. A user interface 621 inquiring whether to use it may be displayed on the screen. For example, the threshold time may be, but is not limited to, 3 seconds.
도 6c를 참조하면, 전자 장치는 객체(631)를 대상 공간(610)의 공간 인증 패턴의 등록에 사용하는 것으로 결정한 경우, 객체(631)를 캡쳐하는 것에 기초하여 객체(631)를 대상 공간(610)의 공간 인증 패턴의 등록에 사용될 객체로서 선택할 수 있다. 객체(631)를 바라보는 방향에 따라 객체(631)가 보여지는 형태는 상이할 수 있다. 따라서, 전자 장치는 모든 방향에서 객체(631)가 보여지는 형태를 캡쳐함으로써 객체(631)의 캡쳐를 완료할 수 있다. 전자 장치는 객체(631)의 캡쳐 진행도를 표시하기 위해, 객체(631)가 보여지는 영역을 감싸는 폐곡선(650)을 화면(620) 상에 표시할 수 있다. 전자 장치는 제1 방향(681)에 대응하는 객체(631)의 형태를 캡쳐하는 경우, 폐곡선(650)에서 제1 방향(681)에 대응하는 부분을 기존의 제1 색상과 다른 제2 색상으로 표시할 수 있다. 전자 장치는 제2 방향(682)에 대응하는 객체(631)의 형태를 캡쳐하는 경우, 폐곡선(650)에서 제2 방향(682)에 대응하는 부분을 기존 색상과 다른 색상으로 표시할 수 있다. 전자 장치는 각 방향에서 객체(631)가 보여지는 형태를 모두 캡쳐하는 경우, 폐곡선(650)의 전체 영역은 모두 제2 색상으로 표시될 수 있다. 전자 장치는 객체(631)의 캡쳐가 완료되는 경우, 객체(631)를 대상 공간(610)에 대한 공간 인증 패턴의 등록에 사용될 객체로서 선택할 수 있다.Referring to FIG. 6C, when the electronic device determines to use the object 631 for registration of the space authentication pattern of the target space 610, it uses the object 631 as the target space (631) based on capturing the object 631. 610) can be selected as an object to be used for registration of the spatial authentication pattern. The appearance of the object 631 may vary depending on the direction from which the object 631 is viewed. Accordingly, the electronic device can complete the capture of the object 631 by capturing the form in which the object 631 is viewed from all directions. To display the progress of capturing the object 631, the electronic device may display a closed curve 650 surrounding the area where the object 631 is visible on the screen 620. When the electronic device captures the shape of the object 631 corresponding to the first direction 681, the part of the closed curve 650 corresponding to the first direction 681 is changed to a second color different from the existing first color. It can be displayed. When capturing the shape of the object 631 corresponding to the second direction 682, the electronic device may display the portion of the closed curve 650 corresponding to the second direction 682 in a color different from the existing color. When the electronic device captures all visible shapes of the object 631 in each direction, the entire area of the closed curve 650 may be displayed in the second color. When the capture of the object 631 is completed, the electronic device may select the object 631 as an object to be used for registering a space authentication pattern for the target space 610.
도 7은 일 실시예에 따른 전자 장치가 객체를 설명하는 특징 정보를 지정하는 과정을 설명하는 도면이다.FIG. 7 is a diagram illustrating a process in which an electronic device specifies characteristic information describing an object, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 객체(731)를 대상 공간(710)에 대한 공간 인증 패턴에 사용될 객체로서 선택한 경우, 객체(731)를 설명하는 특징 정보를 지정할 수 있다. 먼저, 전자 장치는 객체(731)의 캡쳐된 형태에 기초하여, 객체(731)에 대응하는 복수의 특징 정보들을 생성할 수 있다. 예를 들어, 전자 장치는 비전 인식(vision recognition)을 통해 객체(731)에 대응하는 특징 정보들을 생성할 수 있다. 객체(731)에 대응하는 특징 정보는, 예를 들어, 객체(731)의 성질을 나타내는 특징 정보(751, 752, 753), 객체(731)의 현재 상태를 나타내는 특징 정보(754), 및 객체(731)의 상대적 위치를 나타내는 특징 정보(755)가 있을 수 있다. 전자 장치는 객체(731)에 대하여 생성된 복수의 특징 정보들(751 내지 755)을 화면 상에 표시할 수 있다.According to one embodiment, an electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) uses the object 731 as an object to be used in a space authentication pattern for the target space 710. When selected, feature information describing the object 731 can be specified. First, the electronic device may generate a plurality of characteristic information corresponding to the object 731 based on the captured form of the object 731. For example, the electronic device may generate characteristic information corresponding to the object 731 through vision recognition. Feature information corresponding to the object 731 includes, for example, feature information 751, 752, and 753 indicating the properties of the object 731, feature information 754 indicating the current state of the object 731, and object There may be feature information 755 indicating the relative position of 731. The electronic device may display a plurality of feature information 751 to 755 generated for the object 731 on the screen.
전자 장치는 객체(731)에 대하여 생성된 복수의 특징 정보들(751 내지 755) 중 적어도 하나의 특징 정보(752, 753)를 객체(731)를 설명하는 특징 정보로 지정할 수 있다. 일 실시예에 따르면, 전자 장치는 객체(731)에 대하여 생성된 복수의 특징 정보들(751 내지 755) 중 필수 특징 정보(예: 특징 정보(753))는 사용자 입력에 상관없이 항상 객체(731)를 설명하는 특징 정보로 지정할 수 있다. 반대로, 전자 장치는 객체(731)에 대응하는 복수의 특징 정보들(751 내지 755) 중 필수 특징 정보를 제외한 나머지 특징 정보들(예: 특징 정보들(751, 752, 754, 755))은 사용자 입력에 기초하여 객체(731)를 설명하는 특징 정보로 지정할 수 있다.The electronic device may designate at least one feature information 752 and 753 among the plurality of feature information 751 to 755 generated for the object 731 as feature information describing the object 731. According to one embodiment, the electronic device always displays essential feature information (e.g., feature information 753) among the plurality of feature information 751 to 755 generated for the object 731 regardless of user input. ) can be specified as feature information that explains. Conversely, the electronic device uses the remaining feature information (e.g., feature information 751, 752, 754, and 755), excluding essential feature information, among the plurality of feature information 751 to 755 corresponding to the object 731 to the user. Based on the input, it can be designated as feature information that describes the object 731.
도 8은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 하나의 객체를 선택한 후 다음 순서의 객체를 선택하는 과정을 설명하는 도면이다.FIG. 8 is a diagram illustrating a process in which an electronic device selects one object in the registration process of a spatial authentication pattern and then selects the next object in the order, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 식별된 복수의 객체들 중 둘 이상의 객체들을 순서를 정해 선택할 수 있다. 일 실시예에 따르면, 전자 장치는 대상 공간(810)의 공간 인증 패턴의 등록 과정에서, 하나의 객체를 대상 공간(810)의 공간 인증 패턴에 사용될 n번째 순서의 객체로 선택하는 경우, n번째 순서의 객체임을 나타내는 그래픽 객체를 해당 객체가 보여지는 영역에 표시할 수 있다. 여기서, n은 1이상의 자연수일 수 있다. 예를 들어, 도 8을 참조하면, 전자 장치는 객체(831)를 공간 인증 패턴의 등록에 사용될 1번째 순서의 객체로 선택할 수 있고, 1번째 순서를 나타내는 그래픽 객체(871)를 객체(831)가 보여지는 영역에 표시할 수 있다. 마찬가지로, 전자 장치는 객체(832)를 공간 인증 패턴의 등록에 사용될 2번째 순서의 객체로 선택할 수 있고, 2번째 순서를 나타내는 그래픽 객체(872)를 객체(832)가 보여지는 영역에 표시할 수 있다.According to one embodiment, an electronic device (eg, the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) may select two or more objects among a plurality of identified objects in an order. According to one embodiment, in the process of registering the spatial authentication pattern of the target space 810, the electronic device selects one object as the nth order object to be used for the spatial authentication pattern of the target space 810, and the nth A graphic object indicating that it is an object of order can be displayed in the area where the object is visible. Here, n may be a natural number of 1 or more. For example, referring to FIG. 8, the electronic device may select the object 831 as the first order object to be used for registration of the spatial authentication pattern, and select the graphic object 871 representing the first order as the object 831. can be displayed in the visible area. Likewise, the electronic device may select the object 832 as a second order object to be used for registration of the spatial authentication pattern, and display a graphic object 872 representing the second order in the area where the object 832 is visible. there is.
일 실시예에 따르면, 전자 장치는 식별된 복수의 객체들 중 둘 이상의 객체들을 순차적으로 선택하는 과정에서, 공간 인증 패턴의 등록에 사용될 객체로서 선택된 하나의 객체(예: 객체(831))가 보여지는 영역과 하나의 객체(예: 객체(831))의 다음 순서로 선택된 객체(예: 객체(832))가 보여지는 영역을 서로 연결하는 그래픽 객체를 표시할 수 있다. 예를 들어, 전자 장치는 객체(831)가 보여지는 영역 내의 지점(871)과 객체(831)의 다음 순서로 선택된 객체(832)가 보여지는 영역 내의 지점(872)을 실선(891)으로 연결할 수 있다.According to one embodiment, in the process of sequentially selecting two or more objects from among a plurality of identified objects, the electronic device shows one selected object (e.g., object 831) as an object to be used for registration of a spatial authentication pattern. A graphic object may be displayed that connects an area where an object (e.g., object 831) is displayed and an area where an object (e.g., object 832) selected in the following order is shown. For example, the electronic device connects the point 871 within the area where the object 831 is shown and the point 872 within the area where the object 832 selected in the next order of the object 831 is shown with a solid line 891. You can.
일 실시예에 따르면, 전자 장치는 식별된 복수의 객체들 중 둘 이상의 객체들을 순차적으로 선택하는 과정에서, 공간 인증 패턴의 등록에 사용될 객체로서 현재 시점에 마지막으로 선택된 객체(예: 객체(832))가 보여지는 영역과 화면(820)의 중심점(870)을 서로 연결하는 그래픽 객체를 표시할 수 있다. 예를 들어, 전자 장치는 객체(832)가 보여지는 영역 내의 지점(872)과 화면(820)의 중심점(870)을 점선(899)으로 연결할 수 있다. 다만, 전자 장치는 대상 공간(810)의 공간 인증 패턴의 등록 과정에서, 마지막 순번의 객체를 선택하는 경우에는 객체를 더 이상 선택할 필요가 없기 때문에, 마지막 순번의 객체가 선택되면 객체와 화면의 중심점을 연결하지 않을 수 있다.According to one embodiment, in the process of sequentially selecting two or more objects among a plurality of identified objects, the electronic device selects the last selected object at the current time as an object to be used for registration of a spatial authentication pattern (e.g., object 832). ) can be displayed, connecting the area where the image is displayed and the center point 870 of the screen 820. For example, the electronic device may connect the point 872 within the area where the object 832 is visible and the center point 870 of the screen 820 with a dotted line 899. However, in the process of registering the space authentication pattern of the target space 810, the electronic device does not need to select any more objects when selecting the object in the last order. Therefore, when the object in the last order is selected, the center point of the object and the screen may not be connected.
일 실시예에 따르면, 전자 장치는 대상 공간(810)의 공간 인증 패턴의 등록 과정에서, 대상 공간(810)의 공간 인증 패턴에 사용될 객체들의 총 개수 및 현재 시점까지 선택된 객체들의 개수를 나타내는 사용자 인터페이스(880)를 표시할 수 있다. 예를 들어, 도 8을 참조하면, 전자 장치는 대상 공간(810)의 공간 인증 패턴의 등록에 사용될 객체들의 총 개수(예: 3개) 만큼의 그래픽 객체들(881, 882, 883)을 사용자 인터페이스(880) 내에 표시할 수 있고, 표시된 그래픽 객체들(881, 882, 883) 중 현재 시점까지 선택된 객체들의 개수(예: 2개) 만큼의 그래픽 객체들(881, 882)을 나머지 그래픽 객체(883)와 다른 색상으로 표시할 수 있다.According to one embodiment, in the process of registering the space authentication pattern of the target space 810, the electronic device provides a user interface that indicates the total number of objects to be used in the space authentication pattern of the target space 810 and the number of objects selected up to the current point. (880) can be displayed. For example, referring to FIG. 8, the electronic device creates graphic objects 881, 882, and 883 as many as the total number of objects (e.g., 3) to be used for registering the space authentication pattern of the target space 810. It can be displayed in the interface 880, and among the displayed graphic objects 881, 882, 883, graphic objects 881, 882 as many as the number of objects selected up to the current point (e.g., 2) are displayed as the remaining graphic objects (881, 882). 883) and can be displayed in a different color.
도 9는 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록을 완료하는 예시를 설명하는 도면이다.FIG. 9 is a diagram illustrating an example in which an electronic device completes registration of a space authentication pattern for a target space, according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간(910)에 대한 공간 인증 패턴의 등록을 위해 둘 이상의 객체들(931, 932, 933)을 선택할 수 있고, 둘 이상의 객체들(931, 932, 933) 각각의 특징 정보를 지정할 수 있다.An electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) according to an embodiment may use two or more objects 931 to register a space authentication pattern for the target space 910. , 932, 933) can be selected, and feature information for each of two or more objects 931, 932, 933 can be specified.
예를 들어, 도 9를 참조하면, 전자 장치는 대상 공간(910)에 대한 공간 인증 패턴의 등록에 사용될 객체들의 개수를 3개로 설정할 수 있다. 전자 장치는 객체(931), 객체(932), 및 객체(933)의 순서로 선택함으로써 대상 공간(910)의 공간 인증 패턴의 등록을 수행할 수 있다. 전자 장치는 1번째 순서로 선택된 객체(931)가 보여지는 영역 상에 1번째 순서를 나타내는 그래픽 객체(961), 2번째 순서로 선택된 객체(932)가 보여지는 영역 상에 2번째 순서를 나타내는 그래픽 객체(962), 3번째 순서로 선택된 객체(933)가 보여지는 영역 상에 3번째 순서를 나타내는 그래픽 객체(963)를 각각 표시할 수 있다. 전자 장치는 1번째 순서의 객체(931)와 2번째 순서의 객체(932)를 실선(991)으로 연결할 수 있고, 2번째 순서의 객체(932)와 3번째 순서의 객체(933)를 실선(992)으로 연결할 수 있다.For example, referring to FIG. 9 , the electronic device may set the number of objects to be used to register a space authentication pattern for the target space 910 to three. The electronic device may register the space authentication pattern of the target space 910 by selecting the object 931, the object 932, and the object 933 in that order. The electronic device displays a graphic object 961 representing the first order on the area where the object 931 selected in the first order is shown, and a graphic representing the second order on the area where the object 932 selected in the second order is shown. A graphic object 963 representing the third order may be displayed on the area where the object 962 and the object 933 selected in the third order are shown, respectively. The electronic device may connect the first-order object 931 and the second-order object 932 with a solid line 991, and connect the second-order object 932 and the third-order object 933 with a solid line ( 992).
일 실시예예 따르면, 전자 장치는 마지막 순서의 객체(예: 객체(933))에 대한 선택이 완료된 이후, 대상 공간(910)에 대한 공간 인증 패턴의 등록을 완료할 것인지 문의하는 사용자 인터페이스(921)를 표시할 수 있다. 전자 장치는 공간 인증 패턴의 등록을 완료하는 것으로 결정하는 경우, 선택된 객체들(931, 932, 933)의 선택 순서 및 선택된 객체들(931, 932, 933) 각각에 대하여 지정된 특징 정보에 기초하여 대상 공간(910)에 대한 공간 인증 패턴을 등록을 완료할 수 있다.According to one embodiment, after the selection of the last object (e.g., object 933) is completed, the electronic device displays a user interface 921 that inquires whether to complete registration of the space authentication pattern for the target space 910. can be displayed. When the electronic device determines to complete registration of the spatial authentication pattern, the target is selected based on the selection order of the selected objects (931, 932, 933) and the characteristic information specified for each of the selected objects (931, 932, 933). Registration of the space authentication pattern for the space 910 may be completed.
일 실시예에 따르면, 전자 장치는 대상 공간(910) 내의 일정한 제1 위치에서 공간 인증 패턴의 등록에 사용될 둘 이상의 객체들을 순차적으로 선택 및 선택된 둘 이상의 객체들의 특징 정보를 지정함으로써 공간 인증 패턴의 등록을 완료할 수 있다.According to one embodiment, the electronic device registers the spatial authentication pattern by sequentially selecting two or more objects to be used for registration of the spatial authentication pattern at a certain first location in the target space 910 and specifying characteristic information of the two or more selected objects. can be completed.
다른 일 실시예에 따르면, 전자 장치는 대상 공간(910) 내의 일정한 제1 위치에서 공간 인증 패턴의 등록에 사용될 둘 이상의 객체들을 순차적으로 선택 및 선택된 둘 이상의 객체들의 특징 정보를 지정하고, 대상 공간(910) 내의 제1 위치와 다른 위치인 제2 위치에서 동일한 둘 이상의 객체들을 동일한 선택 순서로 선택하는 경우에 응답하여, 공간 인증 패턴의 등록을 완료할 수 있다.According to another embodiment, the electronic device sequentially selects two or more objects to be used for registration of a space authentication pattern at a certain first location in the target space 910 and specifies characteristic information of the two or more selected objects, and specifies characteristic information of the two or more selected objects in the target space ( In response to selecting the same two or more objects in the same selection order at a second location that is different from the first location in 910), registration of the spatial authentication pattern may be completed.
도 10은 일 실시예에 따른 전자 장치가 다른 전자 장치에 대상 공간에 대해 등록된 공간 인증 패턴에 대한 정보를 전송하는 과정을 설명하는 도면이다.FIG. 10 is a diagram illustrating a process in which an electronic device transmits information about a space authentication pattern registered for a target space to another electronic device, according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간에 대한 공간 인증 패턴을 등록 한 이후, 다른 전자 장치로 대상 공간에 대해 등록된 공간 인증 패턴에 대한 정보를 전송할 수 있다. 전자 장치는 대상 공간의 공간 인증 패턴의 등록에 사용된 객체들(예: 도 9의 객체들(931, 932, 933)) 각각에 대하여, 하나의 객체(예: 도 9의 객체(931))가 공간 인증 패턴의 등록시 선택된 순서를 나타내는 그래픽 객체(예: 그래픽 객체(1011)), 하나의 객체의 형태를 나타내는 이미지(예: 이미지(1012)), 및 하나의 객체에 대해 지정된 특징 정보들(예: 특징 정보들(1013))이 매핑된 컨텐츠들(예: 컨텐츠들(1010, 1020, 1030))을 생성할 수 있다. 전자 장치는 대상 공간에 대해 등록된 공간 인증 패턴에 대응하여 생성된 복수의 컨텐츠들(1010, 1020, 1030)을 다른 전자 장치로 전송할 수 있다.An electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) according to an embodiment registers a space authentication pattern for the target space and then registers the space authentication pattern for the target space with another electronic device. Information about registered spatial authentication patterns can be transmitted. The electronic device registers one object (e.g., object 931 in FIG. 9) for each of the objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register the spatial authentication pattern of the target space. A graphic object representing the order selected when registering a temporary space authentication pattern (e.g., graphic object 1011), an image representing the shape of one object (e.g., image 1012), and characteristic information specified for one object ( Example: feature information 1013) may generate mapped contents (eg, contents 1010, 1020, 1030). The electronic device may transmit a plurality of contents 1010, 1020, and 1030 generated in response to the space authentication pattern registered for the target space to another electronic device.
도 11은 일 실시예에 따른 전자 장치가 대상 공간에 대해 등록된 공간 인증 패턴을 해제하는 일 예시를 설명하는 도면이다.FIG. 11 is a diagram illustrating an example in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간에 대한 공간 인증 패턴이 등록되어 있는 경우, 대상 공간에 대해 등록된 공간 인증 패턴을 해제 과정을 개시할 수 있다.If a space authentication pattern for the target space is registered, the electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) according to an embodiment may use the space registered for the target space. The authentication pattern can initiate the deactivation process.
일 실시예에 따르면, 전자 장치는 식별되는 복수의 객체들 중 둘 이상의 객체들을 선택하는 것에 기초하여 대상 공간에 대해 등록된 공간 인증 패턴을 해제할 수 있다. 일 실시예에 따르면, 전자 장치는 대상 공간에 대한 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들(예: 도 9의 객체들(931, 932, 933))과 동일한 복수의 객체들을 미리 설정된 선택 순서로 선택하는 것에 기초하여, 대상 공간에 대해 등록된 공간 인증 패턴을 해제할 수 있다. 미리 설정된 선택 순서는, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들의 선택 순서를 나타낼 수 있다. 예를 들어, 전자 장치는 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들(예: 도 9의 객체들(931, 932, 933))과 동일한 복수의 객체들을 미리 설정된 선택 순서로 선택하고, 선택한 복수의 객체들 각각이 해당 객체에 대하여 미리 설정된 특징 정보를 만족하는 경우, 대상 공간에 대해 등록된 공간 인증 패턴을 해제할 수 있다. 미리 설정된 특징 정보는, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들 각각에 대하여 지정된 특징 정보를 나타낼 수 있다.According to one embodiment, the electronic device may release a space authentication pattern registered for the target space based on selecting two or more objects from among a plurality of identified objects. According to one embodiment, the electronic device selects a plurality of objects identical to two or more objects (e.g., objects 931, 932, and 933 of FIG. 9) used to register a space authentication pattern for the target space in advance. Based on the selection in order, the space authentication pattern registered for the target space can be released. The preset selection order may represent the selection order of two or more objects selected during the registration process of a spatial authentication pattern. For example, the electronic device selects a plurality of objects identical to two or more objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register a spatial authentication pattern in a preset selection order, and selects the selected objects. If each of the plurality of objects satisfies preset characteristic information for the object, the space authentication pattern registered for the target space can be canceled. The preset feature information may indicate feature information specified for each of two or more objects selected during the registration process of a spatial authentication pattern.
다른 일 실시예에 따르면, 전자 장치는 객체를 선택하는 대신에 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들 각각에 대응하는 이미지와 특징 정보를 이용하여 대상 공간에 대해 등록된 공간 인증 패턴을 해제할 수도 있다. 일 실시예에 따르면, 전자 장치는 객체를 선택하는 것에 기초한 공간 인증 패턴의 해제가 미리 설정된 횟수 만큼 연속적으로 실패하는 경우, 객체를 선택하는 것에 기초한 공간 인증 패턴을 해제하는 것을 금지할 수 있다. 예를 들어, 미리 설정된 횟수는 5회일 수 있으나, 이로 한정하는 것은 아니다. 이러한 경우, 전자 장치는 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들 각각에 대응하는 이미지와 특징 정보를 이용하여 대상 공간에 대해 등록된 공간 인증 패턴을 해제할 수 있다.According to another embodiment, instead of selecting an object, the electronic device releases the spatial authentication pattern registered for the target space using images and characteristic information corresponding to each of two or more objects used for registration of the spatial authentication pattern. You may. According to one embodiment, the electronic device may prohibit releasing a spatial authentication pattern based on selecting an object when releasing the spatial authentication pattern based on selecting an object continuously fails a preset number of times. For example, the preset number of times may be 5, but is not limited thereto. In this case, the electronic device may cancel the space authentication pattern registered for the target space using images and feature information corresponding to each of two or more objects used to register the space authentication pattern.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들(예: 도 9의 객체들(931, 932, 933)) 각각에 대응하는 컨텐츠들을 순차적으로 화면에 표시할 수 있다. 전자 장치는 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들(예: 도 9의 객체들(931, 932, 933)) 각각에 대응하는 컨텐츠들을 순차적으로 선택하는 사용자 입력을 수신하는 경우, 등록된 공간 인증 패턴을 해제할 수 있다. 예를 들어, 도 11을 참조하면, 전자 장치는 공간 인증 패턴의 등록 과정에서 1번째 순서로 선택된 객체(예: 도 9의 객체(931))의 형태를 나타내는 이미지 및 객체(예: 도 9의 객체(931))에 대하여 지정된 특징 정보가 매핑된 컨텐츠(1110)를 화면에 표시할 수 있다. 이때, 전자 장치는 1번째 순서로 선택된 객체(예: 도 9의 객체(931))와 상이한 다른 객체의 형태를 나타내는 이미지와 다른 객체를 설명하는 특징 정보가 매핑된 컨텐츠(예: 컨텐츠들(1120, 1130))를 컨텐츠(1110)와 함께 화면에 표시할 수 있다. 전자 장치는 1번째 순서로 선택된 객체(예: 도 9의 객체(931))에 대응하는 컨텐츠(1110)를 선택하는 사용자 입력을 수신하는 경우, 2번째 순서로 선택된 객체(예: 도 9의 객체(932))에 대응하는 컨텐츠(미도시됨)를 다른 컨텐츠들과 함께 표시할 수 있다. 전술한 바와 같이, 전자 장치는 둘 이상의 객체들 각각에 대응하는 컨텐츠들을 순차적으로 선택함으로써, 등록된 공간 인증 패턴을 해제할 수 있다. 반면, 전자 장치는 공간 인증 패턴의 등록에 사용된 객체들에 대응하는 컨텐츠(예: 컨텐츠(1110))와 다른 컨텐츠(예: 컨텐츠(1120, 1130))를 선택하는 사용자 입력을 수신하는 경우, 공간 인증 패턴의 해제가 실패한 것으로 판단할 수 있다.According to one embodiment, the electronic device may sequentially display content corresponding to each of two or more objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register a spatial authentication pattern on the screen. there is. When the electronic device receives a user input for sequentially selecting content corresponding to each of two or more objects (e.g., objects 931, 932, and 933 in FIG. 9) used to register a spatial authentication pattern, the registered The spatial authentication pattern can be released. For example, referring to FIG. 11, the electronic device displays an image representing the shape of an object (e.g., object 931 in FIG. 9) selected in the first order in the registration process of a spatial authentication pattern and an object (e.g., in FIG. 9). Content 1110 to which characteristic information specified for the object 931 is mapped may be displayed on the screen. At this time, the electronic device displays content (e.g., contents 1120) to which an image representing the shape of another object different from the object selected in the first order (e.g., object 931 in FIG. 9) and feature information describing the other object are mapped. , 1130)) can be displayed on the screen together with the content 1110. When the electronic device receives a user input for selecting content 1110 corresponding to the object selected in the first order (e.g., the object 931 in FIG. 9), the electronic device selects the object selected in the second order (e.g., the object 931 in FIG. 9). Content (not shown) corresponding to (932)) can be displayed together with other contents. As described above, the electronic device can cancel the registered spatial authentication pattern by sequentially selecting content corresponding to each of two or more objects. On the other hand, when the electronic device receives a user input for selecting content (e.g., content 1120, 1130) different from content corresponding to the objects used for registration of the spatial authentication pattern (e.g., content 1110), It may be determined that the release of the spatial authentication pattern failed.
도 12는 일 실시예에 따른 전자 장치가 대상 공간에 대하여 등록된 공간 인증 패턴을 해제하는 과정을 설명하는 도면이다.FIG. 12 is a diagram illustrating a process in which an electronic device releases a space authentication pattern registered for a target space, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간(1210)에 대한 공간 인증 패턴이 등록되어 있는 경우, 대상 공간(1210)에 대해 등록된 공간 인증 패턴의 해제 과정을 개시할 지 여부를 결정할 수 있다. 예를 들어, 전자 장치는 대상 공간(1210)에 대하여 등록된 공간 인증 패턴의 해제 과정을 개시할 지 여부를 사용자 입력에 기초하여 결정할 수 있다. 전자 장치는 대상 공간(1210)에 대하여 등록된 공간 인증 패턴을 해제하는 것으로 결정한 경우, 선택 가능한 복수의 객체들을 식별할 수 있다.According to one embodiment, if a space authentication pattern for the target space 1210 is registered, the electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) registers the target space ( 1210), it is possible to determine whether to initiate the process of releasing the registered spatial authentication pattern. For example, the electronic device may determine whether to initiate the process of releasing the space authentication pattern registered for the target space 1210 based on the user input. When the electronic device decides to cancel the space authentication pattern registered for the target space 1210, it can identify a plurality of selectable objects.
일 실시예에 따르면, 전자 장치는 화면(1220)의 중심점(1270)을 이용하여 객체를 선택할 수 있고, 이에 관하여서는 도 13에서 후술한다. 전자 장치는 대상 공간(1210)에 대한 공간 인증 패턴의 등록에 사용된 객체들의 개수를 나타내는 사용자 인터페이스(1280)를 화면(1220) 상에 표시할 수 있다. 예를 들어, 도 12를 참조하면, 전자 장치는 대상 공간(1210)의 공간 인증 패턴의 등록에 사용된 객체들의 총 개수(예: 6개) 만큼의 그래픽 객체들(1281, 1282, …, 1286)을 사용자 인터페이스(1280) 내에 표시할 수 있다. 전자 장치는 공간 인증 패턴의 해제 과정에서 현재 시점까지 선택된 객체들의 개수 만큼의 그래픽 객체들을 나머지 그래픽 객체와 다른 색상으로 표시함으로써, 전자 장치의 사용자에게 현재 시점까지 공간 인증 패턴의 해제를 위해 선택된 객체들의 개수를 통지할 수 있다.According to one embodiment, the electronic device can select an object using the center point 1270 of the screen 1220, which will be described later with reference to FIG. 13. The electronic device may display a user interface 1280 on the screen 1220 that indicates the number of objects used to register the space authentication pattern for the target space 1210. For example, referring to FIG. 12, the electronic device displays graphic objects 1281, 1282, ..., 1286 equal to the total number of objects (e.g., 6) used to register the space authentication pattern of the target space 1210. ) can be displayed in the user interface 1280. In the process of releasing the spatial authentication pattern, the electronic device displays graphic objects corresponding to the number of objects selected up to the current point in a different color from the remaining graphic objects, thereby informing the user of the electronic device of the objects selected to release the spatial authentication pattern up to the current point. The number can be notified.
도 13은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 객체를 선택하는 과정을 설명하는 도면이다.FIG. 13 is a diagram illustrating a process in which an electronic device selects an object in the process of releasing a spatial authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 등록된 공간 인증 패턴을 해제하는 것으로 결정한 경우, 선택 가능한 복수의 객체들(1331, 1332, 1333, 1334)을 식별할 수 있다. 예를 들어, 전자 장치가 공간 인증 패턴의 해제 과정에서 식별하는 복수의 객체들(1331, 1332, 1333, 1334)은 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들을 포함할 수 있다. 전자 장치는 식별된 복수의 객체들(1331, 1332, 1333, 1334) 각각에 대응하는 경계 영역을 화면 상에 표시할 수 있다. 일 실시예에 따르면, 전자 장치는 화면(1320)의 중심점(1370)을 통해 객체를 선택할 수 있다. 전자 장치는 화면(1320)의 중심점(1370)이 하나의 식별된 객체(1331)가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 것에 기초하여, 식별된 객체(1331)를 공간 인증 패턴의 해제에 사용될 객체로서 선택할 수 있다.According to one embodiment, when the electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) determines to cancel the registered spatial authentication pattern, a plurality of selectable objects ( 1331, 1332, 1333, 1334) can be identified. For example, the plurality of objects 1331, 1332, 1333, and 1334 that the electronic device identifies during the process of releasing the spatial authentication pattern may include two or more objects selected during the registration process of the spatial authentication pattern. The electronic device may display a boundary area corresponding to each of the identified plurality of objects 1331, 1332, 1333, and 1334 on the screen. According to one embodiment, the electronic device may select an object through the center point 1370 of the screen 1320. The electronic device releases the spatial authentication pattern for the identified object 1331 based on the center point 1370 of the screen 1320 being continuously positioned for more than a threshold time within the area where one identified object 1331 is visible. It can be selected as an object to be used.
도 14는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 하나의 객체를 선택한 후 다음 순서의 객체를 선택하는 과정을 설명하는 도면이다.FIG. 14 is a diagram illustrating a process in which an electronic device selects one object and then selects the next object in the process of releasing a spatial authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 공간 인증 패턴의 해제 과정에서 식별된 복수의 객체들(1431, 1432, 1433) 중 복수의 객체들을 순차적으로 선택할 수 있다. 전자 장치는 식별된 복수의 객체들 중 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼의 복수의 객체들을 순차적으로 선택할 수 있다.According to one embodiment, an electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) identifies a plurality of objects 1431, 1432, and 1433 identified in the process of releasing the spatial authentication pattern. ), you can select multiple objects sequentially. The electronic device may sequentially select a plurality of objects equal to the number of objects used to register a spatial authentication pattern among the identified plurality of objects.
일 실시예에 따르면, 전자 장치는 식별된 복수의 객체들(1431, 1432, 1433) 중 복수의 객체들을 순차적으로 선택하는 과정에서, 공간 인증 패턴의 해제에 사용될 객체로서 선택된 하나의 객체(예: 객체(1431))와 하나의 객체(예: 객체(1431))의 다음 순서로 선택된 객체(예: 객체(1432))를 서로 연결할 수 있다. 예를 들어, 전자 장치는 객체(1431)가 보여지는 영역 내의 지점(1471)과 객체(1431)의 다음 순서로 선택된 객체(1432)가 보여지는 영역 내의 지점(1472)을 실선(1491)으로 연결할 수 있다.According to one embodiment, in the process of sequentially selecting a plurality of objects among the plurality of identified objects 1431, 1432, and 1433, the electronic device selects one object (e.g., The selected object (e.g., object 1432) can be connected to each other in the following order: object 1431) and one object (e.g., object 1431). For example, the electronic device connects the point 1471 within the area where the object 1431 is shown and the point 1472 within the area where the object 1432 selected in the next order of the object 1431 is shown with a solid line 1491. You can.
일 실시예에 따르면, 전자 장치는 식별된 복수의 객체들(1431, 1432, 1433) 중 복수의 객체들을 순차적으로 선택하는 과정에서, 공간 인증 패턴의 해제에 사용될 객체로서 현재 시점에 마지막으로 선택된 객체(예: 객체(1432))와 화면(1420)의 중심점(1470)을 서로 연결할 수 있다. 예를 들어, 전자 장치는 객체(1432)가 보여지는 영역 내의 지점(1472)과 화면(1420)의 중심점(1470)을 점선(1499)으로 연결할 수 있다.According to one embodiment, in the process of sequentially selecting a plurality of objects among a plurality of identified objects 1431, 1432, and 1433, the electronic device selects the last selected object at the current time as an object to be used for releasing the spatial authentication pattern. (For example, the object 1432) and the center point 1470 of the screen 1420 can be connected to each other. For example, the electronic device may connect the point 1472 within the area where the object 1432 is visible and the center point 1470 of the screen 1420 with a dotted line 1499.
도 15는 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들에 기초하여 공간 인증 패턴을 해제하는 과정을 설명하는 도면이다.FIG. 15 is a diagram illustrating a process in which an electronic device releases a spatial authentication pattern based on a plurality of objects selected in the process of releasing the spatial authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 공간 인증 패턴의 해제 과정에서, 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼의 복수의 객체들을 선택할 수 있다. 예를 들어, 도 15를 참조하면, 대상 공간(1510)에 대한 공간 인증 패턴의 등록에 사용된 객체들의 개수가 6개인 경우, 전자 장치는 공간 인증 패턴의 해제 과정에서 식별된 복수의 객체들 중 6개의 객체들을 순차적으로 선택할 수 있다.According to one embodiment, the electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) determines the number of objects used to register the spatial authentication pattern in the process of releasing the spatial authentication pattern. You can select as many objects as necessary. For example, referring to FIG. 15, when the number of objects used to register a spatial authentication pattern for the target space 1510 is 6, the electronic device selects one of the plurality of objects identified in the process of releasing the spatial authentication pattern. Six objects can be selected sequentially.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들과 비교함으로써 공간 인증 패턴의 해제 여부를 판단할 수 있다. 전자 장치는 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들의 선택 순서 및 둘 이상의 객체들에 대해 지정된 특징 정보와 비교함으로써 공간 인증 패턴의 해제 여부를 판단할 수 있다.According to one embodiment, the electronic device may determine whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of canceling the spatial authentication pattern with two or more objects selected in the process of registering the spatial authentication pattern. The electronic device determines whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of releasing the spatial authentication pattern with the selection order of two or more objects selected in the registration process of the spatial authentication pattern and the characteristic information specified for the two or more objects. You can judge.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들이, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들과 일치하고, 선택된 둘 이상의 객체들의 선택 순서에 따라 선택되며, 선택된 둘 이상의 객체들에 대해 지정된 특징 정보를 만족하는 경우에 응답하여, 공간 인증 패턴을 해제할 수 있다.According to one embodiment, the electronic device selects a plurality of objects selected in the process of releasing the spatial authentication pattern, matches two or more objects selected in the registration process of the spatial authentication pattern, and is selected according to the selection order of the two or more selected objects, In response to satisfying the characteristic information specified for two or more selected objects, the spatial authentication pattern may be released.
보다 구체적으로, 전자 장치는 공간 인증 패턴의 해제 과정에서 선택된 k번째 순서의 객체를, 공간 인증 패턴의 등록 과정에서 선택된 k번째 순서의 객체 및 특징 정보와 비교할 수 있다. 여기서, k는 공간 인증 패턴의 등록에 사용된 객체들의 개수 이하의 자연수일 수 있다. 전자 장치는 공간 인증 패턴의 등록 과정에서 선택된 k번째 순서의 A 객체의 형태를 공간 인증 패턴의 해제 과정에서 선택된 k번째 순서의 B 객체의 형태와 비교할 수 있다. 전자 장치는 형태 비교를 통해 A 객체와 B 객체가 동일한 객체인 것으로 판단한 경우, 공간 인증 패턴의 해제 과정에서 선택된 k번째 순서의 B 객체가 A 객체에 대하여 지정된 특징 정보를 만족하는 지 여부를 판단할 수 있다. 전자 장치는 B 객체가 A 객체와 동일한 객체이고, B 객체가 A 객체에 대하여 지정된 특징 정보를 만족하는 경우에 응답하여, k번째 순서의 객체 선택이 성공한 것으로 판단할 수 있다. 예를 들어, 전자 장치는 공간 인증 패턴의 등록 과정에서 1번째 순서로 객체(1531)를 선택하고, 객체(1531)에 대하여 '소파 옆에 위치함'의 특징 정보를 지정할 수 있다. 이러한 경우, 전자 장치는 공간 인증 패턴의 해제 과정에서 1번째 순서로 객체(1531)를 선택하고, 객체(1531)가 '소파 옆에 위치함'의 특징 정보를 만족하는 경우에 응답하여, 1번째 순서의 객체 선택이 성공한 것으로 판단할 수 있다.More specifically, the electronic device may compare the kth order object selected in the process of releasing the spatial authentication pattern with the kth order object and characteristic information selected in the registration process of the spatial authentication pattern. Here, k may be a natural number less than or equal to the number of objects used to register the spatial authentication pattern. The electronic device may compare the shape of object A in the kth order selected during the registration process of the spatial authentication pattern with the shape of object B in the kth order selected during the release process of the spatial authentication pattern. When the electronic device determines that object A and object B are the same object through shape comparison, the electronic device determines whether the kth object B selected in the process of releasing the spatial authentication pattern satisfies the characteristic information specified for object A. You can. In response to the case where object B is the same object as object A and object B satisfies characteristic information specified for object A, the electronic device may determine that selection of the kth object was successful. For example, the electronic device may select the object 1531 in the first order during the registration process of the space authentication pattern and specify feature information of 'located next to the sofa' for the object 1531. In this case, the electronic device selects the object 1531 in the first order in the process of releasing the space authentication pattern, and in response to the case where the object 1531 satisfies the characteristic information of 'located next to the sofa', It can be determined that the object selection in the order was successful.
일 실시예에 따르면, 전자 장치는 모든 순서의 객체 선택이 성공하는 경우, 대상 공간(1510)에 대하여 등록된 공간 인증 패턴을 해제할 수 있다. 이러한 경우, 전자 장치는 공간 인증 패턴이 해제되었음을 나타내는 사용자 인터페이스(1521)를 화면(1520)에 표시할 수 있다.According to one embodiment, if all sequences of object selection are successful, the electronic device may release the space authentication pattern registered for the target space 1510. In this case, the electronic device may display a user interface 1521 on the screen 1520 indicating that the space authentication pattern has been released.
일 실시예에 따르면, 전자 장치는 적어도 하나의 순서의 객체 선택이 실패하는 경우, 대상 공간(1510)에 대하여 등록된 공간 인증 패턴을 해제하지 않을 수 있다. 이러한 경우, 전자 장치는 공간 인증 패턴이 해제되지 않았음을 나타내는 사용자 인터페이스를 화면에 표시할 수 있다. 전자 장치는 대상 공간(1510)에 대해 등록된 공간 인증 패턴의 해제 과정을 다시 진행할 것인지 여부를 결정할 수 있고, 공간 인증 패턴의 해제 과정을 재차 개시하는 경우에는 공간 인증 패턴의 해제를 위해 현재 시점까지 선택된 객체들을 초기화하고 1번째 순서의 객체부터 다시 선택할 수 있다.According to one embodiment, if selection of at least one object in order fails, the electronic device may not release the space authentication pattern registered for the target space 1510. In this case, the electronic device may display a user interface on the screen indicating that the spatial authentication pattern has not been released. The electronic device may determine whether to proceed with the release process of the space authentication pattern registered for the target space 1510 again, and if the process of releasing the space authentication pattern is initiated again, the electronic device may continue until the current point in time to release the space authentication pattern. You can initialize the selected objects and select them again starting from the first object.
더 나아가, 전술한 바와 같이, 전자 장치가 공간 인증 패턴의 해제 여부를 판단할 수도 있으나, 서버가 공간 인증 패턴의 해제 여부를 판단할 수도 있다. 일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 등록 과정에서, 서버(예: IoT 서버)로 대상 공간(1510)에 대하여 등록된 공간 인증 패턴에 대한 정보를 전송할 수 있다. 그리고, 전자 장치는 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들에 관한 정보를 서버로 전송할 수 있다. 서버는 공간 인증 패턴의 해제 과정에서 선택된 k번째 순서의 객체를, 공간 인증 패턴의 등록 과정에서 선택된 k번째 순서의 객체 및 특징 정보와 비교함으로써 공간 인증 패턴의 해제 여부를 판단할 수 있다. 서버는 공간 인증 패턴의 해제 여부를 전자 장치로 전송할 수 있다.Furthermore, as described above, the electronic device may determine whether to release the spatial authentication pattern, but the server may also determine whether to release the spatial authentication pattern. According to one embodiment, during the registration process of the spatial authentication pattern, the electronic device may transmit information about the spatial authentication pattern registered for the target space 1510 to a server (eg, IoT server). Additionally, the electronic device may transmit information about a plurality of objects selected during the process of releasing the spatial authentication pattern to the server. The server may determine whether to cancel the spatial authentication pattern by comparing the kth order object selected in the process of canceling the spatial authentication pattern with the kth order object and feature information selected in the registration process of the spatial authentication pattern. The server may transmit whether the spatial authentication pattern is released to the electronic device.
도 16은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 해제를 중단하는 과정을 설명하는 도면이다.FIG. 16 is a diagram illustrating a process in which an electronic device stops releasing a spatial authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 공간 인증 패턴의 해제를 진행하는 과정에서, 공간 인증 패턴의 해제를 중단할 수 있다. 먼저, 전자 장치는 전자 장치를 착용한 사용자의 시선 방향을 검출할 수 있다. 전자 장치는 검출된 사용자의 시선 방향이 수평면을 기준으로 아래 방향을 향하고, 사용자의 시선 방향과 수평면이 이루는 각도가 미리 설정된 각도 이상인 것에 기초하여, 공간 인증 패턴의 해제 과정을 중단할 수 있다. 보다 구체적으로, 전자 장치는 검출된 사용자의 시선 방향이 수평면을 기준으로 아래 방향을 향하고, 사용자의 시선 방향과 수평면이 이루는 각도가 미리 설정된 각도 이상인 경우, 공간 인증 패턴의 해제 과정을 중단할 지 문의하는 사용자 인터페이스(1621)를 화면(1620)에 표시할 수 있다. 예를 들어, 미리 설정된 각도는 45도일 수 있으나, 이로 한정되는 것은 아니다.According to one embodiment, the electronic device (e.g., the terminal device 101 in FIG. 1 or the wearable AR device 200 in FIG. 2) may stop releasing the spatial authentication pattern while in the process of releasing the spatial authentication pattern. You can. First, the electronic device can detect the gaze direction of the user wearing the electronic device. The electronic device may stop the release process of the spatial authentication pattern based on the fact that the detected user's gaze direction is downward relative to the horizontal plane and that the angle between the user's gaze direction and the horizontal plane is greater than or equal to a preset angle. More specifically, if the detected user's gaze direction is downward relative to the horizontal plane and the angle between the user's gaze direction and the horizontal plane is greater than or equal to a preset angle, the electronic device asks whether to stop the release process of the spatial authentication pattern. The user interface 1621 may be displayed on the screen 1620. For example, the preset angle may be 45 degrees, but is not limited thereto.
전자 장치는 공간 인증 패턴의 등록에 사용된 객체들의 개수를 나타내는 사용자 인터페이스(1680)는 화면(1620)의 고정 영역에 표시할 수 있다. 다만, 도 16을 참조하면, 전자 장치는 화면(1620)의 고정 영역과 대상 공간(1610)의 바닥면 사이의 거리가 미리 설정된 거리(예를 들어, 80cm) 이하인 경우에서는 사용자 인터페이스(1680)를 화면(1620)에 더 이상 표시하지 않을 수 있다. 전자 장치는 사용자 화면(1620)의 고정 영역과 대상 공간(1610)의 바닥면 사이의 거리가 미리 설정된 거리를 초과하는 경우에 다시 사용자 인터페이스(1680)를 화면(1620)의 고정 영역에 표시할 수 있다.The electronic device may display a user interface 1680 indicating the number of objects used to register the spatial authentication pattern in a fixed area of the screen 1620. However, referring to FIG. 16, the electronic device displays the user interface 1680 when the distance between the fixed area of the screen 1620 and the floor of the target space 1610 is less than a preset distance (for example, 80 cm). It may no longer be displayed on the screen 1620. If the distance between the fixed area of the user screen 1620 and the floor of the target space 1610 exceeds a preset distance, the electronic device may display the user interface 1680 on the fixed area of the screen 1620 again. there is.
일 실시예예 따르면, 전자 장치는 사용자 인터페이스(1621) 내에 표시된 그래픽 객체(1622)를 선택하는 사용자 입력을 수신하는 경우, 공간 인증 패턴의 해제 과정을 취소할 수 있다. 예를 들어, 전자 장치는 공간 인증 패턴의 해제 과정을 취소하는 경우, 공간 인증 패턴의 해제 과정을 다시 개시할 지 여부를 문의하는 사용자 인터페이스(미도시됨)를 화면에 표시할 수 있다. 전자 장치는 사용자 인터페이스(1621) 내에 표시된 그래픽 객체(1623)를 선택하는 사용자 입력을 수신하는 경우, 공간 인증 패턴의 해제 과정을 재시작할 수 있다. 예를 들어, 전자 장치는 공간 인증 패턴의 해제 과정을 재시작하는 경우, 공간 인증 패턴의 해제를 위해 현재 시점까지 선택된 객체들을 초기화하고 1번째 순서의 객체부터 선택할 수 있다.According to one embodiment, when the electronic device receives a user input for selecting the graphic object 1622 displayed in the user interface 1621, the electronic device may cancel the process of releasing the spatial authentication pattern. For example, when the electronic device cancels the spatial authentication pattern unlocking process, it may display a user interface (not shown) on the screen to inquire whether to restart the spatial authentication pattern unlocking process. When the electronic device receives a user input for selecting the graphic object 1623 displayed within the user interface 1621, the electronic device may restart the process of releasing the spatial authentication pattern. For example, when restarting the process of releasing the spatial authentication pattern, the electronic device may initialize the objects selected up to the current point and select the first object in order to release the spatial authentication pattern.
도 17 내지 도 18은 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴에 대해 설정된 난이도에 따라 식별하는 객체들을 설명하는 도면이다.FIGS. 17 and 18 are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern for a target space, according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간에 대한 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대한 난이도를 설정할 수 있다. 공간 인증 패턴에 대하여 설정된 난이도에 따라 전자 장치가 대상 공간 내에서 식별하는 등록 가능한 복수의 객체들은 상이할 수 있다. 일 실시예에 따르면, 전자 장치는 공간 인증 패턴에 대하여 설정된 난이도에 기초하여, 대상 공간과 관련하여 식별할 등록 가능한 복수의 객체들을 결정할 수 있다. 예를 들어, 공간 인증 패턴에 대해 설정 가능한 난이도에는 제1 난이도, 제2 난이도, 및 제3 난이도가 있을 수 있고, 제1 난이도, 제2 난이도, 및 제3 난이도 순으로 난이도가 높아질 수 있다. 이하에서는, 공간 인증 패턴에 대한 난이도가 제1 난이도, 제2 난이도, 및 제3 난이도로 각각 설정되는 경우에 전자 장치가 식별하는 등록 가능한 객체를 제1 객체, 제2 객체, 및 제3 객체로 설명한다.An electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) according to an embodiment may set the difficulty level for the space authentication pattern during the registration process of the space authentication pattern for the target space. there is. Depending on the level of difficulty set for the space authentication pattern, a plurality of registerable objects that the electronic device identifies within the target space may be different. According to one embodiment, the electronic device may determine a plurality of registerable objects to be identified in relation to the target space, based on the difficulty level set for the space authentication pattern. For example, the levels of difficulty that can be set for a space authentication pattern may include a first level of difficulty, a second level of difficulty, and a third level of difficulty, and the level of difficulty may increase in the order of the first level of difficulty, the level of the second level of difficulty, and the level of the third level of difficulty. Hereinafter, when the difficulty for the spatial authentication pattern is set to the first difficulty, the second difficulty, and the third difficulty, respectively, the registerable object identified by the electronic device is divided into the first object, the second object, and the third object. Explain.
일 실시예에 따르면, 전자 장치는 객체의 크기 또는 복수의 객체들이 화면을 통해 함께 보여지는 영역의 크기에 기초하여, 공간 인증 패턴의 난이도 별로 식별할 등록 가능한 복수의 객체들을 결정할 수 있다.According to one embodiment, the electronic device may determine a plurality of objects that can be registered to be identified according to the level of difficulty of the spatial authentication pattern, based on the size of the object or the size of the area where the plurality of objects are displayed together on the screen.
도 17에서, 일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 미리 설정된 크기 이상의 크기를 갖는 객체들(1711, 1712, 1713, 1714)을 등록 가능한 제1 객체들로 식별할 수 있다. 예를 들어, 전자 장치는 화면 상에서 객체가 보여지는 영역의 크기로 해당 객체의 크기를 판단할 수 있다. 일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 미리 설정된 크기 미만의 크기를 갖는 객체들(1721, 1722, 1723)을 등록 가능한 제2 객체들로 식별할 수 있다. 전술한 바와 같이, 전자 장치는 대상 공간 내의 일정한 위치에 위치하면서 공간 인증 패턴을 등록하기 때문에, 객체들 각각의 크기를 결정할 수 있다.17, according to one embodiment, when the electronic device sets the difficulty level of the space authentication pattern to the first difficulty level, the electronic device registers the first object 1711, 1712, 1713, and 1714 having a size greater than a preset size. Objects can be identified. For example, the electronic device may determine the size of the object based on the size of the area where the object is visible on the screen. According to one embodiment, when the difficulty of the spatial authentication pattern is set to the second difficulty, the electronic device may identify objects 1721, 1722, and 1723 with sizes less than the preset size as registerable second objects. You can. As described above, since the electronic device registers a space authentication pattern while being located at a certain location in the target space, the size of each object can be determined.
도 18에서, 일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 미리 설정된 크기 미만의 크기를 갖는 영역(1850) 내에서 함께 보여지는 복수의 객체들(1831, 1832, …, 1839) 각각을 등록 가능한 제3 객체들로 식별할 수 있다. 일 실시예예 따르면, 전자 장치는 미리 설정된 크기 이상의 영역(1850) 내에 배치되는 하나의 기준 객체(예: 객체(1831))를 선택할 수 있고, 선택된 기준 객체(예: 객체(1831))와 영역(1850) 내에 배치된 다른 객체들(예: 객체(1832, 1833)) 각각과의 유사도를 판단함으로써 등록 가능한 제3 객체들을 식별할 수 있다. 전자 장치는 기준 객체(예: 객체(1831))와의 유사도가 임계 유사도 이상인 다른 객체들(예: 객체(1832, 1833))을 등록 가능한 제3 객체들로 식별할 수 있다. 예를 들어, 전자 장치는 객체들 사이의 유사도를 형태 및 크기에 기초하여 판단할 수 있다.18, according to one embodiment, when the electronic device sets the difficulty of the space authentication pattern to the third difficulty, a plurality of objects 1831 are displayed together within an area 1850 having a size less than a preset size. , 1832, ..., 1839) can each be identified as third-party objects that can be registered. According to one embodiment, the electronic device may select one reference object (e.g., object 1831) disposed in an area 1850 of a preset size or more, and the selected reference object (e.g., object 1831) and the area ( Third objects that can be registered can be identified by determining the degree of similarity with each of the other objects (e.g., objects 1832 and 1833) arranged within 1850). The electronic device may identify other objects (e.g., objects 1832 and 1833) whose similarity to the reference object (e.g., object 1831) is greater than or equal to a threshold similarity as third objects that can be registered. For example, an electronic device may determine similarity between objects based on shape and size.
도 19a 내지 도 19c는 일 실시예에 따른 전자 장치가 공간 인증 패턴에 대해 설정된 난이도에 따라 따라 식별하는 객체들을 설명하는 도면이다.FIGS. 19A to 19C are diagrams illustrating objects that an electronic device identifies according to the level of difficulty set for a space authentication pattern, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 단말 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 상위 객체를 적어도 하나의 하위 객체로 분류하는 것에 기초하여, 공간 인증 패턴의 난이도 별로 식별할 등록 가능한 객체들을 결정할 수 있다. 여기서, 하위 객체는 상위 객체가 보여지는 영역의 일부 영역에 보여지는 객체일 수 있다. 예를 들어, 상위 객체는 복수의 하위 객체들을 포함할 수 있다.According to one embodiment, an electronic device (e.g., the terminal device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) uses a spatial authentication pattern based on classifying a high-level object into at least one low-level object. You can determine the registerable objects to be identified by level of difficulty. Here, the lower object may be an object shown in a portion of the area where the upper object is shown. For example, a parent object may include multiple child objects.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 하나의 제1 객체를 등록 가능한 객체로 식별할 수 있다. 일 실시예에 따르면, 전자 장치는 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 상위 객체인 하나의 제1 객체를 하위 객체인 복수의 제2 객체들로 분류함으로써 복수의 제2 객체들 각각을 등록 가능한 객체로 식별할 수 있다. 마찬가지로, 전자 장치는 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 상위 객체인 복수의 제2 객체들 각각을 하위 객체인 복수의 제3 객체들로 분류함으로써 제3 객체들 각각을 등록 가능한 객체로 식별할 수 있다. 제1 객체, 제2 객체, 및 제3 객체에 대응하여 생성되는 복수의 특징 정보들은 서로 상이할 수 있다.According to one embodiment, when the difficulty of the spatial authentication pattern is set to the first difficulty, the electronic device may identify one first object as a registerable object. According to one embodiment, when the difficulty of the space authentication pattern is set to the second difficulty, the electronic device classifies one first object, which is a higher level object, into a plurality of second objects, which are lower level objects, thereby creating a plurality of second objects. Each can be identified as a registerable object. Likewise, when the electronic device sets the difficulty level of the spatial authentication pattern to the third difficulty level, the electronic device classifies each of the plurality of second objects, which are upper level objects, into a plurality of third objects, which are lower level objects, so that each of the third objects can be registered. It can be identified as an object. A plurality of feature information generated corresponding to the first object, the second object, and the third object may be different from each other.
도 19a를 참조하면, 전자 장치는 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 제1 객체(1911)를 등록 가능한 객체로 식별할 수 있다. 예를 들어, 전자 장치는 벽에 걸린 3개의 액자들을 하나의 제1 객체(1911)로 식별할 수 있다. 전자 장치는 제1 객체(1911)에 대응하여 생성된 복수의 특징 정보들(1951, 1952) 중 적어도 하나의 특징 정보(1952)를 제1 객체(1911)를 설명하는 특징 정보로 지정할 수 있다.Referring to FIG. 19A, when the electronic device sets the difficulty level of the spatial authentication pattern to the first difficulty level, the electronic device may identify the first object 1911 as a registerable object. For example, the electronic device may identify three picture frames hanging on the wall as one first object 1911. The electronic device may designate at least one feature information 1952 among the plurality of feature information 1951 and 1952 generated corresponding to the first object 1911 as feature information describing the first object 1911.
도 19b를 참조하면, 전자 장치는 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 제1 객체(예: 도 19a의 제1 객체(1911))를 복수의 제2 객체들(1921, 1922, 1923)로 분류함으로써 제2 객체들(1921, 1922, 1923) 각각을 등록 가능한 객체로 식별할 수 있다. 예를 들어, 전자 장치는 벽에 걸린 3개의 액자들 각각을 제2 객체들(1921, 1922, 1923)로 식별할 수 있다.Referring to FIG. 19B, when the electronic device sets the difficulty of the space authentication pattern to the second difficulty, the electronic device divides the first object (e.g., the first object 1911 of FIG. 19A) into a plurality of second objects 1921 and 1922. , 1923), each of the second objects 1921, 1922, and 1923 can be identified as a registerable object. For example, the electronic device may identify each of three picture frames hanging on the wall as second objects 1921, 1922, and 1923.
도 19c를 참조하면, 전자 장치는 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 제2 객체들(예: 도 19b의 제2 객체들(1921, 1922, 1923)) 각각을 복수의 제3 객체들(1931, 1932, 1933, 1934, …)로 분류함으로써 제3 객체들(1931, 1932, 1933, 1934, …) 각각을 등록 가능한 객체로 식별할 수 있다. 예를 들어, 전자 장치는 각 액자에 그려진 나뭇잎들 각각을 제3 객체들(1931, 1932, 1933, 1934, …)로 식별할 수 있다.Referring to FIG. 19C, when the electronic device sets the difficulty of the space authentication pattern to the third difficulty, each of the second objects (e.g., the second objects 1921, 1922, and 1923 in FIG. 19B) is divided into a plurality of second objects. By classifying into three objects (1931, 1932, 1933, 1934, …), each of the third objects (1931, 1932, 1933, 1934, …) can be identified as a registerable object. For example, the electronic device may identify each of the leaves drawn in each frame as third objects (1931, 1932, 1933, 1934, ...).
일 실시예에 따르면, 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대하여 설정된 난이도에 따라, 전자 장치가 공간 인증 패턴의 해제 과정에서 식별하는 선택 가능한 복수의 객체들은 상이할 수 있다. 일 실시에에 따르면, 공간 인증 패턴의 해제 과정에서 공간 인증 패턴에 대하여 설정된 난이도에 기초하여 대상 공간과 관련하여 식별할 선택 가능한 복수의 객체들을 결정할 수 있다. 예를 들어, 전자 장치는 제1 난이도로 설정된 공간 인증 패턴을 해제하는 경우, 제1 객체들을 공간 인증 패턴의 해제를 위하여 선택할 수 있는 객체로 식별할 수 있다. 전자 장치는 제2 난이도로 설정된 공간 인증 패턴을 해제하는 경우, 제2 객체들을 공간 인증 패턴의 해제를 위하여 선택할 수 있는 객체로 식별할 수 있다. 전자 장치는 제3 난이도로 설정된 공간 인증 패턴을 해제하는 경우, 제3 객체들을 공간 인증 패턴의 해제를 위하여 선택할 수 있는 객체로 식별할 수 있다.According to one embodiment, depending on the difficulty level set for the spatial authentication pattern during the registration process of the spatial authentication pattern, a plurality of selectable objects that the electronic device identifies during the release process of the spatial authentication pattern may be different. According to one embodiment, in the process of releasing the space authentication pattern, a plurality of selectable objects to be identified in relation to the target space may be determined based on the difficulty level set for the space authentication pattern. For example, when canceling a spatial authentication pattern set at the first level of difficulty, the electronic device may identify first objects as objects that can be selected for canceling the spatial authentication pattern. When canceling a spatial authentication pattern set to the second level of difficulty, the electronic device may identify second objects as objects that can be selected for canceling the spatial authentication pattern. When canceling a spatial authentication pattern set to the third level of difficulty, the electronic device may identify third objects as objects that can be selected for canceling the spatial authentication pattern.
도 20은 일 실시예에 따른 전자 장치가 대상 공간에 대한 공간 인증 패턴의 등록 과정에서 사용자 계정 별로 공간 인증 패턴을 등록하는 과정을 설명하는 도면이다.FIG. 20 is a diagram illustrating a process in which an electronic device registers a space authentication pattern for each user account in the process of registering a space authentication pattern for a target space, according to an embodiment.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 사용자 계정 별로 대상 공간(2010)에 대한 공간 인증 패턴을 등록할 수 있다. 전자 장치는 제1 사용자 계정에 대응하여 대상 공간(2010)에 대한 제1 공간 인증 패턴(2011)을 등록할 수 있고, 제1 사용자 계정과 다른 제2 사용자 계정에 대응하여 대상 공간(2010)에 대한 제2 공간 인증 패턴(2012)을 등록할 수 있다. 예를 들어, 도 20을 참조하면, 제1 공간 인증 패턴(2011)의 등록에 사용된 둘 이상의 객체들의 조합은 제2 공간 인증 패턴(2012)의 등록에 사용된 둘 이상의 객체들의 조합과 상이할 수 있다. 다른 예를 들어, 제1 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들의 조합과 제2 공간 인증 패턴의 등록에 사용된 둘 이상의 객체들의 조합은 서로 동일하더라도, 둘 이상의 객체들의 선택 순서가 상이하거나 둘 이상의 객체들에 대하여 지정된 특징 정보가 상이할 수 있다. 일 실시예에 따르면, 전자 장치는 대상 공간(2010)에 대하여 등록된 복수의 공간 인증 패턴들에 대응하는 복수의 사용자 계정들 중 하나의 사용자 계정을 선택하는 것에 기초하여, 선택된 사용자 계정에 대응하여 등록된 공간 인증 패턴의 해제 과정을 개시할 수 있다.According to one embodiment, an electronic device (e.g., the electronic device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) may register a space authentication pattern for the target space 2010 for each user account. The electronic device may register a first space authentication pattern 2011 for the target space 2010 in response to the first user account, and may register a first space authentication pattern 2011 for the target space 2010 in response to a second user account different from the first user account. You can register the second space authentication pattern (2012). For example, referring to FIG. 20, the combination of two or more objects used for registration of the first spatial authentication pattern (2011) may be different from the combination of two or more objects used for registration of the second spatial authentication pattern (2012). You can. For another example, even if the combination of two or more objects used for registration of the first spatial authentication pattern and the combination of two or more objects used for registration of the second spatial authentication pattern are the same, the selection order of the two or more objects is different. Characteristic information specified for two or more objects may be different. According to one embodiment, the electronic device selects one user account from among a plurality of user accounts corresponding to a plurality of space authentication patterns registered for the target space 2010, and responds to the selected user account. The process of releasing the registered space authentication pattern may be initiated.
도 21은 일 실시예에 따른 전자 장치가 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대응하는 사용 권한 레벨을 설정하는 과정을 설명하는 도면이다.FIG. 21 is a diagram illustrating a process in which an electronic device sets a usage authority level corresponding to a spatial authentication pattern during the registration process of a spatial authentication pattern, according to an embodiment.
일 실시예예 따르면, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 웨어러블 AR 장치(200))는 대상 공간(2110)에 대한 공간 인증 패턴의 등록 과정에서, 공간 인증 패턴에 대하여 사용 권한 레벨을 설정할 수 있다. 예를 들어, 사용 권한 레벨에는 제1 레벨, 제2 레벨, 및 제3 레벨이 있을 수 있고, 제1 레벨, 제2 레벨, 및 제3 레벨 순으로 사용 권한 레벨이 높아질 수 있다.According to one embodiment, an electronic device (e.g., the electronic device 101 of FIG. 1 or the wearable AR device 200 of FIG. 2) registers a spatial authentication pattern for the target space 2110, You can set the permission level. For example, the usage authority levels may include a first level, a second level, and a third level, and the usage authority levels may increase in the order of the first level, the second level, and the third level.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴에 대하여 설정하는 사용 권한 레벨이 높아질수록, 공간 인증 패턴의 해제시 더 많은 권한을 외부 장치로부터 수신할 수 있다. 예를 들어, 사용 권한 레벨이 높은 공간 인증 패턴을 해제하는 경우, 전자 장치는 더 많은 IoT 기기들에 대한 제어 권한을 수신할 수 있다. 다른 예를 들어, 사용 권한 레벨이 높은 공간 인증 패턴을 해제하는 경우, 전자 장치는 더 다양한 컨텐츠들에 대한 접근 권한을 수신할 수 있다.According to one embodiment, the higher the usage authority level set for the spatial authentication pattern, the more authority the electronic device can receive from the external device when the spatial authentication pattern is released. For example, when a spatial authentication pattern with a high usage authority level is released, the electronic device can receive control authority for more IoT devices. For another example, when a space authentication pattern with a high usage authority level is released, the electronic device can receive access rights to a wider variety of contents.
예를 들어, 전자 장치는 대상 공간(2110)에 대해 등록된 공간 인증 패턴에 대한 정보를 IoT 서버로 전송할 수 있고, 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들에 관한 정보를 IoT 서버로 전송할 수 있다. IoT 서버는 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들과 등록된 공간 인증 패턴에 대한 정보를 비교함으로써 공간 인증 패턴의 해제 여부를 판단할 수 있다. IoT 서버는 공간 인증 패턴을 해제하는 것으로 결정한 경우, IoT 기기들 및 컨텐츠들을 관리하는 컨텐츠 매니저(content manager) 각각에 전자 장치의 정보 및 공간 인증 패턴에 대해 설정된 사용 권한 레벨을 전송할 수 있다. IoT 기기들은 공간 인증 패턴의 사용 권한 레벨에 기초하여 전자 장치에 제어 권한을 부여할 수 있고, 컨텐츠 매니저 또한 공간 인증 패턴의 사용 권한 레벨에 기초하여 전자 장치에 컨텐츠의 접근 권한을 부여할 수 있다. 도 21을 참조하면, 전자 장치는 대상 공간(2110)에 대한 공간 인증 패턴을 해제하는 경우, IoT 기기들(2181, 2182, 2183)에 대한 제어 권한을 각 IoT 기기들(2181, 2182, 2183)로부터 부여 받을 수 있다. 예를 들어, IoT 기기(2181)는 전자 조명, IoT 기기(2182)는 전자 액자, 및 IoT 기기(2183)은 전자 의자일 수 있다.For example, the electronic device may transmit information about the spatial authentication pattern registered for the target space 2110 to the IoT server, and transmit information about a plurality of objects selected in the process of releasing the spatial authentication pattern to the IoT server. You can. The IoT server can determine whether to cancel the spatial authentication pattern by comparing information about the registered spatial authentication pattern with a plurality of objects selected in the process of canceling the spatial authentication pattern. When the IoT server decides to release the spatial authentication pattern, it can transmit the permission level set for the information and spatial authentication pattern of the electronic device to each content manager that manages IoT devices and contents. IoT devices can grant control authority to electronic devices based on the usage authority level of the spatial authentication pattern, and content managers can also grant access authority to content to electronic devices based on the usage authority level of the spatial authentication pattern. Referring to FIG. 21, when the electronic device releases the space authentication pattern for the target space 2110, the electronic device grants control authority to the IoT devices 2181, 2182, and 2183 to each of the IoT devices 2181, 2182, and 2183. It can be granted from. For example, IoT device 2181 may be an electronic light, IoT device 2182 may be an electronic picture frame, and IoT device 2183 may be an electronic chair.
일 실시예에 따르면, 전자 장치는 공간 인증 패턴에 대해 설정하는 사용 권한 레벨이 높아질수록 공간 인증 패턴의 등록에 사용될 객체들의 최소 개수를 증가시킬 수 있다. 예를 들어, 전자 장치는 제1 레벨에서는 공간 인증 패턴의 등록에 사용될 객체들의 최소 개수를 4개로 설정한 경우, 제1 레벨 보다 높은 제2 레벨에서는 공간 인증 패턴의 등록에 사용될 객체들의 최소 개수를 5개로 설정할 수 있다.According to one embodiment, the electronic device may increase the minimum number of objects to be used for registration of the spatial authentication pattern as the usage authority level set for the spatial authentication pattern increases. For example, when the electronic device sets the minimum number of objects to be used for registration of a spatial authentication pattern to 4 at the first level, the electronic device sets the minimum number of objects to be used for registration of a spatial authentication pattern at a second level higher than the first level. It can be set to 5.
더 나아가, 전자 장치는 공간 인증 패턴의 유효 주기를 설정할 수 있다. 전자 장치는 대상 공간(2110)에 대하여 등록된 공간 인증 패턴을 해제하는 경우, 해제된 시점으로부터 공간 인증 패턴에 대해 설정된 유효 주기의 시간 동안 공간 인증 패턴의 사용 권한 레벨에 대응하는 권한을 수신할 수 있다. 이러한 경우, 전자 장치는 공간 인증 패턴이 해제된 시점으로부터 유효 주기의 시간이 경과하면, 전자 장치이 수신한 권한이 해제될 수 있다. 이때, 전자 장치는 대상 공간(2110)에 대하여 등록된 공간 인증 패턴을 다시 해제함으로써 공간 인증 패턴에 대해 설정된 사용 권한 레벨에 대응하는 권한을 수신할 수 있다.Furthermore, the electronic device can set the effective period of the spatial authentication pattern. When releasing a space authentication pattern registered for the target space 2110, the electronic device may receive authority corresponding to the usage authority level of the space authentication pattern during the period of the validity period set for the space authentication pattern from the point of release. there is. In this case, the permission received by the electronic device may be released when the effective period of time elapses from the time the spatial authentication pattern is released. At this time, the electronic device can receive authority corresponding to the usage authority level set for the space authentication pattern by canceling the space authentication pattern registered for the target space 2110 again.
일 실시예에 따른 전자 장치는, 디스플레이 모듈, 컴퓨터로 실행 가능한 명령어들이 저장된 메모리, 및 메모리에 억세스(access)하여 명령어들을 실행하는 프로세서를 포함하고, 프로세서는, 대상 공간을 스캔(scan)하여 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하고, 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하며, 선택된 둘 이상의 객체들의 선택 순서 및 선택된 둘 이상의 객체들의 특징 정보에 기초하여 대상 공간에 대한 공간 인증 패턴을 등록할 수 있다.An electronic device according to an embodiment includes a display module, a memory in which computer-executable instructions are stored, and a processor that accesses the memory and executes the instructions, where the processor scans a target space and selects the target. Identify a plurality of objects that can be registered in relation to space, select two or more objects among the identified plurality of objects in an order while specifying characteristic information describing each object, and determine the selection order of the two or more selected objects and the two selected objects. A space authentication pattern for the target space can be registered based on the characteristic information of the above objects.
프로세서는, 공간 인증 패턴의 등록에 사용될 객체들의 개수를 사용자 입력에 기초하여 설정할 수 있다.The processor may set the number of objects to be used for registration of the spatial authentication pattern based on user input.
프로세서는, 화면의 중심점(center point)를 추적하고, 추적된 화면의 중심점이 대상 객체가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 것에 기초하여, 대상 객체를 공간 인증 패턴의 등록에 사용될 객체로서 선택할 수 있다.The processor tracks the center point of the screen, and determines the target object as an object to be used for registration of a spatial authentication pattern, based on the tracked center point of the screen being continuously located within the area where the target object is visible for more than a threshold time. You can choose as .
프로세서는, 식별된 복수의 객체들 중 둘 이상의 객체들을 순차적으로 선택하는 과정에서, 선택된 하나의 객체가 보여지는 영역과 하나의 객체의 다음 순서로 선택된 객체가 보여지는 영역을 서로 연결하는 그래픽 객체를 표시하고, 현재 시점에서 마지막으로 선택된 객체가 보여지는 영역과 화면의 중심점을 서로 연결하는 그래픽 객체를 표시할 수 있다.In the process of sequentially selecting two or more objects among a plurality of identified objects, the processor creates a graphic object connecting the area where one selected object is shown and the area where the object selected in the next order of the one object is shown. You can display a graphic object that connects the center point of the screen and the area where the last selected object is visible at the current time.
프로세서는, 선택된 둘 이상의 객체들 각각에 대하여, 객체에 대응하는 이미지와 특징 정보가 매핑된 컨텐츠들을 선택된 둘 이상의 객체들의 선택 순서에 따라 순차적으로 선택하는 것에 기초하여 대상 공간에 대하여 등록된 공간 인증 패턴을 해제할 수 있다.The processor sequentially selects, for each of the two or more selected objects, contents to which images and feature information corresponding to the objects are mapped according to the selection order of the two or more selected objects, and sequentially selects a spatial authentication pattern registered for the target space. can be released.
프로세서는, 공간 인증 패턴의 해제 과정에서 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼 공간 인증 패턴의 해제를 위해 복수의 객체들을 선택하고, 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 선택된 둘 이상의 객체들의 선택 순서 및 선택된 둘 이상의 객체들의 특징 정보와 비교함으로써 공간 인증 패턴의 해제 여부를 판단할 수 있다.The processor selects a plurality of objects to cancel the spatial authentication pattern as many as the number of objects used to register the spatial authentication pattern during the canceling process of the spatial authentication pattern, and selects a plurality of objects selected during the canceling process of the spatial authentication pattern. It is possible to determine whether to release the spatial authentication pattern by comparing the selection order of two or more objects with the characteristic information of the two or more selected objects.
프로세서는, 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들이, 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들과 일치하고, 선택된 둘 이상의 객체들의 선택 순서에 따라 선택되며, 선택된 둘 이상의 객체들에 대해 지정된 특징 정보를 만족하는 경우에 응답하여, 공간 인증 패턴을 해제할 수 있다.The processor determines that a plurality of objects selected in the process of releasing the spatial authentication pattern match two or more objects selected in the registration process of the spatial authentication pattern, are selected according to the selection order of the two or more selected objects, and are selected in the selection order of the two or more selected objects. In response to satisfying the characteristic information specified for the space authentication pattern, the spatial authentication pattern may be released.
프로세서는, 공간 인증 패턴의 해제 과정에서, 전자 장치를 착용한 사용자의 시선 방향을 검출하고, 검출된 사용자의 시선 방향과 수평면이 이루는 각도가 미리 설정된 각도 이상인 것에 기초하여, 공간 인증 패턴의 해제 과정을 중단할 수 있다.During the release process of the spatial authentication pattern, the processor detects the gaze direction of the user wearing the electronic device, and based on the fact that the angle formed between the detected user's gaze direction and the horizontal plane is greater than or equal to a preset angle, the processor detects the gaze direction of the user wearing the electronic device, can be stopped.
프로세서는, 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대한 난이도를 설정하고, 공간 인증 패턴의 등록 과정에서 공간 인증 패턴에 대하여 설정된 난이도에 기초하여 대상 공간과 관련하여 식별할 등록 가능한 복수의 객체들을 결정하며, 공간 인증 패턴의 해제 과정에서 공간 인증 패턴에 대하여 설정된 난이도에 기초하여 대상 공간과 관련하여 식별할 선택 가능한 복수의 객체들을 결정할 수 있다.The processor sets a difficulty level for the spatial authentication pattern during the registration process of the spatial authentication pattern, and creates a plurality of registerable objects to be identified in relation to the target space based on the difficulty level set for the spatial authentication pattern during the registration process of the spatial authentication pattern. In the process of releasing the space authentication pattern, a plurality of selectable objects to be identified in relation to the target space may be determined based on the difficulty level set for the space authentication pattern.
프로세서는, 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 미리 설정된 크기 이상의 크기를 갖는 객체를 등록 가능한 객체로 식별하고, 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 미리 설정된 크기 미만의 크기를 갖는 객체를 등록 가능한 객체로 식별하며, 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 미리 설정된 크기 미만의 크기를 갖는 영역 내에서 함께 보여지는 복수의 객체들 각각을 등록 가능한 객체로 식별할 수 있다.When setting the difficulty of the spatial authentication pattern to the first difficulty, the processor identifies an object having a size greater than or equal to a preset size as a registerable object, and when setting the difficulty of the spatial authentication pattern to the second difficulty, the processor identifies an object having a size greater than or equal to a preset size. Objects with a size less than the size are identified as registerable objects, and when the difficulty of the spatial authentication pattern is set to the third difficulty level, each of a plurality of objects shown together within an area with a size less than the preset size can be registered. It can be identified as an object.
프로세서는, 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 제1 객체를 등록 가능한 객체로 식별하고, 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 제1 객체를 하위 객체인 복수의 제2 객체들로 분류하여 복수의 제2 객체들 각각을 등록 가능한 객체로 식별하며, 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 복수의 제2 객체들을 하위 객체인 복수의 제3 객체들로 분류하여 복수의 제3 객체들 각각을 등록 가능한 객체로 식별할 수 있다.When setting the difficulty of the spatial authentication pattern to the first difficulty, the processor identifies the first object as a registerable object, and when setting the difficulty of the spatial authentication pattern to the second difficulty, the processor identifies the first object as a plurality of sub-objects. Classifies the plurality of second objects into second objects and identifies each of the plurality of second objects as a registerable object, and when the difficulty of the spatial authentication pattern is set to the third difficulty, the plurality of second objects are classified into a plurality of third objects that are sub-objects. By classifying objects into objects, each of the plurality of third objects can be identified as a registerable object.
프로세서는, 제1 사용자 계정에 대응하여 대상 공간에 대한 제1 공간 인증 패턴을 등록하고, 제1 사용자 계정과 다른 제2 사용자 계정에 대응하여 대상 공간에 대한 제2 공간 인증 패턴을 등록하며, 대상 공간에 대하여 등록된 복수의 공간 인증 패턴들에 대응하는 복수의 사용자 계정들 중 하나의 사용자 계정를 선택하는 것에 기초하여, 선택된 사용자 계정에 대응하여 등록된 공간 인증 패턴의 해제 과정을 개시할 수 있다.The processor registers a first space authentication pattern for the target space in response to the first user account, registers a second space authentication pattern for the target space in response to a second user account different from the first user account, and registers a second space authentication pattern for the target space in response to the first user account. Based on selecting one user account from among the plurality of user accounts corresponding to the plurality of spatial authentication patterns registered for the space, a process of releasing the spatial authentication pattern registered corresponding to the selected user account may be initiated.
일 실시예에 따른 프로세서로 구현되는 방법은, 대상 공간을 스캔(scan)하여 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하는 동작, 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하는 동작, 및 선택된 둘 이상의 객체들의 선택 순서 및 선택된 둘 이상의 객체들의 특징 정보에 기초하여 대상 공간에 대한 공간 인증 패턴을 등록하는 동작을 포함할 수 있다.A method implemented with a processor according to an embodiment includes the operation of scanning a target space to identify a plurality of objects that can be registered in relation to the target space, and describing each object of two or more objects among the plurality of identified objects. It may include an operation of selecting in an order while specifying characteristic information, and an operation of registering a space authentication pattern for the target space based on the selection order of two or more selected objects and the characteristic information of the two or more selected objects.
일 실시예에 따른 프로세서로 구현되는 방법은, 공간 인증 패턴의 등록에 사용될 객체들의 개수를 사용자 입력에 기초하여 설정하는 동작을 더 포함할 수 있다.The method implemented with a processor according to an embodiment may further include setting the number of objects to be used for registration of a spatial authentication pattern based on a user input.
둘 이상의 객체들을 선택하는 동작은, 화면의 중심점(center point)를 추적하고, 추적된 화면의 중심점이 대상 객체가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 것에 기초하여, 대상 객체를 공간 인증 패턴의 등록에 사용될 객체로서 선택하는 동작을 포함할 수 있다.The operation of selecting two or more objects involves tracking the center point of the screen, and spatially authenticating the target object based on the tracked center point of the screen being located continuously for more than a threshold time within the area where the target object is visible. It may include an operation of selecting an object to be used for pattern registration.
일 실시예에 따른 프로세서로 구현되는 방법은, 식별된 복수의 객체들 중 둘 이상의 객체들을 순차적으로 선택하는 과정에서, 선택된 하나의 객체가 보여지는 영역과 하나의 객체의 다음 순서로 선택된 객체가 보여지는 영역을 서로 연결하는 그래픽 객체를 표시하고, 현재 시점에서 마지막으로 선택된 객체가 보여지는 영역과 화면의 중심점을 서로 연결하는 그래픽 객체를 표시하는 동작을 더 포함할 수 있다.A method implemented with a processor according to an embodiment includes, in the process of sequentially selecting two or more objects among a plurality of identified objects, an area where one selected object is shown and the selected object is shown in the order following the one object. The operation may further include displaying a graphic object connecting the areas where the last selected object is displayed, and displaying a graphic object connecting the center point of the screen and the area where the last selected object is shown at the current time.
일 실시예에 따른 프로세서로 구현되는 방법은, 선택된 둘 이상의 객체들 각각에 대하여, 객체에 대응하는 이미지와 특징 정보가 매핑된 컨텐츠들을 선택된 둘 이상의 객체들의 선택 순서에 따라 순차적으로 선택하는 것에 기초하여 대상 공간에 대하여 등록된 공간 인증 패턴을 해제하는 동작을 더 포함할 수 있다.A method implemented with a processor according to an embodiment is based on sequentially selecting content to which images and feature information corresponding to the objects are mapped for each of two or more selected objects according to the selection order of the two or more selected objects. The operation of releasing a space authentication pattern registered for the target space may further be included.
일 실시예에 따른 프로세서로 구현되는 방법은, 공간 인증 패턴의 해제 과정에서 공간 인증 패턴의 해제를 위해 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼 복수의 객체들을 선택하는 동작, 및 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 선택된 둘 이상의 객체들의 선택 순서 및 선택된 둘 이상의 객체들의 특징 정보와 비교함으로써 공간 인증 패턴의 해제 여부를 판단하는 동작을 더 포함할 수 있다.A method implemented with a processor according to an embodiment includes the operation of selecting a plurality of objects equal to the number of objects used to register the spatial authentication pattern to cancel the spatial authentication pattern in the process of releasing the spatial authentication pattern, and selecting the spatial authentication pattern. The method may further include determining whether to release the spatial authentication pattern by comparing the plurality of objects selected in the release process with the selection order of the two or more selected objects and the characteristic information of the two or more selected objects.
일 실시예에 따른 프로세서로 구현되는 방법은, 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들이, 선택된 둘 이상의 객체들과 일치하고, 선택된 둘 이상의 객체들의 선택 순서에 따라 선택되며, 선택된 둘 이상의 객체들에 대해 지정된 특징 정보를 만족하는 경우에 응답하여, 공간 인증 패턴을 해제하는 동작을 더 포함할 수 있다.In a method implemented by a processor according to an embodiment, a plurality of objects selected in the process of releasing a spatial authentication pattern are matched with two or more selected objects, and are selected according to the selection order of the two or more selected objects, and the selected two or more objects The operation of releasing the spatial authentication pattern may be further included in response to satisfying the characteristic information specified for the space authentication pattern.

Claims (15)

  1. 전자 장치(101, 200)에 있어서,In the electronic devices 101 and 200,
    디스플레이 모듈(160);display module 160;
    컴퓨터로 실행 가능한 명령어들이 저장된 메모리(130); 및A memory 130 in which instructions executable by a computer are stored; and
    상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서(120)A processor 120 that accesses the memory and executes the instructions.
    를 포함하고,Including,
    상기 프로세서는,The processor,
    대상 공간을 스캔(scan)하여 상기 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하고, 상기 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하며, 상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보에 기초하여 상기 대상 공간에 대한 공간 인증 패턴을 등록하는,Scans the target space to identify a plurality of objects that can be registered in relation to the target space, and selects two or more objects among the identified plurality of objects in an order while specifying characteristic information describing each object. , registering a space authentication pattern for the target space based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects,
    전자 장치.Electronic devices.
  2. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 등록에 사용될 객체들의 개수를 사용자 입력에 기초하여 설정하는,Setting the number of objects to be used for registration of the spatial authentication pattern based on user input,
    전자 장치.Electronic devices.
  3. 제1항 내지 제2항 중 어느 한 항에 있어서,According to any one of claims 1 and 2,
    상기 프로세서는,The processor,
    화면의 중심점(center point)를 추적하고, 상기 추적된 화면의 중심점이 대상 객체가 보여지는 영역 내에서 임계 시간 이상 연속적으로 위치하는 것에 기초하여, 상기 대상 객체를 상기 공간 인증 패턴의 등록에 사용될 객체로서 선택하는,Tracking the center point of the screen, and based on the fact that the tracked center point of the screen is continuously located within the area where the target object is visible for more than a threshold time, the target object is an object to be used for registration of the spatial authentication pattern. To choose as,
    전자 장치.Electronic devices.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,According to any one of claims 1 to 3,
    상기 프로세서는,The processor,
    상기 식별된 복수의 객체들 중 상기 둘 이상의 객체들을 순차적으로 선택하는 과정에서, 선택된 하나의 객체가 보여지는 영역과 상기 하나의 객체의 다음 순서로 선택된 객체가 보여지는 영역을 서로 연결하는 그래픽 객체를 표시하고, 현재 시점에서 마지막으로 선택된 객체가 보여지는 영역과 화면의 중심점을 서로 연결하는 그래픽 객체를 표시하는,In the process of sequentially selecting two or more objects among the identified plurality of objects, a graphic object is created that connects the area where the selected object is shown and the area where the object selected in the next order after the one object is shown. Displays a graphic object that connects the center point of the screen and the area where the last selected object is visible at the current time,
    전자 장치.Electronic devices.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,According to any one of claims 1 to 4,
    상기 프로세서는,The processor,
    상기 선택된 둘 이상의 객체들 각각에 대하여, 객체에 대응하는 이미지와 특징 정보가 매핑된 컨텐츠들을 상기 선택된 둘 이상의 객체들의 선택 순서에 따라 순차적으로 선택하는 것에 기초하여 상기 대상 공간에 대하여 등록된 공간 인증 패턴을 해제하는,For each of the two or more selected objects, a spatial authentication pattern registered for the target space based on sequentially selecting contents to which images and characteristic information corresponding to the objects are mapped according to the selection order of the two or more selected objects. to release it,
    전자 장치.Electronic devices.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,According to any one of claims 1 to 5,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 해제 과정에서 상기 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼 상기 공간 인증 패턴의 해제를 위해 복수의 객체들을 선택하고,In the process of canceling the spatial authentication pattern, select a plurality of objects to cancel the spatial authentication pattern as many as the number of objects used to register the spatial authentication pattern,
    상기 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보와 비교함으로써 상기 공간 인증 패턴의 해제 여부를 판단하는,Determining whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of releasing the spatial authentication pattern with the selection order of the two or more selected objects and characteristic information of the two or more selected objects,
    전자 장치.Electronic devices.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,According to any one of claims 1 to 6,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들이, 상기 공간 인증 패턴의 등록 과정에서 선택된 둘 이상의 객체들과 일치하고, 상기 선택된 둘 이상의 객체들의 선택 순서에 따라 선택되며, 상기 상기 선택된 둘 이상의 객체들에 대해 지정된 특징 정보를 만족하는 경우에 응답하여, 상기 공간 인증 패턴을 해제하는,A plurality of objects selected in the process of releasing the spatial authentication pattern match two or more objects selected in the registration process of the spatial authentication pattern, and are selected according to the selection order of the two or more selected objects, and the two or more objects selected In response to satisfying the characteristic information specified for, releasing the spatial authentication pattern,
    전자 장치.Electronic devices.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,According to any one of claims 1 to 7,
    상기 프로세서는,The processor,
    공간 인증 패턴의 해제 과정에서, 상기 전자 장치를 착용한 사용자의 시선 방향을 검출하고, 상기 검출된 사용자의 시선 방향과 수평면이 이루는 각도가 미리 설정된 각도 이상인 것에 기초하여, 공간 인증 패턴의 해제 과정을 중단하는,In the process of releasing the spatial authentication pattern, the gaze direction of the user wearing the electronic device is detected, and based on the fact that the angle between the detected user's gaze direction and the horizontal plane is greater than or equal to a preset angle, the spatial authentication pattern release process is performed. stopping,
    전자 장치.Electronic devices.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,According to any one of claims 1 to 8,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 등록 과정에서 상기 공간 인증 패턴에 대한 난이도를 설정하고, 상기 공간 인증 패턴의 등록 과정에서 상기 공간 인증 패턴에 대하여 설정된 난이도에 기초하여 상기 대상 공간과 관련하여 식별할 등록 가능한 복수의 객체들을 결정하며, 상기 공간 인증 패턴의 해제 과정에서 상기 공간 인증 패턴에 대하여 설정된 난이도에 기초하여 상기 대상 공간과 관련하여 식별할 선택 가능한 복수의 객체들을 결정하는,In the process of registering the space authentication pattern, a difficulty level is set for the space authentication pattern, and a plurality of registerable devices are identified in relation to the target space based on the difficulty level set for the space authentication pattern in the registration process of the space authentication pattern. Determining objects, and determining a plurality of selectable objects to be identified in relation to the target space based on a difficulty level set for the space authentication pattern in the process of releasing the space authentication pattern,
    전자 장치.Electronic devices.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,According to any one of claims 1 to 9,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 미리 설정된 크기 이상의 크기를 갖는 객체를 등록 가능한 객체로 식별하고,When the difficulty level of the space authentication pattern is set to the first difficulty level, an object having a size greater than a preset size is identified as a registerable object,
    상기 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 상기 미리 설정된 크기 미만의 크기를 갖는 객체를 등록 가능한 객체로 식별하며,When the difficulty level of the spatial authentication pattern is set to the second difficulty level, an object having a size less than the preset size is identified as a registerable object,
    상기 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 상기 미리 설정된 크기 미만의 크기를 갖는 영역 내에서 함께 보여지는 복수의 객체들 각각을 등록 가능한 객체로 식별하는,When the difficulty of the space authentication pattern is set to the third difficulty, each of a plurality of objects shown together in an area having a size less than the preset size is identified as a registerable object.
    전자 장치.Electronic devices.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,According to any one of claims 1 to 10,
    상기 프로세서는,The processor,
    상기 공간 인증 패턴의 난이도를 제1 난이도로 설정하는 경우, 제1 객체를 등록 가능한 객체로 식별하고,When the difficulty level of the spatial authentication pattern is set to the first difficulty level, the first object is identified as a registerable object,
    상기 공간 인증 패턴의 난이도를 제2 난이도로 설정하는 경우, 상기 제1 객체를 하위 객체인 복수의 제2 객체들로 분류하여 상기 복수의 제2 객체들 각각을 등록 가능한 객체로 식별하며,When the difficulty of the space authentication pattern is set to the second difficulty, the first object is classified into a plurality of second objects that are sub-objects and each of the plurality of second objects is identified as a registerable object,
    상기 공간 인증 패턴의 난이도를 제3 난이도로 설정하는 경우, 상기 복수의 제2 객체들을 하위 객체인 복수의 제3 객체들로 분류하여 상기 복수의 제3 객체들 각각을 등록 가능한 객체로 식별하는,When the difficulty of the spatial authentication pattern is set to the third difficulty, classifying the plurality of second objects into a plurality of third objects that are sub-objects and identifying each of the plurality of third objects as a registerable object.
    전자 장치.Electronic devices.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,According to any one of claims 1 to 11,
    상기 프로세서는,The processor,
    제1 사용자 계정에 대응하여 상기 대상 공간에 대한 제1 공간 인증 패턴을 등록하고, 상기 제1 사용자 계정과 다른 제2 사용자 계정에 대응하여 상기 대상 공간에 대한 제2 공간 인증 패턴을 등록하며,Registering a first space authentication pattern for the target space in response to a first user account, registering a second space authentication pattern for the target space in response to a second user account different from the first user account,
    상기 대상 공간에 대하여 등록된 복수의 공간 인증 패턴들에 대응하는 복수의 사용자 계정들 중 하나의 사용자 계정를 선택하는 것에 기초하여, 상기 선택된 사용자 계정에 대응하여 등록된 공간 인증 패턴의 해제 과정을 개시하는,Based on selecting one user account among a plurality of user accounts corresponding to a plurality of space authentication patterns registered for the target space, initiating a process of releasing a space authentication pattern registered corresponding to the selected user account. ,
    전자 장치.Electronic devices.
  13. 프로세서로 구현되는 방법에 있어서,In a method implemented with a processor,
    대상 공간을 스캔(scan)하여 상기 대상 공간과 관련하여 등록 가능한 복수의 객체들을 식별하는 동작;An operation of scanning a target space to identify a plurality of objects that can be registered in relation to the target space;
    상기 식별된 복수의 객체들 중 둘 이상의 객체들을 각 객체를 설명하는 특징 정보를 지정하면서 순서를 정해 선택하는 동작; 및An operation of selecting two or more objects from among the identified plurality of objects in an order while specifying characteristic information describing each object; and
    상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보에 기초하여 상기 대상 공간에 대한 공간 인증 패턴을 등록하는 동작Registering a space authentication pattern for the target space based on the selection order of the two or more selected objects and the characteristic information of the two or more selected objects
    을 포함하는 방법.How to include .
  14. 제13항에 있어서,According to clause 13,
    상기 선택된 둘 이상의 객체들 각각에 대하여, 객체에 대응하는 이미지와 특징 정보가 매핑된 컨텐츠들을 상기 선택된 둘 이상의 객체들의 선택 순서에 따라 순차적으로 선택하는 것에 기초하여 상기 대상 공간에 대하여 등록된 공간 인증 패턴을 해제하는 동작For each of the two or more selected objects, a spatial authentication pattern registered for the target space based on sequentially selecting contents to which images and characteristic information corresponding to the objects are mapped according to the selection order of the two or more selected objects. action to release
    을 더 포함하는 방법.How to include more.
  15. 제13항 내지 제14항 중 어느 한 항에 있어서,According to any one of claims 13 to 14,
    상기 공간 인증 패턴의 해제 과정에서 상기 공간 인증 패턴의 해제를 위해 상기 공간 인증 패턴의 등록에 사용된 객체들의 개수 만큼 복수의 객체들을 선택하는 동작; 및In the process of canceling the spatial authentication pattern, selecting a plurality of objects equal to the number of objects used to register the spatial authentication pattern to cancel the spatial authentication pattern; and
    상기 공간 인증 패턴의 해제 과정에서 선택된 복수의 객체들을, 상기 선택된 둘 이상의 객체들의 선택 순서 및 상기 선택된 둘 이상의 객체들의 특징 정보와 비교함으로써 상기 공간 인증 패턴의 해제 여부를 판단하는 동작An operation of determining whether to cancel the spatial authentication pattern by comparing a plurality of objects selected in the process of releasing the spatial authentication pattern with the selection order of the two or more selected objects and characteristic information of the two or more selected objects.
    을 더 포함하는 방법.How to include more.
PCT/KR2023/008334 2022-08-26 2023-06-16 Device and method for registering and deregistering authentication pattern using objects WO2024043468A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0107711 2022-08-26
KR20220107711 2022-08-26
KR1020220113299A KR20240029475A (en) 2022-08-26 2022-09-07 Apparatus and method for registering and releasing an authentication pattern using objects
KR10-2022-0113299 2022-09-07

Publications (1)

Publication Number Publication Date
WO2024043468A1 true WO2024043468A1 (en) 2024-02-29

Family

ID=90013380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008334 WO2024043468A1 (en) 2022-08-26 2023-06-16 Device and method for registering and deregistering authentication pattern using objects

Country Status (1)

Country Link
WO (1) WO2024043468A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076300A1 (en) * 2000-05-16 2003-04-24 Eric Lauper Method and terminal for entering instructions
JP2013214863A (en) * 2012-04-02 2013-10-17 Sharp Corp Portable information device, control method of the same, control program, and computer readable recording medium recorded with the same
KR20180094186A (en) * 2017-02-13 2018-08-23 한국전자통신연구원 Method and apparatus for authenticating user
KR20190044838A (en) * 2017-10-23 2019-05-02 동서대학교 산학협력단 User Authentication System Using Mixed Reality, Virtual Reality, Augmented Reality
KR20200143317A (en) * 2013-12-18 2020-12-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 User authentication on display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076300A1 (en) * 2000-05-16 2003-04-24 Eric Lauper Method and terminal for entering instructions
JP2013214863A (en) * 2012-04-02 2013-10-17 Sharp Corp Portable information device, control method of the same, control program, and computer readable recording medium recorded with the same
KR20200143317A (en) * 2013-12-18 2020-12-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 User authentication on display device
KR20180094186A (en) * 2017-02-13 2018-08-23 한국전자통신연구원 Method and apparatus for authenticating user
KR20190044838A (en) * 2017-10-23 2019-05-02 동서대학교 산학협력단 User Authentication System Using Mixed Reality, Virtual Reality, Augmented Reality

Similar Documents

Publication Publication Date Title
WO2022102954A1 (en) Wearable electronic device including display
WO2022108076A1 (en) Wireless connection method of augmented reality environment, and electronic device therefor
WO2022215895A1 (en) Wearable electronic device comprising plurality of cameras
WO2022092517A1 (en) Wearable electronic device comprising display, method for controlling display, and system comprising wearable electronic device and case
WO2023017986A1 (en) Method and electronic system for outputting video data and audio data
WO2023008711A1 (en) Adjustment device and operation method of adjustment device
WO2022191497A1 (en) Wearable electronic device comprising display
WO2024043468A1 (en) Device and method for registering and deregistering authentication pattern using objects
WO2024029858A1 (en) Display module control method, and electronic device performing the method
WO2023085569A1 (en) Method and device for controlling brightness of ar image
WO2023153607A1 (en) Ar content display method based on ambient illuminance and electronic device
WO2023080419A1 (en) Wearable electronic device and method for controlling electronic device by using vision information
WO2024043611A1 (en) Display module control method and electronic device for carrying out same
WO2024048986A1 (en) Device and method for controlling nearby apparatus in consideration of user intent
WO2023120892A1 (en) Device and method for controlling light sources in gaze tracking using glint
WO2024025179A1 (en) Method for connecting to external display device on basis of biometric information, and electronic device
WO2024048937A1 (en) Wearable electronic device and charging system comprising same
WO2023048466A1 (en) Electronic device and method for displaying content
WO2024029720A1 (en) Device and method for authenticating user in augmented reality
WO2023153611A1 (en) Method and device for obtaining image of object
WO2023136533A1 (en) Interference cancellation method and electronic device for performing same
WO2023080420A1 (en) Wearable electronic device including variable ground
WO2024101747A1 (en) Wearable electronic device including camera and operation method thereof
WO2023063572A1 (en) Wearable electronic device having adjustable visor transmittance and display brightness
WO2023121120A1 (en) Interference cancellation method and electronic device for performing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23857506

Country of ref document: EP

Kind code of ref document: A1