WO2024090896A1 - 휠을 포함하는 웨어러블 전자 장치 - Google Patents

휠을 포함하는 웨어러블 전자 장치 Download PDF

Info

Publication number
WO2024090896A1
WO2024090896A1 PCT/KR2023/016255 KR2023016255W WO2024090896A1 WO 2024090896 A1 WO2024090896 A1 WO 2024090896A1 KR 2023016255 W KR2023016255 W KR 2023016255W WO 2024090896 A1 WO2024090896 A1 WO 2024090896A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
wheel
wearing member
user
area
Prior art date
Application number
PCT/KR2023/016255
Other languages
English (en)
French (fr)
Inventor
임기수
김승년
손동일
윤종민
이승주
최규식
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220150804A external-priority patent/KR20240062849A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US18/493,145 priority Critical patent/US20240143092A1/en
Publication of WO2024090896A1 publication Critical patent/WO2024090896A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/14Side-members
    • G02C5/146Side-members having special front end
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • This disclosure relates to a wearable electronic device including a wheel.
  • electronic devices can be miniaturized and lightweight to the point where they can be used without significant inconvenience even when worn on the user's body.
  • wearable electronic devices such as head mounted devices (HMD), smart watches (or bands), contact lens-type devices, ring-type devices, glove-type devices, shoe-type devices, or clothing-type devices are being commercialized. . Since wearable electronic devices are worn directly on the body, portability and user accessibility can be improved.
  • a head mounting device is a device that is worn on a user's head or face and can provide augmented reality (AR) to the user.
  • AR augmented reality
  • a head mounting device that provides augmented reality may be implemented in the form of glasses and provide information about objects in the form of images or text to the user in at least a portion of the user's visual field.
  • a head mounting device can provide virtual reality (VR) to a user.
  • VR virtual reality
  • a head mounting device can provide an excellent sense of immersion by outputting images to both eyes of the user and outputting content provided from an external input to the user in the form of video or sound.
  • a wearable electronic device includes a housing including a lens frame accommodating a transparent member and a wearing member at least partially configured to move relative to the lens frame, a processor located within the housing, and the wearing member. and an input structure including a wheel for adjusting the position of the member relative to the lens frame.
  • the processor may be configured to perform a designated operation based on a signal obtained using the input structure.
  • an electronic device includes a housing including a lens frame and a wearing member, at least a portion of which is configured to move relative to the lens frame, a processor located within the housing, and the lens frame of the wearing member. It may include a wheel for adjusting the position of the wearer and a rotation detection sensor disposed within the wearing member and configured to detect rotation of the wheel.
  • the wearing member may include a first region connected to the lens frame and a second region configured to move relative to the first region based on rotation of the wheel.
  • the wheel may include a pillar connected to the first area and the second area, and a rotation area configured to rotate about the pillar and transmitting force to the second area.
  • the processor may be configured to perform a specified operation based on rotation of the wheel.
  • FIG. 1 is a diagram for explaining an artificial reality providing system according to an embodiment.
  • Figure 2 is a perspective view to explain the internal configuration of an electronic device according to an embodiment.
  • FIG 3 is a side view of an electronic device including an input structure, according to an embodiment of the present disclosure.
  • FIGS. 4A and 4B are perspective views of an electronic device including the input structure of the present disclosure.
  • Figure 5 is a diagram for explaining length adjustment of a housing based on a wearable sensor, according to an embodiment of the present disclosure.
  • FIG. 6A is a perspective view of an electronic device including a first wheel and a second wheel, according to an embodiment of the present disclosure.
  • FIGS. 6B and 6C are diagrams for explaining the internal structure of an electronic device including a first wheel and a second wheel, according to an embodiment of the present disclosure.
  • FIG. 7A is a perspective view of an electronic device including a clutch structure, according to an embodiment of the present disclosure.
  • FIG. 7B is a cross-sectional perspective view taken along line A-A' in FIG. 7A.
  • FIG. 7C is a cross-sectional perspective view taken along line B-B' of FIG. 7A in the first state.
  • FIG. 7D is a cross-sectional perspective view taken along line B-B' of FIG. 7A in the second state.
  • FIG. 8 is a cross-sectional perspective view of an electronic device including a motor module, according to an embodiment of the present disclosure.
  • FIG. 9 is a perspective view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • FIG. 10A is an enlarged view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • FIG. 10B is a cross-sectional perspective view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • FIG. 11A and 11B are diagrams for explaining the operation of an electronic device including an input structure, according to an embodiment of the present disclosure.
  • 1 is a diagram for explaining an artificial reality providing system.
  • the artificial reality providing system includes at least one of a metaverse server 100, an electronic device 101, at least one external electronic device 121, 122, 123, 124, or an external server 140. It can be included.
  • the metaverse server 100 generates data to represent artificial reality (e.g., at least one of an augmented reality environment or a virtual reality environment). can do.
  • the metaverse server 100 can provide content that can enhance user immersion in addition to augmented reality or virtual reality, and such content may be named content for the metaverse.
  • the metaverse server 100 may include a processor 110, memory 102, and/or a communication device 107. Meanwhile, it is merely illustrative that the metaverse server 100 includes a processor 110, a memory 102, and/or a communication device 107, and at least some of the operations of the metaverse server 100 are performed on a cloud server. It may also be implemented by .
  • the metaverse server 100 may be implemented as a distributed server, and those skilled in the art will understand that there are no restrictions on the form of server implementation.
  • the processor 110 may execute instructions (or instructions) included in a program (or application) stored in the memory 102.
  • the processor 110 may include, for example, a central processing unit (CPU), a graphic processing unit (GPU), a neural processing unit (NPU), a tensor processing unit (TPU), a digital signal processor (DSP), or an application-specific integrated circuit (ASIC). ), FPGA (field programmable gate array), and/or programmable logic device, but there is no limitation as long as it is a means of executing a program (or instruction or command).
  • Processor 110 may execute programs for artificial reality.
  • a program for artificial reality may be stored in the memory 102.
  • memory 102 may include volatile memory and/or non-volatile memory, such as hard disk storage, RAM, ROM, and/or flash memory, but these are examples. There is no limit to the enemy.
  • a program for artificial reality is a program for a server that, for example, generates data to represent the artificial reality, provides the generated data, verifies user input, and/or creates an updated artificial reality based on the confirmed user input. It may cause the creation and provision of data for expression, and may include commands (or instructions) corresponding to at least some of the operations performed by the metaverse server 100 of the present disclosure.
  • the communication device 107 may support establishment of a communication channel between the metaverse server 100 and the electronic device 101 through the network 150, and performance of communication through the established communication channel.
  • the communication device 107 may be, but is not limited to, a device capable of providing a wide area network (eg, the Internet). Operations performed by the metaverse server 100 may be performed, for example, by the processor 110 or by other hardware under the control of the processor 110. Commands (or instructions) that cause performance of operations by the metaverse server 100 may be stored in the memory 102. Through the bus 108 (or communication interface, or network) of the metaverse server 100, the processor 110, memory 102, and/or communication device 107 may transmit/receive data.
  • the electronic device 101 uses data to represent an artificial reality, performing at least one operation (e.g., providing visual content (e.g., an image)) to represent the artificial reality, may include, but are not limited to, provision of auditory content (e.g., voice), provision of tactile content (e.g., vibration), and/or provision of olfactory content (e.g., smell). can be performed.
  • a user who owns or wears the electronic device 101 can experience artificial reality based on content provided from the electronic device 101.
  • the electronic device 101 includes at least one of a processor 111, a memory 112, an input/output device 113, a display 114, a sensor device 115, a camera 116, or a communication device 117. It can be included.
  • Processor 111 may include, for example, a CPU, GPU, NPU, TPU, DSP, ASIC, FPGA, and/or programmable logic device, but is not limited as long as it is a means of executing a program (or instruction or command). .
  • processor 111 may execute programs for artificial reality.
  • the program for artificial reality is a client program, for example, receiving data for expressing artificial reality from the metaverse server 100, at least one operation (e.g.
  • providing visual content e.g., an image
  • providing auditory content e.g., a voice
  • providing tactile content e.g., vibration
  • olfactory content e.g., may include, but are not limited to, the provision of a smell
  • memory 112 may include volatile memory and/or non-volatile memory, such as hard disk storage, RAM, ROM, and/or flash memory, but this is an example. There is no limit to the enemy.
  • the input/output device 113 may include a touch pad, button, mouse, digital pen, and/or microphone, but there is no limitation as long as it is a device for receiving (or sensing) user input.
  • a touch screen panel which is an example of the input/output device 113, may be implemented integrally with the display 114.
  • the input/output device 113 may include a speaker, a haptic module, and/or a light emitting module, but is not limited as long as it is a device for outputting content related to artificial reality.
  • the sensor device 115 includes a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, and a humidity sensor. , and/or an illuminance sensor.
  • camera 116 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the communication device 117 may support establishment of a communication channel between the metaverse server 100 and the electronic device 101 through the network 150, and performance of communication through the established communication channel.
  • the communication device 117 may be, but is not limited to, a device capable of providing a wide area network (eg, the Internet).
  • Communication device 117 may support wired communication and/or wireless communication.
  • the communication device 117 may support short-range communication (eg, short-range communication such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)).
  • the communication device 117 may transmit and receive data with the external sensor 131 and/or the external controller 133 based on short-distance communication.
  • the communication device 117 may support a function of wirelessly accessing the network 150.
  • the communication device 117 may support cellular communication such as LTE, 5G, 6G, and/or IEEE 802 series-based communication (for example, may be named Wifi).
  • the communication device 117 may be implemented to support wired communication, and there is no limitation in the implementation method.
  • the electronic device 101 When the electronic device 101 is implemented as a non-standalone type, the electronic device 101 communicates with the metaverse server 100 through a relay device that can be connected to the network 150. can do.
  • the communication device 117 may support short-range communication such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA), and can communicate with the metaverse server 100 through a relay device using short-range communication. Communication can be performed.
  • the external sensor 131 may include a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR sensor, a biometric sensor, a temperature sensor, a humidity sensor, and/or an illumination sensor. You can. Operations performed by the electronic device 101 may be performed, for example, by the processor 111 or by other hardware under the control of the processor 111. Commands (or instructions) that cause performance of an operation by the electronic device 101 may be stored in the memory 112.
  • the processor 111 Through the bus 118 (or communication interface, or network) of the electronic device 101, the processor 111, memory 112, input/output device 113, display 114, sensor device 115, The camera 116 and/or the communication device 117 may transmit/receive data.
  • the metaverse server 100 and the electronic device 101 transmit and receive data based on an application for artificial reality is simply illustrative, and the metaverse server 100 and the electronic device 101 are web-based at least. Those skilled in the art will understand that some data may be transmitted and received.
  • the external sensor 131 may be, for example, a ring-type device, a bracelet-type device, or a head-mounted device, but there is no limitation on its type and/or the part of the user's body to which it is attached.
  • the external sensor 131 may provide sensed data to the electronic device 101 based on short-distance communication.
  • the controller 133 may include, for example, a touch pad, buttons, mouse, digital pen, and/or microphone, but is not limited as long as it is a device for receiving (or sensing) user input.
  • the controller 133 may provide data obtained based on short-distance communication to the electronic device 101.
  • the controller 133 may further include at least one sensor in addition to a device for receiving user input.
  • the controller 133 may provide data related to user input and/or sensing data to the electronic device 101 based on short-distance communication.
  • the metaverse server 100 may transmit and receive data with at least one external electronic device 121, 122, 123, and 124.
  • the metaverse server 100 can transmit data for expressing an artificial reality updated and/or changed based on at least one external electronic device 121, 122, 123, 124 and data to the electronic device 101.
  • the electronic device 101 may perform at least one operation to express artificial reality based on data. Accordingly, when a plurality of users exist in one artificial reality, an artificial reality reflecting the actions of one user can be provided to other users.
  • the external server 140 may transmit and receive data through the metaverse server 100 and the network 150.
  • the external sensor 131 may be, for example, a server that supports the same application (or the same artificial reality) as the metaverse server 100.
  • the external server 140 may be a server that supports a different application (or a different artificial reality) than the metaverse server 100.
  • the metaverse server 100 may convert data from the external server 140 into the format of an application (or artificial reality) supported by the metaverse server 100.
  • the metaverse server 100 may transmit data for expressing artificial reality reflecting the converted data to the electronic device 101.
  • the metaverse server 100 can interact with artificial realities that are different from the artificial realities it supports, and this function may be called a multiverse function.
  • the electronic device 101 may be a head mounted device (HMD) that supports virtual reality, or a smart phone connectable to a structure that can be fixed to the head.
  • HMD head mounted device
  • the user can observe each of the left-eye images and right-eye images for expressing virtual reality displayed on the display 114 with both eyes while wearing the HMD on the head or a structure connected to a smart phone on the head.
  • the user may observe images representing virtual reality displayed on the display 114 of the electronic device 101 without wearing the electronic device 101 on the head.
  • the electronic device 101 may be implemented as a smart phone, tablet, general-purpose computer, or smart mirror, but is not limited thereto.
  • the metaverse server 100 may generate data to represent at least one space (or a scene looking at the space) of virtual reality.
  • the metaverse server 100 may receive information about the first user (eg, account information and/or information for authentication of the first user) from the electronic device 101.
  • the metaverse server 100 may perform a login procedure for the first user based on the first user's information.
  • the metaverse server 100 can check the space corresponding to the first user in virtual reality.
  • the metaverse server 100 may check the space privately allocated to the first user.
  • the metaverse server 100 may check the space corresponding to the location of the first user among the open spaces.
  • the metaverse server 100 can check the space corresponding to the user's input.
  • the metaverse server 100 checks the space corresponding to the location of the first user.
  • the confirmed space may include at least one object and/or an avatar (or character) corresponding to the user.
  • the viewpoint of the scene is a first-person viewpoint
  • data for expression may be related to a scene looking at the identified space from the user's perspective.
  • the scene looking into the identified space may not include the avatar (or character) corresponding to the first user, or may include only a part of the body (e.g., a hand, etc.), but is not limited to this, or the avatar.
  • the back view may also be included.
  • data for expression may be related to a scene looking from one direction at a space containing an avatar (or character) corresponding to the user.
  • a scene viewed from the user's perspective may include avatars corresponding to other users.
  • a second user may access the metaverse server 100 using the external electronic device 122.
  • the metaverse server 100 may generate data to express artificial reality used together by the first user and the second user.
  • the metaverse server 100 can generate data to express an artificial reality used together by the first user and the second user. there is.
  • the viewpoint of the scene is a first-person perspective
  • the scene for the first user may include at least a portion of the second user's avatar.
  • the scene for the first user includes at least a portion of the first avatar (or may be named a character) corresponding to the first user and/or corresponding to the second user. At least a portion of the second avatar (or character) may be included.
  • at least a portion of the screen displayed on the electronic device 101 may be provided to the metaverse server 100. At least part of the screen displayed on the electronic device 101 (or an object corresponding to at least part) may be placed in the space of virtual reality.
  • the metaverse server 100 may receive a user input and/or a command corresponding to the user input from the electronic device 101.
  • the electronic device 101 may check user input through the input/output device 113.
  • the electronic device 101 may check user input through the built-in sensor device 115.
  • the electronic device 101 may obtain user input from an external sensor 131 and/or a controller 133 connected through the communication device 117.
  • the processor 111 may check movement information of the electronic device 101 as user input based on sensing data confirmed through the sensor device 115.
  • the electronic device 101 may obtain user input from an external sensor 131 and/or a controller 133 connected through the communication device 117.
  • the electronic device 101 may confirm a command based on user input. Commands may include, but are not limited to, for example, movement within the virtual reality, designation of objects within the virtual reality, manipulation of objects within the virtual reality, and/or interaction with other avatars.
  • the electronic device 101 may transmit a command to the metaverse server 100.
  • the electronic device 101 may transmit the user input to the metaverse server 100 without performing confirmation of a command based on the user input, and, for example, the metaverse server 100 may transmit the user input to the metaverse server 100. You can check the command based on .
  • the metaverse server 100 may update the virtual reality space or change it to another space based on a command. For example, if the command is a designation of an object, the space may be updated to reflect the function associated with the specified object. For example, if the command is a manipulation of an object, the space may be updated so that the position of the object changes. For example, if the command is for the avatar to perform an action, the space may be updated so that the user's avatar performs a corresponding response. For example, if the command is an interaction with another avatar, the space may be updated so that the avatar performs a corresponding response. For example, if the command is move, the space for display may be changed to another space.
  • the metaverse server 100 may provide auditory content, tactile content, and/or olfactory content.
  • the metaverse server 100 may relay voice data and/or text for chatting between users.
  • the metaverse server 100 may perform an update and/or change of space using association information between a command and an update and/or change.
  • the metaverse server 100 may receive user input and/or commands as input values and store an artificial intelligence model that outputs space updates and/or changes as output values.
  • the metaverse server 100 may update and/or change the space based on the output value of the artificial intelligence model.
  • the metaverse server 100 may store an artificial intelligence model that provides updates and/or changes to the space based on the context of the space without user input.
  • the metaverse server 100 may use an artificial intelligence model to update and/or change the space based on the context of the space.
  • the metaverse server 100 may transmit data for representing an updated space and/or data for representing a changed space to the electronic device 101.
  • the metaverse server 100 may transmit data for representing the updated space and/or data for representing the changed space to the external electronic device 122 corresponding to the second user. Accordingly, a virtual reality reflecting the space updated by the first user of the electronic device 101 may be displayed in the external electronic device 122.
  • the metaverse server 100 based on information (e.g., user input and/or command) transmitted from the external electronic device 122 to the metaverse server 100, the metaverse server 100 allows the first user and the second user to You can update the spaces you use (or exist) together.
  • the metaverse server 100 may transmit data representing the updated space to the electronic device 101.
  • the electronic device 101 may represent an updated space based on the received data.
  • the metaverse server 100 can share the updated space corresponding to one user with the electronic devices of other users corresponding to the space.
  • updates and/or changes in time-series space can be named user experience.
  • the metaverse server 100 and/or the electronic device 101 may store at least one data related to user experience in the memory 102 and/or 112.
  • the metaverse server 100 may store at least one data related to user experience for each user (eg, for each user account).
  • the metaverse server 100 and/or the electronic device 101 may store data for expressing a point in time during the user experience in the memory 102 and/or 112. For convenience of explanation, this can be expressed as capturing the user experience.
  • the metaverse server 100 may store data related to user experience, which may be referred to as life logging.
  • the metaverse server 100 may additionally store data associated with the user.
  • the metaverse server 100 may receive at least one piece of sensing data from the electronic device 101 and store it in time series or update the final value.
  • the metaverse server 100 may create a user (e.g., an avatar) in virtual reality corresponding to a user in the real world based on at least one piece of sensing data, which is called a digital twin. You may.
  • the electronic device 101 may provide content for augmented reality that represents at least one visual object that can be seen overlapping the real environment viewed by a specific user. Meanwhile, at least some of the operations of the metaverse server 100 and/or the electronic device 101 described in the embodiment for virtual reality may be similar to the operations of the metaverse server 100 and/or the electronic device 101 described in the embodiment for augmented reality. Those skilled in the art will understand that this may be performed by the electronic device 101 and vice versa. According to one embodiment, the electronic device 101 may be a glasses-type electronic device supporting augmented reality, a smart lens, or a smart phone capable of displaying captured images in real time.
  • a user While wearing a glasses-type electronic device or smart lens, a user can observe visual objects displayed on a transparent display (or semi-transparent display) of the glasses-type electronic device or smart lens along with the real environment. Alternatively, a user can observe an image captured on a smartphone and a visual object displayed overlapping on the image.
  • the electronic device 101 may acquire a foreground image through the camera 116 (eg, a forward-facing camera).
  • the electronic device 101 may transmit the foreground image, a portion of the foreground image, or 3D modeling data acquired based on the foreground image to the metaverse server 100 through the communication device 117.
  • the electronic device 101 may check the orientation of the electronic device 101 based on the captured image and/or sensing data by the sensor device 115.
  • the electronic device 101 may transmit data about the posture of the electronic device 101 through the communication device 117.
  • the electronic device 101 may acquire a captured image of the user's eyes using the camera 116 (eg, a rear-facing camera).
  • the electronic device 101 may check the user's gaze based on a captured image of the eye.
  • the electronic device 101 may transmit data about the user's gaze through the communication device 117.
  • the metaverse server 100 may generate data for expressing at least one visual object that can be seen overlapping the real environment viewed by a specific user as data for expressing artificial reality. .
  • the metaverse server 100 analyzes, for example, data received from the electronic device 101 (data associated with the foreground image, the posture of the electronic device 101, and/or the user's gaze), and based on the analysis results, At least one visual object can be identified.
  • the metaverse server 100 may transmit data representing at least one visual object to the electronic device 101 through the communication device 107. At least one visual object may be displayed, for example, by the display 114 of the electronic device 101, and the user may observe at least one visual object overlapping the real environment.
  • a visual object may have information and/or form associated with an object placed in a real-world environment.
  • the electronic device 101 may display a visual object so that the visual object can be observed by the user as if it were located near an object placed in a real environment.
  • the electronic device 101 may check user input. For example, user input may be confirmed through the input/output device 113 included in the electronic device 101, and/or through the external sensor 131 and/or controller 133. User input may result in, for example, specifying and/or manipulating a displayed visual object.
  • the electronic device 101 may transmit a user input and/or a command corresponding to the user input to the metaverse server 100.
  • the metaverse server 100 may generate data for expressing artificial reality based on user input and/or commands corresponding to the user input. For example, the metaverse server 100 determines that the user input is based on the designation and/or manipulation of a visual object, and responds to the transformation of the visual object, the movement of the visual object, and/or the function of the visual object.
  • the metaverse server 100 may transmit data for expressing artificial reality created based on user input and/or commands corresponding to the user input to the electronic device 101.
  • the electronic device 101 may provide content related to artificial reality based on data for expressing artificial reality.
  • the metaverse server 100 and/or the electronic device 101 may provide a function that allows the user to interact with visual objects.
  • the metaverse server 100 may generate avatars (or characters) corresponding to other users as data for expressing artificial reality.
  • the metaverse server 100 may transmit an avatar (or character) corresponding to another user to the electronic device 101.
  • the electronic device 101 may display an avatar (or character) corresponding to another user using the received data for expressing artificial reality. Accordingly, the user can observe avatars (or characters) corresponding to other users overlapping in the real environment. Accordingly, the user can experience the avatar (or character) corresponding to another user as if it were located in the real environment.
  • An avatar (or character) corresponding to another user may be manipulated, for example, by user input obtained from an external electronic device 121, 122, 123, 124, and/or an artificial image stored in the metaverse server 100.
  • the metaverse server 100 may transmit data representing the manipulated avatar (or character) to the electronic device 101.
  • the electronic device 101 can express an avatar (or character) manipulated based on the received data, and accordingly, the user can experience the avatar (or character) corresponding to another user as if it were operating in a real environment.
  • the metaverse server 100 and/or the electronic device 101 may store the user experience associated with augmented reality in the memory 102 and/or 112.
  • the metaverse server 100 may store at least one data related to a user experience related to augmented reality for each user (eg, for each user account).
  • the metaverse server 100 and/or the electronic device 101 may store data for expression of a point in time during a user experience related to augmented reality in the memory 102 and/or 112.
  • the metaverse server 100 and the electronic device 101 generate and express data to express artificial reality.
  • the electronic device 101 is capable of generating data for representing an artificial reality and/or generating data for the artificial reality based on data from an external electronic device 121, 122, 123, 124. It may be possible.
  • the electronic device 101 may generate data for expressing artificial reality without data from the metaverse server 100.
  • Figure 2 is a perspective view to explain the internal configuration of an electronic device, according to an embodiment.
  • the electronic device 200 is accommodated in housings 210a, 210b, and 210c, or disposed on housings 210a, 210b, and 210c, and/or housings 210a and 210b. , may include parts exposed through the opening formed at 210c).
  • the electronic device 200 of FIG. 2 may be the electronic device 101 and/or the external electronic device 121 of the artificial reality system of FIG. 1 .
  • the electronic device 200 uses a plurality of camera modules 253, 254, 255, and 256 to capture images in the direction that the user is looking at or the electronic device 200 is facing (e.g., -Y direction). You can obtain visual images of objects or the environment.
  • Camera modules 253 and 254 may be disposed on relatively upper portions of the housings 210b and 210c. Alternatively, the camera modules 253 and 254 may be exposed through openings formed in the housings 210b and 210c.
  • the camera modules 253 and 254 have a field of view (FOV) based on at least one point of the housings 210b and 210c, for example, corresponding to the relatively upper side when the user wears the electronic device 200.
  • FOV field of view
  • Images acquired by the camera modules 253 and 254 may be used, for example, for simultaneous localization and mapping (SLAM) and/or 6DoF, or for recognition and/or tracking of a subject. Images acquired by the camera modules 253 and 254 may also be used for head tracking.
  • SLAM simultaneous localization and mapping
  • 6DoF recognition and/or tracking of a subject. Images acquired by the camera modules 253 and 254 may also be used for head tracking.
  • the camera modules 255 and 256 may be disposed on relatively lower portions of the housings 210b and 210c. Alternatively, the camera modules 255 and 256 may be exposed through openings formed in the housings 210b and 210c.
  • the upper part corresponding to the camera modules 253 and 254 and the lower part corresponding to the camera modules 255 and 256 are defined when the user wears the electronic device 200, and the part relatively close to the ground is Those skilled in the art will understand that this is referred to as the lower part, and the part that is relatively distant from the ground is referred to as the upper part, which is only for convenience of explanation.
  • the camera modules 255 and 256 produce images corresponding to a FOV based on at least one point of the housings 210b and 210c, for example, a FOV corresponding to the relatively lower side when the user wears the electronic device 200. can be filmed. Images acquired by the camera modules 255 and 256 may be used for recognizing and/or tracking a subject. For example, when the user wears the electronic device 200, the images acquired by the camera modules 255 and 256 are displayed on a subject located relatively lower than the corresponding part of the head, for example, the user's hand. It may be used for recognition and/or tracking, but there are no restrictions.
  • the electronic device 200 may recognize and/or track a subject using at least one image captured by the camera modules 253, 254, 255, and 256.
  • the electronic device 200 may perform an operation confirmed based on the recognition and/or tracking result. For example, it may provide a visual object at a location corresponding to the subject, but there are no restrictions on the operation.
  • a virtual keyboard is provided by the electronic device 200
  • keys designated in the virtual keyboard may be recognized based on the tracking result of the user's hand.
  • the operation corresponding to the recognition and/or tracking result may be performed independently by the electronic device 200, for example, but this is an example and the operation is performed by the electronic device 200 and an external electronic device (e.g., an external device in FIG. 1). It may be performed based on cooperation with the electronic devices 121, 122, 123, and 124) and/or an external server (eg, the external server 140 of FIG. 1).
  • the camera modules 253, 254, 255, and 256 are for 3DoF, 6DoF head tracking, hand detection, hand tracking, and/or spatial recognition, and have a global shutter (GS) ) It may be a camera and/or, but there is no limitation, and it may also be implemented as a rolling shutter (RS) camera.
  • GS global shutter
  • RS rolling shutter
  • the camera modules 251 and 252 are eye tracking (ET) cameras, and images captured by the camera modules 251 and 252 may be used for detecting and/or tracking the pupil. For example, using the captured image, the position of the virtual image projected on the electronic device 200 may be determined so that the eye of the wearer of the electronic device 200 is located in the direction in which the user's eyes are looking.
  • the camera modules 251 and 252 may be implemented as GS cameras for detecting and/or tracking the pupil, but there is no limitation.
  • the display module 240 may be, for example, a liquid crystal display (LCD), a digital mirror device (DMD), or a liquid crystal on silicon (LCoS) device. ), organic light emitting diode (OLED), or micro LED (micro light emitting diode (micro LED)).
  • LCD liquid crystal display
  • DMD digital mirror device
  • LCD liquid crystal on silicon
  • OLED organic light emitting diode
  • micro LED micro light emitting diode
  • the electronic device 200 is a light source that irradiates light to the screen output area of the display module 240. may include.
  • the display module 240 may be used by the user even if it does not include a separate light source. It is possible to provide virtual images of good quality to users.
  • the display module 240 is implemented with an organic light emitting diode or micro LED, a light source is not required, and thus the electronic device 200 can be lightweight.
  • the electronic device 200 may include a display module 240, a first transparent member 201, and/or a second transparent member 202, and the user may use the electronic device 200 while wearing it on the face. You can.
  • the first transparent member 201 and/or the second transparent member 202 may be formed of a glass plate, a plastic plate, or a polymer, and may be made transparent or translucent.
  • a transparent member eg, the first transparent member 201 and/or the second transparent member 202
  • the optical waveguide can transmit the light source generated by the display module 240 to the user's eyes.
  • the optical waveguide may be made of glass, plastic, or polymer, and may include a nanopattern formed on some of the interior or exterior surfaces, for example, a polygonal or curved grating structure. According to one embodiment, light incident on one end of the waveguide may be propagated inside the display optical waveguide by a nano-pattern and provided to the user.
  • an optical waveguide composed of a free-form prism can provide the incident light to the user through a reflection mirror.
  • the optical waveguide may include at least one of at least one diffractive element (eg, a diffractive optical element (DOE), a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror).
  • the optical waveguide may guide display light emitted from the light source unit to the user's eyes using at least one diffractive element or reflective element included in the optical waveguide.
  • the diffractive element may include input optics/output optics (not shown).
  • an input optical member may refer to an input grating area
  • an output optical member (not shown) may refer to an output grating area.
  • the input grating area diffracts (or reflects) the light output from (e.g., Micro LED) to transmit the light to the transparent members (e.g., the first transparent member 201 and the second transparent member 202) of the screen display unit. Shiki can act as an input terminal.
  • the output grating area may serve as an outlet that diffracts (or reflects) light transmitted to the transparent member of the waveguide (e.g., the first transparent member 201 and the second transparent member 202) to the user's eyes.
  • the reflective element may include a total internal reflection (TIR) optical element or a total internal reflection waveguide. For example, total reflection is a method of guiding light. The angle of incidence is created so that the light (e.g.
  • the virtual image) input through the input grating area is 100% reflected from one side of the waveguide (e.g. a specific side), and the light input through the input grating area is created so that 100% of the light (e.g. virtual image) is reflected from one side of the waveguide (e.g. a specific side). This may mean ensuring that 100% delivery is achieved.
  • light emitted from the display module 240 may be guided to an optical path through an input optical member to a waveguide. Light moving inside the waveguide may be guided toward the user's eyes through the output optical member. The screen display may be determined based on the light emitted in the eye direction.
  • the first transparent member 201 may be disposed to face the user's right eye, and the second transparent member 202 may be disposed to face the user's left eye.
  • the transparent members 201 and 202 may be disposed at a position facing the user's eyes to form a screen display unit.
  • the electronic device 200 may further include a lens.
  • the lens can adjust the focus so that the screen output to the display module 240 can be viewed by the user's eyes.
  • the lens may be a Fresnel lens, a Pancake lens, or a multichannel lens.
  • the circuit board 241 may include components for driving the electronic device 200.
  • the circuit board 241 may include at least one integrated circuit chip, and may include electronic components (e.g., the processor 111 of FIG. 1, the memory 112, and the input/output device ( At least one of 113), sensor device 115, and/or communication device 117) may be provided on an integrated circuit chip.
  • the circuit board 241 may be disposed within the wearing member of the housing 210 and/or the lens frame.
  • the circuit board 241 may be electrically connected to the battery 243 through a power transmission structure.
  • the circuit board 241 is connected to a flexible printed circuit board, and electronic components of an electronic device (e.g., an optical output module, a camera module 251, 252, 253, 254, 255, and 256), and according to one embodiment, the circuit board 241 may include a circuit board including an interposer.
  • an electronic device e.g., an optical output module, a camera module 251, 252, 253, 254, 255, and 256
  • the circuit board 241 may include a circuit board including an interposer.
  • the battery 243 may be electrically connected to components of the electronic device 200 through a power transmission structure and may supply power to the components of the electronic device 200. According to one embodiment, at least a portion of the battery 243 may be disposed on the wearing member.
  • the speaker module 245 can convert electrical signals into sound. At least a portion of the speaker module 245 according to one embodiment may be disposed within the wearing member and/or lens frame of the housing 210. According to one embodiment, the speaker module 245 may be disposed between the circuit board 241 and the battery 243 to correspond to the user's ears. The speaker module 245 according to one embodiment may transmit auditory information to the user through low-frequency vibration of the user's skin and bones.
  • the microphone module 247 can convert sound into an electrical signal. According to one embodiment, the microphone module 247 may be disposed on at least a portion of the lens frame 311 and/or the wearing member 312.
  • the electronic device 200 may recognize the user's voice and/or external sound using at least one microphone module 247.
  • the electronic device 200 combines voice information and ambient noise based on voice information and/or additional information (e.g., low-frequency vibration of the user's skin and bones) acquired through at least one microphone module. can be distinguished.
  • the electronic device 200 can clearly recognize the user's voice and perform a function that reduces surrounding noise (eg, noise canceling).
  • the camera module 259 may include an infrared (IR) camera module (eg, a time of flight (TOF) camera, or structured light camera).
  • IR infrared
  • TOF time of flight
  • structured light camera e.g., an IR camera may be operated as at least part of a sensor module (sensor module or Lidar sensor) for detecting the distance to a subject.
  • the electronic device 101 may further include a sensor module (eg, Lidar sensor).
  • the sensor module may include at least one of a vertical cavity surface emitting laser (VCSEL), an infrared sensor, and/or a photodiode.
  • VCSEL vertical cavity surface emitting laser
  • Illumination LED 242 may have various uses depending on where it is attached. As an example of use, the Illumination LED (242) attached around the frame is used as an auxiliary means to facilitate gaze detection when tracking eye movement with the ET camera modules (251, 252), and the IR LED of infrared wavelength is mainly used. It is used. As another example of use, the Illumination LED 242 is attached adjacent to a camera module mounted around the hinge 229 connecting the frame and the temple, or around the bridge connecting the frame, and can be used as a means of supplementing surrounding brightness during camera shooting. For example, the photographing camera module 260 may capture a relatively high-definition image of the foreground of the electronic device 200.
  • the shape of the electronic device 200 may be selectively designed. Although the electronic device 200 in the form of glasses is shown in FIG. 2, the shape of the electronic device 300 is not limited thereto. For example, in FIG. 3 in this document, if it is a head mounted device (HMD) that can be worn on the head, the shape of the electronic device 200 is not limited to this.
  • HMD head mounted device
  • FIG. 3 is a side view of an electronic device including an input structure, according to an embodiment of the present disclosure.
  • 4A and 4B are perspective views of an electronic device including the input structure of the present disclosure.
  • the electronic device 300 may include a housing 310 and an input structure 320.
  • the configuration of the housing 310 of the electronic device 300 of FIGS. 3, 4A, and 4B may be the same in whole or in part as the configuration of the electronic device 200 and the housings 210a, 210b, and 210c of FIG. 2. .
  • some structures of the electronic device 300 eg, a portion of the housing 310) are excluded from the description of the components disposed within the housing 310 in FIG. 4B.
  • the electronic device 200 may include a housing 310 that forms the exterior of the electronic device 200.
  • the housing 310 may provide a space where components of the electronic device 200 can be placed.
  • the housing 310 may include a lens frame 311 and at least one wearing member 312.
  • the lens frame 311 may be a part of the housing 310 that accommodates a transparent member (eg, the first transparent member 201 and/or the second transparent member 202 in FIG. 2).
  • the wearing member 312 may be a part of the housing 310 extending from the lens frame 311.
  • the lens frame 311 may accommodate at least a portion of the transparent member 201.
  • the lens frame 311 may surround at least a portion of the edge of the transparent member 201.
  • the lens frame 311 may position at least one of the transparent members 201 to correspond to the user's eye.
  • the lens frame 311 may be a rim of a general glasses structure.
  • the wearing member 312 may extend from the lens frame 311.
  • the wearing member 312 extends from an end of the lens frame 311 and, together with the lens frame 311, can be supported or positioned on the user's body (eg, ears).
  • the wearing member 312 may be referred to as a temple or temple.
  • At least a portion of the wearing member 312 may move relative to the lens frame 311 .
  • at least a portion of the wearing member 312 may slide and/or rotate relative to the lens frame 311 .
  • At least a portion of the wearing member 312 moves with respect to the lens frame 311 based on the first direction (+X direction) or the second direction (-X direction), and the wheel 330 It may rotate around the first direction or the second direction.
  • the wearing member 312 may include a first area 3121 connected to the lens frame 311.
  • the first region 3121 is described in this document as part of the wearing member 312, it is optional.
  • the first area 3121 may be interpreted as a part of the lens frame 311.
  • the wearing member 312 may include a second region 3122 configured to move relative to the first region 3121. As the second region 3122 slides, the length of the wearing member 312 and/or the length of the housing 310 may be changed. By changing the length of the wearing member 312, the electronic device 200 can be changed to suit the size of the user's body, thereby improving the user's wearing comfort. Movement of the second area 3122 relative to the first area 3121 may be referred to as changing the length of the wearing member 312 and/or the housing 310.
  • the second area 3122 may move with respect to the first area 3121 based on the rotation of the wheel 330.
  • the length of the second area 3122 exposed to the outside of the electronic device 300 e.g., the size and/or length inserted into the cover portion 3123
  • the second area 3122 may be moved in a second direction (-X direction) opposite to the first direction.
  • the wearing member 312 may include a cover portion 3123 configured to guide the movement of the second area 3122.
  • the cover portion 3123 may cover at least a portion of the wearing member 312 (eg, an end of the first area 3121 and/or an end of the second area 3122).
  • the cover part 3123 may include an outer wall 3123a that covers at least a portion of the second area 3122.
  • the second area 3122 may move in the first direction (+X direction) or the second direction (-X direction) along the outer wall 3123a.
  • the cover portion 3123 may cover at least a portion of the wheel 330.
  • the cover portion 3123 may include a hole for exposing the wheel area 332 of the wheel 330 to the outside of the electronic device 300.
  • the cover part 3123 may be excluded or may be formed integrally with a part of the housing 310 (eg, the first area 3121).
  • the second area 3122 may be provided with force by the wheel 330.
  • the second region 3122 may include a first sidewall 3122a and a second sidewall 3122b configured to contact the wheel 330 .
  • the wheel area 332 may move in the first direction (+X direction).
  • the first side wall 3122a of the second area 3122 may be provided with force by the wheel area 332.
  • the second area 3122 may be moved in the first direction (+X).
  • the wheel area 332 may move in the second direction (-X direction).
  • the second side wall 3122b of the second area 3122 may be provided with force by the wheel area 332.
  • the second side wall 3122b receives force, the second area 3122 may be moved in the second direction (-X).
  • the first side wall 3122a may be arranged substantially parallel to the second side wall 3122b.
  • the slide distance of the wearing member 312 may be changed based on the distance between the first side wall 3122a and the second side wall 3122b.
  • the first side wall 3122a and the second side wall 3122b are spaced apart by about 30 mm, and the length at which the wearing member 312 changes may be within a range of 30 mm.
  • the second area 3122 may include at least one third sidewall 3122c.
  • the third side wall 3122c may be substantially perpendicular to the first side wall 3122a or the second side wall 3122b.
  • the third side wall 3122c may be covered by a portion of the cover portion 3123 (eg, the outer side wall 3123b). At least a portion of the third side wall 3122c is surrounded by the cover portion 3123, thereby preventing or reducing the separation of the second area 3122.
  • the electronic device 200 may include a hinge (not shown) connected to the wearing member 312 and the lens frame 311.
  • the wearing member 312 may be rotatable relative to the lens frame 311 using the hinge.
  • input structure 320 may include a wheel 330 for adjusting the length of housing 310.
  • the wheel 330 may include a pillar portion 331 and a wheel area 332.
  • the pillar portion 331 may be connected to the wearing member 312.
  • the first end 331a of the pillar portion 331 is connected to the first area 3121, and the second end 331b opposite the first end 331a is connected to the second area 3122.
  • the pillar portion 331 may include threads for guiding the rotation of the wheel 330.
  • the wheel area 332 can rotate and/or move along the pillar portion 331.
  • the wheel area 332 may move in the first direction (+X direction) or the second direction (-X direction) along the thread line formed on the pillar portion 331.
  • Wheel area 332 may transmit force to a portion of wearing member 312 (eg, second area 3122).
  • the wheel area 332 may contact the first side wall 3122a or the second side wall 3122b of the second area 3122.
  • At least a portion of the wheel area 332 may be exposed to the outside of the electronic device 300.
  • the wheel 330 may be rotated based on a user's input (eg, rotation using a finger).
  • the input structure 320 may include an elastic member 321 to prevent or reduce unintentional changes in length of the wearing member 312.
  • the elastic member 321 may provide force (eg, elastic force) to the second region 3122.
  • the elastic member 321 may be located between the first area 3121 and the second area 3122 (eg, the first side wall 3122a).
  • the elastic member 321 may be a spring.
  • the elastic member 321 Force may be provided to the first side wall 3122a.
  • a force greater than the elastic force provided by the elastic member 321 is provided to the input structure 320 due to rotation of the wheel 330 by the user, the second area 3122 is moved in the first direction (+X direction). You can move.
  • a force for movement of the second area 3122 in the second direction (-X direction) e.g., friction force between the wheel area 332 and the pillar portion 331
  • the elastic member 321 may surround at least a portion of the pillar portion 331.
  • the elastic member 321 may be replaced with a stopper structure.
  • the shape of the housing 310 may be selectively designed.
  • the length or shape of the lens frame 311 and/or the wearing member 312 may be changed based on the design of the electronic device 300.
  • Figure 5 is a diagram for explaining length adjustment of a housing based on a wearable sensor, according to an embodiment of the present disclosure.
  • the electronic device 300 may include a housing 310 and a wearing sensor 360.
  • the configuration of the housing 310 in FIG. 5 is the same in whole or in part as the configuration of the housing 310 in FIG. 3, and the configuration of the wearing detection sensor 360 in FIG. 5 is the same as the configuration of the sensor device 115 in FIG. 1. It may be the same as all or part of it.
  • the wearing detection sensor 360 may detect whether the electronic device 300 is worn on the user's body (eg, head).
  • the wearing sensor 360 may include an optical sensor (eg, an infrared sensor) and/or a proximity sensor.
  • the wearing detection sensor 360 may be located within or on the housing 310 .
  • the wearing detection sensor 360 may detect whether the electronic device 300 is worn at a plurality of points.
  • the wearing detection sensor 360 may include a first wearing detection sensor 361 and a second wearing detection sensor 362 spaced apart from the first wearing detection sensor 361.
  • a processor may determine whether the electronic device 300 is worn based on a signal detected by the wearing detection sensor 360.
  • the processor 111 uses a length adjustment structure (e.g., a motor and/or an actuator) to adjust the housing ( 310) can be adjusted in length.
  • the length adjustment of the housing 310 (or the wearing member 312) performed by the processor 111 may be referred to as automatic length adjustment.
  • the electronic device 300 uses a motor and/or an actuator to rotate a wheel (e.g., wheel 330 in FIGS. 3, 4A, and/or 4B) or move the second area 3122. It can be included.
  • the processor 111 may generate a signal for driving the motor and/or the actuator based on the signal and/or data detected by the wearing detection sensor 360.
  • FIG. 6A is a perspective view of an electronic device including a first wheel and a second wheel, according to an embodiment of the present disclosure.
  • FIGS. 6B and 6C are diagrams for explaining the internal structure of an electronic device including a first wheel and a second wheel, according to an embodiment of the present disclosure.
  • the electronic device 300 may include a housing 310 and a wheel 330.
  • the configuration of the electronic device 300, housing 310, and wheel 330 of FIGS. 6A, 6B, and/or 6C is similar to that of the electronic device 300 and housing 310 of FIGS. 3, 4A, and/or 4B. and may be identical in whole or in part to the configuration of the wheel 330.
  • the structure of the electronic device 300 shown in FIGS. 6A, 6B, and/or 6C (e.g., the first wheel 333 and the second wheel 334) can be used with other embodiments disclosed in this document. .
  • the wheel 330 may include a plurality of wheels 333 and 334.
  • the wheel 330 may include a first wheel 333 and a second wheel 334.
  • the second wheel 334 may be positioned substantially parallel to the first wheel 333.
  • the first wheel 333 may implement movement of the wearing member 312. For example, based on the rotation of the first wheel 333, the second region 3122 of the wearing member 312 may move relative to the first region 3121.
  • the configuration of the first wheel 333 may be the same in whole or in part as the configuration of the wheel 330 shown in FIG. 3, 4A, or 4B.
  • the input structure 320 may include a protrusion 333a connected to the first wheel 333 and a stopper 333b for limiting the movement of the protrusion 333a.
  • the stopper 333b can prevent or reduce unintentional changes in length of the wearing member 312.
  • the stopper 333b may prevent or reduce the movement of the protrusion 333a and/or the first wheel 333 when a force greater than a specified size is not transmitted to the first wheel 333.
  • the input structure 320 may include a rail portion 333c for guiding the movement path of the second area 3122.
  • the second area 3122 may move relative to the first area 3121 along the rail portion 333c.
  • the structure of the input structure 320 for implementing movement of the wearing member 312 may be optional.
  • the structure of the input structure 320 is such that if the second area 3122 can move with respect to the first area 3121 based on the rotation of the first wheel 333, it can be used in the electronic device 300 without limitation. It can be applied.
  • the second wheel 334 may detect a user input to perform a designated operation.
  • the electronic device 300 includes a rotation detection sensor 340 for detecting the direction, number of rotations, and/or rotation speed of at least a portion of the wheel 330 (e.g., the second wheel 334). may include.
  • the rotation detection sensor 340 may be an ultrasonic sensor, a laser sensor, a power generation sensor, and/or an encoder for detecting the rotation of the second wheel 334.
  • the second wheel 334 may detect a user's gesture to perform a designated action.
  • the electronic device 300 may include a substrate 341 that accommodates a rotation detection sensor 340.
  • the substrate 341 may be electrically connected to a processor (eg, processor 111 of FIG. 1).
  • the processor 111 may perform a designated operation based on a user input detected by the rotation sensor 340.
  • the processor 111 may execute a designated program stored in a memory (eg, memory 112 in FIG. 1) based on a gesture detected by the rotation sensor 340.
  • FIG. 7A is a perspective view of an electronic device including a clutch structure, according to an embodiment of the present disclosure.
  • FIG. 7B is a cross-sectional perspective view taken along line C-C' in FIG. 7A.
  • Figures 7c and 7d are cross-sectional perspective views taken along line D-D' in Figure 7a.
  • the electronic device 300 may include a housing 310, a wheel 330, and a clutch structure 350.
  • the configuration of the electronic device 300, housing 310, and wheel 330 of FIGS. 7A, 7B, 7C, and/or 7D is similar to that of the electronic device 300, housing 310, and wheel 330 of FIG. 3. It may be identical in whole or in part to the composition of .
  • the structure of electronic device 300 (e.g., clutch structure 350) shown in FIGS. 7A, 7B, 7C, and/or 7D may be used with other embodiments disclosed in this document.
  • the clutch structure 350 may implement different operations using one wheel 330.
  • the clutch structure 350 may implement changing the length of the wearing member 312 or performing a specified operation based on the rotation of one wheel 330.
  • the clutch structure 350 may change the structure to which the wheel 330 is connected.
  • the operation of the electronic device 300 corresponding to the rotation of the wheel 330 may change based on the structure to which the wheel 330 is connected.
  • the clutch structure 350 may include at least one first receiving groove 351 and a second receiving groove 352 spaced apart from the first receiving groove 351.
  • the first receiving groove 351 may have a shape for rotating the wheel 330 and the second region 3122 of the wearing member 312 together.
  • the first receiving groove 351 may be at least one groove formed in the second area 3122.
  • the second receiving groove 352 can movably accommodate the protrusion 353.
  • the second receiving groove 352 may be a ring-shaped groove.
  • the clutch structure 350 may include a protrusion 353.
  • the protrusion 353 may be inserted into the first receiving groove 351 or the second receiving groove 352 according to the movement of the clutch structure 350.
  • the protrusion 353 may be a part of the wheel 330 that protrudes from the inner surface of the wheel 330.
  • the protrusion 353 may be formed integrally with the wheel 330.
  • the wheel 330 may move along a first direction (+X direction) or a second direction (-X direction). Based on the movement of the wheel 330, the position of the protrusion 353 may change. With the protrusion 353 positioned in the first receiving groove 351 (e.g., FIG. 7C ), based on the rotation of the wheel 330, at least a portion of the wearing member 312 (e.g., the second region 3122) ) can move. For example, wheel 330 may rotate together with second area 3122. According to one embodiment, the second area 3122 may include an extension part 3122d inserted into the screw groove 3121d of the first area 3121. With the protrusion 353 located in the second receiving groove 352 (eg, FIG.
  • the wheel 330 may rotate with respect to the first area 3121 and the second area 3122 .
  • the wheel 330 may rotate separately from the second area 3122.
  • the state in which the protrusion 353 is located within the second receiving groove 352 may be referred to as a free wheel state.
  • the rotation detection sensor of the electronic device 300 e.g., the rotation detection sensor 340 in FIG. 6C
  • a processor may move at least a portion of the clutch structure 350.
  • the electronic device 300 includes a driving structure (e.g., a motor and/or an actuator) capable of moving the wheel 330 and/or the protrusion 353, and the processor 111 operates the driving structure.
  • the wheel 330 and/or the protrusion 353 can be moved in the first direction (+X direction) or the second direction (-X direction).
  • the electronic device 300 may move the clutch structure 350 using a wearing detection sensor (eg, the wearing detection sensor 360 of FIG. 5).
  • the clutch structure 350 may move based on whether the user is wearing the electronic device 300 or not.
  • the processor 111 determines that the electronic device 300 is worn on the user's body using the wearing detection sensor 360
  • the protrusion 353 is a second receiving groove ( The wheel 330 and/or the protrusion 353 may be moved to be positioned within 352).
  • the protrusion 353 is located in the first receiving groove 351, The wheel 330 and/or the protrusion 353 may be moved.
  • the first protrusion 353 is formed in order to bring the electronic device 300 into close contact with the user's body. After moving the wheel 330 and/or the protrusion 353 to be located within the receiving groove 351, the wheel 330 and/or the protrusion (353) is moved to be located within the second receiving groove 352. 353) can be moved.
  • the state in which the protrusion 353 is located in the first receiving groove 351 may be referred to as a length adjustment state or a first state.
  • the state in which the protrusion 353 is located within the second receiving groove 352 may be referred to as a fixed state, an operating state, or a second state.
  • the electronic device 300 may include an input device (eg, the input/output device 113 of FIG. 1) for detecting a user's input.
  • the processor 111 may move at least a portion of the clutch structure 350 based on the user's input detected by the input device.
  • the input device may be a button exposed to the outside of the housing 310. According to one embodiment, changing the position of the wheel 330 and/or the protrusion 353 may be performed manually.
  • Figure 8 is a cross-sectional perspective view of an electronic device including a motor module, according to an embodiment of the present disclosure.
  • the electronic device 300 may include a lens frame 311, a wearing member 312, a wheel 330, and a driving structure 370.
  • the configuration of the electronic device 300, lens frame 311, wearing member 312, and wheel 330 of FIG. 8 is similar to that of the electronic device 300, lens frame 311, wearing member 312, and wheel of FIG. 3. It may be identical in whole or in part to the configuration of (330).
  • the structure of the electronic device 300 shown in FIG. 8 can be used with other embodiments disclosed in this document.
  • a structure in which the wheel 330 is disposed on the right wearing member (eg, the first wearing member 312a) is shown, but this is an example.
  • the wheel 330 may be located on at least one of the first wearing member 312a or the second wearing member 312b.
  • the electronic device 300 may be designed asymmetrically.
  • the electronic device 300 includes a lens frame 311, a first wearing member 312a connected to one end of the lens frame 311, and a second wearing member 312b spaced apart from the first wearing member 312a. ) may include.
  • the second wearing member 312b may be disposed substantially parallel to the first wearing member 312a.
  • the component disposed within the first wearing member 312a may be different from the component disposed within the second wearing member 312b.
  • the wheel 330 may be disposed on one wearing member (eg, the first wearing member 312a) and not on another wearing member (eg, the second wearing member 312b).
  • the electronic device 300 may include a driving structure 370 for moving a wearing member on which the wheel 330 is not disposed (eg, the second wearing member 312b).
  • the driving structure 370 includes a motor 371 and a gear structure 372 for moving a part of the second wearing member 312b (e.g., the second area 3122) using the driving force generated by the motor 371. may include.
  • the processor determines a wearing member (e.g., the second wearing member 312b) where the wheel 330 is not located, based on information obtained from the wheel 330. )) can generate a signal to drive.
  • the processor 111 may detect a user's input using the wheel 330 connected to the first wearing member 312a.
  • the processor 111 may determine the rotation value (eg, rotation angle and/or rotation speed) of the wheel 330.
  • the processor 111 may operate the driving structure 370 based on the sensed user input.
  • the processor 111 determines the distance value of the first wearing member 312a corresponding to the rotation value of the wheel 330, and moves the second wearing member 312a by the distance moved by the first wearing member 312a.
  • the second wearing member 312b can be moved so that 312b moves.
  • the length (eg, movement of the second area 3122 relative to the first area 3121) of the first wearing member 312a may change due to rotation of the wheel 330.
  • the second area 3122 may move in the first direction (+X direction) or the second direction (-X direction) based on the rotation of the wheel 330.
  • the second wearing member 312b may change due to the operation of the drive structure 370.
  • the second region 3122 of the second wearing member 312b moves in the first direction (+X direction) or the second direction based on the gear structure 372 that moves based on the driving force generated by the motor 371. Can move in 2 directions (-X direction).
  • FIG. 9 is a perspective view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • FIG. 10A is an enlarged view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • FIG. 10B is a cross-sectional perspective view of an electronic device including a touch pad structure, according to an embodiment of the present disclosure.
  • the electronic device 400 may include a housing 410 including a lens frame 411 and a wearing member 412, and a wheel 430.
  • the configuration of the electronic device 400, housing 410, and wheel 430 of FIGS. 9, 10A, and/or 10B is similar to that of the electronic device 300, housing (e.g., lens frame 311, and wearing member) of FIG. 3. It may be the same in whole or in part as the configuration of (312)) and wheel 330.
  • the wheel 430 may include a virtual wheel detected by the touch pad module.
  • the wheel 430 is a display module that includes a touch pattern, and the electronic device 400 can detect a user's gesture by detecting capacitance using the wheel 430.
  • the electronic device 400 can detect various gestures.
  • the processor 111 may perform various operations using the pressure applied to the wheel 430 and/or the number of inputs proximate to the wheel 430 (e.g., detecting changes in capacitance at multiple points). You can.
  • the processor 111 may implement a selection interaction using a designated operation.
  • the electronic device 400 may adjust the position of the wearing member 412 with respect to the lens frame 411 using the wheel 430.
  • a processor eg, processor 111 of FIG. 1
  • may operate a driving structure eg, driving structure 370 of FIG. 8
  • a part of the wearing member 412 e.g., the second area 4122
  • the wearing member 412 e.g., the second area 4122
  • another part of the wearing member 412 e.g., the first area 4121.
  • the electronic device 400 may perform a designated operation using the wheel 430.
  • the processor 111 may perform a designated operation based on a signal obtained using an input structure (eg, wheel 430).
  • a designated operation may be implemented using data stored in memory (e.g., memory 112 in FIG. 1).
  • the electronic device 300 may include a plurality of wheels 430.
  • the electronic device 400 may include a first wheel 430a connected to the first wearing member 412a and a second wheel 430b connected to the second wearing member 412b.
  • at least one of the first wheel 430a or the second wheel 430b may change the length of the wearing member 412.
  • the electronic device 400 may perform a designated operation using at least one of the first wheel 430a or the second wheel 430b.
  • the first wheel 430a may perform a different operation from the second wheel 430b.
  • the first wheel 430a is configured to change the length of the wearing member 412
  • the second wheel 430b is configured to perform a designated operation of the electronic device 400 (e.g., volume control and/or menu selection). ) may be a configuration to perform.
  • the structure (e.g., wheel 430) of the electronic device 400 shown in FIGS. 9, 10A, and/or 10B may be used with other embodiments disclosed in this document.
  • the electronic device 400 may include the wheel (e.g., virtual wheel) 430 of FIGS. 9, 10A, and/or 10B along with the physical wheel 330.
  • FIG. 11A and 11B are diagrams for explaining the operation of an electronic device including an input structure, according to an embodiment of the present disclosure.
  • the processor e.g., processor 111 of FIG. 1 of an electronic device (e.g., electronic device 300 of FIG. 3 and/or electronic device 400 of FIG. 9) has an input structure.
  • a designated operation can be performed using (e.g., wheel 330 in FIG. 3 or wheel 430 in FIG. 10).
  • the electronic device 400 may perform various designated operations using the wheels 330 and 430.
  • the specified operations may include adjusting the sound of the electronic device 400, adjusting the scale of images output from the electronic device 400 (e.g., zooming in and/or zooming out), and/or output from the electronic device 400. It may include selection of some of the menus available.
  • the designated operations described in this disclosure are exemplary, and as long as they can be performed on the electronic device 400 using the wheels 330 and 430, the designated operations are not limited.
  • the electronic device 400 may provide content C1 for adjusting sound output from the electronic device 400.
  • the content C1 may be provided to the user using a display module (eg, display module 240 of FIG. 2).
  • the processor 111 changes the volume of the sound output from the speaker (e.g., the input/output device 113 of FIG. 1) of the electronic device 300. You can.
  • the electronic device 300 may display information reflecting the current volume of sound to the user through a first image V1 in the shape of a graph and/or a second image V2 in the shape of a text. .
  • the electronic device 400 may provide content C2 for selecting some information from among the information displayed on the electronic device 400.
  • the processor 111 may select a partial area S1 from the image output from the display module 240 based on a gesture transmitted by the user U to the wheel 330.
  • Wearable electronic devices can be worn on the user's body. However, since the user's body size is different, if the size of the electronic device is constant, the user's wearing comfort may be reduced. According to an embodiment of the present disclosure, the electronic device can change the length of the wearing member using a wheel. By changing the length of the wearing member, the user's wearing comfort can be improved. According to an embodiment of the present disclosure, an electronic device that performs a designated operation using a wheel may be provided.
  • a wearable electronic device (e.g., the electronic device 200 of FIG. 2) includes a lens frame (e.g., the transparent member 201 of FIG. 2) that accommodates a transparent member (e.g., the transparent member 201 of FIG. 2).
  • a housing e.g., housing 210 in FIG. 2) including a lens frame 211) and a wearing member (e.g., wearing member 212 in FIG. 2), at least a portion of which is configured to move relative to the lens frame.
  • an input structure including a processor (e.g., processor 111 in FIG. 1) located within the housing and a wheel (e.g., wheel 330 in FIG. 3) for adjusting the position of the wearing member relative to the lens frame.
  • the processor may be configured to perform a designated operation based on a signal obtained using the input structure.
  • the wearing member includes a first area connected to the lens frame (e.g., first area 3121 in FIG. 3), and a first area configured to slide with respect to the first area based on rotation of the wheel.
  • a cover part that covers two areas (e.g., the second area 3122 in FIG. 3) and at least a portion of the wheel, and is configured to guide the slide movement of the second area (e.g., the cover part 3123 in FIG. 3). ))) may be included.
  • the wheel is configured to rotate based on a pillar connected to the first area and the second area (e.g., the moving part 331 in FIG. 4B) and the pillar, and at least a portion of the wheel is connected to the wearable. It may include a wheel area exposed to the outside of the electronic device (eg, wheel area 332 in FIG. 4B).
  • the wheel area may be configured to transmit force to the second area. For example, the wheel area transmits force to the second area, so that the second area can move relative to the first area.
  • the input structure is an elastic member surrounding the pillar portion and may include an elastic member located between the first region and the second region (e.g., the elastic member of FIG. 4B.
  • the elastic member Due to the elastic force, changes in the length of the wearing member that are not intended by the user can be reduced.
  • the second area includes a first side wall (e.g., the first side wall 3122a in FIG. 4B) and a second side wall arranged parallel to the first side wall (e.g., the second side wall (3122a) in FIG. 4B). 3122b)) may be included.
  • the wheel area may be configured to contact the first sidewall or the second sidewall. As the wheel area contacts the first side wall or the second side wall, the user's force applied to the wheel may be used to move the second area.
  • the wearable electronic device may further include a rotation detection sensor (eg, rotation detection sensor 340 in FIG. 6C) to detect rotation of the wheel.
  • a rotation detection sensor eg, rotation detection sensor 340 in FIG. 6C
  • the processor can perform a designated operation.
  • the wheel includes a first wheel for moving the wearing member (e.g., the first wheel 333 in FIG. 6A) and a second wheel configured to detect a user's input (e.g., the first wheel 333 in FIG. 6A). 2 wheels 334) may be included.
  • the rotation detection sensor may be configured to detect rotation of the second wheel.
  • the wearable electronic device includes at least one first receiving groove (e.g., first receiving groove 351 in FIG. 7B) formed in the housing, a first receiving groove spaced apart from the first receiving groove, and a ring-shaped first receiving groove.
  • first receiving groove e.g., first receiving groove 351 in FIG. 7B
  • second receiving groove 352 in FIG. 7B a protrusion extending from the wheel and configured to be inserted into the first receiving groove or the second receiving groove (e.g., protrusion 353 in FIG. 7B)
  • the wheel when the protrusion is inserted into the first receiving groove, the wheel may rotate together with at least a portion of the wearing member. With the protrusion inserted into the second receiving groove, the wheel may be configured to rotate with respect to the wearing member. With the wheel inserted into the first receiving groove, the length of the wearing member may change as the wheel rotates together with at least a portion of the wearing member. With the wheel inserted into the second receiving groove, as the wheel rotates with respect to the wearing member, the wearing detection sensor detects the rotation of the wheel, and the processor can perform a designated operation.
  • the wearable electronic device may include a wearing detection sensor (eg, the wearing detection sensor 360 of FIG. 5) for detecting that the wearable electronic device is worn by the user.
  • the processor may generate a signal for moving the wearing member based on whether the wearable electronic device is mounted or not detected using the wearing detection sensor.
  • the wearing member includes a first wearing member (e.g., the first wearing member 312a in FIG. 9) and a second wearing member spaced apart from the first wearing member (e.g., the second wearing member in FIG. 9). It may include a member 312b).
  • the wheel may be located within the first wearing member.
  • the input structure includes a rotation detection sensor located within the first wearing member and configured to detect rotation of the wheel (e.g., rotation detection sensor 340 in FIG. 6C), and a drive structure located within the second wearing member (e.g., It may include the driving structure 370 of FIG. 8).
  • the wheel may include a virtual wheel provided using a touch pad module.
  • it may further include a driving structure (eg, the driving structure 370 of FIG. 8) configured to move at least a portion of the wearing member.
  • the processor may be configured to control the driving structure based on user input obtained from the touch pad module.
  • the designated operation includes adjusting the size of the sound output from the wearable electronic device, adjusting the scale of the image output from the wearable electronic device, or selecting some menus among menus output from the wearable electronic device. can do.
  • the wearing member may be configured to move along a first direction (e.g., +X direction in FIG. 3) or a second direction opposite to the first direction (e.g., -X direction in FIG. 3). You can.
  • the wheel may be configured to rotate about a first axis (eg, X-axis in FIG. 3) forming the first direction or the second direction.
  • the wearable electronic device includes a display module configured to output an image to the transparent member (e.g., the display module 240 of FIG. 2), and a circuit board (e.g., the circuit board of FIG. 2) that accommodates the processor. (241)) and a battery (eg, battery 243 in FIG. 2) configured to supply power to the processor and the display module.
  • a display module configured to output an image to the transparent member (e.g., the display module 240 of FIG. 2)
  • a circuit board e.g., the circuit board of FIG. 2 that accommodates the processor. (241)
  • a battery eg, battery 243 in FIG. 2
  • an electronic device e.g., the electronic device 200 of FIG. 2 includes a lens frame (e.g., the lens frame 211 of FIG. 2), and at least a portion of the electronic device is positioned relatively to the lens frame.
  • a housing e.g., housing 310 in FIG. 3 that includes a wearing member configured to move (e.g., wearing member 212 in FIG. 2), a processor located within the housing (e.g., processor 111 in FIG. 1), and A wheel for adjusting the position of the wearing member relative to the lens frame (e.g., wheel 330 in FIG. 3) and a rotation detection sensor disposed within the wearing member and configured to detect rotation of the wheel (e.g., FIG.
  • the wearing member includes a first area connected to the lens frame (e.g., first area 3121 in FIG. 3) and a second area configured to move relative to the first area based on rotation of the wheel (e.g., first area 3121 in FIG. 3).
  • the wheel is configured to rotate about a pillar connected to the first area and the second area (e.g., pillar 331 in FIG. 4B) and the pillar, and rotates configured to transmit force to the second area. It may include a region (e.g., rotation region 332 in FIG. 4B).
  • the processor may be configured to perform a specified operation based on rotation of the wheel.
  • the electronic device may further include an elastic member surrounding the pillar portion and located between the first region and the second region (e.g., the elastic member 321 in FIG. 4B). there is.
  • the wheel includes a first wheel for moving the wearing member (e.g., the first wheel 333 in Figure 6a) and a second wheel configured to be detected by the rotation detection sensor (e.g., the first wheel 333 in Figure 6a). It may include a second wheel 334).
  • the electronic device includes at least one first receiving groove (e.g., first receiving groove 351 in FIG. 7B) formed in the housing, a second receiving groove spaced apart from the first receiving groove, and having a ring shape.
  • a receiving groove e.g., second receiving groove 352 in FIG. 7B
  • a protrusion extending from the wheel and configured to be inserted into the first receiving groove or the second receiving groove (e.g., protrusion 353 in FIG. 7B)
  • It may further include a clutch structure (e.g., clutch structure 350 in FIG. 7B) including a.
  • the wheel when the protrusion is inserted into the first receiving groove, the wheel may be configured to rotate together with at least a portion of the wearing member. With the protrusion inserted into the second receiving groove, the wheel may be configured to rotate with respect to the wearing member.
  • the wearable electronic device including the input structure of the present disclosure described above is not limited to the above-described embodiments and drawings, and various substitutions, modifications, and changes are possible within the technical scope of the present disclosure. It will be obvious to those skilled in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

웨어러블 전자 장치가 제공될 수 있다. 웨어러블 전자 장치는 투명 부재를 수용하는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠을 포함하는 입력 구조를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.

Description

휠을 포함하는 웨어러블 전자 장치
본 개시는 휠을 포함하는 웨어러블 전자 장치에 관한 것이다.
전자, 통신 기술이 발달함에 따라, 사용자 신체에 착용하더라도 큰 불편함 없이 사용할 수 있을 정도로 전자 장치가 소형화, 경량화될 수 있다. 예를 들어, 헤드 마운팅 장치(head mounted device, HMD), 스마트 시계(또는 밴드), 콘택트 렌즈형 장치, 반지형 장치, 장갑형 장치, 신발형 장치 또는 의복형 장치와 같은 웨어러블 전자 장치가 상용화되고 있다. 웨어러블 전자 장치는 신체에 직접 착용되므로, 휴대성 및 사용자의 접근성이 향상될 수 있다.
헤드 마운팅 장치는, 사용자의 머리 또는 안면에 착용된 상태로 사용되는 장치로서, 증강 현실(augmented reality, AR)을 사용자에게 제공할 수 있다. 예를 들어, 증강 현실을 제공하는 헤드 마운팅 장치는 안경 형태로 구현되어, 사용자 시야 범위의 적어도 일부 공간에서 사물에 대한 정보를 이미지나 문자 형태로 사용자에게 제공할 수 있다. 헤드 마운팅 장치는, 가상 현실(virtual reality, VR)을 사용자에게 제공할 수 있다. 예를 들어, 헤드 마운팅 장치는 사용자의 양안에 영상을 출력하여, 사용자에게 외부 입력으로부터 제공되는 콘텐츠를 영상 또는 음향 형태로 출력함으로써 뛰어난 몰입감을 제공할 수 있다.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는 투명 부재를 수용하는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠을 포함하는 입력 구조를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.
본 개시의 일 실시예에 따르면, 전자 장치는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠 및 상기 착용 부재 내에 배치되고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서를 포함할 수 있다. 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역 및 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역을 포함할 수 있다. 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부 및 상기 기둥부를 중심으로 회전하도록 구성되고, 상기 제2 영역에 힘을 전달하도록 구성된 회전 영역을 포함할 수 있다. 상기 프로세서는 상기 휠의 회전에 기초하여 지정된 동작을 수행하도록 구성될 수 있다.
도 1은 일 실시예에 따른 인공 현실 제공 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 내부 구성을 설명하기 위한 사시도이다.
도 3은 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 측면도이다.
도 4a 및 도 4b는 본 개시의 입력 구조를 포함하는 전자 장치의 사시도이다.
도 5는 본 개시의 일 실시예에 따른, 착용 센서에 기초한 하우징의 길이 조절을 설명하기 위한 도면이다.
도 6a는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 사시도이다. 도 6b 및 도 6c는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 7a는 본 개시의 일 실시예에 따른, 클러치 구조를 포함하는 전자 장치의 사시도이다. 도 7b는 도 7a의 A-A'선의 단면 사시도이다. 도 7c는 제1 상태의 도 7a의 B-B'선의 단면 사시도이다. 도 7d는 제2 상태의 도 7a의 B-B'선의 단면 사시도이다.
도 8은 본 개시의 일 실시예에 따른, 모터 모듈을 포함하는 전자 장치의 단면 사시도이다.
도 9는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 사시도이다.
도 10a는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 확대도이다. 도 10b는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 단면 사시도이다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 1은 인공 현실 제공 시스템을 설명하기 위한 도면이다.
일 실시예에 따르면, 인공 현실 제공 시스템은 메타버스 서버(100), 전자 장치(101), 적어도 하나의 외부 전자 장치(121, 122, 123, 124), 또는 외부 서버(140) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 인공 현실(artificial reality)(예를 들어, 증강 현실(augmented reality environment) 또는 가상 현실(virtual reality environment) 중 적어도 하나)을 표현하기 위한 데이터를 생성할 수 있다. 메타버스 서버(100)는 증강 현실 또는 가상 현실 이외에도, 사용자의 몰입을 증진할 수 있는 콘텐트를 제공할 수 있으며, 이와 같은 콘텐트는 메타버스를 위한 콘텐트라 명명될 수도 있다. 메타버스 서버(100)는 프로세서(110), 메모리(102), 및/또는 통신 장치(107)를 포함할 수 있다. 한편, 메타버스 서버(100)가 프로세서(110), 메모리(102) 및/또는 통신 장치(107)를 포함하는 것은 단순히 예시적인 것이며, 메타버스 서버(100)의 동작들 중 적어도 일부는 클라우드 서버에 의하여 구현될 수도 있다. 메타버스 서버(100)는 분산형 서버로 구현될 수도 있으며, 서버의 구현 형태에 대하여 제한이 없음을 당업자는 이해할 것이다.
일 실시예에 따르면, 프로세서(110)는 메모리(102)에 저장된 프로그램(또는 어플리케이션)에 포함된 명령어(또는 인스트럭션)를 실행할 수 있다. 프로세서(110)는 예를 들어 CPU(central processing unit), GPU(graphic processing unit), NPU(neural processing unit), TPU(tensor processing unit), DSP(digital signal processor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 및/또는 프로그래머블 논리 장치를 포함할 수 있으나, 프로그램(또는 인스트럭션 또는 명령어)을 실행할 수 있는 수단이라면 제한이 없다. 프로세서(110)는 인공 현실을 위한 프로그램을 실행할 수 있다. 메모리(102)에는 인공 현실을 위한 프로그램이 저장될 수 있다. 일 실시예에 따르면, 메모리(102)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있으며, 예를 들어 하드 디스크 저장 장치, RAM, ROM, 및/또는 플래시 메모리를 포함할 수 있으나, 이는 예시적인 것으로 제한이 없다. 인공 현실을 위한 프로그램은 서버 용 프로그램으로서, 예를 들어 인공 현실을 표현하기 위한 데이터의 생성, 생성된 데이터의 제공, 사용자 입력의 확인, 및/또는 확인된 사용자 입력에 기반하여 업데이트된 인공 현실을 표현하기 위한 데이터의 생성 및 제공의 수행을 야기할 수 있으며, 본 개시의 메타버스 서버(100)에 의하여 수행되는 동작들 중 적어도 일부에 대응하는 명령어(또는 인스트럭션)을 포함할 수 있다. 통신 장치(107)는 네트워크(150)를 통하여 메타버스 서버(100) 및 전자 장치(101) 간의 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 장치(107)는 광역 네트워크(예를 들어, 인터넷)를 제공할 수 있는 장치일 수 있으나, 제한은 없다. 메타버스 서버(100)에 의하여 수행되는 동작은 예를 들어 프로세서(110)에 의하여 수행되거나, 또는 프로세서(110)의 제어에 의하여 다른 하드웨어에 의하여 수행될 수 있다. 메타버스 서버(100)에 의한 동작의 수행을 야기하는 명령어(또는 인스트럭션)은 메모리(102)에 저장될 수도 있다. 메타버스 서버(100)의 버스(108)(또는 통신 인터페이스, 또는 네트워크)를 통하여, 프로세서(110), 메모리(102), 및/또는 통신 장치(107)는 데이터를 송/수신할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 인공 현실을 표현하기 위한 데이터를 이용하여, 인공 현실을 표현하기 위한 적어도 하나의 동작(예를 들어, 시각적 콘텐트(예를 들어, 이미지)의 제공, 청각적 콘텐트(예를 들어, 음성)의 제공, 촉각적 콘텐트(예를 들어, 진동)의 제공, 및/또는 후각적 콘텐트(예를 들어, 냄새)의 제공을 포함할 수 있으나 제한이 없음)을 수행할 수 있다. 전자 장치(101)를 소유하거나, 또는 착용한 사용자는 전자 장치(101)로부터 제공되는 콘텐트에 기반하여 인공 현실을 체험할 수 있다. 전자 장치(101)는 프로세서(111), 메모리(112), 입/출력 장치(113), 디스플레이(114), 센서 장치(115), 카메라(116), 또는 통신 장치(117) 중 적어도 하나를 포함할 수 있다. 프로세서(111)는 예를 들어 CPU, GPU, NPU, TPU, DSP, ASIC, FPGA, 및/또는 프로그래머블 논리 장치를 포함할 수 있으나, 프로그램(또는 인스트럭션 또는 명령어)을 실행할 수 있는 수단이라면 제한이 없다. 예를 들어, 프로세서(111)는 인공 현실을 위한 프로그램을 실행할 수 있다. 인공 현실을 위한 프로그램은 클라이언트용 프로그램으로서, 예를 들어 메타버스 서버(100)로부터의 인공 현실을 표현하기 위한 데이터의 수신, 수신된 데이터에 기반한 인공 현실을 표현하기 위한 적어도 하나의 동작(예를 들어, 시각적 콘텐트(예를 들어, 이미지)의 제공, 청각적 콘텐트(예를 들어, 음성)의 제공, 촉각적 콘텐트(예를 들어, 진동)의 제공, 및/또는 후각적 콘텐트(예를 들어, 냄새)의 제공을 포함할 수 있으나 제한이 없음)), 사용자 입력의 확인 및/또는 사용자 입력(또는 사용자 입력에 대응하는 명령)의 메타버스 서버(100)로의 송신의 수행을 야기할 수 있으며, 본 개시의 전자 장치(101)에 의하여 수행되는 동작들 중 적어도 일부에 대응하는 명령어(또는 인스트럭션)을 포함할 수 있다. 일 실시예에 따르면, 메모리(112)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있으며, 예를 들어 하드 디스크 저장 장치, RAM, ROM, 및/또는 플래시 메모리를 포함할 수 있으나, 이는 예시적인 것으로 제한이 없다. 일 실시예에 따르면, 입/출력 장치(113)는 터치 패드, 버튼, 마우스, 디지털 펜, 및/또는 마이크를 포함할 수 있으나, 사용자 입력을 수신(또는 센싱)하기 위한 장치라면 제한이 없다. 예를 들어, 입/출력 장치(113)의 하나의 예인 터치 스크린 패널은 디스플레이(114)와 일체형으로 구현될 수도 있다. 입/출력 장치(113)는 스피커, 햅틱 모듈, 및/또는 발광 모듈을 포함할 수 있으나, 인공 현실과 연관된 콘텐트를 출력하기 위한 장치라면 제한이 없다. 일 실시예에 따르면, 센서 장치(115)는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. 일 실시예에 따르면, 카메라(116)는 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다. 일 실시예에 따르면, 통신 장치(117)는 네트워크(150)를 통하여 메타버스 서버(100) 및 전자 장치(101) 간의 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 장치(117)는 광역 네트워크(예를 들어, 인터넷)를 제공할 수 있는 장치일 수 있으나, 제한은 없다. 통신 장치(117)는 유선 통신 및/또는 무선 통신을 지원할 수 있다. 예를 들어, 통신 장치(117)는 근거리 통신(예를 들어, 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신)을 지원할 수도 있다. 통신 장치(117)는 근거리 통신에 기반하여, 외부 센서(131) 및/또는 외부 컨트롤러(133)와 데이터를 송수신할 수 있다. 예를 들어, 전자 장치(101)가 스탠드얼론(standalone) 타입으로 구현되는 경우에는 통신 장치(117)는 네트워크(150)에 무선으로 접속하는 기능을 지원할 수 있다. 통신 장치(117)는 LTE, 5G, 6G와 같은 셀룰러 통신을 지원하거나, 및/또는 IEEE 802 시리즈 기반의 통신(예를 들어 Wifi라 명명될 수 있음)을 지원할 수 있다. 통신 장치(117)는 유선 통신을 지원하도록 구현될 수도 있으며, 그 구현 방식에는 제한이 없다. 전자 장치(101)가 논-스탠드얼론(non-standalone) 타입으로 구현되는 경우에는 전자 장치(101)는 네트워크(150)에 연결이 가능한 중계 장치를 통하여, 메타버스 서버(100)와 통신을 수행할 수 있다. 예를 들어, 통신 장치(117)는 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신을 지원할 수 있으며, 근거리 통신을 이용하여 중계 장치를 통한 메타버스 서버(100)와의 통신을 수행할 수 있다. 외부 센서(131)는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. 전자 장치(101)에 의하여 수행되는 동작은 예를 들어 프로세서(111)에 의하여 수행되거나, 또는 프로세서(111)의 제어에 의하여 다른 하드웨어에 의하여 수행될 수 있다. 전자 장치(101)에 의한 동작의 수행을 야기하는 명령어(또는 인스트럭션)은 메모리(112)에 저장될 수도 있다. 전자 장치(101)의 버스(118)(또는 통신 인터페이스, 또는 네트워크)를 통하여, 프로세서(111), 메모리(112), 입/출력 장치(113), 디스플레이(114), 센서 장치(115), 카메라(116), 및/또는 통신 장치(117)는 데이터를 송/수신할 수 있다. 한편, 메타버스 서버(100) 및 전자 장치(101)가 인공 현실을 위한 어플리케이션에 기반하여 데이터를 송수신하는 것은 단순히 예시적인 것으로, 메타버스 서버(100) 및 전자 장치(101)는 웹 기반으로 적어도 일부의 데이터를 송수신할 수도 있음을 당업자는 이해할 것이다.
일 실시예에 따르면, 외부 센서(131)는 예를 들어 링-형 장치, 팔찌형 장치, 머리 부착형 장치일 수 있으나 그 타입 및/또는 부착되는 사용자 신체 부위에는 제한이 없다. 외부 센서(131)는 근거리 통신에 기반하여 센싱된 데이터를 전자 장치(101)로 제공할 수 있다. 컨트롤러(133)는 예를 들어 터치 패드, 버튼, 마우스, 디지털 펜, 및/또는 마이크를 포함할 수 있으나, 사용자 입력을 수신(또는 센싱)하기 위한 장치라면 제한이 없다. 컨트롤러(133)는 근거리 통신에 기반하여 획득된 데이터를 전자 장치(101)로 제공할 수 있다. 일 실시예에서, 컨트롤러(133)는 사용자 입력을 수신하기 위한 장치 이외에 추가적으로 적어도 하나의 센서를 더 포함할 수도 있다. 예를 들어, 컨트롤러(133)는 사용자 입력과 연관된 데이터 및/또는 센싱 데이터를, 근거리 통신에 기반하여 전자 장치(101)로 제공할 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 적어도 하나의 외부 전자 장치(121, 122, 123, 124)와 데이터를 송수신할 수 있다. 메타버스 서버(100)는 적어도 하나의 외부 전자 장치(121, 122, 123, 124)와 데이터에 기반하여 업데이트 및/또는 변경한 인공 현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 데이터에 기반하여 인공 현실을 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 이에 따라, 하나의 인공 현실에서의 복수의 사용자가 존재하는 경우의, 어느 하나의 사용자에 의한 동작이 반영된 인공 현실이 다른 사용자에게도 제공될 수 있다.
일 실시예에 따르면, 외부 서버(140)는 메타버스 서버(100)와 네트워크(150)를 통하여 데이터를 송수신할 수 있다. 외부 센서(131)는 예를 들어 메타버스 서버(100)와 동일한 어플리케이션(또는 동일한 인공 현실)을 지원하는 서버일 수 있다. 또는 외부 서버(140)는 메타버스 서버(100)와 상이한 어플리케이션(또는 상이한 인공 현실)을 지원하는 서버일 수 있다. 예를 들어, 메타버스 서버(100)는 외부 서버(140)의 데이터를 메타버스 서버(100)에서 지원하는 어플리케이션(또는 인공 현실)의 포맷으로 변환할 수 있다. 메타버스 서버(100)는 변환된 데이터를 반영한 인공 현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 상술한 바와 같이, 메타버스 서버(100)는 지원하는 인공 현실과 상이한 인공 현실과도 인터랙트(interact)할 수 있으며, 이러한 기능을 멀티버스(multiverse) 기능이라 명명할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 가상 현실을 지원하는 HMD(head mounted device), 또는 머리에 고정될 수 있는 구조에 연결 가능한 스마트 폰일 수 있다. 사용자는 HMD를 머리에 착용하거나, 또는 스마트 폰이 연결된 구조를 머리에 착용한 채로, 디스플레이(114)에 표시되는 가상 현실을 표현하기 위한 좌안용 이미지 및 우안용 이미지 각각을 양안으로 관찰할 수 있다. 또는 사용자는 전자 장치(101)를 머리에 착용하지 않고, 전자 장치(101)의 디스플레이(114)에 표시되는 가상 현실을 표현하기 위한 이미지를 관찰할 수도 있다. 예를 들어, 전자 장치(101)는 스마트 폰, 태블릿, 범용적인 컴퓨터, 또는 스마트 미러(smart mirror)로 구현될 수 있으나, 제한은 없다.
일 실시예에 따르면, 메타버스 서버(100)는 가상 현실의 적어도 하나의 공간(space)(또는 해당 공간을 응시하는 장면(scene))을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 전자 장치(101)로부터 제 1 사용자의 정보(예를 들어, 제 1 사용자의 계정 정보 및/또는 인증을 위한 정보)를 수신할 수 있다. 메타버스 서버(100)는 제 1 사용자의 정보에 기반하여, 제 1 사용자의 로그 인 절차를 수행할 수 있다. 메타버스 서버(100)는 가상 현실 내의 제 1 사용자에 대응하는 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 제 1 사용자에 대하여 개인적으로(privately) 할당된 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 개방형(opened) 공간 중 제 1 사용자의 위치에 대응하는 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자의 입력에 대응하는 공간을 확인할 수 있다. 메타버스 서버(100)가 제 1 사용자의 위치에 대응하는 공간을 확인하는 방법에는 제한이 없다. 예를 들어, 확인된 공간 내에는 적어도 하나의 오브젝트 및/또는 사용자에 대응하는 아바타(또는 캐릭터)가 포함될 수 있다. 장면의 시점이 1인칭 시점인 경우에는 표현을 위한 데이터는 확인된 공간을 사용자의 관점으로 바라보는 장면에 관련될 수 있다. 경우에 따라서, 확인된 공간을 바라보는 장면에는 제 1 사용자에 대응하는 아바타(또는 캐릭터)가 포함되지 않거나, 또는 신체의 일부(예를 들어, 손 등)만이 포함될 수도 있으나 제한은 없으며, 또는 아바타의 뒷 모습이 포함될 수도 있다. 장면의 시점이 3인칭인 경우에는 표현을 위한 데이터는 사용자에 대응하는 아바타(또는 캐릭터)가 포함되는 공간을 일 방향에서 바라보는 장면에 관련될 수 있다.
일 실시예에 따르면, 사용자의 관점으로 바라보는 장면에는 다른 사용자에 대응하는 아바타가 포함될 수도 있다. 예를 들어, 제 2 사용자는 외부 전자 장치(122)를 이용하여 메타버스 서버(100)에 접속할 수 있다. 메타버스 서버(100)는 제 1 사용자 및 제 2 사용자에 의하여 함께 이용되는 인공 현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 특정 공간에 제 1 사용자 및 제 2 사용자 모두가 존재하는 경우, 제 1 사용자 및 제 2 사용자에 의하여 함께 이용되는 인공 현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 장면의 시점이 1인칭 시점인 경우에는 제 1 사용자를 위한 장면에는 제 2 사용자의 아바타의 적어도 일부가 포함될 수 있다. 예를 들어, 장면의 시점이 3인칭 시점인 경우에는 제 1 사용자를 위한 장면에는 제 1 사용자에 대응하는 제 1 아바타(또는 캐릭터로 명명될 수 있음)의 적어도 일부 및/또는 제 2 사용자에 대응하는 제 2 아바타(또는 캐릭터)의 적어도 일부가 포함될 수 있다. 일 실시예에서, 전자 장치(101)에서 표시되는 화면의 적어도 일부가 메타버스 서버(100)로 제공될 수도 있다. 가상 현실의 공간에는 전자 장치(101)에서 표시되는 화면의 적어도 일부(또는 적어도 일부에 대응하는 오브젝트)가 배치될 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 전자 장치(101)로부터 사용자 입력 및/또는 사용자 입력에 대응하는 명령을 수신할 수 있다. 예를 들어, 전자 장치(101)는 입/출력 장치(113)를 통하여, 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)는 내장된 센서 장치(115)를 통하여, 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)는 통신 장치(117)를 통하여 연결되는 외부 센서(131) 및/또는 컨트롤러(133)로부터의 사용자 입력을 획득할 수 있다. 프로세서(111)는 센서 장치(115)를 통하여 확인된 센싱 데이터에 기반하여, 전자 장치(101)의 움직임 정보를 사용자 입력으로서 확인할 수 있다. 예를 들어, 전자 장치(101)는 통신 장치(117)를 통하여 연결되는 외부 센서(131) 및/또는 컨트롤러(133)로부터의 사용자 입력을 획득할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자 입력에 기반하여 명령을 확인할 수 있다. 명령은 예를 들어 가상 현실 내에서의 이동, 가상 현실 내의 오브젝트의 지정, 가상 현실 내의 오브젝트의 조작, 및/또는 다른 아바타와의 인터랙션을 포함할 수 있으나, 제한이 없다. 전자 장치(101)는 명령을 메타버스 서버(100)로 송신할 수 있다. 예를 들어, 전자 장치(101)는 사용자 입력에 기반한 명령의 확인을 수행하지 않고, 사용자 입력을 메타버스 서버(100)로 송신할 수 있고, 예를 들어, 메타버스 서버(100)가 사용자 입력에 기반하여 명령을 확인할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 명령에 기반하여 가상 현실의 공간을 업데이트하거나, 또는 다른 공간으로 변경할 수 있다. 예를 들어, 명령이 오브젝트의 지정인 경우에는 지정된 오브젝트에 연결된 기능이 반영되도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 오브젝트의 조작인 경우에는 해당 오브젝트의 위치가 변경되도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 아바타의 동작 수행인 경우, 사용자의 아바타가 대응되는 반응을 수행하도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 다른 아바타와의 인터랙션인 경우, 해당 아바타가 대응되는 반응을 수행하도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 이동인 경우에는 표시를 위한 공간이 다른 공간으로 변경될 수 있다. 명령에 기반한 가상 현실의 공간 업데이트 및/또는 변경에 대하여서는 제한이 없음을 당업자는 이해할 것이다. 메타버스 서버(100)는 시각적인 콘텐트의 업데이트 및/또는 변경 이외에도, 청각적 콘텐트의 제공, 촉각적 콘텐트의 제공, 및/또는 후각적 콘텐트의 제공을 수행할 수 있다. 메타버스 서버(100)는 사용자들 사이의 음성 데이터 및/또는 채팅을 위한 텍스트를 중계할 수도 있다. 예를 들어, 메타버스 서버(100)는 명령과, 업데이트 및/또는 변경 사이의 연관 정보를 이용하여, 공간의 업데이트 및/또는 변경을 수행할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력 및/또는 명령을 입력값으로서 수신하여, 공간의 업데이트 및/또는 변경을 출력값으로서 출력하는 인공지능 모델을 저장할 수도 있다. 메타버스 서버(100)는 인공지능 모델의 출력값을 기반으로 공간의 업데이트 및/또는 변경을 수행할 수도 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력 없이도, 해당 공간의 콘텍스트(context)에 기반한 공간의 업데이트 및/또는 변경을 제공하는 인공지능 모델을 저장할 수도 있다. 메타버스 서버(100)는 인공지능 모델을 이용하여 해당 공간의 콘텍스트에 기반한 공간의 업데이트 및/또는 변경을 수행할 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 업데이트된 공간의 표현을 위한 데이터 및/또는 변경된 공간의 표현을 위한 데이터를 전자 장치(101)로 송신할 수 있다. 메타버스 서버(100)는 업데이트 공간의 표현을 위한 데이터 및/또는 변경된 공간의 표현을 위한 데이터를 제 2 사용자에 대응하는 외부 전자 장치(122)로 송신할 수 있다. 이에 따라, 외부 전자 장치(122)에서는 전자 장치(101)의 제 1 사용자에 의하여 업데이트된 공간이 반영된 가상 현실이 표현될 수 있다. 아울러, 외부 전자 장치(122)로부터 메타버스 서버(100)로 송신되는 정보(예를 들어, 사용자 입력 및/또는 명령)에 기반하여, 메타버스 서버(100)가 제 1 사용자 및 제 2 사용자가 함께 이용하는(또는 존재하는) 공간을 업데이트할 수 있다. 메타버스 서버(100)는 업데이트된 공간을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 데이터에 기반하여, 업데이트된 공간을 표현할 수 있다. 상술한 바와 같이, 메타버스 서버(100)는 어느 하나의 사용자에 대응하여 업데이트된 공간을, 해당 공간에 대응하는 다른 사용자의 전자 장치로도 공유할 수 있다. 예를 들어, 시계열적인 공간의 업데이트 및/또는 변경을 사용자 경험이라 명명할 수 있다. 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자 경험과 연관된 적어도 하나의 데이터를 메모리(102 및/또는 112)에 저장할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 경험과 연관된 적어도 하나의 데이터를 사용자 별로(예를 들어, 사용자 계정 별로) 저장할 수 있다. 예를 들어, 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자 경험 중 일 시점에 대한 표현을 위한 데이터를 메모리(102 및/또는 112)에 저장할 수 있다. 이를 설명의 편의 상, 사용자 경험에 대한 캡쳐를 수행한다고 표현할 수 있다. 메타버스 서버(100)는 사용자 경험과 연관된 데이터를 저장할 수 있으며, 이를 라이프 로깅(life logging)이라 명명할 수도 있다. 메타버스 서버(100)는 추가적으로 사용자와 연관된 데이터를 저장할 수도 있다. 예를 들어, 메타버스 서버(100)는 전자 장치(101)로부터의 적어도 하나의 센싱 데이터를 수신하여, 이를 시계열적으로 저장하거나, 또는 최종 값을 업데이트할 수 있다. 메타버스 서버(100)는 적어도 하나의 센싱 데이터에 기반하여, 현실 세계의 사용자에 대응하는 가상 현실에서의 사용자(예를 들어, 아바타)를 생성할 수도 있으며, 이를 디지털 트윈(digital twin)이라 명명할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 특정 사용자가 바라보는 실제 환경에 겹쳐져서 보일 수 있는 적어도 하나의 시각적 오브젝트를 표현하는 증강 현실을 위한 콘텐트를 제공할 수 있다. 한편, 가상 현실에 대한 실시예에서 설명되는 메타버스 서버(100) 및/또는 전자 장치(101)의 동작들 중 적어도 일부는 증강 현실에 대한 실시예에서 설명되는 메타버스 서버(100) 및/또는 전자 장치(101)에 의하여서 수행될 수도 있으며, 그 역 또한 가능함을 당업자는 이해할 것이다. 일 실시예에 따르면, 전자 장치(101)는 증강 현실을 지원하는 안경형 전자 장치, 스마트 렌즈, 또는 촬영된 이미지를 실시간으로 표시할 수 있는 스마트 폰일 수 있다. 사용자는 안경형 전자 장치 또는 스마트 렌즈를 착용한 채로, 안경형 전자 장치 또는 스마트 렌즈의 투명 디스플레이(또는 반투명(semi-transparent) 디스플레이)에 표시되는 시각적 오브젝트를 실제 환경과 함께 관찰할 수 있다. 또는 사용자는 스마트 폰에서 촬영된 이미지 및 해당 이미지 상에 겹치도록 표시되는 시각적 오브젝트를 관찰할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 카메라(116)(예를 들어, 전방을 향하는 카메라)를 통하여 전경 이미지를 획득할 수 있다. 전자 장치(101)는 전경 이미지, 전경 이미지의 일부, 또는 전경 이미지에 기반하여 획득된 3D 모델링 데이터를, 통신 장치(117)를 통하여 메타버스 서버(100)로 송신할 수 있다. 전자 장치(101)는 촬영된 이미지 및/또는 센서 장치(115)에 의한 센싱 데이터에 기반하여, 전자 장치(101)의 자세(orientation)를 확인할 수 있다. 전자 장치(101)는 통신 장치(117)를 통하여 전자 장치(101)의 자세에 대한 데이터를 송신할 수 있다. 전자 장치(101)는 카메라(116)(예를 들어, 후방을 향하는 카메라)를 이용하여 사용자의 눈의 촬영 이미지를 획득할 수 있다. 전자 장치(101)는 눈의 촬영 이미지에 기반하여 사용자의 시선을 확인할 수 있다. 전자 장치(101)는 통신 장치(117)를 통하여 사용자의 시선에 대한 데이터를 송신할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 특정 사용자가 바라보는 실제 환경에 겹쳐져서 보일 수 있는 적어도 하나의 시각적 오브젝트를 표현하기 위한 데이터를, 인공 현실을 표현하기 위한 데이터로서 생성할 수 있다. 메타버스 서버(100)는 예를 들어 전자 장치(101)로부터 수신된 데이터(전경 이미지와 연관된 데이터, 전자 장치(101)의 자세, 및/또는 사용자의 시선)를 분석하고, 분석 결과에 기반하여 적어도 하나의 시각적 오브젝트를 확인할 수 있다. 메타버스 서버(100)는 적어도 하나의 시각적 오브젝트를 표현하기 위한 데이터를, 통신 장치(107)를 통하여 전자 장치(101)로 송신할 수 있다. 적어도 하나의 시각적 오브젝트는 예를 들어 전자 장치(101)의 디스플레이(114)에 의하여 표시될 수 있으며, 사용자는 실제 환경 상에 겹치는 적어도 하나의 시각적 오브젝트를 관찰할 수 있다. 예를 들어, 시각적 오브젝트는 실제 환경에 배치되는 오브젝트과 연관된 정보 및/또는 형태를 가질 수 있다. 예를 들어, 시각적 오브젝트가 실제 환경에 배치되는 오브젝트의 근처에 위치하는 것과 같이 사용자에 의하여 관찰될 수 있도록, 전자 장치(101)는 시각적 오브젝트를 표시할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)에 포함되는 입/출력 장치(113)를 통하거나, 및/또는 외부 센서(131) 및/또는 컨트롤러(133)를 통하여 사용자 입력을 확인할 수 있다. 사용자 입력은 예를 들어 표시되는 시각적 오브젝트의 지정 및/또는 조작을 야기할 수 있다. 전자 장치(101)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령을 메타버스 서버(100)로 송신할 수 있다. 메타버스 서버(100)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령에 기반하여, 인공현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력이 시각적 오브젝트의 지정 및/또는 조작에 기반한 것임을 확인하고, 이에 대응하여 시각적 오브젝트의 변형, 시각적 오브젝트의 이동, 및/또는 시각적 오브젝트의 기능에 대응하는 다른 시각적 오브젝트의 제공을 수행할 수 있으나, 그 수행하는 동작에는 제한이 없다. 메타버스 서버(100)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령에 기반하여 생성된 인공현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)에서는 인공현실을 표현하기 위한 데이터에 기반하여, 인공현실과 연관된 콘텐트를 제공할 수 있다. 상술한 바와 같이, 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자가 시각적 오브젝트에 대한 인터랙션을 수행할 수 있는 기능을 제공할 수 있다.
일 실시예에서, 메타버스 서버(100)는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 인공 현실을 표현하기 위한 데이터로서 생성할 수 있다. 메타버스 서버(100)는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 인공 현실을 표현하기 위한 데이터를 이용하여, 다른 사용자에 대응하는 아바타(또는 캐릭터)를 표시할 수 있다. 이에 따라, 사용자는 실제 환경 상에 겹치는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 관찰할 수 있다. 이에 따라, 사용자는 다른 사용자에 대응하는 아바타(또는 캐릭터)가 실제환경에 위치하는 것과 같이 경험할 수 있다. 다른 사용자에 대응하는 아바타(또는 캐릭터)는 예를 들어 외부 전자 장치(121, 122, 123, 124)에서 획득된 사용자 입력에 의하여 조작될 수 있거나, 및/또는 메타버스 서버(100)에 저장된 인공지능 모델에 기반하여 조작될 수도 있으며, 아바타(또는 캐릭터)의 조작 방식에는 제한이 없다. 아바타(또는 캐릭터)가 조작됨에 기반하여, 메타버스 서버(100)는 조작된 아바타(또는 캐릭터)를 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 데이터에 기반하여 조작된 아바타(또는 캐릭터)를 표현할 수 있으며, 이에 따라, 사용자는 다른 사용자에 대응하는 아바타(또는 캐릭터)가 실제환경에서 동작하는 것과 같이 경험할 수 있다. 상술한 바와 같이, 메타버스 서버(100) 및/또는 전자 장치(101)는 증강 현실과 연관된 사용자 경험을 메모리(102 및/또는 112)에 저장할 수 있다. 예를 들어, 메타버스 서버(100)는 증강 현실과 연관된 사용자 경험과 연관된 적어도 하나의 데이터를 사용자 별로(예를 들어, 사용자 계정 별로) 저장할 수 있다. 예를 들어, 메타버스 서버(100) 및/또는 전자 장치(101)는 증강 현실과 연관된 사용자 경험 중 일 시점에 대한 표현을 위한 데이터를 메모리(102 및/또는 112)에 저장할 수 있다.
한편, 메타버스 서버(100) 및 전자 장치(101)가 인공 현실을 표현하기 위한 데이터의 생성하여, 이를 표현하는 것은 예시적인 것이다. 일 실시예에 따르면, 전자 장치(101)는 인공 현실을 표현하기 위한 데이터의 생성, 및/또는 외부 전자 장치(121, 122, 123, 124)로부터의 데이터에 기반한 인공 현실을 위한 데이터를 생성할 수도 있다. 예를 들어, 전자 장치(101)는 메타버스 서버(100)로부터의 데이터 없이, 인공 현실을 표현하기 위한 데이터를 생성할 수도 있다.
도 2는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 사시도이다.
도 2를 참조하면, 일 실시예에 따른 전자 장치(200)는 하우징(210a, 210b, 210c)에 수용되거나, 하우징(210a, 210b, 210c) 상에 배치되거나, 및/또는 하우징(210a, 210b, 210c)에 형성되는 개구를 통하여 노출되는 된 부품들을 포함할 수 있다. 도 2의 전자 장치(200)는 도 1의 인공 현실 시스템의 전자 장치(101) 및/또는 외부 전자 장치(121)일 수 있다.
일 실시예에 따르면, 전자 장치(200)는 복수 개의 카메라 모듈(253, 254, 255, 256)을 이용하여 사용자가 바라보는 또는 전자 장치(200)가 지향하는 방향(예: -Y 방향)의 사물이나 환경에 관한 시각적인 이미지를 획득할 수 있다. 카메라 모듈(253, 254)은 하우징(210b, 210c)의 상대적으로 상부 상에 배치될 수 있다. 또는 카메라 모듈(253, 254)은 하우징(210b, 210c)에 형성되는 개구를 통하여 노출될 수 있다. 카메라 모듈(253, 254)은 하우징(210b, 210c)의 적어도 하나의 지점을 기준으로 하는 FOV(field of view), 예를 들어 사용자가 전자 장치(200)를 착용한 경우 상대적으로 상측에 대응하는 FOV에 대응하는 이미지를 촬영할 수 있다. 카메라 모듈(253, 254)에 의하여 획득되는 이미지는 예를 들어 SLAM(simultaneous localization and mapping) 및/또는 6DoF에 이용되거나, 피사체에 대한 인식 및/또는 트랙킹에 이용될 수 있다. 카메라 모듈(253, 254)에 의하여 획득되는 이미지는 헤드 트랙킹에도 이용될 수도 있다.
일 실시예에 따르면, 카메라 모듈(255, 256)은 하우징(210b, 210c)의 상대적으로 하부 상에 배치될 수 있다. 또는 카메라 모듈(255, 256)은 하우징(210b, 210c)에 형성되는 개구를 통하여 노출될 수 있다. 여기에서, 카메라 모듈(253, 254)에 대응하는 상부 및 카메라 모듈(255, 256)에 대응하는 하부는 사용자가 전자 장치(200)를 착용한 경우에 정의되는 것으로, 상대적으로 지면에 가까운 부분이 하부로 명명되며, 상대적으로 지면으로부터 먼 부분이 상부로 명명되는 것으로 설명의 편의를 위한 것일 뿐임을 당업자는 이해할 것이다. 카메라 모듈(255, 256)은 하우징(210b, 210c)의 적어도 하나의 지점을 기준으로 하는 FOV, 예를 들어 사용자가 전자 장치(200)를 착용한 경우 상대적으로 하측에 대응하는 FOV에 대응하는 이미지를 촬영할 수 있다. 카메라 모듈(255, 256)에 의하여 획득되는 이미지는 피사체에 대한 인식 및/또는 트랙킹에 이용될 수 있다. 예를 들어, 카메라 모듈(255, 256)에 의하여 획득되는 이미지는 사용자가 전자 장치(200)를 착용한 경우, 머리에 대응하는 부분보다 상대적으로 하측에 배치되는 피사체, 예를 들어 사용자의 손에 대한 인식 및/또는 트랙킹에 이용될 수 있지만, 제한은 없다.
일 실시예에 따라서, 전자 장치(200)는 카메라 모듈(253, 254, 255, 256)에 의하여 촬영된 적어도 하나의 이미지를 이용하여, 피사체의 인식 및/또는 트랙킹을 수행할 수 있다. 전자 장치(200)는 인식 및/또는 트랙킹 결과에 기반하여 확인되는 동작을 수행할 수 있으며, 예를 들어 피사체에 대응하는 위치에 비쥬얼 오브젝트를 제공할 수 있으나 그 동작에는 제한이 없다. 예를 들어, 가상 키보드가 전자 장치(200)에 의하여 제공되는 경우, 사용자의 손의 트랙킹 결과에 기반하여, 가상 키보드에서 지정되는 키들이 인식될 수도 있다. 인식 및/또는 트랙킹 결과에 대응하는 동작은 예를 들어 전자 장치(200)에 의하여 단독으로 수행될 수도 있으나, 이는 예시적인 것으로 동작은 전자 장치(200)와 외부 전자 장치(예: 도 1의 외부 전자 장치(121, 122, 123, 124)) 및/또는 외부 서버(예: 도 1의 외부 서버(140))와의 협력에 기반하여 수행될 수 있다.
일 실시예에 따라, 카메라 모듈(253, 254, 255, 256)은 3DoF, 6DoF의 헤드 트랙킹(head tracking), 손(hand) 검출, 손 트랙킹 및/또는 공간 인식을 위한 것으로, GS(global shutter) 카메라 및/또는 일 수 있으나 제한은 없으며, RS(rolling shutter) 카메라로 구현될 수도 있다.
일 실시예에 따라, 카메라 모듈(251, 252)은 ET(eye tracking) 카메라로, 카메라 모듈(251, 252)에 의하여 촬영된 이미지는 눈동자의 검출 및/또는 트랙킹에 이용될 수 있다. 예를 들어, 촬영된 이미지를 이용하여, 전자 장치(200)의 착용자의 눈동자가 응시하는 방향에 따라 위치하도록 전자 장치(200)에 투영되는 가상 영상의 위치가 결정될 수 있다. 카메라 모듈(251, 252)은 눈동자의 검출 및/또는 트랙킹을 위하여 GS 카메라로 구현될 수 있으나, 제한은 없다.
일 실시예에 따르면, 디스플레이 모듈(240)은 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다. 도시되지는 않지만, 디스플레이 모듈(240)이 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 전자 장치(200)는 디스플레이 모듈(240)의 화면 출력 영역으로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시 예에서, 디스플레이 모듈(240)이 자체적으로 빛을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우, 전자 장치(200)는 별도의 광원을 포함하지 않더라도 사용자에게 양호한 품질의 가상 영상을 제공할 수 있다. 일 실시 예에서, 디스플레이 모듈(240)이 유기 발광 다이오드 또는 마이크로 엘이디로 구현된다면 광원이 불필요하므로, 전자 장치(200)가 경량화될 수 있다. 전자 장치(200)는 디스플레이 모듈(240), 제1 투명 부재(201) 및/또는 제2 투명 부재(202)를 포함할 수 있으며, 사용자는 안면에 전자 장치(200)를 착용한 상태로 사용할 수 있다. 제1 투명 부재(201) 및/또는 제2 투명 부재(202)는 글래스 플레이트, 플라스틱 플레이트 또는 폴리머로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다. 투명 부재(예: 제1 투명 부재(201) 및/또는 제2 투명 부재(202))는 표시 부재로 지칭될 수 있다. 광도파로는 디스플레이 모듈(240)에서 생성한 광원을 사용자 눈으로 전달할 수 있다. 광도파로는 글래스, 플라스틱 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일부 표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시 예에 따르면, 도파관의 일단으로 입사된 광은 나노 패턴에 의해 디스플레이 광도파로 내부에서 전파되어 사용자에게 제공될 수 있다. 또한 Free-form형 프리즘으로 구성된 광도파로는 입사된 광을 반사 미러를 통해 사용자에게 제공될 수 있다. 광도파로는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 광도파로는 광도파로에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원부로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다. 다양한 실시예들에 따라, 회절 요소는 입력 광학 부재/출력 광학 부재(미도시)를 포함할 수 있다. 예컨대, 입력 광학 부재는 입력 그레이팅 영역(input grating area)을 의미할 수 있으며, 출력 광학 부재(미도시)는 출력 그레이팅 영역(output grating area)을 의미할 수 있다. 입력 그레이팅 영역은 (예: Micro LED)로부터 출력되는 빛을 화면 표시부의 투명 부재(예: 제1 투명 부재(201), 제2 투명 부재(202))로 빛을 전달하기 위해 회절(또는 반사)시키는 입력단 역할을 할 수 있다. 출력 그레이팅 영역은 웨이브가이드의 투명 부재(예: 제1 투명 부재(201), 제2 투명 부재(202))에 전달된 빛을 사용자의 눈으로 회절(또는 반사)시키는 출구 역할을 할 수 있다. 다양한 실시예들에 따라, 반사 요소는 전반사(total internal reflection, TIR)를 위한 전반사 광학 소자 또는 전반사 도파관을 포함할 수 있다. 예컨대, 전반사는 광을 유도하는 하나의 방식으로, 입력 그레이팅 영역을 통해 입력되는 빛(예: 가상 영상)이 웨이브가이드의 일면(예: 특정 면)에서 100% 반사되도록 입사각을 만들어, 출력 그레이팅 영역까지 100% 전달되도록 하는 것을 의미할 수 있다. 일 실시예에서, 디스플레이 모듈(240)로부터 방출되는 광은 입력 광학 부재를 통해 웨이브가이드로 광 경로가 유도될 수 있다. 웨이브가이드 내부를 이동하는 광은 출력 광학 부재를 통해 사용자 눈 방향으로 유도될 수 있다. 화면 표시부는 눈 방향으로 방출되는 광에 기반하여 결정될 수 있다. 한 실시 예에 따르면, 제1 투명 부재(201)는 사용자의 우안에 대면하게 배치될 수 있고, 제2 투명 부재(202)는 사용자의 좌안에 대면하게 배치될 수 있다. 다양한 실시 예에 따라 디스플레이 모듈(240)이 투명인 경우 투명 부재(201, 202)는 사용자 눈과 대면하는 위치에 배치되어 화면 표시부를 구성할 수 있다. 전자 장치(200)는 렌즈를 더 포함할 수도 있다. 렌즈는 디스플레이 모듈(240)로 출력되는 화면을 사용자의 눈에 보여질 수 있도록 초점을 조절할 수 있다. 예를 들면 렌즈는 Fresnel 렌즈, Pancake 렌즈 또는 멀티채널 렌즈일 수 있다.
일 실시예에 따르면, 회로 기판(241)은 전자 장치(200)의 구동을 위한 부품들을 포함할 수 있다. 예를 들어, 회로 기판(241)은 적어도 하나의 직접회로 칩(integrated circuit chip)을 포함할 수 있으며, 전자 부품(예: 도 1의 프로세서(111), 메모리(112), 입/출력 장치(113), 센서 장치(115), 및/또는 통신 장치(117)) 중 적어도 하나는 직접회로 칩에 제공될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 하우징(210)의 착용 부재 및/또는 렌즈 프레임 내에 배치될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 전원 전달 구조를 통하여 배터리(243)와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 가요성 인쇄회로기판과 연결되고, 가요성 인쇄회로기판을 통하여 전자 장치의 전자 부품들(예: 광 출력 모듈, 카메라 모듈(251, 252, 253, 254, 255, 256) 및, 발광부에 전기 신호를 전달할 수 있다. 일 실시예에 따르면, 회로 기판(241)은 인터포저를 포함하는 회로 기판을 포함할 수 있다.
일 실시예에 따르면, 배터리(243) 는 전자 장치(200)의 부품과 전원 전달 구조를 통하여 전기적으로 연결될 수 있고, 전자 장치(200)의 부품들에게 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(243)의 적어도 일부는 착용 부재에 배치될 수 있다.
일 실시예에 따르면, 스피커 모듈(245) 은 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따른 스피커 모듈(245)의 적어도 일부는 하우징(210)의 착용 부재 및/또는 렌즈 프레임 내에 배치될 수 있다. 일 실시예에 따르면, 스피커 모듈(245)은 사용자의 귀에 대응되도록 회로 기판(241)과 배터리(243) 사이에 배치될 수 있다. 일 실시예에 따른 스피커 모듈(245)은 사용자의 피부와 뼈의 저주파 진동을 통해 사용자에게 청각 정보를 전송할 수도 있다.
일 실시예에 따르면, 마이크 모듈(247)은 소리를 전기 신호로 변환할 수 있다. 일 실시예에 따르면, 마이크 모듈(247)은 렌즈 프레임(311) 및/또는 착용 부재(312)의 적어도 일부에 배치될 수 있다.
일 실시예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈(247)을 이용하여 사용자의 음성 및/또는 외부 소리를 인식할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈을 통해 획득된 음성 정보 및/또는 추가 정보(예: 사용자의 피부와 뼈의 저주파 진동)에 기반하여, 음성 정보와 주변 잡음을 구별할 수 있다. 예를 들면, 전자 장치(200)는 사용자의 음성을 명확하게 인식할 수 있고, 주변 소음을 줄여주는 기능(예: 노이즈 캔슬링)을 수행할 수 있다.
일 실시예에 따르면, 카메라 모듈(259)은 IR(infrared) 카메라 모듈(예: TOF(time of flight) camera, 또는 structured light camera)를 포함할 수 있다. 예를 들어, IR 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(센서 모듈 또는 Lidar 센서)의 적어도 일부로 동작될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 센서 모듈 (예: Lidar 센서)을 더 포함할 수도 있다. 예를 들면, 센서 모듈은 VCSEL(vertical cavity surface emitting laser), 적외선 센서, 및/또는 포토 다이오드(photodiode) 중 적어도 하나를 포함할 수 있다.
Illumination LED(242)는 부착되는 위치에 따라 그 용도가 다양할 수 있다. 일 사용 예로, 프레임주변에 부착된 Illumination LED(242)는 ET 카메라 모듈(251, 252)로 눈의 움직임을 추적할 때 시선 검출을 용이하게 하기 위한 보조 수단으로 사용되며 적외선 파장의 IR LED가 주로 사용된다. 다른 사용 예로, Illumination LED(242)는 프레임과 템플을 이어주는 힌지(229) 주변이나, 프레임를 연결해 주는 브릿지 주변에 장착된 카메라 모듈와 인접하여 부착되어 카메라 촬영시 주변 밝기를 보충하는 수단으로 사용될 수 있다. 촬영용 카메라 모듈(260)은 예를 들어 상대적으로 고화질의 전자 장치(200)의 전경에 대한 이미지를 촬영할 수 있다.
일 실시예에 따르면, 전자 장치(200)의 형상은 선택적으로 설계될 수 있다. 도 2에서는 안경 형태의 전자 장치(200)가 도시되었으나, 전자 장치(300)의 형상은 이에 한정되지 않는다. 예를 들어, 본 문서에서 도 3에서는 머리에 착용할 수 있는 HMD(head mounted device)라면, 전자 장치(200)의 형상은 이에 한정되지 않는다.
도 3은 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 측면도이다. 도 4a 및 도 4b는 본 개시의 입력 구조를 포함하는 전자 장치의 사시도이다.
도 3, 도 4a 및/또는 도 4b를 참조하면, 전자 장치(300)는 하우징(310) 및 입력 구조(320)를 포함할 수 있다. 도 3, 도 4a 및 도 4b의 전자 장치(300)의 하우징(310)의 구성은 도 2의 전자 장치(200) 및 하우징(210a, 210b, 210c)의 구성과 전부 또는 일부와 동일할 수 있다. 설명의 편의를 위하여, 도 4b에서 하우징(310) 내에 배치된 부품의 설명을 위하여, 전자 장치(300)의 일부 구조(예: 하우징(310)의 일부)는 제외되었다.
일 실시예에 따르면, 전자 장치(200)는 전자 장치(200)의 외관을 형성하는 하우징(310)을 포함할 수 있다. 상기 하우징(310)은 전자 장치(200)의 부품들이 배치될 수 있는 공간을 제공할 수 있다. 예를 들어, 하우징(310)은 렌즈 프레임(311), 및 적어도 하나의 착용 부재(312)를 포함할 수 있다. 렌즈 프레임(311)은 투명 부재(예: 도 2의 제1 투명 부재(201) 및/또는 제2 투명 부재(202))를 수용하는 하우징(310)의 일부일 수 있다. 착용 부재(312)는 렌즈 프레임(311)에서 연장된 하우징(310)의 일부일 수 있다.
일 실시예에 따르면, 렌즈 프레임(311)은 투명 부재(201)의 적어도 일부를 수용할 수 있다. 예를 들어, 렌즈 프레임(311)은 투명 부재(201)의 가장자리의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 렌즈 프레임(311)은 투명 부재(201) 중 적어도 하나를 사용자의 눈에 상응하게 위치시킬 수 있다. 일 실시예에 따르면, 렌즈 프레임(311)은 일반적인 안경 구조의 림(rim)일 수 있다.
일 실시예에 따르면, 착용 부재(312)는 렌즈 프레임(311)에서 연장될 수 있다. 예를 들어, 착용 부재(312)는 렌즈 프레임(311)의 단부에서 연장되고, 렌즈 프레임(311)과 함께, 사용자의 신체(예: 귀)에 지지 또는 위치될 수 있다. 일 실시예에 따르면, 착용 부재(312)는 안경 다리 또는 템플(temple)로 지칭될 수 있다.
일 실시예에 따르면, 착용 부재(312)의 적어도 일부는 렌즈 프레임(311)에 대하여 상대적으로 이동할 수 있다. 예를 들어, 착용 부재(312)의 적어도 일부는 렌즈 프레임(311)에 대하여 슬라이드 이동 및/또는 회전 이동할 수 있다.
일 실시예에 따르면, 착용 부재(312)의 적어도 일부는 제1 방향(+X 방향) 또는 제2 방향(-X 방향)을 기준으로 렌즈 프레임(311)에 대하여 이동하고, 휠(330)은 상기 제1 방향 또는 상기 제2 방향을 중심으로 회전할 수 있다.
일 실시예에 따르면, 착용 부재(312)는 렌즈 프레임(311)에 연결된 제1 영역(3121)을 포함할 수 있다. 본 문서에서는 제1 영역(3121)이 착용 부재(312)의 일부로 기재되었으나, 이는 선택적이다. 예를 들어, 일 실시예에서, 제1 영역(3121)은 렌즈 프레임(311)의 일부로 해석될 수 있다.
일 실시예에 따르면, 착용 부재(312)는 제1 영역(3121)에 대하여 이동하도록 구성된 제2 영역(3122)을 포함할 수 있다. 제2 영역(3122)이 슬라이드 이동함으로써, 착용 부재(312)의 길이 및/또는 하우징(310)의 길이는 변경될 수 있다. 착용 부재(312)의 길이가 변경됨으로써, 전자 장치(200)는 사용자의 신체에 크기에 적절하게 변경되어, 사용자의 착용감이 향상될 수 있다. 제2 영역(3122)의 제1 영역(3121)에 대한 이동은 착용 부재(312) 및/또는 하우징(310)의 길이 변경으로 지칭될 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 휠(330)의 회전에 기초하여 제1 영역(3121)에 대하여 이동할 수 있다. 제2 영역(3122)이 전자 장치(300)의 외부로 노출된 길이(예: 커버부(3123) 내에 삽입된 크기 및/또는 길이)는 휠(330)의 회전에 기초하여 변경될 수 있다. 예를 들어, 휠(330)이 시계 방향으로 회전될 때, 제2 영역(3122)은 제1 방향(예: +X 방향)으로 이동하고, 휠(330)이 반 시계 방향으로 회전될 때, 제2 영역(3122)은 제1 방향의 반대인 제2 방향(-X 방향)으로 이동될 수 있다.
일 실시예에 따르면, 착용 부재(312)는 제2 영역(3122)의 이동을 안내하도록 구성된 커버부(3123)를 포함할 수 있다. 커버부(3123)는 착용 부재(312)의 적어도 일부(예: 제1 영역(3121)의 단부 및/또는 제2 영역(3122)의 단부))를 덮을 수 있다. 일 실시예에 따르면, 커버부(3123)는 제2 영역(3122)의 적어도 일부를 덮는 외측벽(3123a)을 포함할 수 있다. 제2 영역(3122)은 외측벽(3123a)을 따라서 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 일 실시예에 따르면, 커버부(3123)는 휠(330)의 적어도 일부를 덮을 수 있다. 예를 들어, 커버부(3123)은 휠(330)의 휠 영역(332)을 전자 장치(300)의 외부로 노출시키기 위한 홀을 포함할 수 있다. 일 실시예에 따르면, 커버부(3123)은 제외되거나, 하우징(310)의 일부(예: 제1 영역(3121))와 일체로 형성될 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 휠(330)에 의하여 힘을 제공받을 수 있다. 예를 들어, 제2 영역(3122)은 휠(330)에 접촉하도록 구성된 제1 측벽(3122a), 및 제2 측벽(3122b)을 포함할 수 있다. 예를 들어, 휠 영역(332)은 제1 방향(+X 방향)으로 이동할 수 있다. 휠 영역(332)이 제1 방향(+X 방향)으로 이동될 때, 제2 영역(3122)의 제1 측벽(3122a)은 휠 영역(332)에 의하여 힘을 제공받을 수 있다. 제1 측벽(3122a)이 힘을 제공받음으로써, 제2 영역(3122)은 제1 방향(+X)으로 이동될 수 있다. 예를 들어, 휠 영역(332)은 제2 방향(-X 방향)으로 이동할 수 있다. 휠 영역(332)이 제2 방향(-X 방향)으로 이동될 때, 제2 영역(3122)의 제2 측벽(3122b)은 휠 영역(332)에 의하여 힘을 제공받을 수 있다. 제2 측벽(3122b)이 힘을 제공받음으로써, 제2 영역(3122)은 제2 방향(-X)으로 이동될 수 있다. 제1 측벽(3122a)은 제2 측벽(3122b)와 실질적으로 평행하게 배열될 수 있다.
일 실시예에 따르면, 착용 부재(312)의 슬라이드 거리는 제1 측벽(3122a)와 제2 측벽(3122b) 사이의 거리에 기초하여 변경될 수 있다. 일 실시예에서, 제1 측벽(3122a)와 제2 측벽(3122b)는 약 30mm만큼 이격되고, 착용 부재(312)가 변경되는 길이는 30mm 범위 이내일 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 적어도 하나의 제3 측벽(3122c)를 포함할 수 있다. 일 실시예에 따르면, 제3 측벽(3122c)은 제1 측벽(3122a) 또는 제2 측벽(3122b)와 실질적으로 수직할 수 있다. 제3 측벽(3122c)은 커버부(3123)의 일부(예: 외측벽(3123b))에 의하여 덮일 수 있다. 제3 측벽(3122c)의 적어도 일부가 커버부(3123)에 의하여 둘러싸임으로써, 제2 영역(3122)의 이탈이 방지 또는 감소될 수 있다.
일 실시예에 따르면, 전자 장치(200)는 착용 부재(312) 및 렌즈 프레임(311)에 연결된 힌지(미도시)를 포함할 수 있다. 착용 부재(312)는 상기 힌지를 이용하여 렌즈 프레임(311)에 회전 가능할 수 있다.
일 실시예에 따르면, 입력 구조(320)는 하우징(310)의 길이를 조정하기 위한 휠(330)을 포함할 수 있다. 일 실시예에 따르면, 휠(330)은 기둥부(331) 및 휠 영역(332)를 포함할 수 있다. 기둥부(331)는 착용 부재(312)에 연결될 수 있다. 예를 들어, 기둥부(331)의 제1 단부(331a)는 제1 영역(3121)에 연결되고, 제1 단부(331a)의 반대인 제2 단부(331b)는 제2 영역(3122)에 연결될 수 있다. 기둥부(331)는 휠(330)의 회전을 안내하기 위한 나사 산을 포함할 수 있다.
일 실시예에 따르면, 휠 영역(332)은 기둥부(331)를 따라서 회전 및/또는 이동할 수 있다. 예를 들어, 휠 영역(332)은 기둥부(331)에 형성된 나사 선을 따라서, 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 휠 영역(332)은 착용 부재(312)의 일부(예: 제2 영역(3122))에 힘을 전달할 수 있다. 예를 들어, 휠 영역(332)은 제2 영역(3122)의 제1 측벽(3122a) 또는 제2 측벽(3122b)에 접촉될 수 있다. 휠 영역(332)의 적어도 일부는 전자 장치(300)의 외부로 노출될 수 있다. 휠(330)은 사용자의 입력(예: 손가락을 이용한 회전)에 기초하여, 회전될 수 있다.
일 실시예에 따르면, 입력 구조(320)는 착용 부재(312)의 의도하지 않은 길이 변화를 방지 또는 감소시키기 위한 탄성 부재(321)를 포함할 수 있다. 탄성 부재(321)는 제2 영역(3122)에 힘(예: 탄성력)을 제공할 수 있다. 예를 들어, 탄성 부재(321)는 제1 영역(3121)과 제2 영역(3122)(예: 제1 측벽(3122a) 사이에 위치할 수 있다. 탄성 부재(321)는 스프링일 수 있다.
일 실시예에 따르면, 탄성 부재(321)의 길이가 감소될 때(예를 들어, 제2 영역(3122)이 커버부(3123)에서 노출된 길이가 감소될 때), 탄성 부재(321)는 제1 측벽(3122a)에 힘을 제공할 수 있다. 사용자에 의한 휠(330)의 회전으로 인하여 탄성 부재(321)가 제공하는 탄성력보다 큰 힘이 입력 구조(320)예 제공될 때, 제2 영역(3122)은 제1 방향(+X 방향)으로 이동할 수 있다. 사용자에 의한 힘이 제공되지 않은 상태일 때, 제2 영역(3122)의 제2 방향(-X 방향)으로의 이동을 위한 힘(예: 휠 영역(332)와 기둥부(331) 사이의 마찰력)은 탄성 부재(321)의 탄성력보다 강할 수 있다. 일 실시예에 따르면, 탄성 부재(321)는 기둥부(331)의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 탄성 부재(321)는 스토퍼 구조로 대체될 수 있다.
일 실시예에 따르면, 하우징(310)의 형상은 선택적으로 설계될 수 있다. 예를 들어, 렌즈 프레임(311) 및/또는 착용 부재(312)의 길이 또는 형상은 전자 장치(300)의 설계에 기초하여 변경될 수 있다.
도 5는 본 개시의 일 실시예에 따른, 착용 센서에 기초한 하우징의 길이 조절을 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(300)는 하우징(310) 및 착용 감지 센서(360)를 포함할 수 있다. 도 5의 하우징(310)의 구성은 도 3의 하우징(310)의 구성과 전부 또는 일부와 동일하고, 도 5의 착용 감지 센서(360)의 구성은 도 1의 센서 장치(115)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 착용 감지 센서(360)는 전자 장치(300)의 사용자의 신체(예: 머리)에 대한 착용 여부를 감지할 수 있다. 예를 들어, 착용 감지 센서(360)는 광 센서(예: 적외선 센서), 및/또는 근접 센서를 포함할 수 있다. 착용 감지 센서(360)는 하우징(310) 내 또는 하우징(310) 상에 위치할 수 있다. 착용 감지 센서(360)는 복수의 지점들에서 전자 장치(300)의 착용 여부를 감지할 수 있다. 예를 들어, 착용 감지 센서(360)는 제1 착용 감지 센서(361) 및 제1 착용 감지 센서(361)와 이격된 제2 착용 감지 센서(362)를 포함할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 착용 감지 센서(360)에서 감지된 신호에 기초하여, 전자 장치(300)의 착용 여부를 판단할 수 있다. 일 실시예에 따르면, 상기 프로세서(111)는 전자 장치(300)가 사용자의 신체(예: 머리)에 착용되었다고 판단되는 경우, 길이 조절 구조(예: 모터 및/또는 액추에이터)를 이용하여 하우징(310)의 길이를 조정할 수 있다. 상기 프로세서(111)에 의하여 수행되는 하우징(310)(또는 착용 부재(312))의 길이 조절은 자동 길이 조정으로 지칭될 수 있다. 예를 들어, 전자 장치(300)는 휠(예: 도 3, 도 4a 및/또는 도 4b의 휠(330))을 회전시키거나 제2 영역(3122)을 이동시키기 위한 모터 및/또는 액추에이터를 포함할 수 있다. 프로세서(111)는 상기 착용 감지 센서(360)에서 감지된 신호 및/또는 데이터에 기초하여, 상기 모터 및/또는 액추체이터를 구동시키기 위한 신호를 생성할 수 있다.
도 6a는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 사시도이다. 도 6b 및 도 6c는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 6a, 도6b 및/또는 도 6c를 참조하면, 전자 장치(300)는 하우징(310) 및 휠(330)을 포함할 수 있다. 도 6a, 도6b 및/또는 도 6c의 전자 장치(300), 하우징(310) 및 휠(330)의 구성은 도 3, 도 4a 및/또는 도 4b의 전자 장치(300), 하우징(310) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 6a, 도6b 및/또는 도 6c에 도시된 전자 장치(300)의 구조(예: 제1 휠(333) 및 제2 휠(334))은 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다.
일 실시예에 따르면, 휠(330)은 복수의 휠(333, 334)들을 포함할 수 있다. 예를 들어, 휠(330)은 제1 휠(333) 및 제2 휠(334)을 포함할 수 있다. 제2 휠(334)은 제1 휠(333)과 실질적으로 평행하게 위치할 수 있다.
일 실시예에 따르면, 제1 휠(333)은 착용 부재(312)의 이동을 구현할 수 있다. 예를 들어, 제1 휠(333)의 회전에 기초하여, 착용 부재(312)의 제2 영역(3122)은 제1 영역(3121)에 대하여 이동할 수 있다. 일 실시예에 따르면, 제1 휠(333)의 구성은 도 3, 도 4a 또는 도 4b에 도시된 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 입력 구조(320)는 제1 휠(333)에 연결된 돌출부(333a) 및 돌출부(333a)의 움직임을 제한하기 위한 스토퍼(333b)를 포함할 수 있다. 스토퍼(333b)는 착용 부재(312)의 의도하지 않은 길이 변화를 방지 또는 감소시킬 수 있다. 예를 들어, 스토퍼(333b)는 지정된 크기 이상의 힘이 제1 휠(333)에 전달되지 않을 때, 돌출부(333a) 및/또는 제1 휠(333)의 움직임을 방지 또는 감소시킬 수 있다.
일 실시예(예: 도 6b)에 따르면, 입력 구조(320)는 제2 영역(3122)의 움직임의 경로를 안내하기 위한 레일부(333c)를 포함할 수 있다. 예를 들어, 제2 영역(3122)은 레일부(333c)를 따라서, 제1 영역(3121)에 대하여 상대적으로 이동할 수 있다.
착용 부재(312)의 이동을 구현하기 위한 입력 구조(320)의 구조는 선택적일 수 있다. 예를 들어, 입력 구조(320)의 구조는 제1 휠(333)의 회전에 기초하여 제2 영역(3122)이 제1 영역(3121)에 대하여 이동 가능하다면, 제한 없이 전자 장치(300)에 적용될 수 있다.
일 실시예(예: 도 6c)에 따르면, 제2 휠(334)은 지정된 동작을 수행하기 위한 사용자 입력을 감지할 수 있다. 예를 들어, 전자 장치(300)는 휠(330)의 적어도 일부(예: 제2 휠(334))의 회전의 방향, 회전수, 및/또는 회전 속도를 감지하기 위한 회전 감지 센서(340)를 포함할 수 있다. 일 실시예에 따르면, 회전 감지 센서(340)는 제2 휠(334)의 회전을 감지하기 위한 초음파 센서, 레이저 센서, 발전량 센서 및/또는 인코더일 수 있다. 예를 들어, 제2 휠(334)은 지정된 동작을 수행하기 위한 사용자의 제스처를 감지할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 회전 감지 센서(340)를 수용하는 기판(341)을 포함할 수 있다. 기판(341)은 프로세서(예: 도1 의 프로세서(111))에 전기적으로 연결될 수 있다.
일 실시에에 따르면, 상기 프로세서(111)는 회전 감지 센서(340)에서 감지된 사용자 입력에 기초하여 지정된 동작을 수행할 수 있다. 예를 들어, 상기 프로세서(111)는 회전 감지 센서(340)에서 감지된 제스처에 기초하여, 메모리(예: 도 1의 메모리(112))에 저장된 지정된 프로그램을 수행할 수 있다.
도 7a는 본 개시의 일 실시예에 따른, 클러치 구조를 포함하는 전자 장치의 사시도이다. 도 7b는 도 7a의 C-C'선의 단면 사시도이다. 도 7c 및 도 7d는 도 7a의 D-D'선의 단면 사시도이다.
도 7a, 도 7b, 도 7c 및 도 7d를 참조하면, 전자 장치(300)는 하우징(310), 휠(330) 및 클러치 구조(350)를 포함할 수 있다. 도 7a, 도 7b, 도 7c 및/또는 도 7d의 전자 장치(300), 하우징(310) 및 휠(330)의 구성은 도 3의 전자 장치(300), 하우징(310) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 7a, 도 7b, 도 7c 및/또는 도 7d에 도시된 전자 장치(300)의 구조(예: 클러치 구조(350))는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 하나의 휠(330)을 이용하여 상이한 동작을 구현할 수 있다. 예를 들어, 클러치 구조(350)는 하나의 휠(330)의 회전에 기초하여 착용 부재(312)의 길이 변경 또는 지정된 동작의 수행을 구현할 수 있다. 일 실시예에 따르면, 클러치 구조(350)는 휠(330)이 연결된 구조물을 변경시킬 수 있다. 휠(330)의 회전에 대응하는 전자 장치(300)의 동작은 휠(330)이 연결된 구조물에 기초하여 변경될 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 적어도 하나의 제1 수용 홈(351) 및 제1 수용 홈(351)과 이격된 제2 수용 홈(352)을 포함할 수 있다. 제1 수용 홈(351)은 휠(330)과 착용 부재(312)의 제2 영역(3122)을 함께 회전시키기 위한 형상을 가질 수 있다. 예를 들어, 제1 수용 홈(351)은 제2 영역(3122)에 형성된 적어도 하나의 홈일 수 있다. 제2 수용 홈(352)은 돌출부(353)를 이동 가능하게 수용할 수 있다. 예를 들어, 제2 수용 홈(352)은 링 형상의 홈일 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 돌출부(353)를 포함할 수 있다. 돌출부(353)는 클러치 구조(350)의 움직임에 따라, 제1 수용 홈(351) 또는 제2 수용 홈(352)에 삽입될 수 있다. 돌출부(353)은 휠(330)의 내측면에서 돌출된 휠(330)의 일부일 수 있다. 일 실시예에 따르면, 돌출부(353)는 휠(330)과 일체로 형성될 수 있다.
일 실시예에 따르면, 휠(330)은 제1 방향(+X 방향) 또는 제2 방향(-X 방향)을 따라서 이동할 수 있다. 휠(330)의 이동에 기초하여, 돌출부(353)의 위치는 변경될 수 있다. 돌출부(353)가 제1 수용 홈(351)에 위치한 상태(예: 도 7c)에서, 휠(330)의 회전에 기초하여, 착용 부재(312)의 적어도 일부(예: 제2 영역(3122))은 이동할 수 있다. 예를 들어, 휠(330)은 제2 영역(3122)과 함께 회전할 수 있다. 일 실시에에 따르면, 제2 영역(3122)은 제1 영역(3121)의 스크류 홈(3121d)에 삽입된 연장부(3122d)를 포함할 수 있다. 돌출부(353)가 제2 수용 홈(352)에 위치한 상태(예: 도 7d)에서, 휠(330)은 제1 영역(3121) 및 제2 영역(3122)에 대하여 회전할 수 있다. 예를 들어, 휠(330)은 제2 영역(3122)과 별도로 회전할 수 있다. 돌출부(353)가 제2 수용 홈(352) 내에 위치한 상태는 프리 휠(free wheel) 상태로 지칭될 수 있다. 일 실시예에 따르면, 전자 장치(300)의 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))는 제2 수용 홈(352)내에서 회전하도록 구성된 휠(330)의 회전을 감지할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 클러치 구조(350)의 적어도 일부를 이동시킬 수 있다. 예를 들어, 전자 장치(300)는 휠(330) 및/또는 돌출부(353)을 이동시킬 수 있는 구동 구조(예: 모터 및/또는 액추에이터)를 포함하고, 프로세서(111)는 상기 구동 구조를 이용하여 휠(330) 및/또는 돌출부(353)을 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동시킬 수 있다.
일 실시예에 따르면, 전자 장치(300)는 착용 감지 센서(예: 도 5의 착용 감지 센서(360))를 이용하여 클러치 구조(350)를 이동시킬 수 있다. 예를 들어, 클러치 구조(350)는 사용자의 전자 장치(300)의 착용 여부에 기초하여 이동할 수 있다. 일 실시예에 따르면, 상기 프로세서(111)는 상기 착용 감지 센서(360)를 이용하여 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 돌출부(353)가 제2 수용 홈(352) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다. 상기 프로세서(111)는 상기 착용 감지 센서(360)를 이용하여 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 돌출부(353)가 제1 수용 홈(351) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다. 일 실시예에 따르면, 프로세서(111)는 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 전자 장치(300)를 사용자의 신체에 밀착시키기 위하여, 돌출부(353)가 제1 수용 홈(351) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킨 후, 돌출부(353)가 제2 수용 홈(352) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다.
일 실시예에 따르면, 돌출부(353)가 제1 수용 홈(351) 내에 위치한 상태는 길이 조정 상태 또는 제1 상태로 지칭될 수 있다. 돌출부(353)가 제2 수용 홈(352) 내에 위치한 상태는 고정 상태, 동작 상태, 또는 제2 상태로 지칭될 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 입력을 감지하기 위한 입력 장치(예: 도 1의 입/출력 장치(113))를 포함할 수 있다. 상기 프로세서(111)는 상기 입력 장치에서 감지된 사용자의 입력에 기초하여, 클러치 구조(350)의 적어도 일부를 이동시킬 수 있다. 상기 입력 장치는 하우징(310)의 외부로 노출된 버튼일 수 있다. 일 실시예에 따르면, 휠(330) 및/또는 돌출부(353) 의 위치 변경은 수동으로 수행될 수 있다.
도 8은 본 개시의 일 실시예에 따른, 모터 모듈을 포함하는 전자 장치의 단면 사시도이다.
도 8을 참조하면, 전자 장치(300)는 렌즈 프레임(311), 착용 부재(312), 휠(330) 및 구동 구조(370)를 포함할 수 있다.
도 8의 전자 장치(300), 렌즈 프레임(311), 착용 부재(312) 및 휠(330)의 구성은 도 3의 전자 장치(300), 렌즈 프레임(311), 착용 부재(312) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 8에 도시된 전자 장치(300)의 구조는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다. 도 8에서는 우측 착용 부재(예: 제1 착용 부재(312a))에 휠(330)이 배치된 구조가 도시되었으나, 이는 예시적이다. 예를 들어, 휠(330)은 제1 착용 부재(312a) 또는 제2 착용 부재(312b) 중 적어도 하나에 위치할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 비대칭적으로 설계될 수 있다. 예를 들어, 전자 장치(300)는 렌즈 프레임(311), 렌즈 프레임(311)의 일 단부에 연결된 제1 착용 부재(312a) 및 제1 착용 부재(312a)와 이격된 제2 착용 부재(312b)를 포함할 수 있다. 제2 착용 부재(312b)는 제1 착용 부재(312a)와 실질적으로 평행하게 배치될 수 있다.
일 실시예에 따르면, 제1 착용 부재(312a) 내에 배치된 부품은 제2 착용 부재(312b) 내에 배치된 부품과 상이할 수 있다. 예를 들어, 휠(330)은 하나의 착용 부재(예: 제1 착용 부재(312a)) 상에 배치되고, 다른 착용 부재(예: 제2 착용 부재(312b)상에는 배치되지 않을 수 있다.
일 실시예에 따르면, 전자 장치(300)는 휠(330)이 배치되지 않은 착용 부재(예: 제2 착용 부재(312b))를 이동시키기 위한 구동 구조(370)를 포함할 수 있다. 구동 구조(370)는 모터(371) 및 모터(371)에서 발생된 구동력을 이용하여 제2 착용 부재(312b)의 일부(예: 제2 영역(3122))를 이동시키기 위한 기어 구조(372)를 포함할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 휠(330)에서 획득된 정보에 기초하여, 휠(330)이 위치하지 않은 착용 부재(예: 제2 착용 부재(312b))를 구동시키기 위한 신호를 생성할 수 있다. 예를 들어, 상기 프로세서(111)는 제1 착용 부재(312a)에 연결된 휠(330)을 이용하여 사용자의 입력을 감지할 수 있다. 프로세서(111)는 휠(330)의 회전 값(예: 회전 각도 및/또는 회전 속도)를 판단할 수 있다. 상기 프로세서(111)는 감지된 사용자 입력에 기초하여, 구동 구조(370)를 동작시킬 수 있다. 예를 들어, 상기 프로세서(111)는 휠(330)의 회전 값에 대응하는 제1 착용 부재(312a)의 거리 값을 판단하고, 제1 착용 부재(312a)가 이동한 거리만큼 제2 착용 부재(312b)가 이동하도록, 제2 착용 부재(312b)를 이동시킬 수 있다.
일 실시예에 따르면, 제1 착용 부재(312a)의 길이(예: 제2 영역(3122)의 제1 영역(3121)에 대한 이동)는 휠(330)의 회전으로 인하여 변경될 수 있다. 예를 들어, 제2 영역(3122)은 휠(330)의 회전에 기초하여 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 일 실시예에 따르면, 제2 착용 부재(312b)는 구동 구조(370)의 동작으로 인해 변경될 수 있다. 예를 들어, 제2 착용 부재(312b)의 제2 영역(3122)은 모터(371)에서 발생된 구동력에 기초하여 이동하는 기어 구조(372)에 기초하여 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다.
도 9는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 사시도이다. 도 10a는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 확대도이다. 도 10b는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 단면 사시도이다.
도 9, 도 10a 및 도 10b를 참조하면, 전자 장치(400)는 렌즈 프레임(411) 및 착용 부재(412)를 포함하는 하우징(410) 및 휠(430)을 포함할 수 있다. 도 9, 도 10a 및/또는 도 10b의 전자 장치(400), 하우징(410) 및 휠(430)의 구성은 도 3의 전자 장치(300), 하우징(예: 렌즈 프레임(311) 및 착용 부재(312)) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 휠(430)은 터치 패드 모듈에서 감지되는 가상 휠을 포함할 수 있다. 예를 들어, 휠(430)은 터치 패턴을 포함하는 디스플레이 모듈이고, 전자 장치(400)는 휠(430)을 이용하여 정전 용량을 감지하여, 사용자의 제스처를 감지할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 다양한 제스처를 감지할 수 있다. 예를 들어, 프로세서(111)는 휠(430)에 가해진 압력 및/또는 휠(430)에 근접한 입력의 개수(예: 복수의 지점들에서 정전 용량의 변화 감지)를 이용하여 다양한 동작들을 수행할 수 있다. 예를 들어, 프로세서(111)는 지정된 동작을 이용하여 선택 인터랙션을 구현할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 휠(430)을 이용하여 착용 부재(412)의 렌즈 프레임(411)에 대한 위치를 조정할 수 있다. 예를 들어, 프로세서(예: 도 1의 프로세서(111))는 휠(430)에서 감지된 결과에 기초하여, 구동 구조(예: 도 8의 구동 구조(370))를 동작시킬 수 있다. 착용 부재(412)의 일부(예: 제2 영역(4122))는 구동 구조(370)에 의하여, 렌즈 프레임(411) 및/또는 착용 부재(412)의 다른 일부(예: 제1 영역(4121))에 대하여 이동할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 휠(430)을 이용하여 지정된 동작을 수행할 수 있다. 예를 들어, 상기 프로세서(111)는 입력 구조(예: 휠(430))를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행할 수 있다. 지정된 동작은 메모리(예: 도 1의 메모리(112))에 저장된 데이터를 이용하여 구현될 수 있다.
일 실시예에 따르면, 전자 장치(300)는 복수의 휠(430)들을 포함할 수 있다. 예를 들어, 전자 장치(400)는 제1 착용 부재(412a)에 연결된 제1 휠(430a) 및 제2 착용 부재(412b)에 연결된 제2 휠(430b)을 포함할 수 있다. 일 실시예에 따르면, 제1 휠(430a) 또는 제2 휠(430b) 중 적어도 하나는 착용 부재(412)의 길이를 변경시킬 수 있다. 일 실시예에 따르면, 전자 장치(400)는 제1 휠(430a) 또는 제2 휠(430b) 중 적어도 하나를 이용하여 지정된 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 휠(430a)은 제2 휠(430b)과 상이한 동작을 수행할 수 있다. 예를 들어, 제1 휠(430a)은 착용 부재(412)의 길이를 변경시키기 위한 구성이고, 제2 휠(430b)은 전자 장치(400)의 지정된 동작(예: 음량 조절 및/또는 메뉴 선택)을 수행하기 위한 구성일 수 있다.
도 9, 도 10a 및/또는 도 10b에 도시된 전자 장치(400)의 구조(예: 휠(430))는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다. 예를 들어, 전자 장치(400)는 물리적 휠(330)과 함께 도 9, 도 10a 및/또는 도 10b의 휠(예: 가상 휠)(430)을 포함할 수 있다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 11a 및 도 11b를 참조하면, 전자 장치(예: 도 3의 전자 장치(300) 및/또는 도 9의 전자 장치(400))의 프로세서(예: 도 1의 프로세서(111))는 입력 구조(예: 도 3의 휠(330) 또는 도 10의 휠(430))를 이용하여 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 상기 휠(330, 430)을 이용하여 다양한 지정된 동작들을 수행할 수 있다. 예를 들어, 상기 지정된 동작은 전자 장치(400)의 음향 조절, 전자 장치(400)에서 출력되는 이미지의 배율 조정(예: 줌 인 및/또는 줌 아웃) 및/또는 전자 장치(400)에서 출력되는 메뉴 중 일부 메뉴의 선택을 포함할 수 있다. 다만, 본 개시에서 설명된 지정된 동작은 예시적인 것으로, 상기 휠(330, 430)을 이용하여 전자 장치(400)에서 수행될 수 있는 동작이라면, 지정된 동작은 한정되지 않는다.
일 실시예(예: 도 11a)에 따르면, 상기 전자 장치(400)는 전자 장치(400)에서 출력되는 음향을 조절하기 위한 콘텐츠(C1)를 제공할 수 있다. 상기 콘텐츠(C1)는 디스플레이 모듈(예: 도 2의 디스플레이 모듈(240))를 이용하여 사용자에게 제공될 수 있다.
일 실시예에 따르면, 휠(330)의 회전에 기초하여, 프로세서(111)는 전자 장치(300)의 스피커(예: 도 1의 입/출력 장치(113))에서 출력되는 소리의 크기를 변경할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 그래프 형상의 제1 이미지(V1) 및/또는 문자 형상의 제2 이미지(V2)를 통하여 사용자에게 현재 소리의 크기를 반영하는 정보를 표시할 수 있다.
일 실시예(예: 도 11b)에 따르면, 전자 장치(400)는 전자 장치(400)에서 표시되는 정보들 중 일부 정보를 선택하기 위한 콘텐츠(C2)를 제공할 수 있다. 예를 들어, 상기 프로세서(111)는 사용자(U)가 상기 휠(330)에 전달한 제스처에 기초하여, 상기 디스플레이 모듈(240)에서 출력되는 이미지 중 일부 영역(S1)을 선택할 수 있다.
웨어러블 전자 장치는, 사용자의 신체에 착용될 수 있다. 다만, 사용자의 신체 크기는 상이하므로, 전자 장치의 크기가 일정한 경우, 사용자의 착용감이 감소될 수 있다. 본 개시의 일 실시예에 따르면, 전자 장치는 휠을 이용하여 착용 부재의 길이를 변경시킬 수 있다. 착용 부재의 길이가 변경됨으로써, 사용자의 착용감이 향상될 수 있다. 본 개시의 일 실시예에 따르면, 휠을 이용하여 지정된 동작을 수행하는 전자 장치가 제공될 수 있다.
본 개시에서 해결하고자 하는 과제는 상기 언급된 과제에 한정되는 것이 아니며, 본 개시의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치(예: 도 2의 전자 장치(200))는 투명 부재(예: 도 2의 투명 부재(201))를 수용하는 렌즈 프레임(예: 도 2의 렌즈 프레임(211)), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(예: 도 2의 착용 부재(212))를 포함하는 하우징(예: 도 2의 하우징(210)), 상기 하우징 내에 위치한 프로세서(예: 도 1의 프로세서(111)) 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(예: 도 3의 휠(330))을 포함하는 입력 구조(예: 도 3의 입력 구조(320))를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.
일 실시예에 따르면, 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역(예: 도 3의 제1 영역(3121)), 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 슬라이드 이동하도록 구성된 제2 영역(예: 도 3의 제2 영역(3122)) 및 상기 휠의 적어도 일부를 덮는 커버부로서, 상기 제2 영역의 슬라이드 이동을 안내하도록 구성된 커버부(예: 도 3의 커버부(3123))를 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(예: 도 4b의 기동부(331)) 및 상기 기둥부를 기준으로 회전하도록 구성되고, 적어도 일부가 상기 웨어러블 전자 장치의 외부로 노출된 휠 영역(예: 도 4b의 휠 영역(332))을 포함할 수 있다. 상기 휠 영역은 상기 제2 영역에 힘을 전달하도록 구성될 수 있다. 예를 들어, 상기 휠 영역이 제2 영역에 힘을 전달함으로써, 제2 영역은 제1 영역에 대하여 상대적으로 이동할 수 있다.
일 실시예에 따르면, 상기 입력 구조는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(예: 도 4b의 탄성 부재를 포함할 수 있다. 상기 탄성 부재의 탄성력에 의하여, 사용자가 의도하지 않은 상기 착용 부재의 길이 변경이 감소될 수 있다.
일 실시예에 따르면, 상기 제2 영역은 제1 측벽(예: 도 4b의 제1 측벽(3122a)) 및 제1 측벽에 대하여 평행하게 배열된 제2 측벽(예: 도 4b의 제2 측벽(3122b))을 포함할 수 있다. 상기 휠 영역은 상기 제1 측벽 또는 상기 제2 측벽에 접촉하도록 구성될 수 있다. 상기 휠 영역이 상기 제1 측벽 또는 상기 제2 측벽에 접촉됨에 따라, 상기 휠에 가해진 사용자의 힘은 상기 제2 영역의 이동을 위해 사용될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 휠의 회전을 감지하기 위한 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))를 더 포함할 수 있다. 상기 회전 감지 센서에 의하여, 상기 프로세서는 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(예: 도 6a의 제1 휠(333)) 및 사용자의 입력을 감지하도록 구성된 제2 휠(예: 도 6a의 제2 휠(334))을 포함할 수 있다. 상기 회전 감지 센서는 상기 제2 휠의 회전을 감지하도록 구성될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 하우징에 형성된 적어도 하나의 제1 수용 홈(예: 도 7b의 제1 수용 홈(351)), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(예: 도 7b의 제2 수용 홈(352)), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(예: 도 7b의 돌출부(353))를 포함하는 클러치 구조(예: 도 7b의 클러치 구조(350))를 포함할 수 있다.
일 실시예에 따르면, 상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전할 수 있다. 상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성될 수 있다. 상기 휠이 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠이 상기 착용 부재의 적어도 일부와 함께 회전함에 따라, 상기 착용 부재의 길이가 변경될 수 있다. 상기 휠이 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠이 상기 착용 부재에 대하여 회전함에 따라, 상기 착용 감지 센서는 상기 휠의 회전을 감지하고, 상기 프로세서는 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 웨어러블 전자 장치의 사용자에 대한 장착을 감지하기 위한 착용 감지 센서(예: 도 5의 착용 감지 센서(360))를 포함할 수 있다. 상기 프로세서는 상기 착용 감지 센서를 이용하여 감지된 상기 웨어러블 전자 장치의 장착 여부에 기초하여, 상기 착용 부재를 이동시키기 위한 신호를 생성할 수 있다.
일 실시예에 따르면, 상기 착용 부재는 제1 착용 부재(예: 도 9의 제1 착용 부재(312a)) 및 상기 제1 착용 부재와 이격된 제2 착용 부재(예: 도 9의 제2 착용 부재(312b))를 포함할 수 있다. 상기 휠은 상기 제1 착용 부재 내에 위치할 수 있다. 상기 입력 구조는 상기 제1 착용 부재 내에 위치하고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(예: 도 6c의 회전 감지 센서(340)) 및, 상기 제2 착용 부재 내에 위치한 구동 구조(예: 도 8의 구동 구조(370))를 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 터치 패드 모듈을 이용하여 제공되는 가상 휠을 포함할 수 있다.
일 실시예에 따르면, 상기 착용 부재의 적어도 일부를 이동시키도록 구성된 구동 구조(예: 도 8의 구동 구조(370))를 더 포함할 수 있다. 상기 프로세서는 상기 터치 패드 모듈에서 획득된 사용자 입력에 기초하여 상기 구동 구조를 제어하도록 구성될 수 있다.
일 실시예에 따르면, 상기 지정된 동작은 상기 웨어러블 전자 장치에서 출력되는 음향의 크기 조절, 상기 웨어러블 전자 장치에서 출력되는 이미지의 배율 조정 또는 상기 웨어러블 전자 장치에서 출력되는 메뉴들 중 일부 메뉴의 선택을 포함할 수 있다.
일 실시예에 따르면, 상기 착용 부재는 제1 방향(예: 도 3의 +X 방향) 또는 상기 제1 방향의 반대인 제2 방향(예: 도 3의 -X 방향)을 따라서 이동하도록 구성될 수 있다. 상기 휠은 상기 제1 방향 또는 상기 제2 방향을 형성하는 제1 축(예: 도 3의 X축)을 중심으로 회전하도록 구성될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 투명 부재에 영상을 출력하도록 구성된 디스플레이 모듈(예: 도 2의 디스플레이 모듈(240)), 상기 프로세서를 수용하는 회로 기판(예: 도 2의 회로 기판(241)) 및 상기 프로세서 및 상기 디스플레이 모듈에 전력을 공급하도록 구성된 배터리(예: 도 2의 배터리(243))를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 전자 장치(예: 도 2의 전자 장치(200))는 렌즈 프레임(예: 도 2의 렌즈 프레임(211)), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(예: 도 2의 착용 부재(212))를 포함하는 하우징(예: 도 3의 하우징(310)), 상기 하우징 내에 위치한 프로세서(예: 도 1의 프로세서(111)) 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(예: 도 3의 휠(330)) 및 상기 착용 부재 내에 배치되고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))를 포함할 수 있다. 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역(예: 도 3의 제1 영역(3121)) 및 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역(예: 도 3의 제2 영역(3122))을 포함할 수 있다. 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(예: 도 4b의 기둥부(331)) 및 상기 기둥부를 중심으로 회전하도록 구성되고, 상기 제2 영역에 힘을 전달하도록 구성된 회전 영역(예: 도 4b의 회전 영역(332))을 포함할 수 있다. 상기 프로세서는 상기 휠의 회전에 기초하여 지정된 동작을 수행하도록 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(예: 도 4b의 탄성 부재(321))를 더 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(예: 도 6a의 제1 휠(333)) 및 상기 회전 감지 센서에 의하여 감지되도록 구성된 제2 휠(예: 도 6a의 제2 휠(334))을 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치는 상기 하우징에 형성된 적어도 하나의 제1 수용 홈(예: 도 7b의 제1 수용 홈(351)), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(예: 도 7b의 제2 수용 홈(352)), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(예: 도 7b의 돌출부(353))를 포함하는 클러치 구조(예: 도 7b의 클러치 구조(350))를 더 포함할 수 있다.
일 실시예에 따르면, 상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전하도록 구성될 수 있다. 상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성될 수 있다.
이상에서 설명한 본 개시의 입력 구조를 포함하는 웨어러블 전자 장치는 전술한 실시예 및 도면에 의해 한정되는 것은 아니고, 본 개시의 기술적 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.

Claims (15)

  1. 웨어러블 전자 장치(101, 200, 300, 400)에 있어서,
    투명 부재(201)를 수용하는 렌즈 프레임(311, 411), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(312, 412)를 포함하는 하우징(210a, 210b, 210c, 310, 410);
    상기 하우징 내에 위치한 프로세서(111); 및
    상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(330, 430)을 포함하는 입력 구조(320)를 포함하고,
    상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성된 웨어러블 전자 장치.
  2. 제1 항에 있어서,
    상기 착용 부재는
    상기 렌즈 프레임에 연결된 제1 영역(3121, 4121),
    상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역(3122, 4122), 및
    상기 휠의 적어도 일부를 덮는 커버부로서, 상기 제2 영역의 슬라이드 이동을 안내하도록 구성된 커버부(3123)를 포함하는 웨어러블 전자 장치.
  3. 제1 항 또는 제2 항에 있어서,
    상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(331) 및 상기 기둥부를 기준으로 회전하도록 구성되고, 적어도 일부가 상기 웨어러블 전자 장치의 외부 영역으로 노출된 휠 영역(332)을 포함하고,
    상기 휠 영역은 상기 제2 영역에 힘을 전달하도록 구성된 웨어러블 전자 장치.
  4. 이전의 청구항들 중 어느 하나에 있어서,
    상기 입력 구조는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(321)를 포함하는 웨어러블 전자 장치.
  5. 이전의 청구항들 중 어느 하나에 있어서,
    상기 제2 영역은 제1 측벽(3122a) 및 제1 측벽에 대하여 평행하게 배열된 제2 측벽(3122b)을 포함하고,
    상기 휠 영역은 상기 제1 측벽 또는 상기 제2 측벽에 접촉하도록 구성된 웨어러블 전자 장치.
  6. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(340)를 더 포함하는 웨어러블 전자 장치.
  7. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(333) 및 상기 회전 감지 센서에 의하여 감지되도록 구성된 제2 휠(334)을 포함하는 전자 장치.
  8. 이전의 청구항들 중 어느 하나에 있어서,
    상기 하우징에 형성된 적어도 하나의 제1 수용 홈(351), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(352), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(353)를 포함하는 클러치 구조(350)를 더 포함하는 웨어러블 전자 장치.
  9. 이전의 청구항들 중 어느 하나에 있어서,
    상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전하도록 구성되고,
    상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성된 웨어러블 전자 장치.
  10. 이전의 청구항들 중 어느 하나에 있어서,
    상기 웨어러블 전자 장치의 사용자에 대한 장착을 감지하기 위한 착용 감지 센서(360)를 더 포함하고,
    상기 프로세서는 상기 착용 감지 센서를 이용하여 감지된 상기 웨어러블 전자 장치의 장착 여부에 기초하여, 상기 착용 부재를 이동시키기 위한 신호를 생성하도록 구성된 웨어러블 전자 장치.
  11. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재는 제1 착용 부재(312a, 412a) 및 상기 제1 착용 부재와 이격된 제2 착용 부재(312b, 412b)를 포함하고,
    상기 휠은 상기 제1 착용 부재 내에 위치하고,
    상기 입력 구조는 상기 제1 착용 부재 내에 위치하고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(340) 및, 상기 제2 착용 부재 내에 위치한 구동 구조(370)를 포함하는 웨어러블 전자 장치.
  12. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠은 터치 패드 모듈을 이용하여 제공되는 가상 휠을 포함하는 웨어러블 전자 장치.
  13. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재의 적어도 일부를 이동시키도록 구성된 구동 구조(370)를 더 포함하고,
    상기 프로세서는 상기 터치 패드 모듈에서 획득된 사용자 입력에 기초하여 상기 구동 구조를 제어하도록 구성된 웨어러블 전자 장치.
  14. 이전의 청구항들 중 어느 하나에 있어서,
    상기 지정된 동작은 상기 웨어러블 전자 장치에서 출력되는 음향의 크기 조절, 상기 웨어러블 전자 장치에서 출력되는 이미지의 배율 조정 또는 상기 웨어러블 전자 장치에서 출력되는 메뉴들 중 적어도 하나의 메뉴의 선택을 포함하는 웨어러블 전자 장치.
  15. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재는 제1 방향 또는 상기 제1 방향의 반대인 제2 방향을 따라서 이동하도록 구성되고,
    상기 휠은 상기 제1 방향 또는 상기 제2 방향을 형성하는 제1 축을 중심으로 회전하도록 구성된 웨어러블 전자 장치.
PCT/KR2023/016255 2022-10-28 2023-10-19 휠을 포함하는 웨어러블 전자 장치 WO2024090896A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/493,145 US20240143092A1 (en) 2022-10-28 2023-10-24 Wearable electronic device comprising wheel

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220141656 2022-10-28
KR10-2022-0141656 2022-10-28
KR1020220150804A KR20240062849A (ko) 2022-10-28 2022-11-11 휠을 포함하는 웨어러블 전자 장치
KR10-2022-0150804 2022-11-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/493,145 Continuation US20240143092A1 (en) 2022-10-28 2023-10-24 Wearable electronic device comprising wheel

Publications (1)

Publication Number Publication Date
WO2024090896A1 true WO2024090896A1 (ko) 2024-05-02

Family

ID=90831195

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/016255 WO2024090896A1 (ko) 2022-10-28 2023-10-19 휠을 포함하는 웨어러블 전자 장치

Country Status (2)

Country Link
US (1) US20240143092A1 (ko)
WO (1) WO2024090896A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160147086A1 (en) * 2012-03-30 2016-05-26 Google Inc. Wearable device with input and output structures
KR20170064389A (ko) * 2015-12-01 2017-06-09 엘지전자 주식회사 헤드 마운티드 디스플레이 및 이의 제어방법
KR20190067523A (ko) * 2017-12-07 2019-06-17 엘지전자 주식회사 글래스 타입 단말기 및 그것의 동작방법
KR20210101870A (ko) * 2020-02-11 2021-08-19 이민호 난시 교정용 가변 초점을 제공하기 위한 안경 및 렌즈
KR20220006924A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 웨어러블 디바이스 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160147086A1 (en) * 2012-03-30 2016-05-26 Google Inc. Wearable device with input and output structures
KR20170064389A (ko) * 2015-12-01 2017-06-09 엘지전자 주식회사 헤드 마운티드 디스플레이 및 이의 제어방법
KR20190067523A (ko) * 2017-12-07 2019-06-17 엘지전자 주식회사 글래스 타입 단말기 및 그것의 동작방법
KR20210101870A (ko) * 2020-02-11 2021-08-19 이민호 난시 교정용 가변 초점을 제공하기 위한 안경 및 렌즈
KR20220006924A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 웨어러블 디바이스 및 그 동작 방법

Also Published As

Publication number Publication date
US20240143092A1 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
WO2022108076A1 (ko) 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
WO2022119105A1 (ko) 발광부를 포함하는 웨어러블 전자 장치
WO2022055118A1 (ko) 스피커 모듈을 포함하는 웨어러블 전자 장치
WO2023106895A1 (ko) 가상 입력 장치를 이용하기 위한 전자 장치 및 그 전자 장치에서의 동작 방법
WO2024090896A1 (ko) 휠을 포함하는 웨어러블 전자 장치
WO2022169255A1 (ko) 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법
WO2024043438A1 (ko) 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법
KR20240062849A (ko) 휠을 포함하는 웨어러블 전자 장치
WO2024043564A1 (ko) 제 1 렌즈 상에 배치되는 발광 소자를 포함하는 렌즈 어셈블리 및 이를 포함하는 웨어러블 전자 장치
WO2023027276A1 (ko) 스타일러스 펜을 이용하여 복수의 기능들을 실행하기 위한 전자 장치 및 그 작동 방법
WO2023149671A1 (ko) 입력 모드를 전환하는 증강 현실 장치 및 그 방법
WO2024117649A1 (ko) 외부 객체에 대한 그립 형태에 기반하여 미디어 콘텐트를 표시하기 위한 웨어러블 장치 및 그 방법
WO2024063463A1 (ko) 디스플레이를 통해 보여지는 객체와 관련된 오디오 신호를 조절하기 위한 전자 장치 및 그 방법
WO2024029720A1 (ko) 증강 현실에서 사용자를 인증하는 장치 및 방법
WO2022114535A1 (ko) 카메라를 포함하는 증강 현실 웨어러블 전자 장치
WO2024080579A1 (ko) 사용자의 자세를 가이드하기 위한 웨어러블 장치 및 그 방법
WO2024090825A1 (ko) 센서에 의해 식별된 데이터를 이용하여 시각적 객체를 변경하기 위한 웨어러블 장치 및 그 방법
WO2024101579A1 (ko) 멀티미디어 콘텐트를 표시하기 위한 전자 장치 및 그 방법
WO2024106995A1 (ko) 가상 현실 공간 상에 가상 객체를 제공하기 위한 전자 장치 및 방법
WO2024043546A1 (ko) 사용자의 움직임을 트래킹 하기 위한 전자 장치 및 방법
WO2024058439A1 (ko) 가상 공간에 배치되는 아바타 오브젝트의 페르소나를 결정하는 방법 및 장치
WO2022231160A1 (ko) 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법
WO2023043022A1 (ko) 모바일 장치의 확장 화면을 표시하는 장치 및 방법
WO2024063330A1 (ko) 웨어러블 전자 장치 및 상기 웨어러블 전자 장치를 이용하여 컨트롤러를 식별하는 방법
WO2022255625A1 (ko) 영상 통화 중 다양한 커뮤니케이션을 지원하는 전자 장치 및 그의 동작 방법