WO2022124638A1 - 사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치 - Google Patents

사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치 Download PDF

Info

Publication number
WO2022124638A1
WO2022124638A1 PCT/KR2021/017219 KR2021017219W WO2022124638A1 WO 2022124638 A1 WO2022124638 A1 WO 2022124638A1 KR 2021017219 W KR2021017219 W KR 2021017219W WO 2022124638 A1 WO2022124638 A1 WO 2022124638A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
user
electrode
opening
clip
Prior art date
Application number
PCT/KR2021/017219
Other languages
English (en)
French (fr)
Inventor
윤여탁
송형일
이진철
조규형
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/544,382 priority Critical patent/US11693477B2/en
Publication of WO2022124638A1 publication Critical patent/WO2022124638A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • Various embodiments disclosed in this document relate to an electronic device mounted on a user's head.
  • the wearable electronic device includes, for example, a head-mounted display (HMD), smart glasses, a smart watch, a smart wristband, a contact lens type device, and a ring type device. , shoe-type devices, clothing-type devices, or glove-type devices. Since such a wearable electronic device is directly worn on a body or clothes, portability and user accessibility can be dramatically improved.
  • HMD head-mounted display
  • smart glasses smart glasses
  • smart watch a smart wristband
  • a contact lens type device a contact lens type device
  • ring type device ring type device.
  • shoe-type devices clothing-type devices
  • glove-type devices Since such a wearable electronic device is directly worn on a body or clothes, portability and user accessibility can be dramatically improved.
  • a head mounted display that can be mounted on a user's head may provide a realistic image to the user by providing a predetermined image to a position close to both eyes of the user.
  • the head-mounted electronic device may track the user's gaze, and may display or control the image displayed according to the user's gaze based on the gaze tracking result.
  • the head-mounted electronic device may use an infrared light emitting device and an infrared imaging device for analyzing a user's gaze.
  • the infrared imaging device may acquire an eyeball image in which infrared light emitted from the infrared light emitting device is reflected by the user's eyeballs, and the head mounted electronic device may analyze the user's gaze movement based on the acquired eyeball image.
  • an additional user lens eg, a prescription lens
  • an unintended additional reflected light may be included by the acquired eye image. Accordingly, the gaze analysis performance of the head mounted electronic device may be deteriorated.
  • Various embodiments disclosed in this document may provide a lens clip including a lens detection structure.
  • Various embodiments disclosed in this document may provide a head-mounted electronic device capable of detecting whether a user lens is inserted through a lens detection structure included in a lens clip for accurate user gaze analysis.
  • a head-mounted electronic device includes a body, a lens clip including at least one opening and disposed on the body in a user's face direction, an infrared light emitting device disposed on a part of the body, and the An infrared photographing device disposed on another part of the body and configured to obtain a first eyeball image in which the infrared light emitted from the infrared light emitting device is reflected by the user's eye
  • a processor operatively connected to the infrared light emitting device and the infrared photographing device may include The processor transmits at least one first signal to the lens clip, detects whether the lens is mounted on the at least one aperture based on a second signal received in response to the first signal, and the at least one When it is determined that the user lens is not mounted on the opening, a gaze tracking algorithm is performed based on the first eyeball image, and when it is determined that the user lens is mounted on the at least one opening, the user lens is determined from the first eyeball
  • the lens clip mountable to the head mounted electronic device includes a housing including at least one opening, and a protrusion disposed on a part of the housing to protrude toward the at least one opening. , and an internal wiring electrically connected to the protrusion when a user lens is mounted in the at least one opening.
  • the internal wiring may be electrically connected to a first electrode of the head mounted electronic device.
  • the protrusion may be electrically connected to a second electrode of the head mounted electronic device.
  • the head-mounted electronic device includes a lens clip including a body and an opening, the lens clip being disposed on the body in the direction of a user's face and including a plurality of protrusions protruding toward the opening;
  • An infrared light emitting device disposed on a part of the body, an infrared photographing device disposed on another part of the body and configured to obtain a first eyeball image in which the infrared light emitted from the infrared light emitting device is reflected on the user's eye, the infrared light emitting device and It may include a processor operatively connected to the infrared imaging device.
  • the processor transmits a plurality of first signals corresponding to the plurality of protrusions to the lens clip, and determines whether the lens of the aperture is mounted on the basis of a plurality of second signals received in response to the plurality of first signals; Check the dioptric power range of the mounted user lens, and if it is determined that the user lens is not mounted in the opening, a gaze tracking algorithm is performed based on the first eye image, and it is determined that the user lens is mounted in the opening If confirmed, the eye tracking algorithm may be performed based on a second eye image obtained by removing an additional reflected light image generated by the user lens from the first eye image according to the dioptric power range of the user lens.
  • an accurate gaze analysis function of the head mounted electronic device may be provided based on detection of whether a user lens is inserted.
  • controller means any device, system, or part thereof that controls at least one operation, which device may be implemented in hardware, firmware or software, or a combination of at least two of them. It should be noted that functions related to a particular control unit may be centralized or distributed locally or remotely.
  • various functions to be described below may be implemented or supported by each of one or more computer programs formed of computer readable program code and embodied in a computer readable medium.
  • application and “program” refer to one or more computer programs, software components, instruction sets, procedures, functions, objects, classes, instances, related data, or portions thereof configured for implementation in suitable computer readable program code.
  • computer readable program code can include sources of code, object code, and types of computer code including executable code.
  • computer readable medium refers to a computer, such as read only memory (ROM), random access memory (RAM), hard disk drive, compact disk (CD), digital video disk (DVD), or any other type of memory.
  • Non-transitory computer-readable media may exclude any communication link that carries wired, wireless, optical, transitory electrical or other signals.
  • Non-transitory computer readable media may include media in which data is permanently stored and media in which data is stored and overwritten later, such as a rewritable optical disc or a removable memory device.
  • FIG. 1 is a perspective view illustrating a configuration of a head-mounted electronic device according to an exemplary embodiment.
  • FIG. 2 is a block diagram showing the configuration of the head mounted electronic device of FIG. 1 .
  • FIG. 3 is a perspective view illustrating a method in which a lens clip and a user lens are mounted on a head mounted electronic device according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a method of acquiring an eyeball image based on a cross-sectional view taken along line A-A' of FIG. 3 .
  • FIG. 5 is a diagram illustrating an example of a lens detection structure disposed in a portion B of FIG. 3 .
  • FIG. 6 is a diagram showing another example of the lens detection structure disposed in part B of FIG. 3 .
  • FIG. 7 is a view illustrating a lens clip according to an exemplary embodiment.
  • FIG. 8A is a view illustrating a lens clip according to another exemplary embodiment.
  • FIG. 8B is a diagram exemplarily illustrating one of the plurality of recess structures of FIG. 8A .
  • FIG. 9 is a flowchart illustrating a gaze tracking method of a head mounted electronic device according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating a wearable electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating an optical structure of a wearable electronic device according to various embodiments of the present disclosure
  • FIG. 1 is a perspective view illustrating a configuration of a head-mounted electronic device according to an exemplary embodiment.
  • the head mounted electronic device 100 includes a body 110 (eg, a main frame) and a wearing part (or a mounting member) 115 (eg, a goggle band).
  • a body 110 eg, a main frame
  • a wearing part or a mounting member
  • 115 eg, a goggle band
  • the body 110 may be worn on at least a portion of the user's face (eg, a facial side), and may be supported on the user's face by various components.
  • the wearing part 115 may be connected to the body 110 to fix the head mounted electronic device 100 to a part of the user's body (eg, the head).
  • the wearing part 115 may adjust the length of the band (or Velcro tape) formed of an elastic material so that the body 110 is in close contact with the user's face around the eyes. Cushions may be attached to the band to provide a comfortable fit in consideration of long-term wear.
  • the wearing part 115 may be implemented as eyeglass temples, helmets, or straps.
  • one surface of the body 110 may include a face contact part 130 that comes into contact with the user's face.
  • the face contact part 130 may have a structure corresponding to the curvature of the user's face, and may include at least a portion of the elastic body 134 .
  • At least one cushion material such as a sponge may be used as the elastic body 134 to provide a comfortable fit when the face contact part 130 comes into contact with the user's face.
  • the elastic body 134 may be composed of one sponge, or may have a shape obtained by laminating at least one or more sponges having different compression ratios.
  • the elastic body 134 is a sponge laminated in three layers (eg, an upper layer, a middle layer, a lower layer), and the upper and lower layers use a low compressibility sponge, and the middle layer may use a high compressibility sponge.
  • the body 110 may be easily worn on the user's face.
  • the shape or structure of the body 110 may include a nose-shaped groove 120 (eg, a nose recess) so that the user's nose can be positioned while the user's eyes are covered.
  • a lens assembly 135 including at least one lens may be inserted into a portion of the body 110 at a position facing the user's eyes. For example, when a user wears the head mounted electronic device 100 , the user's eyes see a display device (eg, a display device built into the body 110 or a display of an external electronic device mounted on the body 110 ). At least one surface of the lens assembly 135 may be exposed so that the screen of .
  • a display device eg, a display device built into the body 110 or a display of an external electronic device mounted on the body 110 .
  • At least one surface of the lens assembly 135 may be exposed so that the screen of .
  • the body 110 may include a display device therein.
  • the display device may display various contents.
  • the display device may include a display device built into the body 110 .
  • the body 110 may be coupled to an external electronic device (eg, a smartphone), and the display device may include a display of the external electronic device.
  • the body 110 may include a connector to communicate with the external electronic device.
  • the external electronic device may be connected to the connector.
  • the connector may include a USB connector that may be connected to a USB port, and may provide a signal of a graphic user interface to the external electronic device through the USB connector.
  • the body 110 may include the head mounted electronic device 100 or a control device (or user input module) for controlling the external electronic device.
  • the control device may control the display device (eg, a built-in display device or a display of the external electronic device).
  • the control device may include at least one of a touch pad 112 , a physical button 129 , a touch key, a joystick, or a wheel key.
  • the touch pad 112 may display a graphical user interface (GUI).
  • the GUI for audio may control the volume of audio output from the body 110
  • the GUI for image may control an image displayed on the display device.
  • the touch pad 112 may receive an input directly touching the touch pad 112 or a hovering input as an example of a user's touch input.
  • the body 110 may include a display position adjusting unit 114 for adjusting the position of the display device.
  • the display position adjusting unit 114 may be configured in the form of a wheel or a dial.
  • the display device or the external electronic device
  • the display device is moved to adjust the distance between the display device and the user (eg, the user's eyeball)
  • the user may adjust the position of the display device so that the user can view the image that is suitable for viewing or optimally displayed.
  • the display position adjusting unit 114 may be implemented in hardware or software, and may be provided in plurality on the outer surface of the body 110 .
  • the body 110 may include a cover 126 .
  • the cover 126 may be coupled to the body 110 to protect the built-in display device or to more firmly support the external electronic device to the body 110 .
  • the cover 126 may be physically coupled to the body 110 in the form of a hook, or may be coupled to the body 110 in a manner such as a magnet or an electromagnet.
  • the cover 126 may additionally include a window on the front side, and the window may enhance aesthetics through various types of materials and colors.
  • the window may be made of a general plastic material such as PC (polycarbonate) or acrylic, may be made of a ceramic material such as glass, sapphire, or transparent ceramic, or may be made of a metal material such as aluminum or SUS. can In the case of a transparent material, a colored color may be included, and the transparency may be adjusted.
  • FIG. 2 is a block diagram showing the configuration of the head mounted electronic device of FIG. 1 .
  • the head mounted electronic device 100 includes a micro controller unit (MCU) 140 , a communication module 145 , a sensor module 150 , an input device 155 , and a power management module 160 . , a battery 165 , an eye tracker 170 , a vibrator 175 , adjustable optics (or lens assembly) 180 , or a memory 185 . .
  • MCU micro controller unit
  • other components eg, a display device
  • some of the components shown in FIG. 2 may be included in the body 110 of FIG. 1 , and other components may be included in an external electronic device (eg, a detachable smartphone).
  • the controller (MCU) 140 includes a processor, and may control a plurality of hardware components connected to the controller 140 by driving an operating system (OS) or an embedded S/W program.
  • OS operating system
  • embedded S/W program embedded S/W program
  • the communication module 145 electrically connects the body 110 of the head-mounted electronic device 100 and the external electronic device, for example, a smart phone terminal using wired and/or wireless communication. Data transmission and reception can be performed.
  • the communication module 145 may include a USB module, a WiFi module, a BT module, an NFC module, or a GPS module. At least some (eg, two or more) of the WiFi module, the BT module, the GPS module, or the NFC module may be included in one integrated chip (IC) or an IC package.
  • the sensor module 150 may measure a physical quantity or detect an operating state of the head mounted electronic device 100 to convert the measured or sensed information into an electrical signal.
  • the sensor module 150 may include, for example, at least one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, a magnetic sensor, a proximity sensor, a gesture sensor, a grip sensor, and a biometric sensor.
  • the head mounted electronic device 100 may detect a head movement of a user wearing the head mounted electronic device 100 using an acceleration sensor, a gyro sensor, and/or a geomagnetic sensor.
  • the head mounted electronic device 100 may detect whether the head mounted electronic device 100 is worn using a proximity sensor or a grip sensor.
  • the sensor module 150 may detect whether the user is wearing it by detecting at least one of IR recognition, pressure recognition, and capacitance (or permittivity) change according to the user's wear.
  • the gesture sensor may detect a movement of a user's hand or finger and receive it as an input operation of the head mounted electronic device 100 .
  • the sensor module 150 may include, for example, an olfactory sensor (E-nose sensor), an electromyography sensor (EMG sensor), an electroencephalogram sensor (EEG sensor), an electrocardiogram sensor (ECG sensor), or an iris sensor and The user's biometric information can be recognized using the same biometric sensor.
  • the sensor module 150 may further include a control circuit for controlling at least one or more sensors included therein.
  • the input device 155 may include a touch pad (eg, the touch pad 112 of FIG. 1 ) or a button (eg, the physical button 129 of FIG. 1 ).
  • the touch pad may recognize a touch input using at least one of a capacitive type, a pressure sensitive type, an infrared type, and an ultrasonic type.
  • the touch pad may further include a control circuit.
  • the touch pad may further include a tactile layer. In this case, the touch pad may provide a tactile response to the user.
  • a button may include, for example, a physical button, an optical key, or a keypad.
  • the eye tracker 170 is, for example, at least one of an EOG sensor (electrical oculography), a coil system, dual purkinje systems, bright pupil systems, or dark pupil systems.
  • EOG sensor electronic oculography
  • the eye tracking unit 170 may further include a micro camera for eye tracking.
  • the focus adjustment unit (ajustable optics) 180 measures the distance between the user's eyes (inter-pupil distance, IPD) so that the user can enjoy an image suitable for his or her body condition, and a lens (eg, in FIG. 1 )
  • IPD inter-pupil distance
  • a distance of the lens assembly 135 and a position of a display may be adjusted.
  • the focus adjustment unit 180 recognizes the direction of the user's gaze to display or select information on the object the user is looking at, reduce the data of the display image, or a part of the image the user is looking at in order to give the user a sense of reality. It is possible to display (foveated rendering) the resolution of a region other than the region.
  • the memory 185 may include an internal memory or an external memory.
  • the built-in memory may include a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM)) or non-volatile memory (eg, OTPROM).
  • time programmable ROM programmable ROM
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • the internal memory may be a solid state drive (SSD).
  • External memory for example, CF (compact flash), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital) or a memory stick (memory stick)
  • CF compact flash
  • SD secure digital
  • Micro-SD micro secure digital
  • Mini-SD mini secure digital
  • xD extreme digital
  • memory stick memory stick
  • the external memory may be functionally connected to the head mounted electronic device 100 through various interfaces.
  • the head mounted electronic device 100 may further include a storage device (or storage medium) such as a hard drive.
  • the memory 185 may store commands or data generated from the controller 140 , the communication module 145 , the sensor module 150 , and the input device 155 .
  • the memory 185 may include programming modules such as a kernel, middleware, an application programming interface (API), or an application.
  • API application programming interface
  • the kernel includes system resources (eg, control unit 140 or memory 185) used to execute operations or functions implemented in other programming modules (eg, middleware, API, or application) other than the kernel. ) can be controlled or managed.
  • the kernel may provide an interface capable of accessing and controlling or managing individual components of the head mounted electronic device 100 in middleware, API, or application.
  • Middleware can act as an intermediary so that an API or application can communicate with the kernel to send and receive data.
  • the middleware may use a system resource (eg, the controller 140 or the memory 185 ) of the head mounted electronic device 100 for at least one of the applications. You can give control over work requests (eg scheduling or load balancing) by assigning ranks.
  • An API is an interface for an application to control functions provided by the kernel or middleware.
  • the API may include at least one interface or function (eg, command) for a control function such as file control, window control, image processing, or text control.
  • Applications may include SMS/MMS applications, email applications, calendar applications, alarm applications, health care applications (such as applications that measure exercise volume or blood sugar) or environmental information applications (such as those that provide barometric pressure, humidity or temperature information). application) may be included.
  • health care applications such as applications that measure exercise volume or blood sugar
  • environmental information applications such as those that provide barometric pressure, humidity or temperature information. application
  • the application may be an application related to information exchange between the head mounted electronic device 100 and the external electronic device.
  • the application related to information exchange may include a notification relay application for delivering specific information to the external electronic device or a device management application for managing the external electronic device.
  • the notification delivery application transmits notification information generated by another application (eg, SMS/MMS application, email application, health care application, or environment information application) of the head mounted electronic device 100 to the external electronic device It may include a function to
  • the notification delivery application may receive notification information from the external electronic device and provide it to the user.
  • the device management application may turn on a function (eg, the external electronic device itself (or some component) for at least a portion of the external electronic device that communicates with the head mounted electronic device 100 ). )/turn off or control of the brightness (or resolution) of the display), an application running on the external electronic device, or a service (eg, call service or message service) provided by the external electronic device (eg: installed, uninstalled, or updated).
  • a function eg, the external electronic device itself (or some component) for at least a portion of the external electronic device that communicates with the head mounted electronic device 100 ).
  • a service eg, call service or message service
  • FIG. 3 is a perspective view illustrating a method in which a lens clip and a user lens are mounted on a head mounted electronic device according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a method of acquiring an eyeball image based on a cross-sectional view taken along line A-A' of FIG. 3 .
  • the head mounted electronic device 100 may include a lens clip 300 detachable from the body 110 in the direction of the user's face.
  • the lens clip 300 may include at least one opening 301 at a position corresponding to the lens assembly 135 .
  • the infrared light emitting device 210 and the infrared photographing device 220 may be disposed between the lens assembly 135 and the lens clip 300 .
  • the infrared light emitting device 210 may be disposed on a part of the body 110 .
  • the infrared imaging device 220 may be disposed on another part of the body 110 (eg, opposite to the infrared light emitting device 210 ).
  • the infrared light emitting device 210 and the infrared photographing device 220 may be included in the eye tracking unit 170 of FIG. 2 .
  • the head mounted electronic device 100 may track the user's gaze based on an image captured by the user's eyeball.
  • the infrared light emitting device 210 may emit infrared light
  • the infrared photographing apparatus 220 may acquire an eyeball image in which the infrared light is reflected on the user's eye.
  • the processor of the head mounted electronic device 100 eg, the control unit 140 or the gaze tracking unit 170 of FIG. 2
  • the processor may control the image displayed on the display device to correspond to the user's gaze by using the gaze tracking data.
  • the lens clip 300 in the first state 401 of FIG. 4 , is not mounted on the body 110 or the user lens 310 (eg, a prescription lens) is inserted into the body 110 . It may indicate a state in which the lens clip 300 is not installed.
  • infrared light emitted from the infrared light emitting device 210 may be reflected from the user's eye through the first path 410 .
  • the infrared imaging apparatus 220 may acquire a first eyeball image 400a.
  • the first eyeball image 400a may include a first reflection image 431 .
  • the processor may track the user's gaze based on the first reflection image 431 .
  • the second state 403 of FIG. 4 may indicate a state in which the lens clip 300 in which the user lens 310 is inserted is mounted on the body 110 .
  • each user of the head mounted electronic device 100 may have different visual acuity.
  • the user may use the user lens 310 corresponding to his/her eyesight by inserting it into the lens clip 300 .
  • the infrared light emitted from the infrared light emitting device 210 is transmitted through various paths to the user's eyeball.
  • the infrared photographing apparatus 220 may acquire a second eyeball image 400b.
  • the second eye image 400b may include a first reflection image 431 by the first path 410 .
  • the second eyeball image 400b may further include a second reflection image 441 that is not present in the first eyeball image 400a.
  • the lens clip 300 may include a lens detection structure.
  • the lens detection structure may include a protrusion in the direction of the opening 301 and an electrical internal wiring.
  • the body 110 may include at least two electrodes.
  • the internal wiring may not be connected to the two electrodes.
  • the protrusion may be pressed by the user lens 310 , and the internal wiring may be connected to the two electrodes through the pressing of the protrusion. Specific embodiments of the lens detection structure will be described with reference to FIGS. 5 and 6 .
  • the processor may be connected to the two electrodes.
  • the processor sends a signal (or voltage, current) (eg, a first signal) to one of the two electrodes, and the signal (eg, a second signal) through the other of the two electrodes
  • a signal or voltage, current
  • the processor may determine that the user lens 310 is not inserted into the lens clip 300 , 1
  • the eye tracking algorithm may be performed based on the eye image 400a.
  • the processor may determine that the user lens 310 is inserted, and a second reflection image in the second eye image 400b 441 may be removed and the above gaze tracking algorithm may be performed.
  • the head mounted electronic device 100 may include a plurality of infrared light emitting devices 210 .
  • the plurality of infrared light emitting devices 210 may emit light based on a specified order or pattern, and based on this, the accuracy of the user's eye tracking may be improved.
  • FIG. 5 is a diagram illustrating an example of a lens detection structure disposed in a portion B of FIG. 3 .
  • a part of the lens clip 300 may include a lens detection structure.
  • the lens detection structure includes at least one protrusion (eg, a first pogo pin 510 and a second pogo pin 520), and at least one elastic member (eg, a first elastic member 531 and a second elastic member) 532)) and an internal wiring 550 .
  • the lens clip 300 may include at least one protrusion (eg, the first pogo pin 510 and the second pogo pin 520 ).
  • the first pogo pin 510 may protrude in a direction in which the body 110 is coupled by the first elastic member 531 .
  • the second pogo pin 520 may protrude in a direction in which the user lens 310 is coupled (eg, the direction of the opening 301 ).
  • the lens clip 300 may include a first electrode 511 and a second electrode 521 .
  • the first electrode 511 and the second electrode 521 may be electrically connected through an internal wiring 550 .
  • the first electrode 511 may be disposed adjacent to the first pogo pin 510 .
  • the second electrode 521 may be disposed adjacent to the second pogo pin 520 .
  • the at least one elastic member may include a first elastic member 531 and a second elastic member 532 .
  • the first elastic member 531 may allow the first pogo pin 510 to protrude to the outside of the lens clip 300 in a state in which the lens clip 300 and the body 110 are not coupled
  • the second elastic member 532 may allow the second pogo pin 520 to protrude to the outside of the lens clip 300 in a state in which the lens clip 300 and the user lens 310 are not coupled.
  • the body 110 may include at least two electrodes connected to a processor (eg, the control unit 140 or the eye tracking unit 170 of FIG. 2 ).
  • the user lens 310 in the first state 501 , is not inserted into the opening 301 of the lens clip 300 , and the lens clip 300 is mounted (or coupled) to the body 110 . ) may not be possible.
  • the first pogo pin 510 and the second pogo pin 520 of the lens clip 300 may be in a non-pressed state, and the first electrode 511 and the first The pogo pin 510 may not be electrically connected (or contacted) and/or the second electrode 521 and the second pogo pin 520 may not be electrically connected (or contacted).
  • the user lens 310 in the second state 502 , is not inserted into the opening 301 of the lens clip 300 , and the lens clip 300 may be mounted on the body 110 .
  • the first pogo pin 510 is pressed by the body 110 , so that a portion of the first pogo pin 510 may be electrically connected to (or in contact with) the first electrode 511 .
  • the body 110 includes a third electrode 512 and a second pogo pin 520 (or a second electrode 521) disposed at positions corresponding to the first pogo pin 510 (or the first electrode 511). ) may include a fourth electrode 522 disposed at a position corresponding to the .
  • the lens clip 300 In the second state 502 , as the lens clip 300 is mounted on the body 110 , a portion of the first pogo pin 510 may be pressed by the body 110 , and the first pogo pin 510 . Another portion of the third electrode 512 may be electrically connected to (or in contact with). However, in the second state 502 , the second electrode 521 may not be connected to the fourth electrode 522 .
  • the user lens 310 is inserted into the opening 301 of the lens clip 300 , and the lens clip 300 may be mounted on the body 110 .
  • a portion of the first pogo pin 510 is electrically connected to (or in contact with) the first electrode 511
  • another portion of the first pogo pin 510 is It may be electrically connected to (or in contact with) the third electrode 512 .
  • the second pogo pin 520 is pressed by the user lens 310 , so that a part of the second pogo pin 520 is electrically connected to (or in contact with) the second electrode 521 , and , another portion of the second pogo pin 520 may be electrically connected to (or in contact with) the fourth electrode 522 .
  • a portion of the second pogo pin 520 is electrically connected to (or in contact with) the second elastic member 532 , and the second elastic member 532 is electrically connected to (or in contact with) the second electrode 521 .
  • Another portion of the second pogo pin 520 may be electrically connected to (or in contact with) the fourth electrode 522 .
  • the processor transmits a first signal (or voltage, current) to the third electrode 512 (or the fourth electrode 522 ), and the fourth electrode 522 (or the third electrode 522 ) 512)) through which a second signal (or voltage or current) may be received.
  • a first signal or voltage, current
  • the fourth electrode 522 or the third electrode 522 512
  • a second signal or voltage or current
  • the processor clips the lens It can be determined that the user lens 310 is mounted on the body 511 in the state in which the 300 is inserted.
  • FIG. 6 is a diagram showing another example of the lens detection structure disposed in part B of FIG. 3 .
  • a part of the lens clip 300 may include a lens detection structure.
  • the lens detection structure may include a lever 610 , a conductive rod 620 , an elastic member 631 , and an internal wiring 650 connected to the lever 610 .
  • the lever 610 and the conductive rod 620 may be made of a conductive material (eg, metal), and at least a portion of the lever 610 and the conductive rod 620 may be electrically connected.
  • the lens clip 300 may include a first electrode 611 .
  • the body 110 includes at least two electrodes (eg, the second electrode 612 and the third electrode 622 ) connected to the processor (eg, the control unit 140 or the eye tracking unit 170 of FIG. 2 ). can do.
  • the user lens 310 is not inserted into the opening 301 of the lens clip 300 , and the lens clip 300 may not be mounted on the body 110 .
  • the first electrode 611 may be exposed on one surface of the lens clip 300 in a direction in which the body 110 is coupled.
  • the first electrode 611 of the lens clip 300 is electrically connected to the second electrode 612 of the body 110 when the lens clip 300 is coupled to the body 110 (or contact) can be obtained.
  • the internal wiring 650 may be connected to the first electrode 611 and one end of the lever 610 .
  • the other end of the lever 610 may protrude in a direction in which the user lens 310 is coupled by the elastic member 631 (eg, in the direction of the opening 301 ).
  • the conductive rod 620 may be connected to a portion of the lever 610 .
  • the user lens 310 in the second state 602 , is not inserted into the opening 301 of the lens clip 300 , and the lens clip 300 may be mounted on the body 110 .
  • the body 110 may include a second electrode 612 and a third electrode 622 .
  • the second electrode 612 may be electrically connected to (or in contact with) the first electrode 611 .
  • the conductive rod 620 may not be electrically connected to (or in contact with) the third electrode 622 .
  • the user lens 310 is inserted into the opening 301 of the lens clip 300 , and the lens clip 300 may be mounted on the body 110 .
  • the second electrode 612 may be electrically connected to (or in contact with) the first electrode 611 .
  • a portion of the lever 610 may be pressed due to the insertion of the user lens 310 , and the conductive rod 620 may be electrically connected (or contacted) with the third electrode 622 .
  • the second electrode 612 and the third electrode 622 may be electrically connected through the internal wiring 650 , the lever 610 and the conductive rod 620 .
  • the processor transmits a first signal (or voltage, current) to the second electrode 612 (or the third electrode 622 ), and the third electrode 622 (or the second electrode 622 ) 612)), the second signal (or voltage, current) may be received.
  • the signal (or voltage, current) transmitted to the second electrode 612 is detected through the third electrode 622 (eg, when the first signal and the second signal are the same) ) It can be determined that the user lens 310 is coupled to the body 110 in a state in which the opening 301 of the lens clip 300 is inserted.
  • the processor clips the lens It may be determined that the user lens 310 is coupled to the body 110 in a state in which the user lens 310 is inserted into the opening 301 of the 300 .
  • FIG. 7 is a view illustrating a lens clip according to an exemplary embodiment.
  • the lens clip 300 may include a plurality of lens detection structures 711 , 712 , 713 , 721 , 722 , and 723 .
  • the head-mounted electronic device 100 detects a user lens (eg, a first user lens 310a or a second user lens 310b) through a plurality of lens detection structures 711 , 712 , 713 , 721 , 722 , 723 ). It is possible to determine whether the lens is mounted or not and the dioptric power range of the user lens.
  • a user lens eg, a first user lens 310a or a second user lens 310b
  • a first lens detection structure 711 , a second lens detection structure 712 , and a third lens detection structure 713 are disposed around the first opening 301a .
  • Each of the first lens detection structure 711 , the second lens detection structure 712 , and the third lens detection structure 713 may include the lens detection structure of FIG. 5 or 6 .
  • Each of the first lens detection structure 711 , the second lens detection structure 712 , and the third lens detection structure 713 has projections 711a , 712a , 713a protruding in the direction toward the first opening 301a (eg : The second pogo pin 520 of FIG. 5 or the lever 610 of FIG. 6) may be included.
  • a fourth lens detection structure 721 , a fifth lens detection structure 722 , and a sixth lens detection structure 723 are disposed around the second opening 301b .
  • Each of the fourth lens detection structure 721 , the fifth lens detection structure 722 , and the sixth lens detection structure 723 may include the lens detection structure of FIG. 5 or 6 .
  • Each of the fourth lens detection structure 721 , the fifth lens detection structure 722 , and the sixth lens detection structure 723 has projections 721a , 722a , 723a protruding in the direction toward the second opening 301b (eg, : The second pogo pin 520 of FIG. 5 or the lever 610 of FIG. 6) may be included.
  • the processor of the head-mounted electronic device 100 controls the first user lens 310a or the second user lens 310b.
  • the dioptric power range of the first user lens 310a or the second user lens 310b may be determined based on the number and position of the protrusions pressed by insertion, or a combination thereof. For example, when one of the protrusions is pressed, the processor may determine the first frequency range. When two of the protrusions are pressed, the processor may determine that the second frequency range is different from the first frequency range. When three of the protrusions are pressed, the processor may determine that a third frequency range is different from the first frequency range and the second frequency range.
  • the processor may determine the first dioptric power range.
  • the processor may determine the second dioptric power range.
  • the processor may determine the third dioptric power range. The method for removing the second reflection image 441 from the second eye image 400b of FIG. 4 based on the first power range, the second power range, or the third power range may be subdivided, and the processor can obtain accurate gaze tracking data.
  • the number and/or position of the recesses included in the first user lens 310a or the second user lens 310b may be partially different.
  • the edge of the first user lens 310a or the second user lens 310b may have no recess or may be formed to include at least one recess.
  • the first user lens 310a may include a first recess 311a and a second recess 312a.
  • the first recess 311a may be formed to correspond to the shape of the protrusion 711a of the first lens detection structure 711 .
  • the second recess 312a may be formed to correspond to the shape of the protrusion 712a of the second lens detection structure 712 .
  • the second user lens 310b may include a third recess 311b.
  • the third recess 311b may be formed to correspond to the shape of the protrusion 721a of the fourth lens detection structure 721 .
  • the protrusion 721a of the fourth lens detection structure 721 is not pressed, and the fifth lens detection structure 722 and the sixth lens detection structure
  • the protrusions 722a, 723a of 723 can be pressed.
  • FIG. 8A is a view illustrating a lens clip according to another exemplary embodiment.
  • FIG. 8B is a diagram exemplarily illustrating one of the plurality of recess structures of FIG. 8A (eg, portion C of FIG. 8A ).
  • the head mounted electronic device 100 may include a first lens clip 300 (eg, a main lens clip) and a second lens clip 830 (eg, a sub lens clip).
  • the first lens clip 300 may be mounted on the body 110 , and may include an opening 810 in which the second lens clip 830 may be positioned.
  • the second lens clip 830 may be mounted in the opening 810 of the first lens clip 300 .
  • the user lens 310 may be inserted into the second lens clip 830 .
  • the first lens clip 300 may include a plurality of lens detection structures 811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824.
  • each of the plurality of lens detection structures 811 , 812 , 813 , 814 , 815 , 816 , 817 , 818 , 819 , 821 , 822 , 823 , 824 may include the lens detection structure of FIG. 5 or 6 .
  • the body 110 corresponds to a plurality of lens detection structures 811 , 812 , 813 , 814 , 815 , 816 , 817 , 818 , 819 , 821 , 822 , 823 , 824 included in the first lens clip 300 ).
  • electrodes eg, the third electrode 512, the fourth electrode 522 of FIG. 5, or the second electrode 612, the third electrode 622 of FIG. 6
  • the processor 100 eg, the controller 140 or the eye tracking unit 170 of FIG. 2
  • the second lens clip 830 has a plurality of recess structures 831 corresponding to the plurality of lens detection structures 811 , 812 , 813 , 814 , 815 , 816 , 817 , 818 , 819 , 821 , 822 , 823 , 824 . , 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844).
  • each of the plurality of recess structures 831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844 is in the form of a slide in which a part is slid to form a recess.
  • the first recess structure 831 does not form a recess and may be disposed to correspond to the protrusion 811a of the first lens detection structure 811 .
  • the protrusion 811a of the first lens detection structure 811 may be pressed by the first recess structure 831 , and electrodes included in the first lens detection structure 811 may be electrically connected to each other.
  • the first recess structure 831 may be slid into the second lens clip 830 to form a recess.
  • the protrusion 811a of the first lens detection structure 811 may protrude into the recess without being pressed, and the electrodes included in the first lens detection structure 811 may be disconnected.
  • the first lens detection structure 811 is exemplarily shown based on the portion C of FIG. 8A , but the remaining recess structures 832 , 833 , 834 , 835 , 836 , 837 , 838 , 839 , 841 . , 842 , 843 , and 844 may also be formed in the same manner as in the first lens detection structure 811 .
  • the first recess structure 831 slides to the left of the recess, but the first recess structure 831 may slide to the right or lower side of the recess or may be detached from the recess. .
  • the head mounted electronic device 100 may detect the dioptric power range of the user lens 310 more subdivided than in the case of FIG. 7 .
  • the processor of the head mounted electronic device 100 eg, the control unit 140 or the eye tracking unit 170 of FIG. 2
  • the processor of the head mounted electronic device 100 may include a plurality of lens detection structures 811 , 812 , 813 , 814 , 815 , 816 .
  • the dioptric power range of the user lens 310 may be determined based on the pressing of the protrusions 817 , 818 , 819 , 821 , 822 , 823 , and 824 .
  • each of the plurality of lens detection structures 811 , 812 , 813 , 814 , 815 , 816 , 817 , 818 , 819 , 821 , 822 , 823 , and 824 may correspond to one dioptric power range.
  • One of the plurality of recess structures 831 , 832 , 833 , 834 , 835 , 836 , 837 , 838 , 839 , 841 , 842 , 843 , 844 (eg, the first recess structure 831 ) is configured by a user Can be set to recess.
  • a lens detection structure eg, the first The protrusion of the lens detection structure 811
  • the processor may determine the dioptric power range of the user lens 310 based on the pattern (eg, position) of the protrusion that is not pressed (or pressed) by the insertion of the second lens clip 830 .
  • the processor may configure the second lens clip 830 of the protrusions of the plurality of lens detection structures 811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824.
  • the dioptric power range of the user lens 310 may be determined based on a pattern (eg, number, position, or a combination thereof) of the protrusions pressed by insertion.
  • the pattern of the at least one protrusion may indicate a dioptric power range of the user lens 310 .
  • At this time, at least one of the plurality of recess structures 831 , 832 , 833 , 834 , 835 , 836 , 837 , 838 , 839 , 841 , 842 , 843 , and 844 may be set as a recess by a user.
  • the power range detected according to a pressing combination of the protrusions of the plurality of lens detection structures 811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824 is may be subdivided, and thus the method of removing the second reflection image 441 from the second eye image 400b of FIG. 4 may be subdivided, and the processor may obtain more accurate eye tracking data than the case of FIG. can
  • a recess (eg, the first recess 311a , the second recess 312a ) or directly into the user lens (eg, the first user lens 310a or the second user lens 310b )
  • the third recess 311b) needs to be machined, but in the case of FIG. 8A, it is not necessary to machine the user lens 310, and the plurality of recess structures 831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844) allows the user to simply set the recess.
  • FIG. 9 is a flowchart illustrating a gaze tracking method of a head mounted electronic device according to an exemplary embodiment.
  • the head mounted electronic device 100 may obtain accurate eye tracking data by determining whether the user lens 310 is mounted.
  • the processor may drive the gaze tracking function.
  • the processor receives an eye image (eg, the first eye image 400a or the second eye image 400b of FIG. 4 ) through the infrared light emitting device 210 and the infrared photographing device 220 of FIG. 4 ). can be obtained
  • the processor may determine whether the user lens 310 is mounted.
  • the lens clip 300 mounted to the body 110 may include at least one lens detection structure (eg, the lens detection structure of FIG. 5 or FIG. 6 ).
  • the processor may determine whether to insert the user lens 310 based on the method illustrated in FIGS. 5 to 8A .
  • the processor may perform operation 930 .
  • the processor may perform operation 950 .
  • the processor may check the dioptric power of the user lens 310 .
  • Operation 930 may be selectively performed. For example, operation 930 may be performed when the dioptric power range of the user lens 310 can be determined like the lens clip 300 of FIG. 7 or 8A .
  • the processor may check the dioptric power range of the user lens 310 (or the first user lens 310a or the second user lens 310b) according to the method described with reference to FIG. 7 or 8A .
  • the processor performs an additional reflection image (eg: The second reflection image 441 of FIG. 4 ) may be removed.
  • an additional reflection image eg: The second reflection image 441 of FIG. 4
  • the processor removes the additional reflection image in a subdivided method based on the dioptric power range of the user lens 310 identified in operation 930.
  • the processor may execute a gaze tracking algorithm based on the eyeball image. For example, when the user lens 310 is not inserted as in the first state 401 of FIG. 4 , the processor performs the eyeball image acquired in operation 910 (eg, the first eyeball image 400a of FIG. 4 ). The eye tracking algorithm may be executed based on When the user lens 310 is inserted as in the second state 403 of FIG. 4 , the processor may execute the eye tracking algorithm based on the eye image from which the additional reflection image is removed in operation 940 .
  • the processor may execute a gaze tracking algorithm based on the eyeball image. For example, when the user lens 310 is not inserted as in the first state 401 of FIG. 4 , the processor performs the eyeball image acquired in operation 910 (eg, the first eyeball image 400a of FIG. 4 ). The eye tracking algorithm may be executed based on When the user lens 310 is inserted as in the second state 403 of FIG. 4 , the processor may execute the eye tracking algorithm based on the eye image
  • the processor utilizes the gaze tracking data obtained based on the gaze tracking algorithm to a display device (eg, a display device embedded in the body 110 or mounted on the body 110 ). display of an external electronic device).
  • a display device eg, a display device embedded in the body 110 or mounted on the body 110 .
  • the processor may adjust the position of the display device based on the eye tracking data.
  • the processor may control the screen displayed on the display device based on the eye tracking data.
  • the processor may change the size of the screen displayed on the display device or change the content of the screen based on eye tracking.
  • the head-mounted electronic device 100 disclosed in this document determines whether the user lens 310 is inserted through the lens detection structure in the lens clip 300 , without using a separate optical device and control method. can be checked
  • the head mounted electronic device 100 may improve the accuracy of the eye tracking algorithm by checking whether the user lens 310 is inserted. Also, the head mounted electronic device 100 may further improve the accuracy of the eye tracking algorithm by checking the dioptric power range of the user lens 310 .
  • the wearable electronic device 1000 includes an optical output module 1081 , transparent members 1091 and 1092 , display members 1093 and 1092 , first cameras 1011 and 1012 , second cameras 1021 , and third cameras ( 1030 , an input optical member 1040 , a light emitting unit 1050 , and PCBs 1061 and 1062 may be included. Also, the wearable electronic device 1000 may include an input device 1071 such as a microphone, a sound output device 1072 such as a speaker, a battery 165 , and a hinge 1082 .
  • the light output module 1081 may include, for example, a liquid crystal display (LCD), a digital mirror device (DMD), a liquid crystal on silicon; LCoS), an organic light emitting diode (OLED), or a micro light emitting diode (micro LED).
  • LCD liquid crystal display
  • DMD digital mirror device
  • LCoS liquid crystal on silicon
  • OLED organic light emitting diode
  • micro LED micro light emitting diode
  • the wearable electronic device 1000 is a light source irradiating light to the display members 1093 and 1094 .
  • the wearable electronic device 1000 may include In another embodiment, when the light output module 1081 can generate light by itself, for example, when it is made of one of an organic light emitting diode or a micro LED, the wearable electronic device 1000 does not include a separate light source. Even if it is, it is possible to provide a virtual image of good quality to the user. In an embodiment, if the light output module 1081 is implemented with an organic light emitting diode or a micro LED, a light source is not required, so the wearable electronic device 1000 can be reduced in weight. The user may use the wearable electronic device 1000 while wearing it on the face.
  • the transparent members 1091 and 1092 may be formed of a glass plate, a plastic plate, or a polymer. The transparent members 1091 and 1092 may be manufactured to be transparent or translucent.
  • the transparent members 1091 and 1092 may include a first transparent member 1091 and a second transparent member 1092 .
  • the first transparent member 1091 may be disposed to face the user's right eye, and the second transparent member 1092 may be disposed to face the user's left eye.
  • the first transparent member 1091 and the second transparent member 1092 may be disposed to face the user's eyes.
  • the display members 1093 and 1094 may provide a screen displayed by the light output module 1081 to the user.
  • the display members 1093 and 1094 may be configured inside the transparent members 1091 and 1092 .
  • the display members 1093 and 1094 may include a first display member 1093 and a second display member 1094 .
  • the first display member 1093 may be configured in the first transparent member 1091
  • the second display member 1094 may be configured in the second transparent member 1092 .
  • the first cameras 1011 and 1012 may recognize the user's body and/or space.
  • the first cameras 1011 and 1012 may track the user's head.
  • the first cameras 1011 and 1012 may detect and track the user's hand.
  • the first cameras 1011 and 1012 may recognize a space.
  • the first cameras 1011 and 1012 may be 3DoF or 6DoF cameras.
  • the first cameras 1011 and 1012 may be global shutter (GS) cameras.
  • the first cameras 1011 and 1012 may have a stereo structure for body tracking and/or spatial recognition.
  • the first cameras 1011 and 1012 may require two cameras having substantially the same standard and/or performance.
  • a GS camera having superior performance (eg, image drag) compared to an RS (Rolling Shutter) camera is mainly used to detect quick hand movements and minute movements such as fingers and track the movements.
  • an RS camera may be used.
  • the first cameras 1011 and 1012 may perform spatial recognition for 6DoF and perform a SLAM function through depth imaging.
  • the first cameras 1011 and 1012 may perform a user gesture recognition function.
  • the second camera 1021 may detect and track the pupil.
  • the second camera 1021 may be an ET (Eye Tracking) camera.
  • the second camera 1021 may position the center of the virtual image projected on the wearable electronic device 1000 according to a gaze direction of the eye of the wearer of the wearable electronic device 1000 .
  • the second camera 1021 may be a GS camera.
  • When the second camera 1021 is a GS camera it is possible to detect a pupil and track a rapid pupil movement without dragging the screen.
  • the second camera 1021 may be installed for a left eye and a right eye, respectively.
  • the second camera 1021 may have a stereo structure.
  • the second camera 1021 may include two cameras having substantially the same performance and standard.
  • the third camera 1030 may photograph an external object (eg, a person, an object, and/or a background).
  • the third camera 1030 may be a high resolution camera such as HR (High Resolution) or PV (Photo Video).
  • the third camera 1030 may include a function for obtaining a high-quality image, such as an auto focus (AF) function and/or an OIS function.
  • the third camera 1030 may be a camera having high color-related performance.
  • the third camera 1030 may be a GS camera or an RS camera.
  • the input optical member 1040 may guide light to an optical waveguide. A detailed description of the operation of the input optical member 1040 will be described with reference to FIG. 11 .
  • the light emitting unit 1050 may be disposed inside the second housing part.
  • the light emitting part 1050 may be disposed to face the front surface of the second housing part.
  • the light emitting unit 1050 may be disposed adjacent to the hinge 1082 .
  • the present invention is not limited thereto, and the light emitting unit 1050 may be disposed adjacent to the center of the second housing part.
  • the light emitting unit 1050 may supplement ambient brightness when photographing with the first cameras 1011 and 1012 .
  • the light emitting unit 1050 may supplement ambient brightness when it is difficult to detect a subject to be photographed in a dark environment or due to mixing and reflected light of various light sources.
  • the light emitting unit 1050 may be used as an auxiliary means for facilitating detection of eye gaze when photographing a pupil with the second camera 1021 .
  • the light emitting unit 1050 may be an IR LED emitting light of an infrared wavelength.
  • the PCBs 1061 and 1062 may be disposed inside the first housing portion or the third housing portion.
  • the PCBs 1061 and 1062 may be disposed adjacent to the temples.
  • the PCBs 1061 and 1062 may be electrically connected to the FPCB.
  • the PCBs 1061 and 1062 include modules inside the wearable electronic device 1000 (eg, the first cameras 1011 and 1012, the second camera 1021, the third camera 1030, and the optical output module) through the FPCB. 1081 ), the input device 1071 , and the sound output device 1072 ) may transmit an electrical signal.
  • the PCBs 1061 and 1062 may include a first PCB 1061 and a second PCB 1062 .
  • the first PCB 1061 and the second PCB 1062 may be electrically connected.
  • an interposer may be disposed between the first PCB 1061 and the second PCB 1062 .
  • the first PCB 1061 and the second PCB 1062 may transmit and receive electrical signals to each other.
  • FIG. 11 is a diagram 1100 illustrating an optical structure of a wearable electronic device (eg, the wearable electronic device 1000 of FIG. 10 ) according to an exemplary embodiment.
  • the first optical waveguide 1110 may be included in the glass (eg, the transparent members 1091 and 1092 of FIG. 10 ).
  • the first optical waveguide 1110 may transmit the light generated by the light output module 1081 to the user's eye 1150 .
  • the first optical waveguide 1110 may be made of glass, plastic, or polymer.
  • a nanopattern may be formed on at least a portion of an inner surface or an outer surface of the first optical waveguide 1110 .
  • the nanopattern may include a polygonal or curved grating structure.
  • the light output from the light output module 1081 may be incident on one end of the first optical waveguide 1110 through the input optical member 1040 .
  • Light incident to one end of the first optical waveguide 1110 may be propagated inside the second optical waveguide 1120 , which is an optical waveguide of the optical output module 1081 , by a nano-pattern.
  • the light propagated inside the second optical waveguide 1120 may be provided to a user.
  • the second optical waveguide 1120 may include a free-form prism.
  • the second optical waveguide 1120 may include at least one of at least one diffractive element (eg, a diffractive optical element (DOE), a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror).
  • DOE diffractive optical element
  • HOE holographic optical element
  • the second optical waveguide 1120 may guide the incident light to the user's eye 1150 through a diffractive element or a reflective element to provide it to the user.
  • the diffractive element may include an input optical member 1040 and an output optical member 1140 .
  • the reflective element may include total internal reflection (TIR).
  • TIR total internal reflection
  • light emitted from the light output module 1081 may be guided to the first optical waveguide 1110 through the input optical member 1040 .
  • the light moving inside the first optical waveguide 1110 may be guided toward the user's eye 1150 through the output optical member 1140 .
  • the user may recognize the screen according to the light emitted in the direction of the user's eyes 1150 .
  • the light propagated inside the second optical waveguide 1120 may be split through a beam splitter 1130 . At least a portion of the light split through the beam splitter 1130 may be guided to the second camera 1021 .
  • the second camera 1021 may process the light guided to the second camera 1021 using the ET sensor 1121 , the ET optic member 1123 , and the lens 1125 .
  • the head mounted electronic device (eg, the head mounted electronic device 100 ) includes a body (eg, the body 110 or the main frame) and at least one opening (eg, the opening 301 ). and a lens clip (eg, lens clip 300) disposed on the body in the direction of the user's face, an infrared light emitting device disposed on a part of the body (eg, infrared light emitting device 210), and another part of the body an infrared photographing device (eg, infrared photographing device 220) for acquiring a first eye image in which infrared light emitted from the infrared light emitting device is reflected on the user's eye, and operates with the infrared light emitting device and the infrared photographing apparatus It may include a processor (eg, the control unit 140 or the eye tracking unit 170) that is connected to each other.
  • a processor eg, the control unit 140 or the eye tracking unit 170
  • the processor transmits at least one first signal (eg, a first signal transmitted to the lens detection structure) to the lens clip, and a second signal (eg, from the lens detection structure) received in response to the first signal Detects whether the lens is mounted on the at least one opening based on the received second signal)
  • a gaze tracking algorithm is performed based on the first eye image (eg, the first eye image 400a), and when it is confirmed that the user lens is mounted in the at least one opening, the user from the first eye image
  • the eye tracking algorithm may be performed based on the second eye image (eg, the second eye image 400b) from which the additional reflected light image (eg, the second reflection image 441) generated by the lens is removed.
  • the processor determines that the user lens is not mounted in the at least one opening, and when the second signal is received, the at least one opening It may be determined that the user lens is mounted.
  • the processor determines that the user lens is not mounted on the at least one opening, and the second signal is the same as the first signal In this case, it may be determined that the user lens is mounted in the at least one opening.
  • the body includes a first electrode (eg, a third electrode 512 or a second electrode 612 ) and a second electrode (eg, a fourth electrode 522 ) or A third electrode 622) may be included.
  • the lens clip electrically connects the first electrode and the second electrode when the user lens is mounted in the at least one opening, and the first when the user lens is not mounted in the at least one opening.
  • the electrode and the second electrode may be electrically blocked.
  • the lens clip includes an internal wiring (eg, an internal wiring 550 or an internal wiring 650) electrically connected to the first electrode when the lens clip is disposed on the body, and the A protrusion (eg, a second pogo pin 520, a lever (eg, a second pogo pin 520) that protrudes in a direction toward at least one opening and is electrically connected to the second electrode and the internal wiring when the user lens is mounted in the at least one opening. 610), protrusions 711a, 712a, and 713a, protrusions 721a, 722a, 723a, and protrusions 811a).
  • an internal wiring eg, an internal wiring 550 or an internal wiring 650
  • the A protrusion eg, a second pogo pin 520, a lever (eg, a second pogo pin 520) that protrudes in a direction toward at least one opening and is electrically connected to the second electrode and the internal wiring when the user lens is mounted in the at least one opening
  • the lens clip is electrically connected to the first electrode and the internal wiring when the lens clip is disposed on the body, and a first elastic member (eg, the first elastic member 531))
  • a first pogo pin eg, a first pogo pin 510) protruding from the lens clip in a direction toward the first electrode
  • a second elastic member eg, a second elastic member 532) as the protrusion
  • may include a second pogo pin eg, a second pogo pin 520 protruding from the lens clip in a direction toward the at least one opening.
  • a third electrode (eg, the first electrode 611 ) electrically connected to one end of the internal wiring and contacting the first electrode when the lens clip is disposed on the body, the inside A lever electrically connected to the other end of the wiring and protruding from the lens clip in a direction toward the at least one opening by an elastic member (eg, the elastic member 631) as the protrusion (eg, the lever 610); and a conductive rod (eg, conductive rod 620 ) electrically connected to a part of the lever and contacting the second electrode when the user lens is mounted in the at least one opening.
  • an elastic member eg, the elastic member 631
  • a conductive rod eg, conductive rod 620
  • the lens clip (eg, the lens clip 300 ) mountable to the head mounted electronic device (eg, the head mounted electronic device 100 ) includes at least one opening (eg, the opening 301 ).
  • a housing including, a protrusion (eg, a second pogo pin 520, a lever 610, a protrusion 711a, 712a, 713a) disposed on a part of the housing so as to protrude toward the at least one opening, a protrusion 721a, 722a, 723a), the protrusion 811a), and an internal wiring (eg, internal wiring) electrically connected to the projection when a user lens (eg, user lens 310 or a prescription lens) is mounted in the at least one opening 550 or an internal wiring 650).
  • a protrusion eg, a second pogo pin 520, a lever 610, a protrusion 711a, 712a, 713a
  • an internal wiring eg, internal wiring
  • the internal wiring may be electrically connected to a first electrode (eg, the third electrode 512 or the second electrode 612 ) of the head mounted electronic device.
  • the protrusion may be electrically connected to a second electrode (eg, a fourth electrode 522 or a third electrode 622 ) of the head mounted electronic device.
  • the lens clip includes a third electrode (eg, the first electrode 511) electrically connected to one end of the internal wiring, and a fourth electrode (eg, the second electrode) electrically connected to the other end of the internal wiring.
  • a third electrode eg, the first electrode 511) electrically connected to one end of the internal wiring
  • a fourth electrode eg, the second electrode
  • a second pogo pin eg, the second pogo pin 520
  • the second pogo pin 520 may be further included.
  • the first pogo pin may be in contact with the first electrode and the third electrode through pressing by the head mounted electronic device when the housing is mounted on the head mounted electronic device.
  • the second pogo pin may be in contact with the second electrode and the fourth electrode through pressing by the user lens when the user lens is mounted in the at least one opening.
  • the second pogo pin may be electrically connected to the fourth electrode through the second elastic member.
  • a third electrode (eg, the first electrode 611) electrically connected to one end of the internal wiring, an elastic member (eg, the elastic member 631), electrically connected to the other end of the internal wiring
  • an elastic member eg, the elastic member 631
  • a lever eg, lever 610 that is connected and protrudes in a direction from the housing toward the at least one opening by the elastic member, and a conductive rod electrically connected to a part of the lever (eg, conductive rod 620) )
  • a lever eg, lever 610 that is connected and protrudes in a direction from the housing toward the at least one opening by the elastic member, and a conductive rod electrically connected to a part of the lever (eg, conductive rod 620) )
  • the third electrode may contact the first electrode when the housing is mounted on the head mounted electronic device.
  • the conductive bar when the user lens is mounted in the at least one opening, the conductive bar may be in contact with the second electrode by pressing the lever by the user lens.
  • the head-mounted electronic device includes a body and an opening (eg, a first opening 301a, a second opening 301b, or an opening 810), and is disposed on the body in the direction of the user's face,
  • a lens clip including a plurality of protrusions (eg, protrusions 711a, 712a, 713a, protrusions 721a, 722a, 723a, and protrusions 811a) protruding toward the opening, infrared light emission disposed on a part of the body device, disposed on another part of the body, an infrared photographing device for acquiring a first eyeball image in which infrared light emitted from the infrared light emitting device is reflected by the user's eyeball, the infrared light emitting device and the infrared photographing device operatively It may include a connected processor.
  • the processor transmits a plurality of first signals corresponding to the plurality of protrusions to the lens clip, and determines whether the lens of the aperture is mounted on the basis of a plurality of second signals received in response to the plurality of first signals;
  • the power range of the mounted user lens is checked, and when it is determined that the user lens is not mounted in the opening, a gaze tracking algorithm is performed based on the first eye image, and it is determined that the user lens is mounted in the opening If confirmed, the eye tracking algorithm may be performed based on a second eye image obtained by removing the additional reflected light image generated by the user lens from the first eye image according to the dioptric power range of the user lens.
  • the processor when it is confirmed that the user lens is mounted in the opening, the processor includes the number, position, or Through their combination, the frequency range can be determined.
  • At least one protrusion pressed by the user lens among the plurality of protrusions may output the second signal identical to the first signal.
  • the head mounted electronic device is inserted into the lens clip, the user lens is mounted, and a plurality of recess structures (eg, a plurality of recess structures 831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844) may further include a sub-lens clip (eg, the second lens clip 830).
  • a plurality of recess structures eg, a plurality of recess structures 831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844
  • a sub-lens clip eg, the second lens clip 830.
  • Each of the plurality of protrusions may or may not be pressed by each of the plurality of recess structures.
  • each of the plurality of recess structures may be slid into the sub lens clip to form a recess.
  • the electronic device may be a device of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a laptop, a desktop, a tablet, or a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a smart watch
  • a home appliance device e.g., a smart bracelet
  • first”, “second”, or “first” or “second” may simply be used to distinguish the component from other such components, and may refer to components in other aspects (eg, importance or order) is not limited. that one (eg first) component is “coupled” or “connected” to another (eg, second) component with or without the terms “functionally” or “communicatively” When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document may be implemented as software (eg, a program) including one or more instructions stored in a storage medium (eg, internal memory or external memory) readable by a machine.
  • the processor eg, the controller 140 of FIG. 2
  • the device eg, the electronic device 100 of FIGS. 1 and 2
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

몸체, 적어도 하나의 개구를 포함하며 사용자의 얼굴 방향으로 상기 몸체에 배치되는 렌즈 클립, 상기 몸체의 일부에 배치되는 적외선 발광 장치, 상기 몸체의 다른 일부에 배치되며, 상기 적외선 발광 장치로부터 발광된 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치, 상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서를 포함하는 전자 장치가 개시된다.

Description

사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치
본 문서에서 개시되는 다양한 실시 예들은, 사용자의 머리에 장착되는 전자 장치와 관련된다.
신체에 직접 착용될 수 있는 형태의 다양한 전자 장치들이 개발되고 있다. 이러한 장치들은 일반적으로 웨어러블(wearable) 전자 장치로 불릴 수 있다. 웨어러블 전자 장치는, 예를 들어, 머리 장착형 디스플레이(HMD; Head-Mounted Display), 스마트 안경(smart glass), 스마트 시계(smart watch), 스마트 밴드(smart wristband), 콘텍트렌즈형 장치, 반지형 장치, 신발형 장치, 의복형 장치, 또는 장갑형 장치를 포함할 수 있다. 이러한 웨어러블 전자 장치는 신체 또는 의복에 직접 착용되므로 이동성(portability) 및 사용자의 접근성(accessibility)을 비약적으로 향상시킬 수 있다.
웨어러블 전자 장치의 다양한 예시 가운데 사용자의 머리에 장착될 수 있는 머리 장착형 디스플레이는, 사용자의 양안과 근접한 위치에 소정의 영상을 제공함으로써, 사용자에게 실감나는 영상을 제공할 수 있다.
머리 장착용 전자 장치는 사용자의 시선을 추적하고, 시선 추적 결과에 기초하여 표시되는 영상을 사용자의 시선에 맞게 표시하거나 영상을 제어할 수 있다. 머리 장착용 전자 장치는 사용자의 시선 분석을 위해 적외선 발광 장치 및 적외선 촬영 장치를 이용할 수 있다. 적외선 촬영 장치는 적외선 발광 장치로부터 발광된 적외선이 사용자에 안구에 반사된 안구 이미지를 획득할 수 있고, 머리 장착용 전자 장치는 획득된 안구 이미지에 기초하여 사용자의 시선 이동을 분석할 수 있다. 다만, 사용자에 따라 추가적인 사용자 렌즈(예: 도수 렌즈)를 사용할 수 있고, 머리 장착용 전자 장치에 사용자 렌즈가 사용되는 경우 획득된 안구 이미지에 의해 의도하지 않은 추가 반사광이 포함될 수 있다. 이에 머리 장착용 전자 장치의 시선 분석 성능은 저하될 수 있다. 또한, 획득된 안구 이미지에서 사용자 렌즈에 의한 추가 반사광을 제거 또는 별도의 처리를 하기 위해서는, 머리 장착용 전자 장치에 사용자 렌즈의 삽입 여부에 대한 판단이 선행될 필요가 있다.
본 문서에 개시되는 다양한 실시 예들은, 렌즈 검출 구조를 포함하는 렌즈 클립을 제공할 수 있다.
본 문서에 개시되는 다양한 실시 예들은, 정확한 사용자 시선 분석을 위해, 렌즈 클립에 포함된 렌즈 검출 구조를 통해 사용자 렌즈의 삽입 여부를 검출할 수 있는 머리 장착형 전자 장치를 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 머리 장착형 전자 장치는, 몸체, 적어도 하나의 개구를 포함하며 사용자의 얼굴 방향으로 상기 몸체에 배치되는 렌즈 클립, 상기 몸체의 일부에 배치되는 적외선 발광 장치, 상기 몸체의 다른 일부에 배치되며, 상기 적외선 발광 장치로부터 발광된 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치, 상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 렌즈 클립으로 적어도 하나의 제1 신호를 전송하고, 상기 제1 신호에 응답하여 수신되는 제2 신호에 기초하여 상기 적어도 하나의 개구의 렌즈 장착 여부를 검출하고, 상기 적어도 하나의 개구에 사용자 렌즈가 장착되지 않은 것으로 확인되는 경우 상기 제1 안구 이미지에 기초하여 시선 추적 알고리즘을 수행하고, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우 상기 제1 안구 이미지로부터 상기 사용자 렌즈에 의해 발생하는 추가 반사광 이미지를 제거한 제2 안구 이미지에 기초하여 상기 시선 추적 알고리즘을 수행할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 머리 장착형 전자 장치에 장착 가능한 렌즈 클립은, 적어도 하나의 개구를 포함하는 하우징, 상기 적어도 하나의 개구를 향하여 돌출되도록, 상기 하우징의 일부에 배치되는 돌출부, 및 상기 적어도 하나의 개구에 사용자 렌즈가 장착되는 경우 상기 돌출부에 전기적으로 연결되는 내부 배선을 포함할 수 있다. 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 내부 배선은 상기 머리 장착형 전자 장치의 제1 전극에 전기적으로 연결될 수 있다. 상기 돌출부는 상기 머리 장착형 전자 장치의 제2 전극에 전기적으로 연결될 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 머리 장착형 전자 장치는, 몸체, 개구를 포함하며 사용자의 얼굴 방향으로 상기 몸체에 배치되고 상기 개구를 향하여 돌출된 복수의 돌출부를 포함하는 렌즈 클립, 상기 몸체의 일부에 배치되는 적외선 발광 장치, 상기 몸체의 다른 일부에 배치되며, 상기 적외선 발광 장치로부터 발광된 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치, 상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 렌즈 클립으로 상기 복수의 돌출부에 대응하는 복수의 제1 신호를 전송하고, 상기 복수의 제1 신호에 응답하여 수신되는 복수의 제2 신호에 기초하여 상기 개구의 렌즈 장착 여부 및 장착된 사용자 렌즈의 도수 범위를 확인하고, 상기 개구에 상기 사용자 렌즈가 장착되지 않은 것으로 확인되는 경우 상기 제1 안구 이미지에 기초하여 시선 추적 알고리즘을 수행하고, 상기 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우 상기 사용자 렌즈의 도수 범위에 따라 상기 제1 안구 이미지로부터 상기 사용자 렌즈에 의해 발생하는 추가 반사광 이미지를 제거한 제2 안구 이미지에 기초하여 상기 시선 추적 알고리즘을 수행할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 렌즈 클립에 포함된 렌즈 검출 구조를 통해 사용자 렌즈의 삽입 여부를 간단히 검출할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 사용자 렌즈의 삽입 여부 검출에 기초하여 머리 장착형 전자 장치의 정확한 시선 분석 기능을 제공할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
아래의 상세한 설명에 들어가기 전에, 본 문서 전반에 사용되는 사용되는 특정 단어 및 어구들의 정의를 기재하는 것이 도움이 될 수 있다: 용어 "포함한다(include)" 및 "구성한다(comprise)" 그리고 그 파생어는 제한이 아닌 포함을 의미하고; 용어 "또는(or)"은 포괄적 용어로써, '및/또는'을 의미하고; 어구 "~와 관련되다(associated with)" 및 그 파생어는 ~을 포함한다(include), ~에 포함된다(be included within), ~와 결합하다 (interconnect with), ~을 함유하다(contain), ~에 함유되어 있다(be contained within), ~에 연결한다(connect to or with), ~와 결합하다(couple to or with), ~ 전달한다(be communicable with), 와 협력하다 (cooperate with), ~를 끼우다(interleave), ~을 나란히 놓다(juxtapose), ~에 인접하다(be proximate to), 구속하다/구속되다(be bound to or with), 소유하다(have), 속성을 가지다(have a property of) 등을 의미하고; 용어 "제어부(controller)"는 적어도 하나의 동작을 제어하는 어떤 장치, 시스템 또는 그 일부를 의미하며, 이러한 장치는 하드웨어, 펌웨어 또는 소프트웨어, 또는 이들 중의 적어도 두 개의 조합으로 구현될 수 있다. 특정 제어부와 관련된 기능은 로컬 또는 원격으로 중앙 집중식으로 처리(centralized)되거나 또는 분산식으로 처리(distributed)될 수 있음에 유의해야 한다.
또한, 후술하는 각종 기능들은 컴퓨터 판독 가능한 프로그램 코드로 형성되고 컴퓨터 판독 가능한 매체에서 구현 되는 하나 이상의 컴퓨터 프로그램 각각에 의해 구현 또는 지원될 수 있다. 용어 "애플리케이션" 및 "프로그램"은 하나 이상의 컴퓨터 프로그램, 소프트웨어 컴포넌트, 명령 세트, 프로시저, 함수, 객체, 클래스, 인스턴스, 관련 데이터, 혹은 적합한 컴퓨터 판독 가능한 프로그램 코드에서의 구현용으로 구성된 그것의 일부를 지칭할 수 있다. 어구 "컴퓨터 판독 가능한 프로그램 코드"는 소스 코드, 오브젝트 코드, 및 실행 가능한 코드를 포함하는 컴퓨터 코드의 종류를 포함할 수 있다. 어구 "컴퓨터 판독 가능한 매체"는 ROM(read only memory), RAM(random access memory), 하드 디스크 드라이브, 컴팩트 디스크(CD), 디지털 비디오 디스크(DVD), 또는 임의의 다른 타입의 메모리와 같은, 컴퓨터에 의해 액세스될 수 있는 임의의 타입의 매체를 포함할 수 있다. "비-일시적인" 컴퓨터 판독 가능한 매체는 유선, 무선, 광학, 일시적인 전기적 또는 다른 신호들을 전달시키는 통신 링크를 제외할 수 있다. 비-일시적 컴퓨터 판독가능한 매체는 데이터가 영구적으로 저장되는 매체 그리고 재기록이 가능한 광디스크 또는 소거 가능한 메모리 장치와 같은, 데이터가 저장되어 나중에 덮어 씌어지는 매체를 포함할 수 있다.
특정 단어 및 어구에 대한 정의가 본 문서 전반에 걸쳐 제공되며, 통상의 기술자는 대부분의 경우가 아니더라도 다수의 경우에 있어서, 이러한 정의는 종래 뿐만 아니라 그러한 정의된 단어 및 어구의 향후 사용에 적용될 수 있음을 이해해야 한다.
본 개시 내용 및 그 효과를 보다 충분한 이해하기 위해, 유사한 참조 번호가 유사한 부분을 나타내는 첨부 도면과 함께 다음과 같은 설명을 참조하기로 한다.
도 1은 일 실시 예에 따른 머리 장착형 전자 장치의 구성을 나타내는 사시도이다.
도 2는, 도 1의 머리 장착형 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시 예에 따른 머리 장착형 전자 장치에 렌즈 클립 및 사용자 렌즈가 장착되는 방법을 나타내는 사시도이다.
도 4는, 도 3의 A-A' 라인에 따른 단면도에 기초하여 안구 이미지를 획득하는 방법을 나타내는 도면이다.
도 5는, 도 3의 B 부분에 배치된 렌즈 검출 구조의 일 예를 나타내는 도면이다.
도 6은, 도 3의 B 부분에 배치된 렌즈 검출 구조의 다른 예를 나타내는 도면이다.
도 7은 일 실시 예에 따른 렌즈 클립을 나타내는 도면이다.
도 8a은 다른 실시 예에 따른 렌즈 클립을 나타내는 도면이다.
도 8b는, 도 8a의 복수의 리세스 구조 중 하나를 예시적으로 나타내는 도면이다.
도 9는 일 실시 예에 따른 머리 장착형 전자 장치의 시선 추적 방법을 나타내는 순서도이다.
도 10은 다양한 실시 예에 따른 웨어러블 전자 장치를 나타낸 도면이다.
도 11은 다양한 실시 예에 따른 웨어러블 전자 장치의 광학 구조를 나타낸 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하에 설명되는 도 1 내지 도 11과, 본 문서의 개시의 원리를 설명하기 위한 다양한 실시 예는 예시일 뿐이며, 어떤 방식으로도 개시의 범위를 제한하는 것으로 해석되어서는 안된다. 통상의 기술자는 본 개시의 내용이 적절하게 구성된 시스템 또는 장치에서 구현될 수 있음을 이해할 것이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른 머리 장착형 전자 장치의 구성을 나타내는 사시도이다.
도 1을 참조하면, 머리 장착형 전자 장치(100)는 몸체(110)(예: 메인 프레임(main frame)) 및 착용 파트(또는 장착 부재)(115)(예: 고글 밴드(goggle band))를 포함할 수 있다.
일 실시 예에 따르면, 몸체(110)는 사용자의 얼굴 중 적어도 일부(예: 안면(facial side))에 착용될 수 있고, 다양한 구성 요소에 의해 사용자의 안면에 지지될 수 있다. 착용 파트(115)는 몸체(110)에 연결되어 머리 장착형 전자 장치(100)를 사용자의 신체 일부분(예: 머리)에 고정시킬 수 있다. 일 예로, 착용 파트(115)는 탄성 소재로 형성된 밴드(또는 벨크로 테이프)의 길이를 조절하여 몸체(110)가 사용자 얼굴의 눈 주위에 밀착되게 할 수 있다. 상기 밴드에는 장시간의 착용을 고려하여 편안한 착용감을 제공하고자 쿠션들이 부착될 수 있다. 다른 예로, 착용 파트(115)는 안경 다리(eyeglass temples), 헬멧(helmets) 또는 스트랩(straps)으로 구현될 수 있다.
일 실시 예에 따르면, 몸체(110)의 일면은 사용자의 안면에 접촉되는 안면 접촉 파트(130)를 포함할 수 있다. 예를 들면, 안면 접촉 파트(130)는 사용자의 안면의 굴곡에 대응하는 구조를 가질 수 있고, 탄성체(134)를 적어도 일부 포함할 수 있다. 탄성체(134)는 안면 접촉 파트(130)가 사용자의 안면에 접촉될 시 편안한 착용감을 제공할 수 있도록 스폰지와 같은 적어도 하나 이상의 쿠션 재질이 사용될 수 있다. 탄성체(134)는 하나의 스폰지로 구성될 수도 있고, 압축률이 다른 적어도 하나 이상의 스폰지를 합지한 형상이 될 수도 있다. 예컨대, 탄성체(134)는 세 겹(예, 상층, 중층, 하층)으로 합지된 스폰지로서, 상, 하층은 압축률인 낮은 스폰지를 사용하고, 중층은 압축률이 높은 스폰지를 사용할 수 있다.
일 실시 예에 따르면, 몸체(110)는 사용자의 안면에 용이하게 착용될 수 있다. 예를 들면, 몸체(110)의 모양이나 구조는 사용자의 눈을 덮은 외형이되, 사용자의 코가 위치할 수 있도록 코 형상의 홈(120)(예: nose recess)을 포함할 수 있다.
일 실시 예에 따르면, 몸체(110)의 일부에 사용자의 두 눈에 대면하는 위치에는, 적어도 하나의 렌즈를 포함하는 렌즈 조립체(135)가 삽입될 수 있다. 예를 들면, 사용자가 머리 장착형 전자 장치(100)를 착용할 때, 사용자의 눈으로 디스플레이 장치(예: 몸체(110)에 내장된 디스플레이 장치 또는 몸체(110)에 장착되는 외부 전자 장치의 디스플레이)의 화면을 볼 수 있도록, 렌즈 조립체(135)의 적어도 일 면이 노출될 수 있다.
일 실시 예에 따르면, 몸체(110)는 내부에 디스플레이 장치를 포함할 수 있다. 예를 들면, 상기 디스플레이 장치는 다양한 컨텐츠를 표시할 수 있다. 일 예로, 상기 디스플레이 장치는 몸체(110)에 내장된 디스플레이 장치를 포함할 수 있다. 다른 예로, 몸체(110)는 외부 전자 장치(예: 스마트폰)와 결합할 수 있고, 상기 디스플레이 장치는 상기 외부 전자 장치의 디스플레이를 포함할 수 있다. 몸체(110)는 상기 외부 전자 장치와 통신할 수 있도록 커넥터(connector)를 포함할 수 있다. 상기 외부 전자 장치는 상기 커넥터에 연결될 수 있다. 상기 커넥터는 USB 포트에 접속될 수 있는 USB 커넥터를 포함할 수 있고, 상기 USB 커넥터를 통해 그래픽 사용자 인터페이스의 신호를 상기 외부 전자 장치에 제공할 수 있다.
일 실시 예에 따르면, 몸체(110)는 머리 장착형 전자 장치(100) 또는 상기 외부 전자 장치를 제어하는 컨트롤 장치(또는 사용자 입력 모듈)를 포함할 수 있다. 또는 상기 컨트롤 장치는 상기 디스플레이 장치(예: 내장형 디스플레이 장치 또는 상기 외부 전자 장치의 디스플레이)를 제어할 수 있다. 상기 컨트롤 장치는 터치 패드(112), 물리 버튼(129), 터치 키, 조이스틱 또는 휠(wheel) 키 중에서 적어도 하나를 포함할 수 있다. 예를 들어, 터치 패드(112)는 그래픽 사용자 인터페이스(graphical user interface, GUI)를 표시할 수 있다. 오디오에 대한 GUI는 몸체(110)에서 출력되는 오디오의 음량을 조절할 수 있고, 영상에 관한 GUI는 상기 디스플레이 장치에서 표시되는 영상을 제어할 수 있다. 또한, 터치 패드(112)는 사용자의 터치 입력 예로서, 터치 패드(112)를 직접 터치하는 입력 또는 호버링(hovering) 입력을 수신할 수 있다.
일 실시 예에 따르면, 몸체(110)는 상기 디스플레이 장치의 위치를 조정하는 디스플레이 위치 조정부(114)를 포함할 수 있다. 일 예로, 디스플레이 위치 조정부(114)는 휠(wheel) 또는 다이얼(dial) 형태로 구성될 수 있다. 사용자가 디스플레이 위치 조정부(114)로 구현된 휠 또는 다이얼을 돌리면, 상기 디스플레이 장치(또는 상기 외부 전자 장치)가 이동되어 상기 디스플레이 장치와 사용자(예를 들어, 사용자의 안구) 사이의 거리를 조정할 수 있고, 그 결과 사용자는 시청 하기에 적합하거나 최적으로 디스플레이되는 영상을 감상할 수 있도록 상기 디스플레이 장치의 위치를 조정할 수 있다. 다양한 예로, 디스플레이 위치 조정부(114)는 하드웨어적으로 또는 소프트웨어적으로 구현될 수 있으며, 몸체(110)의 외부 표면에 복수로 구비될 수도 있다.
일 실시 예에 따르면, 몸체(110)는 커버(126)를 포함할 수 있다. 예를 들면, 커버(126)는 내장형 디스플레이 장치를 보호하거나 상기 외부 전자 장치가 몸체(110)에 더욱 견고하게 지지되도록 몸체(110)에 결합될 수 있다. 커버(126)는 몸체(110)에 후크와 같은 형태로 물리적인 결합을 할 수 있고, 자석이나 전자석과 같은 방식으로 결합될 수도 있다. 일 예로, 커버(126)는 전면에 윈도우를 추가로 포함할 수 있으며, 상기 윈도우는 다양한 형태의 재질 및 컬러를 통해 심미감을 높일 수 있다. 상기 윈도우는 PC(polycarbonate), 또는 아크릴과 같은 일반적인 플라스틱 재질로 제작될 수 있고, 유리, 사파이어, 또는 투명 세라믹과 같은 세라믹 재질로 제작 될 수도 있고, 알루미늄, 또는 SUS와 같은 메탈 재질로도 제작 될 수 있다. 투명한 재료의 경우는 유색 컬러를 포함할 수 있고, 투명도를 조절 할 수 도 있다.
도 2는, 도 1의 머리 장착형 전자 장치의 구성을 나타내는 블록도이다.
도 2를 참조하면, 머리 장착형 전자 장치(100)는 제어부(micro controller unit, MCU)(140), 통신 모듈(145), 센서 모듈(150), 입력 장치(155), 전력 관리 모듈(160), 배터리(165), 시선 추적부(eye tracker)(170), 모터(vibrator)(175), 초점 조절부(adjustable optics)(또는 렌즈 조립체)(180) 또는 메모리(185)를 포함할 수 있다. 도 2에서, 다른 구성요소들(예: 디스플레이 장치)은 설명의 편의를 위하여, 도시되지 않았다. 다른 실시 예에서는, 도 2에 도시된 구성요소들의 일부는 도 1의 몸체(110) 내에, 다른 구성 요소는, 외부 전자 장치(예: 착탈 가능한 스마트폰)내에 포함될 수도 있다.
일 실시 예에 따르면, 제어부(MCU)(140)는 프로세서를 포함하며, 운영체제(OS) 또는 임베디드 S/W 프로그램을 구동하여 제어부(140)에 연결된 다수의 하드웨어 구성요소들을 제어할 수 있다.
일 실시 예에 따르면, 통신 모듈(145)은 머리 장착형 전자 장치(100)의 몸체(110)와 상기 외부 전자 장치, 예를 들어 스마트폰 단말기를 유선 및/또는 무선 통신을 이용하여 전기적으로 연결하여 데이터 송수신을 수행할 수 있다. 통신 모듈(145)은 USB 모듈, WiFi 모듈, BT 모듈, NFC 모듈, 또는 GPS 모듈을 포함할 수 있다. WiFi 모듈, BT 모듈, GPS 모듈 또는 NFC 모듈 중 적어도 일부(예: 두 개 이상)는 하나의 집적 칩(integrated chip, IC) 또는 IC 패키지 내에 포함될 수 있다.
일 실시 예에 따르면, 센서 모듈(150)은 물리량을 계측하거나 머리 장착형 전자 장치(100)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(150)은 예를 들면, 가속도 센서, 자이로 센서, 지자계 센서, 마그네틱 센서, 근접 센서, 제스처 센서, 그립 센서, 또는 생체 센서 중의 적어도 하나를 포함할 수 있다. 머리 장착형 전자 장치(100)는 가속도 센서, 자이로 센서, 및/또는 지자계 센서를 이용하여 머리 장착형 전자 장치(100)를 착용한 사용자의 머리 움직임을 감지할 수 있다. 머리 장착형 전자 장치(100)는 근접 센서 혹은 그립 센서를 이용하여 머리 장착형 전자 장치(100)의 착용 여부를 감지할 수 있다. 센서 모듈(150)의 적어도 일부 구성요소는 착탈 가능한 상기 외부 전자 장치 내에 포함될 수도 있다. 센서 모듈(150)은 사용자 착용에 따른 IR 인식, 가압 인식, 캐패시턴스(혹은 유전율)의 변화량 중 적어도 하나를 감지하여 사용자의 착용 여부를 감지 할 수 있다. 제스처 센서는 사용자의 손 또는 손가락의 움직임을 감지하여 머리 장착형 전자 장치(100)의 입력 동작으로 받을 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(150)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), 또는 홍채 센서와 같은 생체인식 센서를 이용하여 사용자의 생체 정보를 인식할 수 있다. 센서 모듈(150)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
일 실시 예에 따르면, 입력 장치(155)는 터치 패드(예: 도 1의 터치 패드(112)) 또는 버튼(예: 도 1의 물리 버튼(129))을 포함할 수 있다. 예를 들면, 터치 패드는 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패드는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능할 수 있다. 터치 패드는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패드는 사용자에게 촉각 반응을 제공할 수 있다. 버튼은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다.
일 실시 예에 따르면, 시선 추적부(eye tracker)(170)는, 예를 들면, EOG 센서(electircal oculography), 코일 시스템(coil systems), dual purkinje systems, bright pupil systems, 또는 dark pupil systems 중 적어도 하나의 방식을 이용하여 사용자의 시선을 추적할 수 있다. 또한, 시선 추적부(170)는 시선 추적을 위한 마이크로 카메라를 더 포함할 수도 있다. 초점 조절부(ajustable optics)(180)는 사용자로 하여금 자신의 신체 조건에 적합한 영상을 감상할 수 있도록, 사용자의 양안 사이 거리(inter-pupil distance, IPD)를 측정하여 렌즈(예: 도 1의 렌즈 조립체(135))의 거리 및 디스플레이(예: 내장형 디스플레이 장치 또는 상기 외부 전자 장치의 디스플레이)의 위치를 조정할 수 있다. 또한, 초점 조절부(180)는 사용자의 시선 방향을 파악하여 사용자가 주시하고 있는 물체의 정보를 표시 또는 선택하거나 디스플레이 영상의 데이터를 축소하거나 사용자에게 현실감을 주기 위하여 영상 중 사용자가 주시하고 있는 일부 영역을 제외한 영역의 해상도를 낮게 표시(foveated rendering)할 수 있다.
일 실시 예에 따르면, 메모리(185)는 내장 메모리 또는 외장 메모리를 포함할 수 있다. 예를 들어, 내장 메모리는 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM)) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, 또는 NOR flash memory) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 내장 메모리는 SSD(solid state drive)일 수 있다. 외장 메모리는, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 메모리 스틱(memory stick)과 같은 플래시 드라이브(flash drive)를 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 머리 장착형 전자 장치(100)과 기능적으로 연결될 수 있다. 일 실시 예에 따르면, 머리 장착형 전자 장치(100)은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
일 실시 예에 따르면, 메모리(185)는 제어부(140), 통신 모듈(145), 센서 모듈(150) 및 입력 장치(155)로부터 생성된 명령 또는 데이터를 저장할 수 있다. 메모리(185)는 커널(kernel), 미들웨어(middleware), 애플리케이션 프로그래밍 인터페이스(API: application programming interface) 또는 애플리케이션과 같은 프로그래밍 모듈들을 포함할 수 있다.
예를 들면, 커널은 커널 외의 다른 프로그래밍 모듈들(예를 들어, 미들웨어, API 또는 애플리케이션)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 제어부(140) 또는 메모리(185))을 제어 또는 관리할 수 있다. 커널은 미들웨어, API 또는 애플리케이션에서 머리 장착형 전자 장치(100)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어는 API 또는 애플리케이션이 커널과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 애플리케이션들로부터 수신된 작업 요청들과 관련하여, 미들웨어는 애플리케이션들 중 적어도 하나 이상의 애플리케이션에 머리 장착형 전자 장치(100)의 시스템 리소스(예: 제어부(140) 또는 메모리(185))를 사용할 수 있는 우선 순위를 배정하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API는 애플리케이션이 커널 또는 미들웨어에서 제공하는 기능을 제어하기 위한 인터페이스이다. 예컨대, API는 파일 제어, 창 제어, 화상 처리 또는 문자 제어와 같은 제어 기능을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
애플리케이션은 SMS/MMS 애플리케이션, 이메일 애플리케이션, 달력 애플리케이션, 알람 애플리케이션, 건강 관리(health care) 애플리케이션(예: 운동량 또는 혈당을 측정하는 애플리케이션) 또는 환경 정보 애플리케이션(예: 기압, 습도 또는 온도 정보를 제공하는 애플리케이션)을 포함할 수 있다.
추가적으로 또는 대체적으로, 애플리케이션은 머리 장착형 전자 장치(100)와 상기 외부 전자 장치 사이의 정보 교환과 관련된 애플리케이션일 수 있다. 예를 들어, 정보 교환과 관련된 애플리케이션은 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다. 예를 들어, 알림 전달 애플리케이션은 머리 장착형 전자 장치(100)의 다른 애플리케이션(예를 들어, SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션 또는 환경 정보 애플리케이션)에서 발생한 알림 정보를 상기 외부 전자 장치로 전달하는 기능을 포함할 수 있다.
추가적으로 또는 대체적으로, 알림 전달 애플리케이션은 상기 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 예를 들어, 장치 관리 애플리케이션은 머리 장착형 전자 장치(100)와 통신하는 상기 외부 전자 장치의 적어도 일부에 대한 기능(예를 들어, 상기 외부 전자 장치 자체(또는 일부 구성 부품)의 턴 온(turn on)/턴 오프(turn off) 또는 디스플레이의 밝기(또는 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
도 3은 일 실시 예에 따른 머리 장착형 전자 장치에 렌즈 클립 및 사용자 렌즈가 장착되는 방법을 나타내는 사시도이다. 도 4는, 도 3의 A-A' 라인에 따른 단면도에 기초하여 안구 이미지를 획득하는 방법을 나타내는 도면이다.
도 3 및 도 4를 참조하면, 머리 장착형 전자 장치(100)는 사용자의 얼굴 방향으로 몸체(110)에 착탈 가능한 렌즈 클립(300)을 포함할 수 있다. 렌즈 클립(300)은 렌즈 조립체(135)에 대응하는 위치에 적어도 하나의 개구(301)를 포함할 수 있다. 적외선 발광 장치(210) 및 적외선 촬영 장치(220)는 렌즈 조립체(135)와 렌즈 클립(300) 사이에 배치될 수 있다. 적외선 발광 장치(210)는 몸체(110)의 일부에 배치될 수 있다. 적외선 촬영 장치(220)는 몸체(110)의 다른 일부(예: 적외선 발광 장치(210)의 반대편)에 배치될 수 있다. 적외선 발광 장치(210) 및 적외선 촬영 장치(220)는 도 2의 시선 추적부(170)에 포함될 수 있다.
일 실시 예에 따르면, 머리 장착형 전자 장치(100)는 사용자의 안구를 캡쳐한 이미지에 기초하여 사용자의 시선을 추적할 수 있다. 예를 들면, 적외선 발광 장치(210)는 적외선을 발광하고, 적외선 촬영 장치(220)는 상기 적외선이 사용자의 안구에 반사된 안구 이미지를 획득할 수 있다. 머리 장착형 전자 장치(100)의 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))는 상기 안구 이미지를 시선 추적 알고리즘에 적용하여 사용자의 시선 추적 데이터를 획득할 수 있다. 상기 프로세서는 상기 시선 추적 데이터를 활용하여 디스플레이 장치에 표시되는 영상을 사용자의 시선에 대응하도록 제어할 수 있다.
일 실시 예에 따르면, 도 4의 제1 상태(401)는 몸체(110)에 렌즈 클립(300)이 장착되지 않은 상태 또는 몸체(110)에 사용자 렌즈(310)(예: 도수 렌즈)가 삽입되지 않는 렌즈 클립(300)이 장착된 상태를 나타낼 수 있다. 제1 상태(401)에서, 적외선 발광 장치(210)로부터 발광된 적외선은 제1 경로(410)를 통해 사용자의 안구에서 반사될 수 있다. 제1 상태(401)에서, 적외선 촬영 장치(220)는 제1 안구 이미지(400a)를 획득할 수 있다. 제1 안구 이미지(400a)는 제1 반사 이미지(431)를 포함할 수 있다. 상기 프로세서는 제1 반사 이미지(431)에 기초하여 사용자의 시선을 추적할 수 있다.
일 실시 예에 따르면, 도 4의 제2 상태(403)는 몸체(110)에 사용자 렌즈(310)가 삽입된 렌즈 클립(300)이 장착된 상태를 나타낼 수 있다. 예를 들면, 머리 장착형 전자 장치(100)의 사용자마다 시력이 다를 수 있다. 사용자는 자신의 시력에 대응하는 사용자 렌즈(310)를 렌즈 클립(300)에 삽입하여 사용할 수 있다. 다만, 제2 상태(403)에서, 몸체(110)에 사용자 렌즈(310)가 삽입된 렌즈 클립(300)이 장착되는 경우, 적외선 발광 장치(210)로부터 발광된 적외선은 다양한 경로로 사용자의 안구에서 반사될 수 있다. 예컨대, 상기 적외선은 사용자 렌즈(310)를 통과하여 제1 경로(410)를 통해 사용자의 안구에서 반사될 수 있다. 또한, 상기 적외선은 사용자 렌즈(310)에서 먼저 반사하여 제2 경로(420)를 통해 사용자의 안구에서 반사될 수 있다. 제2 상태(403)에서, 적외선 촬영 장치(220)는 제2 안구 이미지(400b)를 획득할 수 있다. 제2 안구 이미지(400b)는 제1 안구 이미지(400a)와 마찬가지로 제1 경로(410)에 의한 제1 반사 이미지(431)를 포함할 수 있다. 또한, 제2 안구 이미지(400b)는 제1 안구 이미지(400a)에는 없는 제2 반사 이미지(441)를 더 포함할 수 있다. 이때, 상기 시선 추적 알고리즘은 제1 반사 이미지(431)에 기초하여 사용자의 시선을 추적하도록 설정되어 있기 때문에, 제2 안구 이미지(400b)에 기초하여 상기 시선 추적 알고리즘을 수행하는 경우, 상기 프로세서의 시선 추적 성능은 저하될 수 있다.
일 실시 예에 따르면, 렌즈 클립(300)은 렌즈 검출 구조를 포함할 수 있다. 예를 들면, 상기 렌즈 검출 구조는 개구(301) 방향의 돌출부 및 전기적인 내부 배선을 포함할 수 있다. 몸체(110)는 적어도 두 전극들을 포함할 수 있다. 제1 상태(401)에서, 상기 내부 배선은 상기 두 전극들과 연결되지 않을 수 있다. 제2 상태(403)에서, 상기 돌출부는 사용자 렌즈(310)에 눌리고, 상기 돌출부의 눌림을 통해 상기 내부 배선은 상기 두 전극들과 연결될 수 있다. 상기 렌즈 검출 구조의 구체적인 실시 예들은 도 5 및 도 6에서 설명한다.
일 실시 예에 따르면, 상기 프로세서는 상기 두 전극들과 연결될 수 있다. 예를 들면, 상기 프로세서는 상기 두 전극들 중 하나에 신호(또는 전압, 전류)(예: 제1 신호)를 전송하고, 상기 두 전극들 중 다른 하나를 통해 상기 신호(예: 제2 신호)를 수신하는 경우 사용자 렌즈(310)가 렌즈 클립(300)에 삽입된 것으로 판단할 수 있다. 예컨대, 제1 상태(401)에서, 상기 내부 배선은 상기 두 전극들과 연결되지 않은 상태이므로, 상기 프로세서는 사용자 렌즈(310)가 렌즈 클립(300)에 삽입되지 않은 것으로 판단할 수 있고, 제1 안구 이미지(400a)에 기초하여 상기 시선 추적 알고리즘을 수행할 수 있다. 제2 상태(403)에서, 상기 내부 배선은 상기 두 전극들과 연결된 상태이므로, 상기 프로세서는 사용자 렌즈(310)가 삽입된 것으로 판단할 수 있고, 제2 안구 이미지(400b)에서 제2 반사 이미지(441)를 제거하고 상기 시선 추적 알고리즘을 수행할 수 있다.
도 3 및 도 4에서는 사용자의 안구에 대응하는 하나의 적외선 발광 장치(210)가 도시되었지만, 다양한 실시 예에 따르면, 머리 장착형 전자 장치(100)는 복수 개의 적외선 발광 장치(210)를 포함할 수 있다. 예를 들어, 복수 개의 적외선 발광 장치(210)는 지정된 순서 또는 패턴에 기반하여 발광할 수 있고, 이를 기반으로 사용자의 시선 추적의 정확도는 향상될 수 있다.
도 5는, 도 3의 B 부분에 배치된 렌즈 검출 구조의 일 예를 나타내는 도면이다.
도 3 및 도 5를 참조하면, 렌즈 클립(300)의 일부(예: 도 3의 B 부분)에는 렌즈 검출 구조가 포함될 수 있다. 상기 렌즈 검출 구조는 적어도 하나의 돌출부(예: 제1 포고핀(510) 및 제2 포고핀(520)), 적어도 하나의 탄성 부재(예: 제1 탄성 부재(531) 및 제2 탄성 부재(532)) 및 내부 배선(550)을 포함할 수 있다. 예를 들면, 렌즈 클립(300)은 적어도 하나의 돌출부(예: 제1 포고핀(510) 및 제2 포고핀(520))를 포함할 수 있다. 제1 포고핀(510)은 제1 탄성 부재(531)에 의해 몸체(110)가 결합되는 방향으로 돌출될 수 있다. 제2 포고핀(520)은 사용자 렌즈(310)가 결합되는 방향(예: 개구(301) 방향)으로 돌출될 수 있다. 렌즈 클립(300)은 제1 전극(511) 및 제2 전극(521)을 포함할 수 있다. 제1 전극(511) 및 제2 전극(521)은 내부 배선(550)을 통해 전기적으로 연결될 수 있다. 제1 전극(511)은 제1 포고핀(510)에 인접하게 배치될 수 있다. 제2 전극(521)은 제2 포고핀(520)에 인접하게 배치될 수 있다. 적어도 하나의 탄성 부재는 제1 탄성 부재(531) 및 제2 탄성 부재(532)를 포함할 수 있다. 제1 탄성 부재(531)는 렌즈 클립(300)과 몸체(110)가 결합되지 않은 상태에서는 제1 포고핀(510)이 렌즈 클립(300)의 외부로 돌출되도록 할 수 있고, 제2 탄성 부재(532)는 렌즈 클립(300)과 사용자 렌즈(310)가 결합되지 않은 상태에서는 제2 포고핀(520)이 렌즈 클립(300)의 외부로 돌출되도록 할 수 있다. 몸체(110)는 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))와 연결되는 적어도 두 전극들을 포함할 수 있다.
일 실시 예에 따르면, 제1 상태(501)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되지 않고, 렌즈 클립(300)은 몸체(110)에 장착(또는 결합)되지 않을 수 있다. 예를 들어, 제1 상태(501)에서, 렌즈 클립(300)의 제1 포고핀(510)과 제2 포고핀(520)은 눌리지 않은 상태일 수 있으며, 제1 전극(511)과 제1 포고핀(510)은 전기적으로 연결(또는 접촉)되지 않거나 및/또는 제2 전극(521)과 제2 포고핀(520)은 전기적으로 연결(또는 접촉)되지 않은 상태일 수 있다.
일 실시 예에 따르면, 제2 상태(502)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되지 않고, 렌즈 클립(300)은 몸체(110)에 장착될 수 있다. 예를 들면, 제1 포고핀(510)은 몸체(110)에 의해 눌려서, 제1 포고핀(510)의 일부는 제1 전극(511)과 전기적으로 연결(또는 접촉)될 수 있다. 몸체(110)는 제1 포고핀(510)(또는 제1 전극(511))에 대응되는 위치에 배치된 제3 전극(512) 및 제2 포고핀(520)(또는 제2 전극(521))에 대응되는 위치에 배치된 제4 전극(522)을 포함할 수 있다. 제2 상태(502)에서는, 렌즈 클립(300)이 몸체(110)에 장착됨에 따라, 제1 포고핀(510)의 일부는 몸체(110)에 의해 눌릴 수 있으며, 제1 포고핀(510)의 다른 일부는 제3 전극(512)과 전기적으로 연결(또는 접촉)될 수 있다. 다만, 제2 상태(502)에서, 제2 전극(521)은 제4 전극(522)과 연결되지 않을 수 있다.
일 실시 예에 따르면, 제3 상태(503)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되고, 렌즈 클립(300)은 몸체(110)에 장착될 수 있다. 예를 들면, 제2 상태(502)와 마찬가지로, 제1 포고핀(510)의 일부는 제1 전극(511)과 전기적으로 연결(또는 접촉)되고, 제1 포고핀(510)의 다른 일부는 제3 전극(512)에 전기적으로 연결(또는 접촉)될 수 있다. 제3 상태(503)에서, 제2 포고핀(520)은 사용자 렌즈(310)에 의해 눌려서, 제2 포고핀(520)의 일부는 제2 전극(521)과 전기적으로 연결(또는 접촉)되고, 제2 포고핀(520)의 다른 일부는 제4 전극(522)에 전기적으로 연결(또는 접촉)될 수 있다. 또는 제2 포고핀(520)의 일부는 제2 탄성 부재(532)에 전기적으로 연결(또는 접촉)되고, 제2 탄성 부재(532)가 제2 전극(521)과 전기적으로 연결(또는 접촉)될 수 있다. 제2 포고핀(520)의 다른 일부는 제4 전극(522)과 전기적으로 연결(또는 접촉)될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제3 전극(512)(또는 제4 전극(522))으로 제1 신호(또는 전압, 전류)를 전송하고, 제4 전극(522)(또는 제3 전극(512))을 통해 제2 신호(또는 전압, 전류)를 수신할 수 있다. 예를 들면, 상기 프로세서는 제3 전극(512)으로 전송된 신호(또는 전압, 전류)가 제4 전극(522)을 통해 검출되는 경우(예: 상기 제1 신호와 상기 제2 신호가 동일한 경우) 렌즈 클립(300)에 사용자 렌즈(310)가 삽입된 상태에서 몸체(511)에 장착된 것으로 판단할 수 있다. 또는 상기 프로세서는 제4 전극(522)으로 전송된 신호(또는 전압, 전류)가 제3 전극(512)을 통해 검출되는 경우(예: 상기 제1 신호와 상기 제2 신호가 동일한 경우) 렌즈 클립(300)에 사용자 렌즈(310)가 삽입된 상태에서 몸체(511)에 장착된 것으로 판단할 수 있다.
도 6은, 도 3의 B 부분에 배치된 렌즈 검출 구조의 다른 예를 나타내는 도면이다.
도 3 및 도 6을 참조하면, 렌즈 클립(300)의 일부(예: 도 3의 B 부분)에는 렌즈 검출 구조가 포함될 수 있다. 상기 렌즈 검출 구조는 레버(610), 도전 막대(620), 탄성 부재(631) 및 레버(610)에 연결된 내부 배선(650)을 포함할 수 있다. 레버(610) 및 도전 막대(620)는 도전성 재질(예: 금속)로 구성될 수 있고, 레버(610)의 적어도 일부 및 도전 막대(620)는 전기적으로 연결될 수 있다. 렌즈 클립(300)은 제1 전극(611)을 포함할 수 있다. 몸체(110)는 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))와 연결되는 적어도 두 전극들(예: 제2 전극(612), 제3 전극(622))을 포함할 수 있다.
일 실시 예에 따르면, 제1 상태(601)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되지 않고, 렌즈 클립(300)은 몸체(110)에 장착되지 않을 수 있다. 제1 전극(611)은 몸체(110)가 결합되는 방향으로 렌즈 클립(300)의 일면에 노출될 수 있다. 예를 들어, 렌즈 클립(300)의 제1 전극(611)은, 렌즈 클립(300)이 몸체(110)와 결합되는 경우, 몸체(110)의 제2 전극(612)과 전기적으로 연결(또는 접촉)될 수 있다. 내부 배선(650)은 제1 전극(611)과 레버(610)의 일단에 연결될 수 있다. 레버(610)의 타단은 탄성 부재(631)에 의해 사용자 렌즈(310)가 결합되는 방향(예: 개구(301) 방향)으로 돌출될 수 있다. 도전 막대(620)는 레버(610)의 일부에 연결될 수 있다.
일 실시 예에 따르면, 제2 상태(602)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되지 않고, 렌즈 클립(300)은 몸체(110)에 장착될 수 있다. 예를 들면, 몸체(110)는 제2 전극(612) 및 제3 전극(622)을 포함할 수 있다. 제2 전극(612)은 제1 전극(611)과 전기적으로 연결(또는 접촉)될 수 있다. 다만, 제2 상태(602)에서 도전 막대(620)는 제3 전극(622)에 전기적으로 연결(또는 접촉)되지 않을 수 있다.
일 실시 예에 따르면, 제3 상태(603)에서, 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입되고, 렌즈 클립(300)은 몸체(110)에 장착될 수 있다. 예를 들면, 제2 상태(602)와 마찬가지로, 제2 전극(612)은 제1 전극(611)과 전기적으로 연결(또는 접촉)될 수 있다. 또한, 사용자 렌즈(310)의 삽입으로 인하여 레버(610)의 일부는 눌리고, 도전 막대(620)는 제3 전극(622)과 전기적으로 연결(또는 접촉)될 수 있다. 이에 제2 전극(612) 및 제3 전극(622)은 내부 배선(650), 레버(610) 및 도전 막대(620)를 통해 전기적으로 연결될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제2 전극(612)(또는 제3 전극(622))으로 제1 신호(또는 전압, 전류)를 전송하고, 제3 전극(622)(또는 제2 전극(612))을 통해 제2 신호(또는 전압, 전류)를 수신할 수 있다. 예를 들면, 상기 프로세서는 제2 전극(612)으로 전송된 신호(또는 전압, 전류)가 제3 전극(622)을 통해 검출되는 경우(예: 상기 제1 신호와 상기 제2 신호가 동일한 경우) 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입된 상태로 몸체(110)와 결합된 것으로 판단할 수 있다. 또는 상기 프로세서는 제3 전극(622)으로 전송된 신호(또는 전압, 전류)가 제2 전극(612)을 통해 검출되는 경우(예: 상기 제1 신호와 상기 제2 신호가 동일한 경우) 렌즈 클립(300)의 개구(301)에 사용자 렌즈(310)가 삽입된 상태로 몸체(110)와 결합된 것으로 판단할 수 있다.
도 7은 일 실시 예에 따른 렌즈 클립을 나타내는 도면이다.
도 7을 참조하면, 렌즈 클립(300)은 복수의 렌즈 검출 구조(711, 712, 713, 721, 722, 723)를 포함할 수 있다. 머리 장착형 전자 장치(100)는 복수의 렌즈 검출 구조(711, 712, 713, 721, 722, 723)를 통해 사용자 렌즈(예: 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b))의 장착 여부 및 상기 사용자 렌즈의 도수 범위를 판단할 수 있다.
일 실시 예에 따르면, 렌즈 클립(300)에서, 제1 개구(301a)의 주변에는 제1 렌즈 검출 구조(711), 제2 렌즈 검출 구조(712) 및 제3 렌즈 검출 구조(713)가 배치될 수 있다. 제1 렌즈 검출 구조(711), 제2 렌즈 검출 구조(712) 및 제3 렌즈 검출 구조(713) 각각은 도 5 또는 도 6의 렌즈 검출 구조를 포함할 수 있다. 제1 렌즈 검출 구조(711), 제2 렌즈 검출 구조(712) 및 제3 렌즈 검출 구조(713) 각각은 제1 개구(301a)를 향하는 방향으로 돌출된 돌출부(711a, 712a, 713a)(예: 도 5의 제2 포고핀(520) 또는 도 6의 레버(610))를 포함할 수 있다.
일 실시 예에 따르면, 렌즈 클립(300)에서, 제2 개구(301b)의 주변에는 제4 렌즈 검출 구조(721), 제5 렌즈 검출 구조(722) 및 제6 렌즈 검출 구조(723)가 배치될 수 있다. 제4 렌즈 검출 구조(721), 제5 렌즈 검출 구조(722) 및 제6 렌즈 검출 구조(723) 각각은 도 5 또는 도 6의 렌즈 검출 구조를 포함할 수 있다. 제4 렌즈 검출 구조(721), 제5 렌즈 검출 구조(722) 및 제6 렌즈 검출 구조(723) 각각은 제2 개구(301b)를 향하는 방향으로 돌출된 돌출부(721a, 722a, 723a)(예: 도 5의 제2 포고핀(520) 또는 도 6의 레버(610))를 포함할 수 있다.
일 실시 예에 따르면, 머리 장착형 전자 장치(100)의 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))는 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b)의 삽입에 의해 눌리는 돌출부들의 개수, 위치 또는 이들의 조합에 기초하여, 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b)의 도수 범위를 판단할 수 있다. 일 예로, 상기 돌출부들 중 하나가 눌리는 경우, 상기 프로세서는 제1 도수 범위로 판단할 수 있다. 상기 돌출부들 중 둘이 눌리는 경우, 상기 프로세서는 상기 제1 도수 범위와 다른 제2 도수 범위로 판단할 수 있다. 상기 돌출부들 중 셋이 눌리는 경우, 상기 프로세서는 상기 제1 도수 범위 및 상기 제2 도수 범위와 다른 제3 도수 범위로 판단할 수 있다. 다른 예로, 제1 렌즈 검출 구조(711) 또는 제4 렌즈 검출 구조(721)의 돌출부만 눌리는 경우, 상기 프로세서는 상기 제1 도수 범위로 판단할 수 있다. 제2 렌즈 검출 구조(712) 또는 제5 렌즈 검출 구조(722)의 돌출부만 눌리는 경우, 상기 프로세서는 상기 제2 도수 범위로 판단할 수 있다. 제3 렌즈 검출 구조(713) 또는 제6 렌즈 검출 구조(723)의 돌출부만 눌리는 경우, 상기 프로세서는 상기 제3 도수 범위로 판단할 수 있다. 상기 제1 도수 범위, 상기 제2 도수 범위 또는 상기 제3 도수 범위에 기초하여 도 4의 제2 안구 이미지(400b)에서 제2 반사 이미지(441)를 제거하는 방법은 세분화될 수 있고, 상기 프로세서는 정확한 시선 추적 데이터를 획득할 수 있다.
일 실시 예에 따르면, 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b)에 포함되는 리세스의 숫자 및/또는 위치는 일부 상이할 수 있다. 예를 들어, 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b)의 테두리에 리세스가 없거나 적어도 하나의 리세스를 포함하도록 형성될 수 있다. 일 예로, 제1 사용자 렌즈(310a)는 제1 리세스(311a) 및 제2 리세스(312a)를 포함할 수 있다. 제1 리세스(311a)는 제1 렌즈 검출 구조(711)의 돌출부(711a)의 형상에 대응하도록 형성될 수 있다. 제2 리세스(312a)는 제2 렌즈 검출 구조(712)의 돌출부(712a)의 형상에 대응하도록 형성될 수 있다. 제1 사용자 렌즈(310a)가 제1 개구(301a)에 삽입되는 경우, 제1 렌즈 검출 구조(711) 및 제2 렌즈 검출 구조(712)의 돌출부들(711a, 712a)은 눌리지 않고, 제3 렌즈 검출 구조(713)의 돌출부(713a)만 눌릴 수 있다. 다른 예로, 제2 사용자 렌즈(310b)는 제3 리세스(311b)를 포함할 수 있다. 제3 리세스(311b)는 제4 렌즈 검출 구조(721)의 돌출부(721a)의 형상에 대응하도록 형성될 수 있다. 제2 사용자 렌즈(310b)가 제2 개구(301b)에 삽입되는 경우, 제4 렌즈 검출 구조(721)의 돌출부(721a)는 눌리지 않고, 제5 렌즈 검출 구조(722) 및 제6 렌즈 검출 구조(723)의 돌출부들(722a, 723a)은 눌릴 수 있다.
도 8a은 다른 실시 예에 따른 렌즈 클립을 나타내는 도면이다. 도 8b는, 도 8a의 복수의 리세스 구조 중 하나(예: 도 8a의 C 부분)를 예시적으로 나타내는 도면이다.
도 8a을 참조하면, 머리 장착형 전자 장치(100)는 제1 렌즈 클립(300)(예: 메인 렌즈 클립) 및 제2 렌즈 클립(830)(예: 서브 렌즈 클립)을 포함할 수 있다. 제1 렌즈 클립(300)은 몸체(110)에 장착될 수 있고, 제2 렌즈 클립(830)이 위치할 수 있는 개구(810)를 포함할 수 있다. 제2 렌즈 클립(830)은 제1 렌즈 클립(300)의 개구(810)에 장착될 수 있다. 사용자 렌즈(310)는 제2 렌즈 클립(830)에 삽입될 수 있다.
일 실시 예에 따르면, 제1 렌즈 클립(300)은 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)를 포함할 수 있다. 예를 들어, 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824) 각각은 도 5 또는 도 6의 렌즈 검출 구조를 포함할 수 있다. 몸체(110)는 제1 렌즈 클립(300)에 포함된 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)에 대응하는 전극들(예: 도 5의 제3 전극(512), 제4 전극(522) 또는 도 6의 제2 전극(612), 제3 전극(622))을 포함할 수 있고, 머리 장착형 전자 장치(100)의 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))는 제1 렌즈 클립(300)에 포함된 복수의 렌즈 검출 구조에 대응하는 전극들과 전기적으로 연결될 수 있다. 제2 렌즈 클립(830)은 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)에 대응하는 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844)를 포함할 수 있다. 예컨대, 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844) 각각은 슬라이드 형태로서 일부분이 슬라이딩 되어 리세스를 형성하는 구조를 가질 수 있다.
일 예로, 도 8b의 제1 상태(801)에서, 제1 리세스 구조(831)는 리세스를 형성하지 않고, 제1 렌즈 검출 구조(811)의 돌출부(811a)에 대응하도록 배치될 수 있다. 이에 제1 렌즈 검출 구조(811)의 돌출부(811a)는 제1 리세스 구조(831)에 의해 눌리고, 제1 렌즈 검출 구조(811)에 포함된 전극들은 전기적으로 서로 연결될 수 있다. 도 8b의 제2 상태(803)에서, 제1 리세스 구조(831)는 제2 렌즈 클립(830) 내부로 슬라이드 되어 리세스를 형성할 수 있다. 이에, 제1 렌즈 검출 구조(811)의 돌출부(811a)는 눌리지 않고 상기 리세스에 돌출되며, 제1 렌즈 검출 구조(811)에 포함된 전극들은 연결이 끊어질 수 있다. 도 8b에서는 도 8a의 C부분에 기반하여 제1 렌즈 검출 구조(811)가 예시적으로 도시되어 있으나, 나머지 리세스 구조들(832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844)도 제1 렌즈 검출 구조(811)와 동일하게 형성될 수 있다. 다양한 실시 예로서, 도 8b에서는 제1 리세스 구조(831)가 리세스의 좌측으로 슬라이드 되나, 제1 리세스 구조(831)는 리세스의 우측 또는 하측으로 슬라이드 되거나 리세스로부터 탈착될 수도 있다.
일 실시 예에 따르면, 머리 장착형 전자 장치(100)는 도 7의 경우보다 더 세분화하여 사용자 렌즈(310)의 도수 범위를 검출할 수 있다. 예를 들면, 머리 장착형 전자 장치(100)의 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))는 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)의 돌출부들의 눌림에 기초하여 사용자 렌즈(310)의 도수 범위를 판단할 수 있다. 일 예로, 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824) 각각은 하나의 도수 범위에 대응될 수 있다. 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844) 중 하나(예: 제1 리세스 구조(831))는 사용자에 의해 리세스로 설정될 수 있다. 제2 렌즈 클립(830)이 제1 렌즈 클립(300)에 장착되는 경우, 리세스로 설정된 리세스 구조(예: 제1 리세스 구조(831))에 대응하는 렌즈 검출 구조(예: 제1 렌즈 검출 구조(811))의 돌출부는 눌리지 않고, 나머지 렌즈 검출 구조들의 돌출부들은 제2 렌즈 클립(830)에 의해 눌릴 수 있다. 상기 프로세서는 제2 렌즈 클립(830)의 삽입에 의해 눌리지 않은(또는 눌리는) 돌출부의 패턴(예: 위치)에 기초하여 사용자 렌즈(310)의 도수 범위를 판단할 수 있다. 다른 예로, 상기 프로세서는 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)의 돌출부들 중 제2 렌즈 클립(830)의 삽입에 의해 눌리는 돌출부들의 패턴(예: 개수, 위치 또는 이들의 조합)에 기초하여 사용자 렌즈(310)의 도수 범위를 판단할 수 있다. 적어도 하나의 돌출부의 패턴은 사용자 렌즈(310)의 도수 범위를 나타낼 수 있다. 이때 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844) 중 적어도 하나는 사용자에 의해 리세스로 설정될 수 있다.
일 실시 예에 따르면, 복수의 렌즈 검출 구조(811, 812, 813, 814, 815, 816, 817, 818, 819, 821, 822, 823, 824)의 돌출부들의 눌리는 조합에 따라 검출되는 도수 범위는 세분화될 수 있고, 이에 도 4의 제2 안구 이미지(400b)에서 제2 반사 이미지(441)를 제거하는 방법은 세분화될 수 있으며, 상기 프로세서는 도 7의 경우보다 더 정확한 시선 추적 데이터를 획득할 수 있다. 또한, 도 7의 경우 사용자 렌즈(예: 제1 사용자 렌즈(310a) 또는 제2 사용자 렌즈(310b))에 직접 리세스(예: 제1 리세스(311a), 제2 리세스(312a) 또는 제3 리세스(311b))를 가공해야 하지만, 도 8a의 경우 사용자 렌즈(310)를 가공할 필요가 없으며 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844)를 통해 사용자는 간단히 리세스를 설정할 수 있다.
도 9는 일 실시 예에 따른 머리 장착형 전자 장치의 시선 추적 방법을 나타내는 순서도이다.
도 1 내지 도 9를 참조하면, 머리 장착형 전자 장치(100)는 사용자 렌즈(310)의 장착 여부를 판단하여 정확한 시선 추적 데이터를 획득할 수 있다.
일 실시 예에 따르면, 동작 910에서, 프로세서(예: 도 2의 제어부(140) 또는 시선 추적부(170))는 시선 추적 기능을 구동할 수 있다. 예를 들면, 상기 프로세서는 도 4의 적외선 발광 장치(210) 및 적외선 촬영 장치(220)를 통해 안구 이미지(예: 도 4의 제1 안구 이미지(400a) 또는 제2 안구 이미지(400b))를 획득할 수 있다.
일 실시 예에 따르면, 동작 920에서, 상기 프로세서는 사용자 렌즈(310)의 장착 여부를 판단할 수 있다. 예를 들면, 몸체(110)에 장착되는 렌즈 클립(300)은 적어도 하나의 렌즈 검출 구조(예: 도 5 또는 도 6의 렌즈 검출 구조)를 포함할 수 있다. 상기 프로세서는 도 5 내지 도 8a에 설명된 방법에 기초하여 사용자 렌즈(310)의 삽입 여부를 판단할 수 있다. 사용자 렌즈(310)가 렌즈 클립(300)에 삽입된 것으로 판단되는 경우, 상기 프로세서는 동작 930을 수행할 수 있다. 사용자 렌즈(310)가 렌즈 클립(300)에 삽입되지 않은 것으로 판단되는 경우, 상기 프로세서는 동작 950을 수행할 수 있다.
일 실시 예에 따르면, 동작 930에서, 상기 프로세서는 사용자 렌즈(310)의 도수를 확인할 수 있다. 동작 930은 선택적으로 수행될 수 있다. 예를 들면, 동작 930은 도 7 또는 도 8a의 렌즈 클립(300)과 같이 사용자 렌즈(310)의 도수 범위를 판단할 수 있는 경우 수행될 수 있다. 상기 프로세서는 도 7 또는 도 8a에서 설명된 방법에 따라 사용자 렌즈(310)(또는 제1 사용자 렌즈(310a), 제2 사용자 렌즈(310b))의 도수 범위를 확인할 수 있다.
일 실시 예에 따르면, 동작 940에서, 상기 프로세서는 동작 910에서 획득된 안구 이미지(예: 도 4의 제2 안구 이미지(400b))에서 사용자 렌즈(310)의 삽입으로 인한 추가 반사 이미지(예: 도 4의 제2 반사 이미지(441))를 제거할 수 있다. 예를 들면, 도 7 또는 도 8a의 렌즈 클립(300)이 사용되는 경우, 상기 프로세서는 동작 930에서 확인된 사용자 렌즈(310)의 도수 범위에 기초하여 세분화된 방법으로 상기 추가 반사 이미지를 제거할 수 있다.
일 실시 예에 따르면, 동작 950에서, 상기 프로세서는 안구 이미지에 기초하여 시선 추적 알고리즘을 실행할 수 있다. 예를 들면, 도 4의 제1 상태(401)와 같이 사용자 렌즈(310)가 삽입되지 않은 경우, 상기 프로세서는 동작 910에서 획득된 안구 이미지(예: 도 4의 제1 안구 이미지(400a))에 기초하여 상기 시선 추적 알고리즘을 실행할 수 있다. 도 4의 제2 상태(403)와 같이 사용자 렌즈(310)가 삽입된 경우, 상기 프로세서는 동작 940에서 상기 추가 반사 이미지가 제거된 안구 이미지에 기초하여 상기 시선 추적 알고리즘을 실행할 수 있다.
일 실시 예에 따르면, 동작 960에서, 상기 프로세서는 상기 시선 추적 알고리즘에 기초하여 획득된 시선 추적 데이터를 활용하여 디스플레이 장치(예: 몸체(110)에 내장된 디스플레이 장치 또는 몸체(110)에 장착되는 외부 전자 장치의 디스플레이)를 제어할 수 있다. 예를 들면, 상기 프로세서는 상기 시선 추적 데이터에 기초하여 상기 디스플레이 장치의 위치를 조정할 수 있다. 또는 상기 프로세서는 상기 시선 추적 데이터에 기초하여 상기 디스플레이 장치에 표시되는 화면을 제어할 수 있다. 예를 들어, 상기 프로세서는 상기 디스플레이 장치에 표시되는 화면의 사이즈를 변경하거나, 시선 추적에 기반하여 상기 화면의 컨텐츠를 변경할 수 있다.
상술한 바와 같이, 본 문서에 개시된 머리 장착형 전자 장치(100)는 렌즈 클립(300) 내의 렌즈 검출 구조를 통해, 별도의 광학 장치 및 제어 방법을 사용하지 않고, 사용자 렌즈(310)의 삽입 여부를 확인할 수 있다. 머리 장착형 전자 장치(100)는 사용자 렌즈(310)의 삽입 여부를 확인을 통해 상기 시선 추적 알고리즘의 정확도를 향상시킬 수 있다. 또한, 머리 장착형 전자 장치(100)는 사용자 렌즈(310)의 도수 범위 확인을 통해 상기 시선 추적 알고리즘의 정확도를 더욱 향상시킬 수 있다.
도 10은 일 실시 예에 따른 웨어러블 전자 장치(1000)(예: 도 1의 웨어러블 전자 장치(100))를 나타낸 도면이다. 웨어러블 전자 장치(1000)는 광 출력 모듈(1081), 투명 부재(1091, 1092), 표시 부재(1093, 1092), 제1 카메라(1011, 1012), 제2 카메라(1021), 제3 카메라(1030), 입력 광학 부재(1040), 발광부(1050), 및 PCB(1061, 1062)를 포함할 수 있다. 또한, 웨어러블 전자 장치(1000)는 마이크와 같은 입력 장치(1071), 스피커와 같은 음향 출력 장치(1072), 배터리(165), 및 힌지(1082)를 포함할 수 있다.
일 실시 예에서, 광 출력 모듈(1081)은, 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다. 도시되지는 않지만, 광 출력 모듈(1081)이 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 웨어러블 전자 장치(1000)는 표시 부재(1093, 1094)로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시 예에서, 광 출력 모듈(1081)이 자체적으로 빛을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우, 웨어러블 전자 장치(1000)는 별도의 광원을 포함하지 않더라도 사용자에게 양호한 품질의 가상 영상을 제공할 수 있다. 일 실시 예에서, 광 출력 모듈(1081)이 유기 발광 다이오드 또는 마이크로 엘이디로 구현된다면 광원이 불필요하므로, 웨어러블 전자 장치(1000)가 경량화될 수 있다. 사용자는 안면에 웨어러블 전자 장치(1000)를 착용한 상태로 사용할 수 있다. 투명 부재(1091, 1092)는 글라스 플레이트, 플라스틱 플레이트 또는 폴리머로 형성될 수 있다. 투명 부재(1091, 1092)는 투명 또는 반투명하게 제작될 수 있다. 투명 부재(1091, 1092)는 제1 투명 부재(1091) 및 제2 투명 부재(1092)를 포함할 수 있다. 제1 투명 부재(1091)는 사용자의 우안에 대면하게 배치될 수 있고, 제2 투명 부재(1092)는 사용자의 좌안에 대면하게 배치될 수 있다. 광 출력 모듈(1081)이 투명인 경우 제1 투명 부재(1091) 및 제2 투명 부재(1092)는 사용자의 눈과 대면하는 위치에 배치될 수 있다.
일 실시 예에서, 표시 부재(1093, 1094)는 사용자에게 광 출력 모듈(1081)이 표시하는 화면을 제공할 수 있다. 표시 부재(1093, 1094)는 투명 부재(1091, 1092)의 내부에 구성될 수 있다. 표시 부재(1093, 1094)는 제1 표시 부재(1093) 및 제2 표시 부재(1094)를 포함할 수 있다. 제1 표시 부재(1093)는 제1 투명 부재(1091)의 내부에 구성될 수 있고, 제2 표시 부재(1094)는 제2 투명 부재(1092)의 내부에 구성될 수 있다.
일 실시 예에서, 제1 카메라(1011, 1012)는 사용자의 신체 및/또는 공간을 인식할 수 있다. 제1 카메라(1011, 1012)는 사용자의 머리를 추적할 수 있다. 제1 카메라(1011, 1012)는 사용자의 손을 검출하고 추적할 수 있다. 제1 카메라(1011, 1012)는 공간을 인식할 수 있다. 제1 카메라(1011, 1012)는 3DoF, 6DoF 카메라일 수 있다. 제1 카메라(1011, 1012)는 GS(Global shutter) 카메라일 수 있다. 제1 카메라(1011, 1012)는 신체 추적 및/또는 공간 인식을 위해서 스테레오 구조를 가질 수 있다. 제1 카메라(1011, 1012)는 실질적으로 동일한 규격 및/또는 성능을 갖는 카메라가 2개 필요할 수 있다. 제1 카메라(1011, 1012)는 빠른 손동작과 손가락과 같은 미세한 움직임을 검출하고 움직임을 추적하기 위해서 RS(Rolling shutter) 카메라 대비 성능(예: 영상 끌림)이 우수한 GS 카메라가 주로 사용된다. 다양한 실시 예에 따라 RS 카메라가 사용될 수 있다. 제1 카메라(1011, 1012)는 6DoF를 위한 공간 인식을 수행하고 깊이(Depth) 촬영을 통한 슬램(SLAM) 기능을 수행할 수 있다. 제1 카메라(1011, 1012)는 사용자 제스처 인식 기능을 수행할 수 있다.
일 실시 예에서, 제2 카메라(1021)는 눈동자를 검출하고 추적할 수 있다. 제2 카메라(1021)는 ET(Eye Tracking)용 카메라일 수 있다. 제2 카메라(1021)는 웨어러블 전자 장치(1000)에 투영되는 가상 영상의 중심이 웨어러블 전자 장치(1000)의 착용자의 눈동자가 응시하는 방향에 따라 위치하도록 할 수 있다. 제2 카메라(1021)는 GS 카메라일 수 있다. 제2 카메라(1021)가 GS 카메라인 경우 눈동자(pupil)를 검출하고 빠른 눈동자 움직임을 화면 끌림 없이 추적할 수 있다. 제2 카메라(1021)는 좌안 및 우안 용으로 각각 설치할 수 있다. 제2 카메라(1021)는 스테레오 구조를 가질 수 있다. 제2 카메라(1021)는 실질적으로 동일한 성능 및 규격을 갖는 2개의 카메라로 이루어질 수 있다.
일 실시 예에서, 제3 카메라(1030)는 외부의 객체(예: 인물, 사물, 및/또는 배경)를 촬영할 수 있다. 제3 카메라(1030)는 HR(High Resolution) 또는 PV(Photo Video)와 같은 고 해상도의 카메라일 수 있다. 제3 카메라(1030)는 자동 초점(auto focus, AF) 기능 및/또는 떨림 보정(OIS) 기능과 같은 고화질의 영상을 얻기 위한 기능을 구비할 수 있다. 제3 카메라(1030)는 색상 관련 성능이 높은 카메라일 수 있다. 제3 카메라(1030)는 GS 카메라 또는 RS 카메라일 수 있다.
일 실시 예에서, 입력 광학 부재(1040)는 광 도파로(waveguide)로 광을 유도할 수 있다. 입력 광학 부재(1040)의 동작에 관한 상세한 설명은 도 11을 결부하여 설명하기로 한다.
일 실시 예에서, 발광부(1050)는 제2 하우징 부분의 내부에 배치될 수 있다. 발광부(1050)는 제2 하우징 부분의 전면을 향하도록 배치될 수 있다. 발광부(1050)는 힌지(1082)와 인접하도록 배치될 수 있다. 그러나 이에 한정되지 않으며, 발광부(1050)는 제2 하우징 부분의 중앙에 인접하도록 배치될 수도 있다. 발광부(1050)는 제1 카메라(1011, 1012)로 촬영 시 주변 밝기를 보충할 수 있다. 발광부(1050)는 어두운 환경이나 여러 광원의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 주변 밝기를 보충할 수 있다. 발광부(1050)는 제2 카메라(1021)로 동공을 촬영할 때 눈맞춤(eye gaze)의 검출을 용이하게 하기 위한 보조 수단으로 사용될 수 있다. 발광부(1050)는 적외선 파장의 광을 방출하는 IR LED일 수 있다.
일 실시 예에서, PCB(1061, 1062)는 제1 하우징 부분 또는 제3 하우징 부분의 내부에 배치될 수 있다. PCB(1061, 1062)는 안경 다리에 인접하도록 배치될 수 있다. PCB(1061, 1062)는 FPCB와 전기적으로 연결될 수 있다. PCB(1061, 1062)는 FPCB를 통해 웨어러블 전자 장치(1000) 내부의 모듈들(예: 제1 카메라(1011, 1012), 제2 카메라(1021), 제3 카메라(1030), 광 출력 모듈(1081), 입력 장치(1071), 음향 출력 장치(1072))에 전기 신호를 전달할 수 있다. PCB(1061, 1062)는 제1 PCB(1061) 및 제2 PCB(1062)를 포함할 수 있다. 제1 PCB(1061) 및 제2 PCB(1062)는 전기적으로 연결될 수 있다. 예를 들어, 제1 PCB(1061) 및 제2 PCB(1062) 사이에 인터포저(interposer)가 배치될 수 있다. 제1 PCB(1061) 및 제2 PCB(1062)는 서로 전기 신호를 송수신할 수 있다.
도 11은 일 실시 예에 따른 웨어러블 전자 장치(예: 도 10의 웨어러블 전자 장치(1000))의 광학 구조를 나타낸 도면(1100)이다.
일 실시 예에서, 글라스(예: 도 10의 투명 부재(1091, 1092))의 내부에는 제1 광 도파로(1110)가 포함될 수 있다. 제1 광 도파로(1110)는 광 출력 모듈(1081)에서 생성한 광을 사용자 눈(1150)으로 전달할 수 있다. 제1 광 도파로(1110)는 유리, 플라스틱 또는 폴리머로 제작될 수 있다. 제1 광 도파로(1110)의 내부면 또는 외부면의 적어도 일부에는 나노 패턴이 형성될 수 있다. 나노 패턴은 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다.
일 실시 예에서, 광 출력 모듈(1081)에서 출력된 광은 입력 광학 부재(1040)를 통해 제1 광 도파로(1110)의 한쪽 끝으로 입사될 수 있다. 제1 광 도파로(1110)의 한쪽 끝으로 입사된 광은 나노 패턴에 의해 광 출력 모듈(1081)의 광 도파로인 제2 광 도파로(1120) 내부에서 전파될 수 있다.
일 실시 예에서, 제2 광 도파로(1120) 내부에서 전파된 광은 사용자에게 제공될 수 있다. 제2 광 도파로(1120)는 자유 폼(Free-form) 형태의 프리즘을 포함할 수 있다. 제2 광 도파로(1120)는 적어도 하나의 회절 요소(예: DOE(Diffractive Optical Element), HOE(Holographic Optical Element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 제2 광 도파로(1120)는 입사된 광을 회절 요소 또는 반사 요소를 통해 사용자의 눈(1150)으로 유도하여 사용자에게 제공할 수 있다.
일 실시 예에서, 회절 요소는 입력 광학 부재(1040) 및 출력 광학 부재(1140)를 포함할 수 있다. 반사 요소는 전반사(total internal reflection, TIR)를 포함할 수 있다. 예를 들어, 광 출력 모듈(1081)로부터 방출된 광은 입력 광학 부재(1040)를 통해 제1 광 도파로(1110)로 유도될 수 있다. 제1 광 도파로(1110) 내부를 이동하는 광은 출력 광학 부재(1140)를 통해 사용자의 눈(1150) 방향으로 유도될 수 있다. 사용자의 눈(1150) 방향으로 방출되는 광에 따라 사용자는 화면을 시인할 수 있다.
일 실시 예에서, 제2 광 도파로(1120) 내부에서 전파된 광은 빔 스플릿터(beam splitter)(1130)를 통해 나뉘어질 수 있다. 빔 스플릿터(1130)를 통해 나뉘어진 광의 적어도 일부는 제2 카메라(1021)로 유도될 수 있다. 제2 카메라(1021)는 ET 센서(1121), ET 광학(optic) 부재(1123), 및 렌즈(1125)를 이용하여 제2 카메라(1021)로 유도된 광을 처리할 수 있다.
다양한 실시 예에 따르면, 머리 장착형 전자 장치(예: 머리 장착형 전자 장치(100))는, 몸체(예: 몸체(110) 또는 메인 프레임), 적어도 하나의 개구(예: 개구(301))를 포함하며 사용자의 얼굴 방향으로 상기 몸체에 배치되는 렌즈 클립(예: 렌즈 클립(300)), 상기 몸체의 일부에 배치되는 적외선 발광 장치(예: 적외선 발광 장치(210)), 상기 몸체의 다른 일부에 배치되며, 상기 적외선 발광 장치로부터 발광된 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치(예: 적외선 촬영 장치(220)), 상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서(예: 제어부(140) 또는 시선 추적부(170))를 포함할 수 있다. 상기 프로세서는, 상기 렌즈 클립으로 적어도 하나의 제1 신호(예: 렌즈 검출 구조로 전송되는 제1 신호)를 전송하고, 상기 제1 신호에 응답하여 수신되는 제2 신호(예: 렌즈 검출 구조로부터 수신되는 제2 신호)에 기초하여 상기 적어도 하나의 개구의 렌즈 장착 여부를 검출하고, 상기 적어도 하나의 개구에 사용자 렌즈(예: 사용자 렌즈(310) 또는 도수 렌즈)가 장착되지 않은 것으로 확인되는 경우 상기 제1 안구 이미지(예: 제1 안구 이미지(400a))에 기초하여 시선 추적 알고리즘을 수행하고, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우 상기 제1 안구 이미지로부터 상기 사용자 렌즈에 의해 발생하는 추가 반사광 이미지(예: 제2 반사 이미지(441))를 제거한 제2 안구 이미지(예: 제2 안구 이미지(400b))에 기초하여 상기 시선 추적 알고리즘을 수행할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 제2 신호가 수신되지 않는 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되지 않는 것으로 판단하고, 상기 제2 신호가 수신되는 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 판단할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 제2 신호가 상기 제1 신호와 상이한 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되지 않는 것으로 판단하고, 상기 제2 신호가 상기 제1 신호와 동일한 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 판단할 수 있다.
다양한 실시 예에 따르면, 상기 몸체는 상기 렌즈 클립을 향하여 배치된 제1 전극(예: 제3 전극(512) 또는 제2 전극(612)) 및 제2 전극(예: 제4 전극(522) 또는 제3 전극(622))을 포함할 수 있다. 상기 렌즈 클립은, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 경우 상기 제1 전극과 상기 제2 전극을 전기적으로 연결하고, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되지 않은 경우 상기 제1 전극과 상기 제2 전극을 전기적으로 차단할 수 있다.
다양한 실시 예에 따르면, 상기 렌즈 클립은, 상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극에 전기적으로 연결되는 내부 배선(예: 내부 배선(550) 또는 내부 배선(650)), 및 상기 적어도 하나의 개구를 향하는 방향으로 돌출되며 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되는 경우 상기 제2 전극 및 상기 내부 배선에 전기적으로 연결되는 돌출부(예: 제2 포고핀(520), 레버(610), 돌출부(711a, 712a, 713a), 돌출부(721a, 722a, 723a), 돌출부(811a))를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 렌즈 클립은, 상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극 및 상기 내부 배선에 전기적으로 연결되며, 제1 탄성 부재(예: 제1 탄성 부재(531))에 의해 상기 렌즈 클립으로부터 상기 제1 전극을 향하는 방향으로 돌출된 제1 포고핀(예: 제1 포고핀(510)), 및 상기 돌출부로서 제2 탄성 부재(예: 제2 탄성 부재(532))에 의해 상기 렌즈 클립으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 제2 포고핀(예: 제2 포고핀(520))을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 내부 배선의 일단에 전기적으로 연결되며, 상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극과 접촉되는 제3 전극(예: 제1 전극(611)), 상기 내부 배선의 타단에 전기적으로 연결되며, 상기 돌출부로서 탄성 부재(예: 탄성 부재(631))에 의해 상기 렌즈 클립으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 레버(예: 레버(610)), 및 상기 레버의 일부에 전기적으로 연결되며, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 경우 상기 제2 전극에 접촉되는 도전 막대(예: 도전 막대(620))를 포함할 수 있다.
다양한 실시 예에 따르면, 머리 장착형 전자 장치(예: 머리 장착형 전자 장치(100))에 장착 가능한 렌즈 클립(예: 렌즈 클립(300))은, 적어도 하나의 개구(예: 개구(301))를 포함하는 하우징, 상기 적어도 하나의 개구를 향하여 돌출되도록 상기 하우징의 일부에 배치되는 돌출부(예: 제2 포고핀(520), 레버(610), 돌출부(711a, 712a, 713a), 돌출부(721a, 722a, 723a), 돌출부(811a)), 및 상기 적어도 하나의 개구에 사용자 렌즈(예: 사용자 렌즈(310) 또는 도수 렌즈)가 장착되는 경우 상기 돌출부에 전기적으로 연결되는 내부 배선(예: 내부 배선(550) 또는 내부 배선(650))을 포함할 수 있다. 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 내부 배선은 상기 머리 장착형 전자 장치의 제1 전극(예: 제3 전극(512) 또는 제2 전극(612))에 전기적으로 연결될 수 있다. 상기 돌출부는 상기 머리 장착형 전자 장치의 제2 전극(예: 제4 전극(522) 또는 제3 전극(622))에 전기적으로 연결될 수 있다.
다양한 실시 예에 따르면, 상기 렌즈 클립은, 상기 내부 배선의 일단에 전기적으로 연결된 제3 전극(예: 제1 전극(511)), 상기 내부 배선의 타단에 전기적으로 연결된 제4 전극(예: 제2 전극(521)), 제1 탄성 부재(예: 제1 탄성 부재(531)), 상기 제1 탄성 부재에 의해 상기 하우징으로부터 상기 제1 전극을 향하는 방향으로 돌출된 제1 포고핀(예: 제1 포고핀(510)), 제2 탄성 부재(예: 제2 탄성 부재(532)), 및 상기 돌출부로서 상기 제2 탄성 부재에 의해 상기 하우징으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 제2 포고핀(예: 제2 포고핀(520))을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제1 포고핀은, 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 머리 장착형 전자 장치에 의한 눌림을 통해 상기 제1 전극 및 상기 제3 전극에 접촉될 수 있다.
다양한 실시 예에 따르면, 상기 제2 포고핀은, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착될 때, 상기 사용자 렌즈에 의한 눌림을 통해 상기 제2 전극 및 상기 제4 전극에 접촉될 수 있다.
다양한 실시 예에 따르면, 상기 제2 포고핀은 상기 제2 탄성 부재를 통해 상기 제4 전극과 전기적으로 연결될 수 있다.
다양한 실시 예에 따르면, 상기 내부 배선의 일단에 전기적으로 연결되는 제3 전극(예: 제1 전극(611)), 탄성 부재(예: 탄성 부재(631)), 상기 내부 배선의 타단에 전기적으로 연결되며, 상기 탄성 부재에 의해 상기 하우징으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 레버(예: 레버(610)), 및 상기 레버의 일부에 전기적으로 연결된 도전 막대(예: 도전 막대(620))를 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제3 전극은, 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 제1 전극에 접촉될 수 있다.
다양한 실시 예에 따르면, 상기 도전 막대는, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착될 때, 상기 사용자 렌즈에 의한 상기 레버의 눌림을 통해 상기 제2 전극에 접촉될 수 있다.
다양한 실시 예에 따르면, 머리 장착형 전자 장치는, 몸체, 개구(예: 제1 개구(301a), 제2 개구(301b) 또는 개구(810))를 포함하며 사용자의 얼굴 방향으로 상기 몸체에 배치되고 상기 개구를 향하여 돌출된 복수의 돌출부(예: 돌출부(711a, 712a, 713a), 돌출부(721a, 722a, 723a), 돌출부(811a))를 포함하는 렌즈 클립, 상기 몸체의 일부에 배치되는 적외선 발광 장치, 상기 몸체의 다른 일부에 배치되며, 상기 적외선 발광 장치로부터 발광된 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치, 상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 렌즈 클립으로 상기 복수의 돌출부에 대응하는 복수의 제1 신호를 전송하고, 상기 복수의 제1 신호에 응답하여 수신되는 복수의 제2 신호에 기초하여 상기 개구의 렌즈 장착 여부 및 장착된 사용자 렌즈의 도수 범위를 확인하고, 상기 개구에 상기 사용자 렌즈가 장착되지 않은 것으로 확인되는 경우 상기 제1 안구 이미지에 기초하여 시선 추적 알고리즘을 수행하고, 상기 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우 상기 사용자 렌즈의 도수 범위에 따라 상기 제1 안구 이미지로부터 상기 사용자 렌즈에 의해 발생하는 추가 반사광 이미지를 제거한 제2 안구 이미지에 기초하여 상기 시선 추적 알고리즘을 수행할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우, 상기 복수의 돌출부 중 상기 복수의 제1 신호와 상기 복수의 제2 신호가 동일한 돌출부들의 개수, 위치 또는 이들의 결합을 통해 상기 도수 범위를 결정할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 돌출부 중 상기 사용자 렌즈에 의해 눌린 적어도 하나의 돌출부는 상기 제1 신호와 동일한 상기 제2 신호를 출력할 수 있다.
다양한 실시 예에 따르면, 상기 머리 장착형 전자 장치는, 상기 렌즈 클립에 삽입되며, 상기 사용자 렌즈가 장착되고, 상기 복수의 돌출부에 대응하는 복수의 리세스 구조(예: 복수의 리세스 구조(831, 832, 833, 834, 835, 836, 837, 838, 839, 841, 842, 843, 844))를 포함하는 서브 렌즈 클립(예: 제2 렌즈 클립(830))을 더 포함할 수 있다. 상기 복수의 돌출부 각각은 상기 복수의 리세스 구조 각각에 의해 눌리거나 눌리지 않을 수 있다.
다양한 실시 예에 따르면, 상기 복수의 리세스 구조 각각은 상기 서브 렌즈 클립 내부로 슬라이드 되어 리세스를 형성할 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내부 메모리 또는 외부 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 도 1 및 도 2의 전자 장치(100))의 프로세서(예: 도 2의 제어부(140))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기(예: 도 1 및 도 2의 전자 장치(100))가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 문서에는 다양한 실시 예들이 설명되어 있지만, 통상의 기술자라면 본 발명의 범위를 벗어나지 않는 범위 내에서 다양한 형태 및 세부 변경이 가능함을 이해할 것이다. 본 문서의 다양한 실시 예들은 첨부된 청구범위의 권리범위에 의해 해석되는 수정 및 변경을 포함하도록 할 것이다.

Claims (15)

  1. 머리 장착형 전자 장치에 있어서,
    몸체;
    적어도 하나의 개구를 포함하며, 상기 몸체에 배치되는 렌즈 클립;
    상기 몸체에 배치되며, 적외선을 발광하는 적외선 발광 장치;
    상기 몸체에 배치되며, 상기 적외선이 사용자의 안구에 반사된 제1 안구 이미지를 획득하는 적외선 촬영 장치;
    상기 적외선 발광 장치 및 상기 적외선 촬영 장치와 작동적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는,
    상기 렌즈 클립으로 제1 신호를 전송하고,
    상기 제1 신호에 응답하여 수신되는 제2 신호에 기초하여 상기 적어도 하나의 개구의 렌즈 장착 여부를 검출하고,
    상기 적어도 하나의 개구에 사용자 렌즈가 장착되지 않은 것으로 확인되는 경우 상기 제1 안구 이미지에 기초하여 시선 추적 알고리즘을 수행하고,
    상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 확인되는 경우 상기 제1 안구 이미지로부터 상기 사용자 렌즈에 의해 발생하는 추가 반사광 이미지를 제거한 제2 안구 이미지에 기초하여 상기 시선 추적 알고리즘을 수행하도록 설정된, 머리 장착형 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는,
    상기 제2 신호가 수신되지 않는 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되지 않는 것으로 판단하고,
    상기 제2 신호가 수신되는 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 판단하도록 설정된, 머리 장착형 전자 장치.
  3. 청구항 1에 있어서,
    상기 프로세서는,
    상기 제2 신호가 상기 제1 신호와 상이한 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되지 않는 것으로 판단하고,
    상기 제2 신호가 상기 제1 신호와 동일한 경우 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 것으로 판단하도록 설정된, 머리 장착형 전자 장치.
  4. 청구항 1에 있어서,
    상기 몸체는 상기 렌즈 클립을 향하여 배치된 제1 전극 및 제2 전극을 포함하고,
    상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 경우 상기 제1 전극과 상기 제2 전극은 전기적으로 연결되는 머리 장착형 전자 장치.
  5. 청구항 4에 있어서,
    상기 렌즈 클립은,
    상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극에 전기적으로 연결되는 내부 배선; 및
    상기 적어도 하나의 개구를 향하는 방향으로 돌출되며, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착되는 경우 상기 제2 전극 및 상기 내부 배선에 전기적으로 연결되는 돌출부를 포함하는 머리 장착형 전자 장치.
  6. 청구항 5에 있어서,
    상기 렌즈 클립은,
    상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극 및 상기 내부 배선에 전기적으로 연결되며, 제1 탄성 부재에 의해 상기 렌즈 클립으로부터 상기 제1 전극을 향하는 방향으로 돌출된 제1 포고핀; 및
    상기 돌출부로서 제2 탄성 부재에 의해 상기 렌즈 클립으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 제2 포고핀을 포함하는 머리 장착형 전자 장치.
  7. 청구항 5에 있어서,
    상기 내부 배선의 일단에 전기적으로 연결되며, 상기 렌즈 클립이 상기 몸체에 배치될 때 상기 제1 전극과 접촉되는 제3 전극;
    상기 내부 배선의 타단에 전기적으로 연결되며, 상기 돌출부로서 탄성 부재에 의해 상기 렌즈 클립으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 레버; 및
    상기 레버의 일부에 전기적으로 연결되며, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착된 경우 상기 제2 전극에 접촉되는 도전 막대를 포함하는 머리 장착형 전자 장치.
  8. 머리 장착형 전자 장치에 장착 가능한 렌즈 클립에 있어서,
    적어도 하나의 개구를 포함하는 하우징;
    상기 적어도 하나의 개구를 향하여 돌출되도록, 상기 하우징의 일부에 배치되는 돌출부; 및
    상기 적어도 하나의 개구에 사용자 렌즈가 장착되는 경우 상기 돌출부에 전기적으로 연결되는 내부 배선을 포함하고,
    상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때,
    상기 내부 배선은 상기 머리 장착형 전자 장치의 제1 전극에 전기적으로 연결되고,
    상기 돌출부는 상기 머리 장착형 전자 장치의 제2 전극에 전기적으로 연결되는 렌즈 클립.
  9. 청구항 8에 있어서,
    상기 내부 배선의 일단에 전기적으로 연결된 제3 전극;
    상기 내부 배선의 타단에 전기적으로 연결된 제4 전극;
    제1 탄성 부재;
    상기 제1 탄성 부재에 의해 상기 하우징으로부터 상기 제1 전극을 향하는 방향으로 돌출된 제1 포고핀;
    제2 탄성 부재; 및
    상기 돌출부로서, 상기 제2 탄성 부재에 의해 상기 하우징으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 제2 포고핀을 더 포함하는 렌즈 클립.
  10. 청구항 9에 있어서,
    상기 제1 포고핀은, 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 머리 장착형 전자 장치에 의한 눌림을 통해 상기 제1 전극 및 상기 제3 전극에 접촉되는 렌즈 클립.
  11. 청구항 9에 있어서,
    상기 제2 포고핀은, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착될 때, 상기 사용자 렌즈에 의한 눌림을 통해 상기 제2 전극 및 상기 제4 전극에 접촉되는 렌즈 클립.
  12. 청구항 9에 있어서,
    상기 제2 포고핀은 상기 제2 탄성 부재를 통해 상기 제4 전극과 전기적으로 연결되는 렌즈 클립.
  13. 청구항 8에 있어서,
    상기 내부 배선의 일단에 전기적으로 연결되는 제3 전극;
    탄성 부재;
    상기 내부 배선의 타단에 전기적으로 연결되며, 상기 탄성 부재에 의해 상기 하우징으로부터 상기 적어도 하나의 개구를 향하는 방향으로 돌출된 레버; 및
    상기 레버의 일부에 전기적으로 연결된 도전 막대를 더 포함하는 렌즈 클립.
  14. 청구항 13에 있어서,
    상기 제3 전극은, 상기 하우징이 상기 머리 장착형 전자 장치에 장착될 때, 상기 제1 전극에 접촉되는 렌즈 클립.
  15. 청구항 13에 있어서,
    상기 도전 막대는, 상기 적어도 하나의 개구에 상기 사용자 렌즈가 장착될 때, 상기 사용자 렌즈에 의한 상기 레버의 눌림을 통해 상기 제2 전극에 접촉되는 렌즈 클립.
PCT/KR2021/017219 2020-12-07 2021-11-23 사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치 WO2022124638A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/544,382 US11693477B2 (en) 2020-12-07 2021-12-07 Lens clip for receiving user lens and head mounted electronic device for detecting whether user lens is inserted into lens clip

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200169433A KR20220080387A (ko) 2020-12-07 2020-12-07 사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치
KR10-2020-0169433 2020-12-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/544,382 Continuation US11693477B2 (en) 2020-12-07 2021-12-07 Lens clip for receiving user lens and head mounted electronic device for detecting whether user lens is inserted into lens clip

Publications (1)

Publication Number Publication Date
WO2022124638A1 true WO2022124638A1 (ko) 2022-06-16

Family

ID=81973772

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/017219 WO2022124638A1 (ko) 2020-12-07 2021-11-23 사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치

Country Status (2)

Country Link
KR (1) KR20220080387A (ko)
WO (1) WO2022124638A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062794A (ja) * 2011-09-14 2013-04-04 Hon Hai Precision Industry Co Ltd 3d眼鏡レンズの電気接続構造
JP2014086905A (ja) * 2012-10-24 2014-05-12 Olympus Corp 眼鏡型ウェアラブル装置及び眼鏡型ウェアラブル装置のフロント部
KR20160026429A (ko) * 2014-09-01 2016-03-09 삼성전자주식회사 헤드 마운트 디스플레이 장치
US20190187490A1 (en) * 2017-12-20 2019-06-20 Magic Leap, Inc. Insert for augmented reality viewing device
KR102071804B1 (ko) * 2018-10-02 2020-03-02 박진규 시력교정용 렌즈 탈부착 고글

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062794A (ja) * 2011-09-14 2013-04-04 Hon Hai Precision Industry Co Ltd 3d眼鏡レンズの電気接続構造
JP2014086905A (ja) * 2012-10-24 2014-05-12 Olympus Corp 眼鏡型ウェアラブル装置及び眼鏡型ウェアラブル装置のフロント部
KR20160026429A (ko) * 2014-09-01 2016-03-09 삼성전자주식회사 헤드 마운트 디스플레이 장치
US20190187490A1 (en) * 2017-12-20 2019-06-20 Magic Leap, Inc. Insert for augmented reality viewing device
KR102071804B1 (ko) * 2018-10-02 2020-03-02 박진규 시력교정용 렌즈 탈부착 고글

Also Published As

Publication number Publication date
KR20220080387A (ko) 2022-06-14

Similar Documents

Publication Publication Date Title
WO2017095006A1 (en) Head-mounted display device with detachable device
WO2017052156A1 (en) Coupler and head mounted display device
WO2018236058A1 (en) ELECTRONIC DEVICE FOR PROVIDING PROPERTY INFORMATION OF AN EXTERNAL LIGHT SOURCE FOR AN OBJECT OF INTEREST
WO2018074761A1 (ko) 이미지를 렌더링 하는 장치 및 방법
WO2018084649A1 (ko) 눈을 촬영하여 정보를 획득하는 방법 및 장치
WO2021256651A1 (ko) 증강 현실 글라스 및 그 동작 방법
WO2019164324A1 (en) Head-mounted electronic device
US11693477B2 (en) Lens clip for receiving user lens and head mounted electronic device for detecting whether user lens is inserted into lens clip
US20220413308A1 (en) Wearable electronic device for providing virtual image
WO2022169255A1 (ko) 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법
WO2022149829A1 (ko) 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물
WO2024122801A1 (ko) 외부 전자 장치의 위치에 기반하여 시각적 객체를 표시하기 위한 전자 장치 및 그 방법
WO2018097483A1 (ko) 움직임 정보 생성 방법 및 이를 지원하는 전자 장치
WO2020022750A1 (ko) 디스플레이에서 출력된 광에 대해 다중 초점을 제공할 수 있는 전자 장치
WO2022124638A1 (ko) 사용자 렌즈가 삽입되는 렌즈 클립 및 렌즈 클립에 사용자 렌즈의 삽입 여부를 검출하는 머리 장착형 전자 장치
WO2021215766A1 (ko) 머리 착용형 디스플레이 장치 및 동작 방법
WO2022220659A1 (ko) 전자 장치 및 전자 장치에서 외부 전자 장치를 이용하여 정보를 입력하는 방법
WO2018139786A1 (ko) 전자 장치 및 전자 장치 제어 방법
WO2017122920A1 (ko) 콘텐트 표시 방법 및 이를 수행하는 전자 장치
JP2017083732A (ja) 表示装置、及び、表示装置の制御方法
WO2019124864A1 (ko) 외부 전자 장치가 경사지게 결합될 수 있는 마운트 장치
WO2024136382A2 (ko) 외부 전자 장치로부터 획득된 생체 데이터에 기반하여 화면을 전환하기 위한 웨어러블 장치 및 그 방법
WO2024101593A1 (ko) 웨어러블 장치를 착용한 사용자의 정보를 송신하기 위한 웨어러블 장치, 및 방법
WO2024219934A1 (ko) Ar 장치 및 ar 서비스 이미지의 눈부심 방지 방법
WO2023014185A1 (ko) 사용자의 시선을 검출하는 증강 현실 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21903684

Country of ref document: EP

Kind code of ref document: A1