WO2024030004A1 - Optical device, electronic device including same, display method, control method, and control device - Google Patents

Optical device, electronic device including same, display method, control method, and control device Download PDF

Info

Publication number
WO2024030004A1
WO2024030004A1 PCT/KR2023/011566 KR2023011566W WO2024030004A1 WO 2024030004 A1 WO2024030004 A1 WO 2024030004A1 KR 2023011566 W KR2023011566 W KR 2023011566W WO 2024030004 A1 WO2024030004 A1 WO 2024030004A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light source
user
lens
optical
Prior art date
Application number
PCT/KR2023/011566
Other languages
French (fr)
Korean (ko)
Inventor
권진호
김민선
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220097721A external-priority patent/KR20240019914A/en
Priority claimed from KR1020220097720A external-priority patent/KR20240019913A/en
Priority claimed from KR1020220097704A external-priority patent/KR20240019905A/en
Priority claimed from KR1020220097703A external-priority patent/KR20240019904A/en
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Publication of WO2024030004A1 publication Critical patent/WO2024030004A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • Embodiments relate to optical devices, electronic devices including them, display methods, control methods, and control devices.
  • VR Virtual Reality
  • Augmented Reality refers to a technology that synthesizes virtual objects or information in the real environment to make them look like objects that exist in the original environment.
  • Mixed Reality or Hybrid reality refers to combining the virtual world and the real world to create a new environment or new information. In particular, it is called mixed reality when it refers to real-time interaction between reality and virtual reality.
  • the created virtual environment or situation stimulates the user's five senses and provides spatial and temporal experiences similar to reality, allowing the user to freely move between reality and imagination.
  • users can not only immerse themselves in this environment, but also interact with things implemented in this environment, such as manipulating or giving commands using real devices.
  • Embodiments provide an optical device and an electronic device that accurately detect a user's biosignals when using an optical device used in AR (Augmented Reality), etc., and an electronic device including the same.
  • an optical device with reduced noise for sensing (biological) signals and an electronic device including the same are provided.
  • an optical device that can accurately detect whether a user is wearing it and an electronic device including the same are provided.
  • an optical device with improved power efficiency and an electronic device including the same are provided.
  • an electronic device and display method that provides images based on the user's vision are provided.
  • an electronic device and display method are provided that allow users to more comfortably perceive virtual images, etc. through images selected by the user.
  • control device and control method are provided to reduce malfunctions by activating input types in response to the user's status.
  • control device and control method that can intuitively control an electronic device without the attention of others are provided.
  • an optical device and an electronic device that can more easily suppress the fogging phenomenon are provided.
  • an optical device with improved reliability through heat dissipation and an electronic device including the same are provided.
  • an optical device with improved energy efficiency and an electronic device including the same are provided.
  • the problem to be solved in the embodiment is not limited to this, and it will also include means of solving the problem described below and purposes and effects that can be understood from the embodiment.
  • An optical device includes a plurality of lenses; a barrel on which the plurality of lenses are disposed; a first light guide disposed on the barrel; an opening formed on a side of the barrel; a light source device coupled to the opening; a through hole formed on a side of the barrel; and a light receiving unit disposed adjacent to the through hole.
  • It may include a barrier portion disposed between the through hole and the light receiving portion.
  • the light receiver may be disposed between the first light guide and the optical signal generator.
  • the plurality of lenses include a first lens and a second lens disposed between the first light guide and the optical signal generator, and the first lens may be smaller in size than the second lens.
  • the light receiving unit may be disposed between the first lens and the second lens.
  • the through hole may be disposed between the first lens and the second lens.
  • the light receiving unit may protrude beyond the outer surface of the barrel.
  • the barrier portion may protrude beyond the outer surface of the barrel.
  • the light source device includes a housing having an opening; a second light guide disposed in the housing; and a light source that emits light toward the second light guide.
  • the light receiving unit may be driven while light is emitted from the light source.
  • It may include a control unit that controls the light source device, the optical signal generator, and the light receiver.
  • the control unit may receive a first light receiving signal from the light receiving unit when there is no current applied to the light source device.
  • the control unit may determine whether to drive the light source device by comparing the first light reception signal and a first set value.
  • control unit may drive the light source and receive a second light-receiving signal from the light receiving unit.
  • the control unit may compare the second light reception signal with a second set value and receive a third light reception signal from the light reception unit in response to the operations of the light source and the optical signal generator.
  • An electronic device includes a frame; an input unit disposed in the frame and outputting an input signal; An optical device disposed in the frame to generate an image; a display unit connected to the optical device and outputting an image generated by the optical device; and a control unit that controls an image signal for the image, wherein the control unit provides image signals of test images with different focal lengths and determines the user's visual acuity based on the image selected by the input unit.
  • Inspection images with different focal lengths may be adjusted by the input unit.
  • each of the plurality of inspection images may have a different focal length.
  • the selected image may be at least one of the plurality of inspection images.
  • control unit may adjust and output the focal distance for the image based on the determined user's visual acuity.
  • the controller may determine the user's visual acuity based on the maximum focal length.
  • the inspection images having different focal lengths may include a plurality of objects having different focal lengths in one image.
  • the control unit may adjust the focal length of the inspection image by moving the lens in the optical device.
  • the optical element may include a variable focus lens.
  • the control unit may change the curvature of the optical element.
  • a display method includes outputting inspection images with different focal lengths; determining the user's visual acuity based on an image selected from the inspection images having different focal lengths; and outputting a virtual image based on the determined visual acuity of the user.
  • the method may include storing the determined visual acuity of the user.
  • the determining step may include outputting a plurality of inspection images with different focal lengths.
  • the step of outputting the virtual image may include changing the focal distance for the virtual image based on the determined visual acuity of the user.
  • the determining step may include selecting at least one image from among the plurality of inspection images having different focal lengths; and determining the user's visual acuity based on the maximum focal distance when there are multiple selected images.
  • a control device includes a sensing unit that outputs a sensing signal including motion information; and a controller; wherein the controller determines the user state from the exercise information and determines activation of the gesture operation and the touch operation in response to the user state.
  • the controller may compare whether the amplitude of the detection signal is greater than the second set value.
  • the controller may determine the user state to be an exercise state.
  • the controller may compare whether the intensity of the detection signal is greater than a third set value.
  • the controller determines the user state to be a boarding state, and the third set value may be greater than the first set value.
  • the controller compares whether the amplitude of the detection signal is greater than the fourth set value, and the fourth set value may be smaller than the second set value. .
  • the controller may determine the user state as a moving state if the amplitude of the detection signal is greater than the fourth set value.
  • the controller may determine the user state to be a stopped state if the amplitude of the detection signal is less than the fourth set value.
  • the controller can set the position of the user's initial input to any of the top, bottom, left, and right with respect to the central part.
  • a control method includes receiving a detection signal; determining user status; determining activation of a gesture action or a touch action in response to the determined user state; and transmitting a command in response to the activated operation.
  • the step of determining the user state may include comparing whether the amplitude of the detection signal is greater than a second set value when the intensity of the detection signal is greater than a first set value.
  • determining the user state as an exercise state may include.
  • comparing whether the intensity of the detection signal is greater than the third set value may include.
  • the third set value may be greater than the first set value.
  • the intensity of the detection signal is less than the first set value, comparing whether the amplitude of the detection signal is greater than the fourth set value, wherein the fourth set value may be less than the second set value. there is.
  • determining the user state as a moving state may include.
  • determining the user state as a stationary state may include.
  • An electronic device includes a frame; An optical device disposed in the frame to generate an image; a display unit connected to the optical device and outputting an image generated by the optical device; and a heat dissipation unit connected to the optical device and disposed inside the frame.
  • the optical device includes a barrel on which a plurality of lenses are disposed; an opening formed on a side of the barrel; It may include a light source device coupled to the opening.
  • the light source device is
  • a housing having an opening; a light source emitting light toward the second light guide; and
  • It may include a substrate connected to the light source.
  • the heat dissipation unit may be in contact with the substrate.
  • the heat dissipation portion may extend from the outer surface of the housing to the frame.
  • the optical device may include an optical signal generator that generates an optical signal including image information, and the heat dissipation portion may extend adjacent to the optical signal generator.
  • It may include a heat supply unit disposed on the frame.
  • the heat supply unit and the heat dissipation unit may be spaced apart from each other.
  • the frame has an upper area; and a lower region disposed below the upper region, wherein one of the heat supply unit and the heat dissipation portion is disposed in the upper region, and the other one of the heat supply unit and the heat dissipation portion is disposed in the lower region.
  • the heat dissipation unit may be disposed along an outer surface of the frame.
  • an optical device and an electronic device that accurately detect a user's biological signals are implemented when using an optical device used in AR (Augmented Reality), etc., and an electronic device including the same.
  • an optical device with reduced noise for sensing (biological) signals and an electronic device including the same can be implemented.
  • an optical device that can accurately detect whether a user is wearing it and an electronic device including the same can be implemented.
  • an optical device with improved power efficiency and an electronic device including the same can be implemented.
  • the embodiment implements a control device and control method that reduces malfunctions by activating input types in response to the user's status for electronic devices used in AR (Augmented Reality), etc.
  • optical devices and electronic devices that can more easily suppress the fogging phenomenon are implemented.
  • an optical device with improved reliability through heat dissipation and an electronic device including the same can be implemented.
  • an optical device with improved energy efficiency and an electronic device including the same can be implemented.
  • 1 is a conceptual diagram showing an embodiment of an AI device
  • Figure 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
  • Figure 3 is a perspective view of an augmented reality electronic device according to the first embodiment of the present invention.
  • FIGS. 4 to 6 are conceptual diagrams for explaining various display methods applicable to the display unit according to an embodiment of the present invention.
  • FIG. 7 is a conceptual diagram of an electronic device and an optical device according to an embodiment
  • FIG. 8 is a conceptual diagram of an optical device according to an embodiment
  • FIG. 9 is a perspective view of an optical device according to an embodiment
  • Figure 10 is an exploded perspective view of an optical device according to an embodiment
  • Figure 11 is a view taken along line AA' in Figure 9,
  • Figure 12 is an enlarged view of portion K1 in Figure 11,
  • FIG 13 is an enlarged view of portion K2 in Figure 11,
  • 15 is a flowchart of a method of operating an electronic device or optical device according to an embodiment
  • 16 is a timing diagram explaining the operations of the light source, optical signal generator, and light receiver;
  • FIG. 17 is a flowchart of a display method according to an embodiment
  • 19 and 20 are diagrams illustrating visual acuity determination in a display method according to an embodiment
  • 21 is a diagram illustrating image output in a display method according to an embodiment
  • FIG. 23 is a diagram illustrating visual acuity determination in a display method according to another embodiment
  • Figure 25 is a perspective view of an augmented reality electronic device according to an embodiment according to a modified example
  • Figure 26 is a block diagram of a control device according to an embodiment of the present invention.
  • FIG. 27 is a conceptual diagram of a control device according to an embodiment of the present invention.
  • Figure 29 is a specific flowchart of a control method according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating the operation and control method of a control device according to an embodiment of the present invention.
  • 31 is a diagram illustrating the operation and control between a control device and an electronic device according to an embodiment of the present invention.
  • Figure 32 is a diagram showing the interface of an electronic device according to an embodiment of the present invention.
  • 33 is an example diagram illustrating the operation of an electronic device using a control device according to an embodiment of the present invention.
  • Figure 34 is a diagram explaining the operation of a control device according to an embodiment of the present invention.
  • 35 is a side view of an electronic device according to an embodiment
  • 36 is a plan view of an electronic device according to an embodiment
  • 38 is a perspective view of an optical device according to an embodiment
  • Figure 39 is an exploded perspective view of an optical device according to an embodiment
  • Figure 40 is a view taken along line AA' in Figure 38,
  • Figure 41 is an enlarged view of portion K1 in Figure 40
  • Figure 42 is an enlarged view of portion K2 in Figure 40;
  • 43 is a side view of an electronic device according to another embodiment.
  • 45 is a side view of an electronic device according to another embodiment.
  • Figure 46 is a plan view of an electronic device according to another embodiment.
  • the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
  • first, second, A, B, (a), and (b) may be used.
  • a component when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
  • “above” or “below” refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components.
  • “top (above) or bottom (bottom)” it may include not only the upward direction but also the downward direction based on one component.
  • 1 is a conceptual diagram showing an embodiment of an AI device.
  • the AI system includes at least one of an AI server 16, a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15 connected to a cloud network. It is connected to (10).
  • a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15 to which AI technology is applied may be referred to as AI devices 11 to 15.
  • the cloud network 10 may constitute part of a cloud computing infrastructure or may refer to a network that exists within the cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, 4G, Long Term Evolution (LTE) network, or 5G network.
  • each device 11 to 16 constituting the AI system can be connected to each other through the cloud network 10.
  • the devices 11 to 16 may communicate with each other through a base station, but may also communicate with each other directly without going through the base station.
  • the AI server 16 may include a server that performs AI processing and a server that performs calculations on big data.
  • the AI server 16 is connected to at least one of the AI devices that make up the AI system, such as a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15, and a cloud network ( It is connected through 10) and can assist at least part of the AI processing of the connected AI devices 11 to 15.
  • the AI devices such as a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15, and a cloud network ( It is connected through 10) and can assist at least part of the AI processing of the connected AI devices 11 to 15.
  • the AI server 16 can train an artificial neural network according to a machine learning algorithm on behalf of the AI devices 11 to 15, and directly store or transmit the learning model to the AI devices 11 to 15.
  • the AI server 16 receives input data from the AI devices 11 to 15, infers a result value for the received input data using a learning model, and generates a response or control command based on the inferred result value. It can be transmitted to AI devices (11 to 15).
  • the AI devices 11 to 15 may infer a result value for input data using a direct learning model and generate a response or control command based on the inferred result value.
  • the robot 11 uses AI technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc.
  • the robot 11 may include a robot control module for controlling operations, and the robot control module may mean a software module or a chip implementing it as hardware.
  • the robot 11 uses sensor information obtained from various types of sensors to acquire status information of the robot 11, detect (recognize) the surrounding environment and objects, generate map data, or determine movement path and driving. It can determine a plan, determine a response to user interaction, or determine an action.
  • the robot 11 may use sensor information obtained from at least one sensor among lidar, radar, and camera to determine the movement path and driving plan.
  • the robot 11 can perform the above operations using a learning model composed of at least one artificial neural network.
  • the robot 11 can recognize the surrounding environment and objects using a learning model, and can determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the robot 11 or from an external device such as the AI server 16.
  • the robot 11 may perform an action by generating a result using a direct learning model, but it also transmits sensor information to an external device such as the AI server 16 and receives the result generated accordingly to perform the action. It can also be done.
  • the robot 11 determines the movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to follow the determined movement path and driving plan.
  • the robot 11 can be driven accordingly.
  • the map data may include object identification information about various objects arranged in the space where the robot 11 moves.
  • map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • object identification information may include name, type, distance, location, etc.
  • the robot 11 can perform actions or travel by controlling the driving unit based on the user's control/interaction. At this time, the robot 11 may acquire interaction intention information according to the user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.
  • the self-driving vehicle 12 can be implemented as a mobile robot, vehicle, unmanned aerial vehicle, etc. by applying AI technology.
  • the autonomous vehicle 12 may include an autonomous driving control module for controlling autonomous driving functions, and the autonomous driving control module may refer to a software module or a chip implementing it as hardware.
  • the self-driving control module may be included internally as a component of the self-driving vehicle 12, but may also be configured as separate hardware and connected to the outside of the self-driving vehicle 12.
  • the self-driving vehicle 12 uses sensor information obtained from various types of sensors to obtain status information of the self-driving vehicle 12, detect (recognize) the surrounding environment and objects, generate map data, or You can determine the movement route and driving plan, or determine the action.
  • the autonomous vehicle 12 can use sensor information acquired from at least one sensor among lidar, radar, and camera to determine the movement path and driving plan.
  • the autonomous vehicle 12 can recognize the environment or objects in areas where the view is obscured or over a certain distance by receiving sensor information from external devices, or receive recognized information directly from external devices. .
  • the autonomous vehicle 12 can perform the above operations using a learning model composed of at least one artificial neural network.
  • the self-driving vehicle 12 can recognize the surrounding environment and objects using a learning model, and can determine a driving route using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the autonomous vehicle 12 or from an external device such as the AI server 16.
  • the autonomous vehicle 12 may perform operations by generating results using a direct learning model, but it may also transmit sensor information to an external device such as the AI server 16 and receive the results generated accordingly. You can also perform actions.
  • the autonomous vehicle 12 determines the movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to determine the determined movement path and driving.
  • the autonomous vehicle 12 can be driven according to a plan.
  • the map data may include object identification information about various objects placed in the space (eg, road) where the autonomous vehicle 12 drives.
  • map data may include object identification information for fixed objects such as streetlights, rocks, and buildings, and movable objects such as vehicles and pedestrians.
  • object identification information may include name, type, distance, location, etc.
  • the autonomous vehicle 12 can perform operations or drive by controlling the driving unit based on the user's control/interaction. At this time, the autonomous vehicle 12 may acquire interaction intention information according to the user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.
  • the XR device 13 is equipped with AI technology and can be used for HMD (Head-Mount Display), HUD (Head-Up Display) installed in vehicles, televisions, mobile phones, smart phones, computers, wearable devices, home appliances, and digital signage. , it can be implemented as a vehicle, a fixed robot, or a mobile robot.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • the XR device 13 analyzes 3D point cloud data or image data acquired through various sensors or from external devices to generate location data and attribute data for 3D points, thereby providing information about surrounding space or real objects.
  • the XR object to be acquired and output can be rendered and output.
  • the XR device 13 may output an XR object containing additional information about the recognized object in correspondence to the recognized object.
  • the XR device 13 may perform the above operations using a learning model composed of at least one artificial neural network.
  • the XR device 13 can recognize a real-world object from 3D point cloud data or image data using a learning model and provide information corresponding to the recognized real-world object.
  • the learning model may be learned directly from the XR device 13 or from an external device such as the AI server 16.
  • the XR device 13 may perform operations by generating results using a direct learning model, but operates by transmitting sensor information to an external device such as the AI server 16 and receiving the results generated accordingly. You can also perform .
  • the robot 11 applies AI technology and autonomous driving technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc.
  • the robot 11 to which AI technology and autonomous driving technology is applied may refer to the robot itself with autonomous driving functions or the robot 11 that interacts with the autonomous vehicle 12.
  • the robot 11 with autonomous driving function can refer to devices that move on their own according to a given route without user control, or determine the route on their own and move.
  • the robot 11 and the autonomous vehicle 12 with autonomous driving functions may use a common sensing method to determine one or more of a movement path or a driving plan.
  • the robot 11 and the autonomous vehicle 12 with autonomous driving functions can determine one or more of the movement path or driving plan using information sensed through lidar, radar, and cameras.
  • the robot 11 interacting with the autonomous vehicle 12 exists separately from the autonomous vehicle 12 and is linked to the autonomous driving function inside or outside the autonomous vehicle 12, or is connected to the autonomous driving function inside or outside the autonomous vehicle 12. ) can perform actions linked to the user on board.
  • the robot 11 interacting with the autonomous vehicle 12 acquires sensor information on behalf of the autonomous vehicle 12 and provides it to the autonomous vehicle 12, or acquires sensor information and provides surrounding environment information.
  • the autonomous driving function of the autonomous vehicle 12 can be controlled or assisted by generating object information and providing it to the autonomous vehicle 12.
  • the robot 11 interacting with the autonomous vehicle 12 may monitor the user riding the autonomous vehicle 12 or control the functions of the autonomous vehicle 12 through interaction with the user. . For example, if it is determined that the driver is drowsy, the robot 11 may activate the autonomous driving function of the autonomous vehicle 12 or assist in controlling the driving unit of the autonomous vehicle 12.
  • the functions of the autonomous vehicle 12 controlled by the robot 11 may include not only the autonomous driving function but also functions provided by a navigation system or audio system provided inside the autonomous vehicle 12.
  • the robot 11 interacting with the autonomous vehicle 12 may provide information to the autonomous vehicle 12 or assist a function from outside the autonomous vehicle 12 .
  • the robot 11 may provide traffic information including signal information to the autonomous vehicle 12, such as a smart traffic light, and may interact with the autonomous vehicle 12, such as an automatic electric charger for an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 11 applies AI technology and XR technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, etc.
  • the robot 11 to which XR technology is applied may refer to a robot that is subject to control/interaction within an XR image.
  • the robot 11 is distinct from the XR device 13 and can be interoperated with each other.
  • the robot 11 which is the object of control/interaction within the XR image, acquires sensor information from sensors including a camera, the robot 11 or the XR device 13 generates an XR image based on the sensor information. And, the XR device 13 can output the generated XR image. And, this robot 11 can operate based on a control signal input through the XR device 13 or user interaction.
  • the user can check the XR image corresponding to the viewpoint of the remotely linked robot 11 through an external device such as the XR device 13, and adjust the autonomous driving path of the robot 11 through interaction. , you can control movement or driving, or check information about surrounding objects.
  • the self-driving vehicle 12 can be implemented as a mobile robot, vehicle, unmanned aerial vehicle, etc. by applying AI technology and XR technology.
  • the autonomous vehicle 12 to which XR technology is applied may refer to an autonomous vehicle equipped with means for providing XR images or an autonomous vehicle that is subject to control/interaction within XR images.
  • the autonomous vehicle 12, which is the subject of control/interaction within the XR image is distinct from the XR device 13 and can be interoperable with each other.
  • the autonomous vehicle 12 equipped with a means for providing an XR image can acquire sensor information from sensors including a camera and output an XR image generated based on the acquired sensor information.
  • the self-driving vehicle 12 may be equipped with a HUD and output XR images, thereby providing passengers with XR objects corresponding to real objects or objects on the screen.
  • the XR object when the XR object is output to the HUD, at least a portion of the XR object may be output to overlap the actual object toward which the passenger's gaze is directed.
  • the XR object when the XR object is output to a display provided inside the autonomous vehicle 12, at least a portion of the XR object may be output to overlap the object in the screen.
  • the autonomous vehicle 12 may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, two-wheeled vehicles, pedestrians, buildings, etc.
  • the autonomous vehicle 12 which is the subject of control/interaction within the XR image, acquires sensor information from sensors including cameras, the autonomous vehicle 12 or the XR device 13 detects sensor information based on the sensor information. An XR image is generated, and the XR device 13 can output the generated XR image. Additionally, this autonomous vehicle 12 may operate based on control signals input through an external device such as the XR device 13 or user interaction.
  • Extended reality is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR: Mixed reality).
  • VR technology provides objects and backgrounds in the real world only as CG images
  • AR technology provides virtual CG images on top of images of real objects
  • MR technology provides computer technology that mixes and combines virtual objects in the real world. It is a graphic technology.
  • MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, in AR technology, virtual objects are used to complement real objects, whereas in MR technology, virtual objects and real objects are used equally.
  • XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices with XR technology applied are called XR Devices. It can be called.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phones tablet PCs, laptops, desktops, TVs, digital signage, etc.
  • XR Devices It can be called.
  • Figure 2 is a block diagram showing the configuration of an extended reality electronic device 20 according to an embodiment of the present invention.
  • the extended reality electronic device 20 includes a wireless communication unit 21, an input unit 22, a sensing unit 23, an output unit 24, an interface unit 25, a memory 26, and a control unit ( 27) and a power supply unit 28.
  • the components shown in FIG. 2 are not essential for implementing the electronic device 20, so the electronic device 20 described herein may have more or fewer components than those listed above. .
  • the wireless communication unit 21 is a wireless communication system between the electronic device 20 and the wireless communication system, between the electronic device 20 and another electronic device, or between the electronic device 20 and an external server. It may contain one or more modules that enable communication. Additionally, the wireless communication unit 21 may include one or more modules that connect the electronic device 20 to one or more networks.
  • This wireless communication unit 21 may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.
  • the input unit 22 includes a camera or video input unit for inputting video signals, a microphone or audio input unit for inputting audio signals, and a user input unit (for example, a touch key) for receiving information from the user. , pushkey (mechanical key, etc.) may be included. Voice data or image data collected from the input unit 22 may be analyzed and processed as a user's control command.
  • the sensing unit 23 may include one or more sensors for sensing at least one of information within the electronic device 20, information on the surrounding environment surrounding the electronic device 20, and user information.
  • the sensing unit 23 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor (G- sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor, fingerprint scan sensor, ultrasonic sensor, optical sensor ( optical sensor (e.g., imaging device), microphone, battery gauge, environmental sensor (e.g., barometer, hygrometer, thermometer, radiation detection sensor, heat detection sensor, gas detection sensor, etc.), It may include at least one of chemical sensors (eg, electronic nose, healthcare sensor, biometric sensor, etc.). Meanwhile, the electronic device 20 disclosed in this specification can utilize information sensed by at least two of these sensors by combining them.
  • G- sensor gyroscope sensor, motion sensor, RGB sensor, infrared sensor, fingerprint scan sensor, ultrasonic sensor
  • optical sensor optical sensor (e.g., imaging device), microphone, battery gauge, environmental sensor (e.g., barometer, hygrometer, thermometer, radiation detection sensor, heat detection
  • the output unit 24 is intended to generate output related to vision, hearing, or tactile sensation, and may include at least one of a display unit, an audio output unit, a haptic module, and an optical output unit.
  • a touch screen can be implemented by forming a layered structure with the touch sensor or being integrated with the display unit. This touch screen functions as a user input means that provides an input interface between the augmented reality electronic device 20 and the user, and can simultaneously provide an output interface between the augmented reality electronic device 20 and the user.
  • the interface unit 25 serves as a passageway for various types of external devices connected to the electronic device 20. Through the interface unit 25, the electronic device 20 can receive virtual reality or augmented reality content from an external device, and can perform mutual interaction by exchanging various input signals, sensing signals, and data.
  • the interface unit 25 includes a device equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a connection port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • a connection port an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • the memory 26 stores data that supports various functions of the electronic device 20.
  • Memory 26 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices.
  • the memory 26 may store a plurality of application programs (application programs or applications) running on the electronic device 20, data for operating the electronic device 20, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, at least some of these applications may be present on the electronic device 20 from the time of shipment for basic functions of the electronic device 20 (e.g., call incoming and outgoing functions, message receiving and sending functions).
  • the control unit 27 typically controls the overall operation of the electronic device 20 in addition to operations related to application programs.
  • the control unit 27 can process signals, data, information, etc. that are input or output through the components discussed above.
  • control unit 27 can control at least some of the components by running the application program stored in the memory 26 to provide appropriate information to the user or process functions. Furthermore, the control unit 27 may operate at least two of the components included in the electronic device 20 in combination with each other in order to run an application program. Furthermore, the control unit 27 can perform processing for a driving method described later. This control unit 27 may be expressed as a processor, control unit, etc. Additionally, the control unit 27 may include an application-specific integrated circuit (ASIC), another chipset, logic circuit, and/or a data processing device.
  • ASIC application-specific integrated circuit
  • control unit 27 may sense the movement of the electronic device 20 or the user using a gyroscope sensor, gravity sensor, motion sensor, etc. included in the sensing unit 23.
  • control unit 27 may detect an object approaching the electronic device 20 or the user using a proximity sensor, illuminance sensor, magnetic sensor, infrared sensor, ultrasonic sensor, light sensor, etc. included in the sensing unit 23. there is.
  • control unit 27 can also detect the user's movement through sensors provided in the controller that operates in conjunction with the electronic device 20.
  • control unit 27 may perform an operation (or function) of the electronic device 20 using an application program stored in the memory 26.
  • the power supply unit 28 receives external or internal power under the control of the control unit 27 and supplies power to each component included in the electronic device 20.
  • the power supply unit 28 includes a battery, and the battery may be provided in a built-in or replaceable form.
  • At least some of the above components may operate in cooperation with each other to implement operation, control, or a control method of an electronic device according to various embodiments described below. Additionally, the operation, control, or control method of the electronic device may be implemented on the electronic device by running at least one application program stored in the memory 26.
  • HMD Head Mounted Display
  • embodiments of the electronic device according to the present invention include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation, and slate PCs ( Slate PC, tablet PC, ultrabook, and wearable device may be included.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • slate PCs slate PCs
  • wearable devices may include smart watches, contact lenses, VR/AR/MR Glass, etc.
  • Figure 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
  • an electronic device may include a frame 100, an optical device 200, and a display unit 300.
  • the electronic device may be provided as a glass type (smart glass).
  • a glass-type electronic device is configured to be worn on the head of the human body, and may be provided with a frame (case, housing, etc.) 100 for it.
  • the frame 100 may be made of a flexible material to make it easy to wear.
  • the frame 100 is supported on the head and provides space for various parts to be mounted. As shown, the frame 100 may be equipped with electronic components such as an optical device 200, a user input unit 130, or an audio output unit 140. Additionally, a lens covering at least one of the left eye and the right eye may be removably mounted on the frame 100.
  • the frame 100 may have the form of glasses worn on the face of the user's body, but is not necessarily limited thereto and may have the form of goggles worn in close contact with the user's face. .
  • Such a frame 100 includes a front frame 110 having at least one opening, and a pair of side frames 120 that extend in the y direction (in FIG. 3) intersecting the front frame 110 and are parallel to each other. It can be included.
  • the frame 100 may have the same or different length (DI) in the x direction and length (LI) in the y direction.
  • the optical device 200 is provided to control various electronic components included in an electronic device.
  • the optical device 200 may generate an image shown to the user or an image containing a series of images.
  • the optical device 200 may include an image source panel that generates an image and a plurality of lenses that diffuse and converge light generated from the image source panel.
  • the optical device 200 may be fixed to one of the two side frames 120 .
  • the optical device 200 may be fixed to the inside or outside of one of the side frames 120, or may be built into one of the side frames 120 and formed integrally.
  • the optical device 200 may be fixed to the front frame 110 or may be provided separately from the electronic device.
  • the display unit 300 may be implemented in the form of a head mounted display (HMD).
  • HMD type refers to a display method that is mounted on the head and shows images directly in front of the user's eyes.
  • the display unit 300 may be arranged to correspond to at least one of the left eye and the right eye so that an image can be provided directly in front of the user's eyes.
  • the display unit 300 is located in a portion corresponding to the right eye so that an image can be output toward the user's right eye.
  • it is not limited to this and may be placed on both the left and right eyes.
  • the display unit 300 allows the user to visually perceive the external environment and at the same time allows the user to see the image generated by the optical device 200.
  • the display unit 300 may project an image onto the display area using a prism.
  • the display unit 300 may be formed to be translucent so that the projected image and the general front view (range viewed through the user's eyes) are visible at the same time.
  • the display unit 300 may be translucent and may be formed of an optical member including glass.
  • the display unit 300 may be inserted into and fixed to an opening included in the front frame 110, or may be located on the back of the opening (i.e., between the opening and the user) and fixed to the front frame 110.
  • the display unit 300 is located on the back of the opening and is fixed to the front frame 110 as an example.
  • the display unit 300 can be placed and fixed at various positions on the frame 100. You can.
  • the electronic device when image light for an image is incident on one side of the display unit 300 from the optical device 200, the electronic device emits the image light to the other side through the display unit 300, The image generated by the device 200 can be displayed to the user.
  • the user can view the image generated by the optical device 200 while simultaneously viewing the external environment through the opening of the frame 100. That is, the image output through the display unit 300 may appear to overlap with the general field of view.
  • Electronic devices can use these display characteristics to provide augmented reality (AR), which displays a single image by overlapping a virtual image on a real image or background.
  • AR augmented reality
  • the external environment and images generated by the optical device 200 may be provided to the user with a time difference for a short period of time that cannot be perceived by a person.
  • an external environment may be provided to a person in one section, and an image from the optical device 200 may be provided to a person in another section.
  • both overlap and time difference may be provided.
  • 4 to 6 are conceptual diagrams for explaining various display methods applicable to the display unit according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an embodiment of a prism-type optical member
  • FIG. 5 is a diagram for explaining an embodiment of a waveguide (or waveguide)-type optical member
  • FIG. 6 is a surface This is a drawing to explain an embodiment of a reflective optical member.
  • a prism-type optical member may be used in the display unit 300-1 according to an embodiment of the present invention.
  • the prismatic optical member is a flat type glass optical member in which the surface on which image light is incident and the surface 300a on which image light is emitted are flat, as shown in (a) of FIG. 4, or , As shown in (b) of FIG. 4, a freeform glass optical member in which the surface 300b from which image light is emitted is formed as a curved surface without a constant radius of curvature may be used.
  • the flat type glass optical member may receive image light generated by the optical device 200 from its flat side, be reflected by the total reflection mirror 300a provided therein, and be emitted toward the user.
  • the total reflection mirror 300a provided inside the flat type glass optical member may be formed inside the flat type glass optical member using a laser.
  • the freeform glass optical member is configured to become thinner as the distance from the incident surface increases, so that the image light generated by the optical device 200 is incident on the side having a curved surface, is totally reflected internally, and can be emitted toward the user. there is.
  • the display unit 300-2 includes a waveguide (or waveguide) type optical member or a light guide optical element (LOE). It can be used.
  • a waveguide (or waveguide) type optical member or a light guide optical element (LOE). It can be used.
  • LOE light guide optical element
  • Such a waveguide (or waveguide) or light guide type optical member is a partially reflective mirror (segmented beam splitter) type glass optical member as shown in (a) of FIG. 5 , a sawtooth prism glass optical member as shown in (b) of FIG. 5, a glass optical member having a diffractive optical element (DOE) as shown in (c) of FIG. 5, A glass optical element having a hologram optical element (HOE) as shown in (d), a glass optical element having a passive grating as shown in (e) of FIG. 5, FIG. 5 There may be a glass optical member with active grating as shown in (f).
  • the glass optical member of the segmented beam splitter type has a total reflection mirror 301a and a light image on the side where the light image is incident inside the glass optical member.
  • a partial reflection mirror may be provided on the emitting side.
  • the light image generated by the optical device 200 is totally reflected by the total reflection mirror 301a inside the glass optical member, and the totally reflected light image guides light along the longitudinal direction of the glass and is reflected by the partial reflection mirror 301b. It can be partially separated and emitted and recognized by the user's perspective.
  • the sawtooth prism glass optical member as shown in (b) of FIG. 5 is provided on the side where the image light of the optical device 200 is incident on the side of the glass in a diagonal direction and is totally reflected inside the glass, and the light image is emitted.
  • the irregularities 302 in the form of sawtooth are projected to the outside of the glass and can be recognized by the user's vision.
  • the glass optical member having a diffractive optical element (DOE) as shown in (c) of FIG. 5 has a first diffraction portion 303a on the surface of the side where the light image is incident and a side where the light image is emitted.
  • a second diffraction portion 303b may be provided on the surface of .
  • the first and second diffraction parts 303a and 303b may be provided by patterning a specific pattern on the surface of the glass or attaching a separate diffraction film.
  • the light image generated by the optical device 200 is diffracted as it enters through the first diffraction unit 303a, is totally reflected, guides light along the longitudinal direction of the glass, and is emitted through the second diffraction unit 303b. , can be recognized by the user's perspective.
  • the glass optical member having a hologram optical element (HOE) as shown in (d) of FIG. 5 may be provided with an out-coupler (304) inside the glass on the side from which the optical image is emitted. You can. Accordingly, the light image is incident from the optical device 200 in the diagonal direction through the side of the glass, is totally reflected, guides the light along the longitudinal direction of the glass, and is emitted by the out coupler 304, so that it can be recognized by the user's vision. there is.
  • the structure of such holographic optical members can be slightly changed and further divided into a structure with a passive grid and a structure with an active grid.
  • the glass optical member having a passive grating as shown in (e) of FIG. 5 has an in-coupler (305a) on the surface opposite to the glass surface on which the light image is incident, and the light image is emitted.
  • An out-coupler (305b) may be provided on the surface opposite to the glass surface.
  • the in-coupler 305a and the out-coupler 305b may be provided in the form of a film having a passive grid.
  • the light image incident on the glass surface on the incident side of the glass is totally reflected by the in-coupler 305a provided on the opposite surface, guides light along the longitudinal direction of the glass, and is guided along the length of the glass by the out-coupler 305b. It projects through the opposite surface and can be recognized by the user's vision.
  • the glass optical member having an active grating as shown in (f) of FIG. 5 is an in-coupler (306a) formed with an active grating inside the glass on the side where the light image is incident.
  • An out-coupler (306b) formed as an active grid may be provided inside the glass on the side from which light is emitted.
  • the light image incident on the glass is totally reflected by the in-coupler 306a, guides light along the length direction of the glass, and is emitted out of the glass by the out-coupler 306b, so that it can be recognized by the user's vision. there is.
  • a pin mirror type optical member may be used as the display unit according to the modified example.
  • the surface reflection type optical member of the freeform combiner type as shown in (a) of FIG. 6 has a plurality of flat surfaces with different incident angles of the optical image formed of one glass to perform the role of a combiner.
  • freeform combiner glass formed to have an overall curved surface can be used.
  • Such freeform combiner glass 300 may emit an optical image to the user at different angles of incidence for each area.
  • the Flat HOE surface reflection type optical member as shown in (b) of FIG. 6 may be provided by coating or patterning a holographic optical member (HOE, 311) on the surface of flat glass.
  • the light image incident from the device 200 may pass through the holographic optical member 311, be reflected on the surface of the glass, and then pass through the holographic optical member 311 again and be emitted toward the user.
  • the freeform HOE surface reflection type optical member as shown in (c) of FIG. 6 may be provided by coating or patterning a holographic optical member (HOE, 313) on the surface of freeform glass, and the operating principle is It may be the same as described in (b) of FIG. 6.
  • HOE holographic optical member
  • FIG. 7 is a conceptual diagram of an electronic device and an optical device according to an embodiment
  • FIG. 8 is a conceptual diagram of an optical device according to an embodiment
  • FIG. 9 is a perspective view of an optical device according to an embodiment
  • FIG. 10 is a conceptual diagram of an optical device according to an embodiment. It is an exploded perspective view of the optical device
  • FIG. 11 is a view taken along line AA' in FIG. 9
  • FIG. 12 is an enlarged view of part K1 in FIG. 11
  • FIG. 13 is an enlarged view of part K2 in FIG. 11.
  • an electronic device may include a frame 100, an optical device 200, and a display unit 300 as described above.
  • the optical device 200 may be placed on the frame 100. And the optical device 200 is connected to the display unit 300 and can provide an image or video to the display unit 300.
  • This display unit 300 may be located on a light-transmitting lens (eg, eyeglasses) connected to the frame 100.
  • the optical device 200 includes a barrel 210, a light source device 220 disposed within the barrel and including a light source, an optical signal generator 230 that converts the optical signal into a signal for an image signal, and It may include a detection unit 250.
  • a detection unit 250 The explanation for this can be applied in the same way as described later.
  • the sensing unit 250 may include a light receiving unit 251. Additionally, the sensing unit 250 may include a barrier unit 252 adjacent to the light receiving unit 251 and a substrate unit 253 connected to the light receiving unit. At this time, in the optical device 200, the barrel 210 may include a through hole 210rs formed on the side.
  • the sensing unit 250 may be disposed adjacent to the through hole 210rs. Accordingly, light passing through a plurality of lenses within the barrel 210 may be emitted to the outside through the through hole 210rs. For example, when a user (or wearer) wears an electronic device, light emitted through the through hole 210rs may be emitted onto the wearer's skin. The emitted light (IL) may penetrate the wearer's tissue and move to the blood vessel. At this time, the amount of light absorbed varies depending on the amount of blood (eg, red blood cells) passing through the blood vessel (eg, artery). For example, the amount of blood passing through blood vessels may repeatedly increase or decrease depending on the cycle or frequency of the heartbeat (or pulse).
  • the amount of blood passing through blood vessels may repeatedly increase or decrease depending on the cycle or frequency of the heartbeat (or pulse).
  • the amount of blood For example, if the amount of blood is large, most of the light (e.g., green wavelength light) transmitted into the skin is absorbed by red blood cells, and the amount of light (RL) reflected to the outside of the skin may be relatively reduced. Accordingly, the light received by the light receiving unit 251 may be relatively reduced.
  • the amount of blood is small, less light transmitted into the skin is absorbed by red blood cells, and the amount of light reflected outside the skin may relatively increase. Accordingly, the light received at the light receiving unit may relatively increase. In other words, in preparation for cases where the amount of blood is small, the light received by the light receiver may be small.
  • the light receiving unit 251 may convert the received light into an electrical signal, and the converted electrical signal may be transmitted to the control unit of the optical device or the control unit of the electronic device. Therefore, the wearer's pulse can be detected through the sensing unit 250. Accordingly, the electronic device or optical device can detect whether the user is wearing the device using the sensing unit 250.
  • the barrier unit 252 is disposed adjacent to the light receiving unit 251 to prevent light passing through the through hole 210rs from being directly provided to the light receiving unit 251. Accordingly, the optical device or electronic device according to the embodiment can perform more accurate detection. For example, optical or electronic devices can accurately sense pulse or oxygen saturation.
  • the substrate part 253 can support the barrier part 252 and the light receiving part 251. Furthermore, the substrate portion 253 is electrically connected to the light receiving portion 251 and may be electrically connected to a control portion of an optical device or electronic device.
  • the optical device 200 includes a barrel 210, a lens (L), and a first light guide (LG1). Furthermore, the optical device 200 may include a light source device 220 located at or coupled to an opening OP formed on a side of the barrel 210 and an optical signal generator 230 adjacent to the barrel 210. Furthermore, the optical device 200 may further include a cover (CV) surrounding the barrel 210, the light source device 220, and the optical signal generator 230, and a substrate (including a connector, not shown).
  • CV cover
  • the lens L may include a plurality of lenses arranged sequentially based on the top of the barrel 210.
  • the lens L may include a first lens L1 disposed first at the top, a second lens L2 disposed behind the first lens, and an N-th lens Ln disposed last at the top.
  • N is a natural number and can be 2 or more.
  • the N-th lens Ln may be located closest to the optical signal generator 230 located at the rear end of the barrel 210 or at the rear end of the plurality of lenses L among the plurality of lenses L.
  • the first direction (X-axis direction) may correspond to the optical axis. Additionally, the first direction (X-axis direction) may correspond to the direction in which light emitted from the light source device 220 is reflected by the optical signal generator 230 and is emitted to the display unit described above. And the second direction (Y-axis direction) is a direction perpendicular to the first direction (Y-axis direction). Furthermore, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 toward the opening OP. Additionally, in the following specification or this embodiment, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 to the second light guide LG2.
  • the first light guide LG1 may be referred to as a first light guide part or a first guide member. Additionally, the second light guide LG2 may be referred to as a second light guide part or a second guide member.
  • the barrel 210 may further include a hole corresponding to the opening OP.
  • the barrel 210 may include a barrel hole or an additional hole 210h.
  • the additional hole 210h may be located facing the opening OP.
  • the additional hole 210h may overlap the opening OP in the second direction (Y-axis direction).
  • the distance of the additional hole 210h from the N-th lens Ln in the first direction may be equal to the distance between the opening OP and the N-th lens Ln.
  • the additional hole 210h may be located in an area corresponding to the position of the opening OP on the inner surface of the barrel 210.
  • the bonding member can be easily applied to the light source device 220 coupled to, inserted into, fixed to, or connected to the opening OP through the additional hole 210h. Accordingly, the coupling force between the barrel 210 and the light source device 220 can be improved. Accordingly, the optical device 200 according to the embodiment may have improved durability, durability, or reliability. Alternatively, optical tests on the light source device 220 located in the opening OP can also be easily performed through the additional hole 210h. Alternatively, fluid (eg, air) can be easily discharged or discharged to the barrel 210 and the light source device 200 through the additional hole 210h. The presence or absence of these additional holes 210h may be applied in various ways depending on the embodiment. For example, the additional hole 210h may be disposed on the side of the barrel 210 as described above. Alternatively, the additional hole 210h may not exist on the side of the barrel 210 in consideration of durability, etc.
  • a plurality of lenses (L) may be located within the barrel 210.
  • a first light guide LG1 may be located within the barrel 210.
  • the barrel 210 may include an opening OP formed on the side.
  • the shape of the opening OP may include various shapes, such as circular or polygonal. And this opening OP may correspond to the position of the first light guide LG1.
  • the opening OP may overlap the first light guide LG1 in a direction perpendicular to the optical axis.
  • the first light guide LG1 may be disposed between two lenses among the plurality of lenses.
  • the first light guide LG1 may be disposed between the first lens L1 and the N-th lens Ln.
  • the first light guide LG1 may be located between the first lens L1 and the optical signal generator 230.
  • the first light guide LG1 may be located between the first lens L1 and the second lens L2 or between the second lens L2 and the N-th lens Ln.
  • Various positions of the first light guide LG1 will be described through various embodiments as will be described later.
  • the first light guide LG1 may be located between the second lens L2 and the N-th lens Ln. Accordingly, the N-th lens (Ln) may be located between the first light guide (LG1) and the optical signal generator 230. With this configuration, an appropriate optical path can be secured when the light reflected from the first light guide LG1 is provided to the optical signal generator 230. Additionally, refraction of the reflected light may occur. As a result, the first light guide LG1 can be miniaturized.
  • the first light guide LG1 may include a first prism.
  • the first prism may be a polarizing prism. Additionally, the first prism may be a polarization separation prism.
  • the first prism may reflect the first polarized light and transmit the second polarized light. For example, a portion of the light (first polarized light) provided from the light source device 220 or incident on the first light guide LG1 may be reflected from the first light guide LG1 and provided to the optical signal generator 230. . Additionally, another part of the light (second polarized light) incident on the first light guide LG1 may pass through the first light guide LG1 and be absorbed in the barrel 210 .
  • the opening OP may be disposed in the area where the first light guide LG1 is located.
  • the incident surface of the first light guide LG1 may be positioned to face the opening OP.
  • the position of the first light guide LG1 in the barrel 210 may be the same as the first light guide LG1.
  • the light source device 220 may include a light source 223 and generate (generate, provide) or emit light.
  • the light source device 220 according to the embodiment may be located or coupled to the opening OP. That is, the light source device 220 may be connected or combined with the barrel 210.
  • the light source device 220 includes a housing 222 including an opening 222h, a second light guide LG2 disposed within the housing 2220, and a light source 223 that provides light to the second light guide LG2. It can be included.
  • the light source device 220 includes a light source assembly 221 disposed outside the light source device 220 and surrounding the housing 222, a light source lens 224 adjacent to the light source 223, and an intermediate member located within the housing 222. It may include a lens (MO).
  • the light source assembly 221 may be disposed on the outermost side of the light source device 220 .
  • the light source assembly 221 may be located outside the housing 222.
  • the light source assembly 221 may be integrated with the housing 222 or may be separate from the housing 222 .
  • Housing 222 may include an opening 222h.
  • the housing 222 may be located adjacent to the opening OP of the barrel 210.
  • the opening 222h of the housing 222 may be located corresponding to the opening OP of the barrel 210. Accordingly, the opening 222h of the housing 222 may overlap the opening OP of the barrel 210 in the second direction (Y-axis direction).
  • Light source 223 may be located within housing 222 or light source assembly 221.
  • the light source 223 may emit light.
  • light emitted from the light source 223 may be incident on the second light guide LG2 within the housing 222.
  • a second light guide LG2 may be located within the housing 222. Accordingly, the second light guide LG2 may transmit the light emitted from the light source 223 to the opening 222h or the first light guide LG1.
  • the light source 223 may be plural and include a first light source 223a, a second light source 223b, and a third light source 223c.
  • the first light source 223a to the third light source 223c may emit light in the same direction or in different directions.
  • the first light source 223a and the third light source 223c may be positioned to face each other.
  • the first light source 223a and the third light source 223c may be positioned to overlap in the first direction (X-axis direction).
  • a second light guide LG2 may be located between the first light source 223a and the third light source 223c. Accordingly, the second light guide LG2 may overlap the first light source 223a and the third light source 223c. And the second light source 223b may be located between the first light source 223a and the third light source 223c. The first light source 223a to the third light source 223c may emit light toward the second light guide LG2. And the second light source 223b may overlap the second light guide LG2 in the second direction. With this configuration, the optical device 200 can have a compact light source device 220.
  • first light source 223a, the second light source 223b, and the third light source 223c may each emit light of the same or different wavelengths or colors.
  • first light source 223a, the second light source 223b, and the third light source 223c may each emit red, green, and blue light.
  • the second light guide LG2 may include a second prism.
  • the second prism is a reflective member and may include, for example, an X prism (x-prism).
  • the second light guide LG2 or the second prism may have a structure in which at least two or more prisms are combined.
  • the second prism may include at least two or more coated surfaces (reflecting members or reflective sheets).
  • One of these at least two coating surfaces may reflect light of the first wavelength and light of the second wavelength, and may transmit light of the third wavelength. That is, the coated surface can reflect light in a predetermined wavelength band. Accordingly, for each light emitted from the plurality of light sources 223, lights in a desired wavelength band may be reflected from the second light guide LG2.
  • light passing through the second light guide (LG2) may be provided to the first light guide (LG1) or the intermediate lens (MO).
  • the light source lens 224 may be located adjacent to the light source 223. For example, there may be a plurality of light source lenses 224.
  • the light source lens 224 may be located on the path of light emitted from each light source 223.
  • the light source lens 224 may be located between the second light guide LG2 and the light source 223. Additionally, there may be a plurality of light source lenses 224. A plurality of light source lenses 224 may be positioned between the second light guide LG2 and the light source 223. Alternatively, there may be a plurality of light source lenses 224 corresponding to each of the plurality of light sources 223 .
  • the light source lens 224 may include a first light source lens 224a, a second light source lens 224b, and a third light source lens 224c.
  • the first light source lens 224a may be located between the first light source 223a and the second light guide LG2.
  • the second light source lens 224b may be located between the second light source 223b and the second light guide LG2.
  • the third light source lens 224c may be located between the third light source 223c and the second light guide LG2.
  • first light source lens 224a, the second light source lens 224b, and the third light source lens 224c are each on the first light source 223a, the second light source 223b, and the third light source 223c.
  • one of the plurality of first light source lenses 224a may be located on the first light source 223a and combined with the light source assembly 221.
  • Another one of the plurality of first light source lenses 224a is located between one of the first light source lenses 224a and the second light guide LG2, and can be combined with the housing 222.
  • first light source lens 224a, the second light source lens 224b, and the third light source lens 224c may include a collimator lens or a collimator.
  • a substrate 225 connected to the light source 223 may be disposed in the light source assembly 221. There may be at least one substrate 225 corresponding to the light source 223 .
  • the plurality of substrates 225 may include a first substrate 225a, a second substrate 225b, and a third substrate 225c. As described above, the plurality of substrates 225 may be one substrate or may be plural in number corresponding to the number of light sources.
  • the substrate 225 may be electrically connected to a control unit or processor within the frame (or display unit) described above. Accordingly, the board 225 may include a connector for communication with an external device or a connected device. Furthermore, the substrate 225 is disposed outside the light source 223 to discharge heat generated from the light source to the outside. Accordingly, the reliability of the light source device 220 can be improved.
  • the intermediate lens (MO) may be located between the aperture (222h) and the second light guide (LG2). Additionally, the intermediate lens (MO) may be located between the first light guide (LG1) and the second light guide (LG2).
  • the intermediate lens (MO) may include a plurality of lenses.
  • it may include a first intermediate lens (MO1) and a second intermediate lens (MO2).
  • the light reflected from the second light guide LG2 may be directly provided to the first light guide LG1 without the intermediate lens MO.
  • the first intermediate lens MO1 may include a first surface MO1s1 adjacent to the first light guide LG1 and a second surface MO1s2 corresponding to the first surface MO1s1. Light emitted from the light source 223 may pass through the second light guide LG2 and sequentially pass through the second surface MO1s2 and the second surface MO1s1.
  • the second surface MO1s2 may be convex toward the second light guide LG2.
  • the second surface MO1s2 may be concave toward the first light guide LG1.
  • the first surface MO1s1 may be convex or concave toward the second light guide Lg2.
  • the first intermediate lens MO1 may have a meniscus shape.
  • the second surface MO1s2 is convex toward the second light guide LG2, so that light can be concentrated while passing through the intermediate lens MO. Accordingly, the uniformity or uniformity of light provided to the optical signal generator 230 may be improved.
  • the light incident on the optical signal generator 230 may be surface light. And the uniformity of surface light can be improved. Accordingly, the accuracy or resolution of the image signal or image emitted to the display unit through the optical device 200 according to the embodiment may be improved.
  • the second intermediate lens (MO2) may include a micro lens array (MLA). Accordingly, surface illumination may be partially performed on the light passing through the second light guide LG2.
  • MLA micro lens array
  • the second intermediate lens MO2 may have a different size from the second light guide LG2.
  • the first intermediate lens MO1 may have a different size from the second light guide LG2.
  • the intermediate lens (MO2) may be larger in size compared to the second light guide (LG2).
  • the positions of the plurality of lenses L, the intermediate lens MO, and the light source lens 224 may be maintained by the spacer SP.
  • a plurality of spacers (SP) adjacent to a plurality of lenses (L) may exist in the barrel 210.
  • an intermediate lens (MO) and a plurality of spacers (SP) adjacent to the light source lens 224 may be disposed in the housing 222 or the light source assembly 221 of the light source device 220.
  • a plurality of spacers SP may be disposed on the upper or lower side of the above-described lens to fix or maintain the position of the lens.
  • the optical signal generator 230 may be located at the rear end of the barrel 210.
  • the optical signal generator 230 may overlap the lens L in the optical axis or the first direction (X-axis direction).
  • the optical signal generator 230 may convert the light incident on the first light guide LG1, reflected, and then passing through the N-th lens into an optical signal containing image information.
  • the optical signal generator 230 may reflect light (first polarized light) reflected from the first light guide LG1.
  • the optical signal generator 230 may generate an optical signal including image information. That is, the light reflected from the optical signal generator 230 may be light containing image information.
  • the optical signal generator 230 may include a liquid crystal on silicon (LCoS) device.
  • LCD liquid crystal on silicon
  • a silicon liquid crystal display device consists of a silicon wafer (a thin disk used as a semiconductor material) with a CMOS (Complementary Metal-Oxide Semiconductor) array and an anti-reflection coating coated with a transparent electrode (Indium Tin Oxide, ITO). It may be a structure where liquid crystal is placed between members (anti-reflection, AR).
  • CMOS Complementary Metal-Oxide Semiconductor
  • ITO Indium Tin Oxide
  • an alignment layer is formed on the wafer (silicon wafer) to form initial liquid crystal alignment.
  • a reflective layer or reflective electrode formed of an aluminum layer and having a high optical reflectance may be located below the alignment layer.
  • the reflective electrode may be located on a silicon wafer.
  • a semiconductor array CMOS array
  • CMOS array semiconductor array
  • the optical signal generator 230 may reflect at least a portion of the incident light as it is driven. Additionally, the optical signal generator 230 may reflect light incident on the surface light source for each pixel. Additionally, the intensity of reflected light can also be adjusted depending on the degree of modulation. For example, the optical signal generator 230 may partially modulate the first polarized light into the second polarized light. Accordingly, the light modulated by the second polarization may pass through the first light guide LG1 and the first lens L1 and be provided to the display unit.
  • the optical signal generator 230 can modulate the retardation of modulated light, that is, polarized light.
  • the optical signal generator 230 may delay the first polarization in various ways.
  • an electric field can be formed by adjusting the voltage for each pixel (adjusting the voltage of the electrode).
  • the degree of twist in the liquid crystal can be adjusted according to the adjusted voltage. For example, at the maximum voltage, all of the light reflected from the optical signal generator 230 may be reflected from the first light guide LG1. And at the minimum voltage, all of the light reflected from the optical signal generator 230 may be transmitted through the second light guide LG1. However, it may operate in the opposite direction depending on the electric field. Additionally, when a moderate voltage is applied, some light may pass through the first light guide LG1. That is, the intensity (eg, brightness) of light provided to the display unit may be medium.
  • the optical signal generated by the optical signal generator 230 may be transmitted to the first lens L1 through the N-th lens Ln and the first light guide LG1. Furthermore, at least a portion of the optical signal generated by the optical signal generator 230 may pass through the first lens L1 and enter the display unit.
  • a transparent member 240 may be further disposed between the optical signal generator 230 and the N-th lens Ln (or first light guide).
  • the transparent member 240 may be glass.
  • the transparent member 240 may be combined with the barrel 210 or the cover (CV).
  • the transparent member 240 may be located on the optical signal generator 230. Accordingly, the inflow of foreign substances into the optical signal generator 230 can be easily blocked.
  • the transparent member 240 may have the same or different size from the optical signal generator 230.
  • the transparent member 240 may overlap at least a portion of the optical signal generator 230 in the optical axis direction or the first direction (X-axis direction).
  • a barrier portion 252 may be located between the through hole 210rs of the barrel 210 and the light receiving portion 251.
  • This light receiving unit 251 may be located in the area DA located between the first light guide LG1 and the optical signal generating unit 230.
  • the area DA may be an area between the through hole 210rs and the optical signal generator 230 in the first direction (uniaxial direction).
  • the through hole 210rs may also be located within the area DA.
  • the light receiving unit 251 may be located within the barrel 210.
  • the light receiving unit 251 may be located in a groove formed on the outer surface of the barrel 210.
  • the outer surface of the light receiving unit 251 may have a level difference from the outer surface of the barrel 210.
  • the light receiving unit 251 may protrude outward from the outer surface of the barrel 210. Accordingly, the light receiving unit 251 can be placed closer to the user. Accordingly, sensing accuracy through the light receiving unit 251 can be further improved.
  • the barrier portion 252 may extend further outward than the outer surface of the barrel 210. As a result, the barrier unit 252 can prevent the light emitted through the through hole 210rs from being directly emitted to the light receiving unit 251. In other words, noise can be reduced.
  • the first reference lens (L n ) and the second reference lens (L n-1 ), which are two lenses sequentially adjacent to the optical signal generator 230, are located in the plurality of lenses.
  • the second reference lens may be located between the first light guide LG1 and the first reference lens L n .
  • the size (d2) of the first reference lens (L n ) may be larger than the size (d1) of the second reference lens (L n-1 ).
  • the through hole 210rs may be located between the first reference lens (L n ) and the second reference lens (L n-1 ).
  • the light receiving unit 251 may also be located between the first reference lens (Ln) and the second reference lens (Ln-1).
  • the light (La, Lb, Lc) emitted from each light source 223 of the light source device 220 passes through the light source lens 224, the second light guide LG2, and the intermediate lens (MO). can do.
  • the first light (La), the second light (Lb), and the third light (Lc) emitted from each of the first light source 223a to the third light source 223b are directed in the same direction in the second light guide LG2. can be released as
  • the second light guide LG2 may include a first coating surface (LG2a) and a second coating surface (LG2b). As described above, one of these at least two coating surfaces may reflect some of the first wavelength light, the second wavelength light, and the third wavelength light.
  • the first wavelength includes a wavelength band of red light.
  • the second wavelength includes a wavelength band of green light.
  • the third wavelength includes a wavelength band of blue light.
  • the first coating surface LG2a may reflect the first light La or light of the first wavelength. That is, the first coating surface LG2a can transmit the second light Lb and the third light Lc. In other words, the first coating surface LG2a can transmit light of the second wavelength and light of the third wavelength.
  • the second coating surface LG2b may reflect the second light Lb or light of the second wavelength. That is, the second coating surface LG2b can transmit the first light La and the third light Lc. In other words, the second coating surface LG2b can transmit light of the first wavelength and light of the third wavelength.
  • the first light La may be reflected or incident on the intermediate lens MO or the opening OP in the second light guide LG2.
  • the second light Lb may be reflected or incident on the intermediate lens MO or the opening OP.
  • the third light Lc may be reflected or incident on the intermediate lens MO or the opening OP from the second light guide LG2.
  • the light (IL or (La, Lb, Lc)) emitted from the light source 223 may be incident on the first light guide LG.
  • the light incident on the first light guide LG may be the first incident light IL.
  • the first incident light IL may be partially reflected and partially transmitted by the first light guide LG1. That is, the first light guide LG1 may reflect the first polarized light ILa of the first incident light IL and transmit the second polarized light ILb.
  • the first polarization (ILa) and the second polarization (ILb) may each be different types of S/P light. Accordingly, the first polarized light ILa, which is part of the first incident light IL, may be provided to the optical signal generator 230 through the N-th lens Ln. And the second polarized light (ILb) may be absorbed by the barrel 210 or provided through the additional hole 210h.
  • FIG. 14 is another example of a light source device according to an embodiment.
  • the light source 223 may include a first light source 223a, a second light source 223b, and a third light source 223c.
  • a plurality of mirrors are present instead of the second light guide.
  • the optical device includes a plurality of mirrors (M1 to M3), and can provide light to a plurality of lenses or a first light guide in the barrel using each of the plurality of mirrors (M1 to M3).
  • Other light source devices may have various structures.
  • FIG. 15 is a flowchart of a method of operating an electronic device or optical device according to an embodiment
  • FIG. 16 is a timing diagram explaining the operations of a light source, an optical signal generator, and a light receiver.
  • the light receiving unit 251 can be driven while light is emitted from the light source. However, as will be described later, in detecting whether or not the device is worn, the light receiving unit 251 may be driven even during a time when light is not emitted from the light source.
  • the operation method described later may be executed by a control unit (or controller) of an optical device or a control unit (or controller) of an electronic device. That is, processing in each step of the operation method described later can be performed in the control unit except for the content described later.
  • the operating method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing an operation method are recorded.
  • the operating method includes turning the optical device off (S1010), operating the light receiving unit (S1020), and comparing the first light reception signal with the first set value.
  • Step (S1030) turning on the light source device (S1050), operating the light receiving unit (S1060), comparing the second light receiving signal with the second set value (S1070), and driving the sensing unit.
  • control unit may transmit a high signal to the light receiver for operation (eg, on) of the light receiver. That is, the control unit can control the operation of the light receiving unit. Additionally, the control unit can control on (high) or off (low) the light source. Additionally, the controller may control the on/off of the optical signal generator according to the on or off of the light source. In other words, the control unit can control the light source device, the optical signal generating unit, and the light receiving unit.
  • the control unit can keep the light source in an off state when the electronic device is turned on. That is, current may not be applied to the light source.
  • the controller may operate (high) the light receiver when the optical device is turned off as described above in the first operation period T1 (S1020). And the first light receiving signal can be received from the light receiving unit in the first operation period T1. In other words, when there is no current applied to the light source device (low), the control unit can operate the light receiving unit and receive the first light receiving signal from the light receiving unit. And the control unit may compare the first light-receiving signal and the first set value in the first operation period T1 (S1030).
  • the control unit may determine whether to drive the light source autonomy by comparing the first light reception signal and the first set value. At this time, if the first light reception signal is greater than the first set value, the control unit may determine that the user is not wearing the device, in which ambient light is introduced. Accordingly, the control unit can output a non-wearing alarm, etc. or return to the above-described step (S1010). Furthermore, it may start again from step S1020.
  • the operation may proceed to the second operation section T2.
  • the control unit may transmit a high signal to the light source device in the second operation period T2.
  • the control unit may transmit a high signal to the light source of the light source device (eg, a second light source emitting green wavelength light).
  • the controller may transmit a high signal to at least one of the light sources of the light source device.
  • the first to third light sources can emit light that is different from or does not overlap with each other. Accordingly, energy efficiency can be improved.
  • the first light source may be turned on during the first light source time period T2aa.
  • the controller may transmit a high signal to the first light source during the first light source time period T2aa.
  • the optical signal generator may be turned on by receiving a high signal during the first generator time period T2ba.
  • the control unit may be turned on by receiving a high signal during the first light reception time period T2ca.
  • the light receiving unit may receive red light
  • the control unit may detect the user's oxygen saturation using the light receiving signal (second light receiving signal) received from the light receiving unit.
  • the control unit can drive the light source and receive the second light reception signal from the light reception unit when the first light reception signal is smaller than the first set value.
  • the second light source may be turned on during the second light source time period T2ab.
  • the controller may transmit a high signal to the second light source during the second light source time period T2ab.
  • the optical signal generator may be turned on by receiving a high signal during the second generator time period T2bb.
  • the control unit may be turned on by receiving a high signal during the second light reception time period T2cb.
  • the light receiving unit may receive green light, and the control unit may detect the user's pulse using the light receiving signal (second light receiving signal) received from the light receiving unit.
  • the third light source may be turned on during the third light source time period T2ac.
  • the controller may transmit a high signal to the third light source during the third light source time period (T2ac).
  • the optical signal generator may be turned on by receiving a high signal during the third generator time period T2bc.
  • the control unit may be turned off by receiving a low signal during the third light reception time period T2cc.
  • the light source time period and the generator time period may be synchronized.
  • the control unit can detect or determine whether the user is wearing the device using the light reception signal (second light reception signal) from the light receiver. Additionally, only when a specific light source (at least one light source) is turned on (high), the control unit can drive the light receiving unit to receive a light receiving signal (second light receiving signal).
  • the optical signal generator may be turned on (high) in response to a light source time period when the light source is on (high). Accordingly, operation accuracy can be improved.
  • the control unit can receive the second light receiving signal output when the light receiving unit is turned on (S1060). And the control unit can compare the second light-receiving signal and the second set value (S1070). At this time, if the second light-receiving signal is smaller than the second set value, the control unit may determine that the user or wearer is not wearing the device correctly. For example, when at least a portion of the electronic device is not in exact contact with the skin, the second light-receiving signal may be smaller than the second set value. Accordingly, the correct wearing of the user can be determined. In this case, it is determined that the user is not wearing it, especially if it is incorrectly worn, and a standby state can be performed (S1090). For example, it may return to step S1010 or S1050).
  • the control unit can transmit a driving signal (high signal) to the light source and the optical signal generator at a predetermined period.
  • control unit can turn on (high) the light receiving unit in response to turning on (high) the light source and the optical signal generator (S1080).
  • control unit may compare the second light reception signal with the second set value and receive a third light reception signal from the light reception unit in response to the operations of the light source and the optical signal generator. That is, the control unit can drive the detection unit (S1080). For example, in order to detect the wearer's pulse in the third operation section T3, the control unit turns on the light source and the optical signal generator at a predetermined period (e.g., the second light source time period, the second generator time section) and turns on the light receiver. It can be turned on (high).
  • a predetermined period e.g., the second light source time period, the second generator time section
  • control unit may detect the oxygen saturation of the wearer in the third operation period T3 by turning on the light source and the optical signal generator at a predetermined period (e.g., the first light source time period, the first generator time period) in response to the light receiving unit. can be turned on (high).
  • a predetermined period e.g., the first light source time period, the first generator time period
  • selection of the inspection image may be performed for the user's right eye and left eye, respectively. Additionally, the selection of the inspection image may be performed for both eyes of the user, or may be performed sequentially for the right eye, left eye, and both eyes.
  • the display method described in FIGS. 17 to 24 can be performed by a control unit in the electronic device described above. That is, processing in each step of the display method described later can be performed in the control unit except for the content described later.
  • the display method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a display method are recorded.
  • FIG. 17 is a flowchart of a display method according to an embodiment
  • FIG. 18 is an additional flowchart of a display method according to an embodiment
  • FIGS. 19 and 20 are diagrams explaining visual acuity determination in a display method according to an embodiment
  • FIG. 21 is a diagram illustrating image output in a display method according to an embodiment.
  • the display method includes outputting test images with different focal lengths (S1040) and determining the user's visual acuity based on an image selected from test images with different focal lengths (S1040). S1060) and outputting a virtual image based on the determined visual acuity of the user (S1080).
  • Step (S1020) may further include, when detecting input, checking whether the user is a pre-stored user (S1030).
  • the control unit 27 determines whether the user is wearing it through a detection signal received through the sensing unit 23 (see FIG. 2). can be detected or judged.
  • the control unit 27 can determine whether an input is detected when the user wears the device based on the signal received from the sensing unit 23 (S1020). For example, a user may generate an input signal through the user input unit 130 (see FIG. 3) or the input unit 22 (see FIG. 2). As the user touches the input unit, it can be recognized that the user is using an electronic device. If the user's input is not detected within a predetermined time, the control unit may re-perform the step of detecting the user's wearing.
  • the control unit can check whether the user is a pre-stored user (S1030). In the case of a previously stored user, the user's vision information stored in the memory 26 (FIG. 2) can be retrieved. Alternatively, according to the user's input, the control unit may re-perform visual acuity determination and storage of visual acuity information even for users who have previously stored the visual acuity information. Accordingly, changes in the user's body can be easily reflected.
  • the control unit may output inspection images with different focal lengths as described above (S1040). For example, the control unit may generate or provide image signals of inspection images with different focal lengths. Additionally, the optical device generates an image based on the image signal of the inspection image generated by the control unit, and the image generated by the optical device may be output on the display unit.
  • the inspection images TI1, TI2, and TI3 may include images with different focal lengths. Additionally, there may be multiple inspection images (TI1, TI2, and TI3).
  • the inspection image may include a first inspection image (TI1), a second inspection image (TI2), and a third inspection image (TI3).
  • the focal distances of the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3 from the user's eye may sequentially increase.
  • the focal length f1 of the first inspection image TI1 may be greater than the focal length f2 of the second inspection image TI2.
  • the focal length f2 of the second inspection image TI2 may be greater than the focal length f3 of the third inspection image TI3.
  • the first inspection image TI1 , the second inspection image TI2 , and the third inspection image TI3 are described as being the same as the inspection image of FIG. 19 .
  • the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3 may be output according to the user's selection (or input) (S1051).
  • one of the plurality of inspection images may be output by the control unit.
  • the control unit may output the first inspection image TI1.
  • the user can input an input signal by touching the input unit 130 (S1051).
  • the user may generate an input signal by touching any one of the first button BT1, the second button BT2, and the third button BT3 of the input unit arranged on the frame.
  • the first button BT1 may respond to an increase in the focal distance for the inspection image.
  • the second button BT2 may correspond to a decrease in the focal distance for the inspection image.
  • the third button BT may correspond to selection of an inspection image.
  • there may be at least one inspection image with different focal lengths, such as the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3.
  • each of the plurality of inspection images may have a different focal length.
  • control unit when the control unit receives the user's input (S1051), the control unit may adjust the focal length of the inspection image in response to the user's input, that is, the applied input (S1052). And the user's vision can be determined in response to the user's selection input (S1053, S1060)
  • the control unit may output the third inspection image TI3 with a smaller focal length than the second inspection image TI2.
  • the control unit can adjust the focal distance of the inspection image in response to the input by the user (S1050).
  • the image or inspection image selected by the user's input may be at least one of a plurality of inspection images.
  • the controller may determine the user's visual acuity based on the maximum focal length. Accordingly, the control unit can determine the user's accurate vision and output a virtual image corresponding to the user's vision. Accordingly, the electronic device according to the embodiment can provide the effect of eliminating user inconvenience.
  • control unit can determine the user's vision based on the image selected by the input unit (S1060). After determining the user's visual acuity, the control unit can adjust and output the focal distance for the image based on the user's determined visual acuity (S1080). Accordingly, the user can clearly perceive the virtual image output from the optical unit.
  • control unit may transmit a control signal to the optical device to output a plurality of virtual images (VI, VI2 to Vin, VI). Accordingly, the optical device can generate images corresponding to a plurality of virtual images.
  • a plurality of virtual images may be composed of different layers depending on the distance. And virtual objects may exist in virtual images of different layers.
  • This virtual image is delivered to the user by the optical device 200, and the control unit can adjust the focal length of the virtual image based on the user's visual acuity determined as described above. For example, for myopic users, a plurality of virtual images can be output by reducing the focal distance.
  • optical elements OD1 and OD2 may be disposed on the front and rear sides of the display unit 300.
  • the front side refers to the area of the display unit 300 facing an object or real image
  • the rear side refers to the area of the display unit 300 facing the user.
  • the display unit 300 may further include optical elements OD1 and OD2. These optical elements OD1 and OD2 may be located on the frame of the electronic device.
  • the optical elements OD1 and OD2 may include a variable focus lens in addition to the diffraction unit described above. Accordingly, the curvature of the optical element can be changed in response to the user's determined visual acuity. That is, the focal distance can be changed.
  • the first optical element OD1 is disposed outside the display unit 300 and may include a diffraction unit or a polarization unit. Accordingly, the real image RI may be provided to the user at a predetermined period of frames or at a predetermined frame. And, as described above, the focus or curvature of the first optical element OD1 may be changed in response to the user's determined visual acuity. Accordingly, the user can clearly perceive real images, etc. without blurring. In other words, the user's eyes may be in a normal state for real images, etc.
  • the focus or curvature of the second optical element OD2 may also change depending on the user's vision.
  • the control unit can adjust the focal length of the inspection image by moving the lens in the optical device.
  • control unit may store the vision information in memory (S1070).
  • the user's specific detection information through the sensing unit may also be stored in the memory.
  • FIG. 22 is a flowchart of a display method according to another embodiment
  • FIG. 23 is a diagram explaining visual acuity determination in a display method according to another embodiment.
  • a display method includes outputting an inspection image including a plurality of objects (S2010), selecting at least one of the plurality of objects (S2020), and displaying an image based on the selected object (S2020). It may include determining the user's vision (S2030) and storing vision information (S2040).
  • the step of outputting an inspection image including a plurality of objects may correspond to the step of outputting the inspection image described above (S1040). Furthermore, steps prior to the step of outputting the inspection image are also applied to the display method according to this other embodiment, and the content of each step described above can be applied equally, except for the content described later.
  • the inspection image may include a plurality of objects.
  • the plurality of objects may have different focal distances. That is, inspection images with different focal lengths may include a plurality of objects with different focal lengths in one image.
  • the inspection image TI4 may include a plurality of objects OJ1 to OJ3.
  • the plurality of objects may include a first object (OJ1), a second object (OJ2), and a third object (OJ3).
  • the distance or focal length of the first object OJ1 may be greater than that of the second object OJ2.
  • the second object OJ2 may have a greater distance or focal length than the third object OJ3.
  • the selection window (SD) for an object in the inspection image may move in response to the user's input (via the first button, second button, or third button).
  • the first button may correspond to Left.
  • the second button may correspond to the right side.
  • one of a plurality of objects in the inspection image may be selected.
  • any one of inspection images composed of a plurality of layers and having different focal lengths may be selected.
  • the user's vision can be determined.
  • the user's visual acuity determined as described above may be stored.
  • the focal length of the virtual image can be adjusted and output based on the determined visual acuity. That is, when outputting a virtual image, the control unit may vary or change the focus of the virtual image based on the user's determined visual acuity.
  • FIG. 24 is a flowchart of a display method according to another embodiment
  • FIG. 25 is a perspective view of an augmented reality electronic device according to a modified example.
  • a display method includes outputting a plurality of inspection images (S3010), selecting at least one image (S3020), determining visual acuity (S3030), and visual acuity information. It may include a step of storing (S3040).
  • selection of at least one image may be performed by the control unit receiving the user's input signal (S3020).
  • visual acuity can be determined based on the selected test image (S3030).
  • the step of determining the visual acuity may include selecting at least one image from a plurality of test images with different focal lengths, and determining the visual acuity of the user based on the maximum focal length when there are multiple selected images. You can.
  • control unit may output a plurality of images selected among the inspection images. Additionally, the control unit may determine the user's visual acuity based on the maximum focal length for a plurality of selected images. In addition, the control unit can vary the focus of the virtual image and output it based on the user's visual acuity, which is determined based on the maximum focal distance.
  • the electronic device may further include a light receiving element PD disposed on the frame 100. Accordingly, in determining the above-described visual acuity, inspection light (image, etc.) is output to the user's eye through the optical device 200 and the display unit 300 (TL), and light (image) reflected from the human eye is output. may be transmitted to the light receiving element (PD).
  • the control unit may determine the refractive index or visual acuity of the user's eyeball through the reflected light RL provided by the light receiving element PD. Based on this, the electronic device can output a virtual image by varying the focal distance based on the user's vision as described above.
  • control method described in FIGS. 26 to 34 may be performed by a controller or control unit in the control device or electronic device described above. That is, processing in each step of the control method described later can be performed in the controller except for the content described later. Additionally, the control method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a control method are recorded.
  • FIG. 26 is a block diagram of a control device according to an embodiment of the present invention
  • FIG. 27 is a conceptual diagram of a control device according to an embodiment of the present invention
  • FIG. 28 is a flowchart of a control method according to an embodiment of the present invention
  • FIG. 29 is a detailed flowchart of a control method according to an embodiment of the present invention
  • FIG. 30 is a diagram explaining the operation and control method of a control device according to an embodiment of the present invention
  • FIG. 31 is a control diagram according to an embodiment of the present invention. It is a diagram explaining the operation and control between a device and an electronic device.
  • Figure 32 is a diagram showing an interface of an electronic device according to an embodiment of the present invention
  • Figure 33 is a diagram showing an electronic device using a control device according to an embodiment of the present invention. This is an example diagram explaining the operation of
  • Figure 34 is a diagram explaining the operation of the control device according to an embodiment of the present invention.
  • the control device 500 includes a touch input unit or a first input unit 510, a button input unit or a second input unit 520, a detection unit 530, a communication unit 540, It may include a battery unit or power unit 550, a memory unit or storage unit 560, and a controller 570.
  • the touch input unit 510 can detect the user's touch.
  • the touch input unit 510 may include a pressure sensor, etc. Additionally, the touch input unit 510 may output a signal about the detected user's touch to the controller 570, etc. In an embodiment, the touch input unit 510 may detect a user's touch to set the position of the control device 500 and detect various touch operations.
  • the control device 500 according to the embodiment can be set up, down, left, and right in a manner described later. That is, the control device 500 may not be structurally set up, down, left, and right.
  • the control device 500 may have a circular shape, and may have a symmetrical structure with respect to one virtual line.
  • the touch input unit 510 may be located outside the button input unit 520, which will be described later.
  • the touch input unit 510 may surround the button input unit 520 located in the center.
  • the touch input unit 510 may be formed as a touch screen.
  • the control device according to the embodiment is a control device (eg, remote control) for an electronic device, and can easily control the operation or control of the electronic device with a simple sense (eg, tactile sense). In other words, the user's perspective is no longer essential for controlling the control device, and electronic devices can be easily controlled in various environments and spaces.
  • the touch input unit 510 may receive various inputs (swiping input, tap), etc. from the user and output signals corresponding to them.
  • the button input unit 520 can detect button input by a user, etc.
  • the button input unit 520 may have various button structures and may output a signal about the user's pressure to the controller 570, etc.
  • an image output from an electronic device or information within an image may be selected through the button input unit 520.
  • the button input unit 520 may be located in the center of the control device 500. Accordingly, the user can easily find the button input unit 520. Furthermore, the button input unit 520 may protrude outward or have a groove shape. Accordingly, the user can easily control the electronic device using his or her fingers (eg, thumb). For example, whether or not power is input to an electronic device or control device can be controlled through the button input unit 520. Alternatively, whether or not to interoperate with an electronic device may be controlled through the button input unit 520, or whether or not the input standby mode of the electronic device is activated may be controlled.
  • the detection unit 530 may be made of various motion detection sensors.
  • the detection unit 530 may output a detection signal including movement information.
  • the detection unit 530 may include an IMU sensor.
  • the sensing unit 530 may include a gyro sensor, an acceleration sensor, an angular velocity sensor, and a geomagnetic field sensor.
  • the exercise information may include speed or acceleration information.
  • the sensing unit 530 may exist within the control device or may correspond to the sensing unit of the electronic device described above. Accordingly, the control unit of the control device may receive a detection signal from the sensing unit of the electronic device.
  • the detection unit 530 may detect the direction of gravity and the degree of inclination of the control device 500. Additionally, the posture information from the sensor 530 can be used together with the swiping information (input) by the touch input unit 510. Accordingly, the user can easily control the electronic device regardless of the direction of the control device 500.
  • a command corresponding to a direction key may be transmitted to the electronic device.
  • the communication unit 540 can transmit data with an electronic device.
  • the communication unit 540 may include one or more modules that enable wireless communication between external servers.
  • the battery unit 550 may supply power to the control device.
  • the memory unit 560 serves as a storage unit and stores data supporting various functions.
  • the memory unit 560 may include read-only memory (ROM), random access memory (RAM), flash memory, a memory card, a storage medium, and/or other storage devices.
  • the controller 570 may perform processing for a control method described later. This controller 570 may be expressed as a processor, control unit, etc. Additionally, the controller 570 may include an application-specific integrated circuit (ASIC), other chipset, logic circuit, and/or data processing device.
  • ASIC application-specific integrated circuit
  • controller 570 is described based on performing a control method described later.
  • the control method includes receiving a user input (S1010), activating a standby mode (S1020), receiving a detection signal (S1030), and determining the user status. It includes a step of determining (S1040), a step of determining activation of a gesture action or a touch action in response to the determined user state (S1050), and a step of transmitting a command in response to the activated action (S1060).
  • the controller 570 may receive user input through a button input unit or a touch input unit (S1010). Accordingly, the controller 570 can wake-up the control device. That is, the controller 570 may activate the standby mode of the control device (S1020).
  • the controller 570 may receive a detection signal from the detection unit 530 (S1030). At this time, the controller 570 may determine the user's status using the detection signal received from the detection unit 530 (S1040).
  • the user's state may include, for example, a stationary state, a moving state, an exercise state, and a riding state. This is an exemplary state and may be expressed as a plurality of states (eg, first to fourth states).
  • the controller 570 may determine activation of a gesture operation or a touch operation in response to the determined user state (S1050). And the controller 570 may transmit a command to the electronic device in response to the activated operation (S1060). For example, the controller 570 may activate only gesture operations. In this case, even if the user performs a touch action, an output or command corresponding to the touch action may not be transmitted to the electronic device. Additionally, the controller 570 may activate only touch operations. In this case, even if the user performs a gesture operation, an output or command corresponding to the gesture operation may not be transmitted to the electronic device.
  • the step of determining the user state includes comparing whether the amplitude of the detection signal is greater than the second set value when the intensity of the detection signal is greater than the first set value ( S1041) may be included.
  • the intensity (e.g., average intensity, A1) and amplitude (AM1) of the detection signal may be the smallest compared to other states.
  • the intensity of the detection signal may be greater than the first state, and the amplitude (AM2) may be smaller than the first state and the fourth state. Furthermore, in the moving state, the intensity of the detection signal may be smaller than that in the third and fourth states. And in the moving state, the amplitude (AM2) of the detection signal may be smaller than that in the third state.
  • the intensity (A3) of the detection signal may be greater than the first and second states and less than the fourth state.
  • the amplitude (AM3) of the detection signal may be the largest compared to other states.
  • the intensity (A4) of the detection signal may be the greatest compared to other states.
  • the amplitude (AM4) of the detection signal may be greater than the first state and smaller than the second state and the third state.
  • the controller can compare whether the amplitude of the detection signal is greater than the second set value.
  • the first set value may be a value between A3 and A2.
  • control method may include determining the user's state as an exercise state when the amplitude of the detection signal is greater than the second set value (S1042).
  • the controller may determine the user's state to be an exercise state (S1042).
  • the second set value may be a value between AM3 and AM4.
  • control method may include comparing whether the intensity of the detection signal is greater than the third set value (S1043).
  • the controller may compare the intensity of the detection signal with the third set value (S1043).
  • control method may include a step (S1044) of determining the user's state as a boarding state if the strength of the detection signal is greater than the third set value.
  • the controller may determine the user's state as a riding state (S1044). At this time, the third set value may be greater than A3. And the third set value may be greater than the first set value.
  • the control method may include comparing whether the amplitude of the detection signal is greater than the fourth set value (S1045).
  • the fourth set value may be a value between AM1 and AM2. And the fourth set value may be smaller than the second set value.
  • control method may include a step (S1047) of determining the user state as a moving state if the amplitude of the detection signal is greater than the fourth set value.
  • the controller may determine the user's state as a moving state (S1047). In other words, the controller can determine from the amplitude that the user state is not stopped.
  • control method may include a step (S1046) of determining the user state as a stopped state if the amplitude of the detection signal is smaller than the fourth set value.
  • the controller may determine that the user is in a stationary state with almost no movement (S1046)
  • the controller determines the user's state, it can determine activation of the gesture action and touch action in response.
  • the controller may determine the user's state to be an exercise state (S1042). Afterwards, the controller may block both gesture operations and touch operations (S1051).
  • the controller may determine the user's state as a boarding state (S1044). Afterwards, the controller may activate gesture operations and touch operations (S1052).
  • the controller may determine that the user is in a stationary state with almost no movement (S1046). Afterwards, the controller may activate gesture operations and touch operations (S1052).
  • the controller may determine the user's state as a moving state (S1047). Afterwards, the controller can block the gesture operation and activate the touch operation.
  • the control device can accurately transmit a control command to the electronic device according to the user's input without incorrect input.
  • the electronic device may also include a sensing unit as described above. Accordingly, electronic devices or control devices can transmit and receive detection signals to each other. For example, when the difference between the detection signal sig1 of the sensing unit in the electronic device and the detection signal sig2 of the detection unit in the control device is within a predetermined range, a command by the control device may be provided to the electronic device.
  • the user can recognize various objects on a real image through an electronic device.
  • the electronic device can provide virtual objects, etc., corresponding to objects in real images.
  • an electronic device may output information corresponding to a real image (eg, a building) to a user as a virtual object.
  • the user may output a command to move or select a virtual object using a control device according to an embodiment. That is, the user can select an object (eg, virtual object, information (memo picture)) based on the user interface shown in FIG. 32 through the control device. For example, if the memo-shaped object shown in FIG. 32 is selected, the screen can be switched to FIG. 33.
  • an object eg, virtual object, information (memo picture)
  • the controller may activate gesture actions and touch actions as described above. Accordingly, when the user taps the control device, the controller can move the selection object or selection object from 'Yes' to 'No' (SL') or transmit a selection command for a specific object to the electronic device.
  • the controller moves the selection target or selected object from 'Yes' to 'No' (SL') or selects a specific object.
  • a selection command may be transmitted to the electronic device.
  • the controller can set the position of the user's initial input to any of the top, bottom, left, and right with respect to the center.
  • a touch operation may be activated in any one of the user states described above.
  • the controller can select any of up, down, left, and right based on the area (AR1, initial input) that the user initially inputted to the touch input unit.
  • the controller creates a first virtual line (VL1) connecting the center of the button input unit (520) and the initial input, and a second virtual line that is perpendicular to the first virtual line (VL2) and bisects the touch input unit (510). (VL2) can be set.
  • the controller can set the direction of the first virtual line (VL1) and the second virtual line (VL2) to one of up, down, and left.
  • the control device may transmit a command to move 'left' to the electronic device.
  • the electronic dabiashi can execute commands in response to the user's touch (input).
  • a user may need to input or command an electronic device through a control device even while moving.
  • the control device can easily prevent incorrect input even if the user's entire body is shaking. Furthermore, it can provide comfort to users even while moving.
  • control method may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a control method are recorded.
  • FIG. 35 is a side view of an electronic device according to an embodiment
  • FIG. 36 is a top view of an electronic device according to an embodiment
  • FIG. 37 is a conceptual diagram of an optical device according to an embodiment
  • FIG. 38 is a perspective view of an optical device according to an embodiment.
  • FIG. 39 is an exploded perspective view of an optical device according to an embodiment
  • FIG. 40 is a view cut along AA′ in FIG. 38
  • FIG. 41 is an enlarged view of portion K1 in FIG. 40
  • FIG. 42 is an exploded perspective view of an optical device according to an embodiment. This is an enlarged view of part K2.
  • the electronic device may include a frame 100, an optical device 200, a display unit 300, and a heat dissipation unit (HD), as described above.
  • Frame 100 may be a glasses tail as described above.
  • the optical device 200 may be disposed on the frame 100 to generate an image. Accordingly, the optical device 200 may include a light source.
  • the display unit 300 is connected to the optical device 200 and can output an image generated by the optical device 200.
  • the optical device 200 may include an optical signal generator 230.
  • the heat dissipation unit HD may be connected to the optical device 200. And the heat dissipation unit HD may be disposed inside the frame 100. With this configuration, it is possible to easily prevent phenomena such as fogging caused by the environment by the heat dissipation unit HD.
  • the heat dissipation portion (HD) may be in contact with the light source of the optical device. Accordingly, heat generated by the light source of the optical device can be easily dissipated. Accordingly, even if the user wears the frame, the skin may not be damaged from the heat caused by the optical device. Furthermore, the reliability of optical devices can be improved.
  • This heat dissipation unit HD may be in contact with the substrate of the light source device of the optical device 200. More specifically, it may be in contact with a substrate that is in contact with a light source. For this purpose, in the light source device the substrate can be exposed from the housing of the light source device. That is, the heat dissipation portion HD easily contacts the substrate on which the light source is mounted through the exposed surface, and the heat dissipation portion can easily dissipate heat.
  • the optical device 200 includes a barrel 210, a lens (L), and a first light guide (LG1). Furthermore, the optical device 200 may include a light source device 220 located at or coupled to an opening OP formed on a side of the barrel 210 and an optical signal generator 230 adjacent to the barrel 210. Furthermore, the optical device 200 may further include a cover (CV) surrounding the barrel 210, the light source device 220, and the optical signal generator 230, and a substrate (including a connector, not shown).
  • CV cover
  • the lens L may include a plurality of lenses arranged sequentially based on the top of the barrel 210.
  • the lens L may include a first lens L1 disposed first at the top, a second lens L2 disposed behind the first lens, and an N-th lens Ln disposed last at the top.
  • N is a natural number and can be 2 or more.
  • the N-th lens Ln may be located closest to the optical signal generator 230 located at the rear end of the barrel 210 or at the rear end of the plurality of lenses L among the plurality of lenses L.
  • the first direction (X-axis direction) may correspond to the optical axis. Additionally, the first direction (X-axis direction) may correspond to the direction in which light emitted from the light source device 220 is reflected by the optical signal generator 230 and is emitted to the display unit described above. And the second direction (Y-axis direction) is a direction perpendicular to the first direction (Y-axis direction). Furthermore, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 toward the opening OP. Additionally, in the following specification or this embodiment, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 to the second light guide LG2.
  • the first light guide LG1 may be referred to as a first light guide part or a first guide member. Additionally, the second light guide LG2 may be referred to as a second light guide part or a second guide member.
  • the barrel 210 may further include a hole corresponding to the opening OP.
  • the barrel 210 may include a barrel hole or an additional hole 210h.
  • the additional hole 210h may be located facing the opening OP.
  • the additional hole 210h may overlap the opening OP in the second direction (Y-axis direction).
  • the distance of the additional hole 210h from the N-th lens Ln in the first direction may be equal to the distance between the opening OP and the N-th lens Ln.
  • the additional hole 210h may be located in an area corresponding to the position of the opening OP on the inner surface of the barrel 210.
  • the bonding member can be easily applied to the light source device 220 coupled to, inserted into, fixed to, or connected to the opening OP through the additional hole 210h. Accordingly, the coupling force between the barrel 210 and the light source device 220 can be improved. Accordingly, the optical device 200 according to the embodiment may have improved durability, durability, or reliability. Alternatively, optical tests on the light source device 220 located in the opening OP can also be easily performed through the additional hole 210h. Alternatively, fluid (eg, air) can be easily discharged or discharged to the barrel 210 and the light source device 200 through the additional hole 210h. The presence or absence of these additional holes 210h may be applied in various ways depending on the embodiment. For example, the additional hole 210h may be disposed on the side of the barrel 210 as described above. Alternatively, the additional hole 210h may not exist on the side of the barrel 210 in consideration of durability, etc.
  • a plurality of lenses (L) may be located within the barrel 210.
  • a first light guide LG1 may be located within the barrel 210.
  • the barrel 210 may include an opening OP formed on the side.
  • the shape of the opening OP may include various shapes, such as circular or polygonal. And this opening OP may correspond to the position of the first light guide LG1.
  • the opening OP may overlap the first light guide LG1 in a direction perpendicular to the optical axis.
  • the first light guide LG1 may be disposed between two lenses among the plurality of lenses.
  • the first light guide LG1 may be disposed between the first lens L1 and the N-th lens Ln.
  • the first light guide LG1 may be located between the first lens L1 and the optical signal generator 230.
  • the first light guide LG1 may be located between the first lens L1 and the second lens L2 or between the second lens L2 and the N-th lens Ln.
  • Various positions of the first light guide LG1 will be described through various embodiments as will be described later.
  • the first light guide LG1 may be located between the second lens L2 and the N-th lens Ln. Accordingly, the N-th lens (Ln) may be located between the first light guide (LG1) and the optical signal generator 230. With this configuration, an appropriate optical path can be secured when the light reflected from the first light guide LG1 is provided to the optical signal generator 230. Additionally, refraction of the reflected light may occur. As a result, the first light guide LG1 can be miniaturized.
  • the first light guide LG1 may include a first prism.
  • the first prism may be a polarizing prism. Additionally, the first prism may be a polarization separation prism.
  • the first prism may reflect the first polarized light and transmit the second polarized light. For example, a portion of the light (first polarized light) provided from the light source device 220 or incident on the first light guide LG1 may be reflected from the first light guide LG1 and provided to the optical signal generator 230. . Additionally, another part of the light (second polarized light) incident on the first light guide LG1 may pass through the first light guide LG1 and be absorbed in the barrel 210 .
  • the opening OP may be disposed in the area where the first light guide LG1 is located.
  • the incident surface of the first light guide LG1 may be positioned to face the opening OP.
  • the position of the first light guide LG1 in the barrel 210 may be the same as the first light guide LG1.
  • the light source device 220 may include a light source 223 and generate (generate, provide) or emit light.
  • the light source device 220 according to the embodiment may be located or coupled to the opening OP. That is, the light source device 220 may be connected or combined with the barrel 210.
  • the light source device 220 includes a housing 222 including an opening 222h, a second light guide LG2 disposed within the housing 2220, and a light source 223 that provides light to the second light guide LG2. It can be included.
  • the light source device 220 includes a light source assembly 221 disposed outside the light source device 220 and surrounding the housing 222, a light source lens 224 adjacent to the light source 223, and an intermediate member located within the housing 222. It may include a lens (MO).
  • the light source assembly 221 may be disposed on the outermost side of the light source device 220 .
  • the light source assembly 221 may be located outside the housing 222.
  • the light source assembly 221 may be integrated with the housing 222 or may be separate from the housing 222 .
  • Housing 222 may include an opening 222h.
  • the housing 222 may be located adjacent to the opening OP of the barrel 210.
  • the opening 222h of the housing 222 may be located corresponding to the opening OP of the barrel 210. Accordingly, the opening 222h of the housing 222 may overlap the opening OP of the barrel 210 in the second direction (Y-axis direction).
  • Light source 223 may be located within housing 222 or light source assembly 221.
  • the light source 223 may emit light.
  • light emitted from the light source 223 may be incident on the second light guide LG2 within the housing 222.
  • a second light guide LG2 may be located within the housing 222. Accordingly, the second light guide LG2 may transmit the light emitted from the light source 223 to the opening 222h or the first light guide LG1.
  • the light source 223 may be plural and include a first light source 223a, a second light source 223b, and a third light source 223c.
  • the first light source 223a to the third light source 223c may emit light in the same direction or in different directions.
  • the first light source 223a and the third light source 223c may be positioned to face each other.
  • the first light source 223a and the third light source 223c may be positioned to overlap in the first direction (X-axis direction).
  • a second light guide LG2 may be located between the first light source 223a and the third light source 223c. Accordingly, the second light guide LG2 may overlap the first light source 223a and the third light source 223c. And the second light source 223b may be located between the first light source 223a and the third light source 223c. The first light source 223a to the third light source 223c may emit light toward the second light guide LG2. And the second light source 223b may overlap the second light guide LG2 in the second direction. With this configuration, the optical device 200 can have a compact light source device 220.
  • first light source 223a, the second light source 223b, and the third light source 223c may each emit light of the same or different wavelengths or colors.
  • first light source 223a, the second light source 223b, and the third light source 223c may each emit red, green, and blue light.
  • the second light guide LG2 may include a second prism.
  • the second prism is a reflective member and may include, for example, an X prism (x-prism).
  • the second light guide LG2 or the second prism may have a structure in which at least two or more prisms are combined.
  • the second prism may include at least two or more coated surfaces (reflecting members or reflective sheets).
  • One of these at least two coating surfaces may reflect light of the first wavelength and light of the second wavelength, and may transmit light of the third wavelength. That is, the coated surface can reflect light in a predetermined wavelength band. Accordingly, for each light emitted from the plurality of light sources 223, lights in a desired wavelength band may be reflected from the second light guide LG2.
  • light passing through the second light guide (LG2) may be provided to the first light guide (LG1) or the intermediate lens (MO).
  • the light source lens 224 may be located adjacent to the light source 223. For example, there may be a plurality of light source lenses 224.
  • the light source lens 224 may be located on the path of light emitted from each light source 223.
  • the light source lens 224 may be located between the second light guide LG2 and the light source 223. Additionally, there may be a plurality of light source lenses 224. A plurality of light source lenses 224 may be positioned between the second light guide LG2 and the light source 223. Alternatively, there may be a plurality of light source lenses 224 corresponding to each of the plurality of light sources 223 .
  • the light source lens 224 may include a first light source lens 224a, a second light source lens 224b, and a third light source lens 224c.
  • the first light source lens 224a may be located between the first light source 223a and the second light guide LG2.
  • the second light source lens 224b may be located between the second light source 223b and the second light guide LG2.
  • the third light source lens 224c may be located between the third light source 223c and the second light guide LG2.
  • first light source lens 224a, the second light source lens 224b, and the third light source lens 224c are each on the first light source 223a, the second light source 223b, and the third light source 223c.
  • one of the plurality of first light source lenses 224a may be located on the first light source 223a and combined with the light source assembly 221.
  • Another one of the plurality of first light source lenses 224a is located between one of the first light source lenses 224a and the second light guide LG2, and can be combined with the housing 222.
  • first light source lens 224a, the second light source lens 224b, and the third light source lens 224c may include a collimator lens or a collimator.
  • a substrate 225 connected to the light source 223 may be disposed in the light source assembly 221. There may be at least one substrate 225 corresponding to the light source 223 .
  • the plurality of substrates 225 may include a first substrate 225a, a second substrate 225b, and a third substrate 225c. As described above, the plurality of substrates 225 may be one substrate or may be plural in number corresponding to the number of light sources.
  • the substrate 225 may be electrically connected to a control unit or processor within the frame (or display unit) described above. Accordingly, the board 225 may include a connector for communication with an external device or a connected device. Furthermore, the substrate 225 is disposed outside the light source 223 to discharge heat generated from the light source to the outside. Accordingly, the reliability of the light source device 220 can be improved.
  • the intermediate lens (MO) may be located between the aperture (222h) and the second light guide (LG2). Additionally, the intermediate lens (MO) may be located between the first light guide (LG1) and the second light guide (LG2).
  • the intermediate lens (MO) may include a plurality of lenses.
  • it may include a first intermediate lens (MO1) and a second intermediate lens (MO2).
  • the light reflected from the second light guide LG2 may be directly provided to the first light guide LG1 without the intermediate lens MO.
  • the first intermediate lens MO1 may include a first surface MO1s1 adjacent to the first light guide LG1 and a second surface MO1s2 corresponding to the first surface MO1s1. Light emitted from the light source 223 may pass through the second light guide LG2 and sequentially pass through the second surface MO1s2 and the second surface MO1s1.
  • the second surface MO1s2 may be convex toward the second light guide LG2.
  • the second surface MO1s2 may be concave toward the first light guide LG1.
  • the first surface MO1s1 may be convex or concave toward the second light guide Lg2.
  • the first intermediate lens MO1 may have a meniscus shape.
  • the second surface MO1s2 is convex toward the second light guide LG2, so that light can be concentrated while passing through the intermediate lens MO. Accordingly, the uniformity or uniformity of light provided to the optical signal generator 230 may be improved.
  • the light incident on the optical signal generator 230 may be surface light. And the uniformity of surface light can be improved. Accordingly, the accuracy or resolution of the image signal or image emitted to the display unit through the optical device 200 according to the embodiment may be improved.
  • the second intermediate lens (MO2) may include a micro lens array (MLA). Accordingly, surface illumination may be partially performed on the light passing through the second light guide LG2.
  • MLA micro lens array
  • the second intermediate lens MO2 may have a different size from the second light guide LG2.
  • the first intermediate lens MO1 may have a different size from the second light guide LG2.
  • the intermediate lens (MO2) may be larger in size compared to the second light guide (LG2).
  • the positions of the plurality of lenses L, the intermediate lens MO, and the light source lens 224 may be maintained by the spacer SP.
  • a plurality of spacers (SP) adjacent to a plurality of lenses (L) may exist in the barrel 210.
  • an intermediate lens (MO) and a plurality of spacers (SP) adjacent to the light source lens 224 may be disposed in the housing 222 or the light source assembly 221 of the light source device 220.
  • a plurality of spacers SP may be disposed on the upper or lower side of the above-described lens to fix or maintain the position of the lens.
  • the optical signal generator 230 may be located at the rear end of the barrel 210.
  • the optical signal generator 230 may overlap the lens L in the optical axis or the first direction (X-axis direction).
  • the optical signal generator 230 may convert the light incident on the first light guide LG1, reflected, and then passing through the N-th lens into an optical signal containing image information.
  • the optical signal generator 230 may reflect light (first polarized light) reflected from the first light guide LG1.
  • the optical signal generator 230 may generate an optical signal including image information. That is, the light reflected from the optical signal generator 230 may be light containing image information.
  • the optical signal generator 230 may include a liquid crystal on silicon (LCoS) device.
  • LCD liquid crystal on silicon
  • a silicon liquid crystal display device consists of a silicon wafer (a thin disk used as a semiconductor material) with a CMOS (Complementary Metal-Oxide Semiconductor) array and an anti-reflection coating coated with a transparent electrode (Indium Tin Oxide, ITO). It may be a structure where liquid crystal is placed between members (anti-reflection, AR).
  • CMOS Complementary Metal-Oxide Semiconductor
  • ITO Indium Tin Oxide
  • an alignment layer is formed on the wafer (silicon wafer) to form initial liquid crystal alignment.
  • a reflective layer or reflective electrode formed of an aluminum layer and having a high optical reflectance may be located below the alignment layer.
  • the reflective electrode may be located on a silicon wafer.
  • a semiconductor array CMOS array
  • data signals can be transmitted through the panel using this semiconductor array.
  • the optical signal generator 230 may reflect at least a portion of the incident light as it is driven. Additionally, the optical signal generator 230 may reflect light incident on the surface light source for each pixel. Additionally, the intensity of reflected light can also be adjusted depending on the degree of modulation. For example, the optical signal generator 230 may partially modulate the first polarized light into the second polarized light. Accordingly, the light modulated by the second polarization may pass through the first light guide LG1 and the first lens L1 and be provided to the display unit.
  • the optical signal generator 230 can modulate the retardation of modulated light, that is, polarized light.
  • the optical signal generator 230 may delay the first polarization in various ways.
  • an electric field can be formed by adjusting the voltage for each pixel (adjusting the voltage of the electrode).
  • the degree of twist in the liquid crystal can be adjusted according to the adjusted voltage. For example, at the maximum voltage, all of the light reflected from the optical signal generator 230 may be reflected from the first light guide LG1. And at the minimum voltage, all of the light reflected from the optical signal generator 230 may be transmitted through the second light guide LG1. However, it may operate in the opposite direction depending on the electric field. Additionally, when a moderate voltage is applied, some light may pass through the first light guide LG1. That is, the intensity (eg, brightness) of light provided to the display unit may be medium.
  • the optical signal generated by the optical signal generator 230 may be transmitted to the first lens L1 through the N-th lens Ln and the first light guide LG1. Furthermore, at least a portion of the optical signal generated by the optical signal generator 230 may pass through the first lens L1 and enter the display unit.
  • a transparent member 240 may be further disposed between the optical signal generator 230 and the N-th lens Ln (or first light guide).
  • the transparent member 240 may be glass.
  • the transparent member 240 may be combined with the barrel 210 or the cover (CV).
  • the transparent member 240 may be located on the optical signal generator 230. Accordingly, the inflow of foreign substances into the optical signal generator 230 can be easily blocked.
  • the transparent member 240 may have the same or different size from the optical signal generator 230.
  • the transparent member 240 may overlap at least a portion of the optical signal generator 230 in the optical axis direction or the first direction (X-axis direction).
  • the heat dissipation portion HD may extend from the outer surface of the housing 222 to the frame 100 .
  • the heat dissipation unit HD is disposed on the outer surface of the housing 222 and may contact the substrate 225 exposed in the housing 222.
  • the heat dissipation unit HD may not be located on the inner surface 200IS of the optical device 200. That is, the heat dissipation unit HD may be located on a surface opposite to the inner surface 200IS of the optical device 200.
  • the heat dissipation unit HD may be located on a surface opposite to the inner surface 100IS of the frame 100. That is, the heat dissipation unit HD may not be disposed along the inner surface 100IS of the frame 100.
  • the heat dissipation unit HD may extend along the outer surface of the housing 222 and extend to the front side frame. Additionally, the heat dissipation unit HD may extend from the inside of the frame along the edge of the glass or lens GL.
  • the heat dissipation unit HD may extend adjacent to the optical signal generating unit 230.
  • the heat dissipation unit HD may extend from the light source device 220 to the lower side of the optical signal generator 230. Accordingly, not only the light source but also the heat generated by the optical signal generator 230 can be easily discharged to the outside.
  • the heat dissipation unit HD may extend along the opposite side, that is, the outer side, rather than the inner side, of the optical device 200IS. Accordingly, the wearer may hardly feel any heat. That is, the heat dissipation unit HD may extend upward from the lower side of the optical signal generating unit 230 along the outer surface of the optical device 200 and along the side of the light source device.
  • the light (La, Lb, Lc) emitted from each light source 223 of the light source device 220 passes through the light source lens 224, the second light guide LG2, and the intermediate lens (MO). can do.
  • the first light (La), the second light (Lb), and the third light (Lc) emitted from each of the first light source 223a to the third light source 223b are directed in the same direction in the second light guide LG2. can be released as
  • the second light guide LG2 may include a first coating surface (LG2a) and a second coating surface (LG2b). As described above, one of these at least two coating surfaces may reflect some of the first wavelength light, the second wavelength light, and the third wavelength light.
  • the first wavelength includes a wavelength band of red light.
  • the second wavelength includes a wavelength band of green light.
  • the third wavelength includes a wavelength band of blue light.
  • the first coating surface LG2a may reflect the first light La or light of the first wavelength. That is, the first coating surface LG2a can transmit the second light Lb and the third light Lc. In other words, the first coating surface LG2a can transmit light of the second wavelength and light of the third wavelength.
  • the second coating surface LG2b may reflect the second light Lb or light of the second wavelength. That is, the second coating surface LG2b can transmit the first light La and the third light Lc. In other words, the second coating surface LG2b can transmit light of the first wavelength and light of the third wavelength.
  • the first light La may be reflected or incident on the intermediate lens MO or the opening OP in the second light guide LG2.
  • the second light Lb may be reflected or incident on the intermediate lens MO or the opening OP.
  • the third light Lc may be reflected or incident on the intermediate lens MO or the opening OP from the second light guide LG2.
  • the light (IL or (La, Lb, Lc)) emitted from the light source 223 may be incident on the first light guide LG.
  • the light incident on the first light guide LG may be the first incident light IL.
  • the first incident light IL may be partially reflected and partially transmitted by the first light guide LG1. That is, the first light guide LG1 may reflect the first polarized light ILa of the first incident light IL and transmit the second polarized light ILb.
  • the first polarization (ILa) and the second polarization (ILb) may each be different types of S/P light. Accordingly, the first polarized light ILa, which is part of the first incident light IL, may be provided to the optical signal generator 230 through the N-th lens Ln. And the second polarized light (ILb) may be absorbed by the barrel 210 or provided through the additional hole 210h.
  • FIG. 43 is a side view of an electronic device according to another embodiment
  • FIG. 44 is a top view of an electronic device according to another embodiment
  • FIG. 45 is a side view of an electronic device according to another embodiment
  • FIG. 46 is another embodiment. This is a top view of an electronic device according to . Except for the content described below, the content of the frame, optical device, display unit, and heat dissipation unit described above may be applied in the same manner as the content described above.
  • the electronic device according to the embodiment may further include a heat supply unit HL disposed on the frame 100 .
  • the heat supply unit HL may be located inside the frame 100. That is, the heat supply unit HL may surround the edge of the lens GL inside the frame 100 like the heat dissipation unit HD. Accordingly, fogging, etc. can be prevented more effectively.
  • the heat supply unit HL may be electrically connected to the optical device 200. Furthermore, the heat supply unit HL may be electrically connected to a controller or control unit within the electronic device. Alternatively, the heat supply unit (HL) may be electrically connected to a controller or control unit within the optical device.
  • the heat dissipation unit HD and the heat supply unit HL may be sealed with a sealing member (eg, epoxy) to reduce the influence of moisture from the outside. Furthermore, when fogging occurs on the lens due to a temperature difference and the fogging is not sufficiently removed by the heat dissipation unit HD, the heat supply unit HL can supplement the insufficient heat.
  • a sealing member eg, epoxy
  • the heat supply unit (HL) and the heat dissipation unit (HD) may be spaced apart from each other. Accordingly, the heat dissipation unit HD can be minimally affected by the heat generated from the heat supply unit HL. That is, the heat dissipation unit HD can efficiently radiate heat generated from the light source and the substrate rather than heat generated from the heat supply unit HL.
  • the heat supply unit HL and the heat dissipation unit HD may extend in parallel within the frame even if they are separated by a predetermined distance. Accordingly, the occurrence of fogging phenomenon can be more effectively eliminated.
  • the heat supply unit HL may be located inside the frame 100 as described above. That is, the heat supply unit HL may surround the edge of the lens GL inside the frame 100 like the heat dissipation unit HD. Accordingly, fogging, etc. can be prevented more effectively.
  • the heat supply unit HL may be electrically connected to the optical device 200. Furthermore, the heat supply unit HL may be electrically connected to a controller or control unit within the electronic device. Alternatively, the heat supply unit (HL) may be electrically connected to a controller or control unit within the optical device.
  • the heat dissipation unit HD and the heat supply unit HL may be sealed with a sealing member (eg, epoxy) to reduce the influence of moisture from the outside. Furthermore, when fogging occurs on the lens due to a temperature difference and the fogging is not sufficiently removed by the heat dissipation unit HD, the heat supply unit HL can supplement the insufficient heat.
  • a sealing member eg, epoxy
  • the heat supply unit (HL) and the heat dissipation unit (HD) may be spaced apart from each other. Accordingly, the heat dissipation unit HD can be minimally affected by the heat generated from the heat supply unit HL.
  • the frame 100 may include an upper area (US) and a lower area (BS).
  • the upper area US and the lower area BS may bisect the lens GL.
  • either the heat dissipation unit HD or the heat supply unit HL may be disposed in either the upper area US or the lower area BS.
  • the other one of the heat dissipation unit (HD) and the heat supply unit (HL) may be disposed in the other one of the upper area (US) and the lower area (BS).
  • the heat dissipation unit HD may be located in the upper area US.
  • a heat supply unit (HL) may be located in the lower area (BS).
  • the heat dissipation unit HD is arranged to surround the lens GL along the edge of the lens GL within the frame 100, but the heat supply unit HL is located in a portion of the frame 100. It can be located in . Accordingly, in order to effectively remove fogging, the heat supply unit HL may be located at a relatively high rate in the lower area or upper area.
  • the operating method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing an operation method are recorded.
  • the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Program instructions recorded on the medium may be those specifically designed and constructed for the present invention, or may be known and available to those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term is used when data is semi-permanently stored in the storage medium.
  • signals e.g. electromagnetic waves
  • temporary storage There is no distinction between temporary storage and temporary storage.
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • operating methods according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products can be traded as commodities.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
  • a portion of the computer program product e.g., a downloadable app
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a computer program product including a recording medium in which a program for performing the operating method according to the disclosed embodiment is stored.
  • ' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the ' ⁇ unit' performs certain roles.
  • ' ⁇ part' is not limited to software or hardware.
  • the ' ⁇ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, ' ⁇ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
  • components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

Abstract

Disclosed in an embodiment is an optical device including: a plurality of lenses; a barrel in which the plurality of lenses are arranged; a first light guide disposed in the barrel; an opening formed in the side of the barrel; a light source device coupled to the opening; a through-hole formed in the side of the barrel; and a light-receiving portion arranged adjacent to the through-hole.

Description

광학 장치, 이를 포함하는 전자 디바이스, 디스플레이 방법, 제어 방법 및 제어 디바이스 Optical devices, electronic devices including the same, display methods, control methods and control devices
실시 예는 광학 장치, 이를 포함하는 전자 디바이스, 디스플레이 방법, 제어 방법 및 제어 디바이스에 관한 것이다.Embodiments relate to optical devices, electronic devices including them, display methods, control methods, and control devices.
가상현실(Virtual Reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 말한다.Virtual Reality (VR) refers to a specific environment or situation, or the technology itself, that is similar to reality but is not real, created through artificial technology using computers.
증강현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다.Augmented Reality (AR) refers to a technology that synthesizes virtual objects or information in the real environment to make them look like objects that exist in the original environment.
혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합현실이라 한다.Mixed Reality (MR) or Hybrid reality refers to combining the virtual world and the real world to create a new environment or new information. In particular, it is called mixed reality when it refers to real-time interaction between reality and virtual reality.
이 때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한 사용자는 이러한 환경에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다.At this time, the created virtual environment or situation stimulates the user's five senses and provides spatial and temporal experiences similar to reality, allowing the user to freely move between reality and imagination. In addition, users can not only immerse themselves in this environment, but also interact with things implemented in this environment, such as manipulating or giving commands using real devices.
최근, 이러한 기술분야에 사용되는 장비(gear, device)에 대한 연구가 활발히 이루어지고 있다. 다만, 이러한 장비에 대한 착용 감지 및 사용자의 생체 신호 감지에 대한 필요성이 대두되고 있다.Recently, research on equipment (gear, devices) used in these technical fields has been actively conducted. However, the need to detect wearing of such equipment and to detect the user's biological signals is emerging.
또한, 이러한 장비는 사용자의 시력에 의한 조정이 필요하며, 이러한 시력 조정에 대한 필요성이 대두되고 있다. 나아가, 이러한 장비에 대한 간단한 컨트롤러에 대한 필요성이 대두되고 있다. 또한, 이러한 장비에 대한 추가 기능을 제공하는데 필요성이 대두되고 있다.In addition, such equipment requires adjustment based on the user's vision, and the need for such vision adjustment is emerging. Furthermore, there is a need for simple controllers for these devices. Additionally, there is an emerging need to provide additional functions for these devices.
실시 예는 AR(Augmented Reality) 등에 사용되는 광학 장치 및 이를 포함하는 전자 디바이스를 사용함에 있어, 사용자의 생체 신호 감지가 정확하게 수행되는 광학 장치 및 전자 디바이스를 제공한다.Embodiments provide an optical device and an electronic device that accurately detect a user's biosignals when using an optical device used in AR (Augmented Reality), etc., and an electronic device including the same.
또한, 센싱(생체) 신호에 대한 노이즈가 감소한 광학 장치 및 이를 포함하는 전자 디바이스를 제공한다.Additionally, an optical device with reduced noise for sensing (biological) signals and an electronic device including the same are provided.
또한, 사용자의 착용 여부를 정확하게 감지할 수 있는 광학 장치 및 이를 포함하는 전자 디바이스를 제공한다.Additionally, an optical device that can accurately detect whether a user is wearing it and an electronic device including the same are provided.
또한, 전력 효율이 향상된 광학 장치 및 이를 포함하는 전자 디바이스를 제공한다.Additionally, an optical device with improved power efficiency and an electronic device including the same are provided.
또한, 보다 사용자의 시력을 기반으로 이미지를 제공하는 전자 디바이스 및 디스플레이 방법을 제공한다.Additionally, an electronic device and display method that provides images based on the user's vision are provided.
또한, 사용자에 의한 선택된 이미지를 통해 보다 사용자가 편안하게 가상 이미지 등을 인지할 수 있는 전자 디바이스 및 디스플레이 방법을 제공한다.In addition, an electronic device and display method are provided that allow users to more comfortably perceive virtual images, etc. through images selected by the user.
또한, 사용자의 상태에 대응하여 입력 종류를 활성화하여 오동작을 줄이는 제어 디바이스 및 제어 방법을 제공한다.Additionally, a control device and control method are provided to reduce malfunctions by activating input types in response to the user's status.
또한, 타인의 시선의 집중 없이도 직관적으로 전자 디바이스를 제어할 수 있는 제어 디바이스 및 제어 방법을 제공한다.In addition, a control device and control method that can intuitively control an electronic device without the attention of others are provided.
또한, 보다 김서림 현상을 용이하게 억제하는 광학 장치 및 전자 디바이스를 제공한다.Additionally, an optical device and an electronic device that can more easily suppress the fogging phenomenon are provided.
또한, 방열을 통해 신뢰성이 개선된 광학 장치 및 이를 포함하는 전자 디바이스를 제공한다.Additionally, an optical device with improved reliability through heat dissipation and an electronic device including the same are provided.
또한, 에너지 효율이 향상된 광학 장치 및 이를 포함하는 전자 디바이스를 제공한다.Additionally, an optical device with improved energy efficiency and an electronic device including the same are provided.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited to this, and it will also include means of solving the problem described below and purposes and effects that can be understood from the embodiment.
실시예에 따른 광학 장치는 복수 개의 렌즈; 상기 복수 개의 렌즈가 배치되는 배럴; 상기 배럴에 배치되는 제1 광 가이드; 상기 배럴의 측면에 형성되는 개구부; 상기 개구부와 결합되는 광원 장치; 상기 배럴의 측면에 형성되는 관통홀; 및 상기 관통홀에 인접하게 배치되는 수광부;를 포함한다.An optical device according to an embodiment includes a plurality of lenses; a barrel on which the plurality of lenses are disposed; a first light guide disposed on the barrel; an opening formed on a side of the barrel; a light source device coupled to the opening; a through hole formed on a side of the barrel; and a light receiving unit disposed adjacent to the through hole.
상기 관통홀과 상기 수광부 사이에 배치되는 배리어부;를 포함할 수 있다.It may include a barrier portion disposed between the through hole and the light receiving portion.
영상 정보를 포함하는 광 신호를 생성하는 광 신호 생성부;를 포함하고, 상기 수광부는 상기 제1 광 가이드와 상기 광 신호 생성부 사이에 배치될 수 있다.and an optical signal generator that generates an optical signal including image information, wherein the light receiver may be disposed between the first light guide and the optical signal generator.
상기 복수 개의 렌즈는 상기 제1 광 가이드와 상기 광 신호 생성부 사이에 배치되는 제1 렌즈와 제2 렌즈를 포함하고, 상기 제1 렌즈는 상기 제2 렌즈보다 크기가 작을 수 있다.The plurality of lenses include a first lens and a second lens disposed between the first light guide and the optical signal generator, and the first lens may be smaller in size than the second lens.
상기 수광부는 상기 제1 렌즈와 상기 제2 렌즈 사이에 배치될 수 있다.The light receiving unit may be disposed between the first lens and the second lens.
상기 관통홀은 상기 제1 렌즈와 상기 제2 렌즈 사이에 배치될 수 있다.The through hole may be disposed between the first lens and the second lens.
상기 수광부는 상기 배럴의 외측면보다 돌출될 수 있다.The light receiving unit may protrude beyond the outer surface of the barrel.
상기 배리어부는 상기 배럴의 외측면보다 돌출될 수 있다.The barrier portion may protrude beyond the outer surface of the barrel.
상기 광원 장치는, 개구부가 형성된 하우징; 상기 하우징에 배치되는 제2 광 가이드; 및 상기 제2 광 가이드를 향하여 광을 방출하는 광원;을 포함할 수 있다.The light source device includes a housing having an opening; a second light guide disposed in the housing; and a light source that emits light toward the second light guide.
상기 수광부는 상기 광원으로부터 광이 출사되는 동안 구동할 수 있다.The light receiving unit may be driven while light is emitted from the light source.
상기 광원 장치, 상기 광 신호 생성부 및 상기 수광부를 제어하는 제어부;를 포함할 수 있다.It may include a control unit that controls the light source device, the optical signal generator, and the light receiver.
상기 제어부는, 상기 광원 장치로 인가되는 전류가 없는 경우 상기 수광부로부터 제1 수광 신호를 수신할 수 있다.The control unit may receive a first light receiving signal from the light receiving unit when there is no current applied to the light source device.
상기 제어부는 상기 제1 수광 신호와 제1 설정값과 비교하여 상기 광원 장치의 구동 여부를 결정할 수 있다.The control unit may determine whether to drive the light source device by comparing the first light reception signal and a first set value.
상기 제어부는 상기 제1 수광 신호가 상기 제1 설정값보다 작은 경우 광원을 구동하고 상기 수광부로부터 제2 수광 신호를 수신할 수 있다.When the first light-receiving signal is smaller than the first set value, the control unit may drive the light source and receive a second light-receiving signal from the light receiving unit.
상기 제어부는 상기 제2 수광 신호와 제2 설정값을 비교하여 상기 광원 및 상기 광 신호 생성부의 동작에 대응하여 상기 수광부로부터 제3 수광 신호를 수신할 수 있다.The control unit may compare the second light reception signal with a second set value and receive a third light reception signal from the light reception unit in response to the operations of the light source and the optical signal generator.
실시예에 따른 전자 디바이스는 프레임; 상기 프레임에 배치되어 입력신호를 출력하는 입력부; 상기 프레임에 배치되어 영상을 생성하는 광학 장치; 상기 광학 장치와 연결되어 상기 광학 장치에서 생성된 이미지를 출력하는 디스플레이부; 및 상기 영상에 대한 영상신호를 제어하는 제어부;를 포함하고, 상기 제어부는 초점 거리가 상이한 검사 이미지의 영상신호를 제공하고 상기 입력부에 의해 선택된 이미지를 기준으로 사용자의 시력을 결정한다.An electronic device according to an embodiment includes a frame; an input unit disposed in the frame and outputting an input signal; An optical device disposed in the frame to generate an image; a display unit connected to the optical device and outputting an image generated by the optical device; and a control unit that controls an image signal for the image, wherein the control unit provides image signals of test images with different focal lengths and determines the user's visual acuity based on the image selected by the input unit.
상기 초점 거리가 상이한 검사 이미지는 상기 입력부에 의해 조절될 수 있다.Inspection images with different focal lengths may be adjusted by the input unit.
상기 초점 거리가 상이한 검사 이미지는 복수 개로, 복수 개의 검사 이미지 각각이 상이한 초점 거리를 가질 수 있다.There may be a plurality of inspection images having different focal lengths, and each of the plurality of inspection images may have a different focal length.
상기 선택된 이미지는 상기 복수 개의 검사 이미지 중 적어도 하나 이상일 수 있다.The selected image may be at least one of the plurality of inspection images.
상기 제어부는 상기 사용자의 시력을 결정한 후, 상기 영상에 대한 초점 거리를 상기 결정된 사용자의 시력을 기반으로 조절하여 출력할 수 있다.After determining the user's visual acuity, the control unit may adjust and output the focal distance for the image based on the determined user's visual acuity.
상기 제어부는 상기 선택된 이미지가 복수 개인 경우 최대 초점 거리를 기반으로 상기 사용자의 시력을 결정할 수 있다.When there are multiple images selected, the controller may determine the user's visual acuity based on the maximum focal length.
상기 초점 거리가 상이한 검사 이미지는 하나의 이미지에 상이한 초점 거리를 갖는 복수 개의 객체를 포함할 수 있다.The inspection images having different focal lengths may include a plurality of objects having different focal lengths in one image.
상기 제어부는 상기 광학 장치 내의 렌즈를 이동하여 상기 검사 이미지의 초점 거리를 조절할 수 있다.The control unit may adjust the focal length of the inspection image by moving the lens in the optical device.
상기 프레임에 배치되는 광학 소자;를 포함하고, 상기 광학 소자는 초점 가변 렌즈를 포함할 수 있다.and an optical element disposed on the frame, wherein the optical element may include a variable focus lens.
상기 제어부는 상기 광학 소자의 곡률을 변경할 수 있다.The control unit may change the curvature of the optical element.
실시예에 따른 디스플레이 방법은 초점 거리가 상이한 검사 이미지를 출력하는 단계; 상기 초점 거리가 상이한 검사 이미지에서 선택된 이미지를 기준으로 사용자의 시력을 결정하는 단계; 및 상기 결정된 사용자의 시력을 기반으로 가상 이미지를 출력하는 단계;를 포함한다.A display method according to an embodiment includes outputting inspection images with different focal lengths; determining the user's visual acuity based on an image selected from the inspection images having different focal lengths; and outputting a virtual image based on the determined visual acuity of the user.
상기 시력을 결정하는 단계 이후에, 상기 결정된 사용자의 시력을 저장하는 단계;를 포함할 수 있다.After determining the visual acuity, the method may include storing the determined visual acuity of the user.
상기 결정하는 단계는 초점 거리 상이한 복수 개의 검사 이미지를 출력하는 단계;를 포함할 수 있다.The determining step may include outputting a plurality of inspection images with different focal lengths.
상기 가상 이미지를 출력하는 단계에서 상기 결정된 사용자의 시력을 기반으로 가상 이미지에 대한 초점 거리를 가변하는 단계;를 포함할 수 있다.The step of outputting the virtual image may include changing the focal distance for the virtual image based on the determined visual acuity of the user.
상기 결정하는 단계는, 상기 초점 거리 상이한 복수 개의 검사 이미지 중 적어도 하나의 이미지를 선택하는 단계; 및 상기 선택된 이미지가 복수 개인 경우 최대 초점 거리를 기반으로 상기 사용자의 시력을 결정하는 단계;를 포함할 수 있다.The determining step may include selecting at least one image from among the plurality of inspection images having different focal lengths; and determining the user's visual acuity based on the maximum focal distance when there are multiple selected images.
실시예에 따른 제어 디바이스는 운동 정보를 포함하는 감지 신호를 출력하는 감지부; 및 컨트롤러;를 포함하고, 상기 컨트롤러는 상기 운동 정보로부터 사용자 상태를 판단하고, 사용자 상태에 대응하여 제스쳐 동작 및 터치 동작의 활성화를 결정한다.A control device according to an embodiment includes a sensing unit that outputs a sensing signal including motion information; and a controller; wherein the controller determines the user state from the exercise information and determines activation of the gesture operation and the touch operation in response to the user state.
상기 컨트롤러는, 감지 신호의 강도가 제1 설정값보다 큰 경우 상기 감지 신호의 진폭이 제2 설정값보다 큰지 여부를 비교할 수 있다.When the intensity of the detection signal is greater than the first set value, the controller may compare whether the amplitude of the detection signal is greater than the second set value.
상기 컨트롤러는, 상기 감지 신호의 진폭이 제2 설정값보다 크면, 상기 사용자 상태를 운동 상태로 판단할 수 있다.If the amplitude of the detection signal is greater than a second set value, the controller may determine the user state to be an exercise state.
상기 컨트롤러는, 상기 감지 신호의 진폭이 제2 설정값보다 작으면, 상기 감지 신호의 강도가 제3 설정값보다 큰지 여부를 비교할 수 있다.If the amplitude of the detection signal is less than a second set value, the controller may compare whether the intensity of the detection signal is greater than a third set value.
상기 컨트롤러는, 상기 감지 신호의 강도가 상기 제3 설정값보다 크면, 상기 사용자 상태를 탑승 상태로 판단하고, 상기 제3 설정값은 상기 제1 설정값보다 클 수 있다.If the intensity of the detection signal is greater than the third set value, the controller determines the user state to be a boarding state, and the third set value may be greater than the first set value.
상기 컨트롤러는, 상기 감지 신호의 강도가 제1 설정값보다 작으면, 상기 감지 신호의 진폭이 제4 설정값보다 큰지 여부를 비교하고, 상기 제4 설정값은 상기 제2 설정값보다 작을 수 있다.If the intensity of the detection signal is less than the first set value, the controller compares whether the amplitude of the detection signal is greater than the fourth set value, and the fourth set value may be smaller than the second set value. .
상기 컨트롤러는, 상기 감지 신호의 진폭이 상기 제4 설정값보다 크면 상기 사용자 상태를 이동 상태로 판단할 수 있다.The controller may determine the user state as a moving state if the amplitude of the detection signal is greater than the fourth set value.
상기 컨트롤러는, 상기 감지 신호의 진폭이 상기 제4 설정값보다 작으면 상기 사용자 상태를 정지 상태로 판단할 수 있다.The controller may determine the user state to be a stopped state if the amplitude of the detection signal is less than the fourth set value.
상기 컨트롤러는, 상기 터치 동작이 활성화되면, 사용자의 초기 입력에 대한 위치를 상기 중앙부에 대한 상,하,좌 및 우 중 어느 하나로 설정할 수 있다.When the touch operation is activated, the controller can set the position of the user's initial input to any of the top, bottom, left, and right with respect to the central part.
실시예에 따른 제어 방법은 감지 신호를 수신하는 단계; 사용자 상태를 판단하는 단계; 판단된 사용자 상태에 대응하여 제스쳐 동작 또는 터치 동작의 활성화를 결정하는 단계; 및 활성화된 동작에 대응하여 명령을 전송하는 단계;를 포함한다.A control method according to an embodiment includes receiving a detection signal; determining user status; determining activation of a gesture action or a touch action in response to the determined user state; and transmitting a command in response to the activated operation.
상기 사용자 상태를 판단하는 단계는, 감지 신호의 강도가 제1 설정값보다 큰 경우 상기 감지 신호의 진폭이 제2 설정값보다 큰지 여부를 비교하는 단계;를 포함할 수 있다.The step of determining the user state may include comparing whether the amplitude of the detection signal is greater than a second set value when the intensity of the detection signal is greater than a first set value.
상기 감지 신호의 진폭이 제2 설정값보다 크면, 상기 사용자 상태를 운동 상태로 판단하는 단계;를 포함할 수 있다.If the amplitude of the detection signal is greater than a second set value, determining the user state as an exercise state may include.
상기 감지 신호의 진폭이 제2 설정값보다 작으면, 상기 감지 신호의 강도가 제3 설정값보다 큰지 여부를 비교하는 단계;를 포함할 수 있다.If the amplitude of the detection signal is less than a second set value, comparing whether the intensity of the detection signal is greater than the third set value may include.
상기 감지 신호의 강도가 상기 제3 설정값보다 크면, 상기 사용자 상태를 탑승 상태로 판단하는 단계;를 포함하고,If the strength of the detection signal is greater than the third set value, determining the user state as a boarding state;
상기 제3 설정값은 상기 제1 설정값보다 클 수 있다.The third set value may be greater than the first set value.
상기 감지 신호의 강도가 제1 설정값보다 작으면, 상기 감지 신호의 진폭이 제4 설정값보다 큰지 여부를 비교하는 단계;를 포함하고, 상기 제4 설정값은 상기 제2 설정값보다 작을 수 있다.If the intensity of the detection signal is less than the first set value, comparing whether the amplitude of the detection signal is greater than the fourth set value, wherein the fourth set value may be less than the second set value. there is.
상기 감지 신호의 진폭이 상기 제4 설정값보다 크면 상기 사용자 상태를 이동 상태로 판단하는 단계;를 포함할 수 있다.If the amplitude of the detection signal is greater than the fourth set value, determining the user state as a moving state may include.
상기 감지 신호의 진폭이 상기 제4 설정값보다 작으면 상기 사용자 상태를 정지 상태로 판단하는 단계;를 포함할 수 있다.If the amplitude of the detection signal is less than the fourth set value, determining the user state as a stationary state may include.
실시예에 따른 전자 디바이스는 프레임; 상기 프레임에 배치되어 영상을 생성하는 광학 장치; 상기 광학 장치와 연결되어 상기 광학 장치에서 생성된 이미지를 출력하는 디스플레이부; 및 상기 광학 장치와 연결되어 상기 프레임 내부로 배치되는 방열부;를 포함한다.An electronic device according to an embodiment includes a frame; An optical device disposed in the frame to generate an image; a display unit connected to the optical device and outputting an image generated by the optical device; and a heat dissipation unit connected to the optical device and disposed inside the frame.
상기 광학 장치는, 복수 개의 렌즈가 배치되는 배럴; 상기 배럴의 측면에 형성되는 개구부; 상기 개구부와 결합되는 광원 장치;를 포함할 수 있다.The optical device includes a barrel on which a plurality of lenses are disposed; an opening formed on a side of the barrel; It may include a light source device coupled to the opening.
상기 광원 장치는 The light source device is
개구가 형성된 하우징; 상기 제2 광 가이드를 향하여 광을 방출하는 광원; 및a housing having an opening; a light source emitting light toward the second light guide; and
상기 광원에 연결된 기판;을 포함할 수 있다.It may include a substrate connected to the light source.
상기 방열부는 상기 기판과 접할 수 있다.The heat dissipation unit may be in contact with the substrate.
상기 방열부는 상기 하우징의 외측면 상에서 상기 프레임으로 연장될 수 있다.The heat dissipation portion may extend from the outer surface of the housing to the frame.
상기 광학 장치는 영상 정보를 포함하는 광 신호를 생성하는 광 신호 생성부;를 포함하고, 상기 방열부는 상기 광 신호 생성부와 인접하게 연장될 수 있다.The optical device may include an optical signal generator that generates an optical signal including image information, and the heat dissipation portion may extend adjacent to the optical signal generator.
상기 프레임에 배치되는 열공급부;를 포함할 수 있다.It may include a heat supply unit disposed on the frame.
상기 열공급부와 상기 방열부는 서로 이격 배치될 수 있다.The heat supply unit and the heat dissipation unit may be spaced apart from each other.
상기 프레임은 상부 영역; 및 상기 상부 영역 하부에 배치되는 하부 영역;을 포함하고, 상기 열공급부 및 상기 방열부 중 어느 하나는 상기 상부 영역에 배치되고, 상기 열공급부 및 상기 방열부 중 다른 하나는 상기 하부 영역에 배치될 수 있다.The frame has an upper area; and a lower region disposed below the upper region, wherein one of the heat supply unit and the heat dissipation portion is disposed in the upper region, and the other one of the heat supply unit and the heat dissipation portion is disposed in the lower region. You can.
상기 방열부는 상기 프레임의 외측면을 따라 배치될 수 있다.The heat dissipation unit may be disposed along an outer surface of the frame.
실시 예에 따르면, AR(Augmented Reality) 등에 사용되는 광학 장치 및 이를 포함하는 전자 디바이스를 사용함에 있어, 사용자의 생체 신호 감지가 정확하게 수행되는 광학 장치 및 전자 디바이스를 구현한다.According to an embodiment, an optical device and an electronic device that accurately detect a user's biological signals are implemented when using an optical device used in AR (Augmented Reality), etc., and an electronic device including the same.
또한, 센싱(생체) 신호에 대한 노이즈가 감소한 광학 장치 및 이를 포함하는 전자 디바이스를 구현할 수 있다.Additionally, an optical device with reduced noise for sensing (biological) signals and an electronic device including the same can be implemented.
또한, 사용자의 착용 여부를 정확하게 감지할 수 있는 광학 장치 및 이를 포함하는 전자 디바이스를 구현할 수 있다.Additionally, an optical device that can accurately detect whether a user is wearing it and an electronic device including the same can be implemented.
또한, 전력 효율이 향상된 광학 장치 및 이를 포함하는 전자 디바이스를 구현할 수 있다.Additionally, an optical device with improved power efficiency and an electronic device including the same can be implemented.
또한, AR(Augmented Reality) 등에 사용되는 전자 디바이스 및 디스플레이 방법에 있어서, 보다 사용자의 시력을 기반으로 이미지를 제공하는 전자 디바이스 및 디스플레이 방법을 구현할 수 있다.Additionally, in electronic devices and display methods used in AR (Augmented Reality), etc., it is possible to implement electronic devices and display methods that provide images based on the user's vision.
또한, 사용자에 의한 선택된 이미지를 통해 보다 사용자가 편안하게 가상 이미지 등을 인지할 수 있는 전자 디바이스 및 디스플레이 방법을 구현할 수 있다.Additionally, it is possible to implement an electronic device and display method that allows users to more comfortably perceive virtual images, etc. through images selected by the user.
또한, 실시 예는 AR(Augmented Reality) 등에 사용되는 전자 디바이스에 대하여, 사용자의 상태에 대응하여 입력 종류를 활성화하여 오동작을 줄이는 제어 디바이스 및 제어 방법을 구현한다.Additionally, the embodiment implements a control device and control method that reduces malfunctions by activating input types in response to the user's status for electronic devices used in AR (Augmented Reality), etc.
또한, 타인의 시선의 집중 없이도 직관적으로 전자 디바이스를 제어할 수 있는 제어 디바이스 및 제어 방법을 구현할 수 있다.Additionally, it is possible to implement a control device and control method that can intuitively control electronic devices without the attention of others.
또한, 보다 김서림 현상을 용이하게 억제하는 광학 장치 및 전자 디바이스를 구현한다.In addition, optical devices and electronic devices that can more easily suppress the fogging phenomenon are implemented.
또한, 방열을 통해 신뢰성이 개선된 광학 장치 및 이를 포함하는 전자 디바이스를 구현할 수 있다.Additionally, an optical device with improved reliability through heat dissipation and an electronic device including the same can be implemented.
또한, 에너지 효율이 향상된 광학 장치 및 이를 포함하는 전자 디바이스를 구현할 수 있다.Additionally, an optical device with improved energy efficiency and an electronic device including the same can be implemented.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.The various and beneficial advantages and effects of the present invention are not limited to the above-described content, and may be more easily understood through description of specific embodiments of the present invention.
도 1은 AI 장치의 실시예를 나타내는 개념도이고,1 is a conceptual diagram showing an embodiment of an AI device,
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이고,Figure 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention;
도 3은 본 발명의 제1 실시예에 따른 증강현실 전자 디바이스의 사시도이고,Figure 3 is a perspective view of an augmented reality electronic device according to the first embodiment of the present invention;
도 4 내지 도 6은 본 발명의 실시예에 따른 디스플레이부에 적용 가능한 다양한 디스플레이 방식을 설명하기 위한 개념도이고,4 to 6 are conceptual diagrams for explaining various display methods applicable to the display unit according to an embodiment of the present invention;
도 7은 실시예에 따른 전자 디바이스 및 광학 장치의 개념도이고,7 is a conceptual diagram of an electronic device and an optical device according to an embodiment;
도 8은 실시예에 따른 광학 장치의 개념도이고,8 is a conceptual diagram of an optical device according to an embodiment;
도 9은 실시예에 따른 광학 장치의 사시도이고,9 is a perspective view of an optical device according to an embodiment;
도 10는 실시예에 따른 광학 장치의 분해 사시도이고,Figure 10 is an exploded perspective view of an optical device according to an embodiment;
도 11은 도 9에서 AA'로 절단하여 바라본 도면이고,Figure 11 is a view taken along line AA' in Figure 9,
도 12은 도 11에서 K1부분의 확대도이고,Figure 12 is an enlarged view of portion K1 in Figure 11,
도 13는 도 11에서 K2부분의 확대도이고,Figure 13 is an enlarged view of portion K2 in Figure 11,
도 14는 실시예에 따른 광원 장치의 다른 예이고,14 is another example of a light source device according to an embodiment,
도 15는 실시예에 따른 전자 디바이스 또는 광학 장치의 동작 방법의 순서도이고,15 is a flowchart of a method of operating an electronic device or optical device according to an embodiment;
도 16은 광원, 광 신호 생성부 및 수광부의 동작을 설명하는 타이밍도이고,16 is a timing diagram explaining the operations of the light source, optical signal generator, and light receiver;
도 17은 실시예에 따른 디스플레이 방법에 대한 순서도이고,17 is a flowchart of a display method according to an embodiment;
도 18은 실시예에 따른 디스플레이 방법에 대한 추가 순서도이고,18 is an additional flow chart for a display method according to an embodiment;
도 19 및 도 20은 실시예에 따른 디스플레이 방법에서 시력 결정을 설명하는 도면이고,19 and 20 are diagrams illustrating visual acuity determination in a display method according to an embodiment;
도 21은 실시예에 따른 디스플레이 방법에서 이미지 출력을 도시한 도면이고,21 is a diagram illustrating image output in a display method according to an embodiment;
도 22는 다른 실시예에 따른 디스플레이 방법에 대한 순서도이고,22 is a flowchart of a display method according to another embodiment;
도 23은 다른 실시예에 따른 디스플레이 방법에서 시력 결정을 설명하는 도면이고,23 is a diagram illustrating visual acuity determination in a display method according to another embodiment;
도 24는 또 다른 실시예에 따른 디스플레이 방법에 대한 순서도이고,24 is a flowchart of a display method according to another embodiment;
도 25는 변형예에 따른 실시예에 따른 증강현실 전자 디바이스의 사시도이고,Figure 25 is a perspective view of an augmented reality electronic device according to an embodiment according to a modified example;
도 26은 본 발명의 실시예에 따른 제어 디바이스의 블록도이고,Figure 26 is a block diagram of a control device according to an embodiment of the present invention;
도 27은 본 발명의 실시예에 따른 제어 디바이스의 개념도이고,27 is a conceptual diagram of a control device according to an embodiment of the present invention,
도 28는 본 발명의 실시예에 따른 제어 방법의 순서도이고,28 is a flowchart of a control method according to an embodiment of the present invention;
도 29은 본 발명의 실시예에 따른 제어 방법의 구체적인 순서도이고,Figure 29 is a specific flowchart of a control method according to an embodiment of the present invention;
도 30은 본 발명의 실시예에 따른 제어 디바이스의 동작 및 제어 방법을 설명하는 도면이고,30 is a diagram illustrating the operation and control method of a control device according to an embodiment of the present invention;
도 31는 본 발명의 실시예에 따른 제어 디바이스와 전자 디바이스 간의 동작 및 제어를 설명하는 도면이고,31 is a diagram illustrating the operation and control between a control device and an electronic device according to an embodiment of the present invention;
도 32은 본 발명의 실시예에 따른 전자 디바이스의 인터페이스를 도시한 도면이고,Figure 32 is a diagram showing the interface of an electronic device according to an embodiment of the present invention;
도 33는 본 발명의 실시예에 따른 제어 디바이스를 이용한 전자 디바이스의 동작을 설명하는 예시도이고,33 is an example diagram illustrating the operation of an electronic device using a control device according to an embodiment of the present invention;
도 34는 본 발명의 실시예에 따른 제어 디바이스의 동작을 설명하는 도면이고,Figure 34 is a diagram explaining the operation of a control device according to an embodiment of the present invention;
도 35은 실시예에 따른 전자 디바이스의 측면도이고,35 is a side view of an electronic device according to an embodiment;
도 36은 실시예에 따른 전자 디바이스의 평면도이고,36 is a plan view of an electronic device according to an embodiment;
도 37은 실시예에 따른 광학 장치의 개념도이고,37 is a conceptual diagram of an optical device according to an embodiment;
도 38은 실시예에 따른 광학 장치의 사시도이고,38 is a perspective view of an optical device according to an embodiment;
도 39는 실시예에 따른 광학 장치의 분해 사시도이고,Figure 39 is an exploded perspective view of an optical device according to an embodiment;
도 40은 도 38에서 AA'로 절단하여 바라본 도면이고,Figure 40 is a view taken along line AA' in Figure 38,
도 41은 도 40에서 K1부분의 확대도이고,Figure 41 is an enlarged view of portion K1 in Figure 40,
도 42는 도 40에서 K2부분의 확대도이고,Figure 42 is an enlarged view of portion K2 in Figure 40;
도 43는 다른 실시예에 따른 전자 디바이스의 측면도이고,43 is a side view of an electronic device according to another embodiment;
도 44은 다른 실시예에 따른 전자 디바이스의 평면도이고,44 is a plan view of an electronic device according to another embodiment;
도 45은 또 다른 실시예에 따른 전자 디바이스의 측면도이고,45 is a side view of an electronic device according to another embodiment;
도 46은 또 다른 실시예에 따른 전자 디바이스의 평면도이다.Figure 46 is a plan view of an electronic device according to another embodiment.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as “at least one (or more than one) of A and B and C”, it is combined with A, B, and C. It can contain one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우 뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우 뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향 뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.Additionally, when described as being formed or disposed "above" or "below" each component, "above" or "below" refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.
도 1은 AI 장치의 실시예를 나타내는 개념도이다.1 is a conceptual diagram showing an embodiment of an AI device.
도 1을 참조하면, AI 시스템은 AI 서버(16), 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 등을 AI 장치(11 내지 15)라 칭할 수 있다.Referring to Figure 1, the AI system includes at least one of an AI server 16, a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15 connected to a cloud network. It is connected to (10). Here, a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15 to which AI technology is applied may be referred to as AI devices 11 to 15.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.The cloud network 10 may constitute part of a cloud computing infrastructure or may refer to a network that exists within the cloud computing infrastructure. Here, the cloud network 10 may be configured using a 3G network, 4G, Long Term Evolution (LTE) network, or 5G network.
즉, AI 시스템을 구성하는 각 장치들(11 내지 16)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(11 내지 16)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.That is, each device 11 to 16 constituting the AI system can be connected to each other through the cloud network 10. In particular, the devices 11 to 16 may communicate with each other through a base station, but may also communicate with each other directly without going through the base station.
AI 서버(16)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.The AI server 16 may include a server that performs AI processing and a server that performs calculations on big data.
AI 서버(16)는 AI 시스템을 구성하는 AI 장치들인 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상과 클라우드 네트워크(10)를 통하여 연결되고, 연결된 AI 장치들(11 내지 15)의 AI 프로세싱을 적어도 일부를 도울 수 있다.The AI server 16 is connected to at least one of the AI devices that make up the AI system, such as a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15, and a cloud network ( It is connected through 10) and can assist at least part of the AI processing of the connected AI devices 11 to 15.
이 때, AI 서버(16)는 AI 장치(11 내지 15)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(11 내지 15)에 전송할 수 있다.At this time, the AI server 16 can train an artificial neural network according to a machine learning algorithm on behalf of the AI devices 11 to 15, and directly store or transmit the learning model to the AI devices 11 to 15.
AI 서버(16)는 AI 장치(11 내지 15)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(11 내지 15)로 전송할 수 있다.The AI server 16 receives input data from the AI devices 11 to 15, infers a result value for the received input data using a learning model, and generates a response or control command based on the inferred result value. It can be transmitted to AI devices (11 to 15).
또는, AI 장치(11 내지 15)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.Alternatively, the AI devices 11 to 15 may infer a result value for input data using a direct learning model and generate a response or control command based on the inferred result value.
<AI+로봇><AI+Robot>
로봇(11)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The robot 11 uses AI technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc.
로봇(11)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.The robot 11 may include a robot control module for controlling operations, and the robot control module may mean a software module or a chip implementing it as hardware.
로봇(11)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(11)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.The robot 11 uses sensor information obtained from various types of sensors to acquire status information of the robot 11, detect (recognize) the surrounding environment and objects, generate map data, or determine movement path and driving. It can determine a plan, determine a response to user interaction, or determine an action.
여기서, 로봇(11)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the robot 11 may use sensor information obtained from at least one sensor among lidar, radar, and camera to determine the movement path and driving plan.
로봇(11)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(11)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(11)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The robot 11 can perform the above operations using a learning model composed of at least one artificial neural network. For example, the robot 11 can recognize the surrounding environment and objects using a learning model, and can determine an operation using the recognized surrounding environment information or object information. Here, the learning model may be learned directly from the robot 11 or from an external device such as the AI server 16.
이 때, 로봇(11)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the robot 11 may perform an action by generating a result using a direct learning model, but it also transmits sensor information to an external device such as the AI server 16 and receives the result generated accordingly to perform the action. It can also be done.
로봇(11)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(11)을 주행시킬 수 있다.The robot 11 determines the movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to follow the determined movement path and driving plan. The robot 11 can be driven accordingly.
맵 데이터에는 로봇(11)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information about various objects arranged in the space where the robot 11 moves. For example, map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks. Additionally, object identification information may include name, type, distance, location, etc.
또한, 로봇(11)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 로봇(11)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.Additionally, the robot 11 can perform actions or travel by controlling the driving unit based on the user's control/interaction. At this time, the robot 11 may acquire interaction intention information according to the user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.
<AI+자율주행><AI+Autonomous Driving>
자율주행 차량(12)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.The self-driving vehicle 12 can be implemented as a mobile robot, vehicle, unmanned aerial vehicle, etc. by applying AI technology.
자율주행 차량(12)은 자율주행 기능을 제어하기 위한 자율주행 제어 모듈을 포함할 수 있고, 자율주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율주행 제어 모듈은 자율주행 차량(12)의 구성으로써 내부에 포함될 수도 있지만, 자율주행 차량(12)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.The autonomous vehicle 12 may include an autonomous driving control module for controlling autonomous driving functions, and the autonomous driving control module may refer to a software module or a chip implementing it as hardware. The self-driving control module may be included internally as a component of the self-driving vehicle 12, but may also be configured as separate hardware and connected to the outside of the self-driving vehicle 12.
자율주행 차량(12)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율주행 차량(12)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.The self-driving vehicle 12 uses sensor information obtained from various types of sensors to obtain status information of the self-driving vehicle 12, detect (recognize) the surrounding environment and objects, generate map data, or You can determine the movement route and driving plan, or determine the action.
여기서, 자율주행 차량(12)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(11)과와 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the autonomous vehicle 12, like the robot 11, can use sensor information acquired from at least one sensor among lidar, radar, and camera to determine the movement path and driving plan.
특히, 자율주행 차량(12)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.In particular, the autonomous vehicle 12 can recognize the environment or objects in areas where the view is obscured or over a certain distance by receiving sensor information from external devices, or receive recognized information directly from external devices. .
자율주행 차량(12)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율주행 차량(12)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율주행 차량(12)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The autonomous vehicle 12 can perform the above operations using a learning model composed of at least one artificial neural network. For example, the self-driving vehicle 12 can recognize the surrounding environment and objects using a learning model, and can determine a driving route using the recognized surrounding environment information or object information. Here, the learning model may be learned directly from the autonomous vehicle 12 or from an external device such as the AI server 16.
이 때, 자율주행 차량(12)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the autonomous vehicle 12 may perform operations by generating results using a direct learning model, but it may also transmit sensor information to an external device such as the AI server 16 and receive the results generated accordingly. You can also perform actions.
자율주행 차량(12)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율주행 차량(12)을 주행시킬 수 있다.The autonomous vehicle 12 determines the movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to determine the determined movement path and driving. The autonomous vehicle 12 can be driven according to a plan.
맵 데이터에는 자율주행 차량(12)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information about various objects placed in the space (eg, road) where the autonomous vehicle 12 drives. For example, map data may include object identification information for fixed objects such as streetlights, rocks, and buildings, and movable objects such as vehicles and pedestrians. Additionally, object identification information may include name, type, distance, location, etc.
또한, 자율주행 차량(12)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 자율주행 차량(12)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.Additionally, the autonomous vehicle 12 can perform operations or drive by controlling the driving unit based on the user's control/interaction. At this time, the autonomous vehicle 12 may acquire interaction intention information according to the user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.
<AI+XR><AI+XR>
XR 장치(13)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.The XR device 13 is equipped with AI technology and can be used for HMD (Head-Mount Display), HUD (Head-Up Display) installed in vehicles, televisions, mobile phones, smart phones, computers, wearable devices, home appliances, and digital signage. , it can be implemented as a vehicle, a fixed robot, or a mobile robot.
XR 장치(13)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(13)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.The XR device 13 analyzes 3D point cloud data or image data acquired through various sensors or from external devices to generate location data and attribute data for 3D points, thereby providing information about surrounding space or real objects. The XR object to be acquired and output can be rendered and output. For example, the XR device 13 may output an XR object containing additional information about the recognized object in correspondence to the recognized object.
XR 장치(13)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(13)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(13)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The XR device 13 may perform the above operations using a learning model composed of at least one artificial neural network. For example, the XR device 13 can recognize a real-world object from 3D point cloud data or image data using a learning model and provide information corresponding to the recognized real-world object. Here, the learning model may be learned directly from the XR device 13 or from an external device such as the AI server 16.
이 때, XR 장치(13)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the XR device 13 may perform operations by generating results using a direct learning model, but operates by transmitting sensor information to an external device such as the AI server 16 and receiving the results generated accordingly. You can also perform .
<AI+로봇+자율주행><AI+Robot+Autonomous Driving>
로봇(11)은 AI 기술 및 자율주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The robot 11 applies AI technology and autonomous driving technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc.
AI 기술과 자율주행 기술이 적용된 로봇(11)은 자율주행 기능을 가진 로봇 자체나, 자율주행 차량(12)과 상호작용하는 로봇(11) 등을 의미할 수 있다.The robot 11 to which AI technology and autonomous driving technology is applied may refer to the robot itself with autonomous driving functions or the robot 11 that interacts with the autonomous vehicle 12.
자율주행 기능을 가진 로봇(11)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.The robot 11 with autonomous driving function can refer to devices that move on their own according to a given route without user control, or determine the route on their own and move.
자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.The robot 11 and the autonomous vehicle 12 with autonomous driving functions may use a common sensing method to determine one or more of a movement path or a driving plan. For example, the robot 11 and the autonomous vehicle 12 with autonomous driving functions can determine one or more of the movement path or driving plan using information sensed through lidar, radar, and cameras.
자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)과 별개로 존재하면서, 자율주행 차량(12)의 내부 또는 외부에서 자율주행 기능에 연계되거나, 자율주행 차량(12)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.The robot 11 interacting with the autonomous vehicle 12 exists separately from the autonomous vehicle 12 and is linked to the autonomous driving function inside or outside the autonomous vehicle 12, or is connected to the autonomous driving function inside or outside the autonomous vehicle 12. ) can perform actions linked to the user on board.
이 때, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)을 대신하여 센서 정보를 획득하여 자율주행 차량(12)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율주행 차량(12)에 제공함으로써, 자율주행 차량(12)의 자율주행 기능을 제어하거나 보조할 수 있다.At this time, the robot 11 interacting with the autonomous vehicle 12 acquires sensor information on behalf of the autonomous vehicle 12 and provides it to the autonomous vehicle 12, or acquires sensor information and provides surrounding environment information. Alternatively, the autonomous driving function of the autonomous vehicle 12 can be controlled or assisted by generating object information and providing it to the autonomous vehicle 12.
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율주행 차량(12)의 기능을 제어할 수 있다. 예컨대, 로봇(11)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율주행 차량(12)의 자율주행 기능을 활성화하거나 자율주행 차량(12)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(11)이 제어하는 자율주행 차량(12)의 기능에는 단순히 자율주행 기능 뿐만 아니라, 자율주행 차량(12)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.Alternatively, the robot 11 interacting with the autonomous vehicle 12 may monitor the user riding the autonomous vehicle 12 or control the functions of the autonomous vehicle 12 through interaction with the user. . For example, if it is determined that the driver is drowsy, the robot 11 may activate the autonomous driving function of the autonomous vehicle 12 or assist in controlling the driving unit of the autonomous vehicle 12. Here, the functions of the autonomous vehicle 12 controlled by the robot 11 may include not only the autonomous driving function but also functions provided by a navigation system or audio system provided inside the autonomous vehicle 12.
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)의 외부에서 자율주행 차량(12)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(11)은 스마트 신호등과 같이 자율주행 차량(12)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율주행 차량(12)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.Alternatively, the robot 11 interacting with the autonomous vehicle 12 may provide information to the autonomous vehicle 12 or assist a function from outside the autonomous vehicle 12 . For example, the robot 11 may provide traffic information including signal information to the autonomous vehicle 12, such as a smart traffic light, and may interact with the autonomous vehicle 12, such as an automatic electric charger for an electric vehicle. You can also automatically connect an electric charger to the charging port.
<AI+로봇+XR><AI+Robot+XR>
로봇(11)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.The robot 11 applies AI technology and XR technology and can be implemented as a guidance robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, etc.
XR 기술이 적용된 로봇(11)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(11)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.The robot 11 to which XR technology is applied may refer to a robot that is subject to control/interaction within an XR image. In this case, the robot 11 is distinct from the XR device 13 and can be interoperated with each other.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(11)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(11) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(11)은 XR 장치(13)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When the robot 11, which is the object of control/interaction within the XR image, acquires sensor information from sensors including a camera, the robot 11 or the XR device 13 generates an XR image based on the sensor information. And, the XR device 13 can output the generated XR image. And, this robot 11 can operate based on a control signal input through the XR device 13 or user interaction.
예컨대, 사용자는 XR 장치(13) 등의 외부 장치를 통해 원격으로 연동된 로봇(11)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(11)의 자율주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.For example, the user can check the XR image corresponding to the viewpoint of the remotely linked robot 11 through an external device such as the XR device 13, and adjust the autonomous driving path of the robot 11 through interaction. , you can control movement or driving, or check information about surrounding objects.
<AI+자율주행+XR><AI+Autonomous Driving+XR>
자율주행 차량(12)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.The self-driving vehicle 12 can be implemented as a mobile robot, vehicle, unmanned aerial vehicle, etc. by applying AI technology and XR technology.
XR 기술이 적용된 자율주행 차량(12)은 XR 영상을 제공하는 수단을 구비한 자율주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.The autonomous vehicle 12 to which XR technology is applied may refer to an autonomous vehicle equipped with means for providing XR images or an autonomous vehicle that is subject to control/interaction within XR images. In particular, the autonomous vehicle 12, which is the subject of control/interaction within the XR image, is distinct from the XR device 13 and can be interoperable with each other.
XR 영상을 제공하는 수단을 구비한 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율주행 차량(12)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.The autonomous vehicle 12 equipped with a means for providing an XR image can acquire sensor information from sensors including a camera and output an XR image generated based on the acquired sensor information. For example, the self-driving vehicle 12 may be equipped with a HUD and output XR images, thereby providing passengers with XR objects corresponding to real objects or objects on the screen.
이 때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율주행 차량(12)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율주행 차량(12)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.At this time, when the XR object is output to the HUD, at least a portion of the XR object may be output to overlap the actual object toward which the passenger's gaze is directed. On the other hand, when the XR object is output to a display provided inside the autonomous vehicle 12, at least a portion of the XR object may be output to overlap the object in the screen. For example, the autonomous vehicle 12 may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, two-wheeled vehicles, pedestrians, buildings, etc.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율주행 차량(12) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율주행 차량(12)은 XR 장치(13) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When the autonomous vehicle 12, which is the subject of control/interaction within the XR image, acquires sensor information from sensors including cameras, the autonomous vehicle 12 or the XR device 13 detects sensor information based on the sensor information. An XR image is generated, and the XR device 13 can output the generated XR image. Additionally, this autonomous vehicle 12 may operate based on control signals input through an external device such as the XR device 13 or user interaction.
[확장현실 기술][Extended reality technology]
확장현실(XR: eXtended Reality)은 가상현실(VR: Virtual Reality), 증강현실(AR: Augmented Reality), 혼합현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.Extended reality (XR: eXtended Reality) is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR: Mixed reality). VR technology provides objects and backgrounds in the real world only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology provides computer technology that mixes and combines virtual objects in the real world. It is a graphic technology.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, in AR technology, virtual objects are used to complement real objects, whereas in MR technology, virtual objects and real objects are used equally.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices with XR technology applied are called XR Devices. It can be called.
이하에서는 본 발명의 실시예에 따른 확장현실을 제공하는 전자 디바이스에 대해 설명하기로 한다. 특히, 증강현실에 적용되는 광학 장치 및 이를 포함한 전자 디바이스에 대해 자세히 설명한다.Hereinafter, an electronic device that provides extended reality according to an embodiment of the present invention will be described. In particular, optical devices applied to augmented reality and electronic devices including them are explained in detail.
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스(20)의 구성을 나타내는 블럭도이다.Figure 2 is a block diagram showing the configuration of an extended reality electronic device 20 according to an embodiment of the present invention.
도 2를 참조하면, 확장현실 전자 디바이스(20)는 무선 통신부(21), 입력부(22), 센싱부(23), 출력부(24), 인터페이스부(25), 메모리(26), 제어부(27) 및 전원 공급부(28) 등을 포함할 수 있다. 도 2에 도시된 구성요소들은 전자 디바이스(20)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자 디바이스(20)는 위에서 열거된 구성요소들 보다 많거나, 적은 구성요소들을 가질 수 있다.Referring to FIG. 2, the extended reality electronic device 20 includes a wireless communication unit 21, an input unit 22, a sensing unit 23, an output unit 24, an interface unit 25, a memory 26, and a control unit ( 27) and a power supply unit 28. The components shown in FIG. 2 are not essential for implementing the electronic device 20, so the electronic device 20 described herein may have more or fewer components than those listed above. .
보다 구체적으로, 위 구성요소들 중 무선 통신부(21)는, 전자 디바이스(20)와 무선 통신 시스템 사이, 전자 디바이스(20)와 다른 전자 디바이스 사이, 또는 전자 디바이스(20)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(21)는, 전자 디바이스(20)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 21 is a wireless communication system between the electronic device 20 and the wireless communication system, between the electronic device 20 and another electronic device, or between the electronic device 20 and an external server. It may contain one or more modules that enable communication. Additionally, the wireless communication unit 21 may include one or more modules that connect the electronic device 20 to one or more networks.
이러한 무선 통신부(21)는, 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.This wireless communication unit 21 may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.
입력부(22)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(22)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 22 includes a camera or video input unit for inputting video signals, a microphone or audio input unit for inputting audio signals, and a user input unit (for example, a touch key) for receiving information from the user. , pushkey (mechanical key, etc.) may be included. Voice data or image data collected from the input unit 22 may be analyzed and processed as a user's control command.
센싱부(23)는 전자 디바이스(20) 내 정보, 전자 디바이스(20)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.The sensing unit 23 may include one or more sensors for sensing at least one of information within the electronic device 20, information on the surrounding environment surrounding the electronic device 20, and user information.
예를 들어, 센싱부(23)는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 촬영수단), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 전자 디바이스(20)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.For example, the sensing unit 23 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor (G- sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor, fingerprint scan sensor, ultrasonic sensor, optical sensor ( optical sensor (e.g., imaging device), microphone, battery gauge, environmental sensor (e.g., barometer, hygrometer, thermometer, radiation detection sensor, heat detection sensor, gas detection sensor, etc.), It may include at least one of chemical sensors (eg, electronic nose, healthcare sensor, biometric sensor, etc.). Meanwhile, the electronic device 20 disclosed in this specification can utilize information sensed by at least two of these sensors by combining them.
출력부(24)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅틱 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 증강현실 전자 디바이스(20)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력수단으로써 기능함과 동시에, 증강현실 전자 디바이스(20)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 24 is intended to generate output related to vision, hearing, or tactile sensation, and may include at least one of a display unit, an audio output unit, a haptic module, and an optical output unit. A touch screen can be implemented by forming a layered structure with the touch sensor or being integrated with the display unit. This touch screen functions as a user input means that provides an input interface between the augmented reality electronic device 20 and the user, and can simultaneously provide an output interface between the augmented reality electronic device 20 and the user.
인터페이스부(25)는 전자 디바이스(20)에 연결되는 다양한 종류의 외부장치와의 통로 역할을 수행한다. 인터페이스부(25)를 통해 전자 디바이스(20)는 외부장치로부터 가상현실 또는 증강현실 컨텐츠를 제공받을 수 있고, 다양한 입력 신호, 센싱 신호, 데이터를 주고받음으로써, 상호 인터랙션을 수행할 수 있다.The interface unit 25 serves as a passageway for various types of external devices connected to the electronic device 20. Through the interface unit 25, the electronic device 20 can receive virtual reality or augmented reality content from an external device, and can perform mutual interaction by exchanging various input signals, sensing signals, and data.
예를 들어, 인터페이스부(25)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다.For example, the interface unit 25 includes a device equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a connection port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
또한, 메모리(26)는 전자 디바이스(20)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(26)는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 메모리(26)는 전자 디바이스(20)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 디바이스(20)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 디바이스(20)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 디바이스(20)상에 존재할 수 있다.Additionally, the memory 26 stores data that supports various functions of the electronic device 20. Memory 26 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. The memory 26 may store a plurality of application programs (application programs or applications) running on the electronic device 20, data for operating the electronic device 20, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, at least some of these applications may be present on the electronic device 20 from the time of shipment for basic functions of the electronic device 20 (e.g., call incoming and outgoing functions, message receiving and sending functions).
제어부(27)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 디바이스(20)의 전반적인 동작을 제어한다. 제어부(27)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.The control unit 27 typically controls the overall operation of the electronic device 20 in addition to operations related to application programs. The control unit 27 can process signals, data, information, etc. that are input or output through the components discussed above.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 구동함으로써 구성요소들 중 적어도 일부를 제어하여 사여 사용자에게 적절한 정보를 제공하거나 기능을 처리할 수 있다. 나아가, 제어부(27)는 응용 프로그램의 구동을 위하여 전자 디바이스(20)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다. 나아가, 제어부(27)는 후술하는 구동 방법에 대한 처리를 수행할 수 있다. 이러한 제어부(27)는 프로세서, 제어 유닛(control unit) 등으로 표현될 수 있다. 또한, 제어부(27)는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다.Additionally, the control unit 27 can control at least some of the components by running the application program stored in the memory 26 to provide appropriate information to the user or process functions. Furthermore, the control unit 27 may operate at least two of the components included in the electronic device 20 in combination with each other in order to run an application program. Furthermore, the control unit 27 can perform processing for a driving method described later. This control unit 27 may be expressed as a processor, control unit, etc. Additionally, the control unit 27 may include an application-specific integrated circuit (ASIC), another chipset, logic circuit, and/or a data processing device.
또한, 제어부(27)는 센싱부(23)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서 등을 이용하여 전자 디바이스(20)나 사용자의 움직임을 감지할 수 있다. 또는 제어부(27)는 센싱부(23)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자 디바이스(20)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다. 그 밖에도, 제어부(27)는 전자 디바이스(20)와 연동하여 동작하는 컨트롤러에 구비된 센서들을 통해서도 사용자의 움직임을 감지할 수 있다.Additionally, the control unit 27 may sense the movement of the electronic device 20 or the user using a gyroscope sensor, gravity sensor, motion sensor, etc. included in the sensing unit 23. Alternatively, the control unit 27 may detect an object approaching the electronic device 20 or the user using a proximity sensor, illuminance sensor, magnetic sensor, infrared sensor, ultrasonic sensor, light sensor, etc. included in the sensing unit 23. there is. In addition, the control unit 27 can also detect the user's movement through sensors provided in the controller that operates in conjunction with the electronic device 20.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 이용하여 전자 디바이스(20)의 동작(또는 기능)을 수행할 수 있다.Additionally, the control unit 27 may perform an operation (or function) of the electronic device 20 using an application program stored in the memory 26.
전원 공급부(28)는 제어부(27)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가 받아 전자 디바이스(20)에 포함된 각 구성요소들에 전원을 공급한다. 전원 공급부(28)는 배터리를 포함하며, 배터리는 내장형 또는 교체가능한 형태로 마련될 수 있다.The power supply unit 28 receives external or internal power under the control of the control unit 27 and supplies power to each component included in the electronic device 20. The power supply unit 28 includes a battery, and the battery may be provided in a built-in or replaceable form.
위 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 전자 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 전자 디바이스의 동작, 제어, 또는 제어방법은 메모리(26)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 디바이스 상에서 구현될 수 있다.At least some of the above components may operate in cooperation with each other to implement operation, control, or a control method of an electronic device according to various embodiments described below. Additionally, the operation, control, or control method of the electronic device may be implemented on the electronic device by running at least one application program stored in the memory 26.
이하, 본 발명의 일 예로서 설명되는 전자 디바이스는 HMD(Head Mounted Display)에 적용되는 실시예를 기준으로 설명한다. 그러나 본 발명에 따른 전자 디바이스의 실시예에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 및 웨어러블 디바이스(wearable device) 등이 포함될 수 있다. 웨어러블 디바이스에는 HMD 이외에도 워치형 단말기(smart watch)와 컨택트 렌즈(Contact lens), VR/AR/MR Glass 등이 포함될 수 있다.Hereinafter, an electronic device described as an example of the present invention will be described based on an embodiment applied to a Head Mounted Display (HMD). However, embodiments of the electronic device according to the present invention include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation, and slate PCs ( Slate PC, tablet PC, ultrabook, and wearable device may be included. In addition to HMD, wearable devices may include smart watches, contact lenses, VR/AR/MR Glass, etc.
도 3은 본 발명의 실시예에 따른 증강현실 전자 디바이스의 사시도이다.Figure 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 전자 디바이스는 프레임(100), 광학 장치(200) 및 디스플레이부(300)를 포함할 수 있다.As shown in FIG. 3, an electronic device according to an embodiment of the present invention may include a frame 100, an optical device 200, and a display unit 300.
전자 디바이스는 글라스 타입(smart glass)으로 마련될 수 있다. 글라스 타입의 전자 디바이스는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임(케이스, 하우징 등)(100)을 구비할 수 있다. 프레임(100)은 착용이 용이하도록 플렉서블 재질로 형성될 수 있다.The electronic device may be provided as a glass type (smart glass). A glass-type electronic device is configured to be worn on the head of the human body, and may be provided with a frame (case, housing, etc.) 100 for it. The frame 100 may be made of a flexible material to make it easy to wear.
프레임(100)은 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임(100)에는 광학 장치(200), 사용자 입력부(130) 또는 음향 출력부(140) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임(100)에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈가 착탈 가능하게 장착될 수 있다.The frame 100 is supported on the head and provides space for various parts to be mounted. As shown, the frame 100 may be equipped with electronic components such as an optical device 200, a user input unit 130, or an audio output unit 140. Additionally, a lens covering at least one of the left eye and the right eye may be removably mounted on the frame 100.
프레임(100)은 도면에 도시된 바와 같이, 사용자의 신체 중 안면에 착용되는 안경 형태를 가질 수 있으나, 이에 반드시 한정되는 것은 아니고, 사용자의 안면에 밀착되어 착용되는 고글 등의 형태를 가질 수도 있다.As shown in the drawing, the frame 100 may have the form of glasses worn on the face of the user's body, but is not necessarily limited thereto and may have the form of goggles worn in close contact with the user's face. .
이와 같은 프레임(100)은 적어도 하나의 개구부를 구비하는 전면 프레임(110)과, 전면 프레임(110)과 교차하는 y 방향(도 3에서)으로 연장되어 서로 나란한 한 쌍의 측면 프레임(120)을 포함할 수 있다.Such a frame 100 includes a front frame 110 having at least one opening, and a pair of side frames 120 that extend in the y direction (in FIG. 3) intersecting the front frame 110 and are parallel to each other. It can be included.
프레임(100)은 x 방향으로 길이(DI)와 y 방향으로 길이(LI)가 동일 또는 상이할 수 있다.The frame 100 may have the same or different length (DI) in the x direction and length (LI) in the y direction.
광학 장치(200)는 전자 디바이스에 구비되는 각종 전자부품을 제어하도록 마련된다.The optical device 200 is provided to control various electronic components included in an electronic device.
광학 장치(200)는 사용자에게 보여지는 이미지 또는 이미지가 연속되는 영상을 생성할 수 있다. 광학 장치(200)는 이미지를 발생시키는 이미지 소스 패널과 이미지 소스 패널에서 발생된 빛을 확산 및 수렴하는 복수의 렌즈 등을 포함할 수 있다.The optical device 200 may generate an image shown to the user or an image containing a series of images. The optical device 200 may include an image source panel that generates an image and a plurality of lenses that diffuse and converge light generated from the image source panel.
광학 장치(200)는 두 측면 프레임(120) 중 어느 하나의 측면 프레임(120)에 고정될 수 있다. 예를 들어, 광학 장치(200)는 어느 하나의 측면 프레임(120) 내측 또는 외측에 고정되거나, 어느 하나의 측면 프레임(120)의 내부에 내장되어 일체로 형성될 수 있다. 또는 광학 장치(200)가 전면 프레임(110)에 고정되거나 전자 디바이스와 별도로 마련될 수도 있다.The optical device 200 may be fixed to one of the two side frames 120 . For example, the optical device 200 may be fixed to the inside or outside of one of the side frames 120, or may be built into one of the side frames 120 and formed integrally. Alternatively, the optical device 200 may be fixed to the front frame 110 or may be provided separately from the electronic device.
디스플레이부(300)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 전자 디바이스를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(300)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(300)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다. 다만, 상술한 바와 같이 이에 한정되는 것은 아니며 좌안 우안에 모두 배치될 수도 있다. The display unit 300 may be implemented in the form of a head mounted display (HMD). HMD type refers to a display method that is mounted on the head and shows images directly in front of the user's eyes. When a user wears an electronic device, the display unit 300 may be arranged to correspond to at least one of the left eye and the right eye so that an image can be provided directly in front of the user's eyes. In this drawing, the display unit 300 is located in a portion corresponding to the right eye so that an image can be output toward the user's right eye. However, as described above, it is not limited to this and may be placed on both the left and right eyes.
디스플레이부(300)는 사용자가 외부 환경을 시각적으로 인지하면서, 동시에 광학 장치(200)에서 생성된 이미지가 사용자에게 보이도록 할 수 있다. 예를 들어, 디스플레이부(300)는 프리즘을 이용하여 디스플레이 영역에 이미지를 투사할 수 있다.The display unit 300 allows the user to visually perceive the external environment and at the same time allows the user to see the image generated by the optical device 200. For example, the display unit 300 may project an image onto the display area using a prism.
그리고 디스플레이부(300)는 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)가 동시에 보이도록 하기 위해 투광성으로 형성될 수 있다. 예를 들어, 디스플레이부(300)는 반투명일 수 있으며, 글라스(glass)를 포함하는 광학 부재로 형성될 수 있다.Additionally, the display unit 300 may be formed to be translucent so that the projected image and the general front view (range viewed through the user's eyes) are visible at the same time. For example, the display unit 300 may be translucent and may be formed of an optical member including glass.
그리고 디스플레이부(300)는 전면 프레임(110)에 포함된 개구부에 삽입되어 고정되거나, 개부구의 배면[즉 개구부와 사용자 사이]에 위치하여, 전면 프레임(110)에 고정될 수 있다. 도면에는 디스플레이부(300)가 개구부의 배면에 위치하여, 전면 프레임(110)에 고정된 경우를 일 예로 도시하였지만, 이와 달리 디스플레이부(300)는 프레임(100)의 다양한 위치에 배치 및 고정될 수 있다.Additionally, the display unit 300 may be inserted into and fixed to an opening included in the front frame 110, or may be located on the back of the opening (i.e., between the opening and the user) and fixed to the front frame 110. In the drawing, the display unit 300 is located on the back of the opening and is fixed to the front frame 110 as an example. However, unlike this, the display unit 300 can be placed and fixed at various positions on the frame 100. You can.
전자 디바이스는 도 3에 도시된 바와 같이, 광학 장치(200)에서 이미지에 대한 이미지 광을 디스플레이부(300)의 일측으로 입사시키면, 이미지광이 디스플레이부(300)를 통하여 타측으로 출사되어, 광학 장치(200)에서 생성된 이미지를 사용자에게 보이도록 할 수 있다.As shown in FIG. 3, when image light for an image is incident on one side of the display unit 300 from the optical device 200, the electronic device emits the image light to the other side through the display unit 300, The image generated by the device 200 can be displayed to the user.
이에 따라, 사용자는 프레임(100)의 개구부를 통하여 외부 환경을 보면서 동시에 광학 장치(200)에서 생성된 이미지를 함께 볼 수 있게 된다. 즉, 디스플레이부(300)를 통하여 출력되는 영상은 일반 시야와 오버랩(overlap)되어 보일 수 있다. 전자 디바이스는 이러한 디스플레이 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.Accordingly, the user can view the image generated by the optical device 200 while simultaneously viewing the external environment through the opening of the frame 100. That is, the image output through the display unit 300 may appear to overlap with the general field of view. Electronic devices can use these display characteristics to provide augmented reality (AR), which displays a single image by overlapping a virtual image on a real image or background.
나아가, 이러한 구동 이외에 사람이 인식하지 못하는 짧은 시간 동안 외부 환경과 광학 장치(200)에서 생성된 이미지가 시간차로 사용자에게 제공될 수 있다. 예컨대, 하나의 프레임 내에서 일 구간에서는 외부 환경이 사람에게 제공되고, 다른 구간에서는 광학 장치(200)로부터의 영상이 사람에게 제공될 수 있다.Furthermore, in addition to this operation, the external environment and images generated by the optical device 200 may be provided to the user with a time difference for a short period of time that cannot be perceived by a person. For example, within one frame, an external environment may be provided to a person in one section, and an image from the optical device 200 may be provided to a person in another section.
또는, 오버랩과 시간차가 모두 제공될 수도 있다.Alternatively, both overlap and time difference may be provided.
도 4 내지 도 6은 본 발명의 실시예에 따른 디스플레이부에 적용 가능한 다양한 디스플레이 방식을 설명하기 위한 개념도이다.4 to 6 are conceptual diagrams for explaining various display methods applicable to the display unit according to an embodiment of the present invention.
구체적으로, 도 4은 프리즘 방식의 광학 부재의 실시예를 설명하기 위한 도면이고, 도 5은 웨이브 가이드(waveguide, 또는 도파관) 방식의 광학 부재의 실시예를 설명하기 위한 도면이고, 도 6는 표면 반사 방식의 광학 부재의 실시예를 설명하기 위한 도면이다. Specifically, FIG. 4 is a diagram for explaining an embodiment of a prism-type optical member, FIG. 5 is a diagram for explaining an embodiment of a waveguide (or waveguide)-type optical member, and FIG. 6 is a surface This is a drawing to explain an embodiment of a reflective optical member.
도 4에 도시된 바와 같이, 본 발명의 실시예에 따른 디스플레이부(300-1)에는 프리즘 방식의 광학 부재가 이용될 수 있다.As shown in FIG. 4, a prism-type optical member may be used in the display unit 300-1 according to an embodiment of the present invention.
실시예로, 프리즘 방식의 광학 부재는 도 4의 (a)에 도시된 바와 같이, 이미지 광이 입사되는 표면과 출사되는 표면(300a)이 평면인 플랫(flat) 타입의 글라스 광학 부재가 이용되거나, 도 4의 (b)에 도시된 바와 같이, 이미지 광이 출사되는 표면(300b)이 일정한 곡률 반경이 없는 곡면으로 형성되는 프리폼(freeform) 글라스 광학 부재가 이용될 수 있다.In an embodiment, the prismatic optical member is a flat type glass optical member in which the surface on which image light is incident and the surface 300a on which image light is emitted are flat, as shown in (a) of FIG. 4, or , As shown in (b) of FIG. 4, a freeform glass optical member in which the surface 300b from which image light is emitted is formed as a curved surface without a constant radius of curvature may be used.
플랫(flat) 타입의 글라스 광학 부재는 광학 장치(200)에서 생성된 이미지 광을 평평한 측면으로 입사 받아 내부에 구비된 전반사 미러(300a)에 의해 반사되어, 사용자 쪽으로 출사할 수 있다. 여기서, 플랫(flat) 타입의 글라스 광학 부재 내부에 구비되는 전반사 미러(300a)는 레이저에 의해 플랫(flat) 타입의 글라스 광학 부재 내부에 형성될 수 있다.The flat type glass optical member may receive image light generated by the optical device 200 from its flat side, be reflected by the total reflection mirror 300a provided therein, and be emitted toward the user. Here, the total reflection mirror 300a provided inside the flat type glass optical member may be formed inside the flat type glass optical member using a laser.
프리폼(freeform) 글라스 광학 부재는 입사되는 표면으로부터 멀어질수록 두께가 얇아지도록 구성되어, 광학 장치(200)에서 생성된 이미지 광을 곡면을 가지는 측면으로 입사 받아, 내부에서 전반사하여 사용자 쪽으로 출사할 수 있다.The freeform glass optical member is configured to become thinner as the distance from the incident surface increases, so that the image light generated by the optical device 200 is incident on the side having a curved surface, is totally reflected internally, and can be emitted toward the user. there is.
도 5에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 디스플레이부(300-2)에는 웨이브 가이드(waveguide, 또는 도파관) 방식의 광학 부재 또는 광 가이드 광학 부재(light guide optical element, LOE)가 이용될 수 있다.As shown in FIG. 5, the display unit 300-2 according to another embodiment of the present invention includes a waveguide (or waveguide) type optical member or a light guide optical element (LOE). It can be used.
이와 같은 웨이브 가이드(waveguide, 또는 도파관) 또는 광 가이드(light guide) 방식의 광학 부재는 실시예로, 도 5의 (a)에 도시된 바와 같은 부분 반사 미러(Segmented Beam splitter) 방식의 글라스 광학 부재, 도 5의 (b)에 도시된 바와 같은 톱니 프리즘 방식의 글라스 광학 부재, 도 5의 (c)에 도시된 바와 같은 회절 광학 부재(Diffractive optical element, DOE)를 갖는 글라스 광학 부재, 도 5의 (d)에 도시된 바와 같은 홀로그램 광학 부재(hologram optical element, HOE)를 갖는 글라스 광학 부재, 도 5의 (e)에 도시된 바와 같은 수동 격자(Passive grating)를 갖는 글라스 광학 부재, 도 5의 (f)에 도시된 바와 같은 능동 격자(Active grating)를 갖는 글라스 광학 부재가 있을 수 있다.An example of such a waveguide (or waveguide) or light guide type optical member is a partially reflective mirror (segmented beam splitter) type glass optical member as shown in (a) of FIG. 5 , a sawtooth prism glass optical member as shown in (b) of FIG. 5, a glass optical member having a diffractive optical element (DOE) as shown in (c) of FIG. 5, A glass optical element having a hologram optical element (HOE) as shown in (d), a glass optical element having a passive grating as shown in (e) of FIG. 5, FIG. 5 There may be a glass optical member with active grating as shown in (f).
도 5의 (a)에 도시된 바와 같은 부분 반사 미러(Segmented Beam splitter) 방식의 글라스 광학 부재는 도시된 바와 같이, 글라스 광학 부재 내부에서 광 이미지가 입사되는 쪽에 전반사 미러(301a)와 광 이미지가 출사되는 쪽에 부분 반사 미러(Segmented Beam splitter, 301b)가 구비될 수 있다.As shown in (a) of FIG. 5, the glass optical member of the segmented beam splitter type has a total reflection mirror 301a and a light image on the side where the light image is incident inside the glass optical member. A partial reflection mirror (segmented beam splitter, 301b) may be provided on the emitting side.
이에 따라, 광학 장치(200)에서 생성된 광 이미지는 글라스 광학 부재 내부의 전반사 미러(301a)에 전반사되고, 전반사된 광 이미지는 글라스의 길이 방향을 따라 도광하면서, 부분 반사 미러(301b)에 의해 부분적으로 분리 및 출사되어, 사용자의 시각에 인식될 수 있다.Accordingly, the light image generated by the optical device 200 is totally reflected by the total reflection mirror 301a inside the glass optical member, and the totally reflected light image guides light along the longitudinal direction of the glass and is reflected by the partial reflection mirror 301b. It can be partially separated and emitted and recognized by the user's perspective.
도 5의 (b)에 도시된 바와 같은 톱니 프리즘 방식의 글라스 광학 부재는 글라스의 측면에 사선 방향으로 광학 장치(200)의 이미지 광이 입사되어 글라스 내부로 전반사되면서 광 이미지가 출사되는 쪽에 구비된 톱니 형태의 요철(302)에 의해 글라스 외부로 출사되어 사용자의 시각에 인식될 수 있다.The sawtooth prism glass optical member as shown in (b) of FIG. 5 is provided on the side where the image light of the optical device 200 is incident on the side of the glass in a diagonal direction and is totally reflected inside the glass, and the light image is emitted. The irregularities 302 in the form of sawtooth are projected to the outside of the glass and can be recognized by the user's vision.
도 5의 (c)에 도시된 바와 같은 회절 광학 부재(Diffractive optical element, DOE)를 갖는 글라스 광학 부재는 광 이미지가 입사되는 쪽의 표면에 제1 회절부(303a)와 광 이미지가 출사되는 쪽의 표면에 제2 회절부(303b)가 구비될 수 있다. 이와 같은 제1, 2 회절부(303a, 303b)는 글라스의 표면에 특정 패턴이 패터닝되거나 별도의 회절 필름이 부착되는 형태로 구비될 수 있다.The glass optical member having a diffractive optical element (DOE) as shown in (c) of FIG. 5 has a first diffraction portion 303a on the surface of the side where the light image is incident and a side where the light image is emitted. A second diffraction portion 303b may be provided on the surface of . The first and second diffraction parts 303a and 303b may be provided by patterning a specific pattern on the surface of the glass or attaching a separate diffraction film.
이에 따라, 광학 장치(200)에서 생성된 광 이미지는 제1 회절부(303a)를 통하여 입사되면서 회절하고, 전반사되면서 글라스의 길이 방향을 따라 도광하고, 제2 회절부(303b)를 통하여 출사되어, 사용자의 시각에 인식될 수 있다.Accordingly, the light image generated by the optical device 200 is diffracted as it enters through the first diffraction unit 303a, is totally reflected, guides light along the longitudinal direction of the glass, and is emitted through the second diffraction unit 303b. , can be recognized by the user's perspective.
도 5의 (d)에 도시된 바와 같은 홀로그램 광학 부재(hologram optical element, HOE)를 갖는 글라스 광학 부재는 광 이미지가 출사되는 쪽의 글라스 내부에 아웃-커플러(out-coupler, 304)가 구비될 수 있다. 이에 따라, 글라스의 측면을 통해 사선 방향으로 광학 장치(200)로부터 광 이미지가 입사되어 전반사되면서 글라스의 길이 방향을 따라 도광하고, 아웃 커플러(304)에 의해 출사되어, 사용자의 시각에 인식될 수 있다. 이와 같은 홀로그램 광학 부재는 구조가 조금씩 변경되어 수동 격자를 갖는 구조와 능동 격자를 갖는 구조로 보다 세분될 수 있다.The glass optical member having a hologram optical element (HOE) as shown in (d) of FIG. 5 may be provided with an out-coupler (304) inside the glass on the side from which the optical image is emitted. You can. Accordingly, the light image is incident from the optical device 200 in the diagonal direction through the side of the glass, is totally reflected, guides the light along the longitudinal direction of the glass, and is emitted by the out coupler 304, so that it can be recognized by the user's vision. there is. The structure of such holographic optical members can be slightly changed and further divided into a structure with a passive grid and a structure with an active grid.
도 5의 (e)에 도시된 바와 같은 수동 격자(Passive grating)를 갖는 글라스 광학 부재는 광 이미지가 입사되는 쪽 글라스 표면의 반대쪽 표면에 인-커플러(in-coupler, 305a), 광 이미지가 출사되는 쪽 글라스 표면의 반대쪽 표면에 아웃-커플러(out-coupler, 305b)가 구비될 수 있다. 여기서, 인-커플러(305a)와 아웃-커플러(305b)는 수동 격자를 갖는 필름 형태로 구비될 수 있다.The glass optical member having a passive grating as shown in (e) of FIG. 5 has an in-coupler (305a) on the surface opposite to the glass surface on which the light image is incident, and the light image is emitted. An out-coupler (305b) may be provided on the surface opposite to the glass surface. Here, the in-coupler 305a and the out-coupler 305b may be provided in the form of a film having a passive grid.
이에 따라, 글라스의 입사되는 쪽 글라스 표면으로 입사되는 광 이미지는 반대쪽 표면에 구비된 인-커플러(305a)에 의해 전반사되면서 글라스의 길이 방향을 따라 도광하고, 아웃-커플러(305b)에 의해 글라스의 반대쪽 표면을 통하여 출사되어, 사용자의 시각에 인식될 수 있다.Accordingly, the light image incident on the glass surface on the incident side of the glass is totally reflected by the in-coupler 305a provided on the opposite surface, guides light along the longitudinal direction of the glass, and is guided along the length of the glass by the out-coupler 305b. It projects through the opposite surface and can be recognized by the user's vision.
도 5의 (f)에 도시된 바와 같은 능동 격자(Active grating)를 갖는 글라스 광학 부재는 광 이미지가 입사되는 쪽 글라스 내부에 능동 격자로 형성되는 인-커플러(in-coupler, 306a), 광 이미지가 출사되는 쪽 글라스 내부에 능동 격자로 형성되는 아웃-커플러(out-coupler, 306b)가 구비될 수 있다.The glass optical member having an active grating as shown in (f) of FIG. 5 is an in-coupler (306a) formed with an active grating inside the glass on the side where the light image is incident. An out-coupler (306b) formed as an active grid may be provided inside the glass on the side from which light is emitted.
이에 따라, 글라스로 입사되는 광 이미지는 인-커플러(306a)에 의해 전반사되면서 글라스의 길이 방향을 따라 도광하고, 아웃-커플러(306b)에 의해 글라스의 밖으로 출사되어, 사용자의 시각에 인식될 수 있다.Accordingly, the light image incident on the glass is totally reflected by the in-coupler 306a, guides light along the length direction of the glass, and is emitted out of the glass by the out-coupler 306b, so that it can be recognized by the user's vision. there is.
변형예에 따른 디스플레이부로는 핀 미러(Pin Mirror) 방식의 광학 부재가 이용될 수 있다.A pin mirror type optical member may be used as the display unit according to the modified example.
또한, 도 6의 (a)에 도시된 바와 같은 freeform combiner 방식의 표면 반사 방식의 광학 부재는 결합기로서의 역할을 수행하기 위해 광 이미지의 입사각이 서로 다른 복수의 플랫한 면이 하나의 글라스로 형성되어, 전체적으로 곡면을 가지도록 형성된 freeform combiner글라스가 이용될 수 있다. 이와 같은 freeform combiner글라스(300)는 광 이미지 입사각이 영역별로 다르게 입사되어 사용자에게 출사될 수 있다.In addition, the surface reflection type optical member of the freeform combiner type as shown in (a) of FIG. 6 has a plurality of flat surfaces with different incident angles of the optical image formed of one glass to perform the role of a combiner. , freeform combiner glass formed to have an overall curved surface can be used. Such freeform combiner glass 300 may emit an optical image to the user at different angles of incidence for each area.
도 6의 (b)에 도시된 바와 같은 Flat HOE 방식의 표면 반사 방식의 광학 부재는 플랫(flat)한 글라스의 표면에 홀로그램 광학 부재(HOE, 311)가 코팅되거나 패터닝되어 구비될 수 있으며, 광학 장치(200)에서 입사된 광 이미지가 홀로그램 광학 부재(311)를 통과하여 글라스의 표면에서 반사되어 다시 홀로그램 광학 부재(311)를 통과하여 사용자 쪽으로 출사될 수 있다.The Flat HOE surface reflection type optical member as shown in (b) of FIG. 6 may be provided by coating or patterning a holographic optical member (HOE, 311) on the surface of flat glass. The light image incident from the device 200 may pass through the holographic optical member 311, be reflected on the surface of the glass, and then pass through the holographic optical member 311 again and be emitted toward the user.
도 6의 (c)에 도시된 바와 같은 freeform HOE 방식의 표면 반사 방식의 광학 부재는 freeform 형태의 글라스의 표면에 홀로그램 광학 부재(HOE, 313)가 코팅되거나 패터닝되어 구비될 수 있으며, 동작 원리는 도 6의 (b)에서 설명한 바와 동일할 수 있다.The freeform HOE surface reflection type optical member as shown in (c) of FIG. 6 may be provided by coating or patterning a holographic optical member (HOE, 313) on the surface of freeform glass, and the operating principle is It may be the same as described in (b) of FIG. 6.
*160도 7은 실시예에 따른 전자 디바이스 및 광학 장치의 개념도이고, 도 8은 실시예에 따른 광학 장치의 개념도이고, 도 9은 실시예에 따른 광학 장치의 사시도이고, 도 10는 실시예에 따른 광학 장치의 분해 사시도이고, 도 11은 도 9에서 AA'로 절단하여 바라본 도면이고, 도 12은 도 11에서 K1부분의 확대도이고, 도 13는 도 11에서 K2부분의 확대도이다.*160 FIG. 7 is a conceptual diagram of an electronic device and an optical device according to an embodiment, FIG. 8 is a conceptual diagram of an optical device according to an embodiment, FIG. 9 is a perspective view of an optical device according to an embodiment, and FIG. 10 is a conceptual diagram of an optical device according to an embodiment. It is an exploded perspective view of the optical device, FIG. 11 is a view taken along line AA' in FIG. 9, FIG. 12 is an enlarged view of part K1 in FIG. 11, and FIG. 13 is an enlarged view of part K2 in FIG. 11.
먼저, 도 7을 참조하면, 실시예에 따른 전자 디바이스는 상술한 바와 같이 프레임(100), 광학 장치(200) 및 디스플레이부(300)를 포함할 수 있다.First, referring to FIG. 7 , an electronic device according to an embodiment may include a frame 100, an optical device 200, and a display unit 300 as described above.
그리고 광학 장치(200)는 프레임(100)에 배치될 수 있다. 그리고 광학 장치(200)는 디스플레이부(300)와 연결되어, 디스플레이부(300)로 영상 또는 이미지를 제공할 수 있다. 이러한 디스플레이부(300)는 프레임(100)에 연결된 투광 렌즈(예, 안경알)에 위치할 수 있다.And the optical device 200 may be placed on the frame 100. And the optical device 200 is connected to the display unit 300 and can provide an image or video to the display unit 300. This display unit 300 may be located on a light-transmitting lens (eg, eyeglasses) connected to the frame 100.
나아가, 광학 장치(200)는 후술하는 바와 같이, 배럴(210), 배럴 내에 배치되고 광원을 포함한 광원 장치(220), 광 신호를 영상 신호에 대한 신호로 변환하는 광 신호 생성부(230) 및 감지부(250)를 포함할 수 있다. 이에 대한 설명은 후술하는 내용이 동일하게 적용될 수 있다.Furthermore, as will be described later, the optical device 200 includes a barrel 210, a light source device 220 disposed within the barrel and including a light source, an optical signal generator 230 that converts the optical signal into a signal for an image signal, and It may include a detection unit 250. The explanation for this can be applied in the same way as described later.
특히, 실시예에 따른 광학 장치(200)에서 감지부(250)는 수광부(251)를 포함할 수 있다. 또한, 감지부(250)는 수광부(251)와 인접한 배리어부(252)와 수광부와 연결된 기판부(253)를 포함할 수 있다. 이 때, 광학 장치(200)에서 배럴(210)은 측면에 형성된 관통홀(210rs)을 포함할 수 있다.In particular, in the optical device 200 according to the embodiment, the sensing unit 250 may include a light receiving unit 251. Additionally, the sensing unit 250 may include a barrier unit 252 adjacent to the light receiving unit 251 and a substrate unit 253 connected to the light receiving unit. At this time, in the optical device 200, the barrel 210 may include a through hole 210rs formed on the side.
이 때, 감지부(250)는 관통홀(210rs)에 인접하게 배치될 수 있다. 이에, 관통홀(210rs)을 통해 배럴(210) 내에서 복수 개의 렌즈를 관통한 광이 외부로 출사될 수 있다. 예를 들어, 사용자(또는 착용자)가 전자 장치를 착용한 경우, 관통홀(210rs)을 통해 출사된 광이 착용자의 피부(skin)로 출사될 수 있다. 출사된 광(IL)은 착용자의 조직(tissue)을 투과하여 혈관(vessel)으로 이동할 수 있다. 이 때, 혈관(예, 동맥)을 지나는 혈액(예, 적혈구)의 양에 따라 광이 흡수되는 광의 양이 상이하다. 예컨대, 심장 박동(또는 맥박)의 주기 또는 주파수에 따라 혈관을 지나는 혈액의 양이 반복하여 증감할 수 있다. 예를 들어, 혈액의 양이 많으면 피부 내부로 투과된 광(예, 녹색 파장의 광)은 대부분 적혈구에 흡수되어 피부(skin) 외측으로 반사되는 광(RL)의 양이 상대적으로 줄어들 수 있다. 이에, 수광부(251)에서 수광된 광이 상대적으로 감소할 수 있다. 이와 달리, 혈액의 양이 적으면, 피부 내부로 투과된 광은 적혈구에 적게 흡수되어 피부 외측으로 반사되는 광의 양이 상대적으로 늘어날 수 있다. 이에, 수광부에서 수광된 광이 상대적으로 증가할 수 있다. 다시 말해, 혈액의 양이 많은 경우가 적은 경우에 대비하여 수광부에서 수광된 광이 적을 수 있다. 그리고 수광부(251)는 수광된 광을 전기 신호로 변환할 수 있으며, 변환된 전기 신호는 광학 장치의 제어부 또는 전자 디바이스의 제어부로 송신될 수 있다. 따라서 감지부(250)를 통해 착용자의 맥박을 감지할 수 있다. 이로써, 감지부(250)를 이용하여 전자 디바이스 또는 광학 장치는 사용자의 착용 여부를 감지할 수 있다.At this time, the sensing unit 250 may be disposed adjacent to the through hole 210rs. Accordingly, light passing through a plurality of lenses within the barrel 210 may be emitted to the outside through the through hole 210rs. For example, when a user (or wearer) wears an electronic device, light emitted through the through hole 210rs may be emitted onto the wearer's skin. The emitted light (IL) may penetrate the wearer's tissue and move to the blood vessel. At this time, the amount of light absorbed varies depending on the amount of blood (eg, red blood cells) passing through the blood vessel (eg, artery). For example, the amount of blood passing through blood vessels may repeatedly increase or decrease depending on the cycle or frequency of the heartbeat (or pulse). For example, if the amount of blood is large, most of the light (e.g., green wavelength light) transmitted into the skin is absorbed by red blood cells, and the amount of light (RL) reflected to the outside of the skin may be relatively reduced. Accordingly, the light received by the light receiving unit 251 may be relatively reduced. On the other hand, if the amount of blood is small, less light transmitted into the skin is absorbed by red blood cells, and the amount of light reflected outside the skin may relatively increase. Accordingly, the light received at the light receiving unit may relatively increase. In other words, in preparation for cases where the amount of blood is small, the light received by the light receiver may be small. And the light receiving unit 251 may convert the received light into an electrical signal, and the converted electrical signal may be transmitted to the control unit of the optical device or the control unit of the electronic device. Therefore, the wearer's pulse can be detected through the sensing unit 250. Accordingly, the electronic device or optical device can detect whether the user is wearing the device using the sensing unit 250.
배리어부(252)는 수광부(251)에 인접하게 배치되어, 관통홀(210rs)을 통과한 광이 수광부(251)로 직접 제공되는 것을 방지할 수 있다. 이에, 실시예에 따른 광학 장치 또는 전자 디바이스는 보다 정확한 감지를 수행할 수 있다. 예컨대, 광학 장치 또는 전자 디바이스는 맥박 또는 산소 포화도를 정확하게 감지할 수 있다. The barrier unit 252 is disposed adjacent to the light receiving unit 251 to prevent light passing through the through hole 210rs from being directly provided to the light receiving unit 251. Accordingly, the optical device or electronic device according to the embodiment can perform more accurate detection. For example, optical or electronic devices can accurately sense pulse or oxygen saturation.
그리고 기판부(253)는 배리어부(252)와 수광부(251)를 지지할 수 있다. 나아가, 기판부(253)는 수광부(251)와 전기적으로 연결되며, 광학 장치 또는 전자 디바이스의 제어부와 전기적으로 연결될 수 있다.And the substrate part 253 can support the barrier part 252 and the light receiving part 251. Furthermore, the substrate portion 253 is electrically connected to the light receiving portion 251 and may be electrically connected to a control portion of an optical device or electronic device.
도 8 내지 도 11을 더 참조하면, 실시예에 따른 광학 장치(200)는 배럴(210), 렌즈(L) 및 제1 광 가이드(LG1)를 포함한다. 나아가, 광학 장치(200)는 배럴(210)의 측면에 형성된 개구부(OP)에 위치 또는 결합하는 광원 장치(220)와 배럴(210)에 인접한 광 신호 생성부(230)를 포함할 수 있다. 나아가, 광학 장치(200)는 배럴(210), 광원 장치(220) 및 광 신호 생성부(230)를 감싸는 커버(CV), 기판(커넥터 포함, 미도시됨)을 더 포함할 수 있다.Referring further to FIGS. 8 to 11 , the optical device 200 according to the embodiment includes a barrel 210, a lens (L), and a first light guide (LG1). Furthermore, the optical device 200 may include a light source device 220 located at or coupled to an opening OP formed on a side of the barrel 210 and an optical signal generator 230 adjacent to the barrel 210. Furthermore, the optical device 200 may further include a cover (CV) surrounding the barrel 210, the light source device 220, and the optical signal generator 230, and a substrate (including a connector, not shown).
렌즈(L)는 복수 개일 수 있다. 예컨대, 렌즈(L)는 배럴(210)의 상부를 기준으로 순차로 배치된 복수 개의 렌즈를 포함할 수 있다. 예컨대, 렌즈(L)는 상부 첫번째 배치되는 제1 렌즈(L1), 제1 렌즈 후단에 배치되는 제2 렌즈(L2), 그리고 상부 마지막에 배치되는 제N 렌즈(Ln)를 포함할 수 있다. 여기서 N은 자연수로 2이상일 수 있다. 그리고 제N 렌즈(Ln)는 복수 개의 렌즈(L) 중 배럴(210)의 후단 또는 복수 개의 렌즈(L) 후단에 위치하는 광 신호 생성부(230)와 가장 인접하게 위치할 수 있다.There may be a plurality of lenses (L). For example, the lens L may include a plurality of lenses arranged sequentially based on the top of the barrel 210. For example, the lens L may include a first lens L1 disposed first at the top, a second lens L2 disposed behind the first lens, and an N-th lens Ln disposed last at the top. Here, N is a natural number and can be 2 or more. In addition, the N-th lens Ln may be located closest to the optical signal generator 230 located at the rear end of the barrel 210 or at the rear end of the plurality of lenses L among the plurality of lenses L.
또한, 본 발명에 따른 실시예에서 제1 방향(X축 방향)은 광축에 대응할 수 있다. 또한, 제1 방향(X축 방향)은 광원 장치(220)로부터 출사된 광이 광 신호 생성부(230)에서 반사되어 상술한 디스플레이부로 출사되는 방향에 대응할 수 있다. 그리고 제2 방향(Y축 방향)은 제1 방향(Y축 방향)에 수직한 방향이다. 나아가, 제2 방향(Y축 방향)은 제1 광 가이드(LG1)에서 개구부(OP)를 향한 방향에 대응할 수 있다. 또한, 이하 명세서 또는 본 실시예에서는 제2 방향(Y축 방향)이 제1 광 가이드(LG1)에서 제2 광 가이드(LG2)를 향한 방향에 대응할 수 있다. 제1 광 가이드(LG1)는 제1 광 가이드부, 제1 가이드 부재로 칭할 수 있다. 또한, 제2 광 가이드(LG2)는 제2 광 가이드부, 제2 가이드 부재로 칭할 수 있다.Additionally, in an embodiment according to the present invention, the first direction (X-axis direction) may correspond to the optical axis. Additionally, the first direction (X-axis direction) may correspond to the direction in which light emitted from the light source device 220 is reflected by the optical signal generator 230 and is emitted to the display unit described above. And the second direction (Y-axis direction) is a direction perpendicular to the first direction (Y-axis direction). Furthermore, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 toward the opening OP. Additionally, in the following specification or this embodiment, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 to the second light guide LG2. The first light guide LG1 may be referred to as a first light guide part or a first guide member. Additionally, the second light guide LG2 may be referred to as a second light guide part or a second guide member.
그리고 배럴(210)은 개구부(OP)에 대응한 홀을 더 포함할 수 있다. 실시예로, 배럴(210)은 배럴홀 또는 추가홀(210h)을 포함할 수 있다. 추가홀(210h)은 개구부(OP)와 마주보게 위치할 수 있다. 또는, 추가홀(210h)은 개구부(OP)와 제2 방향(Y축 방향)으로 중첩될 수 있다. 또는, 추가홀(210h)은 제N 렌즈(Ln)로부터 제1 방향으로 거리가 개구부(OP)와 제N 렌즈(Ln) 사이의 거리와 동일할 수 있다. 또는, 추가홀(210h)은 배럴(210)의 내측면에서 개구부(OP)의 위치에 대응하는 영역에 위치할 수 있다. 이러한 구성에 의하여, 추가홀(210h)을 통해 개구부(OP)에 결합된 또는 삽입된 또는 고정된 또는 연결된 광원 장치(220)에 용이하게 접합 부재를 도포할 수 있다. 이에, 배럴(210)과 광원 장치(220) 간의 결합력을 개선할 수 있다. 따라서 실시예에 따른 광학 장치(200)는 개선된 내구도, 내구성 또는 신뢰성을 가질 수 있다. 또는, 추가홀(210h)을 통해 개구부(OP)에 위치한 광원 장치(220)에 대한 광학 테스트도 용이하게 수행될 수 있다. 또는, 추가홀(210h)을 통해 배럴(210) 및 광원 장치(200)에 대한 유체(예, 에어(air))의 배출 또는 토출이 용이하게 수행될 수 있다. 이러한 추가홀(210h)의 존재 여부는 실시예에 따라 다양하게 적용될 수 있다. 예컨대, 추가홀(210h)은 상기한 바와 같이 배럴(210)의 측면에 배치될 수 있다. 또는 추가홀(210h)은 내구성 등을 고려하여 배럴(210)의 측면에 존재하지 않을 수 있다.And the barrel 210 may further include a hole corresponding to the opening OP. In an embodiment, the barrel 210 may include a barrel hole or an additional hole 210h. The additional hole 210h may be located facing the opening OP. Alternatively, the additional hole 210h may overlap the opening OP in the second direction (Y-axis direction). Alternatively, the distance of the additional hole 210h from the N-th lens Ln in the first direction may be equal to the distance between the opening OP and the N-th lens Ln. Alternatively, the additional hole 210h may be located in an area corresponding to the position of the opening OP on the inner surface of the barrel 210. With this configuration, the bonding member can be easily applied to the light source device 220 coupled to, inserted into, fixed to, or connected to the opening OP through the additional hole 210h. Accordingly, the coupling force between the barrel 210 and the light source device 220 can be improved. Accordingly, the optical device 200 according to the embodiment may have improved durability, durability, or reliability. Alternatively, optical tests on the light source device 220 located in the opening OP can also be easily performed through the additional hole 210h. Alternatively, fluid (eg, air) can be easily discharged or discharged to the barrel 210 and the light source device 200 through the additional hole 210h. The presence or absence of these additional holes 210h may be applied in various ways depending on the embodiment. For example, the additional hole 210h may be disposed on the side of the barrel 210 as described above. Alternatively, the additional hole 210h may not exist on the side of the barrel 210 in consideration of durability, etc.
그리고 배럴(210) 내에는 복수 개의 렌즈(L)가 위치할 수 있다. 또한, 배럴(210) 내에는 제1 광 가이드(LG1)가 위치할 수 있다. And a plurality of lenses (L) may be located within the barrel 210. Additionally, a first light guide LG1 may be located within the barrel 210.
그리고 실시예에 따른 배럴(210)은 측면에 형성되는 개구부(OP)를 포함할 수 있다. 개구부(OP)의 형상은 원형, 다각형 등 다양한 형상을 포함할 수 있다. 그리고 이러한 개구부(OP)는 제1 광 가이드(LG1)의 위치에 대응할 수 있다. And the barrel 210 according to the embodiment may include an opening OP formed on the side. The shape of the opening OP may include various shapes, such as circular or polygonal. And this opening OP may correspond to the position of the first light guide LG1.
실시예로, 개구부(OP)는 제1 광 가이드(LG1)와 광축의 수직한 방향으로 중첩될 수 있다. 이러한 구성에 의하여, 배럴(210)의 측부에 위치한 광원 장치(220)로부터 출사된 광이 제1 광 가이드(LG1)로 용이하게 입사될 수 있다.In an embodiment, the opening OP may overlap the first light guide LG1 in a direction perpendicular to the optical axis. With this configuration, light emitted from the light source device 220 located on the side of the barrel 210 can easily enter the first light guide LG1.
그리고 제1 광 가이드(LG1)는 복수 개의 렌즈 중 두 개의 렌즈 사이에 배치될 수 있다. 예컨대, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 제N 렌즈(Ln) 사이에 배치될 수 있다. 또한, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 광 신호 생성부(230) 사이에 위치할 수 있다. 또한, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 제2 렌즈(L2) 사이 또는 제2 렌즈(L2)와 제N 렌즈(Ln) 사이에 위치할 수 있다. 이러한 제1 광 가이드(LG1)의 다양한 위치에 대해서는 후술하는 바와 같이 다양한 실시예로 설명한다.And the first light guide LG1 may be disposed between two lenses among the plurality of lenses. For example, the first light guide LG1 may be disposed between the first lens L1 and the N-th lens Ln. Additionally, the first light guide LG1 may be located between the first lens L1 and the optical signal generator 230. Additionally, the first light guide LG1 may be located between the first lens L1 and the second lens L2 or between the second lens L2 and the N-th lens Ln. Various positions of the first light guide LG1 will be described through various embodiments as will be described later.
본 실시예에서, 제1 광 가이드(LG1)는 제2 렌즈(L2)와 제N 렌즈(Ln) 사이에 위치할 수 있다. 이에 따라, 제N 렌즈(Ln)는 제1 광 가이드(LG1)와 광 신호 생성부(230) 사이에 위치할 수 있다. 이러한 구성에 의하여, 제1 광 가이드(LG1)에서 반사된 광이 광 신호 생성부(230)로 제공됨에 있어서, 적절한 광 경로가 확보될 수 있다. 또한, 반사된 광에 대한 굴절이 이루어질 수 있다. 이로써, 제1 광 가이드(LG1)의 소형화가 이루어질 수 있다.In this embodiment, the first light guide LG1 may be located between the second lens L2 and the N-th lens Ln. Accordingly, the N-th lens (Ln) may be located between the first light guide (LG1) and the optical signal generator 230. With this configuration, an appropriate optical path can be secured when the light reflected from the first light guide LG1 is provided to the optical signal generator 230. Additionally, refraction of the reflected light may occur. As a result, the first light guide LG1 can be miniaturized.
제1 광 가이드(LG1)는 제1 프리즘을 포함할 수 있다. 제1 프리즘은 편광 프리즘일 수 있다. 또한, 제1 프리즘은 편광 분리 프리즘일 수 있다. The first light guide LG1 may include a first prism. The first prism may be a polarizing prism. Additionally, the first prism may be a polarization separation prism.
제1 프리즘은 제1 편광을 반사하고, 제2 편광을 투과할 수 있다. 예컨대, 광원 장치(220)로부터 제공된 또는 제1 광 가이드(LG1)로 입사된 광의 일부(제1 편광)가 제1 광 가이드(LG1)에서 반사되어 광 신호 생성부(230)로 제공될 수 있다. 그리고 제1 광 가이드(LG1)로 입사된 광의 다른 일부(제2 편광)이 제1 광 가이드(LG1)를 투과하여 배럴(210)에서 흡수될 수 있다.The first prism may reflect the first polarized light and transmit the second polarized light. For example, a portion of the light (first polarized light) provided from the light source device 220 or incident on the first light guide LG1 may be reflected from the first light guide LG1 and provided to the optical signal generator 230. . Additionally, another part of the light (second polarized light) incident on the first light guide LG1 may pass through the first light guide LG1 and be absorbed in the barrel 210 .
그리고 개구부(OP)를 통해 광원 장치(220)에서 출사된 광이 제1 광 가이드(LG1)로 입사될 수 있다. 이를 위해, 상술한 바와 같이 개구부(OP)는 제1 광 가이드(LG1)가 위치한 영역에 배치될 수 있다. 예컨대, 제1 광 가이드(LG1)의 입사면은 개구부(OP)와 마주하게 위치할 수 있다. 또는, 배럴(210)에서 제1 광 가이드(LG1)의 위치는 제1 광 가이드(LG1)와 동일할 수 있다. Additionally, light emitted from the light source device 220 may be incident on the first light guide LG1 through the opening OP. To this end, as described above, the opening OP may be disposed in the area where the first light guide LG1 is located. For example, the incident surface of the first light guide LG1 may be positioned to face the opening OP. Alternatively, the position of the first light guide LG1 in the barrel 210 may be the same as the first light guide LG1.
광원 장치(220)는 광원(223)을 포함하여 광을 생성(발생, 제공) 또는 출사할 수 있다. 실시예에 따른 광원 장치(220)는 개구부(OP)에 위치 또는 결합될 수 있다. 즉, 광원 장치(220)는 배럴(210)과 연결 또는 결합될 수 있다.The light source device 220 may include a light source 223 and generate (generate, provide) or emit light. The light source device 220 according to the embodiment may be located or coupled to the opening OP. That is, the light source device 220 may be connected or combined with the barrel 210.
광원 장치(220)는 개구(222h)를 포함한 하우징(222), 하우징(2220) 내에 배치되는 제2 광 가이드(LG2), 및 제2 광 가이드(LG2)로 광을 제공하는 광원(223)을 포함할 수 있다.The light source device 220 includes a housing 222 including an opening 222h, a second light guide LG2 disposed within the housing 2220, and a light source 223 that provides light to the second light guide LG2. It can be included.
나아가, 광원 장치(220)는 광원 장치(220)에서 외측에 배치되고 하우징(222)을 감싸는 광원 어셈블리(221), 광원(223)에 인접한 광원 렌즈(224), 및 하우징(222) 내에 위치한 중간렌즈(MO)를 포함할 수 있다.Furthermore, the light source device 220 includes a light source assembly 221 disposed outside the light source device 220 and surrounding the housing 222, a light source lens 224 adjacent to the light source 223, and an intermediate member located within the housing 222. It may include a lens (MO).
광원 어셈블리(221)는 광원 장치(220)에서 최외측에 배치될 수 있다. 하우징(222) 내에 광원(223)의 실장이 어렵거나 추가 렌즈(광원 렌즈)의 실장이 필요한 경우, 광원 어셈블리(221)가 하우징(222) 외측에 위치할 수 있다. 광원 어셈블리(221)는 하우징(222)과 일체 또는 분리된 구조일 수 있다.The light source assembly 221 may be disposed on the outermost side of the light source device 220 . When mounting the light source 223 within the housing 222 is difficult or when mounting an additional lens (light source lens) is required, the light source assembly 221 may be located outside the housing 222. The light source assembly 221 may be integrated with the housing 222 or may be separate from the housing 222 .
하우징(222)은 개구(222h)를 포함할 수 있다. 하우징(222)은 배럴(210)의 개구부(OP)에 인접하게 위치할 수 있다. 예컨대, 하우징(222)의 개구(222h)는 배럴(210)의 개구부(OP)에 대응하여 위치할 수 있다. 이에, 하우징(222)의 개구(222h)는 배럴(210)의 개구부(OP)와 제2 방향(Y축 방향)으로 중첩될 수 있다. Housing 222 may include an opening 222h. The housing 222 may be located adjacent to the opening OP of the barrel 210. For example, the opening 222h of the housing 222 may be located corresponding to the opening OP of the barrel 210. Accordingly, the opening 222h of the housing 222 may overlap the opening OP of the barrel 210 in the second direction (Y-axis direction).
광원(223)은 하우징(222) 또는 광원 어셈블리(221) 내에 위치할 수 있다. 광원(223)은 광을 출사할 수 있다. 예컨대, 광원(223)으로부터 출사된 광은 하우징(222) 내의 제2 광 가이드(LG2)로 입사될 수 있다. 하우징(222) 내에는 제2 광 가이드(LG2)가 위치할 수 있다. 이에, 제2 광 가이드(LG2)는 광원(223)으로부터 출사된 광을 개구(222h) 또는 제1 광 가이드(LG1)로 전달할 수 있다. Light source 223 may be located within housing 222 or light source assembly 221. The light source 223 may emit light. For example, light emitted from the light source 223 may be incident on the second light guide LG2 within the housing 222. A second light guide LG2 may be located within the housing 222. Accordingly, the second light guide LG2 may transmit the light emitted from the light source 223 to the opening 222h or the first light guide LG1.
그리고 광원(223)은 하나 이상일 수 있다. 즉, 광원 장치(220)에서 광원(223)은 단일 또는 복수 개일 수 있다. 예컨대, 광원(223)은 복수 개로, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c)을 포함할 수 있다. 제1 광원(223a) 내지 제3 광원(223c)은 동일한 방향 또는 서로 다른 방향으로 광을 출사 할 수 있다. 예컨대, 제1 광원(223a)과 제3 광원(223c)은 마주보게 위치할 수 있다. 제1 광원(223a)과 제3 광원(223c)은 제1 방향(X축 방향)으로 중첩되게 위치할 수 있다. 그리고 제1 광원(223a)과 제3 광원(223c) 사이에는 제2 광 가이드(LG2)가 위치할 수 있다. 이에, 제2 광 가이드(LG2)는 제1 광원(223a)과 제3 광원(223c)과 중첩될 수 있다. 그리고 제2 광원(223b)은 제1 광원(223a)과 제3 광원(223c) 사이에 위치할 수 있다. 제1 광원(223a) 내지 제3 광원(223c)은 제2 광 가이드(LG2)를 향해 광을 출사할 수 있다. 그리고 제2 광원(223b)은 제2 광 가이드(LG2)와 제2 방향으로 중첩될 수 있다. 이러한 구성에 의하여, 광학 장치(200)는 컴팩트한 광원 장치(220)를 가질 수 있다.And there may be more than one light source 223. That is, in the light source device 220, there may be a single light source 223 or a plurality of light sources 223. For example, the light source 223 may be plural and include a first light source 223a, a second light source 223b, and a third light source 223c. The first light source 223a to the third light source 223c may emit light in the same direction or in different directions. For example, the first light source 223a and the third light source 223c may be positioned to face each other. The first light source 223a and the third light source 223c may be positioned to overlap in the first direction (X-axis direction). And a second light guide LG2 may be located between the first light source 223a and the third light source 223c. Accordingly, the second light guide LG2 may overlap the first light source 223a and the third light source 223c. And the second light source 223b may be located between the first light source 223a and the third light source 223c. The first light source 223a to the third light source 223c may emit light toward the second light guide LG2. And the second light source 223b may overlap the second light guide LG2 in the second direction. With this configuration, the optical device 200 can have a compact light source device 220.
또한, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각은 서로 일부 동일 또는 상이한 파장 또는 색의 광을 출사할 수 있다. 예컨대, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각은 적색, 녹색, 청색의 광을 출사할 수 있다.Additionally, the first light source 223a, the second light source 223b, and the third light source 223c may each emit light of the same or different wavelengths or colors. For example, the first light source 223a, the second light source 223b, and the third light source 223c may each emit red, green, and blue light.
제2 광 가이드(LG2)는 제2 프리즘을 포함할 수 있다. 제2 프리즘은 반사 부재로, 예컨대 X 프리즘(x-prism)을 포함할 수 있다. 실시예로, 제2 광 가이드(LG2) 또는 제2 프리즘은 적어도 2개 이상의 프리즘이 결합된 구조일 수 있다. The second light guide LG2 may include a second prism. The second prism is a reflective member and may include, for example, an X prism (x-prism). In an embodiment, the second light guide LG2 or the second prism may have a structure in which at least two or more prisms are combined.
그리고 제2 프리즘은 적어도 2개 이상의 코팅면(반사부재 또는 반사시트)을 포함할 수 있다. 이러한 적어도 2개 이상의 코팅면 중 하나는 제1 파장의 빛과 제2 파장의 빛을 반사하고, 제3 파장의 빛을 투과할 수 있다. 즉, 코팅면은 소정의 파장 대역의 광을 반사할 수 있다. 이에, 복수 개의 광원(223)으로부터 출사된 광 각각에 대해 원하는 파장 대역의 광들이 각각 제2 광 가이드(LG2)에서 반사될 수 있다. 예컨대, 제2 광 가이드(LG2)를 통과한 광은 제1 광 가이드(LG1) 또는 중간렌즈(MO)로 제공될 수 있다.And the second prism may include at least two or more coated surfaces (reflecting members or reflective sheets). One of these at least two coating surfaces may reflect light of the first wavelength and light of the second wavelength, and may transmit light of the third wavelength. That is, the coated surface can reflect light in a predetermined wavelength band. Accordingly, for each light emitted from the plurality of light sources 223, lights in a desired wavelength band may be reflected from the second light guide LG2. For example, light passing through the second light guide (LG2) may be provided to the first light guide (LG1) or the intermediate lens (MO).
광원 렌즈(224)는 광원(223)에 인접하게 위치할 수 있다. 예컨대, 광원 렌즈(224)는 복수 개일 수 있다. 광원 렌즈(224)는 각 광원(223)에서 출사된 광의 경로 상에 위치할 수 있다. The light source lens 224 may be located adjacent to the light source 223. For example, there may be a plurality of light source lenses 224. The light source lens 224 may be located on the path of light emitted from each light source 223.
실시예로, 광원 렌즈(224)는 제2 광 가이드(LG2)와 광원(223) 사이에 위치할 수 있다. 또한, 광원 렌즈(224)는 복수 개일 수 있다. 광원 렌즈(224)는 제2 광 가이드(LG2)와 광원(223) 사이에서 복수 개로 위치할 수 있다. 또는, 광원 렌즈(224)는 복수 개의 광원(223)에 각각에 대응하여 복수 개일 수 있다.In an embodiment, the light source lens 224 may be located between the second light guide LG2 and the light source 223. Additionally, there may be a plurality of light source lenses 224. A plurality of light source lenses 224 may be positioned between the second light guide LG2 and the light source 223. Alternatively, there may be a plurality of light source lenses 224 corresponding to each of the plurality of light sources 223 .
예컨대, 광원 렌즈(224)는 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c)를 포함할 수 있다. 제1 광원 렌즈(224a)는 제1 광원(223a)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. 제2 광원 렌즈(224b)는 제2 광원(223b)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. 제3 광원 렌즈(224c)는 제3 광원(223c)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. For example, the light source lens 224 may include a first light source lens 224a, a second light source lens 224b, and a third light source lens 224c. The first light source lens 224a may be located between the first light source 223a and the second light guide LG2. The second light source lens 224b may be located between the second light source 223b and the second light guide LG2. The third light source lens 224c may be located between the third light source 223c and the second light guide LG2.
또한, 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c) 각각은 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각 상에 복수 개로 위치할 수 있다. 예컨대, 복수 개의 제1 광원 렌즈(224a) 중 어느 하나는 제1 광원(223a) 상에 위치하며 광원 어셈블리(221)와 결합할 수 있다. 그리고 복수 개의 제1 광원 렌즈(224a) 중 다른 하나는 상기 어느 하나와 제2 광 가이드(LG2) 사이에 위치하며, 하우징(222)과 결합할 수 있다.In addition, the first light source lens 224a, the second light source lens 224b, and the third light source lens 224c are each on the first light source 223a, the second light source 223b, and the third light source 223c. There may be multiple locations. For example, one of the plurality of first light source lenses 224a may be located on the first light source 223a and combined with the light source assembly 221. Another one of the plurality of first light source lenses 224a is located between one of the first light source lenses 224a and the second light guide LG2, and can be combined with the housing 222.
그리고 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c)는 시준렌즈 또는 콜리메이터(collimator)를 포함할 수 있다.And the first light source lens 224a, the second light source lens 224b, and the third light source lens 224c may include a collimator lens or a collimator.
또한, 광원 어셈블리(221)에는 광원(223)과 연결된 기판(225)이 배치될 수 있다. 기판(225)은 광원(223)에 대응하여 적어도 하나일 수 있다. 예컨대, 복수 개의 기판(225)은 제1 기판(225a), 제2 기판(225b) 및 제3 기판(225c)을 포함할 수 있다. 상술한 바와 같이, 복수 개의 기판(225)은 일체로 하나의 기판이거나, 광원의 개수에 대응하여 복수 개일 수 있다.Additionally, a substrate 225 connected to the light source 223 may be disposed in the light source assembly 221. There may be at least one substrate 225 corresponding to the light source 223 . For example, the plurality of substrates 225 may include a first substrate 225a, a second substrate 225b, and a third substrate 225c. As described above, the plurality of substrates 225 may be one substrate or may be plural in number corresponding to the number of light sources.
또한, 기판(225)은 상술한 프레임(또는 디스플레이부) 내의 제어부 또는 프로세서와 전기적으로 연결될 수 있다. 이에, 기판(225)은 외부 장치 또는 연결된 장치와 통신을 위한 커넥터를 포함할 수 있다. 나아가, 기판(225)은 광원(223) 외측에 배치되어 광원에서 발생하는 열을 외부로 배출할 수 있다. 이에, 광원 장치(220)의 신뢰성을 개선할 수 있다.Additionally, the substrate 225 may be electrically connected to a control unit or processor within the frame (or display unit) described above. Accordingly, the board 225 may include a connector for communication with an external device or a connected device. Furthermore, the substrate 225 is disposed outside the light source 223 to discharge heat generated from the light source to the outside. Accordingly, the reliability of the light source device 220 can be improved.
중간렌즈(MO)는 개구(222h)와 제2 광 가이드(LG2) 사이에 위치할 수 있다. 또한, 중간렌즈(MO)는 제1 광 가이드(LG1)와 제2 광 가이드(LG2) 사이에 위치할 수 있다. The intermediate lens (MO) may be located between the aperture (222h) and the second light guide (LG2). Additionally, the intermediate lens (MO) may be located between the first light guide (LG1) and the second light guide (LG2).
중간렌즈(MO)는 복수 개의 렌즈를 포함할 수 있다. 예컨대, 제1 중간렌즈(MO1) 및 제2 중간렌즈(MO2)를 포함할 수 있다. 다만, 후술하는 바와 같이, 중간렌즈(MO) 없이 제2 광 가이드(LG2)에서 반사된 광이 제1 광 가이드(LG1)로 직접 제공될 수도 있다.The intermediate lens (MO) may include a plurality of lenses. For example, it may include a first intermediate lens (MO1) and a second intermediate lens (MO2). However, as will be described later, the light reflected from the second light guide LG2 may be directly provided to the first light guide LG1 without the intermediate lens MO.
제1 중간렌즈(MO1)는 제1 광 가이드(LG1)와 인접한 제1 면(MO1s1) 및 제1 면(MO1s1)에 대응하는 제2 면(MO1s2)을 포함할 수 있다. 광원(223)으로부터 출사된 광이 제2 광 가이드(LG2)를 지나 제2 면(MO1s2)과 제2 면(MO1s1)을 순차로 지나갈 수 있다.The first intermediate lens MO1 may include a first surface MO1s1 adjacent to the first light guide LG1 and a second surface MO1s2 corresponding to the first surface MO1s1. Light emitted from the light source 223 may pass through the second light guide LG2 and sequentially pass through the second surface MO1s2 and the second surface MO1s1.
제2 면(MO1s2)은 제2 광 가이드(LG2)를 향해 볼록할 수 있다. 또는, 제2 면(MO1s2)은 제1 광 가이드(LG1)를 향해 오목할 수 있다. 나아가, 제1 면(MO1s1)은 제2 광 가이드(Lg2)를 향해 볼록 또는 오목할 수 있다. 예컨대, 제1 중간렌즈(MO1)는 메니스커스 형상일 수 있다. 이와 같이 제2 면(MO1s2)이 제2 광 가이드(LG2)를 향해 볼록하여, 광이 중간렌즈(MO)를 통과하면서 집중될 수 있다. 이에 따라, 광 신호 생성부(230)로 제공되는 광의 균일성 또는 유니포미티(uniformity)가 향상될 수 있다. 다시 말해, 광 신호 생성부(230)에 입사되는 광은 면광일 수 있다. 그리고 면광의 균일성이 향상될 수 있다. 이에 따라, 실시예에 따른 광학 장치(200)를 통해 디스플레이부로 출사되는 영상 신호 또는 영상의 정확도 또는 해상도가 개선될 수 있다.The second surface MO1s2 may be convex toward the second light guide LG2. Alternatively, the second surface MO1s2 may be concave toward the first light guide LG1. Furthermore, the first surface MO1s1 may be convex or concave toward the second light guide Lg2. For example, the first intermediate lens MO1 may have a meniscus shape. In this way, the second surface MO1s2 is convex toward the second light guide LG2, so that light can be concentrated while passing through the intermediate lens MO. Accordingly, the uniformity or uniformity of light provided to the optical signal generator 230 may be improved. In other words, the light incident on the optical signal generator 230 may be surface light. And the uniformity of surface light can be improved. Accordingly, the accuracy or resolution of the image signal or image emitted to the display unit through the optical device 200 according to the embodiment may be improved.
제2 중간렌즈(MO2)는 마이크로 렌즈 어레이(MLA)를 포함할 수 있다. 이에, 제2 광 가이드(LG2)를 통과한 광에 대한 면광화가 일부 수행될 수 있다.The second intermediate lens (MO2) may include a micro lens array (MLA). Accordingly, surface illumination may be partially performed on the light passing through the second light guide LG2.
나아가, 제2 중간렌즈(MO2)는 제2 광 가이드(LG2)와 크기가 상이할 수 있다. 또한, 제1 중간렌즈(MO1)는 제2 광 가이드(LG2)와 크기가 상이할 수 있다. 예컨대, 중간렌즈(MO2)는 제2 광 가이드(LG2) 대비 크기가 클 수 있다.Furthermore, the second intermediate lens MO2 may have a different size from the second light guide LG2. Additionally, the first intermediate lens MO1 may have a different size from the second light guide LG2. For example, the intermediate lens (MO2) may be larger in size compared to the second light guide (LG2).
나아가, 복수 개의 렌즈(L), 중간렌즈(MO), 광원 렌즈(224)는 스페이서(SP)에 의해 위치가 유지될 수 있다. 예컨대, 배럴(210) 내에는 복수 개의 렌즈(L)에 인접한 복수 개의 스페이서(SP)가 존재할 수 있다. 또한, 광원 장치(220)의 하우징(222) 또는 광원 어셈블리(221)에는 중간렌즈(MO), 광원 렌즈(224)에 인접한 복수 개의 스페이서(SP)가 배치될 수 있다. 실시예로, 복수 개의 스페이서(SP)는 상술한 렌즈의 상부 또는 하부 측에 배치되어 렌즈의 위치를 고정 또는 유지할 수 있다.Furthermore, the positions of the plurality of lenses L, the intermediate lens MO, and the light source lens 224 may be maintained by the spacer SP. For example, a plurality of spacers (SP) adjacent to a plurality of lenses (L) may exist in the barrel 210. Additionally, an intermediate lens (MO) and a plurality of spacers (SP) adjacent to the light source lens 224 may be disposed in the housing 222 or the light source assembly 221 of the light source device 220. In an embodiment, a plurality of spacers SP may be disposed on the upper or lower side of the above-described lens to fix or maintain the position of the lens.
광 신호 생성부(230)는 배럴(210)의 후단에 위치할 수 있다. 광 신호 생성부(230)는 렌즈(L)와 광축 또는 제1 방향(X축 방향)으로 중첩될 수 있다.The optical signal generator 230 may be located at the rear end of the barrel 210. The optical signal generator 230 may overlap the lens L in the optical axis or the first direction (X-axis direction).
광 신호 생성부(230)는 제1 광 가이드(LG1)로 입사하여 반사된 후 제N 렌즈를 통과한 광을 영상 정보를 포함하는 광 신호로 바꿀 수 있다.The optical signal generator 230 may convert the light incident on the first light guide LG1, reflected, and then passing through the N-th lens into an optical signal containing image information.
광 신호 생성부(230)는 제1 광 가이드(LG1)에서 반사된 광(제1 편광)을 반사할 수 있다. 광 신호 생성부(230)는 영상 정보를 포함한 광 신호를 생성할 수 있다. 즉, 광 신호 생성부(230)에서 반사된 광은 영상 정보를 포함한 광일 수 있다.The optical signal generator 230 may reflect light (first polarized light) reflected from the first light guide LG1. The optical signal generator 230 may generate an optical signal including image information. That is, the light reflected from the optical signal generator 230 may be light containing image information.
광 신호 생성부(230)는 실리콘 액정 표시 장치(Liquid Crystal on Silicon, LCoS)을 포함할 수 있다. The optical signal generator 230 may include a liquid crystal on silicon (LCoS) device.
실리콘 액정 표시 장치는 CMOS(Complementary Metal-Oxide Semiconductor; 상보형 금속 산화막 반도체) 어레이를 가지는 실리콘 웨이퍼(Wafer; 반도체의 재료가 되는 얇은 원판)와 투명 전극(Indium Tin Oxide, ITO)으로 코팅된 반사 방지 부재(Anti Reflection, AR) 사이에 액정을 넣은 구조일 수 있다.A silicon liquid crystal display device consists of a silicon wafer (a thin disk used as a semiconductor material) with a CMOS (Complementary Metal-Oxide Semiconductor) array and an anti-reflection coating coated with a transparent electrode (Indium Tin Oxide, ITO). It may be a structure where liquid crystal is placed between members (anti-reflection, AR).
그리고 웨이퍼(실리콘 웨이퍼) 상에는 얼라인먼트 레이어(Alignment layer)가 형성되어 초기 액정 배향을 형성할 수 있다.And, an alignment layer is formed on the wafer (silicon wafer) to form initial liquid crystal alignment.
나아가, 얼라인먼트 레이어 하부에 알루미늄층으로 형성되며 높은 광학적 반사율을 갖는 반사층 또는 반사전극이 위치할 수 있다. 반사전극은 실리콘 웨이퍼 상에 위치할 수 있다. 그리고 실리콘 웨이퍼에는 반도체 어레이(CMOS array)가 형성될 수 있다. 그리고 이러한 반도체 어레이로 패널을 통한 데이터 신호의 전송이 이루 Furthermore, a reflective layer or reflective electrode formed of an aluminum layer and having a high optical reflectance may be located below the alignment layer. The reflective electrode may be located on a silicon wafer. And a semiconductor array (CMOS array) can be formed on the silicon wafer. And with this semiconductor array, the transmission of data signals through the panel is achieved.
이러한 광 신호 생성부(230)는 구동에 따라 입사되는 광의 적어도 일부를 반사할 수 있다. 그리고 광 신호 생성부(230)는 면 광원으로 입사된 광을 픽셀 별로 반사할 수 있다. 또한, 반사된 광의 세기도 변조 정도에 따라 조절될 수 있다. 예컨대, 광 신호 생성부(230)는 제1 편광을 제2 편광으로 일부 변조할 수 있다. 이에, 제2 편광으로 변조된 광은 제1 광 가이드(LG1), 제1 렌즈(L1)를 지나 디스플레이부로 제공될 수 있다. The optical signal generator 230 may reflect at least a portion of the incident light as it is driven. Additionally, the optical signal generator 230 may reflect light incident on the surface light source for each pixel. Additionally, the intensity of reflected light can also be adjusted depending on the degree of modulation. For example, the optical signal generator 230 may partially modulate the first polarized light into the second polarized light. Accordingly, the light modulated by the second polarization may pass through the first light guide LG1 and the first lens L1 and be provided to the display unit.
즉, 광 신호 생성부(230)는 변조된 광 즉, 편광(Polarized Light)에 대한 지연(Retardation)을 변조시킬 수 있다. 광 신호 생성부(230)는 다양한 방식으로 제1 편광에 대한 지연을 수행할 수 있다. 즉, 각 픽셀에 위한 전압(전극의 전압 조절)을 조절하여 전계를 형성할 수 있다. 그리고 조절된 전압에 따라 액정에 대한 꼬인 정도도 조절될 수 있다. 예컨대, 최대 전압 시, 광 신호 생성부(230)에서 반사된 광은 제1 광 가이드(LG1)에서 모두 반사될 수 있다. 그리고 최소 전압 시, 광 신호 생성부(230)에서 반사된 광은 제2 광 가이드(LG1)에서 모두 투과될 수 있다. 다만, 전계에 따라 반대로 동작할 수도 있다. 또한, 중간 정도의 전압을 적용하면, 일부 광이 제1 광 가이드(LG1)를 투과할 수 있다. 즉, 디스플레이부로 제공되는 광의 세기(예, 밝기)가 중간 정도일 수 있다. That is, the optical signal generator 230 can modulate the retardation of modulated light, that is, polarized light. The optical signal generator 230 may delay the first polarization in various ways. In other words, an electric field can be formed by adjusting the voltage for each pixel (adjusting the voltage of the electrode). And the degree of twist in the liquid crystal can be adjusted according to the adjusted voltage. For example, at the maximum voltage, all of the light reflected from the optical signal generator 230 may be reflected from the first light guide LG1. And at the minimum voltage, all of the light reflected from the optical signal generator 230 may be transmitted through the second light guide LG1. However, it may operate in the opposite direction depending on the electric field. Additionally, when a moderate voltage is applied, some light may pass through the first light guide LG1. That is, the intensity (eg, brightness) of light provided to the display unit may be medium.
이처럼, 광 신호 생성부(230)에서 생성된 광 신호는 제N 렌즈(Ln) 및 제1 광 가이드(LG1)를 통해 제1 렌즈(L1)로 전달될 수 있다. 나아가, 광 신호 생성부(230)에서 생성된 광 신호는 적어도 일부가 제1 렌즈(L1)를 통과하여 디스플레이부로 입사할 수 있다.In this way, the optical signal generated by the optical signal generator 230 may be transmitted to the first lens L1 through the N-th lens Ln and the first light guide LG1. Furthermore, at least a portion of the optical signal generated by the optical signal generator 230 may pass through the first lens L1 and enter the display unit.
추가로, 광 신호 생성부(230)와 제N 렌즈(Ln)(또는 제1 광 가이드) 사이에는 투명 부재(240)가 더 배치될 수 있다. 투명 부재(240)는 글라스(glass)일 수 있다. 투명 부재(240)는 배럴(210) 또는 커버(CV)와 결합할 수 있다. 나아가, 투명 부재(240)는 광 신호 생성부(230) 상에 위치할 수 있다. 이에, 광 신호 생성부(230)에 대한 이물 유입이 용이하게 차단될 수 있다. 그리고 투명 부재(240)는 광 신호 생성부(230)와 크기가 동일 또는 상이할 수 있다. 나아가, 투명 부재(240)는 광 신호 생성부(230)의 적어도 일부와 광축 방향 또는 제1 방향(X축 방향)으로 중첩될 수 있다.Additionally, a transparent member 240 may be further disposed between the optical signal generator 230 and the N-th lens Ln (or first light guide). The transparent member 240 may be glass. The transparent member 240 may be combined with the barrel 210 or the cover (CV). Furthermore, the transparent member 240 may be located on the optical signal generator 230. Accordingly, the inflow of foreign substances into the optical signal generator 230 can be easily blocked. And the transparent member 240 may have the same or different size from the optical signal generator 230. Furthermore, the transparent member 240 may overlap at least a portion of the optical signal generator 230 in the optical axis direction or the first direction (X-axis direction).
또한, 배럴(210)의 관통홀(210rs)과 수광부(251) 사이에 배리어부(252)가 위치할 수 있다. 이러한 수광부(251)는 제1 광 가이드(LG1)와 광 신호 생성부(230) 사이에 위치한 영역(DA)에 위치할 수 있다. 예컨대, 영역(DA)은 제1 방향(1축 방향)으로 관통홀(210rs)과 광 신호 생성부(230) 사이의 영역일 수 있다. 또한, 관통홀(210rs)도 영역(DA) 내에 위치할 수 있다. 이러한 구성에 의하여, 광 신호가 영역(230)에 입사되기전에 발산된 광의 일부가 관통홀(210rs)을 통해 외부(예, 착용자의 피부)로 보다 효율적으로 출사될 수 있다. 즉, 관통홀(210rs)을 통과한 광의 양이 증가하여, 감지부(250)를 통한 센싱 정확도가 향상될 수 있다.Additionally, a barrier portion 252 may be located between the through hole 210rs of the barrel 210 and the light receiving portion 251. This light receiving unit 251 may be located in the area DA located between the first light guide LG1 and the optical signal generating unit 230. For example, the area DA may be an area between the through hole 210rs and the optical signal generator 230 in the first direction (uniaxial direction). Additionally, the through hole 210rs may also be located within the area DA. With this configuration, a portion of the light emitted before the optical signal is incident on the area 230 can be more efficiently emitted to the outside (eg, the wearer's skin) through the through hole 210rs. That is, the amount of light passing through the through hole 210rs increases, and the sensing accuracy through the sensing unit 250 can be improved.
그리고 수광부(251)는 배럴(210) 내에 위치할 수 있다. 예컨대, 수광부(251)는 배럴(210)의 외측면에 형성된 홈 내에 위치할 수 있다. 또한, 수광부(251)의 외측면은 배럴(210)의 외측면과 단차를 가질 수 있다. 예컨대, 수광부(251)는 배럴(210)의 외측면보다 외측으로 돌출될 수 있다. 이에, 수광부(251)가 사용자에 더욱 인접하게 배치될 수 있다. 따라서, 수광부(251)를 통한 센싱 정확도가 더욱 향상될 수 있다.And the light receiving unit 251 may be located within the barrel 210. For example, the light receiving unit 251 may be located in a groove formed on the outer surface of the barrel 210. Additionally, the outer surface of the light receiving unit 251 may have a level difference from the outer surface of the barrel 210. For example, the light receiving unit 251 may protrude outward from the outer surface of the barrel 210. Accordingly, the light receiving unit 251 can be placed closer to the user. Accordingly, sensing accuracy through the light receiving unit 251 can be further improved.
마찬가지로, 배리어부(252)는 배럴(210)의 외측면보다 외측으로 더 도출될 수 있다. 이로써, 배리어부(252)는 관통홀(210rs)을 통해 출사된 광이 수광부(251)로 직접 출사되는 현상이 방지될 수 있다. 즉, 노이즈가 줄어들 수 있다.Likewise, the barrier portion 252 may extend further outward than the outer surface of the barrel 210. As a result, the barrier unit 252 can prevent the light emitted through the through hole 210rs from being directly emitted to the light receiving unit 251. In other words, noise can be reduced.
나아가, 실시예에 따른 광학 장치에서 복수 개의 렌즈에서 광 신호 생성부(230)에 순차로 인접한 2 개의 렌즈인 제1 기준 렌즈(Ln)와 제2 기준 렌즈(Ln-1)가 위치할 수 있다. 제2 기준 렌즈는 도시되지 않았지만 제1 광 가이드(LG1)와 제1 기준 렌즈(Ln) 사이에 위치할 수 있다. 이 때, 제1 기준 렌즈(Ln)의 크기(d2)는 제2 기준 렌즈(Ln-1)의 크기(d1)보다 클 수 있다. 이 때, 관통홀(210rs)은 제1 기준 렌즈(Ln)와 제2 기준 렌즈(Ln-1) 사이에 위치할 수 있다. 이로써, 제1 기준 렌즈에서 제2 기준 렌즈를 향해 발산 광이 관통홀(210rs)을 통해 보다 용이하게 출사될 수 있다. 이에, 감지부의 정확도가 향상될 수 있다. 마찬가지로, 수광부(251)도 제1 기준 렌즈(Ln)와 제2 기준 렌즈(Ln-1) 사이에 위치할 수 있다.Furthermore, in the optical device according to the embodiment, the first reference lens (L n ) and the second reference lens (L n-1 ), which are two lenses sequentially adjacent to the optical signal generator 230, are located in the plurality of lenses. You can. Although not shown, the second reference lens may be located between the first light guide LG1 and the first reference lens L n . At this time, the size (d2) of the first reference lens (L n ) may be larger than the size (d1) of the second reference lens (L n-1 ). At this time, the through hole 210rs may be located between the first reference lens (L n ) and the second reference lens (L n-1 ). Accordingly, divergent light can be more easily emitted from the first reference lens toward the second reference lens through the through hole 210rs. Accordingly, the accuracy of the sensing unit can be improved. Likewise, the light receiving unit 251 may also be located between the first reference lens (Ln) and the second reference lens (Ln-1).
도 12를 더 살펴보면, 광원 장치(220)의 각 광원(223)으로부터 출사된 광(La, Lb, Lc)는 광원 렌즈(224), 제2 광 가이드(LG2) 및 중간렌즈(MO)를 통과할 수 있다. 예컨대, 제1 광원(223a) 내지 제3 광원(223b) 각각으로부터 출사된 제1 광(La), 제2 광(Lb) 및 제3 광(Lc)은 제2 광 가이드(LG2)에서 동일한 방향으로 출사될 수 있다.Looking further at FIG. 12, the light (La, Lb, Lc) emitted from each light source 223 of the light source device 220 passes through the light source lens 224, the second light guide LG2, and the intermediate lens (MO). can do. For example, the first light (La), the second light (Lb), and the third light (Lc) emitted from each of the first light source 223a to the third light source 223b are directed in the same direction in the second light guide LG2. can be released as
예컨대, 제2 광 가이드(LG2)는 제1 코팅면(LG2a)과 제2 코팅면(LG2b)을 포함할 수 있다. 상술한 바와 같이, 이러한 적어도 2개 이상의 코팅면 중 하나는 제1 파장의 광, 제2 파장의 광, 제3 파장의 광 중 일부를 반사할 수 있다. 예컨대, 제1 파장은 적색 광의 파장 대역을 포함한다. 제2 파장은 녹색 광의 파장 대역을 포함한다. 제3 파장은 청색 광의 파장 대역을 포함한다.For example, the second light guide LG2 may include a first coating surface (LG2a) and a second coating surface (LG2b). As described above, one of these at least two coating surfaces may reflect some of the first wavelength light, the second wavelength light, and the third wavelength light. For example, the first wavelength includes a wavelength band of red light. The second wavelength includes a wavelength band of green light. The third wavelength includes a wavelength band of blue light.
또한, 제1 코팅면(LG2a)은 제1 광(La) 또는 제1 파장의 광을 반사할 수 있다. 즉, 제1 코팅면(LG2a)은 제2 광(Lb)과 제3 광(Lc)을 투과할 수 있다. 다시 말해, 제1 코팅면(LG2a)은 제2 파장의 광 및 제3 파장의 광을 투과할 수 있다.Additionally, the first coating surface LG2a may reflect the first light La or light of the first wavelength. That is, the first coating surface LG2a can transmit the second light Lb and the third light Lc. In other words, the first coating surface LG2a can transmit light of the second wavelength and light of the third wavelength.
제2 코팅면(LG2b)은 제2 광(Lb) 또는 제2 파장의 광을 반사할 수 있다. 즉, 제2 코팅면(LG2b)은 제1 광(La)과 제3 광(Lc)을 투과할 수 있다. 다시 말해, 제2 코팅면(LG2b)은 제1 파장의 광 및 제3 파장의 광을 투과할 수 있다.The second coating surface LG2b may reflect the second light Lb or light of the second wavelength. That is, the second coating surface LG2b can transmit the first light La and the third light Lc. In other words, the second coating surface LG2b can transmit light of the first wavelength and light of the third wavelength.
이에, 제2 광 가이드(LG2)에서 제1 광(La)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다. 그리고 제2 광 가이드(LG2)에서 제2 광(Lb)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다. 또한, 제2 광 가이드(LG2)에서 제3 광(Lc)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다.Accordingly, the first light La may be reflected or incident on the intermediate lens MO or the opening OP in the second light guide LG2. And in the second light guide LG2, the second light Lb may be reflected or incident on the intermediate lens MO or the opening OP. Additionally, the third light Lc may be reflected or incident on the intermediate lens MO or the opening OP from the second light guide LG2.
이에, 광원(223)에서 출사된 광(IL 또는 (La, Lb, Lc))이 제1 광 가이드(LG)로 입사될 수 있다. 이 때, 제1 광 가이드(LG)로 입사되는 광은 제1 입사광(IL)일 수 있다.Accordingly, the light (IL or (La, Lb, Lc)) emitted from the light source 223 may be incident on the first light guide LG. At this time, the light incident on the first light guide LG may be the first incident light IL.
도 13를 더 살펴보면, 제1 입사광(IL)은 제1 광 가이드(LG1)에서 일부 반사되고 일부 투과될 수 있다. 즉, 제1 광 가이드(LG1)는 제1 입사광(IL)의 제1 편광(ILa)을 반사하고 제2 편광(ILb)을 투과할 수 있다. 예컨대, 제1 편광(ILa)과 제2 편광(ILb) 각각은 S/P 광 중 서로 다른 하나일 수 있다. 이에, 제1 입사광(IL)의 일부인 제1 편광(ILa)이 제N 렌즈(Ln)를 거쳐 광 신호 생성부(230)로 제공될 수 있다. 그리고 제2 편광(ILb)은 배럴(210)에 흡수되거나 추가홀(210h)로 제공될 수 있다.Looking further at FIG. 13 , the first incident light IL may be partially reflected and partially transmitted by the first light guide LG1. That is, the first light guide LG1 may reflect the first polarized light ILa of the first incident light IL and transmit the second polarized light ILb. For example, the first polarization (ILa) and the second polarization (ILb) may each be different types of S/P light. Accordingly, the first polarized light ILa, which is part of the first incident light IL, may be provided to the optical signal generator 230 through the N-th lens Ln. And the second polarized light (ILb) may be absorbed by the barrel 210 or provided through the additional hole 210h.
도 14는 실시예에 따른 광원 장치의 다른 예이다.14 is another example of a light source device according to an embodiment.
도 14를 참조하면, 광원 장치(220)에서 광원(223)은 상술한 바와 같이 적어도 하나일 수 있다. 즉, 광원(223)은 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c)을 포함할 수 있다. 나아가, 다른 예에서는 제2 광 가이드 대신에 복수 개의 미러(M1 내지 M3)가 존재한다. 즉, 광학 장치는 복수 개의 미러(M1 내지 M3)를 포함하고, 복수 개의 미러(M1 내지 M3) 각각을 이용하여 광을 배럴 내의 복수 개의 렌즈 또는 제1 광 가이드로 제공할 수 있다. 이외의 광원 장치는 다양한 구조로 이루어질 수 있다.Referring to FIG. 14, in the light source device 220, there may be at least one light source 223 as described above. That is, the light source 223 may include a first light source 223a, a second light source 223b, and a third light source 223c. Furthermore, in another example, a plurality of mirrors (M1 to M3) are present instead of the second light guide. That is, the optical device includes a plurality of mirrors (M1 to M3), and can provide light to a plurality of lenses or a first light guide in the barrel using each of the plurality of mirrors (M1 to M3). Other light source devices may have various structures.
도 15는 실시예에 따른 전자 디바이스 또는 광학 장치의 동작 방법의 순서도이고, 도 16은 광원, 광 신호 생성부 및 수광부의 동작을 설명하는 타이밍도이다.FIG. 15 is a flowchart of a method of operating an electronic device or optical device according to an embodiment, and FIG. 16 is a timing diagram explaining the operations of a light source, an optical signal generator, and a light receiver.
먼저, 수광부(251)는 광원으로부터 광이 출사되는 동안 구동할 수 있다. 다만, 후술하는 바와 같이 착용 여부 감지에 있어서, 수광부(251)는 광원으로부터 광이 출사되지 않는 시간 동안에도 구동할 수 있다. 또한, 후술하는 동작 방법은 광학 장치의 제어부(또는 컨트롤러)나, 전자 디바이스의 제어부(또는 컨트롤러)에 의해 실행될 수 있다. 즉, 후술하는 동작 방법의 각 단계에서 처리는 후술하는 내용을 제외하고 제어부에서 수행될 수 있다. 그리고 개시된 실시예에 따른 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 동작 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.First, the light receiving unit 251 can be driven while light is emitted from the light source. However, as will be described later, in detecting whether or not the device is worn, the light receiving unit 251 may be driven even during a time when light is not emitted from the light source. Additionally, the operation method described later may be executed by a control unit (or controller) of an optical device or a control unit (or controller) of an electronic device. That is, processing in each step of the operation method described later can be performed in the control unit except for the content described later. Additionally, the operating method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing an operation method are recorded.
도 15 및 도 16을 참조하면, 실시예에 따른 동작 방법은 광학 장치가 오프(off)되는 단계(S1010), 수광부가 동작하는 단계(S1020), 제1 수광 신호가 제1 설정값과 비교하는 단계(S1030), 광원 장치를 온(on)하는 단계(S1050), 수광부가 동작하는 단계(S1060), 제2 수광 신호가 제2 설정값과 비교하는 단계(S1070), 및 감지부를 구동하는 단계(S1080)를 포함한다.Referring to FIGS. 15 and 16, the operating method according to the embodiment includes turning the optical device off (S1010), operating the light receiving unit (S1020), and comparing the first light reception signal with the first set value. Step (S1030), turning on the light source device (S1050), operating the light receiving unit (S1060), comparing the second light receiving signal with the second set value (S1070), and driving the sensing unit. Includes (S1080).
이 때, 제어부는 수광부의 동작을 위해(예, 온) 하이 신호를 수광부로 송신할 수 있다. 즉, 제어부는 수광부의 동작을 제어할 수 있다. 또한, 제어부는 광원의 온(하이) 또는 오프(로우)를 제어할 수 있다. 또한, 제어부는 광원의 온 또는 오프에 맞춰 광 신호 생성부의 온 오프를 제어할 수 있다. 다시 말해, 제어부는 광원 장치, 상기 광 신호 생성부 및 상기 수광부를 제어할 수 있다.At this time, the control unit may transmit a high signal to the light receiver for operation (eg, on) of the light receiver. That is, the control unit can control the operation of the light receiving unit. Additionally, the control unit can control on (high) or off (low) the light source. Additionally, the controller may control the on/off of the optical signal generator according to the on or off of the light source. In other words, the control unit can control the light source device, the optical signal generating unit, and the light receiving unit.
먼저, 제어부는 전자 디바이스의 전원이 켜지면 광원을 오프한 상태로 유지할 수 있다. 즉, 광원으로 전류가 인가되지 않을 수 있다. 예컨대, 제어부는 제1 동작 구간(T1)에서 상술한 바와 같이 광학 장치가 오프된 경우 수광부를 동작(하이)시킬 수 있다(S1020). 그리고 제1 동작 구간(T1)에서 수광부로부터 제1 수광 신호를 수신할 수 있다. 다시 말해, 광원 장치로 인가되는 전류가 없는 경우(로우), 제어부는 수광부를 동작 시키고 수광부로부터 제1 수광 신호를 수신할 수 있다. 그리고 제어부는 제1 동작 구간(T1)에서 제1 수광 신호와 제1 설정값을 비교할 수 있다(S1030). First, the control unit can keep the light source in an off state when the electronic device is turned on. That is, current may not be applied to the light source. For example, the controller may operate (high) the light receiver when the optical device is turned off as described above in the first operation period T1 (S1020). And the first light receiving signal can be received from the light receiving unit in the first operation period T1. In other words, when there is no current applied to the light source device (low), the control unit can operate the light receiving unit and receive the first light receiving signal from the light receiving unit. And the control unit may compare the first light-receiving signal and the first set value in the first operation period T1 (S1030).
제어부는 제1 수광 신호와 제1 설정값을 비교하여 광원 자치의 구동 여부를 결정할 수 있다. 이 때, 제1 수광 신호가 제1 설정값보다 큰 경우, 제어부는 주변광의 유입이 발생하는 사용자 미착용 상태로 판단할 수 있다. 이로써, 제어부는 미착용 알람 등을 출력하거나, 상술한 단계(S1010)로 돌아갈 수 있다. 나아가, 단계(S1020)에서부터 다시 시작할 수 있다.The control unit may determine whether to drive the light source autonomy by comparing the first light reception signal and the first set value. At this time, if the first light reception signal is greater than the first set value, the control unit may determine that the user is not wearing the device, in which ambient light is introduced. Accordingly, the control unit can output a non-wearing alarm, etc. or return to the above-described step (S1010). Furthermore, it may start again from step S1020.
제1 동작 구간(T1)에서 제1 수광 신호가 제1 설정값보다 작은 경우, 제2 동작 구간(T2)로 넘어갈 수 있다. If the first light-receiving signal is smaller than the first set value in the first operation section T1, the operation may proceed to the second operation section T2.
제어부는 제2 동작 구간(T2)에서 광원 장치에 하이 신호를 송신할 수 있다. 실시예로, 제어부는 광원 장치의 광원(예, 녹색 파장의 광을 출사하는 제2 광원)에 하이 신호를 송신할 수 있다. 예컨대, 제어부는 광원 장치의 광원 중 적어도 하나에 하이 신호를 송신할 수 있다. 이로써, 제1 광원 내지 제3 광원은 서로 상이한 또는 중첩되지 않도록 광을 출사할 수 있다. 이에, 에너지 효율이 향상될 수 있다.The control unit may transmit a high signal to the light source device in the second operation period T2. In an embodiment, the control unit may transmit a high signal to the light source of the light source device (eg, a second light source emitting green wavelength light). For example, the controller may transmit a high signal to at least one of the light sources of the light source device. As a result, the first to third light sources can emit light that is different from or does not overlap with each other. Accordingly, energy efficiency can be improved.
예컨대, 제1 광원은 제1 광원 시구간(T2aa)동안 온(on)될 수 있다. 다시 말해, 제어부는 제1 광원 시구간(T2aa)동안 제1 광원에 하이 신호를 송신할 수 있다. 또한, 광 신호 생성부는 제1 생성부 시구간(T2ba) 동안 하이 신호를 수신하여 온(on)될 수 있다. 나아가, 제어부는 제1 수광 시구간(T2ca) 동안 하이 신호를 수신하여 온(on)될 수 있다. 예컨대, 수광부는 적색 광을 수신할 수 있고, 제어부는 수광부로부터 수신한 수광 신호(제2 수광 신호)를 이용하여 사용자의 산소 포화도를 감지할 수 있다. 다시 말해, 제어부는 제1 수광 신호가 제1 설정값보다 작은 경우 광원을 구동하고 상기 수광부로부터 제2 수광 신호를 수신할 수 있다.For example, the first light source may be turned on during the first light source time period T2aa. In other words, the controller may transmit a high signal to the first light source during the first light source time period T2aa. Additionally, the optical signal generator may be turned on by receiving a high signal during the first generator time period T2ba. Furthermore, the control unit may be turned on by receiving a high signal during the first light reception time period T2ca. For example, the light receiving unit may receive red light, and the control unit may detect the user's oxygen saturation using the light receiving signal (second light receiving signal) received from the light receiving unit. In other words, the control unit can drive the light source and receive the second light reception signal from the light reception unit when the first light reception signal is smaller than the first set value.
또한, 제2 광원은 제2 광원 시구간(T2ab)동안 온(on)될 수 있다. 다시 말해, 제어부는 제2 광원 시구간(T2ab)동안 제2 광원에 하이 신호를 송신할 수 있다. 또한, 광 신호 생성부는 제2 생성부 시구간(T2bb) 동안 하이 신호를 수신하여 온(on)될 수 있다. 나아가, 제어부는 제2 수광 시구간(T2cb) 동안 하이 신호를 수신하여 온(on)될 수 있다. 예컨대, 수광부는 녹색 광을 수신할 수 있고, 제어부는 수광부로부터 수신한 수광 신호(제2 수광 신호)를 이용하여 사용자의 맥박을 감지할 수 있다.Additionally, the second light source may be turned on during the second light source time period T2ab. In other words, the controller may transmit a high signal to the second light source during the second light source time period T2ab. Additionally, the optical signal generator may be turned on by receiving a high signal during the second generator time period T2bb. Furthermore, the control unit may be turned on by receiving a high signal during the second light reception time period T2cb. For example, the light receiving unit may receive green light, and the control unit may detect the user's pulse using the light receiving signal (second light receiving signal) received from the light receiving unit.
또한, 제3 광원은 제3 광원 시구간(T2ac)동안 온(on)될 수 있다. 다시 말해, 제어부는 제3 광원 시구간(T2ac)동안 제3 광원에 하이 신호를 송신할 수 있다. 또한, 광 신호 생성부는 제3 생성부 시구간(T2bc) 동안 하이 신호를 수신하여 온(on)될 수 있다. 나아가, 제어부는 제3 수광 시구간(T2cc) 동안 로우 신호를 수신하여 오프(off)될 수도 있다. Additionally, the third light source may be turned on during the third light source time period T2ac. In other words, the controller may transmit a high signal to the third light source during the third light source time period (T2ac). Additionally, the optical signal generator may be turned on by receiving a high signal during the third generator time period T2bc. Furthermore, the control unit may be turned off by receiving a low signal during the third light reception time period T2cc.
예컨대, 광원 시구간과 생성부 시구간은 동기화될 수 있다.For example, the light source time period and the generator time period may be synchronized.
이처럼, 제2 동작 구간(T2)에서 제어부는 수광부로부터 수광 신호(제2 수광 신호)를 이용하여 사용자의 착용 여부를 감지 또는 판단할 수 있다. 또한, 특정 광원(적어도 하나의 광원)이 온(하이)된 경우에만 제어부는 수광부를 구동하여 수광 신호(제2 수광 신호)를 수신할 수 있다. In this way, in the second operation period T2, the control unit can detect or determine whether the user is wearing the device using the light reception signal (second light reception signal) from the light receiver. Additionally, only when a specific light source (at least one light source) is turned on (high), the control unit can drive the light receiving unit to receive a light receiving signal (second light receiving signal).
또한, 본 실시예에서, 광원이 온(하이)인 경우인 광원 시구간에 대응하여 광 신호 생성부의 온(하이)이 될 수 있다. 이에, 동작 정확도가 향상될 수 있다.Additionally, in this embodiment, the optical signal generator may be turned on (high) in response to a light source time period when the light source is on (high). Accordingly, operation accuracy can be improved.
이후에 제어부는 수광부가 온(on)되어 출력된 제2 수광 신호를 수신할 수 있다(S1060). 그리고 제어부는 제2 수광 신호와 제2 설정값을 비교할 수 있다(S1070). 이 때, 제어부는 제2 수광 신호가 제2 설정값보다 작으면, 사용자 또는 착용자의 착용이 정확하게 이루어지지 않은 것으로 판단할 수 있다. 예컨대, 전자 디바이스의 적어도 일부가 피부에 정확하게 밀착되지 않은 경우, 제2 수광 신호가 제2 설정값보다 작을 수 있다. 이에, 정확한 사용자의 착용이 판단될 수 있다. 이 경우, 사용자 미착용 특히 오착용으로 판단하여 대기 상태를 수행할 수 있다(S1090). 예컨대, 단계(S1010) 또는 S1050)로 돌아갈 수 있다.Afterwards, the control unit can receive the second light receiving signal output when the light receiving unit is turned on (S1060). And the control unit can compare the second light-receiving signal and the second set value (S1070). At this time, if the second light-receiving signal is smaller than the second set value, the control unit may determine that the user or wearer is not wearing the device correctly. For example, when at least a portion of the electronic device is not in exact contact with the skin, the second light-receiving signal may be smaller than the second set value. Accordingly, the correct wearing of the user can be determined. In this case, it is determined that the user is not wearing it, especially if it is incorrectly worn, and a standby state can be performed (S1090). For example, it may return to step S1010 or S1050).
이와 달리, 제2 수광 신호가 제2 설정값보다 큰 경우, 제3 동작 구간(T3)으로 넘어갈 수 있다. 이에, 제어부는 소정의 주기로 광원과 광 신호 생성부에 구동 신호(하이 신호)를 송신할 수 있다.In contrast, when the second light reception signal is greater than the second set value, the operation may proceed to the third operation period T3. Accordingly, the control unit can transmit a driving signal (high signal) to the light source and the optical signal generator at a predetermined period.
그리고 제어부는 광원과 광 신호 생성부의 온(하이)에 대응하여 수광부를 온(하이)시킬 수 있다(S1080). 다시 말해, 제어부는 제2 수광 신호와 제2 설정값을 비교하여 상기 광원 및 상기 광 신호 생성부의 동작에 대응하여 상기 수광부로부터 제3 수광 신호를 수신할 수 있다. 즉, 제어부는 감지부를 구동할 수 있다(S1080). 예컨대, 제어부는 제3 동작 구간(T3)에서 착용자의 맥박을 감지하기 위해 소정의 주기로 광원과 광 신호 생성부의 온(예, 제2 광원 시구간, 제2 생성부 시구간)에 대응하여 수광부를 온(하이) 동작 시킬 수 있다. And the control unit can turn on (high) the light receiving unit in response to turning on (high) the light source and the optical signal generator (S1080). In other words, the control unit may compare the second light reception signal with the second set value and receive a third light reception signal from the light reception unit in response to the operations of the light source and the optical signal generator. That is, the control unit can drive the detection unit (S1080). For example, in order to detect the wearer's pulse in the third operation section T3, the control unit turns on the light source and the optical signal generator at a predetermined period (e.g., the second light source time period, the second generator time section) and turns on the light receiver. It can be turned on (high).
또는, 제어부는 제3 동작 구간(T3)에서 착용자의 산소 포화도를 감지하기 위해 소정의 주기로 광원과 광 신호 생성부의 온(예, 제1 광원 시구간, 제1 생성부 시구간)에 대응하여 수광부를 온(하이) 동작 시킬 수 있다. Alternatively, the control unit may detect the oxygen saturation of the wearer in the third operation period T3 by turning on the light source and the optical signal generator at a predetermined period (e.g., the first light source time period, the first generator time period) in response to the light receiving unit. can be turned on (high).
그리고 상술한 다양한 실시예에 따른 동작 방법 및 전자 장치에서, 검사 이미지의 선택은 사용자의 우안, 좌안에 각각 수행될 수 있다. 또한, 검사 이미지의 선택은 사용자의 양안에 수행되거나, 우안, 좌안 그리고 양안에 순차로 수행될 수도 있다.And in the operation method and electronic device according to the various embodiments described above, selection of the inspection image may be performed for the user's right eye and left eye, respectively. Additionally, the selection of the inspection image may be performed for both eyes of the user, or may be performed sequentially for the right eye, left eye, and both eyes.
먼저, 도 17 내지 도 24에서 설명하는 디스플레이 방법은 상술한 전자 디바이스에서 제어부에 의해 수행될 수 있다. 즉, 후술하는 디스플레이 방법의 각 단계에서 처리는 후술하는 내용을 제외하고 제어부에서 수행될 수 있다. 그리고 개시된 실시예에 따른 디스플레이 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 디스플레이 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.First, the display method described in FIGS. 17 to 24 can be performed by a control unit in the electronic device described above. That is, processing in each step of the display method described later can be performed in the control unit except for the content described later. Additionally, the display method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a display method are recorded.
도 17은 실시예에 따른 디스플레이 방법에 대한 순서도이고, 도 18은 실시예에 따른 디스플레이 방법에 대한 추가 순서도이고, 도 19 및 도 20은 실시예에 따른 디스플레이 방법에서 시력 결정을 설명하는 도면이고, 도 21은 실시예에 따른 디스플레이 방법에서 이미지 출력을 도시한 도면이다.FIG. 17 is a flowchart of a display method according to an embodiment, FIG. 18 is an additional flowchart of a display method according to an embodiment, FIGS. 19 and 20 are diagrams explaining visual acuity determination in a display method according to an embodiment, FIG. 21 is a diagram illustrating image output in a display method according to an embodiment.
도 17 및 도 18을 참조하면, 실시예에 따른 디스플레이 방법은 초점 거리가 상이한 검사 이미지를 출력하는 단계(S1040), 초점 거리가 상이한 검사 이미지에서 선택된 이미지를 기준으로 사용자의 시력을 결정하는 단계(S1060) 및 결정된 사용자의 시력을 기반으로 가상 이미지를 출력하는 단계(S1080)를 포함한다.Referring to Figures 17 and 18, the display method according to the embodiment includes outputting test images with different focal lengths (S1040) and determining the user's visual acuity based on an image selected from test images with different focal lengths (S1040). S1060) and outputting a virtual image based on the determined visual acuity of the user (S1080).
나아가, 실시예에 따른 디스플레이 방법 초점 거리가 상이한 검사 이미지를 출력하는 단계(S1040) 이전에, 사용자(또는 전자 디바이스의 착용자)를 감지하는 단계(S1010), 입력(버튼 등) 감지 여부를 확인하는 단계(S1020), 입력 감지 시, 기저장된 사용자인지 확인하는 단계(S1030)를 더 포함할 수 있다.Furthermore, before the step of outputting inspection images with different focal lengths of the display method according to the embodiment (S1040), the step of detecting the user (or the wearer of the electronic device) (S1010) and checking whether an input (button, etc.) is detected Step (S1020) may further include, when detecting input, checking whether the user is a pre-stored user (S1030).
우선적으로, 도 2와 함께 살펴보면, 사용자 또는 착용자가 디스플레이 장치를 착용한 경우, 제어부(27, 도 2 참조)는 센싱부(23, 도 2 참조)를 통해 수신한 감지 신호를 통해 사용자의 착용 여부를 감지 또는 판단할 수 있다. 제어부(27)는 센싱부(23)에서 수신한 신호를 바탕으로 사용자의 착용 시, 입력 감지 여부를 판단할 수 있다(S1020). 예컨대, 사용자가 사용자 입력부(130, 도 3 참조) 또는 입력부(22, 도 2 참조)를 통해 입력 신호를 생성할 수 있다. 사용자가 입력부를 터치함에 따라 사용자가 전자 디바이스를 사용함을 인지할 수 있다. 만약 사용자의 입력 감지가 소정의 시간 내에 이루어지지 않는 경우, 제어부는 사용자의 착용을 감지하는 단계를 재수행할 수 있다.First, looking at FIG. 2, when the user or wearer wears the display device, the control unit 27 (see FIG. 2) determines whether the user is wearing it through a detection signal received through the sensing unit 23 (see FIG. 2). can be detected or judged. The control unit 27 can determine whether an input is detected when the user wears the device based on the signal received from the sensing unit 23 (S1020). For example, a user may generate an input signal through the user input unit 130 (see FIG. 3) or the input unit 22 (see FIG. 2). As the user touches the input unit, it can be recognized that the user is using an electronic device. If the user's input is not detected within a predetermined time, the control unit may re-perform the step of detecting the user's wearing.
나아가, 제어부는 입력부를 통해 입력이 감지되면, 기저장된 사용자인지 확인할 수 있다(S1030). 기 저장된 사용자의 경우 메모리(26, 도 2)에 저장된 해당 사용자의 시력 정보를 불러올 수 있다. 또는 사용자의 입력에 따라 제어부는 기 저장된 사용자라도 시력 결정 및 시력 정보 저장을 재수행할 수 있다. 이에 따라, 사용자의 신체 변화도 용이하게 반영할 수 있다.Furthermore, when an input is detected through the input unit, the control unit can check whether the user is a pre-stored user (S1030). In the case of a previously stored user, the user's vision information stored in the memory 26 (FIG. 2) can be retrieved. Alternatively, according to the user's input, the control unit may re-perform visual acuity determination and storage of visual acuity information even for users who have previously stored the visual acuity information. Accordingly, changes in the user's body can be easily reflected.
그리고 제어부는 기 저장된 사용자가 아니거나, 사용자에 의해 검사를 재수행하는 경우, 상술한 바와 같이 초점 거리가 상이한 검사 이미지를 출력할 수 있다(S1040). 예컨대, 제어부는 초점 거리가 상이한 검사 이미지의 영상신호를 생성 또는 제공할 수 있다. 그리고 제어부에 의해 생성된 검사 이미지의 영상신호를 기반으로 광학 장치가 영상을 생성하고 광학 장치에서 생성된 이미지가 디스플레이부에서 출력될 수 있다.And, if the control unit is not a pre-stored user or the user re-performs the inspection, the control unit may output inspection images with different focal lengths as described above (S1040). For example, the control unit may generate or provide image signals of inspection images with different focal lengths. Additionally, the optical device generates an image based on the image signal of the inspection image generated by the control unit, and the image generated by the optical device may be output on the display unit.
도 19를 더 살펴보면, 검사 이미지(TI1, TI2, TI3)는 초점 거리가 상이한 이미지를 포함할 수 있다. 그리고 검사 이미지(TI1, TI2, TI3)는 복수 개일 수 있다. 실시예로, 검사 이미지는 제1 검사 이미지(TI1), 제2 검사 이미지(TI2), 및 제3 검사 이미지(TI3)를 포함할 수 있다. 이 때, 사용자의 안구로부터 제1 검사 이미지(TI1), 제2 검사 이미지(TI2) 및 제3 검사 이미지(TI3)은 각각의 초점 거리가 순차로 증가할 수 있다. 예를 들어, 제1 검사 이미지(TI1)의 초점 거리(f1)는 제2 검사 이미지(TI2)의 초점 거리(f2)보다 클 수 있다. 그리고 제2 검사 이미지(TI2)의 초점 거리(f2)는 제3 검사 이미지(TI3)의 초점 거리(f3)보다 클 수 있다.Looking further at FIG. 19, the inspection images TI1, TI2, and TI3 may include images with different focal lengths. Additionally, there may be multiple inspection images (TI1, TI2, and TI3). In an embodiment, the inspection image may include a first inspection image (TI1), a second inspection image (TI2), and a third inspection image (TI3). At this time, the focal distances of the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3 from the user's eye may sequentially increase. For example, the focal length f1 of the first inspection image TI1 may be greater than the focal length f2 of the second inspection image TI2. Additionally, the focal length f2 of the second inspection image TI2 may be greater than the focal length f3 of the third inspection image TI3.
도 20을 더 살펴보면, 제1 검사 이미지(TI1), 제2 검사 이미지(TI2), 및 제3 검사 이미지(TI3)는 도 19의 검사 이미지와 동일한 것으로 설명한다. 나아가, 제1 검사 이미지(TI1), 제2 검사 이미지(TI2) 및 제3 검사 이미지(TI3)는 사용자의 선택(또는 입력)에 의해 출력될 수 있다(S1051). 그리고 복수 개의 검사 이미지 중 어느 하나는 제어부에 의해 출력될 수 있다. 예컨대, 제어부는 제1 검사 이미지(TI1)를 출력할 수 있다. 이후에, 사용자는 입력부(130)에 터치 등을 수행하여 입력 신호를 할 수 있다(S1051). 예컨대, 사용자는 프레임에 배치된 입력부의 제1 버튼(BT1), 제2 버튼(BT2) 및 제3 버튼(BT3) 중 어느 하나를 터치(touch)하여 입력 신호를 생성할 수 있다. 이 때, 제1 버튼(BT1)은 검사 이미지에 대한 초점 거리의 증가에 대응할 수 있다. 제2 버튼(BT2)은 검사 이미지에 대한 초점 거리의 감소에 대응할 수 있다. 제3 버튼(BT)은 검사 이미지에 대한 선택에 대응할 수 있다. 나아가, 제1 검사 이미지(TI1), 제2 검사 이미지(TI2), 및 제3 검사 이미지(TI3)와 같이, 초점 거리가 상이한 검사 이미지는 적어도 하나일 수 있다. 나아가, 초점 거리가 상이한 검사 이미지가 복수 개인 경우, 복수 개의 검사 이미지 각각이 상이한 초점 거리를 가질 수 있다.Looking further at FIG. 20 , the first inspection image TI1 , the second inspection image TI2 , and the third inspection image TI3 are described as being the same as the inspection image of FIG. 19 . Furthermore, the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3 may be output according to the user's selection (or input) (S1051). And one of the plurality of inspection images may be output by the control unit. For example, the control unit may output the first inspection image TI1. Afterwards, the user can input an input signal by touching the input unit 130 (S1051). For example, the user may generate an input signal by touching any one of the first button BT1, the second button BT2, and the third button BT3 of the input unit arranged on the frame. At this time, the first button BT1 may respond to an increase in the focal distance for the inspection image. The second button BT2 may correspond to a decrease in the focal distance for the inspection image. The third button BT may correspond to selection of an inspection image. Furthermore, there may be at least one inspection image with different focal lengths, such as the first inspection image TI1, the second inspection image TI2, and the third inspection image TI3. Furthermore, when there are a plurality of inspection images with different focal lengths, each of the plurality of inspection images may have a different focal length.
실시예로, 제어부가 사용자의 입력을 수신하면(S1051), 제어부는 사용자의 입력 즉, 인가된 입력에 대응하여 검사 이미지의 초점 거리를 조절할 수 있다(S1052). 그리고 사용자 선택 입력에 대응하여 사용자의 시력을 결정할 수 있다(S1053, S1060) In an embodiment, when the control unit receives the user's input (S1051), the control unit may adjust the focal length of the inspection image in response to the user's input, that is, the applied input (S1052). And the user's vision can be determined in response to the user's selection input (S1053, S1060)
예컨대, 사용자는 제1 검사 이미지(T1)가 흐릿하게 인식되는 경우, 제1 버튼(BT1) 또는 제2 버튼(BT2)을 터치하여 검사 이미지에 대한 초점 거리를 변경할 수 있다. 예컨대, 사용자가 제2 버튼(BT2)을 터치하면, 제어부는 제1 검사 이미지(TI1)보다 초점 거리가 작은 제2 검사 이미지(TI2)를 출력할 수 있다. 그리고 사용자는 제2 검사 이미지(TI2)가 흐릿하게 인식되는 경우, 다시 제2 버튼(BT2)을 터치하여 검사 이미지에 대한 초점을 감소시킬 수 있다. 이에, 제어부는 제2 검사 이미지(TI2)보다 초점 거리가 작은 제3 검사 이미지(TI3)를 출력할 수 있다. 이후, 사용자는 제3 검사 이미지(TI3)가 뚜렷하게 인식되는 경우, 제3 버튼(BT3)을 터치하여 제3 검사 이미지(TI3)를 시력 결정을 위한 이미지로 선택할 수 있다. 이와 같이, 제어부는 사용자에 의한 입력에 대응하여 검사 이미지의 초점 거리를 조절할 수 있다(S1050). For example, when the first inspection image T1 is recognized as blurry, the user may touch the first button BT1 or the second button BT2 to change the focal distance for the inspection image. For example, when the user touches the second button BT2, the controller may output a second inspection image TI2 with a smaller focal length than the first inspection image TI1. Additionally, if the second inspection image TI2 is recognized as blurry, the user may touch the second button BT2 again to reduce the focus on the inspection image. Accordingly, the control unit may output the third inspection image TI3 with a smaller focal length than the second inspection image TI2. Thereafter, when the third test image TI3 is clearly recognized, the user can touch the third button BT3 to select the third test image TI3 as an image for determining visual acuity. In this way, the control unit can adjust the focal distance of the inspection image in response to the input by the user (S1050).
이 때, 사용자의 입력에 의해 선택된 이미지 또는 검사 이미지는 복수 개의 검사 이미지 중 적어도 하나 이상일 수 있다. 예를 들어, 사용자의 시력에 따라 사용자에게 뚜렷하게 보이는 검사 이미지가 복수 개일 수 있다. 이 경우, 제어부는 선택된 이미지가 복수 개인 경우 최대 초점 거리를 기반으로 상기 사용자의 시력을 결정할 수 있다. 이로써, 제어부는 사용자의 정확한 시력을 판단하고, 사용자의 시력에 대응한 가상 이미지를 출력할 수 있다. 이에, 실시예에 따른 전자 디바이스는 사용자의 불편함을 제거하는 효과를 제공할 수 있다.At this time, the image or inspection image selected by the user's input may be at least one of a plurality of inspection images. For example, depending on the user's vision, there may be multiple inspection images that are clearly visible to the user. In this case, when there are multiple selected images, the controller may determine the user's visual acuity based on the maximum focal length. Accordingly, the control unit can determine the user's accurate vision and output a virtual image corresponding to the user's vision. Accordingly, the electronic device according to the embodiment can provide the effect of eliminating user inconvenience.
그리고 제어부는 입력부에 의해 선택된 이미지를 기준으로 사용자의 시력을 결정할 수 있다(S1060). 그리고 제어부는 사용자의 시력을 결정한 후, 영상에 대한 초점 거리를 결정된 사용자의 시력을 기반으로 조절하여 출력할 수 있다(S1080). 이에, 사용자는 광학 유닛으로부터 출력된 가상 이미지를 뚜렷하게 인지할 수 있다. And the control unit can determine the user's vision based on the image selected by the input unit (S1060). After determining the user's visual acuity, the control unit can adjust and output the focal distance for the image based on the user's determined visual acuity (S1080). Accordingly, the user can clearly perceive the virtual image output from the optical unit.
도 21을 더 살펴보면, 제어부는 복수 개의 가상 이미지(VI, VI2 내지 Vin, VI)를 출력하도록, 광학 장치에 제어 신호를 송신할 수 있다. 이에, 광학 장치는 복수 개의 가상 이미지에 대응한 영상을 생성할 수 있다.Looking further at FIG. 21, the control unit may transmit a control signal to the optical device to output a plurality of virtual images (VI, VI2 to Vin, VI). Accordingly, the optical device can generate images corresponding to a plurality of virtual images.
도시된 바와 같이, 복수 개의 가상 이미지는 거리에 따라 상이한 레이어로 이루어질 수 있다. 그리고 상이한 레이어의 가상 이미지에는 가상 객체가 존재할 수 있다. 이러한 가상 이미지는 광학 장치(200)에 의해 사용자에게 전달되는데, 제어부는 상술한 결정된 사용자의 시력을 바탕으로 가상 이미지의 초점 거리를 조절할 수 있다. 예컨대, 근시의 사용자에 대해 초점 거리를 줄여 복수 개의 가상 이미지를 출력할 수 있다.As shown, a plurality of virtual images may be composed of different layers depending on the distance. And virtual objects may exist in virtual images of different layers. This virtual image is delivered to the user by the optical device 200, and the control unit can adjust the focal length of the virtual image based on the user's visual acuity determined as described above. For example, for myopic users, a plurality of virtual images can be output by reducing the focal distance.
나아가, 디스플레이부(300)의 전후측에는 광학 소자(OD1, OD2)가 배치될 수 있다. 여기서, 전방측은 디스플레이부(300)에서 객체 또는 현실 이미지를 향한 영역을 의미한다.그리고 후방측은 디스플레이부(300)에서 사용자를 향한 영역을 의미한다. 또는 디스플레이부(300)는 광학 소자(OD1, OD2)를 더 포함할 수 있다. 이러한 광학 소자(OD1, OD2)는 전자 디바이스의 프레임 상에 위치할 수 있다. 그리고 광학 소자(OD1, OD2)는 상술한 회절부 이외에 초점 가변 렌즈를 포함할 수 있다. 이로써, 사용자의 결정된 시력에 대응하여 광학 소자의 곡률을 변경할 수 있다. 즉, 초점 거리가 변경될 수 있다. Furthermore, optical elements OD1 and OD2 may be disposed on the front and rear sides of the display unit 300. Here, the front side refers to the area of the display unit 300 facing an object or real image, and the rear side refers to the area of the display unit 300 facing the user. Alternatively, the display unit 300 may further include optical elements OD1 and OD2. These optical elements OD1 and OD2 may be located on the frame of the electronic device. Additionally, the optical elements OD1 and OD2 may include a variable focus lens in addition to the diffraction unit described above. Accordingly, the curvature of the optical element can be changed in response to the user's determined visual acuity. That is, the focal distance can be changed.
예컨대, 제1 광학 소자(OD1)는 디스플레이부(300) 외측에 배치되고, 회절부나 편광부를 포함할 수 있다. 이에, 현실 이미지(RI)가 프레임의 소정의 주기 또는 소정의 프레임에 사용자에게 제공될 수 있다. 그리고 제1 광학 소자(OD1)는 상술한 바와 같이 사용자의 결정된 시력에 대응하여 초점 또는 곡률이 변경될 수 있다. 이에, 사용자는 현실 이미지 등을 흐릿하지 않고 뚜렷하게 인지할 수 있다. 즉, 현실 이미지 등에 대해 사용자의 안구는 정상시 상태가 될 수 있다.For example, the first optical element OD1 is disposed outside the display unit 300 and may include a diffraction unit or a polarization unit. Accordingly, the real image RI may be provided to the user at a predetermined period of frames or at a predetermined frame. And, as described above, the focus or curvature of the first optical element OD1 may be changed in response to the user's determined visual acuity. Accordingly, the user can clearly perceive real images, etc. without blurring. In other words, the user's eyes may be in a normal state for real images, etc.
나아가, 제2 광학 소자(OD2)도 사용자의 시력에 대응하여 초점 또는 곡률이 변경될 수 있다.Furthermore, the focus or curvature of the second optical element OD2 may also change depending on the user's vision.
변형예로, 광학 장치(200) 내에는 복수 개의 렌즈가 존재하며, 사용자의 시력에 대응하여, 광학 장치의 복수 개의 렌즈 간의 거리가 엑추에이터 등에 의해 변경될 수도 있다. 나아가, 제어부부는 검사 이미지의 초점 거리를 광학 장치 내의 렌즈를 이동하여 조절할 수 있다.As a modified example, there are a plurality of lenses in the optical device 200, and the distance between the plurality of lenses of the optical device may be changed by an actuator or the like in response to the user's vision. Furthermore, the control unit can adjust the focal length of the inspection image by moving the lens in the optical device.
그리고 사용자의 시력을 경정한 후(S1060), 제어부는 시력 정보를 메모리에 저장할 수 있다(S1070). 이러한 시력 정보 이외에 센싱부를 통한 사용자의 특정 감지 정보도 함께 메모리에 저장될 수 있다.And after correcting the user's vision (S1060), the control unit may store the vision information in memory (S1070). In addition to this vision information, the user's specific detection information through the sensing unit may also be stored in the memory.
도 22는 다른 실시예에 따른 디스플레이 방법에 대한 순서도이고, 도 23은 다른 실시예에 따른 디스플레이 방법에서 시력 결정을 설명하는 도면이다.FIG. 22 is a flowchart of a display method according to another embodiment, and FIG. 23 is a diagram explaining visual acuity determination in a display method according to another embodiment.
도 22 및 도 23을 참조하면, 다른 실시예에 따른 디스플레이 방법은 복수 개의 객체를 포함한 검사 이미지를 출력하는 단계(S2010), 복수 개의 객체 중 적어도 하나를 선택하는 단계(S2020), 선택된 객체 기반하여 사용자의 시력을 결정하는 단계(S2030) 및 시력 정보를 저장하는 단계(S2040)을 포함할 수 있다.Referring to FIGS. 22 and 23, a display method according to another embodiment includes outputting an inspection image including a plurality of objects (S2010), selecting at least one of the plurality of objects (S2020), and displaying an image based on the selected object (S2020). It may include determining the user's vision (S2030) and storing vision information (S2040).
복수 개의 객체를 포함한 검사 이미지를 출력하는 단계(S2010)는 상술한 검사 이미지를 출력하는 단계(S1040)에 대응할 수 있다. 나아가, 검사 이미지를 출력하는 단계 이전의 단계도 본 다른 실시예에 따른 디스플레이 방법에 적용되며, 후술하는 내용을 제외하고 상술한 각 단계의 내용이 동일하게 적용될 수 있다.The step of outputting an inspection image including a plurality of objects (S2010) may correspond to the step of outputting the inspection image described above (S1040). Furthermore, steps prior to the step of outputting the inspection image are also applied to the display method according to this other embodiment, and the content of each step described above can be applied equally, except for the content described later.
본 실시예에 따르면 검사 이미지는 복수 개의 객체를 포함할 수 있다. 이 때, 복수 개의 객체는 상이한 초점 거리를 가질 수 있다. 즉, 초점 거리가 상이한 검사 이미지는 하나의 이미지에 상이한 초점 거리를 갖는 복수 개의 객체를 포함할 수 있다.According to this embodiment, the inspection image may include a plurality of objects. At this time, the plurality of objects may have different focal distances. That is, inspection images with different focal lengths may include a plurality of objects with different focal lengths in one image.
도시된 바와 같이 검사 이미지(TI4)에는 복수 개의 객체(OJ1 내지 OJ3)를 포함할 수 있다. 예컨대, 복수 개의 객체는 제1 객체(OJ1), 제2 객체(OJ2) 및 제3 객체(OJ3)로 이루어질 수 있다. 이 때, 제1 객체(OJ1)는 제2 객체(OJ2)보다 거리 또는 초점 거리가 클 수 있다. 그리고 제2 객체(OJ2)는 제3 객체(OJ3)보다 거리 또는 초점 거리가 클 수 있다.As shown, the inspection image TI4 may include a plurality of objects OJ1 to OJ3. For example, the plurality of objects may include a first object (OJ1), a second object (OJ2), and a third object (OJ3). At this time, the distance or focal length of the first object OJ1 may be greater than that of the second object OJ2. And the second object OJ2 may have a greater distance or focal length than the third object OJ3.
예컨대, 사용자의 입력(제1 버튼, 제2 버튼 또는 제3 버튼에 의한)에 대응하여 가상 이미지인 검사 이미지 내의 객체에 대한 선택창(SD)이 이동할 수 있다. 예컨대, 제1 버튼은 왼쪽(Left)에 대응할 수 있다. 그리고 제2 버튼은 오른쪽(Right)에 대응할 수 있다. 그리고 제3 버튼(select)에 대응할 수 있다. 이러한 사용자의 입력에 따라 검사 이미지 내의 복수 개의 객체 중 어느 하나가 선택될 수 있다. 또는 복수 개의 레이어로 이루어진 초점 거리가 상이한 검사 이미지 중 어느 하나가 선택될 수 있다. 이를 통해, 사용자의 시력이 결정될 수 있다. 이후에는 상술한 바와 같이 결정된 사용자의 시력을 저장할 수 있다. 또는 결정된 시력을 기반으로 가상 이미지의 초점 거리를 조정하여 출력할 수 있다. 즉, 제어부는 가상 이미지를 출력하는 경우, 결정된 사용자의 시력을 기반으로 가상 이미지의 초점을 가변 또는 변경할 수 있다.For example, the selection window (SD) for an object in the inspection image, which is a virtual image, may move in response to the user's input (via the first button, second button, or third button). For example, the first button may correspond to Left. And the second button may correspond to the right side. And it can correspond to the third button (select). According to the user's input, one of a plurality of objects in the inspection image may be selected. Alternatively, any one of inspection images composed of a plurality of layers and having different focal lengths may be selected. Through this, the user's vision can be determined. Afterwards, the user's visual acuity determined as described above may be stored. Alternatively, the focal length of the virtual image can be adjusted and output based on the determined visual acuity. That is, when outputting a virtual image, the control unit may vary or change the focus of the virtual image based on the user's determined visual acuity.
도 24는 또 다른 실시예에 따른 디스플레이 방법에 대한 순서도이고, 도 25는 변형예에 따른 실시예에 따른 증강현실 전자 디바이스의 사시도이다.FIG. 24 is a flowchart of a display method according to another embodiment, and FIG. 25 is a perspective view of an augmented reality electronic device according to a modified example.
도 24를 참조하면, 또 다른 실시예에 따른 디스플레이 방법은 복수 개의 검사 이미지를 출력하는 단계(S3010), 적어도 하나의 이미지 선택이 이루어지는 단계(S3020), 시력을 결정하는 단계(S3030) 및 시력 정보를 저장하는 단계(S3040)을 포함할 수 있다.Referring to FIG. 24, a display method according to another embodiment includes outputting a plurality of inspection images (S3010), selecting at least one image (S3020), determining visual acuity (S3030), and visual acuity information. It may include a step of storing (S3040).
복수 개의 검사 이미지를 출력하는 경우(S3010), 상술한 다양한 예가 적용될 수 있다. 나아가, 적어도 하나의 이미지 선택은 제어부가 사용자의 입력 신호를 수신함으로써 수행될 수 있다(S3020). 그리고 선택된 검사 이미지를 기반으로 시력이 결정될 수 있다(S3030). 이 때, 시력을 결정하는 단계는 초점 거리 상이한 복수 개의 검사 이미지 중 적어도 하나의 이미지를 선택하는 단계 및 상기 선택된 이미지가 복수 개인 경우 최대 초점 거리를 기반으로 상기 사용자의 시력을 결정하는 단계를 포함할 수 있다.When outputting a plurality of inspection images (S3010), the various examples described above can be applied. Furthermore, selection of at least one image may be performed by the control unit receiving the user's input signal (S3020). And visual acuity can be determined based on the selected test image (S3030). At this time, the step of determining the visual acuity may include selecting at least one image from a plurality of test images with different focal lengths, and determining the visual acuity of the user based on the maximum focal length when there are multiple selected images. You can.
예컨대, 입력에 의해 제어부는 검사 이미지 중 선택된 이미지를 복수 개 출력할 수 있다. 그리고 제어부는 복수 개의 선택된 이미지에 대해 최대 초점 거리를 기반으로 사용자의 시력을 결정할 수 있다. 그리고 제어부는 최대 초점 거리를 기반으로 결정된 사용자의 시력을 기반으로 가상 이미지의 초점을 가변하여 출력할 수 있다.For example, based on the input, the control unit may output a plurality of images selected among the inspection images. Additionally, the control unit may determine the user's visual acuity based on the maximum focal length for a plurality of selected images. In addition, the control unit can vary the focus of the virtual image and output it based on the user's visual acuity, which is determined based on the maximum focal distance.
그리고 도 25를 참조하면, 전자 디바이스는 프레임(100)에 배치된 수광 소자(PD)를 더 포함할 수 있다. 이에, 상술한 시력을 결정함에 있어서, 광학 장치(200 )및 디스플레이부(300)를 통해 사용자의 안구로 검사광(이미지 등)가 출력되고(TL), 사람의 안구에서 반사된 광(이미지)가 수광 소자(PD)로 전달될 수 있다. 이 때, 제어부는 수광 소자(PD)로 제공된 반사된 광(RL)을 통해 사용자의 안구에 대한 굴절률 또는 시력을 결정할 수 있다. 이를 기반으로, 전자 디바이스는 상술한 바와 같이 사용자의 시력을 기반으로 초점 거리를 가변하여 가상 이미지를 출력할 수 있다.And referring to FIG. 25 , the electronic device may further include a light receiving element PD disposed on the frame 100. Accordingly, in determining the above-described visual acuity, inspection light (image, etc.) is output to the user's eye through the optical device 200 and the display unit 300 (TL), and light (image) reflected from the human eye is output. may be transmitted to the light receiving element (PD). At this time, the control unit may determine the refractive index or visual acuity of the user's eyeball through the reflected light RL provided by the light receiving element PD. Based on this, the electronic device can output a virtual image by varying the focal distance based on the user's vision as described above.
도 26 내지 도 34에서 설명하는 제어 방법은 상술한 제어 디바이스 또는 전자 디바이스에서 컨트롤러 또는 제어부에 의해 수행될 수 있다. 즉, 후술하는 제어 방법의 각 단계에서 처리는 후술하는 내용을 제외하고 컨트롤러에서 수행될 수 있다. 그리고 개시된 실시예에 따른 제어 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 제어 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.The control method described in FIGS. 26 to 34 may be performed by a controller or control unit in the control device or electronic device described above. That is, processing in each step of the control method described later can be performed in the controller except for the content described later. Additionally, the control method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a control method are recorded.
도 26은 본 발명의 실시예에 따른 제어 디바이스의 블록도이고, 도 27은 본 발명의 실시예에 따른 제어 디바이스의 개념도이고, 도 28는 본 발명의 실시예에 따른 제어 방법의 순서도이고, 도 29은 본 발명의 실시예에 따른 제어 방법의 구체적인 순서도이고, 도 30은 본 발명의 실시예에 따른 제어 디바이스의 동작 및 제어 방법을 설명하는 도면이고, 도 31는 본 발명의 실시예에 따른 제어 디바이스와 전자 디바이스 간의 동작 및 제어를 설명하는 도면이고, 도 32은 본 발명의 실시예에 따른 전자 디바이스의 인터페이스를 도시한 도면이고, 도 33는 본 발명의 실시예에 따른 제어 디바이스를 이용한 전자 디바이스의 동작을 설명하는 예시도이고, 도 34는 본 발명의 실시예에 따른 제어 디바이스의 동작을 설명하는 도면이다.FIG. 26 is a block diagram of a control device according to an embodiment of the present invention, FIG. 27 is a conceptual diagram of a control device according to an embodiment of the present invention, FIG. 28 is a flowchart of a control method according to an embodiment of the present invention, and FIG. 29 is a detailed flowchart of a control method according to an embodiment of the present invention, FIG. 30 is a diagram explaining the operation and control method of a control device according to an embodiment of the present invention, and FIG. 31 is a control diagram according to an embodiment of the present invention. It is a diagram explaining the operation and control between a device and an electronic device. Figure 32 is a diagram showing an interface of an electronic device according to an embodiment of the present invention, and Figure 33 is a diagram showing an electronic device using a control device according to an embodiment of the present invention. This is an example diagram explaining the operation of , and Figure 34 is a diagram explaining the operation of the control device according to an embodiment of the present invention.
도 26 및 도 27을 참조하면, 실시예에 따른 제어 디바이스(500)는 터치 입력부 또는 제1 입력부(510), 버튼 입력부 또는 제2 입력부(520), 감지부(530), 통신부(540), 배터리부 또는 전원부(550), 메모리부 또는 저장부(560) 및 컨트롤러(570)를 포함할 수 있다.26 and 27, the control device 500 according to the embodiment includes a touch input unit or a first input unit 510, a button input unit or a second input unit 520, a detection unit 530, a communication unit 540, It may include a battery unit or power unit 550, a memory unit or storage unit 560, and a controller 570.
터치 입력부(510)는 사용자의 터치를 감지할 수 있다. 예컨대, 터치 입력부(510)는 감압 센서 등을 포함할 수 있다. 그리고 터치 입력부(510)는 감지한 사용자의 터치에 대한 신호를 컨트롤러(570) 등으로 출력할 수 있다. 실시예에서, 터치 입력부(510)는 사용자의 터치를 감지하여 제어 디바이스(500)의 위치를 설정하고, 다양한 터치 동작을 감지할 수 있다.The touch input unit 510 can detect the user's touch. For example, the touch input unit 510 may include a pressure sensor, etc. Additionally, the touch input unit 510 may output a signal about the detected user's touch to the controller 570, etc. In an embodiment, the touch input unit 510 may detect a user's touch to set the position of the control device 500 and detect various touch operations.
실시예에 따른 제어 디바이스(500)는 후술하는 방식에 의해 상하좌우가 설정될 수 있다. 즉, 제어 디바이스(500)는 구조적으로 상하좌우가 설정되지 않을 수 있다. 예컨대, 제어 디바이스(500)는 원형 등의 형상으로 이루어져, 일 가상선에 대해 대칭 구조일 수 있다. 터치 입력부(510)는 후술하는 버튼 입력부(520)를 기준으로 외측에 위치할 수 있다. 예컨대, 터치 입력부(510)는 중앙에 위치한 버튼 입력부(520)를 둘러쌀 수 있다. 그리고 터치 입력부(510)는 터치 스크린으로 이루어질 수도 있다. 이러한 구성에 의하여, 실시예에 따른 제어 디바이스는 전자 디바이스에 대한 컨트롤 장치(예, 리모컨)이면서, 단순 감각(예, 촉각)으로 용이하게 전자 디바이스에 대한 동작 또는 제어를 컨트롤할 수 있다. 즉, 사용자의 시각이 제어 디바이스의 제어에 필수적이지 않게 되어, 다양한 환경 및 공간에서 전자 디바이스를 용이하게 제어할 수 있다.The control device 500 according to the embodiment can be set up, down, left, and right in a manner described later. That is, the control device 500 may not be structurally set up, down, left, and right. For example, the control device 500 may have a circular shape, and may have a symmetrical structure with respect to one virtual line. The touch input unit 510 may be located outside the button input unit 520, which will be described later. For example, the touch input unit 510 may surround the button input unit 520 located in the center. And the touch input unit 510 may be formed as a touch screen. With this configuration, the control device according to the embodiment is a control device (eg, remote control) for an electronic device, and can easily control the operation or control of the electronic device with a simple sense (eg, tactile sense). In other words, the user's perspective is no longer essential for controlling the control device, and electronic devices can be easily controlled in various environments and spaces.
예컨대, 터치 입력부(510)는 사용자로부터 다양한 입력(스와이핑 입력, 탭(tap)) 등을 수신하여, 그에 대응하는 신호를 출력할 수 있다.For example, the touch input unit 510 may receive various inputs (swiping input, tap), etc. from the user and output signals corresponding to them.
버튼 입력부(520)는 사용자 등에 의한 버튼 입력을 감지할 수 있다. 예컨대, 버튼 입력부(520)는 다양한 버튼 구조로 이루어질 수 있으며, 사용자의 압력에 대한 신호를 컨트롤러(570) 등으로 출력할 수 있다. 실시예에서, 버튼 입력부(520)를 통해 전자 디바이스에서 출력된 영상 또는 영상 내의 정보를 선택할 수 있다. The button input unit 520 can detect button input by a user, etc. For example, the button input unit 520 may have various button structures and may output a signal about the user's pressure to the controller 570, etc. In an embodiment, an image output from an electronic device or information within an image may be selected through the button input unit 520.
버튼 입력부(520)는 제어 디바이스(500)의 중앙에 위치할 수 있다. 이에, 사용자가 용이하게 버튼 입력부(520)를 찾을 수 있다. 나아가, 버튼 입력부(520)는 외측으로 돌출되거나 홈 형상을 가질 수 있다. 이에, 사용자가 손가락(예, 엄지 손가락)을 활용하여 용이하게 전자 디바이스를 제어할 수 있다. 예컨대, 버튼 입력부(520)를 통해 전자 디바이스 또는 제어 디바이스의 전원 입력 여부가 제어될 수 있다. 또는 버튼 입력부(520)를 통해 전자 디바이스와의 연동 여부가 제어되거나, 전자 디바이스의 입력 대기 모드 활성화 여부가 제어될 수 있다.The button input unit 520 may be located in the center of the control device 500. Accordingly, the user can easily find the button input unit 520. Furthermore, the button input unit 520 may protrude outward or have a groove shape. Accordingly, the user can easily control the electronic device using his or her fingers (eg, thumb). For example, whether or not power is input to an electronic device or control device can be controlled through the button input unit 520. Alternatively, whether or not to interoperate with an electronic device may be controlled through the button input unit 520, or whether or not the input standby mode of the electronic device is activated may be controlled.
감지부(530)는 다양한 운동 감지 센서로 이루어질 수 있다. 감지부(530)는 운동 정보를 포함하는 감지 신호를 출력할 수 있다. 예컨대, 감지부(530)는 IMU 센서를 포함할 수 있다. 예를 들어, 감지부(530)는 자이로센서, 가속도센서, 각속도 센서, 지자계센서 등을 모두 포함할 수 있다. 그리고 운동 정보는 속도 또는 가속도 정보를 포함할 수 있다. 감지부(530)는 제어 디바이스 내에 존재하거나, 상술한 전자 디바이스의 센싱부에 대응할 수도 있다. 이에, 제어 디바이스의 제어부는 전자 디바이스의 센싱부로부터 감지 신호를 수신할 수도 있다.The detection unit 530 may be made of various motion detection sensors. The detection unit 530 may output a detection signal including movement information. For example, the detection unit 530 may include an IMU sensor. For example, the sensing unit 530 may include a gyro sensor, an acceleration sensor, an angular velocity sensor, and a geomagnetic field sensor. And the exercise information may include speed or acceleration information. The sensing unit 530 may exist within the control device or may correspond to the sensing unit of the electronic device described above. Accordingly, the control unit of the control device may receive a detection signal from the sensing unit of the electronic device.
실시예로, 감지부(530)는 제어 디바이스(500)의 중력 방향, 기울어진 정도를 감지할 수 있다. 또한, 감지부(530)로부터의 자세 정보는 터치 입력부(510)에 의한 스와이핑 정보(입력)와 같이 이용될 수 있다. 이에, 제어 디바이스(500)의 방향과 무관하게 사용자는 전자 디바이스를 용이하게 제어할 수 있다.In an embodiment, the detection unit 530 may detect the direction of gravity and the degree of inclination of the control device 500. Additionally, the posture information from the sensor 530 can be used together with the swiping information (input) by the touch input unit 510. Accordingly, the user can easily control the electronic device regardless of the direction of the control device 500.
예컨대, 제어 디바이스(500)를 왼쪽 또는 오른쪽으로 기울임으로써, 방향키에 대응하는 명령이 전자 디바이스로 전달될 수 있다.For example, by tilting the control device 500 to the left or right, a command corresponding to a direction key may be transmitted to the electronic device.
통신부(540)는 전자 디바이스와 데이터의 송신을 수행할 수 있다. 또는 통신부(540)는 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 540 can transmit data with an electronic device. Alternatively, the communication unit 540 may include one or more modules that enable wireless communication between external servers.
배터리부(550)는 제어 디바이스에 전원을 공급할 수 있다. 그리고 메모리부(560)는 저장부로서 다양한 기능을 지원하는 데이터를 저장한다. 메모리부(560)는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다.The battery unit 550 may supply power to the control device. And the memory unit 560 serves as a storage unit and stores data supporting various functions. The memory unit 560 may include read-only memory (ROM), random access memory (RAM), flash memory, a memory card, a storage medium, and/or other storage devices.
컨트롤러(570)는 후술하는 제어 방법에 대한 처리를 수행할 수 있다. 이러한 컨트롤러(570)는 프로세서, 제어 유닛(control unit) 등으로 표현될 수 있다. 또한, 컨트롤러(570)는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다.The controller 570 may perform processing for a control method described later. This controller 570 may be expressed as a processor, control unit, etc. Additionally, the controller 570 may include an application-specific integrated circuit (ASIC), other chipset, logic circuit, and/or data processing device.
그리고 실시예에서는 컨트롤러(570)는 후술하는 제어 방법을 수행하는 것을 기준으로 설명한다. And in the embodiment, the controller 570 is described based on performing a control method described later.
도 28 및 도 29을 더 참조하면, 실시예에 따른 제어 방법은 사용자 입력을 수신하는 단계(S1010), 대기 모드를 활성화하는 단계(S1020), 감지 신호를 수신하는 단계(S1030), 사용자 상태를 판단하는 단계(S1040), 판단된 사용자 상태에 대응하여 제스쳐 동작 또는 터치 동작의 활성화를 결정하는 단계(S1050), 및 활성화된 동작에 대응하여 명령을 전송하는 단계(S1060)을 포함한다.Referring further to FIGS. 28 and 29, the control method according to the embodiment includes receiving a user input (S1010), activating a standby mode (S1020), receiving a detection signal (S1030), and determining the user status. It includes a step of determining (S1040), a step of determining activation of a gesture action or a touch action in response to the determined user state (S1050), and a step of transmitting a command in response to the activated action (S1060).
컨트롤러(570)는 버튼 입력부 또는 터치 입력부를 통해 사용자 입력을 수신할 수 있다(S1010). 이에, 컨트롤러(570)는 제어 디바이스를 wake-up할 수 있다. 즉, 컨트롤러(570)는 제어 디바이스의 대기 모드를 활성화할 수 있다(S1020).The controller 570 may receive user input through a button input unit or a touch input unit (S1010). Accordingly, the controller 570 can wake-up the control device. That is, the controller 570 may activate the standby mode of the control device (S1020).
이후에, 컨트롤러(570)는 감지부(530)로부터 감지 신호를 수신할 수 있다(S1030). 이 때, 컨트롤러(570)는 감지부(530)로부터 수신한 감지 신호를 이용하여 사용자의 상태를 판단할 수 있다(S1040). 사용자의 상태는 예를 들어, 정지 상태, 이동 상태, 운동 상태 및 탑승 상태를 포함할 수 있다. 이는 예시적인 상태이며, 복수 개의 상태(예, 제1 상태 내지 제4 상태)로 표현될 수도 있다.Afterwards, the controller 570 may receive a detection signal from the detection unit 530 (S1030). At this time, the controller 570 may determine the user's status using the detection signal received from the detection unit 530 (S1040). The user's state may include, for example, a stationary state, a moving state, an exercise state, and a riding state. This is an exemplary state and may be expressed as a plurality of states (eg, first to fourth states).
이후에 컨트롤러(570)는, 판단된 사용자 상태에 대응하여 제스쳐 동작 또는 터치 동작의 활성화를 결정할 수 있다(S1050). 그리고 컨트롤러(570)는 활성된 동작에 대응하여 명령을 전자 디바이스로 전송할 수 있다(S1060). 예컨대, 컨트롤러(570)는 제스쳐 동작만을 활성화할 수 있다. 이 경우, 사용자가 터치 동작을 수행하더라도 전자 디바이스로 터치 동작에 대응하는 출력 또는 명령이 전송되지 않을 수 있다. 또한, 컨트롤러(570)는 터치 동작만을 활성화할 수 있다. 이 경우, 사용자가 제스쳐 동작을 수행하더라도 전자 디바이스로 제스쳐 동작에 대응하는 출력 또는 명령이 전송되지 않을 수 있다.Afterwards, the controller 570 may determine activation of a gesture operation or a touch operation in response to the determined user state (S1050). And the controller 570 may transmit a command to the electronic device in response to the activated operation (S1060). For example, the controller 570 may activate only gesture operations. In this case, even if the user performs a touch action, an output or command corresponding to the touch action may not be transmitted to the electronic device. Additionally, the controller 570 may activate only touch operations. In this case, even if the user performs a gesture operation, an output or command corresponding to the gesture operation may not be transmitted to the electronic device.
보다 구체적으로, 실시예에 따른 제어 방법에서 사용자 상태를 판단하는 단계(S1040)는 감지 신호의 강도가 제1 설정값보다 큰 경우 감지 신호의 진폭이 제2 설정값보다 큰지 여부를 비교하는 단계(S1041)를 포함할 수 있다.More specifically, in the control method according to the embodiment, the step of determining the user state (S1040) includes comparing whether the amplitude of the detection signal is greater than the second set value when the intensity of the detection signal is greater than the first set value ( S1041) may be included.
먼저, 도 30를 함께 살펴보면, 정지 상태(제1 상태, state1)에서는 감지 신호의 강도(예, 평균 세기, A1)와 진폭(AM1)이 다른 상태 대비 가장 작을 수 있다.First, looking at FIG. 30, in a stationary state (first state, state1), the intensity (e.g., average intensity, A1) and amplitude (AM1) of the detection signal may be the smallest compared to other states.
그리고 이동 상태(제2 상태, state2)에서는 감지 신호의 강도가 제1 상태보다 크고, 진폭(AM2)이 제1 상태 및 제4 상태보다 작을 수 있다. 나아가, 이동 상태에서는 감지 신호의 강도가 제3 상태 및 제4 상태보다 작을 수 있다. 그리고 이동 상태에서는 감지 신호의 진폭(AM2)이 제3 상태보다 작을 수 있다.And in the movement state (second state, state2), the intensity of the detection signal may be greater than the first state, and the amplitude (AM2) may be smaller than the first state and the fourth state. Furthermore, in the moving state, the intensity of the detection signal may be smaller than that in the third and fourth states. And in the moving state, the amplitude (AM2) of the detection signal may be smaller than that in the third state.
운동 상태(제3 상태, state3)에서는 감지 신호의 강도(A3)가 제1,2 상태보다 크고 제4 상태보다 작을 수 있다. 그리고 운동 상태에서는 감지 신호의 진폭(AM3)이 다른 상태 대비 가장 클 수 있다.In the exercise state (third state, state3), the intensity (A3) of the detection signal may be greater than the first and second states and less than the fourth state. And in the exercise state, the amplitude (AM3) of the detection signal may be the largest compared to other states.
나아가, 탑승 상태(제4 상태, state4)에서는 감지 신호의 강도(A4)가 다른 상태 대비 가장 클 수 있다. 그리고 탑승 상태에서는 감지 신호의 진폭(AM4)이 제1 상태보다 크고 제2 상태 및 제3 상태보다 작을 수 있다.Furthermore, in the boarding state (fourth state, state4), the intensity (A4) of the detection signal may be the greatest compared to other states. And in the riding state, the amplitude (AM4) of the detection signal may be greater than the first state and smaller than the second state and the third state.
이에 따라, 컨트롤러는 감지 신호의 강도가 제1 설정값보다 큰 경우, 감지 신호의 진폭이 제2 설정값보다 큰지 비교할 수 있다. 이 때, 제1 설정값은 A3과 A2 사이의 값일 수 있다.Accordingly, when the intensity of the detection signal is greater than the first set value, the controller can compare whether the amplitude of the detection signal is greater than the second set value. At this time, the first set value may be a value between A3 and A2.
그리고 실시예에 따른 제어 방법은 감지 신호의 진폭이 제2 설정값보다 크면, 사용자 상태를 운동 상태로 판단하는 단계(S1042)를 포함할 수 있다.And the control method according to the embodiment may include determining the user's state as an exercise state when the amplitude of the detection signal is greater than the second set value (S1042).
즉, 컨트롤러는 감지 신호의 진폭이 제2 설정값보다 크면 사용자의 상태를 운동 상태로 판단할 수 있다(S1042). 제2 설정값은 AM3과 AM4 사이의 값일 수 있다.That is, if the amplitude of the detection signal is greater than the second set value, the controller may determine the user's state to be an exercise state (S1042). The second set value may be a value between AM3 and AM4.
그리고 제어 방법은 감지 신호의 진폭이 제2 설정값보다 작으면, 감지 신호의 강도가 제3 설정값보다 큰지 여부를 비교하는 단계(S1043)를 포함할 수 있다.And, if the amplitude of the detection signal is smaller than the second set value, the control method may include comparing whether the intensity of the detection signal is greater than the third set value (S1043).
예컨대, 컨트롤러는 감지 신호의 진폭이 제2 설정값보다 작으면, 감지 신호의 강도가 제3 설정값과 비교할 수 있다(S1043). For example, if the amplitude of the detection signal is smaller than the second set value, the controller may compare the intensity of the detection signal with the third set value (S1043).
이후에, 제어 방법은 감지 신호의 강도가 제3 설정값보다 크면, 사용자 상태를 탑승 상태로 판단하는 단계(S1044)를 포함할 수 있다.Thereafter, the control method may include a step (S1044) of determining the user's state as a boarding state if the strength of the detection signal is greater than the third set value.
즉, 컨트롤러는 감지 신호의 강도가 제3 설정값보다 크면 사용자 상태를 탑승 상태로 판단할 수 있다(S1044). 이 때, 제3 설정값은 A3보다 클 수 있다. 그리고 제3 설정값은 제1 설정값보다 클 수 있다.That is, if the intensity of the detection signal is greater than the third set value, the controller may determine the user's state as a riding state (S1044). At this time, the third set value may be greater than A3. And the third set value may be greater than the first set value.
그리고 제어 방법은 감지 신호의 강도가 제1 설정값보다 작으면, 감지 신호의 진폭이 제4 설정값보다 큰지 여부를 비교하는 단계(S1045)를 포함할 수 있다. 제4 설정값은 AM1과 AM2 사이의 값일 수 있다. 그리고 제4 설정값은 제2 설정값보다 작을 수 있다.And, if the intensity of the detection signal is less than the first set value, the control method may include comparing whether the amplitude of the detection signal is greater than the fourth set value (S1045). The fourth set value may be a value between AM1 and AM2. And the fourth set value may be smaller than the second set value.
이후에, 제어 방법은 감지 신호의 진폭이 제4 설정값보다 크면 사용자 상태를 이동 상태로 판단하는 단계(S1047)를 포함할 수 있다.Thereafter, the control method may include a step (S1047) of determining the user state as a moving state if the amplitude of the detection signal is greater than the fourth set value.
컨트롤러는 감지 신호의 진폭이 제4 설정값보다 크면 사용자의 상태를 이동 상태로 판단할 수 있다(S1047). 즉, 컨트롤러는 진폭으로부터 사용자 상태가 정지하지 않은 상태로 판단할 수 있다. If the amplitude of the detection signal is greater than the fourth set value, the controller may determine the user's state as a moving state (S1047). In other words, the controller can determine from the amplitude that the user state is not stopped.
또한, 제어 방법은 감지 신호의 진폭이 제4 설정값보다 작으면 사용자 상태를 정지 상태로 판단하는 단계(S1046)를 포함할 수 있다.Additionally, the control method may include a step (S1046) of determining the user state as a stopped state if the amplitude of the detection signal is smaller than the fourth set value.
컨트롤러는 감지 신호의 제4 설정값보다 작으면 사용자가 거의 움직이지 않는 정지 상태로 판단할 수 있다(S1046)If the detection signal is smaller than the fourth set value, the controller may determine that the user is in a stationary state with almost no movement (S1046)
그리고 상술한 바와 같이, 컨트롤러가 사용자의 상태를 판단한 이후에 그에 대응하여, 제스쳐 동작 및 터치 동작의 활성화를 결정할 수 있다.And as described above, after the controller determines the user's state, it can determine activation of the gesture action and touch action in response.
컨트롤러는 감지 신호의 진폭이 제2 설정값보다 크면 사용자의 상태를 운동 상태로 판단할 수 있다(S1042). 이후에, 컨트롤러는 제스쳐 동작 및 터치 동작을 모두 차단할 수 있다(S1051). If the amplitude of the detection signal is greater than the second set value, the controller may determine the user's state to be an exercise state (S1042). Afterwards, the controller may block both gesture operations and touch operations (S1051).
그리고 컨트롤러는 감지 신호의 강도가 제3 설정값보다 크면 사용자 상태를 탑승 상태로 판단할 수 있다(S1044). 이후에, 컨트롤러는 제스쳐 동작 및 터치 동작을 활성화할 수 있다(S1052).And, if the strength of the detection signal is greater than the third set value, the controller may determine the user's state as a boarding state (S1044). Afterwards, the controller may activate gesture operations and touch operations (S1052).
컨트롤러는 감지 신호의 제4 설정값보다 작으면 사용자가 거의 움직이지 않는 정지 상태로 판단할 수 있다(S1046). 이후에, 컨트롤러는 제스쳐 동작 및 터치 동작을 활성화할 수 있다(S1052).If the detection signal is smaller than the fourth set value, the controller may determine that the user is in a stationary state with almost no movement (S1046). Afterwards, the controller may activate gesture operations and touch operations (S1052).
컨트롤러는 감지 신호의 진폭이 제4 설정값보다 크면 사용자의 상태를 이동 상태로 판단할 수 있다(S1047). 이후에, 컨트롤러는 제스쳐 동작을 차단하고 터치 동작을 활성화할 수 있다.If the amplitude of the detection signal is greater than the fourth set value, the controller may determine the user's state as a moving state (S1047). Afterwards, the controller can block the gesture operation and activate the touch operation.
이로써, 운동에 의해 터치 또는 제스쳐 입력이 사용자에 의도에 의해 이루어지지 않는 경우(오입력)를 용이하게 방지할 수 있다. 다시 말해, 유저가 이동하지 않고 정지 상태에 있을 때에도, 실시예에 따른 제어 디바이스는 오입력 없이 사용자의 입력에 따라 전자 디바이스로 제어 명령을 정확하게 송신할 수 있다. As a result, it is possible to easily prevent cases where touch or gesture input due to movement is not made as intended by the user (incorrect input). In other words, even when the user is in a stationary state without moving, the control device according to the embodiment can accurately transmit a control command to the electronic device according to the user's input without incorrect input.
도 31를 더 살펴보면, 전자 디바이스도 상술한 바와 같이 센싱부를 포함할 수 있다. 이에, 전자 디바이스 또는 제어 디바이스는 상호 간의 감지 신호를 송수신할 수 있다. 예컨대, 전자 디바이스에서 센싱부의 감지 신호(sig1)와 제어 디바이스에서 감지부의 감지 신호(sig2) 간의 차이가 소정의 범위 이내인 경우에 제어 디바이스에 의한 명령이 전자 디바이스로 제공될 수 있다. Looking further at FIG. 31, the electronic device may also include a sensing unit as described above. Accordingly, electronic devices or control devices can transmit and receive detection signals to each other. For example, when the difference between the detection signal sig1 of the sensing unit in the electronic device and the detection signal sig2 of the detection unit in the control device is within a predetermined range, a command by the control device may be provided to the electronic device.
그리고 도 32을 더 살펴보면, 사용자는 전자 디바이스를 통해 현실 이미지 상의 다양한 객체를 인식할 수 있다. 나아가, 전자 디바이스는 현실 이미지의 객체에 대응하여 가상 객체 등을 제공할 수 있다. 예컨대, 전자 디바이스는 사용자에게 현실 이미지(예, 건물)에 대응하는 정보를 가상 객체로 출력할 수 있다.And looking further at Figure 32, the user can recognize various objects on a real image through an electronic device. Furthermore, the electronic device can provide virtual objects, etc., corresponding to objects in real images. For example, an electronic device may output information corresponding to a real image (eg, a building) to a user as a virtual object.
도 33를 더 살펴보면, 사용자는 실시예에 따른 제어 디바이스를 이용하여 가상 객체에 대한 이동 또는 선택을 명령으로 출력할 수 있다. 즉, 사용자는 도 32과 같은 사용자 인터페이스를 기반으로 객체(예, 가상 객체, 정보(메모 그림))에 대한 선택을 제어 디바이스를 통해 수행할 수 있다. 예컨대, 도 32에 도시된 메모 형상의 객체를 선택하면 도 33로 화면 전환이 이루어질 수 있다. Looking further at FIG. 33, the user may output a command to move or select a virtual object using a control device according to an embodiment. That is, the user can select an object (eg, virtual object, information (memo picture)) based on the user interface shown in FIG. 32 through the control device. For example, if the memo-shaped object shown in FIG. 32 is selected, the screen can be switched to FIG. 33.
이후에, 예를 들어, 사용자가 정지 상태인 경우 상술한 바와 같이, 컨트롤러는 제스쳐 동작 및 터치 동작을 활성화할 수 있다. 이에, 사용자는 제어 디바이스를 탭하는 경우 컨트롤러는 '예'에서 '아니오'로 선택 대상 또는 선택 객체를 이동시키거나(SL'), 특정 객체에 대한 선택 명령을 전자 디바이스로 송신할 수 있다.Thereafter, for example, when the user is in a stationary state, the controller may activate gesture actions and touch actions as described above. Accordingly, when the user taps the control device, the controller can move the selection object or selection object from 'Yes' to 'No' (SL') or transmit a selection command for a specific object to the electronic device.
또한, 사용자는 제어 디바이스를 특정한 방법(예, 횟수)에 맞춰 흔드는 경우(shake), 컨트롤러는 '예'에서 '아니오'로 선택 대상 또는 선택 객체를 이동시키거나(SL'), 특정 객체에 대한 선택 명령을 전자 디바이스로 송신할 수 있다.In addition, when the user shakes the control device in a specific way (e.g., number of times), the controller moves the selection target or selected object from 'Yes' to 'No' (SL') or selects a specific object. A selection command may be transmitted to the electronic device.
나아가, 도 34를 더 살펴보면, 컨트롤러는 터치 동작이 활성화되면, 사용자의 초기 입력에 대한 위치를 중앙부에 대한 상,하,좌 및 우 중 어느 하나로 설정할 수 있다.Furthermore, looking further at Figure 34, when the touch operation is activated, the controller can set the position of the user's initial input to any of the top, bottom, left, and right with respect to the center.
예컨대, 상술한 사용자의 상태 중 어느 하나의 상태에서 터치 동작이 활성화될 수 있다. 이 때, 컨트롤러는 사용자가 터치 입력부에 대해 초기 입력된 영역(AR1, 초기 입력)을 기준으로 상,하,좌 및 우 중 어느 하나로 선택할 수 있다. 이 때, 컨트롤러는 중앙부인 버튼 입력부(520)의 중심과 초기 입력을 연결한 제1 가상선(VL1)과 제1 가상선(VL2)에 수직하고 터치 입력부(510)를 이등분하는 제2 가상선(VL2)을 설정할 수 있다. 그리고 컨트롤러는 제1 가상선(VL1)과 제2 가상선(VL2)에 대해 상,하,좌 및 중 하나로 방향을 설정할 수 있다.For example, a touch operation may be activated in any one of the user states described above. At this time, the controller can select any of up, down, left, and right based on the area (AR1, initial input) that the user initially inputted to the touch input unit. At this time, the controller creates a first virtual line (VL1) connecting the center of the button input unit (520) and the initial input, and a second virtual line that is perpendicular to the first virtual line (VL2) and bisects the touch input unit (510). (VL2) can be set. And the controller can set the direction of the first virtual line (VL1) and the second virtual line (VL2) to one of up, down, and left.
예컨대, 초기 입력 이후에, 사용자가 제2 가상선(VL2) 상에서 특히 '좌'를 터치하는 경우 제어 디바이스는 전자 디바이스에 '좌'로 이동하는 명령을 송신할 수 있다. 그리고 전자 다비아시는 이러한 사용자의 터치(입력)에 대응하여 명령을 수행할 수 있다.For example, after the initial input, if the user specifically touches 'left' on the second virtual line VL2, the control device may transmit a command to move 'left' to the electronic device. And the electronic dabiashi can execute commands in response to the user's touch (input).
이처럼, 사용자가 이동 중에도 전자 디바이스에 대한 입력 또는 명령을 제어 디바이스를 통해 수행해야할 수 있다. 이 때, 제어 디바이스는 사용자의 몸 전체가 흔들리고 있더라도 오입력을 용이하게 방지할 수 있다. 나아가, 이동 중에도 사용자에게 편안함을 제공할 수 있다. As such, a user may need to input or command an electronic device through a control device even while moving. At this time, the control device can easily prevent incorrect input even if the user's entire body is shaking. Furthermore, it can provide comfort to users even while moving.
개시된 실시예에 따른 제어 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 제어 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.The control method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a control method are recorded.
도 35은 실시예에 따른 전자 디바이스의 측면도이고, 도 36은 실시예에 따른 전자 디바이스의 평면도이고, 도 37은 실시예에 따른 광학 장치의 개념도이고, 도 38은 실시예에 따른 광학 장치의 사시도이고, 도 39는 실시예에 따른 광학 장치의 분해 사시도이고, 도 40은 도 38에서 AA'로 절단하여 바라본 도면이고, 도 41은 도 40에서 K1부분의 확대도이고, 도 42는 도 40에서 K2부분의 확대도이다.FIG. 35 is a side view of an electronic device according to an embodiment, FIG. 36 is a top view of an electronic device according to an embodiment, FIG. 37 is a conceptual diagram of an optical device according to an embodiment, and FIG. 38 is a perspective view of an optical device according to an embodiment. , FIG. 39 is an exploded perspective view of an optical device according to an embodiment, FIG. 40 is a view cut along AA′ in FIG. 38, FIG. 41 is an enlarged view of portion K1 in FIG. 40, and FIG. 42 is an exploded perspective view of an optical device according to an embodiment. This is an enlarged view of part K2.
도 35 및 도 37을 참조하면, 실시예에 따른 전자 디바이스는 상술한 바와 같이 프레임(100), 광학 장치(200), 디스플레이부(300) 및 방열부(HD)를 포함할 수 있다.Referring to FIGS. 35 and 37 , the electronic device according to the embodiment may include a frame 100, an optical device 200, a display unit 300, and a heat dissipation unit (HD), as described above.
프레임(100)은 상기와 같이 안경 테일 수 있다. Frame 100 may be a glasses tail as described above.
그리고 광학 장치(200)는 프레임(100)에 배치되어 영상을 생성할 수 있다. 이에, 광학 장치(200)는 광원을 포함할 수 있다.Additionally, the optical device 200 may be disposed on the frame 100 to generate an image. Accordingly, the optical device 200 may include a light source.
그리고 디스플레이부(300)는 광학 장치(200)와 연결되어 광학 장치(200)에서 생성된 이미지를 출력할 수 있다. 이를 위해, 광학 장치(200)는 광 신호 생성부(230)를 포함할 수 있다.Additionally, the display unit 300 is connected to the optical device 200 and can output an image generated by the optical device 200. For this purpose, the optical device 200 may include an optical signal generator 230.
방열부(HD)는 광학 장치(200)와 연결될 수 있다. 그리고 방열부(HD)는 프레임(100) 내부로 배치될 수 있다. 이러한 구성에 의하여, 방열부(HD)에 의해 환경에 의해 발생하는 김서림 등의 현상을 용이하게 방지할 수 있다.The heat dissipation unit HD may be connected to the optical device 200. And the heat dissipation unit HD may be disposed inside the frame 100. With this configuration, it is possible to easily prevent phenomena such as fogging caused by the environment by the heat dissipation unit HD.
방열부(HD)는 광학 장치의 광원과 접할 수 있다. 이에, 광학 장치의 광원에 의해 발생하는 열이 용이하게 방출될 수 있다. 이로써, 사용자가 프레임을 착용하더라도 광학 장치에 의한 열로부터 피부 손상을 받지 않을 수 있다. 나아가, 광학 장치의 신뢰성이 향상될 수 있다.The heat dissipation portion (HD) may be in contact with the light source of the optical device. Accordingly, heat generated by the light source of the optical device can be easily dissipated. Accordingly, even if the user wears the frame, the skin may not be damaged from the heat caused by the optical device. Furthermore, the reliability of optical devices can be improved.
이러한 방열부(HD)는 광학 장치(200) 중 광원 장치의 기판과 접할 수 있다. 보다 구체적으로, 광원과 접촉한 기판과 접할 수 있다. 이를 위해, 광원 장치에서 기판이 광원 장치의 하우징으로부터 노출될 수 있다. 즉, 노출된 면을 통해 방열부(HD)가 광원이 실장된 기판과 용이하게 접촉하고, 방열부가 방열을 용이하게 수행할 수 있다.This heat dissipation unit HD may be in contact with the substrate of the light source device of the optical device 200. More specifically, it may be in contact with a substrate that is in contact with a light source. For this purpose, in the light source device the substrate can be exposed from the housing of the light source device. That is, the heat dissipation portion HD easily contacts the substrate on which the light source is mounted through the exposed surface, and the heat dissipation portion can easily dissipate heat.
도 37 내지 도 40을 더 참조하면, 실시예에 따른 광학 장치(200)는 배럴(210), 렌즈(L) 및 제1 광 가이드(LG1)를 포함한다. 나아가, 광학 장치(200)는 배럴(210)의 측면에 형성된 개구부(OP)에 위치 또는 결합하는 광원 장치(220)와 배럴(210)에 인접한 광 신호 생성부(230)를 포함할 수 있다. 나아가, 광학 장치(200)는 배럴(210), 광원 장치(220) 및 광 신호 생성부(230)를 감싸는 커버(CV), 기판(커넥터 포함, 미도시됨)을 더 포함할 수 있다.With further reference to FIGS. 37 to 40 , the optical device 200 according to the embodiment includes a barrel 210, a lens (L), and a first light guide (LG1). Furthermore, the optical device 200 may include a light source device 220 located at or coupled to an opening OP formed on a side of the barrel 210 and an optical signal generator 230 adjacent to the barrel 210. Furthermore, the optical device 200 may further include a cover (CV) surrounding the barrel 210, the light source device 220, and the optical signal generator 230, and a substrate (including a connector, not shown).
렌즈(L)는 복수 개일 수 있다. 예컨대, 렌즈(L)는 배럴(210)의 상부를 기준으로 순차로 배치된 복수 개의 렌즈를 포함할 수 있다. 예컨대, 렌즈(L)는 상부 첫번째 배치되는 제1 렌즈(L1), 제1 렌즈 후단에 배치되는 제2 렌즈(L2), 그리고 상부 마지막에 배치되는 제N 렌즈(Ln)를 포함할 수 있다. 여기서 N은 자연수로 2이상일 수 있다. 그리고 제N 렌즈(Ln)는 복수 개의 렌즈(L) 중 배럴(210)의 후단 또는 복수 개의 렌즈(L) 후단에 위치하는 광 신호 생성부(230)와 가장 인접하게 위치할 수 있다.There may be a plurality of lenses (L). For example, the lens L may include a plurality of lenses arranged sequentially based on the top of the barrel 210. For example, the lens L may include a first lens L1 disposed first at the top, a second lens L2 disposed behind the first lens, and an N-th lens Ln disposed last at the top. Here, N is a natural number and can be 2 or more. In addition, the N-th lens Ln may be located closest to the optical signal generator 230 located at the rear end of the barrel 210 or at the rear end of the plurality of lenses L among the plurality of lenses L.
또한, 본 발명에 따른 실시예에서 제1 방향(X축 방향)은 광축에 대응할 수 있다. 또한, 제1 방향(X축 방향)은 광원 장치(220)로부터 출사된 광이 광 신호 생성부(230)에서 반사되어 상술한 디스플레이부로 출사되는 방향에 대응할 수 있다. 그리고 제2 방향(Y축 방향)은 제1 방향(Y축 방향)에 수직한 방향이다. 나아가, 제2 방향(Y축 방향)은 제1 광 가이드(LG1)에서 개구부(OP)를 향한 방향에 대응할 수 있다. 또한, 이하 명세서 또는 본 실시예에서는 제2 방향(Y축 방향)이 제1 광 가이드(LG1)에서 제2 광 가이드(LG2)를 향한 방향에 대응할 수 있다. 제1 광 가이드(LG1)는 제1 광 가이드부, 제1 가이드 부재로 칭할 수 있다. 또한, 제2 광 가이드(LG2)는 제2 광 가이드부, 제2 가이드 부재로 칭할 수 있다.Additionally, in an embodiment according to the present invention, the first direction (X-axis direction) may correspond to the optical axis. Additionally, the first direction (X-axis direction) may correspond to the direction in which light emitted from the light source device 220 is reflected by the optical signal generator 230 and is emitted to the display unit described above. And the second direction (Y-axis direction) is a direction perpendicular to the first direction (Y-axis direction). Furthermore, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 toward the opening OP. Additionally, in the following specification or this embodiment, the second direction (Y-axis direction) may correspond to the direction from the first light guide LG1 to the second light guide LG2. The first light guide LG1 may be referred to as a first light guide part or a first guide member. Additionally, the second light guide LG2 may be referred to as a second light guide part or a second guide member.
그리고 배럴(210)은 개구부(OP)에 대응한 홀을 더 포함할 수 있다. 실시예로, 배럴(210)은 배럴홀 또는 추가홀(210h)을 포함할 수 있다. 추가홀(210h)은 개구부(OP)와 마주보게 위치할 수 있다. 또는, 추가홀(210h)은 개구부(OP)와 제2 방향(Y축 방향)으로 중첩될 수 있다. 또는, 추가홀(210h)은 제N 렌즈(Ln)로부터 제1 방향으로 거리가 개구부(OP)와 제N 렌즈(Ln) 사이의 거리와 동일할 수 있다. 또는, 추가홀(210h)은 배럴(210)의 내측면에서 개구부(OP)의 위치에 대응하는 영역에 위치할 수 있다. 이러한 구성에 의하여, 추가홀(210h)을 통해 개구부(OP)에 결합된 또는 삽입된 또는 고정된 또는 연결된 광원 장치(220)에 용이하게 접합 부재를 도포할 수 있다. 이에, 배럴(210)과 광원 장치(220) 간의 결합력을 개선할 수 있다. 따라서 실시예에 따른 광학 장치(200)는 개선된 내구도, 내구성 또는 신뢰성을 가질 수 있다. 또는, 추가홀(210h)을 통해 개구부(OP)에 위치한 광원 장치(220)에 대한 광학 테스트도 용이하게 수행될 수 있다. 또는, 추가홀(210h)을 통해 배럴(210) 및 광원 장치(200)에 대한 유체(예, 에어(air))의 배출 또는 토출이 용이하게 수행될 수 있다. 이러한 추가홀(210h)의 존재 여부는 실시예에 따라 다양하게 적용될 수 있다. 예컨대, 추가홀(210h)은 상기한 바와 같이 배럴(210)의 측면에 배치될 수 있다. 또는 추가홀(210h)은 내구성 등을 고려하여 배럴(210)의 측면에 존재하지 않을 수 있다.And the barrel 210 may further include a hole corresponding to the opening OP. In an embodiment, the barrel 210 may include a barrel hole or an additional hole 210h. The additional hole 210h may be located facing the opening OP. Alternatively, the additional hole 210h may overlap the opening OP in the second direction (Y-axis direction). Alternatively, the distance of the additional hole 210h from the N-th lens Ln in the first direction may be equal to the distance between the opening OP and the N-th lens Ln. Alternatively, the additional hole 210h may be located in an area corresponding to the position of the opening OP on the inner surface of the barrel 210. With this configuration, the bonding member can be easily applied to the light source device 220 coupled to, inserted into, fixed to, or connected to the opening OP through the additional hole 210h. Accordingly, the coupling force between the barrel 210 and the light source device 220 can be improved. Accordingly, the optical device 200 according to the embodiment may have improved durability, durability, or reliability. Alternatively, optical tests on the light source device 220 located in the opening OP can also be easily performed through the additional hole 210h. Alternatively, fluid (eg, air) can be easily discharged or discharged to the barrel 210 and the light source device 200 through the additional hole 210h. The presence or absence of these additional holes 210h may be applied in various ways depending on the embodiment. For example, the additional hole 210h may be disposed on the side of the barrel 210 as described above. Alternatively, the additional hole 210h may not exist on the side of the barrel 210 in consideration of durability, etc.
그리고 배럴(210) 내에는 복수 개의 렌즈(L)가 위치할 수 있다. 또한, 배럴(210) 내에는 제1 광 가이드(LG1)가 위치할 수 있다. And a plurality of lenses (L) may be located within the barrel 210. Additionally, a first light guide LG1 may be located within the barrel 210.
그리고 실시예에 따른 배럴(210)은 측면에 형성되는 개구부(OP)를 포함할 수 있다. 개구부(OP)의 형상은 원형, 다각형 등 다양한 형상을 포함할 수 있다. 그리고 이러한 개구부(OP)는 제1 광 가이드(LG1)의 위치에 대응할 수 있다. And the barrel 210 according to the embodiment may include an opening OP formed on the side. The shape of the opening OP may include various shapes, such as circular or polygonal. And this opening OP may correspond to the position of the first light guide LG1.
실시예로, 개구부(OP)는 제1 광 가이드(LG1)와 광축의 수직한 방향으로 중첩될 수 있다. 이러한 구성에 의하여, 배럴(210)의 측부에 위치한 광원 장치(220)로부터 출사된 광이 제1 광 가이드(LG1)로 용이하게 입사될 수 있다.In an embodiment, the opening OP may overlap the first light guide LG1 in a direction perpendicular to the optical axis. With this configuration, light emitted from the light source device 220 located on the side of the barrel 210 can easily enter the first light guide LG1.
그리고 제1 광 가이드(LG1)는 복수 개의 렌즈 중 두 개의 렌즈 사이에 배치될 수 있다. 예컨대, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 제N 렌즈(Ln) 사이에 배치될 수 있다. 또한, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 광 신호 생성부(230) 사이에 위치할 수 있다. 또한, 제1 광 가이드(LG1)는 제1 렌즈(L1)와 제2 렌즈(L2) 사이 또는 제2 렌즈(L2)와 제N 렌즈(Ln) 사이에 위치할 수 있다. 이러한 제1 광 가이드(LG1)의 다양한 위치에 대해서는 후술하는 바와 같이 다양한 실시예로 설명한다.And the first light guide LG1 may be disposed between two lenses among the plurality of lenses. For example, the first light guide LG1 may be disposed between the first lens L1 and the N-th lens Ln. Additionally, the first light guide LG1 may be located between the first lens L1 and the optical signal generator 230. Additionally, the first light guide LG1 may be located between the first lens L1 and the second lens L2 or between the second lens L2 and the N-th lens Ln. Various positions of the first light guide LG1 will be described through various embodiments as will be described later.
본 실시예에서, 제1 광 가이드(LG1)는 제2 렌즈(L2)와 제N 렌즈(Ln) 사이에 위치할 수 있다. 이에 따라, 제N 렌즈(Ln)는 제1 광 가이드(LG1)와 광 신호 생성부(230) 사이에 위치할 수 있다. 이러한 구성에 의하여, 제1 광 가이드(LG1)에서 반사된 광이 광 신호 생성부(230)로 제공됨에 있어서, 적절한 광 경로가 확보될 수 있다. 또한, 반사된 광에 대한 굴절이 이루어질 수 있다. 이로써, 제1 광 가이드(LG1)의 소형화가 이루어질 수 있다.In this embodiment, the first light guide LG1 may be located between the second lens L2 and the N-th lens Ln. Accordingly, the N-th lens (Ln) may be located between the first light guide (LG1) and the optical signal generator 230. With this configuration, an appropriate optical path can be secured when the light reflected from the first light guide LG1 is provided to the optical signal generator 230. Additionally, refraction of the reflected light may occur. As a result, the first light guide LG1 can be miniaturized.
제1 광 가이드(LG1)는 제1 프리즘을 포함할 수 있다. 제1 프리즘은 편광 프리즘일 수 있다. 또한, 제1 프리즘은 편광 분리 프리즘일 수 있다. The first light guide LG1 may include a first prism. The first prism may be a polarizing prism. Additionally, the first prism may be a polarization separation prism.
제1 프리즘은 제1 편광을 반사하고, 제2 편광을 투과할 수 있다. 예컨대, 광원 장치(220)로부터 제공된 또는 제1 광 가이드(LG1)로 입사된 광의 일부(제1 편광)가 제1 광 가이드(LG1)에서 반사되어 광 신호 생성부(230)로 제공될 수 있다. 그리고 제1 광 가이드(LG1)로 입사된 광의 다른 일부(제2 편광)이 제1 광 가이드(LG1)를 투과하여 배럴(210)에서 흡수될 수 있다.The first prism may reflect the first polarized light and transmit the second polarized light. For example, a portion of the light (first polarized light) provided from the light source device 220 or incident on the first light guide LG1 may be reflected from the first light guide LG1 and provided to the optical signal generator 230. . Additionally, another part of the light (second polarized light) incident on the first light guide LG1 may pass through the first light guide LG1 and be absorbed in the barrel 210 .
그리고 개구부(OP)를 통해 광원 장치(220)에서 출사된 광이 제1 광 가이드(LG1)로 입사될 수 있다. 이를 위해, 상술한 바와 같이 개구부(OP)는 제1 광 가이드(LG1)가 위치한 영역에 배치될 수 있다. 예컨대, 제1 광 가이드(LG1)의 입사면은 개구부(OP)와 마주하게 위치할 수 있다. 또는, 배럴(210)에서 제1 광 가이드(LG1)의 위치는 제1 광 가이드(LG1)와 동일할 수 있다. Additionally, light emitted from the light source device 220 may be incident on the first light guide LG1 through the opening OP. To this end, as described above, the opening OP may be disposed in the area where the first light guide LG1 is located. For example, the incident surface of the first light guide LG1 may be positioned to face the opening OP. Alternatively, the position of the first light guide LG1 in the barrel 210 may be the same as the first light guide LG1.
광원 장치(220)는 광원(223)을 포함하여 광을 생성(발생, 제공) 또는 출사할 수 있다. 실시예에 따른 광원 장치(220)는 개구부(OP)에 위치 또는 결합될 수 있다. 즉, 광원 장치(220)는 배럴(210)과 연결 또는 결합될 수 있다.The light source device 220 may include a light source 223 and generate (generate, provide) or emit light. The light source device 220 according to the embodiment may be located or coupled to the opening OP. That is, the light source device 220 may be connected or combined with the barrel 210.
광원 장치(220)는 개구(222h)를 포함한 하우징(222), 하우징(2220) 내에 배치되는 제2 광 가이드(LG2), 및 제2 광 가이드(LG2)로 광을 제공하는 광원(223)을 포함할 수 있다.The light source device 220 includes a housing 222 including an opening 222h, a second light guide LG2 disposed within the housing 2220, and a light source 223 that provides light to the second light guide LG2. It can be included.
나아가, 광원 장치(220)는 광원 장치(220)에서 외측에 배치되고 하우징(222)을 감싸는 광원 어셈블리(221), 광원(223)에 인접한 광원 렌즈(224), 및 하우징(222) 내에 위치한 중간렌즈(MO)를 포함할 수 있다.Furthermore, the light source device 220 includes a light source assembly 221 disposed outside the light source device 220 and surrounding the housing 222, a light source lens 224 adjacent to the light source 223, and an intermediate member located within the housing 222. It may include a lens (MO).
광원 어셈블리(221)는 광원 장치(220)에서 최외측에 배치될 수 있다. 하우징(222) 내에 광원(223)의 실장이 어렵거나 추가 렌즈(광원 렌즈)의 실장이 필요한 경우, 광원 어셈블리(221)가 하우징(222) 외측에 위치할 수 있다. 광원 어셈블리(221)는 하우징(222)과 일체 또는 분리된 구조일 수 있다.The light source assembly 221 may be disposed on the outermost side of the light source device 220 . When mounting the light source 223 within the housing 222 is difficult or when mounting an additional lens (light source lens) is required, the light source assembly 221 may be located outside the housing 222. The light source assembly 221 may be integrated with the housing 222 or may be separate from the housing 222 .
하우징(222)은 개구(222h)를 포함할 수 있다. 하우징(222)은 배럴(210)의 개구부(OP)에 인접하게 위치할 수 있다. 예컨대, 하우징(222)의 개구(222h)는 배럴(210)의 개구부(OP)에 대응하여 위치할 수 있다. 이에, 하우징(222)의 개구(222h)는 배럴(210)의 개구부(OP)와 제2 방향(Y축 방향)으로 중첩될 수 있다. Housing 222 may include an opening 222h. The housing 222 may be located adjacent to the opening OP of the barrel 210. For example, the opening 222h of the housing 222 may be located corresponding to the opening OP of the barrel 210. Accordingly, the opening 222h of the housing 222 may overlap the opening OP of the barrel 210 in the second direction (Y-axis direction).
광원(223)은 하우징(222) 또는 광원 어셈블리(221) 내에 위치할 수 있다. 광원(223)은 광을 출사할 수 있다. 예컨대, 광원(223)으로부터 출사된 광은 하우징(222) 내의 제2 광 가이드(LG2)로 입사될 수 있다. 하우징(222) 내에는 제2 광 가이드(LG2)가 위치할 수 있다. 이에, 제2 광 가이드(LG2)는 광원(223)으로부터 출사된 광을 개구(222h) 또는 제1 광 가이드(LG1)로 전달할 수 있다. Light source 223 may be located within housing 222 or light source assembly 221. The light source 223 may emit light. For example, light emitted from the light source 223 may be incident on the second light guide LG2 within the housing 222. A second light guide LG2 may be located within the housing 222. Accordingly, the second light guide LG2 may transmit the light emitted from the light source 223 to the opening 222h or the first light guide LG1.
그리고 광원(223)은 하나 이상일 수 있다. 즉, 광원 장치(220)에서 광원(223)은 단일 또는 복수 개일 수 있다. 예컨대, 광원(223)은 복수 개로, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c)을 포함할 수 있다. 제1 광원(223a) 내지 제3 광원(223c)은 동일한 방향 또는 서로 다른 방향으로 광을 출사 할 수 있다. 예컨대, 제1 광원(223a)과 제3 광원(223c)은 마주보게 위치할 수 있다. 제1 광원(223a)과 제3 광원(223c)은 제1 방향(X축 방향)으로 중첩되게 위치할 수 있다. 그리고 제1 광원(223a)과 제3 광원(223c) 사이에는 제2 광 가이드(LG2)가 위치할 수 있다. 이에, 제2 광 가이드(LG2)는 제1 광원(223a)과 제3 광원(223c)과 중첩될 수 있다. 그리고 제2 광원(223b)은 제1 광원(223a)과 제3 광원(223c) 사이에 위치할 수 있다. 제1 광원(223a) 내지 제3 광원(223c)은 제2 광 가이드(LG2)를 향해 광을 출사할 수 있다. 그리고 제2 광원(223b)은 제2 광 가이드(LG2)와 제2 방향으로 중첩될 수 있다. 이러한 구성에 의하여, 광학 장치(200)는 컴팩트한 광원 장치(220)를 가질 수 있다.And there may be more than one light source 223. That is, in the light source device 220, there may be a single light source 223 or a plurality of light sources 223. For example, the light source 223 may be plural and include a first light source 223a, a second light source 223b, and a third light source 223c. The first light source 223a to the third light source 223c may emit light in the same direction or in different directions. For example, the first light source 223a and the third light source 223c may be positioned to face each other. The first light source 223a and the third light source 223c may be positioned to overlap in the first direction (X-axis direction). And a second light guide LG2 may be located between the first light source 223a and the third light source 223c. Accordingly, the second light guide LG2 may overlap the first light source 223a and the third light source 223c. And the second light source 223b may be located between the first light source 223a and the third light source 223c. The first light source 223a to the third light source 223c may emit light toward the second light guide LG2. And the second light source 223b may overlap the second light guide LG2 in the second direction. With this configuration, the optical device 200 can have a compact light source device 220.
또한, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각은 서로 일부 동일 또는 상이한 파장 또는 색의 광을 출사할 수 있다. 예컨대, 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각은 적색, 녹색, 청색의 광을 출사할 수 있다.Additionally, the first light source 223a, the second light source 223b, and the third light source 223c may each emit light of the same or different wavelengths or colors. For example, the first light source 223a, the second light source 223b, and the third light source 223c may each emit red, green, and blue light.
제2 광 가이드(LG2)는 제2 프리즘을 포함할 수 있다. 제2 프리즘은 반사 부재로, 예컨대 X 프리즘(x-prism)을 포함할 수 있다. 실시예로, 제2 광 가이드(LG2) 또는 제2 프리즘은 적어도 2개 이상의 프리즘이 결합된 구조일 수 있다. The second light guide LG2 may include a second prism. The second prism is a reflective member and may include, for example, an X prism (x-prism). In an embodiment, the second light guide LG2 or the second prism may have a structure in which at least two or more prisms are combined.
그리고 제2 프리즘은 적어도 2개 이상의 코팅면(반사부재 또는 반사시트)을 포함할 수 있다. 이러한 적어도 2개 이상의 코팅면 중 하나는 제1 파장의 빛과 제2 파장의 빛을 반사하고, 제3 파장의 빛을 투과할 수 있다. 즉, 코팅면은 소정의 파장 대역의 광을 반사할 수 있다. 이에, 복수 개의 광원(223)으로부터 출사된 광 각각에 대해 원하는 파장 대역의 광들이 각각 제2 광 가이드(LG2)에서 반사될 수 있다. 예컨대, 제2 광 가이드(LG2)를 통과한 광은 제1 광 가이드(LG1) 또는 중간렌즈(MO)로 제공될 수 있다.And the second prism may include at least two or more coated surfaces (reflecting members or reflective sheets). One of these at least two coating surfaces may reflect light of the first wavelength and light of the second wavelength, and may transmit light of the third wavelength. That is, the coated surface can reflect light in a predetermined wavelength band. Accordingly, for each light emitted from the plurality of light sources 223, lights in a desired wavelength band may be reflected from the second light guide LG2. For example, light passing through the second light guide (LG2) may be provided to the first light guide (LG1) or the intermediate lens (MO).
광원 렌즈(224)는 광원(223)에 인접하게 위치할 수 있다. 예컨대, 광원 렌즈(224)는 복수 개일 수 있다. 광원 렌즈(224)는 각 광원(223)에서 출사된 광의 경로 상에 위치할 수 있다. The light source lens 224 may be located adjacent to the light source 223. For example, there may be a plurality of light source lenses 224. The light source lens 224 may be located on the path of light emitted from each light source 223.
실시예로, 광원 렌즈(224)는 제2 광 가이드(LG2)와 광원(223) 사이에 위치할 수 있다. 또한, 광원 렌즈(224)는 복수 개일 수 있다. 광원 렌즈(224)는 제2 광 가이드(LG2)와 광원(223) 사이에서 복수 개로 위치할 수 있다. 또는, 광원 렌즈(224)는 복수 개의 광원(223)에 각각에 대응하여 복수 개일 수 있다.In an embodiment, the light source lens 224 may be located between the second light guide LG2 and the light source 223. Additionally, there may be a plurality of light source lenses 224. A plurality of light source lenses 224 may be positioned between the second light guide LG2 and the light source 223. Alternatively, there may be a plurality of light source lenses 224 corresponding to each of the plurality of light sources 223 .
예컨대, 광원 렌즈(224)는 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c)를 포함할 수 있다. 제1 광원 렌즈(224a)는 제1 광원(223a)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. 제2 광원 렌즈(224b)는 제2 광원(223b)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. 제3 광원 렌즈(224c)는 제3 광원(223c)과 제2 광 가이드(LG2) 사이에 위치할 수 있다. For example, the light source lens 224 may include a first light source lens 224a, a second light source lens 224b, and a third light source lens 224c. The first light source lens 224a may be located between the first light source 223a and the second light guide LG2. The second light source lens 224b may be located between the second light source 223b and the second light guide LG2. The third light source lens 224c may be located between the third light source 223c and the second light guide LG2.
또한, 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c) 각각은 제1 광원(223a), 제2 광원(223b) 및 제3 광원(223c) 각각 상에 복수 개로 위치할 수 있다. 예컨대, 복수 개의 제1 광원 렌즈(224a) 중 어느 하나는 제1 광원(223a) 상에 위치하며 광원 어셈블리(221)와 결합할 수 있다. 그리고 복수 개의 제1 광원 렌즈(224a) 중 다른 하나는 상기 어느 하나와 제2 광 가이드(LG2) 사이에 위치하며, 하우징(222)과 결합할 수 있다.In addition, the first light source lens 224a, the second light source lens 224b, and the third light source lens 224c are each on the first light source 223a, the second light source 223b, and the third light source 223c. There may be multiple locations. For example, one of the plurality of first light source lenses 224a may be located on the first light source 223a and combined with the light source assembly 221. Another one of the plurality of first light source lenses 224a is located between one of the first light source lenses 224a and the second light guide LG2, and can be combined with the housing 222.
그리고 제1 광원 렌즈(224a), 제2 광원 렌즈(224b) 및 제3 광원 렌즈(224c)는 시준렌즈 또는 콜리메이터(collimator)를 포함할 수 있다.And the first light source lens 224a, the second light source lens 224b, and the third light source lens 224c may include a collimator lens or a collimator.
또한, 광원 어셈블리(221)에는 광원(223)과 연결된 기판(225)이 배치될 수 있다. 기판(225)은 광원(223)에 대응하여 적어도 하나일 수 있다. 예컨대, 복수 개의 기판(225)은 제1 기판(225a), 제2 기판(225b) 및 제3 기판(225c)을 포함할 수 있다. 상술한 바와 같이, 복수 개의 기판(225)은 일체로 하나의 기판이거나, 광원의 개수에 대응하여 복수 개일 수 있다.Additionally, a substrate 225 connected to the light source 223 may be disposed in the light source assembly 221. There may be at least one substrate 225 corresponding to the light source 223 . For example, the plurality of substrates 225 may include a first substrate 225a, a second substrate 225b, and a third substrate 225c. As described above, the plurality of substrates 225 may be one substrate or may be plural in number corresponding to the number of light sources.
또한, 기판(225)은 상술한 프레임(또는 디스플레이부) 내의 제어부 또는 프로세서와 전기적으로 연결될 수 있다. 이에, 기판(225)은 외부 장치 또는 연결된 장치와 통신을 위한 커넥터를 포함할 수 있다. 나아가, 기판(225)은 광원(223) 외측에 배치되어 광원에서 발생하는 열을 외부로 배출할 수 있다. 이에, 광원 장치(220)의 신뢰성을 개선할 수 있다.Additionally, the substrate 225 may be electrically connected to a control unit or processor within the frame (or display unit) described above. Accordingly, the board 225 may include a connector for communication with an external device or a connected device. Furthermore, the substrate 225 is disposed outside the light source 223 to discharge heat generated from the light source to the outside. Accordingly, the reliability of the light source device 220 can be improved.
중간렌즈(MO)는 개구(222h)와 제2 광 가이드(LG2) 사이에 위치할 수 있다. 또한, 중간렌즈(MO)는 제1 광 가이드(LG1)와 제2 광 가이드(LG2) 사이에 위치할 수 있다. The intermediate lens (MO) may be located between the aperture (222h) and the second light guide (LG2). Additionally, the intermediate lens (MO) may be located between the first light guide (LG1) and the second light guide (LG2).
중간렌즈(MO)는 복수 개의 렌즈를 포함할 수 있다. 예컨대, 제1 중간렌즈(MO1) 및 제2 중간렌즈(MO2)를 포함할 수 있다. 다만, 후술하는 바와 같이, 중간렌즈(MO) 없이 제2 광 가이드(LG2)에서 반사된 광이 제1 광 가이드(LG1)로 직접 제공될 수도 있다.The intermediate lens (MO) may include a plurality of lenses. For example, it may include a first intermediate lens (MO1) and a second intermediate lens (MO2). However, as will be described later, the light reflected from the second light guide LG2 may be directly provided to the first light guide LG1 without the intermediate lens MO.
제1 중간렌즈(MO1)는 제1 광 가이드(LG1)와 인접한 제1 면(MO1s1) 및 제1 면(MO1s1)에 대응하는 제2 면(MO1s2)을 포함할 수 있다. 광원(223)으로부터 출사된 광이 제2 광 가이드(LG2)를 지나 제2 면(MO1s2)과 제2 면(MO1s1)을 순차로 지나갈 수 있다.The first intermediate lens MO1 may include a first surface MO1s1 adjacent to the first light guide LG1 and a second surface MO1s2 corresponding to the first surface MO1s1. Light emitted from the light source 223 may pass through the second light guide LG2 and sequentially pass through the second surface MO1s2 and the second surface MO1s1.
제2 면(MO1s2)은 제2 광 가이드(LG2)를 향해 볼록할 수 있다. 또는, 제2 면(MO1s2)은 제1 광 가이드(LG1)를 향해 오목할 수 있다. 나아가, 제1 면(MO1s1)은 제2 광 가이드(Lg2)를 향해 볼록 또는 오목할 수 있다. 예컨대, 제1 중간렌즈(MO1)는 메니스커스 형상일 수 있다. 이와 같이 제2 면(MO1s2)이 제2 광 가이드(LG2)를 향해 볼록하여, 광이 중간렌즈(MO)를 통과하면서 집중될 수 있다. 이에 따라, 광 신호 생성부(230)로 제공되는 광의 균일성 또는 유니포미티(uniformity)가 향상될 수 있다. 다시 말해, 광 신호 생성부(230)에 입사되는 광은 면광일 수 있다. 그리고 면광의 균일성이 향상될 수 있다. 이에 따라, 실시예에 따른 광학 장치(200)를 통해 디스플레이부로 출사되는 영상 신호 또는 영상의 정확도 또는 해상도가 개선될 수 있다.The second surface MO1s2 may be convex toward the second light guide LG2. Alternatively, the second surface MO1s2 may be concave toward the first light guide LG1. Furthermore, the first surface MO1s1 may be convex or concave toward the second light guide Lg2. For example, the first intermediate lens MO1 may have a meniscus shape. In this way, the second surface MO1s2 is convex toward the second light guide LG2, so that light can be concentrated while passing through the intermediate lens MO. Accordingly, the uniformity or uniformity of light provided to the optical signal generator 230 may be improved. In other words, the light incident on the optical signal generator 230 may be surface light. And the uniformity of surface light can be improved. Accordingly, the accuracy or resolution of the image signal or image emitted to the display unit through the optical device 200 according to the embodiment may be improved.
제2 중간렌즈(MO2)는 마이크로 렌즈 어레이(MLA)를 포함할 수 있다. 이에, 제2 광 가이드(LG2)를 통과한 광에 대한 면광화가 일부 수행될 수 있다.The second intermediate lens (MO2) may include a micro lens array (MLA). Accordingly, surface illumination may be partially performed on the light passing through the second light guide LG2.
나아가, 제2 중간렌즈(MO2)는 제2 광 가이드(LG2)와 크기가 상이할 수 있다. 또한, 제1 중간렌즈(MO1)는 제2 광 가이드(LG2)와 크기가 상이할 수 있다. 예컨대, 중간렌즈(MO2)는 제2 광 가이드(LG2) 대비 크기가 클 수 있다.Furthermore, the second intermediate lens MO2 may have a different size from the second light guide LG2. Additionally, the first intermediate lens MO1 may have a different size from the second light guide LG2. For example, the intermediate lens (MO2) may be larger in size compared to the second light guide (LG2).
나아가, 복수 개의 렌즈(L), 중간렌즈(MO), 광원 렌즈(224)는 스페이서(SP)에 의해 위치가 유지될 수 있다. 예컨대, 배럴(210) 내에는 복수 개의 렌즈(L)에 인접한 복수 개의 스페이서(SP)가 존재할 수 있다. 또한, 광원 장치(220)의 하우징(222) 또는 광원 어셈블리(221)에는 중간렌즈(MO), 광원 렌즈(224)에 인접한 복수 개의 스페이서(SP)가 배치될 수 있다. 실시예로, 복수 개의 스페이서(SP)는 상술한 렌즈의 상부 또는 하부 측에 배치되어 렌즈의 위치를 고정 또는 유지할 수 있다.Furthermore, the positions of the plurality of lenses L, the intermediate lens MO, and the light source lens 224 may be maintained by the spacer SP. For example, a plurality of spacers (SP) adjacent to a plurality of lenses (L) may exist in the barrel 210. Additionally, an intermediate lens (MO) and a plurality of spacers (SP) adjacent to the light source lens 224 may be disposed in the housing 222 or the light source assembly 221 of the light source device 220. In an embodiment, a plurality of spacers SP may be disposed on the upper or lower side of the above-described lens to fix or maintain the position of the lens.
광 신호 생성부(230)는 배럴(210)의 후단에 위치할 수 있다. 광 신호 생성부(230)는 렌즈(L)와 광축 또는 제1 방향(X축 방향)으로 중첩될 수 있다.The optical signal generator 230 may be located at the rear end of the barrel 210. The optical signal generator 230 may overlap the lens L in the optical axis or the first direction (X-axis direction).
광 신호 생성부(230)는 제1 광 가이드(LG1)로 입사하여 반사된 후 제N 렌즈를 통과한 광을 영상 정보를 포함하는 광 신호로 바꿀 수 있다.The optical signal generator 230 may convert the light incident on the first light guide LG1, reflected, and then passing through the N-th lens into an optical signal containing image information.
광 신호 생성부(230)는 제1 광 가이드(LG1)에서 반사된 광(제1 편광)을 반사할 수 있다. 광 신호 생성부(230)는 영상 정보를 포함한 광 신호를 생성할 수 있다. 즉, 광 신호 생성부(230)에서 반사된 광은 영상 정보를 포함한 광일 수 있다.The optical signal generator 230 may reflect light (first polarized light) reflected from the first light guide LG1. The optical signal generator 230 may generate an optical signal including image information. That is, the light reflected from the optical signal generator 230 may be light containing image information.
광 신호 생성부(230)는 실리콘 액정 표시 장치(Liquid Crystal on Silicon, LCoS)을 포함할 수 있다. The optical signal generator 230 may include a liquid crystal on silicon (LCoS) device.
실리콘 액정 표시 장치는 CMOS(Complementary Metal-Oxide Semiconductor; 상보형 금속 산화막 반도체) 어레이를 가지는 실리콘 웨이퍼(Wafer; 반도체의 재료가 되는 얇은 원판)와 투명 전극(Indium Tin Oxide, ITO)으로 코팅된 반사 방지 부재(Anti Reflection, AR) 사이에 액정을 넣은 구조일 수 있다.A silicon liquid crystal display device consists of a silicon wafer (a thin disk used as a semiconductor material) with a CMOS (Complementary Metal-Oxide Semiconductor) array and an anti-reflection coating coated with a transparent electrode (Indium Tin Oxide, ITO). It may be a structure where liquid crystal is placed between members (anti-reflection, AR).
그리고 웨이퍼(실리콘 웨이퍼) 상에는 얼라인먼트 레이어(Alignment layer)가 형성되어 초기 액정배향을 형성할 수 있다.And, an alignment layer is formed on the wafer (silicon wafer) to form initial liquid crystal alignment.
나아가, 얼라인먼트 레이어 하부에 알루미늄층으로 형성되며 높은 광학적 반사율을 갖는 반사층 또는 반사전극이 위치할 수 있다. 반사전극은 실리콘 웨이퍼 상에 위치할 수 있다. 그리고 실리콘 웨이퍼에는 반도체 어레이(CMOS array)가 형성될 수 있다. 그리고 이러한 반도체 어레이로 패널을 통한 데이터 신호의 전송이 이루어질 수 있다. Furthermore, a reflective layer or reflective electrode formed of an aluminum layer and having a high optical reflectance may be located below the alignment layer. The reflective electrode may be located on a silicon wafer. And a semiconductor array (CMOS array) can be formed on the silicon wafer. And data signals can be transmitted through the panel using this semiconductor array.
이러한 광 신호 생성부(230)는 구동에 따라 입사되는 광의 적어도 일부를 반사할 수 있다. 그리고 광 신호 생성부(230)는 면 광원으로 입사된 광을 픽셀 별로 반사할 수 있다. 또한, 반사된 광의 세기도 변조 정도에 따라 조절될 수 있다. 예컨대, 광 신호 생성부(230)는 제1 편광을 제2 편광으로 일부 변조할 수 있다. 이에, 제2 편광으로 변조된 광은 제1 광 가이드(LG1), 제1 렌즈(L1)를 지나 디스플레이부로 제공될 수 있다. The optical signal generator 230 may reflect at least a portion of the incident light as it is driven. Additionally, the optical signal generator 230 may reflect light incident on the surface light source for each pixel. Additionally, the intensity of reflected light can also be adjusted depending on the degree of modulation. For example, the optical signal generator 230 may partially modulate the first polarized light into the second polarized light. Accordingly, the light modulated by the second polarization may pass through the first light guide LG1 and the first lens L1 and be provided to the display unit.
즉, 광 신호 생성부(230)는 변조된 광 즉, 편광(Polarized Light)에 대한 지연(Retardation)을 변조시킬 수 있다. 광 신호 생성부(230)는 다양한 방식으로 제1 편광에 대한 지연을 수행할 수 있다. 즉, 각 픽셀에 위한 전압(전극의 전압 조절)을 조절하여 전계를 형성할 수 있다. 그리고 조절된 전압에 따라 액정에 대한 꼬인 정도도 조절될 수 있다. 예컨대, 최대 전압 시, 광 신호 생성부(230)에서 반사된 광은 제1 광 가이드(LG1)에서 모두 반사될 수 있다. 그리고 최소 전압 시, 광 신호 생성부(230)에서 반사된 광은 제2 광 가이드(LG1)에서 모두 투과될 수 있다. 다만, 전계에 따라 반대로 동작할 수도 있다. 또한, 중간 정도의 전압을 적용하면, 일부 광이 제1 광 가이드(LG1)를 투과할 수 있다. 즉, 디스플레이부로 제공되는 광의 세기(예, 밝기)가 중간 정도일 수 있다. That is, the optical signal generator 230 can modulate the retardation of modulated light, that is, polarized light. The optical signal generator 230 may delay the first polarization in various ways. In other words, an electric field can be formed by adjusting the voltage for each pixel (adjusting the voltage of the electrode). And the degree of twist in the liquid crystal can be adjusted according to the adjusted voltage. For example, at the maximum voltage, all of the light reflected from the optical signal generator 230 may be reflected from the first light guide LG1. And at the minimum voltage, all of the light reflected from the optical signal generator 230 may be transmitted through the second light guide LG1. However, it may operate in the opposite direction depending on the electric field. Additionally, when a moderate voltage is applied, some light may pass through the first light guide LG1. That is, the intensity (eg, brightness) of light provided to the display unit may be medium.
이처럼, 광 신호 생성부(230)에서 생성된 광 신호는 제N 렌즈(Ln) 및 제1 광 가이드(LG1)를 통해 제1 렌즈(L1)로 전달될 수 있다. 나아가, 광 신호 생성부(230)에서 생성된 광 신호는 적어도 일부가 제1 렌즈(L1)를 통과하여 디스플레이부로 입사할 수 있다.In this way, the optical signal generated by the optical signal generator 230 may be transmitted to the first lens L1 through the N-th lens Ln and the first light guide LG1. Furthermore, at least a portion of the optical signal generated by the optical signal generator 230 may pass through the first lens L1 and enter the display unit.
추가로, 광 신호 생성부(230)와 제N 렌즈(Ln)(또는 제1 광 가이드) 사이에는 투명 부재(240)가 더 배치될 수 있다. 투명 부재(240)는 글라스(glass)일 수 있다. 투명 부재(240)는 배럴(210) 또는 커버(CV)와 결합할 수 있다. 나아가, 투명 부재(240)는 광 신호 생성부(230) 상에 위치할 수 있다. 이에, 광 신호 생성부(230)에 대한 이물 유입이 용이하게 차단될 수 있다. 그리고 투명 부재(240)는 광 신호 생성부(230)와 크기가 동일 또는 상이할 수 있다. 나아가, 투명 부재(240)는 광 신호 생성부(230)의 적어도 일부와 광축 방향 또는 제1 방향(X축 방향)으로 중첩될 수 있다.Additionally, a transparent member 240 may be further disposed between the optical signal generator 230 and the N-th lens Ln (or first light guide). The transparent member 240 may be glass. The transparent member 240 may be combined with the barrel 210 or the cover (CV). Furthermore, the transparent member 240 may be located on the optical signal generator 230. Accordingly, the inflow of foreign substances into the optical signal generator 230 can be easily blocked. And the transparent member 240 may have the same or different size from the optical signal generator 230. Furthermore, the transparent member 240 may overlap at least a portion of the optical signal generator 230 in the optical axis direction or the first direction (X-axis direction).
나아가, 방열부(HD)는 하우징(222)의 외측면 상에서 프레임(100)으로 연장될 수 있다. 상술한 바와 같이 방열부(HD)는 하우징(222)의 외측면 상에 배치되고, 하우징(222)에서 노출된 기판(225)과 접촉할 수 있다. 이 때, 방열부(HD)는 광학 장치(200)의 내측면(200IS)에 위치하지 않을 수 있다. 즉, 방열부(HD)는 광학 장치(200)의 내측면(200IS)과 반대면에 위치할 수 있다. 나아가, 방열부(HD)는 프레임(100)의 내측면(100IS)과 반대면에 위치할 수 있다. 즉, 방열부(HD)는 프레임(100)의 내측면(100IS)을 따라 배치되지 않을 수 있다.Furthermore, the heat dissipation portion HD may extend from the outer surface of the housing 222 to the frame 100 . As described above, the heat dissipation unit HD is disposed on the outer surface of the housing 222 and may contact the substrate 225 exposed in the housing 222. At this time, the heat dissipation unit HD may not be located on the inner surface 200IS of the optical device 200. That is, the heat dissipation unit HD may be located on a surface opposite to the inner surface 200IS of the optical device 200. Furthermore, the heat dissipation unit HD may be located on a surface opposite to the inner surface 100IS of the frame 100. That is, the heat dissipation unit HD may not be disposed along the inner surface 100IS of the frame 100.
방열부(HD)는 하우징(222)의 외측면을 따라 연장되어 전면 측 프레임으로 연장될 수 있다. 또한, 방열부(HD)는 프레임 내측에서 글래스 또는 렌즈(GL)의 가장자리를 다라 연장될 수 있다. The heat dissipation unit HD may extend along the outer surface of the housing 222 and extend to the front side frame. Additionally, the heat dissipation unit HD may extend from the inside of the frame along the edge of the glass or lens GL.
나아가, 방열부(HD)는 광 신호 생성부(230)와 인접하게 연장될 수 있다. 예컨대, 방열부(HD)는 광원 장치(220)에서 광 신호 생성부(230)의 하측으로 연장될 수 있다. 이에, 광원 뿐만 아니라, 광 신호 생성부(230)에 의해 발생하는 열도 외부로 용이하게 방출될 수 있다. 이 때, 방열부(HD)는 상술한 바와 같이 광학 장치(200IS)의 내측면이 아닌 반대면 즉 외측면을 따라 연장될 수 있다. 이에 따라, 착용자가 열감을 거의 느끼지 않을 수 있다. 즉, 방열부(HD)는 광 신호 생성부(230) 하측에서 광학 장치(200)의 외측면을 따라 광원 장치의 측면을 따라 상부로 연장될 수 있다. Furthermore, the heat dissipation unit HD may extend adjacent to the optical signal generating unit 230. For example, the heat dissipation unit HD may extend from the light source device 220 to the lower side of the optical signal generator 230. Accordingly, not only the light source but also the heat generated by the optical signal generator 230 can be easily discharged to the outside. At this time, as described above, the heat dissipation unit HD may extend along the opposite side, that is, the outer side, rather than the inner side, of the optical device 200IS. Accordingly, the wearer may hardly feel any heat. That is, the heat dissipation unit HD may extend upward from the lower side of the optical signal generating unit 230 along the outer surface of the optical device 200 and along the side of the light source device.
도 41를 더 살펴보면, 광원 장치(220)의 각 광원(223)으로부터 출사된 광(La, Lb, Lc)는 광원 렌즈(224), 제2 광 가이드(LG2) 및 중간렌즈(MO)를 통과할 수 있다. 예컨대, 제1 광원(223a) 내지 제3 광원(223b) 각각으로부터 출사된 제1 광(La), 제2 광(Lb) 및 제3 광(Lc)은 제2 광 가이드(LG2)에서 동일한 방향으로 출사될 수 있다.Looking further at FIG. 41, the light (La, Lb, Lc) emitted from each light source 223 of the light source device 220 passes through the light source lens 224, the second light guide LG2, and the intermediate lens (MO). can do. For example, the first light (La), the second light (Lb), and the third light (Lc) emitted from each of the first light source 223a to the third light source 223b are directed in the same direction in the second light guide LG2. can be released as
예컨대, 제2 광 가이드(LG2)는 제1 코팅면(LG2a)과 제2 코팅면(LG2b)을 포함할 수 있다. 상술한 바와 같이, 이러한 적어도 2개 이상의 코팅면 중 하나는 제1 파장의 광, 제2 파장의 광, 제3 파장의 광 중 일부를 반사할 수 있다. 예컨대, 제1 파장은 적색 광의 파장 대역을 포함한다. 제2 파장은 녹색 광의 파장 대역을 포함한다. 제3 파장은 청색 광의 파장 대역을 포함한다.For example, the second light guide LG2 may include a first coating surface (LG2a) and a second coating surface (LG2b). As described above, one of these at least two coating surfaces may reflect some of the first wavelength light, the second wavelength light, and the third wavelength light. For example, the first wavelength includes a wavelength band of red light. The second wavelength includes a wavelength band of green light. The third wavelength includes a wavelength band of blue light.
또한, 제1 코팅면(LG2a)은 제1 광(La) 또는 제1 파장의 광을 반사할 수 있다. 즉, 제1 코팅면(LG2a)은 제2 광(Lb)과 제3 광(Lc)을 투과할 수 있다. 다시 말해, 제1 코팅면(LG2a)은 제2 파장의 광 및 제3 파장의 광을 투과할 수 있다.Additionally, the first coating surface LG2a may reflect the first light La or light of the first wavelength. That is, the first coating surface LG2a can transmit the second light Lb and the third light Lc. In other words, the first coating surface LG2a can transmit light of the second wavelength and light of the third wavelength.
제2 코팅면(LG2b)은 제2 광(Lb) 또는 제2 파장의 광을 반사할 수 있다. 즉, 제2 코팅면(LG2b)은 제1 광(La)과 제3 광(Lc)을 투과할 수 있다. 다시 말해, 제2 코팅면(LG2b)은 제1 파장의 광 및 제3 파장의 광을 투과할 수 있다.The second coating surface LG2b may reflect the second light Lb or light of the second wavelength. That is, the second coating surface LG2b can transmit the first light La and the third light Lc. In other words, the second coating surface LG2b can transmit light of the first wavelength and light of the third wavelength.
이에, 제2 광 가이드(LG2)에서 제1 광(La)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다. 그리고 제2 광 가이드(LG2)에서 제2 광(Lb)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다. 또한, 제2 광 가이드(LG2)에서 제3 광(Lc)은 중간렌즈(MO) 또는 개구부(OP)로 반사 또는 입사될 수 있다.Accordingly, the first light La may be reflected or incident on the intermediate lens MO or the opening OP in the second light guide LG2. And in the second light guide LG2, the second light Lb may be reflected or incident on the intermediate lens MO or the opening OP. Additionally, the third light Lc may be reflected or incident on the intermediate lens MO or the opening OP from the second light guide LG2.
이에, 광원(223)에서 출사된 광(IL 또는 (La, Lb, Lc))이 제1 광 가이드(LG)로 입사될 수 있다. 이 때, 제1 광 가이드(LG)로 입사되는 광은 제1 입사광(IL)일 수 있다.Accordingly, the light (IL or (La, Lb, Lc)) emitted from the light source 223 may be incident on the first light guide LG. At this time, the light incident on the first light guide LG may be the first incident light IL.
도 42를 더 살펴보면, 제1 입사광(IL)은 제1 광 가이드(LG1)에서 일부 반사되고 일부 투과될 수 있다. 즉, 제1 광 가이드(LG1)는 제1 입사광(IL)의 제1 편광(ILa)을 반사하고 제2 편광(ILb)을 투과할 수 있다. 예컨대, 제1 편광(ILa)과 제2 편광(ILb) 각각은 S/P 광 중 서로 다른 하나일 수 있다. 이에, 제1 입사광(IL)의 일부인 제1 편광(ILa)이 제N 렌즈(Ln)를 거쳐 광 신호 생성부(230)로 제공될 수 있다. 그리고 제2 편광(ILb)은 배럴(210)에 흡수되거나 추가홀(210h)로 제공될 수 있다.Looking further at FIG. 42 , the first incident light IL may be partially reflected and partially transmitted by the first light guide LG1. That is, the first light guide LG1 may reflect the first polarized light ILa of the first incident light IL and transmit the second polarized light ILb. For example, the first polarization (ILa) and the second polarization (ILb) may each be different types of S/P light. Accordingly, the first polarized light ILa, which is part of the first incident light IL, may be provided to the optical signal generator 230 through the N-th lens Ln. And the second polarized light (ILb) may be absorbed by the barrel 210 or provided through the additional hole 210h.
도 43는 다른 실시예에 따른 전자 디바이스의 측면도이고, 도 44은 다른 실시예에 따른 전자 디바이스의 평면도이고, 도 45은 또 다른 실시예에 따른 전자 디바이스의 측면도이고, 도 46은 또 다른 실시예에 따른 전자 디바이스의 평면도이다. 이하에서 설명하는 내용을 제외하고 상술한 프레임, 광학 장치, 디스플레이부 및 방열부에 대한 내용이 상술한 내용과 동일하게 적용될 수 있다.FIG. 43 is a side view of an electronic device according to another embodiment, FIG. 44 is a top view of an electronic device according to another embodiment, FIG. 45 is a side view of an electronic device according to another embodiment, and FIG. 46 is another embodiment. This is a top view of an electronic device according to . Except for the content described below, the content of the frame, optical device, display unit, and heat dissipation unit described above may be applied in the same manner as the content described above.
도 43 내지 도 44을 참조하면, 실시예에 따른 전자 디바이스는 프레임(100)에 배치되는 열공급부(HL)를 더 포함할 수 있다.Referring to FIGS. 43 and 44 , the electronic device according to the embodiment may further include a heat supply unit HL disposed on the frame 100 .
열공급부(HL)는 프레임(100) 내측에 위치할 수 있다. 즉, 열공급부(HL)는 방열부(HD)와 같이 프레임(100) 내측에서 렌즈(GL)의 가장자리를 둘러쌀 수 있다. 이에, 김서림 등을 더욱 효과적으로 방지할 수 있다.The heat supply unit HL may be located inside the frame 100. That is, the heat supply unit HL may surround the edge of the lens GL inside the frame 100 like the heat dissipation unit HD. Accordingly, fogging, etc. can be prevented more effectively.
열공급부(HL)는 광학 장치(200)와 전기적으로 연결될 수도 있다. 나아가, 열공급부(HL)는 전자 디바이스 내의 컨트롤러 또는 제어부와 전기적으로 연결될 수 있다. 또는 열공급부(HL)는 광학 장치 내의 컨트롤러 또는 제어부와 전기적으로 연결될 수 있다.The heat supply unit HL may be electrically connected to the optical device 200. Furthermore, the heat supply unit HL may be electrically connected to a controller or control unit within the electronic device. Alternatively, the heat supply unit (HL) may be electrically connected to a controller or control unit within the optical device.
방열부(HD)와 열공급부(HL)는 외부로부터의 습기에 의한 영향을 줄이기 위해, 실링부재(예, 에폭시)에 의해 실링될 수 있다. 나아가, 렌즈에 온도 차이에 의한 김서림 현상이 발생하는 경우 방열부(HD)에 의해 충분히 김서림이 제거되지 않을 때 열공급부(HL)는 부족한 열을 보충할 수 있다.The heat dissipation unit HD and the heat supply unit HL may be sealed with a sealing member (eg, epoxy) to reduce the influence of moisture from the outside. Furthermore, when fogging occurs on the lens due to a temperature difference and the fogging is not sufficiently removed by the heat dissipation unit HD, the heat supply unit HL can supplement the insufficient heat.
나아가, 열공급부(HL)와 방열부(HD)는 서로 이격 배치될 수 있다. 이에, 방열부(HD)가 열공급부(HL)로부터 발생한 열로부터 영향을 최소한으로 받을 수 있다. 즉, 방열부(HD)는 열공급부(HL)로부터 발생한 열이 아닌 광원 및 기판으로부터 발생한 열을 효율적으로 방출할 수 있다.Furthermore, the heat supply unit (HL) and the heat dissipation unit (HD) may be spaced apart from each other. Accordingly, the heat dissipation unit HD can be minimally affected by the heat generated from the heat supply unit HL. That is, the heat dissipation unit HD can efficiently radiate heat generated from the light source and the substrate rather than heat generated from the heat supply unit HL.
예컨대, 열공급부(HL)와 방열부(HD)는 소정 거리 이격되더라도, 프레임 내에서 나란하게 연장될 수 있다. 이에, 김서림 현상 발생을 보다 효과적으로 제거할 수 있다.For example, the heat supply unit HL and the heat dissipation unit HD may extend in parallel within the frame even if they are separated by a predetermined distance. Accordingly, the occurrence of fogging phenomenon can be more effectively eliminated.
도 45 및 도 46을 더 살펴보면, 상술한 바와 같이 열공급부(HL)는 프레임(100) 내측에 위치할 수 있다. 즉, 열공급부(HL)는 방열부(HD)와 같이 프레임(100) 내측에서 렌즈(GL)의 가장자리를 둘러쌀 수 있다. 이에, 김서림 등을 더욱 효과적으로 방지할 수 있다.Looking further at FIGS. 45 and 46 , the heat supply unit HL may be located inside the frame 100 as described above. That is, the heat supply unit HL may surround the edge of the lens GL inside the frame 100 like the heat dissipation unit HD. Accordingly, fogging, etc. can be prevented more effectively.
열공급부(HL)는 광학 장치(200)와 전기적으로 연결될 수도 있다. 나아가, 열공급부(HL)는 전자 디바이스 내의 컨트롤러 또는 제어부와 전기적으로 연결될 수 있다. 또는 열공급부(HL)는 광학 장치 내의 컨트롤러 또는 제어부와 전기적으로 연결될 수 있다.The heat supply unit HL may be electrically connected to the optical device 200. Furthermore, the heat supply unit HL may be electrically connected to a controller or control unit within the electronic device. Alternatively, the heat supply unit (HL) may be electrically connected to a controller or control unit within the optical device.
방열부(HD)와 열공급부(HL)는 외부로부터의 습기에 의한 영향을 줄이기 위해, 실링부재(예, 에폭시)에 의해 실링될 수 있다. 나아가, 렌즈에 온도 차이에 의한 김서림 현상이 발생하는 경우 방열부(HD)에 의해 충분히 김서림이 제거되지 않을 때 열공급부(HL)는 부족한 열을 보충할 수 있다.The heat dissipation unit HD and the heat supply unit HL may be sealed with a sealing member (eg, epoxy) to reduce the influence of moisture from the outside. Furthermore, when fogging occurs on the lens due to a temperature difference and the fogging is not sufficiently removed by the heat dissipation unit HD, the heat supply unit HL can supplement the insufficient heat.
나아가, 열공급부(HL)와 방열부(HD)는 서로 이격 배치될 수 있다. 이에, 방열부(HD)가 열공급부(HL)로부터 발생한 열로부터 영향을 최소한으로 받을 수 있다. Furthermore, the heat supply unit (HL) and the heat dissipation unit (HD) may be spaced apart from each other. Accordingly, the heat dissipation unit HD can be minimally affected by the heat generated from the heat supply unit HL.
본 실시예에서, 프레임(100)은 상부 영역(US)과 하부 영역(BS)을 포함할 수 있다. 상부 영역(US)과 하부 영역(BS)은 렌즈(GL)를 이등분할 수 있다. 이 때, 방열부(HD) 및 열공급부(HL) 중 어느 하나는 상부 영역(US)과 하부 영역(BS) 중 어느 하나에 배치될 수 있다. 그리고 방열부(HD) 및 열공급부(HL) 중 다른 하나는 상부 영역(US)과 하부 영역(BS) 중 다른 하나에 배치될 수 있다. 예컨대, 상부 영역(US)에 방열부(HD)가 위치할 수 있다. 그리고 하부 영역(BS)에 열공급부(HL)가 위치할 수 있다.In this embodiment, the frame 100 may include an upper area (US) and a lower area (BS). The upper area US and the lower area BS may bisect the lens GL. At this time, either the heat dissipation unit HD or the heat supply unit HL may be disposed in either the upper area US or the lower area BS. And the other one of the heat dissipation unit (HD) and the heat supply unit (HL) may be disposed in the other one of the upper area (US) and the lower area (BS). For example, the heat dissipation unit HD may be located in the upper area US. Additionally, a heat supply unit (HL) may be located in the lower area (BS).
또한, 변형예로, 방열부(HD)는 프레임(100) 내에서 렌즈(GL)의 가장자리를 따라 렌즈(GL)를 둘러싸도록 배치되나, 열공급부(HL)는 프레임(100) 내에서 일부 영역에 위치할 수 있다. 이에, 김서림을 효과적으로 제거하기 위해, 열공급부(HL)는 상대적으로 하부영역 또는 상부 영역에 높은 비율로 위치할 수 있다. In addition, as a modified example, the heat dissipation unit HD is arranged to surround the lens GL along the edge of the lens GL within the frame 100, but the heat supply unit HL is located in a portion of the frame 100. It can be located in . Accordingly, in order to effectively remove fogging, the heat supply unit HL may be located at a relatively high rate in the lower area or upper area.
이러한 구성에 의하여, 에너지 효율 및 효과적인 김서림 현상 억제가 이루어질 수 있다.With this configuration, energy efficiency and effective fogging phenomenon can be achieved.
개시된 실시예에 따른 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 동작 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.The operating method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing an operation method are recorded.
그리고 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.And the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be those specifically designed and constructed for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체'가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Here, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term is used when data is semi-permanently stored in the storage medium. There is no distinction between temporary storage and temporary storage. For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 동작 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 디바이스들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, operating methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products can be traded as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
구체적으로, 개시된 실시예에 따른 동작 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 제품으로 구현될 수 있다.Specifically, it may be implemented as a computer program product including a recording medium in which a program for performing the operating method according to the disclosed embodiment is stored.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also included in the scope of the present invention. belongs to
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the above description focuses on the examples, this is only an example and does not limit the present invention, and those skilled in the art will be able to You will see that various variations and applications are possible. For example, each component specifically shown in the examples can be modified and implemented. And these variations and differences in application should be construed as being included in the scope of the present invention as defined in the appended claims.

Claims (10)

  1. 복수 개의 렌즈;multiple lenses;
    상기 복수 개의 렌즈가 배치되는 배럴;a barrel on which the plurality of lenses are disposed;
    상기 배럴에 배치되는 제1 광 가이드; a first light guide disposed on the barrel;
    상기 배럴의 측면에 형성되는 개구부;an opening formed on a side of the barrel;
    상기 개구부와 결합되는 광원 장치;a light source device coupled to the opening;
    상기 배럴의 측면에 형성되는 관통홀; 및a through hole formed on a side of the barrel; and
    상기 관통홀에 인접하게 배치되는 수광부;를 포함하는 광학 장치.An optical device including a light receiving unit disposed adjacent to the through hole.
  2. 제1항에 있어서,According to paragraph 1,
    상기 관통홀과 상기 수광부 사이에 배치되는 배리어부;를 포함하는 광학 장치.An optical device including a barrier portion disposed between the through hole and the light receiving portion.
  3. 제1항에 있어서,According to paragraph 1,
    영상 정보를 포함하는 광 신호를 생성하는 광 신호 생성부;를 포함하고,It includes; an optical signal generator that generates an optical signal containing image information,
    상기 수광부는 상기 제1 광 가이드와 상기 광 신호 생성부 사이에 배치되는 광학 장치.The light receiving unit is an optical device disposed between the first light guide and the optical signal generating unit.
  4. 제3항에 있어서,According to paragraph 3,
    상기 복수 개의 렌즈는 상기 제1 광 가이드와 상기 광 신호 생성부 사이에 배치되는 제1 렌즈와 제2 렌즈를 포함하고,The plurality of lenses include a first lens and a second lens disposed between the first light guide and the optical signal generator,
    상기 제1 렌즈는 상기 제2 렌즈보다 크기가 작은 광학 장치.An optical device wherein the first lens is smaller than the second lens.
  5. 제4항에 있어서,According to paragraph 4,
    상기 수광부는 상기 제1 렌즈와 상기 제2 렌즈 사이에 배치되는 광학 장치.The light receiving unit is an optical device disposed between the first lens and the second lens.
  6. 제4항에 있어서,According to paragraph 4,
    상기 관통홀은 상기 제1 렌즈와 상기 제2 렌즈 사이에 배치되는 광학 장치.The through hole is an optical device disposed between the first lens and the second lens.
  7. 제1항에 있어서,According to paragraph 1,
    상기 수광부는 상기 배럴의 외측면보다 돌출된 광학 장치.An optical device wherein the light receiving portion protrudes from an outer surface of the barrel.
  8. 제2항에 있어서,According to paragraph 2,
    상기 배리어부는 상기 배럴의 외측면보다 돌출된 광학 장치.An optical device wherein the barrier portion protrudes from an outer surface of the barrel.
  9. 제1항에 있어서,According to paragraph 1,
    상기 광원 장치는,The light source device is,
    개구부가 형성된 하우징;A housing having an opening formed therein;
    상기 하우징에 배치되는 제2 광 가이드; 및a second light guide disposed in the housing; and
    상기 제2 광 가이드를 향하여 광을 방출하는 광원;을 포함하는 광학 장치.An optical device comprising a light source that emits light toward the second light guide.
  10. 제9항에 있어서,According to clause 9,
    상기 수광부는 상기 광원으로부터 광이 출사되는 동안 구동하는 광학 장치.An optical device in which the light receiving unit is driven while light is emitted from the light source.
PCT/KR2023/011566 2022-08-05 2023-08-07 Optical device, electronic device including same, display method, control method, and control device WO2024030004A1 (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR1020220097721A KR20240019914A (en) 2022-08-05 2022-08-05 Optical devicea and electronic device including the same
KR10-2022-0097704 2022-08-05
KR10-2022-0097721 2022-08-05
KR1020220097720A KR20240019913A (en) 2022-08-05 2022-08-05 Optical devicea and electronic device including the same
KR1020220097704A KR20240019905A (en) 2022-08-05 2022-08-05 Control device and method
KR10-2022-0097720 2022-08-05
KR1020220097703A KR20240019904A (en) 2022-08-05 2022-08-05 Electronic device and display method
KR10-2022-0097703 2022-08-05

Publications (1)

Publication Number Publication Date
WO2024030004A1 true WO2024030004A1 (en) 2024-02-08

Family

ID=89849672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/011566 WO2024030004A1 (en) 2022-08-05 2023-08-07 Optical device, electronic device including same, display method, control method, and control device

Country Status (1)

Country Link
WO (1) WO2024030004A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015536480A (en) * 2012-11-16 2015-12-21 カラーラ,マルコ Glasses with high flexibility when in use
JP2016186561A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Display device, control method for display device, and program
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
JP2022532603A (en) * 2019-05-14 2022-07-15 華為技術有限公司 Smart wearable device
JP3238577U (en) * 2022-06-06 2022-08-03 仏山市傑品玩具実業有限公司 VR glasses with body monitoring and alarm functions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015536480A (en) * 2012-11-16 2015-12-21 カラーラ,マルコ Glasses with high flexibility when in use
JP2016186561A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Display device, control method for display device, and program
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
JP2022532603A (en) * 2019-05-14 2022-07-15 華為技術有限公司 Smart wearable device
JP3238577U (en) * 2022-06-06 2022-08-03 仏山市傑品玩具実業有限公司 VR glasses with body monitoring and alarm functions

Similar Documents

Publication Publication Date Title
WO2020242085A1 (en) Augmented reality device for adjusting focus region according to direction of user&#39;s view and operating method of the same
WO2021040106A1 (en) Ar device and control method therefor
WO2019231306A2 (en) Electronic device
WO2021040119A1 (en) Electronic device
WO2016017997A1 (en) Wearable glasses and method of providing content using the same
WO2016017966A1 (en) Method of displaying image via head mounted display device and head mounted display device therefor
WO2016080708A1 (en) Wearable device and method for outputting virtual image
EP3818431A1 (en) Augmented reality device for adjusting focus region according to direction of user&#39;s view and operating method of the same
WO2019231307A2 (en) Electronic device
WO2020189864A1 (en) Electronic device
WO2016018070A1 (en) Wearable glasses and method of displaying image via the wearable glasses
WO2020226235A1 (en) Electronic device
WO2020138640A1 (en) Electronic device
WO2015167318A1 (en) Wearable device and method of controlling the same
WO2021040117A1 (en) Electronic device
WO2021029479A1 (en) Electronic device
WO2021040116A1 (en) Electronic device
WO2021049693A1 (en) Electronic device
WO2024030004A1 (en) Optical device, electronic device including same, display method, control method, and control device
WO2021040082A1 (en) Electronic device
WO2021040081A1 (en) Electronic device
WO2024035110A1 (en) Projection device and electronic device including same
WO2024063618A1 (en) Optical device and electronic device comprisng same
WO2023234731A1 (en) Optical device and electronic device comprising same
WO2024058436A1 (en) Electronic device for displaying image, and method for controlling same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23850504

Country of ref document: EP

Kind code of ref document: A1