WO2021107527A1 - 다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스 - Google Patents

다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스 Download PDF

Info

Publication number
WO2021107527A1
WO2021107527A1 PCT/KR2020/016563 KR2020016563W WO2021107527A1 WO 2021107527 A1 WO2021107527 A1 WO 2021107527A1 KR 2020016563 W KR2020016563 W KR 2020016563W WO 2021107527 A1 WO2021107527 A1 WO 2021107527A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
augmented reality
display
display unit
control unit
Prior art date
Application number
PCT/KR2020/016563
Other languages
English (en)
French (fr)
Inventor
임채열
Original Assignee
주식회사 카이비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190156920A external-priority patent/KR102401854B1/ko
Priority claimed from KR1020190156894A external-priority patent/KR102322436B1/ko
Priority claimed from KR1020190156910A external-priority patent/KR102367492B1/ko
Application filed by 주식회사 카이비전 filed Critical 주식회사 카이비전
Publication of WO2021107527A1 publication Critical patent/WO2021107527A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to augmented reality glass, and specifically, a multifunctional augmented reality glass that can use a display unit that shows various information in hardware and software for multiple functions, and attaching and detaching modules required for each function depending on the situation, convenient when carrying or wearing It relates to a modular augmented reality glass that can be used and a head motion sensing augmented reality glass that allows you to select various functions of the augmented reality glass without using hands or voice.
  • Augmented reality glasses that are provided in the form of glasses and display the real world and necessary information in the right place when worn on the face are being researched and developed in many fields such as sports, medical care, national defense, and industry.
  • These augmented reality glasses recognize a real object and display information related to the recognized object, or show an object that does not actually exist by matching it with the recognized object as a virtual image.
  • the augmented reality glass 1 is configured to include a body portion 10 , a glass portion 20 , a prism portion 30 , and a camera portion 40 .
  • the prism unit 30 transmits the virtual environment displayed on the display 31 to the camera unit 40 or to the user.
  • a thin film display such as a panel is used as the display.
  • the prism unit 30 uses a digital single-lens reflex lens to simultaneously transmit the virtual environment to the user's eyes and the camera, so that the virtual environment viewed by the user can be shared with other persons.
  • these conventional augmented reality glasses are convenient when using augmented reality because the display is fixed in front of the glasses, but may feel cumbersome when not using augmented reality.
  • the display since the display is attached to the temple and the eyeglass side, the temple cannot be folded, which is very inconvenient to carry.
  • augmented reality glasses are limited to functions that can be used as they only deliver virtual information.
  • a mobile terminal such as a smartphone is inconvenient that at least one hand cannot be used because it is necessary to carry it in a hand or to view or operate it while holding it.
  • a wristwatch-type terminal to be worn on the wrist or a glass-type terminal to be worn on the head have been developed.
  • a glass-type terminal that can be worn on the head has the usefulness of obtaining related information through a display unit without using a hand while carrying it.
  • the augmented reality glass screen displays the necessary virtual data in front of the eyes, thus enriching the understanding of reality.
  • the edge of the glass is composed of an inner surface, an upper surface, an outer surface, and a lower surface to enable a three-dimensional touch. Then, a touch on at least one surface by one or two fingers is sensed to control the screen displayed on the glass.
  • the present invention is to solve the above problems, specifically, to provide a multifunctional augmented reality glass that can be used as augmented reality glasses or ordinary glasses depending on the usage environment without the need to carry separate glasses.
  • augmented reality glasses with improved wearability and portability that can be worn like ordinary glasses and can use augmented reality functions depending on the situation.
  • the present invention is a spectacle frame provided in front of the user's eyes; a display unit for displaying information from the front of the spectacle frame; a temple connected to the spectacle frame and provided with a storage unit for storing data and a control unit for controlling the display unit; It provides a multifunctional augmented reality glass comprising a display moving unit for moving the display unit.
  • the display moving unit may include an angle adjusting unit rotating the display unit forward and a sliding unit moving the display unit backward.
  • the sliding part preferably includes a base part provided on the lower part of the temple and a sliding bar moving along the base part.
  • the temple includes an acceleration sensor
  • the display unit includes an LED light unit
  • the control unit operates the LED light unit when it is determined that the acceleration sensor moves at a predetermined speed or more in a predetermined direction.
  • the display unit may include an IR light unit, and when receiving an IR request signal from the outside, the control unit may transmit selected data among data stored in the storage unit through the IR light unit.
  • the temple has an audio unit for voice input/output, and the control unit stops the display unit and operates the audio unit when the display unit is moved rearward.
  • the present invention is a spectacle frame provided in front of the user's eyes; a display module for displaying information from the front of the spectacle frame; a pair of temples connected to the spectacle frame;
  • the temple provides a modular augmented reality glass provided with a detachable connection part for electrical connection with an external module, and an external module is detachably coupled to the detachable connection part.
  • the external module includes a central processing module, a display module, and a battery module, it is preferable that the central processing module and the battery module are respectively coupled to different temples through a detachable connection unit.
  • the central processing module and the battery module may be electrically connected through an eyeglass frame.
  • the display module may be slidably coupled back and forth to the central processing module, a first pin map portion is formed at an end of the central processing module, and a second pin map portion is formed at an end of the display module to be energized.
  • the present invention is a spectacle frame provided in front of the user's eyes; a display unit for displaying information from the front of the spectacle frame; It is provided with a sensor unit for detecting the movement of the eyeglass frame, and a control unit for determining the movement based on data by the sensor unit and the display unit, wherein the control unit uses the movement direction and time data of the eyeglass frame by the sensor unit. It provides head motion sensing augmented reality glasses that control the display unit.
  • the control unit detects a motion vector corresponding to the selection button, and when it is determined that the data by the sensor unit falls within the selection range, the corresponding motion vector It is preferable to select motion judgment.
  • the control unit receives the user's movement as secondary data when the primary data by the sensor unit does not fall within the selection range, compares the primary data with the secondary data, and selects the corresponding movement determination when it is within the threshold range It is preferable to do
  • the head motion detection augmented reality glasses have a storage unit for storing sensor data, and it is preferable to adjust the selection range based on the primary data and the secondary data.
  • the control unit may display a cursor at a position corresponding to the data by the sensor unit on the display unit.
  • the multi-functional augmented reality glasses without the need to carry separate glasses because they may be used as augmented reality glasses or ordinary glasses depending on the usage environment.
  • a very convenient user interface can be provided because it is possible to control the screen without using an external tool without an additional external tool, and a personalized judgment method is used by detecting the motions of various people. There is an advantage in that the intention of the user can be accurately determined.
  • FIG. 1 is a structural diagram showing the structure of an augmented reality glass according to the prior art
  • Figure 2 is a perspective view showing the structure of the multifunctional augmented reality glass according to the present invention.
  • FIG. 3 and 4 are exemplary views showing an embodiment of the structure of the image display unit in FIG. 2;
  • Figure 5 is a plan view showing the structure of the augmented reality glass according to the present invention.
  • 6 and 7 are explanatory views for explaining the movement of the display unit in FIG. 2 ;
  • Figure 8 is an explanatory view for showing the coupling relationship of the sliding bar and the base portion in Figure 6;
  • FIG. 11 is an exemplary view showing a structure in which the temples are folded in the multifunctional augmented reality glass according to the present invention.
  • FIG. 12 is an external view showing the appearance of the modular augmented reality glass according to the present invention.
  • FIG. 13 is a state diagram showing a state in which the external module is separated in FIG. 12;
  • 14 and 15 are explanatory views for explaining the movement of the display module in FIG. 12 ;
  • 16 is a block diagram showing the coupling state of the sliding bar and the central processing module according to the present invention.
  • 17 and 18 are state diagrams showing the moving state of the sliding bar and the central processing module in FIG. 16;
  • 19 to 21 are exemplary views showing the configuration of the sliding bar and the pin map portion of the central processing module
  • 22 is a block diagram showing the configuration of the augmented reality glass according to the present invention.
  • 23 to 27 are exemplary views for explaining an example of a standardized motion for motion determination
  • Fig. 29 is an explanatory diagram for explaining a motion vector and a selection range in Fig. 28;
  • FIG. 30 is an exemplary diagram for explaining a selection process of a selection button according to the present invention.
  • 31 is an exemplary view for explaining a selection process of a selection button according to the present invention.
  • the multi-functional augmented reality glass is configured to include a spectacle frame 100 , a display unit 200 , a display moving unit 400 , and temples 500 .
  • the spectacle frame 100 corresponds to the frame of the multifunctional augmented reality glass according to an embodiment of the present invention, and may surround and support the outer circumferential surface of the spectacle lens 110 .
  • the temples 500 are coupled to both ends of the spectacle frame.
  • the display unit 200 includes a front module 250 and an image display unit 210 .
  • the front module 250 may include parts such as an IR light unit 230 and an LED light unit 240 .
  • the front module 250 may include a backlight unit (not shown) for the image display unit 210 .
  • the image display unit 210 is provided in front of the user's eyes to display necessary information, and is preferably provided using a thin film display, and may include LCD, Lcos, OLED, and the like.
  • the image display unit 210 includes a thin film display unit 10 such as an LCD, a polarization splitter 11 that reflects only a specific polarized light among the light emitted from the thin film display unit 10 , and the reflection from the polarization splitter
  • a phase delay plate 12 that converts the linearly polarized light into circularly polarized light or converts incident circularly polarized light into linearly polarized light, and enlarges the circularly polarized light passing through the phase delay plate 12 and reflects it back to the phase delay plate
  • It may be configured to include a semi-transmissive concave reflector 13 and a light opening/closing switch panel 14 attached to an outer surface of the transflective concave reflector to open and close ambient light.
  • the image display unit may be configured as shown in FIG. 4 .
  • an image signal for display is received from the augmented reality glass body through an interface such as HDMI or MIPI, and the image signal is output from the display drive device in the display module device to the OLED, and the screen for the image signal is output from the OLED.
  • the image signal output from the OLED is incident on the waveguide through the lens, and the incident image is totally reflected on the inclined plane of the waveguide and is totally reflected on the inclined plane of the waveguide in the opposite direction to output the image in the direction of the field of view seen by the person, and the lens is attached to the front of the eye It makes the OLED output screen focus.
  • Such a display module can be configured.
  • This configuration allows the user to view the external image and the virtual image at the same time.
  • a control unit for controlling the display unit 200, a storage unit for storing various data, a sensor unit including an acceleration sensor, a temperature sensor, an illuminance sensor, and the like, and a camera unit 220 are provided inside the temple.
  • the camera unit 220 may be provided on the spectacle frame or the front module according to design conditions. Components such as the control unit and the sensor unit do not necessarily have to be provided only inside the temple, and may be provided at an appropriate position such as a base unit to be described later according to design conditions.
  • the display unit 200 is provided in front of the eyeglass frame when using the augmented reality to display various information, but when not using the augmented reality, it is moved using the display moving unit 400 to move it normally. Can be used with glasses.
  • the display moving part 400 includes an angle adjusting part 430 and a sliding part, and the sliding part is configured to include a base part 410 and a sliding bar 450 again.
  • the angle adjusting unit 430 may be provided in the form of a hinge, and is provided between the sliding bar 450 and the display unit 200 to change the angle of the display unit 200 . serves to make
  • the display unit 200 can be rotated forward by using the angle adjusting unit 430 to be adjusted in a straight line with the sliding bar 450 .
  • the sliding bar 450 may be moved backward along the base part 410 .
  • a coupling groove portion 411 is formed in the base portion 410 , and an end of the sliding bar is bent and inserted into the coupling groove portion 411 to be coupled. In this state, the sliding bar 450 is movably coupled back and forth along the base portion 410 .
  • the base portion 410 is provided at the lower portion of the temple 500, and can move integrally with the temple.
  • a movement detecting unit 412 may be provided in the base unit 410 .
  • the movement detection unit 412 serves to determine whether the sliding bar 450 has moved completely backward.
  • the movement sensing unit 412 may include two terminals made of a conductive material.
  • the detection switch 452 provided in the sliding bar 450 is moved to the movement detection unit 412 so that the detection switch comes into contact with the two terminals.
  • the sensing switch 452 is installed with conductive metal, and when the sensing switch is in contact with the two terminals, the two terminals are electrically energized, so that the control unit can detect that the sliding bar has moved backward.
  • the sliding bar 450 may have a coupling groove 454 formed therein, and the protruding switch 414 may be provided in the base portion 410 .
  • the protruding switch 414 When the sliding bar 450 is moved rearward, the protruding switch 414 is pushed into the base portion by the end of the sliding bar 450 , and the controller detects that the sliding bar is moved to the rear by the movement of the protruding switch. can do.
  • the protruding switch faces the coupling groove, and protrudes again by a spring provided inside the protruding switch to engage the coupling groove.
  • the control unit may stop the operation of the display unit and operate the audio unit 130 for voice output.
  • the display unit may stop the operation when the sliding unit is completely moved backward and the backward movement is detected by the movement detecting unit. In this way, power consumption can be saved by automatically stopping the operation of the display unit.
  • Augmented reality glasses according to the prior art have a structure in which the display part is attached to the temples and the glasses side so that the temples cannot be folded, so it is very inconvenient to store and carry the glasses.
  • the display unit since the display unit has a movable structure, as shown in FIG. 11 , the temples can be folded like ordinary glasses, so that it can be conveniently stored or carried.
  • An LED light unit 240 may be provided in the front module 250 of the display unit.
  • the LED light unit 240 serves to emit bright light forward, and is operated under a specific condition by the sensor unit.
  • the control unit may operate the LED light unit. For example, when a user wearing glasses shakes his/her head from side to side several times, the control unit may analyze the pattern by the acceleration sensor and operate the LED light unit if the stored condition is satisfied.
  • the IR light unit is configured to include an IR receiving unit and an IR transmitting unit.
  • the IR light unit 230 may transmit infrared rays having straightness, and the control unit may transmit an IR request signal using the IR light unit.
  • the IR request signal may include a unique character.
  • the unique character may be your ID or identification number.
  • the IR request signal can be received using the IR receiver, and the received IR request signal is displayed on the display unit by the control unit and operates the LED light unit so that the sender can know at the same time can do it At this time, the LED light unit may blink for several seconds.
  • the IR accept signal can be transmitted to the other party in response. It is preferable to transmit the IR acceptance signal by including its own character.
  • the IR request signal may be retransmitted or the user may select one of the received IR acceptance signals. This is to prevent information transmitted through the IR light unit from being transmitted to others.
  • the user can select and transmit business card information, picture information, message information, etc. stored in the storage unit through the IR light unit, and the control unit displays only the information that matches the unique character among the received IR information, so the IR information is prevented from being displayed on the augmented reality glasses.
  • the control unit may transmit that the IR request signal has been received through the audio unit 130 .
  • the control unit transmits an IR acceptance signal.
  • the modular augmented reality glass is configured to include a spectacle frame 1100, a temple 1500 and an external module.
  • the external module is a module that can be detachably coupled to the temple to provide additional functions, and includes a display module 1200 , a central processing module 1410 , and a battery module 1460 .
  • the spectacle frame 1100 corresponds to the frame of the modular augmented reality glass according to the present invention, and may surround and support the outer circumferential surface of the spectacle lens 1110 .
  • the temples 1500 are coupled to both ends of the spectacle frame.
  • the display module 1200 includes a front module 1250 and an image display unit 1210 .
  • the front module 1250 may include additional components such as a camera, an IR light unit, and an LED light unit.
  • the image display unit 1210 is provided in front of the user to display necessary information, and is preferably provided using a thin film display, and may include LCD, Lcos, OLED, and the like.
  • the front module 1250 may include a backlight unit (not shown) for the image display unit 1210 .
  • a control unit for controlling the display module 1200, a storage unit for storing various data, a sensor unit including an acceleration sensor, a temperature sensor, an illuminance sensor, and the like are provided inside the central processing module.
  • the temple 1500 is provided with a detachable connection part for coupling with an external module, and the external module is detachably coupled to the temple through a detachable connection part.
  • the central processing module 1410 is provided with a coupling terminal 1412 for coupling with the temple 1500.
  • the coupling terminal 1412 may be easily detachable from the temple and may be provided with an interface capable of transmitting an image signal.
  • the coupling terminal may be configured to include HDMI, MIPI, or USB.
  • the battery module 1460 is also provided with a coupling terminal for coupling with the temple 1500. At this time, the battery module 1460 is different from the temple to which the central processing module 1410 is coupled to balance the weight. It is preferably coupled to the temples.
  • a power line and a signal line are disposed inside the temple and the frame, and when the battery module is coupled to the temple, power is supplied to the central processing module and the display module through the frame.
  • the display module 1200 may be coupled to the temple 1500 through a coupling terminal, but is preferably coupled directly to the central processing module 1410 for more efficient use.
  • the display unit 1200 is provided in the front of the glasses frame when using the augmented reality to display various information, but when not using the augmented reality, it is preferable to move it backward so that it can be used like ordinary glasses. .
  • the display module 1200 includes an image display unit 1210 , an intermediate module 1250 , and a sliding bar 1270 , and the intermediate module 1250 and the sliding bar 1270 are formed by a hinge unit 1230 . It is configured to rotate.
  • the display unit 1200 can be rotated forward using the hinge unit 1230 to be adjusted in a straight line with the sliding bar 1270 .
  • the sliding bar 1270 may be moved backward along the central processing module 1410 .
  • a coupling groove portion 1411 is formed in the central processing module 1410 , and the upper and lower ends of the sliding bar are bent in a 'C' shape and inserted into the coupling groove portion 1411 to be coupled. In this state, the sliding bar 1270 is movably coupled back and forth along the central processing module 1410 .
  • the central processing module 1410 is provided at the lower part of the temple 1500, and after coupling, it can move integrally with the temple.
  • coupling terminals 1272 and 1412 are provided, respectively, and the sliding bar 1270 is positioned in front of the central processing module 1410 as shown in FIG. When there is, as shown in FIG. 17, the sliding bar and the central processing module 1410 are coupled by the coupling terminal.
  • the coupling terminal may be configured to include HDMI, MIPI, or USB.
  • a pin map unit 1416 corresponding to a type of coupling terminal may be formed at the ends of the sliding bar 1270 and the central processing module 1410 .
  • a magnetic material 1700 may be provided inside the display module and the central processing module or at a predetermined position of the temple. Such a magnetic material automatically adjusts the position of the pin map portion during bonding so that the connection can be made.
  • the first pin map unit 1416 of the central processing module 1410 and the second pin map unit 1274 of the sliding bar 1270 are in electrical contact with the sliding bar located at the front. In this state, power and data can be transmitted/received between the central processing module and the display module, and the information required by the display module can be displayed in front of the user's eyes.
  • the battery can be easily replaced, it can be replaced with a new high-performance battery when a larger battery capacity is required. Since the central processing module is also replaceable, it can be replaced with a high-spec CPU when high-performance work is required. Therefore, according to the present embodiment, not only the software update but also the necessary hardware part can be upgraded, so that the user can use the appropriate combination according to the situation.
  • the head motion sensing augmented reality glasses is configured to include a spectacle frame 2100, temples 2300, a display unit 2200, and an audio unit 2130.
  • the spectacle frame 2100 corresponds to the frame of the multi-functional augmented reality glass according to the present invention, and may surround and support the outer circumferential surface of the spectacle lens 2110 .
  • the temples 2300 are coupled to both ends of the spectacle frame.
  • the display unit 2200 includes a front module 2250 and an image display unit 2210 .
  • the front module 2250 may include parts such as an IR light unit and an LED light unit.
  • the front module 2250 may include a backlight unit (not shown) for the image display unit 2210 .
  • the image display unit 2210 is provided in front of the user to display necessary information, and is preferably provided using a thin film display, and may include LCD, Lcos, OLED, and the like.
  • the image display unit 2210 includes a thin film display unit 10 such as an LCD, a polarization separator 11 that reflects only a specific polarization of light emitted from the thin film display unit 10 , and the polarization separator
  • the phase retardation plate 12 for converting the linearly polarized light reflected from the , or converting the incident circularly polarized light into linearly polarized light, and the phase retardation plate again by expanding the circularly polarized light passing through the phase retardation plate 12 It may be configured to include a transflective concave reflector 13 that reflects the light, and a light opening/closing switch panel 14 attached to an outer surface of the transflective concave reflector to open and close ambient light.
  • the image display unit may be configured as shown in FIG. 3 .
  • an image signal for display is received from the augmented reality glass body through an interface such as HDMI or MIPI, and the image signal is output from the display drive device in the display module device to the OLED, and the screen for the image signal is output from the OLED.
  • the image signal output from the OLED is incident on the waveguide through the lens, and the incident image is totally reflected on the inclined plane of the waveguide and is totally reflected on the inclined plane of the waveguide in the opposite direction to output the image in the direction of the field of view seen by the person, and the lens is attached to the front of the eye It makes the OLED output screen focus.
  • Such a display module can be configured.
  • This configuration allows the user to view the external image and the virtual image at the same time.
  • a sensor unit, a control unit, a storage unit, a driving circuit, and a battery may be mounted inside the temple 2300 .
  • the sensor unit includes a gyro sensor for detecting rotational motion, an acceleration sensor for detecting 3-axis acceleration motion, a geomagnetic sensor, and a timer for measuring time.
  • the sensor unit transmits motion data according to the movement of the augmented reality glass to the control unit using the gyro sensor and the acceleration sensor, and the control unit analyzes the motion data from the sensor unit to determine the motion.
  • the movement data may include data such as an angle and rotational speed of turning the head.
  • the motion determination may be divided into a plurality of standardized motions.
  • the user intentionally turns their head to the left, the user intentionally turns their head to the right, the user unintentionally turns their head to the left, the user unintentionally turns their head to the right, the user intentionally turns their head to the right
  • It can be divided into standardized movements such as raising the head upward, the user intentionally lowering the head downward, the user unintentionally raising the head upward, and the user intentionally lowering the head downward.
  • (a) is a movement of rotating the head up and down
  • (b) is a movement of rotating the head left and right
  • (c) is a movement of rotating the head along a -45 degree diagonal
  • (d) is It shows an example that is distinguished by a movement that rotates the head along a 45 degree diagonal.
  • (e) is a head-up movement
  • (f) is a head-down movement
  • (g) is a left-handed movement of the head
  • (h) shows an example that is distinguished by the movement of turning the head to the right.
  • (i) is a movement of raising the head upward in a 45 degree direction
  • (j) is a movement of tapping and lowering the head in a -135 degree direction
  • (k) is a movement of the head in a -45 degree direction
  • (l) shows an example in which the head is divided into a downward tapping movement in the direction of 135 degrees.
  • (m) is a movement to rotate the head twice to the left
  • (n) is a movement to rotate the head twice to the right
  • (o) is a movement to rotate the head twice upwards
  • (p) is a movement to rotate the head twice It shows an example in which the movement is divided into two downward rotations.
  • (q) is a motion that rotates the head upward in a right direction
  • (r) is a movement that rotates the head upward in a left direction
  • (s) is a movement of rotating the head in a downward direction in a right direction
  • (t) shows an example of a movement that rotates the head in a circular downward direction to the left.
  • selection buttons may be displayed left and right or up and down by the display unit.
  • a motion vector may be stored for each of these selection buttons in the storage unit.
  • the motion vector may be a criterion for detecting whether the user has intentionally selected a specific button.
  • the motion vector 2600 includes a motion direction and a motion speed as shown in FIG. 29 , and may be stored, for example, at a left motion direction and a motion speed of 10 m/s.
  • the storage unit may also store a selection range for the motion vector.
  • the selection range 2610 represents a range in which it can be determined that the user has intentionally selected a specific motion from motion data transmitted by the sensor unit.
  • the selection range for the motion vector as shown in FIG. 29 may be 10° to the upper left, 10° to the lower left, and the movement speed may be 9 m/s or more, and the motion data by the sensor unit falls within the selection range.
  • the controller determines that the user has intentionally made a motion corresponding to the motion vector, and selects a motion determination corresponding to the motion vector.
  • the control unit When the selection buttons (YES, NO) are displayed by the display unit as shown in FIG. 28 , the control unit operates the sensor unit to start sensing the user's movement. In addition, the control unit detects a motion vector corresponding to the selection button from the storage unit. In FIG. 28 , the motion vector corresponding to the selection button becomes a right or left motion vector as in FIG. 29 .
  • control unit when rotating the head left and right is recognized as motion detection, the control unit can determine that 'YES' is selected, and as shown in (a), rotation of the head up and down is recognized as motion detection. In this case, the controller may determine 'NO'.
  • the control unit operates a timer to receive motion data from the sensor unit for a predetermined period of time, and detects whether the motion data is within a selection range of each motion vector.
  • control unit selects 'YES' for the motion determination and proceeds with the operation corresponding to 'YES'.
  • the controller stores the motion data closest to the selection range as primary data, resets the timer, and then converts the motion data back to secondary data as shown in FIG. get input
  • the control unit selects a motion determination corresponding to the corresponding motion vector, and if the re-input motion data is also not within the selection range, the motion data closest to the selection range is stored as secondary data. .
  • control unit After receiving the secondary data, the control unit compares the primary data with the secondary data to select a motion determination.
  • a corresponding motion determination may be selected. For example, if the primary data is 6m/s in the 5° direction to the top left and the secondary data is 7m/s in the 3° direction to the top left, the value obtained by subtracting the primary data from the secondary data for each direction and speed is -2°, Calculate +1 m/s.
  • the control unit selects the 'YES' button corresponding to the left motion vector. If the difference between the secondary data and the primary data is out of the critical range, a default selection can be made.
  • the controller may store a personalized selection range based on the primary data and the secondary data.
  • the control unit calculates the difference between the primary data and the secondary data, and if the difference is within the threshold range, the selection range is adjusted.
  • the selection range adjustment may be adjusted for each direction and speed, and may be adjusted based on data closest to the selection range.
  • the stored selection range is 10° to the top left, 10° to the bottom left, and the movement speed is more than 9m/s
  • the primary data of user 'A' is 6m/s in the 5° direction to the top left
  • the secondary data is If it is 7m/s in a 3° direction to the left, the direction is within the selection range, so you can adjust the speed to 7m/s without adjusting.
  • the selection range for the corresponding motion vector of the user 'A' can be adjusted to 10° to the upper left, 10° to the lower left, and the movement speed to be adjusted to 7 m/s or more and stored.
  • a hot key can be created by combining various motion vectors.
  • the hotkey to wake it from sleep mode is (m)(n)(o)(p) after multiple motions, such as (m)(n)(o)(p). motion can be used. That is, when motion is sensed by strongly shaking the head left and right twice or up and down twice, the control unit may stop the sleep mode and display the screen through the display unit.
  • the determination of the movement of shaking the head can be switched to the sleep mode only when it lasts for a predetermined time or more or is detected at a predetermined speed or more.
  • power consumption can be reduced by not driving the display unit.
  • the control unit operates the sensor unit to start detecting the user's movement.
  • control unit displays a cursor on the display unit. That is, the control unit calculates the position of the cursor based on the data transmitted from the sensor unit, and then displays the cursor at the corresponding position. That is, the control unit moves the cursor in association with the movement of the head.
  • the control unit can determine that the corresponding selection button has been clicked, , (m), (n), (o), (p), when the movement is determined by moving the head twice reciprocally, the control unit may determine that the corresponding selection button is double-clicked.
  • the rotation angle is calculated by the gyro sensor and the acceleration sensor, and the cursor can be moved to the right or left on the display unit in proportion to the calculated rotation angle.
  • the control unit displays the conversion to the selection mode through the display unit, and then determines whether the speed by the sensor unit is equal to or greater than the selection speed.
  • the selection speed may be preset and stored in the storage unit.
  • the color of the selection button may be changed or the color of the outline may be changed to indicate that the selection mode has been switched.
  • a specific sound may be transmitted through the audio unit.
  • the controller When the speed of the cursor moves more than the selection speed and is located within the range of the selection button, the controller operates a timer to detect whether the cursor is located within the range of the selection button for a predetermined time or longer. As a result of detection, when the cursor is positioned within the range of the selection button for more than a set time, the control unit displays that the selection mode has been changed through the display unit, and then determines whether the speed by the sensor unit is equal to or greater than the selection speed.
  • the control unit determines that the user has clicked the corresponding selection button and performs subsequent processes. If the speed transmitted by the sensor unit is less than the selected speed, the selection button is not selected. without moving the cursor to that position.
  • the function for the selection button may be applied to other icons as well.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 각종 정보를 보여주는 디스플레이부를 하드웨어적으로나 소프트웨어적으로 다기능으로 이용할 수 있는 다기능 증강현실 글라스에 관한 것이다. 이를 위하여, 본 발명은 사용자의 눈 전방에 구비되는 안경테; 상기 안경테 전방에서 정보를 표시하여 주는 디스플레이부; 상기 안경테에 연결되며 데이터를 저장하는 저장부 및 상기 디스플레이부를 제어하는 제어부가 구비되는 안경다리; 상기 디스플레이부를 이동시키는 디스플레이이동부를 포함하여 구성되는 다기능 증강현실 글라스를 제공한다. 따라서, 본 발명에 의하면, 사용환경에 따라 증강현실 글라스로 사용할 수도 있고 보통의 안경으로 사용할 수도 있으므로 별도의 안경을 휴대할 필요없이 다기능 증강현실 글라스를 사용할 수 있다.

Description

다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스
본 발명은 증강현실 글라스에 관한 것이며, 구체적으로 각종 정보를 보여주는 디스플레이부를 하드웨어적으로나 소프트웨어적으로 다기능으로 이용할 수 있는 다기능 증강현실 글라스, 상황에 따라 기능별로 필요한 모듈을 탈부착하여 휴대시나 착용시 편리하게 사용할 수 있는 모듈화된 증강현실 글라스 및 손이나 음성을 사용하지 않고 증강현실 글라스의 다양한 기능을 선택할 수 있도록 한 헤드모션감지 증강현실 글라스에 관한 것이다.
5G 기술이 상용화되면서 증강현실과 가상현실이 주목을 받고 있다. 기존의 증강현실 디바이스들이 사람들의 환상을 만족시키는데 주안점을 두었다면, 최근에는 좀 더 현실적인 문제들을 해결하는데 초점을 맞춘 디바이스들이 많이 등장하고 있다.
안경 형태로 구비되어 얼굴에 착용하면 현실세계 및 필요한 정보를 적재적소에 디스플레이 하여 주는 증강현실 글라스는 스포츠, 의료, 국방, 산업 등 다양한 많은 분야에서 연구 및 개발되고 있다.
이러한 증강현실 글라스는 실제의 물체를 인식하여 인식된 물체에 관련되는 정보를 디스플레이하여 주거나 실제로는 없는 물체를 가상의 이미지로 안들어 인식된 물체에 매칭시켜 보여주기도 한다.
도 1을 참조하여 종래기술(한국등록특허 제10-2010027호)에 의한 증강현실 글라스에 대하여 설명한다.
종래기술에 의한 증강현실 글라스(1)는 몸체부(10), 글라스부(20), 프리즘부(30), 카메라부(40)를 포함하여 구성된다.
상기 프리즘부(30)는 디스플레이(31)에서 표시되는 가상환경을 카메라부(40)로 전달하거나 사용자에게 전달한다. 또한, 디스플레이는 패널 등 박막디스플레이가 사용된다.
프리즘부(30)는 디지털 일안 반사식 렌즈를 사용하여 사용자의 눈과 카메라에 가상환경을 동시에 송출할 수 있도록 하여 사용자가 보는 가상환경을 타 인원과 함께 공유할 수 있다.
하지만, 이러한 종래의 증강현실 글라스는 디스플레이가 안경 앞에 고정되어 있으므로 증강현실을 사용할 때에는 편리하지만, 증강현실을 사용하지 않을 때에는 거추장스럽게 느껴질 수 있다. 또한, 디스플레이가 안경다리와 안경알쪽에 부착되어 있어 안경다리를 접을 수가 없어 휴대하기가 매우 불편하다.
즉, 이러한 문제 때문에 증강현실 글라스를 사용하더라도 별도의 보통 안경을 가지고 다녀야 하는 불편함이 있다.
그리고, 증강현실 안경이 가상의 정보만을 전해주는 기능에 그쳐 사용할 수 있는 기능에 한계가 있다.
또한, 이러한 증강현실 글라스의 경우 부피와 중량이 무겁고 일반 안경과 모양이 달라 평소 착용하고 다니기가 불편한 문제점이 있다.
스마트폰과 같은 휴대단말기는 손에 들고 다니거나 손으로 든 상태에서 보거나 조작을 해야 하므로 적어도 한쪽 손은 사용할 수 없는 불편함이 있다. 이를 극복하기 위하여 손목에 찰 수 있도록 손목시계형의 단말기나 머리에 쓸 수 있도록 글라스형 단말기들이 개발되어 있다.
이들 단말기들은 손에 들 필요가 없으므로 휴대가 간편한 편리함이 있다. 특히, 머리에 쓸 수 있는 글라스형 단말기는 휴대중에도 손을 사용하지 않고 디스플레이부를 통해 관련정보를 얻을 수 있는 유용함이 있다. 또한, 증강현실 글라스의 화면은 눈앞에 필요한 가상의 데이터를 표시하여 주므로 현실에 대한 이해를 풍부하게 해준다.
종래기술인 한국공개특허 제10-2015-0043816호(입체적 입력장치를 갖는 글래스형 단말기 및 그의 화면 제어방법)에 의하면, 글래스의 테두리를 입체적 터치가 가능하도록 내측면, 상면, 외측면 및 하면으로 구성한 후 한 손가락 또는 두 손가락에 의한 적어도 하나 이상의 면에 대한 터치를 감지하여 글래스에 표시되는 화면제어를 수행하도록 되어 있다.
하지만, 이러한 글래스의 경우 역시 화면제어를 위해 손가락을 사용해야 하고 터치시 글래스가 흔들려서 불편한 느낌을 줄 수 있는 문제점이 있다.
이밖에도, 음성인식을 통해 화면제어를 하는 방법이 있으나, 이역시도 주변사람들과의 관계에서 불편함을 줄 수 있고 별도의 무선마우스를 사용하는 것은 추가적인 도구를 필요로 하여 모바일 환경에서는 적절하지 않다.
본 발명은 상기한 문제점을 해결하기 위한 것이며, 구체적으로 별도의 안경을 휴대할 필요 없이 사용환경에 따라 증강현실 글라스로 사용할 수도 있고 보통의 안경으로 사용할 수도 있는 다기능 증강현실 글라스를 제공하기 위한 것이다.
또한, 버튼 등을 눌러 기능을 실현해야 했던 불편함을 제거하고 가급적 증강현실 글라스에 손을 대지 않고 다양한 기능을 활용할 수 있도록 하는 것이 본 발명의 또 다른 목적이다.
또한, 일반 안경과 다름없이 착용할 수 있고 상황에 따라 증강현실 기능을 이용할 수도 있어 착용성과 휴대성을 향상시킨 증강현실 글라스를 제공하기 위한 것이다.
또한, 외부의 추가적인 디바이스의 도움 없이도 디스플레이 화면을 제어할 수 있는 증강현실 글라스를 제공하는 것이다.
또한, 손을 사용하지 않고도 편리하게 사용자의 의도를 파악하여 원하는 제어를 할 수 있는 증강현실 글라스를 제공하는 것이다.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
상기한 목적을 달성하기 위하여, 본 발명은 사용자의 눈 전방에 구비되는 안경테; 상기 안경테 전방에서 정보를 표시하여 주는 디스플레이부; 상기 안경테에 연결되며 데이터를 저장하는 저장부 및 상기 디스플레이부를 제어하는 제어부가 구비되는 안경다리; 상기 디스플레이부를 이동시키는 디스플레이이동부를 포함하여 구성되는 다기능 증강현실 글라스를 제공한다.
상기 디스플레이이동부는 상기 디스플레이부를 전방으로 회전시키는 각도조절부 및 상기 디스플레이부를 후방으로 이동시키는 슬라이딩부를 포함할 수 있다.
상기 슬라이딩부는 상기 안경다리 하부에 구비되는 베이스부 및 상기 베이스부를 따라 이동하는 슬라이딩바를 포함하는 것이 바람직하다.
상기 안경다리는 가속도센서를 포함하고, 상기 디스플레이부는 LED라이트부를 포함하며, 상기 제어부는 가속도센서가 일정 방향으로 일정 속도이상 움직인다고 판단되면 상기 LED라이트부를 가동시키는 것이 바람직하다.
상기 디스플레이부는 IR라이트부를 포함하고, 상기 제어부는 외부로부터 IR요청신호를 수신하면, 저장부에 저장된 데이터 중 선택된 데이터를 IR라이트부를 통해 송신할 수 있다.
상기 안경다리는 음성입출력을 위한 오디오부를 구비하고, 상기 제어부는 디스플레이부가 후방으로 이동되면 상기 디스플레이부를 중단시키고 상기 오디오부를 가동시키는 것이 바람직하다.
상기한 목적을 달성하기 위하여, 본 발명은 사용자의 눈 전방에 구비되는 안경테; 상기 안경테 전방에서 정보를 표시하여 주는 디스플레이모듈; 상기 안경테에 연결되는 한 쌍의 안경다리; 상기 안경다리는 외부모듈과의 전기적인 접속을 위한 탈착접속부가 구비되고, 상기 탈착접속부에 외부모듈이 탈착가능하게 결합되는 모듈화된 증강현실 글라스를 제공한다.
상기 외부모듈은 중앙처리모듈, 디스플레이모듈 및 배터리모듈을 포함하며, 상기 중앙처리모듈 및 배터리모듈은 각각 다른 안경다리에 탈착접속부를 통하여 결합되는 것이 바람직하다.
상기 중앙처리모듈 및 배터리모듈은 안경테를 통하여 전기적으로 접속될 수 있다.
상기 디스플레이모듈은 상기 중앙처리모듈에 앞뒤로 슬라이딩 가능하게 결합되며, 상기 중앙처리모듈의 끝단에는 제1핀맵부가 형성되고, 상기 디스플레이모듈의 끝단에는 제2핀맵부가 형성되어 통전될 수 있다.
상기한 목적을 달성하기 위하여, 본 발명은 사용자의 눈 전방에 구비되는 안경테; 상기 안경테 전방에서 정보를 표시하여 주는 디스플레이부; 상기 안경테의 움직임을 감지하는 센서부 및 상기 센서부와 디스플레이부에 의한 데이터에 기초하여 움직임판단을 하는 제어부를 포함하여 구비되며, 상기 제어부는 센서부에 의한 안경테의 움직임 방향 및 시간데이터를 이용하여 디스플레이부를 제어하는 헤드모션감지 증강현실 글라스를 제공한다.
상기 디스플레이부에 의해 좌우 또는 상하로 선택버튼이 표시되면, 상기 제어부에서는 상기 선택버튼에 대응하는 움직임벡터를 검출하고 상기 센서부에 의한 데이터가 상기 선택범위 내에 속한다고 판단되면 해당 움직임벡터에 해당하는 움직임판단을 선택하는 것이 바람직하다.
상기 제어부는 센서부에 의한 1차데이터가 상기 선택범위 내에 속하지 않는 경우 사용자의 움직임을 2차데이터로 입력받고 상기 1차데이터와 2차데이터를 비교하여 임계범위 이내인 경우 해당하는 움직임판단을 선택하는 것이 바람직하다.
헤드모션감지 증강현실 글라스는 센서데이터를 저장하는 저장부를 구비하고,상기 1차데이터 및 2차데이터를 기초로 하여 선택범위를 조정하는 것이 바람직하다.
상기 제어부는 디스플레이부에 상기 센서부에 의한 데이터에 대응하는 위치에 커서를 표시하여 줄 수 있다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
본 발명의 일 실시예에 의하면, 사용환경에 따라 증강현실 글라스로 사용할 수도 있고 보통의 안경으로 사용할 수도 있으므로 별도의 안경을 휴대할 필요 없이 다기능 증강현실 글라스를 사용할 수 있다.
또한, 증강현실 글라스에 일일이 손을 대지 않고 다양한 기능을 사용할 수 있으므로 사용자에게 매우 편리한 이용방법을 제공할 수 있다.
본 발명의 다른 실시예에 의하면, 착용시나 휴대시 외형상 일반 안경과 크게 다르지 않고 가볍게 구현 가능하여 사용자로 하여금 이질감 없이 편리하게 사용하게 할 수 있는 이점이 있다.
본 발명의 또 다른 실시예에 의하면, 외부의 추가적인 도구 없이도 손을 사용하지 않고 화면을 제어할 수 있으므로 매우 편리한 사용자 인터페이스를 제공할 수 있으며, 다양한 사람들의 모션을 감지하여 개인화된 판단방법을 사용하므로 사용자의 의도를 정확하게 판단할 수 있는 이점이 있다.
도 1은 종래기술에 의한 증강현실 글라스의 구조를 나타내는 구조도;
도 2는 본 발명에 따른 다기능 증강현실 글라스의 구조를 나타내는 사시도;
도 3 및 도 4는 도 2에서 영상표시부 구조의 일실시예를 나타내는 예시도;
도 5는 본 발명에 따른 증강현실 글라스의 구조를 나타내는 평면도;
도 6 및 도 7은 도 2에서 디스플레이부의 이동을 설명하기 위한 설명도;
도 8은 도 6에서 슬라이딩바와 베이스부의 결합관계를 나타내기 위한 설명도;
도 9 및 도 10은 이동감지부의 다른 실시예를 나타내는 설명도;
도 11은 본 발명에 따른 다기능 증강현실 글라스에서 안경다리가 접혀진 구조를 나타내는 예시도;
도 12는 본 발명에 의한 모듈화된 증강현실 글라스의 외관을 나타내는 외관도;
도 13은 도 12에서 외부모듈이 분리된 상태를 나타내는 상태도;
도 14 및 도 15는 도 12에서 디스플레이모듈의 움직임을 설명하기 위한 설명도;
도 16은 본 발명에 의한 슬라이딩바와 중앙처리모듈의 결합상태를 나타내는 구성도;
도 17 및 도 18은 도 16에서 슬라이딩바와 중앙처리모듈의 이동상태를 나타내는 상태도;
도 19 내지 도 21은 슬라이딩바와 중앙처리모듈의 핀맵부의 구성을 나타내는 예시도;
도 22는 본 발명에 의한 증강현실 글라스의 구성을 나타내는 구성도;
도 23 내지 도 27은 움직임판단을 위한 정형화딘 움직임의 예를 설명하기 위한 예시도;
도 28은 본 발명에 의한 선택버튼의 선택과정을 설명하기 위한 예시도;
도 29는 도 28에서 움직임벡터 및 선택범위를 설명하기 위한 설명도;
도 30은 본 발명에 의한 선택버튼의 선택과정을 설명하기 위한 예시도;
도 31은 본 발명에 의한 선택버튼의 선택과정을 설명하기 위한 예시도.
본 발명에 의한 구체적인 일 실시예의 구성 및 작용에 대하여 관련 도면을 참조하여 상세하게 설명한다.
도 2를 참조하면, 본 발명의 일 실시예에 의한 다기능 증강현실 글라스는 안경테(100), 디스플레이부(200), 디스플레이이동부(400), 안경다리(500)를 포함하여 구성된다.
상기 안경테(100)는 본 발명의 일 실시예에 의한 다기능 증강현실 글라스의 프레임에 해당되며, 안경렌즈(110)의 외주면을 감싸며 지지할 수 있다. 또한, 상기 안경테의 양 끝단에는 안경다리(500)가 결합된다.
상기 디스플레이부(200)는 전방모듈(250) 및 영상표시부(210)를 포함한다. 상기 전방모듈(250)은 IR라이트부(230), LED라이트부(240) 등의 부품을 포함할 수 있다. 또한, 상기 전방모듈(250)에는 영상표시부(210)를 위한 백라이트부(미도시)가 포함될 수 있다.
상기 영상표시부(210)는 사용자의 눈앞에 구비되어 필요한 정보를 표시해 주는 역할을 하며 박막디스플레이를 이용하여 구비되는 것이 바람직하며, LCD, Lcos, OLED 등을 포함할 수 있다.
도 3을 참조하면, 상기 영상표시부(210)는 LCD와 같은 박막표시부(10)와, 상기 박막표시부(10)에서 나오는 광 중 특정 편광만을 반사시키는 편광분리기(11)와, 상기 편광분리기에서 반사된 선편광을 원편광으로 변환시키거나 입사된 원편광을 선편광으로 변화시키는 위상지연판(12)과, 상기 위상지연판(12)을 통과한 원편광된 광을 확대하여 다시 상기 위상지연판으로 반사시키는 반투과 오목반사경(13)과, 주변 광을 개폐할 수 있도록 상기 반투과 오목반사경의 외측면에 부착된 광 개폐 스위치패널(14)을 포함하여 구성될 수 있다.
다른 실시예로서, 상기 영상표시부는 도 4와 같이 구성할 수 있다. 구체적으로, HDMI, MIPI 등의 인터페이스로 증강현실 글라스 본체에서 디스플레이를 위한 영상 신호를 받아서 디스플레이 모듈 장치 내의 디스플레이 드라이브 장치에서 OLED로 영상신호를 출력시켜서 OLED에서 영상신호에 대한 화면을 출력한다. OLED에서 출력되는 영상신호를 렌즈를 거쳐서 도파관에 입사하여 주고 입사된 영상이 도파관 빗면에 전반사되어 반대쪽 방향의 도파관 빗면에 전반사되어 사람이 보고 있는 사야 방향으로 영상을 출력하며 눈의 앞쪽에 렌즈가 부착되어 있어서 OLED의 출력 화면의 초점을 맺히게 하여준다. 이러한 디스플레이 모듈을 구성할 수 있다.
이러한 구성은 사용자로 하여금 외부이미지 및 가상이미지를 동시에 볼 수 있도록 하여 준다.
상기 안경다리의 내부에는 상기 디스플레이부(200)를 제어하는 제어부, 각종 데이터가 저장되는 저장부, 가속도센서, 온도센서, 조도센서 등을 포함하는 센서부 및 카메라부(220)가 구비된다. 상기 카메라부(220)는 설계조건에 따라 안경테나 전방모듈에 구비될 수도 있다. 상기 제어부, 센서부 등의 부품은 반드시 안경다리의 내부에만 구비되어야 하는 것은 아니고, 설계조건에 따라 후술할 베이스부 등 적절한 위치에 구비될 수 있다.
본 실시예에 있어서, 상기 디스플레이부(200)는 증강현실을 이용할 때에는 안경테의 전방에 구비되어 각종 정보를 표시하여 주지만, 증강현실을 이용하지 않을 때에는 디스플레이이동부(400)를 이용하여 이동시킴으로써 보통의 안경과 같이 사용할 수 있다.
구체적으로, 상기 디스플레이이동부(400)는 각도조절부(430) 및 슬라이딩부를 포함하고, 상기 슬라이딩부는 다시 베이스부(410) 및 슬라이딩바(450)를 포함하여 구성된다.
도 2 및 도 5를 참조하면, 상기 각도조절부(430)는 힌지형태로 구비될 수 있으며, 슬라이딩바(450)와 디스플레이부(200)의 사이에 구비되어 디스플레이부(200)의 각도를 변화시키는 역할을 한다.
도 6을 참조하면, 증강현실을 사용하지 않을 때에는 각도조절부(430)를 이용하여 디스플레이부(200)를 앞쪽으로 회전시켜 슬라이딩바(450)와 일직선으로 조절할 수 있다. 이 상태에서 도 7과 같이 슬라이딩바(450)를 베이스부(410)를 따라 뒤로 이동시킬 수 있다.
도 8을 참조하면, 베이스부(410)에는 결합홈부(411)가 형성되며, 슬라이딩바의 끝단은 절곡되어 상기 결합홈부(411)에 삽입되어 결합된다. 이 상태에서 상기 슬라이딩바(450)는 베이스부(410)를 따라 앞뒤로 이동가능하게 결합된다.
상기 베이스부(410)는 안경다리(500)의 하부에 구비되며, 상기 안경다리와 일체로 움직일 수 있다.
도 6을 참조하면, 상기 베이스부(410)에는 이동감지부(412)가 구비될 수 있다. 상기 이동감지부(412)는 슬라이딩바(450)가 완전히 뒤로 이동되었는지 여부를 판별하는 역할을 한다.
상기 이동감지부(412)는 전도성 있는 재질로 이루어지는 두 개의 단자를 포함할 수 있다. 상기 슬라이딩바(450)가 후방으로 이동되면, 슬라이딩바(450)에 구비되는 감지스위치(452)가 상기 이동감지부(412)로 이동되어 감지스위치가 두 개의 단자와 접촉하게 된다. 상기 감지스위치(452)는 전도성 있는 금속으로 설치되고, 두 개의 단자에 감지스위치가 접촉되면 전기적으로 두 개의 단자가 통전되어 제어부에서는 슬라이딩바가 뒤로 이동되었다는 것을 감지할 수 있다.
다를 실시예로서, 도 9 및 도 10을 참조하면, 상기 슬라이딩바(450)는 내부에 결합홈(454)이 형성될 수 있으며, 베이스부(410)에는 돌출스위치(414)가 구비될 수 있다. 상기 슬라이딩바(450)가 후방으로 이동되면 슬라이딩바(450)의 끝단에 의하여 상기 돌출스위치(414)가 베이스부의 내부로 밀려지고 상기 돌출스위치의 움직임에 의하여 제어부는 슬라이딩바가 후방으로 이동된 것을 감지할 수 있다.
슬라이딩바(450)가 계속하여 후방으로 이동되면 상기 돌출스위치는 결합홈에 마주하게 되고, 돌출스위치 내부에 구비된 스프링에 의하여 다시 돌출되어 상기 결합홈에 맞물리게 된다.
한편, 제어부는 디스플레이부가 도 2와 같이 작동상태에서 도 6과 같이 비작동상태로 접혀지면 디스플레이부의 작동을 정지시키고 음성출력을 위한 오디오부(130)를 작동시킬 수 있다. 또한, 상기 디스플레이부는 앞에서 설명한 바와 같이 슬라이딩부가 완전히 뒤로 이동되어 이동감지부에 의해 후방이동이 감지된 경우 작동을 정지시킬 수도 있다. 이렇게 자동으로 디스플레이부의 작동을 정지시킴으로써 전력소비를 절약할 수 있다.
종래기술에 의한 증강현실 글라스들은 디스플레이부가 안경다리와 안경알쪽에 부착되어 안경다리가 접혀질 수 없는 구조로 되어 있어 안경을 보관하고 휴대하기가 매우 불편하였다. 본 실시예에 의하면, 디스플레이부가 움직일 수 있는 구조로 되어 도 11과 같이 안경다리를 보통의 안경처럼 접을 수 있어 편하게 보관하거나 휴대할 수 있는 이점이 있다.
상기 디스플레이부의 전방모듈(250)에는 LED라이트부(240)가 구비될 수 있다. 상기 LED라이트부(240)는 전방으로 밝은 빛을 방출해 주는 역할을 하며, 센서부에 의한 특정한 조건하에서 작동된다.
구체적으로, 제어부는 조도센서에 의한 조도값이 임계조도값 이하이고, 가속도센서가 일정방향으로 일정속도이상 움직인다고 판단되면 상기 LED라이트부를 작동시킬 수 있다. 예를 들어, 안경을 착용한 사용자가 고개를 여러번 좌우로 흔드는 경우 제어부에서는 가속도센서에 의한 패턴을 분석하여 저장된 조건에 해당하면 상기 LED라이트부를 작동시킬 수 있다.
한편, 본 발명에 의하면 전방모듈(250)에 구비되는 IR라이트부(230)를 이용하여 상대방에게 각종 정보를 전송하여 줄 수 있다. 상기 IR라이트부는 IR수신부 및 IR송신부를 포함하여 구성된다.
상기 IR라이트부(230)에서는 직진성이 있는 적외선을 송출할 수 있으며, 제어부에서는 IR라이트부를 이용하여 IR요청신호를 발신할 수 있다. 이때, 상기 IR요청신호는 고유문자를 포함할 수 있다. 상기 고유문자는 자신의 ID나 식별번호 등이 될 수 있다.
상대방이 동일한 증강현실 글라스를 착용하고 있는 경우 IR수신부를 이용하여 상기 IR요청신호를 수신할 수 있으며, 수신된 IR요청신호는 제어부에 의하여 디스플레이부에 표시됨과 동시에 발신자가 알 수 있도록 LED라이트부를 작동시킬 수 있다. 이때, LED라이트부는 수초간 깜빡거릴 수 있다.
또한, IR요청신호를 수신하면, 이에 대하여 상대방에게 다시 IR수락신호를 전송하여 줄 수 있다. 상기 IR수락신호에도 자신의 고유문자를 포함시켜 전송하는 것이 바람직하다.
만약, 상기 IR요청신호를 발신한 IR라이트부에서 서로 다른 IR수락신호를 두 개 이상 받았다면 IR요청신호를 다시 전송하거나 사용자로 하여금 수신된 IR수락신호 중 어느 하나를 선택하게 할 수 있다. IR라이트부를 통해 전송되는 정보가 다른 사람에게 전송되지 않게 하기 위함이다.
이후, 사용자는 IR라이트부를 통해 저장부에 저장된 명함정보, 그림정보, 메세지 정보 등을 선택하여 송신할 수 있으며, 제어부에서는 수신된 IR정보 중 고유문자가 일치하는 정보만 표시하므로 원하지 않는 다른 사람의 증강현실 안경에 IR정보가 표시되는 것이 방지된다.
한편, 디스플레이부가 후방으로 이동하여 오프상태인 경우 상기 IR라이트부를 통해 IR요청신호가 수신되면 제어부에서는 오디오부(130)를 통해 IR요청신호가 수신되었음을 송출할 수 있다. 이때, 상기 디스플레이부를 전방으로 이동시켜 다시 작동시키면 제어부에서는 IR수락신호를 전송한다.
다음으로 본 발명의 다른 실시예의 구성 및 작용에 대하여 관련 도면을 참조하여 상세하게 설명한다.
도 12를 참조하면, 본 발명의 다른 실시예에 의한 모듈화된 증강현실 글라스는 안경테(1100), 안경다리(1500) 및 외부모듈을 포함하여 구성된다. 상기 외부모듈은 추가적인 기능을 제공하기 위하여 안경다리에 착탈식으로 결합하여 사용할 수 있는 모듈로서, 디스플레이모듈(1200), 중앙처리모듈(1410), 배터리모듈(1460)을 포함한다.
상기 안경테(1100)는 본 발명에 의한 모듈화된 증강현실 글라스의 프레임에 해당되며, 안경렌즈(1110)의 외주면을 감싸며 지지할 수 있다. 또한, 상기 안경테의 양 끝단에는 안경다리(1500)가 결합된다.
상기 디스플레이모듈(1200)는 전방모듈(1250) 및 영상표시부(1210)를 포함한다. 상기 전방모듈(1250)은 카메라, IR라이트부, LED라이트부 등의 부가적인 부품을 포함할 수 있다.
상기 영상표시부(1210)는 사용자의 눈앞에 구비되어 필요한 정보를 표시해 주는 역할을 하며 박막디스플레이를 이용하여 구비되는 것이 바람직하며, LCD, Lcos, OLED 등을 포함할 수 있다. 이때, 상기 전방모듈(1250)에는 영상표시부(1210)를 위한 백라이트부(미도시)가 포함될 수 있다.
상기 중앙처리모듈의 내부에는 상기 디스플레이모듈(1200)를 제어하는 제어부, 각종 데이터가 저장되는 저장부, 가속도센서, 온도센서, 조도센서 등을 포함하는 센서부가 구비된다.
한편, 도 13을 참조하면, 상기 안경다리(1500)에는 외부모듈과의 결합을 위한 탈착접속부가 구비되고, 상기 외부모듈은 상기 안경다리와 탈착접속부를 통하여 탈착가능하게 결합된다.
상기 중앙처리모듈(1410)에는 안경다리(1500)와의 결합을 위한 결합단자(1412)가 구비된다. 상기 결합단자(1412)는 안경다리와 용이하게 탈부착이 가능하며, 영상신호를 전송할 수 있는 인터페이스가 구비될 수 있다. 예를 들어, 상기 결합단자는 HDMI, MIPI, 또는 USB를 포함하여 구성될 수 있다.
상기 배터리모듈(1460)에도 안경다리(1500)와의 결합을 위한 결합단자가 구비되며, 이때, 상기 배터리모듈(1460)은 무게 균형을 맞추기 위해 중앙처리모듈(1410)이 결합된 안경다리와는 다른 안경다리에 결합되는 것이 바람직하다.
상기 안경다리 및 안경테 내부에는 파워라인 및 신호라인이 배설되어 있으며, 상기 배터리모듈이 안경다리에 결합되면, 안경테를 통하여 중앙처리모듈 및 디스플레이모듈로 전원이 공급된다.
상기 디스플레이모듈(1200)은 안경다리(1500)에 결합단자를 통해 결합될 수도 있지만, 더 효율적인 사용을 위해서는 중앙처리모듈(1410)에 직접 결합되는 것이 바람직하다.
즉, 상기 디스플레이부(1200)는 증강현실을 이용할 때에는 안경테의 전방에 구비되어 각종 정보를 표시하여 주지만, 증강현실을 이용하지 않을 때에는 후방으로 이동시킴으로써 보통의 안경과 같이 사용할 수 있도록 하는 것이 바람직하다.
구체적으로, 상기 디스플레이모듈(1200)은 영상표시부(1210), 중간모듈(1250), 슬라이딩바(1270)를 포함하며, 중간모듈(1250) 및 슬라이딩바(1270)는 힌지부(1230)에 의해 회전할 수 있도록 구성된다.
도 14를 참조하면, 증강현실을 사용하지 않을 때에는 힌지부(1230)를 이용하여 디스플레이부(1200)를 앞쪽으로 회전시켜 슬라이딩바(1270)와 일직선으로 조절할 수 있다. 이 상태에서 도 15와 같이 슬라이딩바(1270)를 중앙처리모듈(1410)을 따라 뒤로 이동시킬 수 있다.
도 16을 참조하면, 중앙처리모듈(1410)에는 결합홈부(1411)가 형성되며, 슬라이딩바의 위아래 끝단은 'ㄷ'자 형태로 절곡되어 상기 결합홈부(1411)에 삽입되어 결합된다. 이 상태에서 상기 슬라이딩바(1270)는 중앙처리모듈(1410)을 따라 앞뒤로 이동가능하게 결합된다.
상기 중앙처리모듈(1410)은 안경다리(1500)의 하부에 구비되며, 결합후에는 상기 안경다리와 일체로 움직일 수 있다.
상기 슬라이딩바(1270)의 끝단 및 중앙처리모듈(1410)의 끝단에는 각각 결합단자(1272, 1412)가 구비되며, 상기 슬라이딩바(1270)가 도 14와 같이 중앙처리모듈(1410)의 전방에 있을 때에는 도 17과 같이 슬라이딩바 및 중앙처리모듈(1410)이 결합단자에 의해 결합된 상태로 된다. 상기 결합단자는 HDMI, MIPI, 또는 USB를 포함하여 구성될 수 있다.
이 상태에서 도 18과 같이 슬라이딩바를 뒤로 이동시키면 상기 슬라이딩바는 중앙처리모듈을 따라 이동하면서 양측의 결합단자(1272, 1412)도 결합이 해제된다. 따라서, 슬라이딩바를 뒤로 이동시킨 상태에서는 디스플레이모듈(1200)로 신호전송이 불가능해진다.
다른 실시예로, 도 19를 참조하면, 슬라이딩바(1270) 및 중앙처리모듈(1410)의 끝단에는 결합단자의 종류에 해당하는 핀맵부(1416)가 형성될 수 있다.
또한, 도 20과 같이 디스플레이모듈 및 중앙처리모듈 내부 또는 안경다리의 일정 위치에는 자성물질(1700)이 구비될 수 있다. 이와 같은 자성물질은 결합시 핀맵부의 위치를 정확히 자동적으로 맞추어 연결이 되도록 하여 준다.
도 21을 참조하면, 슬라이딩바가 전방에 위치한 상태에서 중앙처리모듈(1410)의 제1핀맵부(1416) 및 슬라이딩바(1270)의 제2핀맵부(1274)가 전기적으로 접촉한 상태로 된다. 이 상태에서 전원 및 데이터가 중앙처리모듈 및 디스플레이모듈 사이에서 송수신 될 수 있으며, 디스플레이모듈에 의해 필요한 정보가 사용자의 눈 앞에 표시될 수 있는 상태로 된다.
이 상태에서 슬라이딩바를 후방으로 이동시키면 핀맵부의 접촉이 해제되어 디스플레이모듈로 전원 및 데이터가 전송될 수 없어 디스플레이모듈은 오프상태로 된다.
이와 같이 본 실시예에 의하면 안경테 및 안경다리를 제외한 외부모듈을 착탈식으로 결합 및 분리할 수 있으므로 증강현실 기능을 사용하지 않을 때에는 외부모듈을 분리시켜 안경을 착용하면 외형상 일반 안경과 다를 바 없으므로 가볍게 착용할 수 있으며, 증강현실 기능을 사용할 때에는 외부모듈을 결합시켜 사용할 수 있으므로 필요할 때에만 결합시켜 사용할 수 있는 이점이 있다.
또한, 배터리를 용이하게 교체할 수 있으므로 더 큰 배터리 용량이 필요한 경우 고성능의 새 배터리로 교체가 가능하며, 중앙처리모듈도 교체 가능하므로 고성능 작업이 필요한 경우 높은 사양의 CPU로 교체가 가능하다. 따라서, 본 실시예에 의하면 소프트웨어 업데이트뿐만 아니라, 하드웨어적인 부분도 필요한 부분만 업그레이드가 가능하므로 사용자는 상황에 따라 적절히 조합하여 사용할 수 있는 이점이 있다.
다음으로 본 발명의 또 다른 실시예의 구성 및 작용에 대하여 관련 도면을 참조하여 상세하게 설명한다.
도 22를 참조하면, 본 발명의 또 다른 실시예에 의한 헤드모션감지 증강현실 글라스는 안경테(2100), 안경다리(2300), 디스플레이부(2200), 오디오부(2130)를 포함하여 구성된다.
상기 안경테(2100)는 본 발명에 의한 다기능 증강현실 글라스의 프레임에 해당되며, 안경렌즈(2110)의 외주면을 감싸며 지지할 수 있다. 또한, 상기 안경테의 양 끝단에는 안경다리(2300)가 결합된다.
상기 디스플레이부(2200)는 전방모듈(2250) 및 영상표시부(2210)를 포함한다. 상기 전방모듈(2250)은 IR라이트부, LED라이트부 등의 부품을 포함할 수 있다. 또한, 상기 전방모듈(2250)에는 영상표시부(2210)를 위한 백라이트부(미도시)가 포함될 수 있다.
상기 영상표시부(2210)는 사용자의 눈앞에 구비되어 필요한 정보를 표시해 주는 역할을 하며 박막디스플레이를 이용하여 구비되는 것이 바람직하며, LCD, Lcos, OLED 등을 포함할 수 있다.
상기 영상표시부(2210)는 도 2에 도시된 것과 같이, LCD와 같은 박막표시부(10)와, 상기 박막표시부(10)에서 나오는 광 중 특정 편광만을 반사시키는 편광분리기(11)와, 상기 편광분리기에서 반사된 선편광을 원편광으로 변환시키거나 입사된 원편광을 선편광으로 변화시키는 위상지연판(12)과, 상기 위상지연판(12)을 통과한 원편광된 광을 확대하여 다시 상기 위상지연판으로 반사시키는 반투과 오목반사경(13)과, 주변 광을 개폐할 수 있도록 상기 반투과 오목반사경의 외측면에 부착된 광 개폐 스위치패널(14)을 포함하여 구성될 수 있다.
다른 실시예로서, 상기 영상표시부는 도 3과 같이 구성할 수 있다. 구체적으로, HDMI, MIPI 등의 인터페이스로 증강현실 글라스 본체에서 디스플레이를 위한 영상 신호를 받아서 디스플레이 모듈 장치내의 디스플레이 드라이브 장치에서 OLED로 영상신호를 출력시켜서 OLED에서 영상신호에 대한 화면을 출력한다. OLED에서 출력되는 영상신호를 렌즈를 거쳐서 도파관에 입사하여주고 입사된 영상이 도파관 빗면에 전반사되어 반대쪽 방향의 도파관 빗면에 전반사되어 사람이 보고 있는 사야 방향으로 영상을 출력하며 눈의 앞쪽에 렌즈가 부착되어 있어서 OLED의 출력 화면의 초점을 맺히게 하여준다. 이러한 디스플레이 모듈을 구성할 수 있다.
이러한 구성은 사용자로 하여금 외부이미지 및 가상이미지를 동시에 볼 수 있도록 하여 준다.
상기 안경다리(2300) 내부에는 센서부, 제어부, 저장부, 구동회로, 배터리 등이 실장될 수 있다.
상기 센서부는 회전운동을 감지하는 자이로센서 및 3축 가속운동을 감지하는 가속센서, 지자기센서, 시간을 측정하는 타이머 등을 포함한다.
상기 센서부는 자이로센서 및 가속센서를 이용하여 증강현실 글라스의 움직임에 따른 움직임데이터를 제어부에 전송하며, 제어부에서는 상기 센서부로부터 움직임데이터를 분석하여 움직임판단을 한다. 상기 움직임데이터는 고개를 돌리는 각도 및 회전속도 등의 데이터를 포함할 수 있다.
상기 움직임판단은 복수 개의 정형화된 움직임으로 구분될 수 있다. 예를 들어, 사용자가 의도적으로 고개를 왼쪽으로 돌림, 사용자가 의도적으로 고개를 오른쪽으로 돌림, 사용자가 비고의적으로 고개를 왼쪽으로 돌림, 사용자가 비고의적으로 고개를 오른쪽으로 돌림, 사용자가 의도적으로 고개를 위쪽으로 올림, 사용자가 의도적으로 고개를 아래쪽으로 내림, 사용자가 비고의적으로 고개를 위쪽으로 올림, 사용자가 비고의적으로 고개를 아래쪽으로 내림 등의 정형화된 움직임으로 구분될 수 있다.
도 23을 참조하면, (a)는 머리를 상하로 회전시킨 움직임, (b)는 머리를 좌우로 회전시킨 움직임, (c)는 머리를 -45도 대각선을 따라 회전시킨 움직임, (d)는 머리를 45도 대각선을 따라 회전시킨 움직임으로 구분되어지는 예를 나타낸다.
또한, 도 24를 참조하면, (e)는 머리를 위로 툭하고 올리는 움직임, (f)는 머리를 아래로 툭하고 내리는 움직임, (g)는 머리를 왼쪽으로 툭하고 회전시킨 움직임, (h)는 머리를 오른쪽으로 툭하고 회전시킨 움직임으로 구분되어지는 예를 나타낸다.
도 25를 참조하면, (i)는 머리를 45도 방향으로 위로 툭하고 올리는 움직임, (j)는 머리를 -135도 방향으로 아래로 툭하고 내리는 움직임, (k)는 머리를 -45도 방향으로 위로 툭하고 올리는 움직임, (l)은 머리를 135도 방향으로 아래로 툭하고 내리는 움직임으로 구분되어지는 예를 나타낸다.
도 26을 참조하면, (m)은 머리를 두번 왼쪽으로 회전시키는 움직임, (n)은 머리를 두번 오른쪽으로 회전시키는 움직임, (o)는 머리를 두번 위쪽으로 회전시키는 움직임, (p)는 머리를 두번 아래쪽으로 회전시키는 움직임으로 구분되어지는 예를 나타낸다.
도 27을 참조하면, (q)는 머리를 오른쪽 방향 위쪽으로 둥글게 회전시키는 움직임, (r)은 머리를 왼쪽 방향 위쪽으로 둥글게 회전시키는 움직임, (s)는 머리를 오른쪽 방향 아래쪽으로 둥글게 회전시키는 움직임, (t)는 머리를 왼쪽 방향 아래쪽으로 둥글게 회전시키는 움직임으로 구분되어지는 예를 나타낸다.
도 28을 참조하면, 디스플레이부에 의해 좌우 또는 상하로 선택버튼이 표시될 수 있다. 또한, 저장부에는 이러한 선택버튼마다 움직임벡터가 저장될 수 있다. 상기 움직임벡터는 사용자가 의도적으로 특정 버튼을 선택하였는지 아닌지를 검출하는 기준이 될 수 있다.
상기 움직임벡터(2600)는 도 29와 같이 움직임방향과 움직임속도를 포함하며, 예를 들어 움직임방향 왼쪽, 움직임속도 10m/s로 저장될 수 있다. 상기 저장부에는 또한, 상기 움직임벡터에 관한 선택범위가 저장될 수 있다. 상기 선택범위(2610)는 센서부에서 의해 전송되는 움직임데이터로부터 사용자가 의도적으로 특정 움직임을 선택했다고 판단할 수 있는 범위를 나타낸다.
예를 들어, 도 29와 같은 움직임벡터에 대한 선택범위는 왼쪽위로 10°, 왼쪽아래로 10°, 움직임속도는 9m/s 이상이 될 수 있으며, 센서부에 의한 움직임데이터가 상기 선택범위 내에 속하는 경우 제어부에서는 사용자가 의도적으로 상기 움직임벡터에 해당하는 움직임을 했다고 판단하고 해당 움직임벡터에 해당하는 움직임판단을 선택한다.
도 28에서와 같이 디스플레이부에 의해 선택버튼(YES, NO)이 표시되면, 제어부에서는 센서부를 가동시켜 사용자의 움직임 감지를 시작한다. 또한, 제어부에서는 상기 선택버튼에 대응하는 움직임벡터를 저장부에서 검출한다. 도 28에서 선택버튼에 대응하는 움직임벡터는 도 29에서와 같이 오른쪽 또는 왼쪽 방향의 움직임벡터가 된다.
예를 들어, (b)와 같이 고개를 좌우로 회전을 움직임 감지로 인식한 경우 제어부에서는 'YES'를 선택한 것으로 판단할 수 있으며, (a)와 같이 고개를 상하로 회전을 움직임 감지로 인식한 경우 제어부에서는 'NO'로 판단할 수 있다.
제어부에서는 타이머를 가동시켜 센서부에 의한 움직임데이터를 일정시간동안 전송받을 수 있으며, 움직임데이터가 각 움직임벡터의 선택범위 내에 있는지를 검출한다.
수신된 움직임데이터가 왼쪽방향 움직임벡터의 선택범위 내에 있는 경우 제어부에서는 움직임판단을 'YES'로 선택하여 'YES'에 해당하는 작업을 진행시킨다.
반면, 일정시간동안 전송받은 움직임데이터가 선택범위 내에 있지 않는 경우 제어부에서는 해당 선택범위에 가장 근접한 움직임데이터를 1차데이터로 저장하고 타이머를 리셋시킨 후 도 30과 같이 다시 움직임데이터를 2차데이터로 입력받는다.
제어부에서는 다시 입력받은 움직임데이터가 선택범위 내에 있는 경우 해당 움직임벡터에 해당하는 움직임판단을 선택하고, 다시 입력받은 움직임데이터도 선택범위 내에 있지 않으면 선택범위에 가장 근접한 움직임데이터를 2차데이터로 저장한다.
제어부에서는 2차데이터를 입력받은 후 1차데이터와 2차데이터를 비교하여 움직임판단을 선택한다.
구체적으로, 1차데이터와 2차데이터의 차이를 계산하여 일정범위 이내인 경우 해당하는 움직임판단을 선택할 수 있다. 예를 들어, 1차데이터가 왼쪽위로 5°방향 6m/s이고 2차데이터가 왼쪽위로 3°방향 7m/s라면 방향 및 속도별로 2차데이터에서 1차데이터를 뺀 값을 구하여 -2°, +1m/s를 계산한다.
여기서, 임계범위가 방향 -3°~ +3°, 속도 -2m/s ~ +2m/s라면 제어부에서는 왼쪽 움직임벡터에 해당하는 'YES'버튼을 선택하게 된다. 만약 2차데이터와 1차데이터의 차이가 임계범위를 벗어나는 경우에는 디폴트로 지정된 선택을 할 수 있다.
한편, 제어부는 상기 1차데이터 및 2차데이터를 기초로 하여 개인화된 선택범위를 저장할 수 있다.
구체적으로, 1차데이터 및 2차데이터의 전송결과 저장된 선택범위 내에 들어가지 못한 경우 제어부에서는 1차데이터와 2차데이터의 차이를 산출하고 상기 차이가 임계범위 내에 있으면 선택범위 조정을 실시한다. 상기 선택범위 조정은 방향 및 속도별로 조정될 수 있으며, 가장 선택범위에 가까운 데이터를 기준으로 조정될 수 있다.
예를 들어, 저장된 선택범위가 왼쪽위로 10°, 왼쪽아래로 10°, 움직임속도는 9m/s 이상이고, 사용자 '갑'의 1차데이터가 왼쪽위로 5°방향 6m/s이고 2차데이터가 왼쪽위로 3°방향 7m/s라면, 방향은 선택범위 내에 있으므로 조정하지 않고 속도를 7m/s로 조정할 수 있다. 따라서, 사용자 '갑'의 해당 움직임벡터에 대한 선택범위는 왼쪽위로 10°, 왼쪽아래로 10°, 움직임속도는 7m/s 이상으로 조정되어 저장될 수 있다.
상기에서는 왼쪽 또는 오른쪽으로 회전하는 경우에 대해 설명했지만, 여러가지 움직임벡터를 조합하여 핫키(hot key)를 만들 수 있다. 예를 들어, CPU가 슬립모드(sleep mode)에 있거나 화면이 사라지는 모드에 있을 때, 슬립모드에서 빠져나오도록 하는 핫키는 (m)(n)(o)(p)와 같은 여러 번 움직임이 있는 모션을 사용할 수 있다. 즉, 고개를 강하게 좌우로 두번 흔들거나 위아래로 두번 흔드는 움직임감지가 되면 제어부에서는 슬립모드를 정지시키고 디스플레이부를 통해 화면을 표시하게 할 수 있다.
또한, 고개를 흔드는 핫키를 이용하여 증강현실 글라스가 슬립모드에 들어가게 할 수 있다. 상기 고개를 흔드는 움직임판단은 일정시간 이상 지속되거나 일정속도 이상으로 감지되어야 슬립모드로 전환되게 할 수 있다. 이러한 슬립모드에서는 디스플레이부를 구동하지 않음으로써 전력소모를 저감시킬 수 있는 이점이 있다.
한편, 도 31을 참조하여 다른 실시예에 대해 설명한다. 디스플레이부에 의해 선택버튼(YES, NO)이 표시되면, 제어부에서는 센서부를 가동시켜 사용자의 움직임 감지를 시작한다.
이와 동시에, 제어부에서는 디스플레이부에 커서를 표시하여 준다. 즉, 제어부에서는 센서부에서 전송되는 데이터에 기초하여 커서의 위치를 계산한 다음 해당 위치에 상기 커서를 표시하여 준다. 즉, 상기 제어부는 상기 커서를 머리의 움직임에 연동하여 움직이게 한다.
상기 커서가 선택버튼의 범위 내에 위치한 경우 (a),(b),(c),(d)와 같이 고개를 한번 왕복으로 움직임판단을 한 경우 제어부에서는 해당 선택버튼을 클릭한 것으로 판단할 수 있고, (m), (n), (o), (p)와 같이 고개를 두번 왕복으로 움직인 것으로 움직임판단을 한 경우 제어부에서는 해당 선택버튼을 더블클릭한 것으로 판단할 수 있다.
한펀, 사용자가 머리에 착용한 증강현실 글라스를 오른쪽 또는 왼쪽으로 회전시키면 자이로센서 및 가속센서에 의하여 회전각도가 계산되고 계산된 회전각도에 비례하여 디스플레이부에 오른쪽 또는 왼쪽으로 커서를 이동시킬 수 있다.
상기 커서의 속도가 선택속도 미만으로 이동하여 선택버튼의 범위 내에 위치하면 제어부에서는 디스플레이부를 통해 선택모드로 전환되었음을 표시하며, 이후 센서부에 의한 속도가 선택속도 이상인지 판단한다. 상기 선택속도는 미리 설정되어 저장부에 저장되어 있을 수 있다.
또한, 상기 선택모드로 전환되었음을 표시하기 위하여 선택버튼의 색깔을 변경시키거나 윤곽선의 색깔을 변경시킬 수 있다. 다른 방법으로는, 오디오부를 통해 특정한 음향을 송출할 수 있다.
상기 커서의 속도가 선택속도 이상으로 이동하여 선택버튼의 범위 내에 위치한 경우 제어부에서는 타이머를 가동시켜 일정시간 이상 커서가 선택버튼의 범위 내에 위치하는지 검출한다. 검출 결과 커서가 선택버튼의 범위 내에 설정시간 이상 위치하는 경우 제어부에서는 디스플레이부를 통해 선택모드로 전환되었음을 표시하며, 이후 센서부에 의한 속도가 선택속도 이상인지 판단한다.
제어부에서는 센서부에 의해 전송된 속도가 선택속도 이상인 경우 사용자가 해당 선택버튼을 클릭한 것으로 판단하고 이후의 프로세스를 수행하며, 센서부에 의해 전송된 속도가 선택속도 미만인 경우 해당 선택버튼을 선택하지 않고 커서를 해당 위치로 이동시킨다.
상기 선택버튼에 대한 기능은 다른 아이콘에도 마찬가지로 적용될 수 있다.
상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (21)

  1. 사용자의 눈 전방에 구비되는 안경테;
    상기 안경테 전방에서 정보를 표시하여 주는 디스플레이부;
    상기 안경테에 연결되는 안경다리;
    움직임을 측정하는 센서부;
    상기 디스플레이부 및 센서부를 제어하는 제어부;
    상기 디스플레이부를 이동시키는 디스플레이이동부를 포함하여 구성되는 다기능 증강현실 글라스.
  2. 제1항에 있어서,
    상기 디스플레이이동부는 상기 디스플레이부를 전방으로 회전시키는 각도조절부 및 상기 디스플레이부를 후방으로 이동시키는 슬라이딩부를 포함하는 것을 특징으로 하는 다기능 증강현실 글라스.
  3. 제2항에 있어서,
    상기 슬라이딩부는 상기 안경다리 하부에 구비되는 베이스부 및 상기 베이스부를 따라 이동하는 슬라이딩바를 포함하는 것을 특징으로 하는 다기능 증강현실 글라스.
  4. 제1항에 있어서,
    상기 센서부는 가속도센서를 포함하고,
    상기 디스플레이부는 LED라이트부를 포함하며,
    상기 제어부는 가속도센서가 일정 방향으로 일정 속도이상 움직인다고 판단되면 상기 LED라이트부를 가동시키는 것을 특징으로 하는 다기능 증강현실 글라스.
  5. 제1항에 있어서,
    상기 디스플레이부는 IR라이트부를 포함하고,
    상기 제어부는 외부로부터 IR요청신호를 수신하면, 저장부에 저장된 데이터 중 선택된 데이터를 IR라이트부를 통해 송신하는 것을 특징으로 하는 다기능 증강현실 글라스.
  6. 제2항에 있어서,
    상기 안경다리는 음성입출력을 위한 오디오부를 구비하고,
    상기 제어부는 디스플레이부가 후방으로 이동되면 상기 디스플레이부를 중단시키고 상기 오디오부를 가동시키는 것을 특징으로 하는 다기능 증강현실 글라스.
  7. 사용자의 눈 전방에 구비되는 안경테;
    상기 안경테에 연결되는 한 쌍의 안경다리;
    추가적인 기능을 제공하기 위한 외부모듈;
    상기 안경다리는 외부모듈과의 전기적인 접속을 위한 탈착접속부가 구비되고, 상기 탈착접속부에 외부모듈이 탈착가능하게 결합되는 모듈화된 증강현실 글라스.
  8. 제7항에 있어서,
    상기 외부모듈은 상기 안경테 전방에서 정보를 표시해 주는 디스플레이모듈을 포함하며, 상기 디스플레이모듈은 상기 안경다리에 탈부착 가능하게 결합되는 것을 특징으로 하는 모듈화된 증강현실 글라스.
  9. 제8항에 있어서,
    상기 안경다리 및 디스플레이모듈에는 자성물질이 구비되어 상기 디스플레이모듈이 정확한 위치에 결합되어질 수 있도록 한 것을 특징으로 하는 모듈화된 증강현실 글라스.
  10. 제7항에 있어서,
    상기 외부모듈은 중앙처리모듈, 디스플레이모듈 및 배터리모듈을 포함하며, 상기 중앙처리모듈 및 배터리모듈은 각각 다른 안경다리에 탈착접속부를 통하여 결합되는 것을 특징으로 하는 모듈화된 증강현실 글라스.
  11. 제7항에 있어서,
    상기 외부모듈은 상기 안경테 전방에서 정보를 표시해 주는 디스플레이모듈을 포함하며,
    상기 디스플레이모듈은 상기 중앙처리모듈에 앞뒤로 슬라이딩 가능하게 결합되며, 상기 중앙처리모듈의 끝단에는 제1핀맵부가 형성되고, 상기 디스플레이모듈의 끝단에는 제2핀맵부가 형성되어 통전되는 것을 특징으로 하는 모듈화된 증강현실 글라스.
  12. 사용자의 눈 전방에 구비되는 안경테;
    상기 안경테 전방에서 정보를 표시하여 주는 디스플레이부;
    상기 안경테의 움직임을 감지하는 센서부 및
    상기 센서부와 디스플레이부에 의한 데이터에 기초하여 움직임판단을 하는 제어부를 포함하여 구비되며,
    상기 제어부는 센서부에 의한 안경테의 움직임 방향 및 속도데이터를 이용하여 디스플레이부를 제어하는 헤드모션감지 증강현실 글라스.
  13. 제12항에 있어서,
    상기 디스플레이부에 의해 YES, NO를 포함하는 선택버튼이 표시되면,
    상기 제어부에서는 센서부에 의해 움직임감지를 하여 고개를 좌우로 회전시키는 움직임판단을 한 경우 YES 또는 NO 버튼 중 어느 하나를 선택한 것으로 판단을 하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  14. 제12항에 있어서,
    상기 디스플레이부에 의해 좌우 또는 상하로 선택버튼이 표시되면, 상기 제어부에서는 상기 선택버튼에 대응하는 움직임벡터를 검출하고 상기 센서부에 의한 데이터가 상기 선택범위 내에 속한다고 판단되면 해당 움직임벡터에 해당하는 움직임판단을 선택하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  15. 제14항에 있어서,
    상기 제어부는 센서부에 의한 1차데이터가 상기 선택범위 내에 속하지 않는 경우 사용자의 움직임을 2차데이터로 입력받고 상기 1차데이터와 2차데이터를 비교하여 임계범위 이내인 경우 해당하는 움직임판단을 선택하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  16. 제15항에 있어서,
    헤드모션감지 증강현실 글라스는 센서데이터를 저장하는 저장부를 구비하고,
    상기 1차데이터 및 2차데이터를 기초로 하여 선택범위를 조정하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  17. 제12항에 있어서,
    상기 제어부는 고개를 흔드는 움직임판단을 한 경우 디스플레이부를 구동하지 않는 슬립모드로 전환시켜 전력소모를 저감시키는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  18. 제12항에 있어서,
    상기 제어부는 고개를 강하게 좌우로 두번 흔들거나 위아래로 두번 흔드는 움직임판단을 한 경우 슬립모드를 정지시키고 디스플레이부를 구동시키는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  19. 제12항에 있어서,
    상기 제어부는 디스플레이부에 상기 센서부에 의한 데이터에 대응하는 위치에 커서를 표시하여 주는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  20. 제19항에 있어서,
    상기 제어부는 상기 커서를 머리의 움직임에 연동하여 움직이게 하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
  21. 제19항에 있어서,
    상기 제어부는 센서부에 의한 데이터에 기초하여 움직임판단을 하며, 고개를 한번 왕복으로 움직임판단을 한 경우 해당 선택버튼을 클릭한 것으로 판단하며, 고개를 두번 왕복으로 움직인 것으로 움직임판단을 한 경우 해당 선택버튼을 더블클릭한 것으로 판단하는 것을 특징으로 하는 헤드모션감지 증강현실 글라스.
PCT/KR2020/016563 2019-11-29 2020-11-23 다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스 WO2021107527A1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020190156920A KR102401854B1 (ko) 2019-11-29 2019-11-29 다기능 증강현실 글라스
KR1020190156894A KR102322436B1 (ko) 2019-11-29 2019-11-29 모듈화된 증강현실 글라스
KR1020190156910A KR102367492B1 (ko) 2019-11-29 2019-11-29 헤드모션감지 증강현실 글라스
KR10-2019-0156920 2019-11-29
KR10-2019-0156894 2019-11-29
KR10-2019-0156910 2019-11-29

Publications (1)

Publication Number Publication Date
WO2021107527A1 true WO2021107527A1 (ko) 2021-06-03

Family

ID=76130643

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016563 WO2021107527A1 (ko) 2019-11-29 2020-11-23 다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스

Country Status (1)

Country Link
WO (1) WO2021107527A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114659753A (zh) * 2022-02-24 2022-06-24 上海晨兴希姆通电子科技有限公司 用于ar眼镜的语音测试设备及其测试方法
WO2023005623A1 (zh) * 2021-07-29 2023-02-02 Oppo广东移动通信有限公司 增强现实装置及智能眼镜

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205214A (ja) * 2009-03-06 2010-09-16 Nikon Corp 制御装置及びヘッドマウントディスプレイ装置
KR20140020213A (ko) * 2012-08-07 2014-02-18 한양대학교 산학협력단 슬라이딩 구조를 가지는 착용형 디스플레이 장치
KR20140111693A (ko) * 2012-01-05 2014-09-19 구글 인코포레이티드 입출력 구조를 가진 웨어러블 디바이스 어셈블리
KR20150024199A (ko) * 2013-08-26 2015-03-06 엘지전자 주식회사 두부 장착형 디스플레이 장치 및 이의 제어방법
KR20150142516A (ko) * 2014-06-12 2015-12-22 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어 방법
WO2016103877A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 制御装置
KR20190041048A (ko) * 2017-10-11 2019-04-22 주식회사 카이비전 움직임감지 증강현실 글라스

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205214A (ja) * 2009-03-06 2010-09-16 Nikon Corp 制御装置及びヘッドマウントディスプレイ装置
KR20140111693A (ko) * 2012-01-05 2014-09-19 구글 인코포레이티드 입출력 구조를 가진 웨어러블 디바이스 어셈블리
KR20140020213A (ko) * 2012-08-07 2014-02-18 한양대학교 산학협력단 슬라이딩 구조를 가지는 착용형 디스플레이 장치
KR20150024199A (ko) * 2013-08-26 2015-03-06 엘지전자 주식회사 두부 장착형 디스플레이 장치 및 이의 제어방법
KR20150142516A (ko) * 2014-06-12 2015-12-22 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어 방법
WO2016103877A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 制御装置
KR20190041048A (ko) * 2017-10-11 2019-04-22 주식회사 카이비전 움직임감지 증강현실 글라스

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023005623A1 (zh) * 2021-07-29 2023-02-02 Oppo广东移动通信有限公司 增强现实装置及智能眼镜
CN114659753A (zh) * 2022-02-24 2022-06-24 上海晨兴希姆通电子科技有限公司 用于ar眼镜的语音测试设备及其测试方法
CN114659753B (zh) * 2022-02-24 2024-05-07 上海晨兴希姆通电子科技有限公司 用于ar眼镜的语音测试设备及其测试方法

Similar Documents

Publication Publication Date Title
WO2021107527A1 (ko) 다기능 증강현실 글라스, 모듈화된 증강현실 글라스 및 헤드모션감지 증강현실 글라스
WO2017095006A1 (en) Head-mounted display device with detachable device
WO2014109498A1 (en) Head mounted display providing eye gaze calibration and control method thereof
WO2017078208A1 (ko) 스마트 디바이스 및 이의 제어방법
WO2017061677A1 (en) Head mount display device
WO2015076531A1 (en) Head-mounted display apparatus
WO2018062658A1 (en) Display apparatus and controlling method thereof
EP3072009A1 (en) Head-mounted display apparatus
WO2018021712A1 (en) Interface connector device including compatible gendered connector
WO2019164092A1 (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
WO2021256651A1 (ko) 증강 현실 글라스 및 그 동작 방법
WO2017007101A1 (ko) 스마트 디바이스 및 이의 제어방법
US20230194956A1 (en) Imaging apparatus and method for controlling the same
WO2018066962A1 (ko) 스마트 안경
JP2009104429A (ja) ヘッドマウントディスプレイ装置及び携帯装置
WO2021177622A1 (ko) 가상 이미지를 제공하는 웨어러블 전자 장치
WO2020022750A1 (ko) 디스플레이에서 출력된 광에 대해 다중 초점을 제공할 수 있는 전자 장치
KR102367492B1 (ko) 헤드모션감지 증강현실 글라스
KR102322436B1 (ko) 모듈화된 증강현실 글라스
KR102401854B1 (ko) 다기능 증강현실 글라스
WO2021010526A1 (ko) 이동 단말기 및 이에 결합하는 보조 장치
WO2023063515A1 (ko) 손목과 트리거 제스처의 단계적 인식을 통한 앱 라이브러리 동작 방법 및 앱 라이브러리가 동작하는 머리 착용형 디스플레이 장치
WO2022255625A1 (ko) 영상 통화 중 다양한 커뮤니케이션을 지원하는 전자 장치 및 그의 동작 방법
WO2023282446A1 (ko) 손 마디 인식을 이용해 인터페이스를 제공하는 착용형 증강현실 장치 및 손 마디 인식을 이용한 착용형 증강현실 장치의 인터페이스 제공 방법
WO2023096038A1 (ko) 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20891583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20891583

Country of ref document: EP

Kind code of ref document: A1