WO2016064073A1 - 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법 - Google Patents

디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법 Download PDF

Info

Publication number
WO2016064073A1
WO2016064073A1 PCT/KR2015/007981 KR2015007981W WO2016064073A1 WO 2016064073 A1 WO2016064073 A1 WO 2016064073A1 KR 2015007981 W KR2015007981 W KR 2015007981W WO 2016064073 A1 WO2016064073 A1 WO 2016064073A1
Authority
WO
WIPO (PCT)
Prior art keywords
glasses
camera
touch
smart glasses
image
Prior art date
Application number
PCT/KR2015/007981
Other languages
English (en)
French (fr)
Inventor
윤영기
Original Assignee
윤영기
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤영기 filed Critical 윤영기
Publication of WO2016064073A1 publication Critical patent/WO2016064073A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/02Diffusing elements; Afocal elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Definitions

  • the present invention relates to a smart glasses equipped with a display and a camera, and a spatial touch and touch correction method using the same.
  • the glasses display manufactured in the form of glasses, an eye tracking camera for detecting eye movements, and a wearer's hand movements are described. It relates to a smart glasses equipped with a hand recognition camera to recognize and a space touch and touch correction method using the same.
  • the present invention provides a user interface image on glasses having a film or glass-finished portion for arbitrarily modifying the transmittance, glasses equipped with a beam project for projecting images on the glasses, or a glasses-type display with a transparent LCD. Based on this image, the user recognizes the motion of a finger touching a space (or the air) with a hand recognition camera, and tracks eye movements with an eye tracking camera to improve the accuracy of the touch motion.
  • the present invention relates to a spatial touch input and correction method using smart glasses that recognizes a plane and recognizes that a moving finger and a line of sight in the plane are replaced.
  • One such computer is a wearable computer that can be carried and used with emphasis on portability.
  • the wearable computer uses a voice input and a one-handed button as an input device, and a monocular head mounted display as an output device. HMD), and the computer body and hard disk can be mounted in the pocket. In addition to displaying manuals and supporting complex tasks using both hands, it also supports the user's perception and information processing.
  • Patent Documents 1 to 3 are examples.
  • Patent Document 1 is a garment in which the outer skin and the inner skin is detachable, and is configured to mount a computer on the inner skin that is compatible with various types of outer skin of the garment, and the computer receives a digital signal applied from the main device, a plurality of peripheral devices, and the main device. It consists of a signal conversion module for converting into an analog signal, a display module for displaying and outputting an analog signal provided from the signal conversion module, and a power supply, and each device is detachable. First and second accommodating parts for mounting the signal conversion module are formed, and a third accommodating part for mounting the main device is formed on the rear side thereof, and the first to third accommodating parts are provided on the upper part of the endothelial including the sleeve part. Guiding the path of the cable connecting the device stored in the device and the peripheral device including the display module Will configured is formed with a cable guide,
  • Patent document 2 is a display device using wearable glasses, the camera mounted on the wearable glasses to obtain a first image of the wearer, the operation unit for analyzing the first image to determine the virtual display area of the wearable glasses, linked with the wearable glasses And a data interlocking unit for receiving the second image from the smart device and a display unit for displaying the second image on the virtual display area.
  • Patent document 3 is a spectacle type monitor, which includes a photographing apparatus for enlarging or filtering an external background image, and includes a data input unit for receiving data to be provided through the spectacle monitor, and an image to be processed and provided through the spectacle monitor.
  • the conventional wearable computer is provided with glasses that serve as a monitor for a display as described above, and these glasses are used as a user interface as a method of recognizing hand gestures in a space.
  • the existing display glasses require hand gestures (gestures) facing the camera like Microsoft's Kinect when hand gestures are used for signal input.
  • a device needs to be complicated because it requires a data glove or a bracelet with an accelerometer to transmit hand movement separately.
  • the wearable computer is not intended to be used in a place where the operation can be performed without restrictions, such as a home or an office, but should be usable on the move, but there is a problem of using the input method due to the problem of the input method.
  • the present invention was developed to solve the above problems, and an object of the present invention is to provide a smart glasses equipped with a display and a camera capable of inputting a more accurate touch signal, and a spatial touch input and correction method using the same.
  • the present invention finds and recognizes an intersection where an image of a camera that tracks an eye unconsciously looking at a user's hand or finger movement and an image of a camera that recognizes a hand gesture intersects an action of a user for signal input. It is an object of the present invention to provide a smart glasses equipped with a display and a camera and a spatial touch input and correction method using the same, which accurately recognizes whether the behavior is for other tasks and enables accurate information input.
  • Smart glasses for achieving the above object is a smart glasses used as input and output means of the wearable computer is equipped with a display and a camera, characterized in that the part of the lens is provided with a scattering portion for scattering the light propagation in various directions It is done.
  • the scattering unit may be formed by processing a lens, or may be made by attaching a transparent film. When the transparent film is used, light may be scattered by forming fine grooves in the film.
  • One side of the glasses is preferably further provided with a beam projector for irradiating the image to the lens, eye tracking camera to track the eye, and a hand recognition camera for recognizing the hand motions can be installed.
  • One side of the glasses may further include a motion sensor for detecting the movement of the glasses to turn on / off the display or recognize whether the user touches the head according to the angle of the head of the user wearing the glasses.
  • a spatial touch input method using smart glasses as described above, a glasses having a lens having a scattering unit, a beam projector installed at one side of the glasses, and irradiating an image to the lenses, one side of the glasses.
  • a smart glasses equipped with an eye tracking camera for tracking the eyeball and a hand recognition camera for recognizing a hand motion characterized in that it is determined whether the screen touch according to the movement direction of the finger taken by the hand recognition camera. It is done.
  • the display If the hand recognition camera recognizes that the finger moves inward from both ends of the image, the display is touched. If the hand recognition camera recognizes that the finger moves to both ends of the inside of the image, the display recognizes that the touch is released. Can be.
  • Another method for inputting a spatial touch using smart glasses includes glasses having a lens having a scattering unit, a beam projector installed on one side of the glasses to irradiate an image to the lens, an eye tracking camera for tracking the eyeball on one side of the glasses, and glasses
  • the finger is captured by the hand recognition camera and the eye gaze (or focus) detected by the eye tracking camera
  • the overlapping part of the fixed part is recognized as a touch part.
  • the recognition of the touch part should recognize that the eye gaze (or focus) and the state where the finger is stopped are maintained for a predetermined time (10 ms to 16 ms).
  • the eye tracking camera and the hand recognition camera are installed only on the left or right side of the glasses, calculate the visual difference by the trigonometric function of the distance between the center axis of the hand recognition camera and the center axis of the eye tracking camera, and based on this, the finger movement is recognized and touched. It can be recognized as a virtual plane.
  • the eye tracking camera and the hand recognition camera may be installed at both sides of the glasses, and may recognize a virtual plane that touches a portion where the eyes (or focal points ) of the two eyes detected by the two eye tracking cameras intersect.
  • a mark indicating that the touch has been displayed is preferably displayed on the display image to confirm the touch to the user.
  • the smart glasses and the spatial touch input and correction method using the same according to the present invention have an effect of enabling more accurate touch signal input.
  • the X-axis and the Y-axis are different from each other to recognize a certain range and a certain distance of the space located in the user's field of view. It recognizes virtual planes with three or more deadlocks, and accurately recognizes whether the user's action of intersecting the finger and eyeballs on the virtual plane is for signal input or for other tasks. It is effective.
  • FIG. 1 is a block diagram of a smart glasses according to the present invention
  • FIG. 2 is a cross-sectional view of the lens or film illustrating the scattering principle of the scattering unit of the smart glasses according to the present invention
  • FIG. 3 is a diagram and a graph for explaining a process of recognizing a virtual plane in a spatial touch input and correction method using smart glasses according to the present invention.
  • the present invention enables a more accurate touch signal input in the wearable computer glasses.
  • the smart glasses according to the present invention (see Fig. 5) is typically equipped with a display and a camera similar to the glasses used as a display means for a wearable computer, and has a scattering portion (10s) for forming a virtual plane of the display Doing.
  • the scattering unit 10s is a part for scattering the light of the image irradiated from the display so that the displayed virtual plane is displayed more broadly and cleanly, so that the light is scattered by processing the lens itself, or by attaching a transparent film. have.
  • the principle of scattering of the image in the scattering unit 10s is to form fine grooves 10g in the lens or the film so that light is refracted and scattered.
  • Another smart glasses 10 according to the present invention configured as described above is provided with a beam projector 20 for irradiating an image to the lens.
  • the beam projector 20 is one of the miniaturized beam projectors that are typically installed in smart glasses to irradiate an image onto a lens, and the same will be omitted.
  • Eyeglasses according to the present invention further includes an eye tracking camera 30 for tracking eyeballs and checking eyeball directions, and a hand recognition camera 40 for recognizing hand movements.
  • the eye tracking camera 30 and the hand recognition camera 40 are provided to calculate accurate eye information (or focus) and position information of the eye photographed therefrom, so that accurate touch information can be input.
  • a virtual plane in order to capture an image using the eye tracking camera 30 and the hand recognition camera 40 and input touch information using the captured image, a virtual plane must first be created. There must be an element.
  • the first is the distance of the two cameras 30, 40, which can be obtained from the distance between the two cameras 30, 40 when producing smart glasses.
  • the second requires the angle of gaze and hand that is detected by the two cameras.
  • two hand recognition cameras 40 are preferably installed, but may be installed on one side of the smart glasses . Two angles required by the two hand recognition cameras 40 installed at both ends of the smart glasses to recognize the finger are required, or the finger angle and eye tracking recognized by the one hand recognition camera 40 installed at either the right or left side of the glasses.
  • the eye tracking camera 30 for detecting the eye movement of the smart glasses to recognize at which angle to the bottom or up and left and right from the center of the eye.
  • This eye angle recognition calculates the angle of the eye by calculating the ratio of elliptical shape up and down, left and right on the assumption that the eye is a perfect circular, the initial value is recognized as the eye tracking camera 30 and the basic angle of the eye.
  • the hand recognition camera 40 captures the movement of the hand, extracts the shape of the finger, obtains fingertip coordinates (X2, Y2), and coordinates (x2, Y2) and the center coordinates (x1) of the eye tracking camera 30. Use the distance up to y1) to find the angle.
  • the x-axis distance dx is (x2-x1)
  • the y-axis distance dy0 is (y2-y1)
  • the angle rad is atan (dx, dy).
  • the position of the finger is calculated using the angle calculated by the eye tracking camera 30 and the angle calculated by the hand recognition camera 40, which calculates the distance using the ratio of the trigonometric function and the trigonometric function.
  • the left and right sides of the face are determined by the x-axis
  • the up-and-down is determined by the y-axis
  • the x-axis and y-axis angles of the eyeball are obtained
  • the x-axis and y-axis angles of the finger are obtained from the image of the hand recognition camera 40.
  • the angle PCG which forms the x axis of the hand recognition camera 40 and the angle PE which forms the x axis of the eye tracking camera 30 and the distance CE are used.
  • the method to find the distance to the finger is as follows.
  • the distance from C to P can be calculated using triangulation based on the base CG value calculated as the ratio.
  • the average distance of the points is calculated to calculate the distance from the hand recognition camera 40 to the virtual plane, and the distance of the finger near the calculated distance is calculated.
  • the motion it recognizes that the touch operation is performed, and the operation is performed out of the power saving mode such as automatically turning on the display, and when it is out of this virtual plane, the operation is entered into the power saving mode.
  • the y-axis is more important than the distance of the camera image, the range of the finger position in the camera image is set to a rectangular shape, the set range is where the virtual plane is located where the touch is made.
  • the display function may display information at a specific location, avoiding the human eye, so that the wearer may not be disturbed visually.
  • Smart glasses according to the present invention configured as described above is preferably to control the wearable computer or display by detecting the movement of the glasses, that is, the movement of the head of the user wearing the glasses, for this purpose, one side of the glasses
  • the operation sensor 50 for detecting the movement of the can be further booked.
  • the motion sensor 50 may be used as the motion sensor 50, but an acceleration sensor for detecting the speed at which the glasses move may be used.
  • the spatial touch input method using the smart glasses according to the present invention configured as described above is characterized in that it is determined whether or not the screen touch according to the movement direction of the finger photographed by the hand recognition camera 40.
  • the method of recognizing that the display is touched or not touched according to the moving direction of the finger recognized by the hand recognition camera 40 may be variously modified.
  • the display is touched when it is recognized to move inwardly at both ends, and the display is recognized as being moved at both ends from the inside of the image.
  • Another method of determining whether or not to touch the screen is a portion where a finger captured by the hand recognition camera 40 stops and a portion where the eye (or focus) of the eye detected by the eye tracking camera 30 is fixed. It is recognized as a touch part.
  • the recognition of the touch portion is preferably recognized as touching the eye gaze (or the focus) and the state in which the finger is stationary for a certain time. That is, if the time for determining whether the touch is too short, the touch can be recognized as a touch even in a non-hand gesture, so that the eye gaze (or the focus) and the finger are stopped for a certain time, for example, 10 ms to 16 ms. Only when it is maintained is to recognize by touch.
  • the eye tracking camera 30 and the hand recognition camera 40 may be installed only on the left or right side of the glasses, and when the cameras are installed on only one side of the eye tracking camera 30 and the eye tracking camera 30. It is preferable to calculate the visual difference using the triangular function of the distance of the central axis of the, and to recognize the movement of the finger as a virtual plane to touch.
  • the eye tracking camera 30 and the hand recognition camera 40 may be installed on both sides of the glasses, in this case to touch the intersection of the eyes (or focus) of the two eyes detected by the two eye tracking cameras. It is desirable to make it perceive as a virtual plane.
  • the hand and the background are separated by changing the focus of the hand recognition camera 40 so that the outlines of the objects to be photographed are clearly changed.
  • the hand and the background are separated by changing the focus of the hand recognition camera 40 so that the outlines of the objects to be photographed are clearly changed.
  • By overlapping the images without the background make sure that a certain color is kept in a certain part. Using this to extract the outline, it is recognized as a finger in the extracted image.
  • a mark indicating that the touch has been displayed may be displayed on the display image to confirm the touch to the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 안경 형태로 제작된 안경 디스플레이와, 안구의 움직임을 감지하는 안구추적카메라와 착용자의 손동작을 인식하는 손인식카메라가 장착된 스마트안경 스마트 안경과 이를 이용한 공간 터치 및 터치 보정 방법에 관한 것으로서, 보다 상세하게는 투과율을 임의대로 수정하는 필름이나 유리 가공한 부분을 갖는 안경과, 이 안경에 영상을 투시하는 빔 프로젝트가 장착된 안경이나, 투명 LCD를 부착한 안경형 디스플레이에 유저 인터페이스 영상을 표시하고, 이 영상을 기반으로 공간(또는 허공)에 손가락으로 터치하는 동작을 손인식카메라로 인식하고, 이 터치 동작의 정확도를 올리기 위해 안구추적카메라로 안구의 움직임을 추적하여 시선이 교착하는 X축과 Y축이 서로 다른 3개 교착점을 갖는 공간을 평면으로 인식하도록 하고, 이 평면에서 움직이는 손가락과 시선이 교체하는 부분을 터치한 것으로 인식하도록 하는 스마트 안경을 이용한 공간 터치 및 터치 보정 방법에 관한 것이다.

Description

디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
본 발명은 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 및 터치 보정 방법에 관한 것으로서, 상세하게는 안경 형태로 제작된 안경 디스플레이와, 안구의 움직임을 감지하는 안구추적카메라와 착용자의 손동작을 인식하는 손인식카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 및 터치 보정 방법에 관한 것이다.
보다 상세하게 본 발명은 투과율을 임의대로 수정하는 필름이나 유리 가공한 부분을 갖는 안경과, 이 안경에 영상을 투시하는 빔 프로젝트가 장착된 안경이나, 투명 LCD를 부착한 안경형 디스플레이에 유저 인터페이스 영상을 표시하고, 이 영상을 기반으로 공간(또는 허공)에 손가락으로 터치하는 동작을 손인식카메라로 인식하고, 이 터치 동작의 정확도를 올리기 위해 안구추적카메라로 안구의 움직임을 추적하여 시선이 교착하는 공간을 평면으로 인식하도록 하고, 이 평면에서 움직이는 손가락과 시선이 교체하는 부분을 터치한 것으로 인식하도록 하는 스마트 안경을 이용한 공간 터치 입력 및 보정 방법에 관한 것이다.
전기, 전자 기술이 발달함에 따라 다양한 통신기기나 컴퓨터가 개발되고 있다.
이러한 컴퓨터 중에는 휴대성을 중시하여 갖고 다니며 이용할 수 있는 컴퓨터인 웨어러블(wearable) 컴퓨터가 있으며, 이 웨어러블 컴퓨터는 입력 장치로는 음성 입력과 한손용 버튼이 사용되고, 출력 장치로는 단안용 헤드 마운트 디스플레이(HMD)를 갖추고 있으며, 컴퓨터 본체와 하드 디스크는 주머니에 장착할 수 있도록 되어 있다. 매뉴얼 등을 표시하여 양손을 이용하는 복잡한 작업을 지원하기도 하며, 사용자의 지각 확대와 정보 처리를 지원한다.
이러한 웨어러블 컴퓨터와 관련된 다양한 기술이 있고 그 예로는 특허문헌 1내지 3이 있다.
특허문헌 1은 외피와 내피가 착탈 가능한 형태로 된 의복으로써 여러 유형의 의복 외피와 호환 가능한 내피에 컴퓨터를 장착하도록 구성되고, 상기 컴퓨터는 메인장치와 다수의 주변기기, 메인장치로부터 인가되는 디지탈신호를 아날로그 신호로 변환하기 위한 신호변환모듈, 이 신호변환모듈로부터 제공되는 아날로그신호를 표시, 출력하기 위한 디스플레이모듈 및 전원장치로 구성되면서 각 장치가 착탈 가능하도록 구성되며, 내피의 전면 양측에는 전원장치 및 신호변환모듈을 탑재하기 위한 제1 및 제2 수납부가 형성되고, 그 후면에는 메인장치를 탑재하기 위한 제3수납부가 형성되며, 소매부분을 포함하는 내피의 상측부분에는 제1 내지 제3수납부에 수납된 장치와 상기 디스플레이모듈을 포함한 주변장치를 결합하는 케이블의 경로를 안내하기 위한 케이블 안내로가 형성되어 구성된 것이고,
특허문헌 2는 웨어러블 안경을 이용한 디스플레이 장치에 있어서, 웨어러블 안경에 탑재되어 착용자 시점의 제1 영상을 획득하는 카메라, 제1영상을 분석하여 웨어러블 안경의 가상 표시 영역을 결정하는 연산부, 웨어러블 안경과 연동 가능한 스마트 기기로부터 제2 영상을 수신하는 데이터 연동부 및 제2 영상을 가상 표시 영역에 디스플레이하는 디스플레이부를 포함하는 것이고,
특허문헌 3은 안경형 모니터로서, 외부의 배경 영상을 확대하거나 필터링하여 촬영하는 촬영 장치를 포함하며 안경형 모니터를 통하여 제공될 데이터를 입력받는 데이터 입력부와, 데이터를 영상 처리하여 안경형 모니터를 통하여 제공될 이미지 영상을 생성하는 영상 처리부와, 외부의 배경 영상의 투과 농도를 조절하는 전방 투과 농도 조절부와, 영상 처리부에서 전송되는 이미지 영상 또는 전방 투과 농도 조절부를 통하여 투과되는 배경 영상을 안경형 모니터의 사용자의 눈에 입사시키는 영상 입사부로 이루어진 것이다.
이러한 종래의 웨어러블 컴퓨터는 상기한 바와 같이 디스플레이용 모니터 역할을 하는 안경을 구비하고 있고, 이러한 안경은 공간에 손동작을 인식하는 방법으로 사용자 인터페이스로 사용하고 있다.
그러나 기 기존의 디스플레이 안경은 신호 입력을 위해 손동작을 할 때 마이크로소프트사의 키넥트와 같이 카메라를 마주보고 손동작(제스처)을 하여야 입력이 가능하여 신호 입력이 어렵고, 손의 전체 패턴을 감지하거나 큰 동작으로 움직이는 손을 감지하여 동작 인식하므로 손가락만을 감지하기 위해서는 별도로 손 움직임을 전달해 주는 데이터 글러브나 가속도 센서가 내장된 팔찌와 같은 것을 필요로 하므로 장치가 복잡해지는 문제가 있다.
또한 공간터치에서 있어서는 사람의 행동이 신호를 입력하기 위한 행동인지, 다른 일을 하기 위한 행동인지를 구분하기 어려워 오인식 되는 문제가 있었다.
더욱이, 웨어러블 컴퓨터는 집안이나 사무실과 같이 제약 없이 동작을 취할 수 있는 곳에서 사용하기 위한 것이 아니라, 이동 중에도 사용할 수 있어야 하지만 상기와 같은 입력 방식의 문제가 있어 이동 중에는 사용하는 데 많은 불편이 있었다.
[선행기술문헌]
[특허문헌]
1. 대한민국 특허공개 제2004-0099988호
2. 대한민국 특허등록 제1430614호
3. 대한민국 특허공개 제2013-0045002호
본 발명은 상기와 같은 문제점을 해소하기 위해 개발된 것으로, 보다 정확한 터치 신호 입력이 가능한 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법을 제공하는 것을 목적으로 한다.
보다 상세하게 본 발명은 사람이 무의식적으로 자신의 손이나 손가락 움직임을 주시하는 안구를 추적하는 카메라와, 손동작을 인식하는 카메라의 영상이 교차하는 교차점을 찾아 인식함으로써 사용자의 행동이 신호 입력을 위한 행동인지 다른 일을 위한 행동인지를 정확하게 인식하여 정확한 정보 입력이 가능하게 한 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법을 제공하는 것을 목적으로 한다.
상기한 바와 같은 목적을 달성하기 위한 스마트 안경은 디스플레이와 카메라가 장착되어 웨어러블 컴퓨터의 입출력 수단으로 사용되는 스마트 안경에 있어서, 렌즈의 일부에 빛의 진행을 여러 방향을 산란시키는 산란부를 구비한 것을 특징으로 한다.
상기 산란부는 렌즈를 가공하여 형성되거나, 투명필름을 부착하여 만들어질 수 있고, 투명필름을 이용할 경우 필름에 미세 홈을 형성하여 빛이 산란되게 할 수 있다.
상기 안경의 일측에는 렌즈에 영상을 조사하는 빔프로젝터를 더 구비하는 것이 바람직하고, 안구를 추적하는 안구추적카메라와, 손동작을 인식하기 위한 손인식카메라를 설치할 수 있다.
상기 안경의 일측에는 안경의 움직임을 감지하는 동작센서를 더 구비하여 안경을 착용한 사용자의 머리가 움직이는 각도에 따라 디스플레이를 온/오프하거나, 터치 여부를 인식하게 할 수도 있다.
본 발명의 다른 일 양상에 따른 스마트 안경을 이용한 공간 터치 입력 방법은 상기한 바와 같이, 산란부를 갖는 렌즈를 구비한 안경, 상기 안경의 일측에 설치되어 렌즈에 영상을 조사하는 빔프로젝터, 안경의 일측에는 안구를 추적하는 안구추적카메라 및 손동작을 인식하기 위한 손인식카메라를 구비한 스마트 안경을 이용한 공간 터치 입력 방법에 있어서, 상기 손인식카메라에서 촬영된 손가락의 이동 방향에 따라 스크린 터치 여부를 판단하는 것을 특징으로 한다.
상기 손인식카메라가 손가락이 영상의 양쪽 끝에서 안쪽으로 이동하는 것으로 인식하면 디스플레이가 터치되고, 상기 손인식카메라가 손가락이 영상의 안쪽에 양쪽 끝으로 이동하는 것으로 인식하면 디스플레이가 터치가 해제된 것으로 인식할 수 있다.
또 다른 스마트 안경을 이용한 공간 터치 입력 방법은 산란부를 갖는 렌즈를 구비한 안경, 상기 안경의 일측에 설치되어 렌즈에 영상을 조사하는 빔프로젝터, 안경의 일측에는 안구를 추적하는 안구추적카메라, 및 안경의 일측에는 손동작을 인식하기 위한 손인식카메라를 구비한 스마트 안경을 이용한 공간 터치 입력 방법에 있어서, 상기 손인식카메라에서 촬영된 손가락이 정지된 부분과, 상기 안구추적카메라에서 감지된 안구의 시선(또는 초점)이 고정된 부분이 겹친 부분이 터치부분으로 인식하는 것을 특징으로 한다.
이러한 스마트 안경을 이용한 공간 터치 입력 방법에 있어서, 터치부분의 인식은 안구 시선(또는 초점)과 손가락이 정지된 상태를 일정시간(10ms ~ 16ms) 유지하는 것을 인지하여야 한다.
상기 안구추적카메라와 손인식카메라는 안경의 좌측 또는 우측에만 설치되고, 손인식카메라의 중심축과 안구추적카메라의 중심축의 거리를 삼각함수로 시각차를 산출하고, 이를 기반으로 손가락의 움직임을 인식하여 터치하는 가상 평면으로 인식하게 할 수 있다.
상기 안구추적카메라와 손인식카메라는 안경의 양측에 설치되고, 두 안구추적카메라에서 감지된 두 안구의 시선(또는 초점)이 교차하는 부분을 터치하는 가상 평면으로 인식하게 할 수도 있다.
상기 손인식카메라에서 인식된 손동작을 영상에서 빠르게 추출하기 위해 손인식카메라의 초점을 변경하여 촬영되는 물체들의 외곽선이 뚜렷하게 변화는 것을 이용하여 손과 배경을 분리하는 것이 바람직하고, 배경이 배제된 영상들을 겹쳐서 일정한 색상이 일정한 부분에 유지되는지 확인하고 이를 이용하여 외곽선을 추출하고 이 추출된 이미지에서 손가락으로 인식하게 하는 것이 바람직하다.
추출한 손가락에 안구추적카메라에서 감지된 안구의 시선(또는 초점)이 고정되면 터치되었다고 알려주는 표식이 디스플레이 영상에 표시되어 사용자에게 터치를 확인시키는 것이 바람직하다.
상술한 바와 같이, 본 발명에 따른 스마트 안경 및 이를 이용한 공간 터치 입력 및 보정 방법은 보다 정확한 터치 신호 입력이 가능하게 하는 효과가 있다.
즉, 안구를 추적하는 카메라와, 손동작을 인식하는 카메라의 영상이 교차하는 교차점을 찾아 인식함으로 사용자의 시야내에 위치하는 공간의 특정 범위와 일정한 거리를 인식시킬 수 있는 X축과 Y축이 서로 다른 3개 이상의 교착점을 갖는 가상평면을 인식시키고 이 가상평면에 손가락과 안구의 교착점이 교착하는 사용자의 행동이 신호 입력을 위한 행동인지 다른 일을 위한 행동인지를 정확하게 인식하여 정확한 정보 입력이 가능하게 하는 효과가 있는 것이다.
도 1은 본 발명에 따른 스마트 안경의 구성도
도 2는 본 발명에 따른 스마트 안경의 산란부의 산란 원리를 설명한 렌즈 또는 필름의 단면도
도 3은 본 발명에 따른 스마트 안경을 이용한 공간 터치 입력 및 보정 방법에서 가상평면을 인식하는 과정을 설명하기 위한 도표와 그래프
도 4는 3개 이상의 점도 3에 도시한 바와 같은 방법에 의해 구해지 3점의 위치의 일예
도 5는 본 발명에 따른 스마트 안경의 예시도
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 발명은 웨어러블 컴퓨터용 안경에서 보다 정확한 터치 신호 입력이 가능하게 한다.
이러한 본 발명에 따른 스마트 안경(도 5 참조)은 통상적으로 웨어러블 컴퓨터용 디스플레이 수단으로 사용되는 안경과 동일 유사하게 디스플레이와 카메라가 장착되어 있으며, 디스플레이의 가상 평면 형성을 위해 산란부(10s)를 구비하고 있다.
상기 산란부(10s)는 디스플레이 되는 가상 평면이 보다 넓고 깨끗하게 표시되도록 디스플레이로부터 조사되는 영상의 빛을 산란시키기 위한 부분으로 렌즈 자체를 가공하여 빛이 산란되게 하거나, 투명필름을 부착하여 산란되게 할 수 있다.
이러한 산란부(10s)에서 영상이 산란되는 원리는 도 2에 도시한 바와 같이, 렌즈나 필름에 미세홈(10g)을 형성하여 빛을 굴절시켜 산란되게 한다.
상기와 같이 구성된 본 발명에 다른 스마트 안경(10)에는 렌즈에 영상을 조사하는 빔프로젝터(20)를 구비하고 있다.
상기 빔프로젝터(20)는 통상적으로 스마트 안경에 설치되어 렌즈에 영상을 조사하는 소형화된 빔프로젝터의 하나로 종래에 사용되는 것과 동일한 것으로, 이에 대한 상세한 설명은 생략한다.
본 발명에 따른 안경은 그 일측에는 안구를 추적하여 안구의 시선 방향을 확인하기 위한 안구추적카메라(30)와, 손동작을 인식하기 위한 손인식카메라(40)를 더 구비하고 있다.
이와 같이 안구추적카메라(30)와 손인식카메라(40)를 구비하여 이들로부터 촬영된 안구의 시선(또는 초점)과 손의 위치 정보를 연산하여 정확한 터치 정보를 입력할 수 있는 것이다.
즉, 이렇게 안구추적카메라(30)와 손인식카메라(40)를 이용하여 영상을 촬영하고 촬영된 영상을 이용하여 터치 정보를 입력하기 위해서는 먼저 가상 평면을 만들어야하고, 가상평면을 만들기 위해서는 두 가지의 기본 요소가 있어야 한다.
첫 째는 두 카메라(30, 40)의 거리로서, 이는 스마트 안경을 제작할 때 두 카메라(30, 40) 사이의 거리로부터 얻어질 수 있다.
두 번째는 두 개의 카메라에 감지되는 시선의 각도와 손의 각도가 필요하다. 이에 따라 손인식카메라(40)는 두개가 설치되는 것이 바람직하나 스마트 안경의 특성상 한쪽에 설치되어도 된다. 스마트 안경의 양쪽 끝단에 설치된 두 개의 손인식카메라(40)가 손가락을 인식하여 구하는 두 각도가 필요하거나, 안경의 우측이나 좌측 중 한 쪽에서 설치된 하나의 손인식카메라(40)에서 인식한 손가락 각도와 안구추적카메라(30)로부터 산출된 시선 즉, 안구의 초점의 각도가 필요하다.
먼저, 스마트 안경을 얼굴에 착용한 후, 스마트 안경의 안구 동작을 감지하는 안구추적카메라(30)가 안구의 중심으로부터 아래나 위 및 좌우로 어느 각도에 위치하는지를 인식시킨다. 이러한 안구 각도 인식은 안구 완전한 원형이라고 가정하여 상하, 좌우로 타원 형태로 된 비율을 계산하여 시선의 각도를 산출하는데, 초기 값이 안구추적카메라(30)와 안구의 기본 각도로 인식된다.
손인식카메라(40)가 손의 움직임을 촬영하고, 손가락의 모양을 추출한 후, 손가락 끝 좌표(X2, Y2)를 구하고, 이 좌표(X2, Y2)와 안구추적카메라(30)의 중심 좌표(x1,y1)까지 거리를 이용하여 각도를 구한다.
즉, x축거리(dx)는 (x2-x1)이고, y축 거리(dy0)는 (y2-y1)이며, 사이각(rad)은 atan(dx, dy)이다.
또한 상기에서 안구추적카메라(30)에서 산출된 각도와 손인식카메라(40)에서 산출된 각도를 이용하여 손가락의 위치를 산출하는데 이는 삼각함수와 삼각함수의 비율을 이용하여 거리를 산출한다.
먼저, 얼굴의 좌우를 x축으로, 상하를 y축으로 정하고, 안구의 x축, y축 각도를 구하며, 손인식카메라(40)의 영상에서 손가락의 x축, y축 각도를 구한다.
도 3의 (b)에 도시한 바와 같이, 손인식카메라(40)의 x축과 이루는 각∠PCG, 안구추적카메라(30)의 x축과 이루는 각 ∠PEG과 두 각의 거리(CE)를 이용하여 손가락까지의 거리를 구하는 방법은 아래와 같다.
∠EPG = 90 - ∠PEG
∠CPG = 90 - ∠PCG
EG = sin(∠EPG)
CG = sin(∠CPG)
CG : (EG - CG) = x : CE
이렇게 비율로 산출한 밑변 CG값을 기준으로 삼각측정법을 이용하여 C에서 P까지의 거리를 산출할 수 있다.
이러한 방법으로 도 4에 도시한 바와 같이 3개 이상의 점을 선택하여 거리를 구하고, 이 점들의 평균 거리를 구하여 손인식카메라(40)로부터 가상평면까지의 거리를 산출하고, 산출된 거리 근처에서 손가락의 움직임이 감지되면 터치 동작을 하는 것으로 인식하여 자동으로 디스플레이를 전원을 켜는 동작과 같은 절전에서 벗어나는 동작을 하고, 이 가상평면에서 벗어나면 절전모드로 들어가는 동작을 할 수 있게 한다. 이때 y축은 거리보다 카메라 영상의 범위가 중요하고, 카메라 영상에서 손가락이 위치하는 범위를 직사각형 모양으로 범위를 설정하며, 설정된 범위가 가상평면이 위치하는 곳으로 터치가 이루어지는 곳이다.
또한 디스플레이 기능에서도 사람의 시각을 피해 특정 위치에 정보를 디스플레이 하도록 하여 착용자로 하여금 시각적 방해가 되지 않도록 할 수 있다.
상기와 같이 구성된 본 발명에 다른 스마트 안경은 안경의 움직임 즉, 안경을 착용한 사용자의 머리의 움직임을 감지하여 웨어러블 컴퓨터 또는 디스플레이를 제어할 수 있게 하는 것이 바람직하며, 이를 위해 상기 안경의 일측에는 안경의 움직임을 감지하는 동작센서(50)를 더 부기할 수 있다.
상기 동작센서(50)로는 다양한 것이 사용될 수 있으나 안경이 움직이는 속도를 감지할 수 있는 가속도 센서 등이 상용될 수 있다.
상기와 같이 구성된 본 발명에 따른 스마트 안경을 이용한 공간 터치 입력 방법은 손인식카메라(40)에서 촬영된 손가락의 이동 방향에 따라 스크린 터치 여부를 판단하는 것을 특징으로 한다.
상기 손인식카메라(40)에서 인식된 손가락의 이동 방향에 따라 디스플레이가 터치되고 터치되지 않은 것을 인식하는 방법은 다양하게 변형하여 실시 할 수 있으나 바람직한 일예는 손인식카메라(40)에서 인식된 손가락이 영상의 양쪽 끝에서 안쪽으로 이동하는 것으로 인식하면 디스플레이가 터치되고, 영상의 안쪽에서 양쪽 끝으로 이동하는 것으로 인식하면 디스플레이가 터치가 해제된 것으로 인식하게 할 수 있다.
또 다른 스크린 터치 여부를 판단하는 방법은 손인식카메라(40)에서 촬영된 손가락이 정지된 부분과, 상기 안구추적카메라(30)에서 감지된 안구의 시선(또는 초점)이 고정된 부분이 겹친 부분을 터치부분으로 인식하는 것이다.
이때 터치부분의 인식은 안구 시선(또는 초점)과 손가락이 정지된 상태를 일정시간 유지하여야 터치한 것으로 인식하는 것이 바람직하다. 즉, 터치 여부를 판단하는 시간이 지나치게 짧을 경우, 터치를 위한 손동작이 아닌 동작에서도 터치한 것으로 오 인식할 수 있으므로 안구 시선(또는 초점)과 손가락이 정지된 상태를 일정시간 예를 들면 10ms ~ 16ms 정도 유지하였을 때만 터치로 인식하게 하는 것이다.
상기 안구추적카메라(30)와 손인식카메라(40)는 안경의 좌측 또는 우측에만 설치될 수 있고, 이렇게 어느 일측에만 카메라들이 설치되었을 경우에는 손인식카메라(40)의 중심축과 안구추적카메라(30)의 중심축의 거리를 삼각함수로 시각차를 산출하고, 이를 기반으로 손가락의 움직임을 인식하여 터치하는 가상 평면으로 인식하는 것이 바람직하다.
또한, 상기 안구추적카메라(30)와 손인식카메라(40)는 안경의 양측에 모두 설치될 수 있고, 이때에는 두 안구추적카메라에서 감지된 두 안구의 시선(또는 초점)이 교차하는 부분을 터치하는 가상 평면으로 인식하게 하는 것이 바람직하다.
이러한 스마트 안경에서 상기 손인식카메라(40)에서 인식된 손동작을 영상에서 빠르게 추출하기 위해 손인식카메라(40)의 초점을 변경하여 촬영되는 물체들의 외곽선이 뚜렷하게 변화는 것을 이용하여 손과 배경을 분리하고, 이렇게 배경이 배제된 영상들을 겹쳐서 일정한 색상이 일정한 부분에 유지되는지 확인하고. 이를 이용하여 외곽선을 추출하며, 추출된 이미지에서 손가락으로 인식하는 것이다.
추출한 손가락에 안구추적카메라(30)에서 감지된 안구의 시선(또는 초점)이 고정되면 터치되었다고 알려주는 표식이 디스플레이 영상에 표시되어 사용자에게 터치를 확인시킬 수도 있다.

Claims (18)

  1. 디스플레이와 카메라가 장착되어 웨어러블 컴퓨터의 입출력 수단으로 사용되는 스마트 안경에 있어서,
    렌즈의 일부에 빛의 진행을 여러 방향을 산란시키는 산란부를 구비한 것을 특징으로 하는 스마트 안경.
  2. 제1항에 있어서,
    상기 산란부는 렌즈를 가공하여 형성되는 것을 특징으로 하는 스마트 안경.
  3. 제1항에 있어서,
    상기 산란부는 투명필름을 부착하여 만들어진 것을 특징으로 하는 스마트 안경.
  4. 제1항에 있어서,
    상기 산란부는 필름에 미세홈을 형성하여 빛을 산란시키는 것을 특징으로 하는 스마트 안경.
  5. 제1항 내지 제4항 중 어느 한항에 있어서,
    상기 안경의 일측에는 렌즈에 영상을 조사하는 빔프로젝터가 더 설치된 것을 특징으로 하는 스마트 안경.
  6. 제5항에 있어서,
    상기 안경의 일측에는 안구를 추적하는 안구추적카메라가 설치된 것을 특징으로 하는 스마트 안경.
  7. 제6항에 있어서,
    상기 안경의 일측에는 손동작을 인식하기 위한 손인식카메라가 설치된 것을 특징으로 하는 스마트 안경.
  8. 제7항에 있어서,
    상기 안경의 일측에는 안경의 움직임을 감지하는 동작센서를 더 구비하여 안경을 착용한 사용자의 머리가 움직이는 각도에 따라 디스플레이를 온/오프하거나, 터치 여부를 인식하게 한 것을 특징으로 하는 스마트 안경.
  9. 산란부를 갖는 렌즈를 구비한 안경, 상기 안경의 일측에 설치되어 렌즈에 영상을 조사하는 빔프로젝터, 안경의 일측에는 안구를 추적하는 안구추적카메라 및 안경의 일측에는 손동작을 인식하기 위한 손인식카메라를 구비하고, 웨어러블 컴퓨터의 입출력 수단으로 사용되는 스마트 안경을 이용한 공간 터치 입력 방법에 있어서,
    상기 손인식카메라에서 촬영된 손가락의 이동 방향에 따라 스크린 터치 여부를 판단하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  10. 제9항에 있어서,
    상기 손인식카메라가 손가락이 영상의 양쪽 끝에서 안쪽으로 이동하는 것으로 인식하면 디스플레이가 터치되고,
    상기 손인식카메라가 손가락이 영상의 안쪽에 양쪽 끝으로 이동하는 것으로 인식하면 디스플레이가 터치가 해제된 것으로 인식하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  11. 산란부를 갖는 렌즈를 구비한 안경, 상기 안경의 일측에 설치되어 렌즈에 영상을 조사하는 빔프로젝터, 안경의 일측에는 안구를 추적하는 안구추적카메라, 및 안경의 일측에는 손동작을 인식하기 위한 손인식카메라를 구비하고, 웨어러블 컴퓨터의 입출력 수단으로 사용되는 스마트 안경을 이용한 공간 터치 입력 방법에 있어서,
    상기 손인식카메라에서 촬영된 손가락이 정지된 부분과, 상기 안구추적카메라에서 감지된 안구의 시선(또는 초점)이 고정된 부분이 겹친 부분이 터치부분으로 인식하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  12. 제11항에 있어서,
    터치부분의 인식은 안구 시선(또는 초점)과 손가락이 정지된 상태를 일정시간(10ms ~ 16ms) 유지하여야 하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  13. 제11항에 있어서,
    웨어러블 컴퓨터에서 인식하는 가상면면은 공간 터치로 인식된 X축과 Y축의 값이 다른 3개 이상의 좌표를 기반을 도형 형태로 인식되도록 한 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  14. 제11항에 있어서,
    상기 안구추적카메라와 손인식카메라는 안경의 좌측 또는 우측에만 설치되고,
    손인식카메라의 중심축과 안구추적카메라의 중심축의 거리를 삼각함수로 시각차를 산출하고, 이를 기반으로 손가락의 움직임을 인식하여 터치하는 가상 평면으로 인식하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  15. 제11항에 있어서,
    상기 안구추적카메라와 손인식카메라는 안경의 양측에 설치되고,
    두 안구추적카메라에서 감지된 두 안구의 시선(또는 초점)이 교차하는 부분을 터치하는 가상 평면으로 인식하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  16. 제11항 내지 제15항 중 어느 한항에 있어서,
    상기 손인식카메라에서 인식된 손동작을 영상에서 빠르게 추출하기 위해 손인식카메라의 초점을 변경하여 촬영되는 물체들의 외곽선이 뚜렷하게 변화는 것을 이용하여 손과 배경을 분리하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  17. 제16항에 있어서,
    배경이 배제된 영상들을 겹쳐서 일정한 색상이 일정한 부분에 유지되는지 확인하고 이를 이용하여 외곽선을 추출하고 이 추출된 이미지에서 손가락으로 인식하는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
  18. 제17항에 있어서,
    추출한 손가락에 안구추적카메라에서 감지된 안구의 시선(또는 초점)이 고정되면 터치되었다고 알려주는 표식이 디스플레이 영상에 표시되어 사용자에게 터치를 확인시키는 것을 특징으로 하는 스마트 안경을 이용한 공간 터치 입력 방법.
PCT/KR2015/007981 2014-10-22 2015-07-30 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법 WO2016064073A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0143582 2014-10-22
KR1020140143582A KR101709611B1 (ko) 2014-10-22 2014-10-22 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법

Publications (1)

Publication Number Publication Date
WO2016064073A1 true WO2016064073A1 (ko) 2016-04-28

Family

ID=55761078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/007981 WO2016064073A1 (ko) 2014-10-22 2015-07-30 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법

Country Status (2)

Country Link
KR (1) KR101709611B1 (ko)
WO (1) WO2016064073A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976889A (zh) * 2019-03-26 2019-07-05 孙涛 一种基于智能眼镜的多任务协同处理方法
CN110069101A (zh) * 2019-04-24 2019-07-30 洪浛檩 一种穿戴式计算设备和一种人机交互方法
CN114115532A (zh) * 2021-11-11 2022-03-01 珊瑚石(上海)视讯科技有限公司 一种基于显示内容的ar标注方法及系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180082729A (ko) 2017-01-11 2018-07-19 동서대학교산학협력단 웨어러블 스마트 안경 디바이스 및 이를 이용한 영상이미지 표시방법
KR102150074B1 (ko) 2019-04-01 2020-08-31 주식회사 리모샷 Gps 기반 내비게이션 시스템
KR20220058194A (ko) 2020-10-30 2022-05-09 삼성전자주식회사 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
KR102339044B1 (ko) * 2021-05-20 2021-12-14 주식회사 아진엑스텍 비상 상황 통제 방법 및 장치
WO2023158166A1 (ko) * 2022-02-21 2023-08-24 삼성전자 주식회사 전자 장치 및 이의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133885A (ja) * 1997-10-29 1999-05-21 Seiko Epson Corp 頭部装着型表示装置
KR20080077804A (ko) * 2007-02-21 2008-08-26 원광대학교산학협력단 안구전도와 마커인식을 이용한 착용형 인터페이스 장치 및구동 방법
KR20110111830A (ko) * 2010-04-05 2011-10-12 문장일 안경형 마우스 시스템
JP2013201734A (ja) * 2012-03-26 2013-10-03 Research Organization Of Information & Systems 盗撮防止装着具
US20140168784A1 (en) * 2011-08-23 2014-06-19 Brother Kogyo Kabushiki Kaisha Head-Mountable Display

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169822A (ja) 2001-12-05 2003-06-17 Yamamoto Kogaku Co Ltd スポーツ用ゴーグル
KR20040099988A (ko) 2003-05-21 2004-12-02 이주현 웨어러블 컴퓨터
US10039957B2 (en) 2010-10-08 2018-08-07 Koninklijke Philips N.V. Goggles, system and method for providing feedback
KR20130045002A (ko) 2011-10-25 2013-05-03 송영일 안경형 모니터
KR101343748B1 (ko) * 2012-04-23 2014-01-08 주식회사 브이터치 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
KR101430614B1 (ko) 2014-05-30 2014-08-18 주식회사 모리아타운 웨어러블 안경을 이용한 디스플레이 장치 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133885A (ja) * 1997-10-29 1999-05-21 Seiko Epson Corp 頭部装着型表示装置
KR20080077804A (ko) * 2007-02-21 2008-08-26 원광대학교산학협력단 안구전도와 마커인식을 이용한 착용형 인터페이스 장치 및구동 방법
KR20110111830A (ko) * 2010-04-05 2011-10-12 문장일 안경형 마우스 시스템
US20140168784A1 (en) * 2011-08-23 2014-06-19 Brother Kogyo Kabushiki Kaisha Head-Mountable Display
JP2013201734A (ja) * 2012-03-26 2013-10-03 Research Organization Of Information & Systems 盗撮防止装着具

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976889A (zh) * 2019-03-26 2019-07-05 孙涛 一种基于智能眼镜的多任务协同处理方法
CN109976889B (zh) * 2019-03-26 2024-01-23 孙涛 一种基于智能眼镜的多任务协同处理方法
CN110069101A (zh) * 2019-04-24 2019-07-30 洪浛檩 一种穿戴式计算设备和一种人机交互方法
CN110069101B (zh) * 2019-04-24 2024-04-02 洪浛檩 一种穿戴式计算设备和一种人机交互方法
CN114115532A (zh) * 2021-11-11 2022-03-01 珊瑚石(上海)视讯科技有限公司 一种基于显示内容的ar标注方法及系统
CN114115532B (zh) * 2021-11-11 2023-09-29 珊瑚石(上海)视讯科技有限公司 一种基于显示内容的ar标注方法及系统

Also Published As

Publication number Publication date
KR101709611B1 (ko) 2017-03-08
KR20160047305A (ko) 2016-05-02

Similar Documents

Publication Publication Date Title
WO2016064073A1 (ko) 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US11670267B2 (en) Computer vision and mapping for audio applications
US11275453B1 (en) Smart ring for manipulating virtual objects displayed by a wearable device
US10585288B2 (en) Computer display device mounted on eyeglasses
CN116348836A (zh) 增强现实中用于交互式游戏控制的手势跟踪
EP2834723B1 (en) Touch sensitive user interface
US9335547B2 (en) Head-mounted display device and method of controlling head-mounted display device
US9442571B2 (en) Control method for generating control instruction based on motion parameter of hand and electronic device using the control method
CN114127669A (zh) 无源指示笔的可跟踪性增强
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
WO2013162236A1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
KR20130034125A (ko) 증강현실 기능을 구비한 안경형 모니터
CN103713387A (zh) 电子设备和采集方法
US11900058B2 (en) Ring motion capture and message composition system
US20170300121A1 (en) Input/output device, input/output program, and input/output method
JP2017111537A (ja) ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム
US11733789B1 (en) Selectively activating a handheld device to control a user interface displayed by a wearable device
RU109884U1 (ru) Электронно-оптический манипулятор
JP2017157120A (ja) 表示装置、及び、表示装置の制御方法
JP2016212769A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2022113973A (ja) 表示方法、表示装置、及び、プログラム
KR20150137908A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20160080107A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20160014091A (ko) 홀로그래피 터치 기술 및 프로젝터 터치 기술

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15853091

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15853091

Country of ref document: EP

Kind code of ref document: A1