KR101492813B1 - 웨어러블 디스플레이용 입력장치 - Google Patents
웨어러블 디스플레이용 입력장치 Download PDFInfo
- Publication number
- KR101492813B1 KR101492813B1 KR20130101766A KR20130101766A KR101492813B1 KR 101492813 B1 KR101492813 B1 KR 101492813B1 KR 20130101766 A KR20130101766 A KR 20130101766A KR 20130101766 A KR20130101766 A KR 20130101766A KR 101492813 B1 KR101492813 B1 KR 101492813B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- wearable display
- images
- display device
- motion information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 구글 글라스와 같은 웨어러블 디스플레이 디바이스에 적용할 수 있는 웨어러블 디스플레이용 입력장치에 관한 것이다. 본 발명에 따른 웨어러블 디스플레이용 입력장치는 웨어러블 디스플레이 디바이스를 제어하기 위한 것으로, 상기 웨어러블 디스플레이 디바이스에 장착되며, 복수의 영상을 연속적으로 촬영하는 카메라와, 상기 카메라에서 촬영된 복수의 영상을 분석하여 상기 카메라의 움직임 정보를 획득하는 영상 매칭부와, 상기 영상 매칭부에서 획득된 움직임 정보에 대응되는 제어신호를 생성하는 제어부를 포함하는 것을 특징으로 한다.
Description
본 발명은 웨어러블 디스플레이용 입력장치에 관한 것으로, 보다 상세하게는 최근 구글에서 출시한 구글 글라스와 같이 사람의 몸에 착용하는 웨어러블 디스플레이를 조작하기 위한 장치에 관한 것이다.
최근들어 새로운 형태의 디스플레이 디바이스들이 다양하게 출현하고 있다. 특히, 모바일 디스플레이의 경우 기존의 디스플레이 기능에 소형 컴퓨터 기능을 부가한 스마트 디스플레이 디바이스를 넘어, 휴대성을 극대화하는 웨어러블 디스플레이의 형태로 발전하고 있다.
예컨대, 웨어러블 디스플레이 중 최근 구글에서 출시한 안경형 디스플레이(구글 글라스)의 경우 안경처럼 착용하면 되기 때문에 기존의 스마트 기기처럼 들고 다닐 필요가 없다. 즉, HMD(Head mount display)의 경우 안경처럼 착용하고 보기 때문에 TV와 같은 큰 부피의 디스플레이 디바이스가 필요 없다. 그리고, 시계형 디스플레이의 경우에도 소형으로 손목에 차고 다닐 수 있어, 양손이 편안한 상태에서 휴대형 디스플레이 기기를 이용할 수 있다.
한편, 안경형 디스플레이의 경우 눈과 밀착되어 휴대성 등의 여러 측면에서 효율적이지만, 기존의 스마트 디스플레이처럼 터치 스크린을 입력기로서 사용할 수 없어 새로운 형태의 입력장치가 필요하다.
예를 들어, 공개특허 10-2001-0012024호에 나타나 있는 바와 같이, 음성 인식 방법을 통해 명령신호를 입력할 수 있다. 하지만, 음성 인식 방법의 경우 시끄러운 곳에서 오동작의 가능성이 있고, 많은 사람이 모이는 곳에서는 타인의 청각을 자극할 수 있어 사용에 제한이 있다. 나아가, 음성 인식 방법으로 마우스의 이동이나 드래그와 같은 명령신호를 입력하기에는 어려움이 있다.
한편, 공개특허 10-2012-0047746호에는 터치 스크린을 직접 터치 하지 않고 마우스를 구동하는 가상마우스 구동방법 등이 제안된 바 있다. 하지만, 가상마우스 구동방법은 손의 움직임을 해석하여 명령을 구동하는 방법이다. 따라서, 안경형 디스플레이의 경우 명령입력을 위해 손을 카메라 앞에서 이동하면 전방의 시야를 가릴 수 있다는 문제점이 있으므로, 정면을 봐야하는 안경형 디스플레이에는 이와 같은 방식을 적용하기 어려움이 있다. 나아가, 손을 움직여 명령 입력을 하는 동작인식방법은 카메라 영상내로 손이 들어왔을 경우에만 동작이 가능하기 때문에 손이 영상내에 있는지를 확인하고 영상 영역밖으로 벗어나지 않게 주의해야 하는 문제점이 있다.
따라서, 웨어러블 디스플레이에 적용할 수 있는 새로운 형태의 입력장치의 개발이 요구된다.
본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 구글 글라스와 같은 웨어러블 디스플레이 디바이스에 적용할 수 있는 웨어러블 디스플레이용 입력장치를 제공하는 것이다.
본 발명에 따른 웨어러블 디스플레이용 입력장치는 웨어러블 디스플레이 디바이스를 제어하기 위한 것으로, 상기 웨어러블 디스플레이 디바이스에 장착되며, 복수의 영상을 연속적으로 촬영하는 카메라와, 상기 카메라에서 촬영된 복수의 영상을 분석하여 상기 카메라의 움직임 정보를 획득하는 영상매칭부와, 상기 영상매칭부에서 획득된 움직임 정보에 대응되는 제어신호를 생성하는 제어부를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 제어부는 상기 움직임 정보를 디스플레이 상에서의 커서의 좌표 이동량으로 변환하는 것이 바람직하다.
또한, 본 발명에 따르면 상기 영상매칭부는 촬영된 각 영상을 일정 개수의 블럭으로 분할하고, 연속된 두 영상에서 상호 대응되는 블럭들의 이동량을 영상 매칭 방법으로 구하고, 상기 구해진 이동량의 통계 값으로부터 연속된 두 영상 사이의 변위를 산출하는 것이 바람직하다.
또한, 본 발명에 따르면 상기 제어부는, 상기 카메라가 기준시간 내에 상하 또는 좌우로 N회 이상 주기적으로 이동되는 움직임 정보를 커서의 on/off 신호로 활용하는 것이 바람직하다.
또한, 본 발명에 따르면 상기 제어부는, 상기 카메라가 기준시간 내에 상하 또는 좌우로 N회 이상 주기적으로 이동되는 움직임 정보를 커서의 클릭 신호로 활용하는 것이 바람직하다.
본 발명에 따르면, 웨어러블 디스플레이 디바이스를 용이하게 정확하게 조작할 수 있다.
도 1은 본 발명의 일 실시예에 따른 웨어러블 디스플레이용 입력장치의 개략적인 구성도이다.
도 2는 웨어러블 디스플레이 디바이스가 장착된 몸의 부위를 움직였을 때 카메라로부터 입력되는 영상들의 일례를 보여주는 도면이다.
도 3은 촬영된 영상을 블럭으로 나눈 일례를 보여주는 도면이다.
도 4는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이다.
도 5는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이다.
도 2는 웨어러블 디스플레이 디바이스가 장착된 몸의 부위를 움직였을 때 카메라로부터 입력되는 영상들의 일례를 보여주는 도면이다.
도 3은 촬영된 영상을 블럭으로 나눈 일례를 보여주는 도면이다.
도 4는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이다.
도 5는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 웨어러블 디스플레이용 입력장치에 관하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 웨어러블 디스플레이용 입력장치의 개략적인 구성도이며, 도 2는 웨어러블 디스플레이 디바이스가 장착된 몸의 부위를 움직였을 때 카메라로부터 입력되는 영상들의 일례를 보여주는 도면이며, 도 3은 촬영된 영상을 블럭으로 나눈 일례를 보여주는 도면이며, 도 4는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이며, 도 5는 카메라를 하측 방향으로 움직였을 때 촬영된 영상들간의 블럭들의 움직임을 보여 주는 도면이다.
도 1 내지 도 5를 참조하면, 본 실시예에 따른 웨어러블 디스플레이용 입력장치는 구글 글라스와 같은 웨어러블 디스플레이 디바이스를 제어하기 위한 것으로, 카메라(10)와, 영상 매칭부(20)와, 제어부(30)를 포함한다.
카메라(10)는 복수의 영상을 연속적으로 촬영하기 위한 것으로, 웨어러블 디스플레이용 디바이스에 구비되어 있는 카메라가 활용될 수 있다. 예를 들어, 구글 글라스와 같이 안경 형태의 웨어러블 디스플레이용 디바이스는 안경테에 전방을 향하여 카메라가 설치될 수 있고, 손목시계 형태의 웨어러블 디스플레이용 디바이스의 경우에는 시계의 한쪽에 카메라가 설치될 수 있다. 이하에서는, 설명의 편의를 위해 구글 글라스와 같이 안경 형태를 가지는 웨어러블 디스플레이용 디바이스를 기준으로 설명한다.
영상 매칭부(20)는 카메라(10)에서 촬영된 복수의 영상을 입력받으며, 이 영상들을 분석하여 카메라의 움직임 정보를 획득한다.
구체적으로 설명하면, 안경 형태의 웨어러블 디스플레이용 디바이스에 설치되어 있는 카메라에 촬영되는 영상은, 사용자의 시선(보다 정확하게는 사용자가 바라보는 방향(얼굴 방향))에 의해 결정된다. 예를 들어, 카메라가 지면과 평행하게 달려 있다고 가정할 때, 머리를 좌우로 흔들면 도 2에 도시된 바와 같이 촬영된 영상도 좌우로 옵셋(차이)이 발생하게 된다. 또한, 머리를 상하로 흔들면 촬영된 영상도 상하로 옵셋이 발생하게 된다. 그런데, 연속적으로 촬영된 영상에서는 영상 사이의 옵셋량이 적게 되므로 영상 간의 매칭이 가능하다.
영상 매칭부(20)에서는 카메라의 움직임 정도(즉, 움직임 정보)를 나타내는 연속된 영상 간의 옵셋량을 구하기 위해, 도 3에 나타낸 바와 같이 촬영된 영상을 일정 개수의 블럭으로 나눈다. 연속된 두 개의 영상에서 상호 대응되는 블럭들의 이동량을 템플릿 매칭과 같은 영상 매칭 방법으로 구한다. 즉, 각 영상을 A~F까지 6개의 블럭으로 나눈다고 하면, N번째 영상에서 A 블럭과, N+1번째 영상에서의 A 블럭 사이의 이동량을 영상 매칭 방법으로 구하고, 동일하게 B~F 블럭에 대해서도 이동량을 구한다. 그리고, 이렇게 구해진 블럭들의 이동량들의 통계값으로부터 두 영상 사이의 변위(즉, 움직임 값)를 산출할 수 있다. 여기서, 통계값과 관련하여 블럭의 이동량들의 평균값을 사용할 수 있고, 아니면 빈도수가 많은 이동량을 영상 간의 변위로 정할 수 있다.
제어부(30)는 영상 매칭부에서 구해진 카메라의 움직임 정보에 따라 웨어러블 디스플레이 디바이스를 조작하기 위한 제어신호를 생성하는 것이다.
제어신호 생성에 관하여 구체적으로 설명하면, 도 4 및 도 5에서 보는 바와 같이, 카메라를 하측 방향으로 움직이면 움직임 벡터(움직임 정보)는 상측으로 구해지고 카메라를 좌측 방향으로 움직이면 움직임 벡터는 우측으로 구해진다. 이 경우 디스플레이 화면상의 커서는 카메라를 움직인 방향으로 움직이는 것이 직관적이다. 따라서 디스플레이의 y축 좌표는 구해진 움직임값의 방향과 반대로 캘리브레이션해줄 필요가 있다.
상기와 같이 구해진 영상간의 움직임 값을 캘리브레이션 과정을 통하여 디스플레이상의 좌표 변화량으로 바꾸어주면, 카메라의 움직임(즉, 사용자의 머리의 움직임)에 따라 디스플레이 상의 커서를 움직일 수 있다. 이때 머리의 상하좌우 움직임에 맞게 커서의 좌표도 상하좌우로 움직이도록 방향을 맞추어 좌표 변환을 해주면 직관적인 구동이 가능하다. 그리고 영상간의 움직임 값에 대한 디스플레이 좌표의 변화의 비율인 민감도에 관한 계수를 적절히 조절하면, 머리를 심하게 돌리지 않더라도 커서를 화면 끝에서 끝까지 움직일 수 있도록 할 수 있다. 또한, 정밀한 제어를 위해서는 영상간의 움직임값에 대한 디스플레이 좌표의 변화율을 선형적으로 곱해서 구하는 것이 아니라, 움직임 값의 제곱량을 이용할 수도 있다. 기본적으로는 연속되는 영상간의 매칭에 의해 구해지는 움직임 값의 정도에 따라 디스플레이상의 좌표의 변화량을 구함으로써, 화면상의 커서를 이동하고 원하는 메뉴를 선택할 수 있다.
한편, 커서를 켜고 끄기 위해서는 특별한 동작이 필요하다. 예를 들어, 사전에 설정된 기준시간 안에 머리(카메라)를 상하 또는 좌우로 N회 이상 반복적으로 움직이는 동작을 커서를 on/off 하는 제어신호로 활용할 수 있다.
즉, 머리를 상하로 여러번 움직이면 영상 간의 매칭에 의한 옵셋량의 증감이 주기적으로 나타내게 된다. 이것은 평상시에는 일어나기 힘든 동작으로, 기준시간 내에 이 주기적인 신호가 일정 횟수 이상 일어나게 되면 커서를 on/off 하는 동작으로 인식할 수 있다. 마찬가지로 머리를 좌우로 여러번 움직이는 동작을 커서를 끄는 동작으로 활용할 수 있다.
한편, 메뉴를 선택하는 클릭동작의 경우는 머리를 움직여 커서를 이동시키다가 일정 시간 멈추었을 때 클릭동작으로 해석할 수 있다. 이외에도 순간적으로 머리를 내렸다가 올리는 동작을 클릭동작으로 활용할 수 있다. 머리를 끄덕이는 동작은 직관적인 클릭동작과 일치하고 일정 시간 내에 하방으로 내려갔다가 올라오는 움직임값들을 해석하면 클릭동작을 인식할 수 있다. 이때 클릭하는 순간은 클릭동작을 인식한 후 과거의 기록으로부터 초기 클릭동작이 시작된 지점을 찾아내서 해당좌표에서 클릭이 일어났음을 소급 적용할 수 있다. 상기와 같은 방식으로 커서를 on, off하고 움직이고 클릭하여 메뉴를 선택할 수 있다.
참고로, 앞서 설명한 머리를 상하 또는 좌우로 흔드는 동작을 클릭하는 신호로도 활용할 수 있다.
한편, 웨어러블 디바이스중 손목시계형의 경우에도 안경형과 유사하게 구동할 수 있다. 손목시계 위에 달린 카메라를 이용하여 텍스처가 있는 대상을 바라보고 손목을 상하좌우로 움직이면 커서를 켜고 이동하고 클릭할 수 있다. 방법은 상기 기술한 안경형 디스플레이의 상하 움직임을 를 시계의 12시 방향 움직임으로 바꾸고 좌우 움직임을 3시 방향 움직임으로 치환하면 된다.
상기에 설명한 방법은 웨어러블 디스플레이에 장착된 카메라를 이용하는 방법에 대해 설명하였지만, 웨어러블 디스플레이에 장착된 자이로 센서를 이용해서도 비슷한 기능을 구현할 수 있다. 자이로 센서의 경우에는 해당하는 축의 각도의 변화량을 얻을 수 있다. 머리를 상하로 움직일때의 각도 변화량과 좌우로 움직일때의 각도 변화량을 상기 설명한 부분의 영상간의 옵셋량으로 치환하면 카메라를 이용했을 때와 유사한 결과를 얻을 수 있다.
상술한 바와 같이, 본 발명에 따르면 웨어러블 디스플레이 디바이스가 장착된 신체의 부위를 움직임으로써 웨어러블 디스플레이 디바이스를 용이하고 정확하게 조작할 수 있다. 그리고, 이러한 방식은 기존 음식 인식 방법과 달리 주변의 소음에 의해 방해를 받지 않을 뿐 아니라, 가상마우스 구동방식과 달리 사용자의 손을 특별히 움직이지 않아도 되므로, 웨어러블 디스플레이 디바이스를 매우 효율적으로 조작할 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
10...카메라 20...영상 매칭부
30...제어부
30...제어부
Claims (5)
- 웨어러블 디스플레이 디바이스를 제어하기 위한 것으로,
상기 웨어러블 디스플레이 디바이스에 장착되며, 복수의 영상을 연속적으로 촬영하는 카메라와,
상기 카메라에서 촬영된 복수의 영상을 분석하여 상기 카메라의 움직임 정보를 획득하는 영상 매칭부와,
상기 영상 매칭부에서 획득된 움직임 정보에 대응되는 제어신호를 생성하는 제어부를 포함하며,
상기 영상 매칭부는 촬영된 각 영상을 일정 개수의 블럭으로 나누고, 연속된 두 영상에서 상호 대응되는 블럭들의 이동량을 영상 매칭 방법으로 구하고, 상기 구해진 이동량의 통계 값으로부터 연속된 두 영상 사이의 변위를 산출하는 것을 특징으로 하는 웨어러블 디스플레이용 입력장치. - 제1항에 있어서,
상기 제어부는 상기 움직임 정보를 디스플레이 상에서의 커서의 좌표 이동량으로 변환하는 것을 특징으로 하는 웨어러블 디스플레이용 입력장치. - 삭제
- 제1항에 있어서,
상기 제어부는, 상기 카메라가 기준시간 내에 상하 또는 좌우로 N회 이상 주기적으로 이동되는 움직임 정보를 커서의 on/off 신호로 활용하는 것을 특징으로 하는 웨어러블 디스플레이용 입력장치. - 제1항에 있어서,
상기 제어부는, 상기 카메라가 기준시간 내에 상하 또는 좌우로 N회 이상 주기적으로 이동되는 움직임 정보를 클릭 신호로 활용하는 것을 특징으로 하는 웨어러블 디스플레이용 입력장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130101766A KR101492813B1 (ko) | 2013-08-27 | 2013-08-27 | 웨어러블 디스플레이용 입력장치 |
PCT/KR2014/007969 WO2015030482A1 (ko) | 2013-08-27 | 2014-08-27 | 웨어러블 디스플레이용 입력장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130101766A KR101492813B1 (ko) | 2013-08-27 | 2013-08-27 | 웨어러블 디스플레이용 입력장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101492813B1 true KR101492813B1 (ko) | 2015-02-13 |
Family
ID=52586949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130101766A KR101492813B1 (ko) | 2013-08-27 | 2013-08-27 | 웨어러블 디스플레이용 입력장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101492813B1 (ko) |
WO (1) | WO2015030482A1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016148486A1 (ko) * | 2015-03-16 | 2016-09-22 | 박준호 | 웨어러블 디바이스 |
WO2016195146A1 (ko) * | 2015-06-02 | 2016-12-08 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
KR20180057870A (ko) * | 2016-11-23 | 2018-05-31 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 이를 지원하는 전자 장치 |
CN110176089A (zh) * | 2018-11-20 | 2019-08-27 | 广东小天才科技有限公司 | 一种门禁解锁方法及可穿戴设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017069324A1 (ko) * | 2015-10-22 | 2017-04-27 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101169583B1 (ko) * | 2010-11-04 | 2012-07-31 | 주식회사 매크론 | 가상마우스 구동방법 |
JP2013027438A (ja) * | 2011-07-26 | 2013-02-07 | Fujitsu Ltd | 判定装置、設定装置、判定方法、および判定プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154794A (ja) * | 1999-11-29 | 2001-06-08 | Nec Fielding Ltd | まばたきによるクリック機能を有するポインティング装置 |
KR101233793B1 (ko) * | 2011-09-26 | 2013-02-15 | 주식회사 매크론 | 손 동작 인식을 이용한 가상 마우스 구동 방법 |
JP5664677B2 (ja) * | 2013-02-19 | 2015-02-04 | ソニー株式会社 | 撮像表示装置、撮像表示方法 |
-
2013
- 2013-08-27 KR KR20130101766A patent/KR101492813B1/ko active IP Right Grant
-
2014
- 2014-08-27 WO PCT/KR2014/007969 patent/WO2015030482A1/ko active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101169583B1 (ko) * | 2010-11-04 | 2012-07-31 | 주식회사 매크론 | 가상마우스 구동방법 |
JP2013027438A (ja) * | 2011-07-26 | 2013-02-07 | Fujitsu Ltd | 判定装置、設定装置、判定方法、および判定プログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016148486A1 (ko) * | 2015-03-16 | 2016-09-22 | 박준호 | 웨어러블 디바이스 |
WO2016195146A1 (ko) * | 2015-06-02 | 2016-12-08 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
KR20160142124A (ko) * | 2015-06-02 | 2016-12-12 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
KR101700767B1 (ko) * | 2015-06-02 | 2017-01-31 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
US10545571B2 (en) | 2015-06-02 | 2020-01-28 | Lg Electronics Inc. | Head mounted display |
KR20180057870A (ko) * | 2016-11-23 | 2018-05-31 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 이를 지원하는 전자 장치 |
KR102544779B1 (ko) * | 2016-11-23 | 2023-06-19 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 이를 지원하는 전자 장치 |
CN110176089A (zh) * | 2018-11-20 | 2019-08-27 | 广东小天才科技有限公司 | 一种门禁解锁方法及可穿戴设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2015030482A1 (ko) | 2015-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114341779B (zh) | 用于基于神经肌肉控制执行输入的系统、方法和界面 | |
US12131011B2 (en) | Virtual interactions for machine control | |
US11615597B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
EP2929424B1 (en) | Multi-touch interactions on eyewear | |
US20190265781A1 (en) | Precision tracking of user interaction with a virtual input device | |
US9904360B2 (en) | Head tracking based gesture control techniques for head mounted displays | |
KR101492813B1 (ko) | 웨어러블 디스플레이용 입력장치 | |
CN103294180B (zh) | 一种人机交互控制方法及电子终端 | |
EP4172736A1 (en) | Integration of artificial reality interaction modes | |
US20190385372A1 (en) | Positioning a virtual reality passthrough region at a known distance | |
US20150002475A1 (en) | Mobile device and method for controlling graphical user interface thereof | |
KR101502085B1 (ko) | 안경형 디스플레이 디바이스의 동작인식 입력방법 | |
KR20150040580A (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
CN110968190B (zh) | 用于触摸检测的imu | |
WO2017206777A1 (en) | Wearable device and control method, and smart control system | |
US10963063B2 (en) | Information processing apparatus, information processing method, and program | |
KR101370027B1 (ko) | 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법 | |
EP4172746A1 (en) | Visual interface for a computer system | |
KR101865329B1 (ko) | Hmd 헤드셋 장치 및 그 입력 방법 | |
US11586295B2 (en) | Wink gesture control system | |
KR101891837B1 (ko) | 증강현실 인터페이스를 이용하는 착용형 디스플레이 장치 | |
US20230042447A1 (en) | Method and Device for Managing Interactions Directed to a User Interface with a Physical Object | |
KR20240025593A (ko) | 객체에 대한 동작 양식을 동적으로 선택하기 위한 방법 및 디바이스 | |
WO2022103741A1 (en) | Method and device for processing user input for multiple devices | |
WO2024064231A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180206 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181122 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191203 Year of fee payment: 6 |